Você está na página 1de 221

BRUNO DIAS AMARO

NOTAS DE AULA
ALGEBRA LINEAR

CAMPO GRANDE
2020

i
.

ii
Apresentação

O presente texto tem como objetivo facilitar o acompanhamento da disciplina Álgebra


Linear, ministrada pelo Instituto de Matemática da UFMS. Ele foi elaborado e gentilmente
cedido pelos professores Roseli Arbach Fernandes de Oliveira e Luis Antonio Fernandes de
Oliveira, do Departamento de Matemática da Faculdade de Engenharia de Ilha Solteira,
da UNESP tomando como base, inicialmente, as notas de aulas da disciplina Álgebra
Linear ministrada ao longo dos anos para os três cursos de Engenharia e, depois do curso
de Licenciatura em Matematica. Por mim foram feitas apenas adaptações do texto para
os cursos da UFMS de Campo Grande.

Todas as sugestões que contribuam para tornar o texto mais claro e completo serão
bem vindas e por elas ficaremos muito gratos.

Bruno Dias Amaro

Campo Grande, segundo semestre de 2020.

iii
Sumário

Apresentação iii

1 Sistemas Lineares e Matrizes 1

1.1 Sistemas Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.2 Resolução de Sistemas Lineares . . . . . . . . . . . . . . . . . . . . . . . . 5

1.3 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

1.4 Matrizes Inversíveis. Sistemas de Cramer . . . . . . . . . . . . . . . . . . . 15

1.4.1 Matrizes Inversíveis . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

1.4.2 Sistemas de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

1.5 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

1.6 Determinantes de matrizes de ordem maior . . . . . . . . . . . . . . . . . . 29

1.7 Propriedades do determinante . . . . . . . . . . . . . . . . . . . . . . . . . 32

1.8 Uma aplicação em cálculo de várias variáveis . . . . . . . . . . . . . . . . . 37

1.8.1 Coordenadas polares . . . . . . . . . . . . . . . . . . . . . . . . . . 38

1.8.2 Coordenadas esféricas . . . . . . . . . . . . . . . . . . . . . . . . . 38

2 Espaços Vetoriais 41

2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

2.2 Espaços Vetoriais e Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . 42

iv
Sumário Bruno Dias Amaro

2.3 Subespaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

2.4 Combinações Lineares


Espaços Vetoriais Finitamente Gerados . . . . . . . . . . . . . . . . . . . . 57

3 Base e Dimensão 66

3.1 Dependência Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

3.2 Base de um Espaço Vetorial Finitamente Gerado . . . . . . . . . . . . . . . 71

3.3 Determinação de Bases de um Subespaço do Rn . . . . . . . . . . . . . . . 80

3.4 Matriz de Mudança de Base . . . . . . . . . . . . . . . . . . . . . . . . . . 89

4 Transformações Lineares 100

4.1 Aplicações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

4.2 Transformações Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

4.3 Núcleo e Imagem de uma Transformação Linear . . . . . . . . . . . . . . . 113

4.4 Isomorfismos e Automorfismos . . . . . . . . . . . . . . . . . . . . . . . . . 118

4.5 Representação Matricial da Transformação Linear . . . . . . . . . . . . . . 132

4.5.1 Operações com Transformações Lineares . . . . . . . . . . . . . . . 132

4.5.2 Matriz de uma Transformação Linear . . . . . . . . . . . . . . . . . 135

4.5.3 Matriz de kF + G . . . . . . . . . . . . . . . . . . . . . . . . . . . 142

4.5.4 Matriz da Transformação Composta . . . . . . . . . . . . . . . . . . 143

5 Espaços com Produto Interno 154

5.1 Produto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154

5.2 Norma e Distância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157

5.2.1 Aplicação da Desigualdade de Cauchy-Schwarz: ângulo entre veto-


res em um espaço euclidiano . . . . . . . . . . . . . . . . . . . . . . 161

5.3 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168

v
Sumário Bruno Dias Amaro

5.4 Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172

5.5 Isometrias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177

5.6 Operadores Auto-Adjuntos e Espaços Hermitianos. . . . . . . . . . . . . . 180

6 Diagonalização de Operadores Lineares 183

6.1 Valores Próprios e Vetores Próprios . . . . . . . . . . . . . . . . . . . . . . 183

6.2 Diagonalização de Operadores . . . . . . . . . . . . . . . . . . . . . . . . . 191

6.3 Polinômio Minimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197

6.4 Aplicações da Diagonalização . . . . . . . . . . . . . . . . . . . . . . . . . 203

6.4.1 Potências de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . 203

6.4.2 Noções Sobre Séries de Matrizes . . . . . . . . . . . . . . . . . . . . 204

6.5 Operadores Diferenciais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205

6.5.1 Aplicação da Diagonalização: Sistemas de Equações Diferenciais


Ordinárias com Coeficientes Constantes . . . . . . . . . . . . . . . . 207

Referências Bibliográficas 215

vi
Capítulo 1

Sistemas Lineares e Matrizes

1.1 Sistemas Lineares

Definição: A equação α1 x1 + α2 x2 + ... + αn xn = β, n ≥ 1, sendo xi ∈ R variáveis


e α1 , α2 , ..., αn , β ∈ R é chamada de equação linear sobre R, nas incógnitas x1 , x2 , ... ,
xn . Uma solução desta equação é uma n-upla de números reais (b1 , b2 , ..., bn ) tal que

α1 b1 + α2 b2 + ... + αn bn = β

Definição: Um sistema linear S é um conjunto de m equações lineares, cada uma com


n incógnitas (m, n ≥ 1), consideradas simultaneamente e descrito por




 α11 x1 + α12 x2 + ... + α1n xn = β1

 α x + α x + ... + α x = β
21 1 22 2 2n n 2
S :


 ......................................................

 α x + α x + ... + α x = β
m1 1 m2 2 mn n m

No caso em que β1 = β2 = ... = βm = 0, dizemos que o sistema S é homogêneo. Uma


solução desse sistema é uma n-upla (b1 , b2 , ... , bn ) satisfazendo cada uma das m
equações do sistema.

1
Sistemas Lineares e Matrizes Sistemas Lineares

Exemplo: O sistema linear


 1 x1 + 1 x2 + 2 x3 = 9

S1 : 2 x1 + 4 x2 − 3 x3 = 1

3 x1 + 6 x2 − 5 x3 = 0

é não-homogêneo e uma solução de S1 é (1, 2, 3) (verificar). Neste caso existe apenas


uma solução de S1 . Já o sistema


 x + y + 2z = 9

S2 : 2x + 4y − 3z = 1

4x + 8y − 6z = 2

admite infinitas soluções, por exemplo, (35/2, −17/2, 0) e (12, −5, 1).

Definição: Um sistema linear S é

a. incompatível, se S não admitir solução;

b. compatível determinado, se S admitir uma única solução;

c. compatível indeterminado, se S admitir mais que uma solução.

Observação: No exemplo anterior S1 é compatível determinado enquanto que S2 é com-


patível indeterminado.

Observação: Todo sistema homogêneo é compatível pois (0, 0, ..., 0) é solução.

Um sistema S pode ser modificado por meio das chamadas de operações elementares
sobre S, descritas abaixo:

I. Permutar duas equações;

II. Multiplicar uma das equações por um número real não nulo;

III. Somar a uma das equações do sistema uma outra equação multiplicada por um
número real.

2
Sistemas Lineares e Matrizes Sistemas Lineares

Um sistema linear S1 obtido a partir de S por um número finito de operações elementares


é chamado de sistema equivalente a S, denotado por S1 ∼ S. Observemos que se S1 ∼
S, então toda solução de S1 é solução de S, e vice-versa. Além disso, se S for incompatível
então S1 também será incompatível.

Exemplo: Identifique as operações elementares que levaram o sistema


 x1 − x2 + x3 = 1

S1 : 2 x1 − x2 + x3 = 4

x1 − 2 x2 + 2 x3 = 0

ao sistema equivalente


 x1 − x2 + x3 = 1

S2 : x2 − x3 = 2

0 = 1

O sistema S1 é compatível?

Solução:
 

 x 1 − x 2 + x3 = 1 (E1 )  x1 − x2 + x3 = 1 (E1 )

2 x1 − x2 + x3 = 4 (E2 ) (−2E1 + E2 ) ∼ x2 − x3 = 2 (E2 ) (E2 + E3 ) ∼
 
x1 − 2 x2 + 2 x3 = 0 (E3 ) (−E1 + E3 ) −x2 + x3 = −1 (E3 )
 


 x1 − x2 + x3 = 1

∼ x2 − x3 = 2, que é um sistema incompatível.

0 = 1

Note que: Quando estivermos buscando um sistema equivalente a um dado sistema


linear S, em cada passo, chamaremos de Ei a i-ésima equação do sistema linear obtido no
passo imediatamente anterior.

3
Sistemas Lineares e Matrizes Sistemas Lineares

Definição: Dizemos que um sistema linear



 α1r1 xr1 + ........................... + α1n xn = β1

α2r2 xr2 + .............. + α2n xn = β2




S : ...........................................

αkrk xrk + ... + αkn xn = βk





0 xn = βk+1

com α1r1 6= 0, α2r2 6= 0, ..., αkrk 6= 0 e ri > 0 , é escalonado se, e somente se, 1 ≤ ri <
r2 < ... < rk ≤ n.

Observe que:

1. na 2a equação do sistema S acima, o coeficiente da variável xr1 é zero; dessa forma,


o número de coeficientes “iniciais”iguais a zero na 2a equação do sistema escalonado
S é maior que o número de coeficientes “iniciais”iguais a zero na 1a equação;

2. de um modo geral, num sistema escalonado o número de zeros “iniciais”em uma equa-
ção é sempre estritamente maior do que o número de zeros “iniciais”da equação
precedente.

Exemplos:

  2x−y+z−t=4 
 x−y+z=1  2x−y+z−t=4


  
 y−2z+t=2
S1 : y − z = −1 S2 : ; S3 : y−2z+t=2
  z−2t=0 
z = 1/3 2t=0
 
 

 3t=4

Exemplo: Obtenha um sistema escalonado equivalente a



 x+y+2z=9
S : 2x+4y−3z=1

3x+6y−5z=0

através das operações elementares

4
Sistemas Lineares e Matrizes Resolução de Sistemas Lineares

Solução: (lembre que: depois do 1o passo, i-ésima equação significa i-ésima equação do
sistema linear obtido no passo imediatamente anterior e não do sistema linear inicial).

1. Somar a primeira equação, multiplicada por -2, com a segunda.

2. Somar a primeira equação, multiplicada por -3, com a terceira.

3. Multiplicar a segunda equação por 1/2.

4. Somar a segunda equação, multiplicada por -3, com a terceira.

5. Multiplicar a terceira equação por -2.

Exercício: Escalonar os sistemas

 
 5x−2y+2z=2
  3x+3y−2z−t=2

S1 : 3 x + y + 4 z = −1 S2 : 5x+2y+ z−2t=1
 
4x −3y +z= 3 2 x − y + 3 z − t = −1
 

1.2 Resolução de Sistemas Lineares

Discutir um sistema linear S significa classificá-lo em incompatível, compatível deter-


minado ou compatível indeterminado. Resolver um sistema linear S significa determinar
todas as suas soluções.

Após fazer o escalonamento de um sistema linear S de m equações e n incógnitas


chegaremos a uma das seguintes situações :

I. Numa das etapas do escalonamento obtemos



 ................................................





0
S : 0.x1 + 0.x2 + ........ + 0.xn = βi , βi 6= 0






................................................

5
Sistemas Lineares e Matrizes Resolução de Sistemas Lineares

0
Como S é incompatível segue que S também é incompatível.

Exemplo 1: 

 x+2y− z=5
S : 2x− y+3z=0

x −3y +4z=2

Fazendo-se a seguinte sequência de operações:

1. Somar a 1a equação, multiplicada por -2, com a 2a equação.

2. Somar a 1a equação, multiplicada por -1, com a 3a equação.

3. Somar a 2a equação, multiplicada por -1, com a 3a equação.

obtemos a seguinte equivalência:



 x+2y− z = 5

S ∼ −5 y + 5 z = 10, que é um sistema incompatível

0 = 7

II. Obtém-se um sistema escalonado do tipo




 x1 + α12 x2 + ............. + α1n xn = β1




 x2 + .............. + α2n xn = β2


0
S :


 ...........................................






 xn = βn

0
Neste caso o sistema S é compatível determinado pois podemos encontrar a sua (única)
solução de maneira recursiva, a partir da última equação, substituindo os valores na
equação anterior.

6
Sistemas Lineares e Matrizes Resolução de Sistemas Lineares

Exemplo 2: 

 x+2y− z=5
S : 2x− y+3z=0

x − 3 y + 2 z = −5

Repetindo-se aqui a mesma sequência de operações do Exemplo 1, obtemos a seguinte


equi-valência:


 x+2y− z=5

S ∼ −5 y + 5 z = 10, cuja solução (única) é x = 1, y = 2 e z = 0.

−2z = 0

III. Obtém-se um sistema escalonado do tipo




 x1 + ... + α1r2 xr2 + ... + α1r3 xr3 + ... + α1rp xrp + ....... + α1n xn = β1






xr2 + ................................................... + α2n xn = β2









0
S : xr3 + .................... + α3n xn = β3






......................................










xrp + .......... + αpn xn = βp

com p < n. Neste caso podemos eliminar, por meio de operações elementares

. o termo xr2 da primeira equação.

. os termos xr3 da primeira e segunda equações.


..
.

. os termos xrp da primeira a (p-1)-ésima equações.

Levamos ao segundo membro de cada equação todas as parcelas, com exceção da primeira,
e obtemos

7
Sistemas Lineares e Matrizes Resolução de Sistemas Lineares



 x1 = f1






 xr = fr

2 2


..


.






xrp = fp

sendo cada fi uma expressão linear nas variáveis xj com j 6= 1, j 6= r2 ,..., j 6= rp . A cada
sequência de valores fixada, obteremos uma solução do sistema e, como p < n, o sistema
é compatível indeterminado.

Exemplo 3: 

 x+2y− z=5
S : 2x− y+3z=0

x − 3 y + 4 z = −5

Repetindo-se aqui a mesma sequência de operações do Exemplo 1, obtemos a seguinte


equi-valência:
( (
x+2y− z=5 x+2y− z=5
S∼ ∼ ,
−5 y + 5 z = −10 y − z=2

que é um sistema compatível indeterminado.

Exemplos: Resolver por escalonamento :


  
 x + y+ z =1
  5x −2y+2z =2
  3x +3y−2z −t=2

S1 : x− y− z =2 S2 : 3 x + y + 4 z = −1 S3 : 5x+2y+ z −2t=1
  
2x+ y+ z=3 4x − 3y + z=3 2 x − y + 3 z − t = −1
  

Respostas: S1 é incompatível, S2 é compatível determinado, com solução (0, -1, 0) e S3


é compatível indeterminado, e suas soluções são dadas por

(- 4 x + 5 z + 3, y, z, -9 y + 13 z + 7), y, z ∈ R.

8
Sistemas Lineares e Matrizes Resolução de Sistemas Lineares

Exercício: Discutir e resolver, se for o caso, o sistema linear




 x + y+ z =1
S : x− y+2z =1

x + 6 y + 3 z = −1

Exercício: Discutir o sistema linear em função do parâmetro a, sendo




 x+y−az=0
ax+y−z=2−a

x + a y − z = −a

9
Sistemas Lineares e Matrizes Matrizes

1.3 Matrizes

Definição: Dados m, n ≥ 1 dois números inteiros, uma matriz real m × n é uma


sequência dupla de números reais, distribuidos numa tabela do tipo :

     
a11 a12 · · · a1n x1 b1
 a21 a22 · · · a2n  x2   b2 
     
 .. .. ..   .. 
A= , X = , B =  . 
..  . 
  
 . . . .  .  . 
am1 am2 · · · amn xn bm

Usamos a notação A = (aij ), 1 ≤ i ≤ m, 1 ≤ j ≤ n. Vamos indicar por Mm×n (R) o


conjunto das matrizes reais de m linhas e n colunas e Mn (R) o conjunto das matrizes
reais quadradas de ordem n. Na matriz A

     
A(1) = a11 a12 · · · a1n , A(2) = a21 a22 · · · a2n , · · · , A(m) = am1 am2 · · · amn

são as linhas de A e

     
a11 a12 a1n
 a21   a22   a2n 
     
 . , ···
A(1)  .. 
= , A(2) =  .  , A(n)  .. 
=
 
 .   .   . 
am1 am2 amn

são as colunas de A. Dizemos que duas matrizes m × n, A = (aij ) e B = (bij ), são iguais
se, e somente se, aij = bij , para todo 1 ≤ i ≤ m e 1 ≤ j ≤ n. Por exemplo,

! !
2 0 1 y 0 1
= ⇐⇒ x = 1, y = z = 2 e t = 3.
3 x 2 t 1 z

Definição: Dadas as matrizes m × n, A = (aij ) e B = (bij ), definimos a soma A + B


como sendo a matriz cujo termo geral é aij + bij , isto é,

10
Sistemas Lineares e Matrizes Matrizes

 
a11 + b11 a12 + b12 ··· a1n + b1n
 a21 + b21 a22 + b22 ··· a2n + b2n 
 
A+B =  .. .. .. .. 

 . . . .


am1 + bm1 am2 + bm2 · · · amn + bmn

e a multiplicação de uma matriz m × n, A = (aij ), por um número real α, α A, por

 
α a11 α a12 · · · α a1n
 α a21 α a22 · · · α a2n 
 
 ..
αA =  .. ... .. 
 . . . 

α am1 α am2 · · · α amn

Observação: As operações de adição de matrizes e multiplicação de matrizes por um


número real satisfazem as seguintes propriedades :

A1 . A + (B + C) = (A + B) + C, ∀ A, B, C ∈ Mm×n (R).

A2 . A + B = B + A, ∀ A, B ∈ Mm×n (R).

A3 . Existe uma matriz 0 ∈ Mm×n (R) tal que A + 0 = A, ∀ A ∈ Mm×n (R).

A4 . Dada uma matriz A ∈ Mm×n (R), existe uma matriz -A ∈ Mm×n (R) tal que A +
(-A) = 0.

Para quaisquer α, β ∈ R e A, B ∈ Mm×n (R),

M1 . (α β) A = α (β A).

M2 . (α + β) A = α A + β A.

M3 . α (A + B) = α A + α B.

M4 . 1.A = A.

11
Sistemas Lineares e Matrizes Matrizes

Definição: Consideremos as matrizes A = (aij ) do tipo m × n e B = (bjk ) do tipo n


× p. O produto A B é a matriz m × p cujo termo geral é dado por
n
X
cik = aij bjk ,
j=1

ou seja,  
A(1) B(1) A(1) B(2) · · · A(1) B(p)
 (2)
 A B(1) A(2) B(2) · · · A(2) B(p)


AB =  .. .. ... .. 
. . .
 
 
(m) (m) (m)
A B(1) A B(2) · · · A B(p)

sendo que A(i) representa a i-ésima linha da matriz A e B(j) representa a j-ésima coluna
da matriz B e

n
X
A(i) B(j) = aik bkj ,
k=1

Observação: Mesmo quando as matrizes forem do tipo n × n, nem sempre A B = B


A. Quando isto ocorre dizemos que A e B comutam entre si. Por exemplo
! ! ! !
1 2 0 3 0 3 1 2
6=
2 0 3 1 3 1 2 0

Observações:

1. A matriz A = (aij ) ∈ Mn (R), com aij = 0, se i 6= j e aii = 1, é chamada de matriz


identidade de ordem n e é denotada por In . Por exemplo, se n = 3,
 
1 0 0
0 1 0
 

0 0 1

2. Dada a matriz A = (aij ) ∈ Mm×n (R), a matriz transposta de A, denotada por


At , é a matriz B = (bij ) ∈ Mn×m (R), sendo bij = aji , com i = 1, 2, . . . , m; e j =

12
Sistemas Lineares e Matrizes Matrizes

1, 2, . . . , n.

Propriedades

1. Sejam A, B e C matrizes m × n, n × p e p × q respectivamente. Então

A (B C) = (A B) C

2. Sejam A, B e C matrizes m × n , n × p e n × p, respectivamente, e k ∈ R. Então

A (k B + C) = kA B + A C

3. Sejam A e B matrizes m × n e k ∈ R. Então

(k A + B)t = k At + B t

Exercício: Mostre que as matrizes dadas abaixo comutam entre si


   
1 0 0 4 0 0
A = 0 2 0 e B = 0 2 0
   

0 0 4 0 0 1

Exercício: Para cada número real α, considere a matriz


!
cos α −sen α
Tα =
sen α cos α

Mostre que Tα Tβ = Tα+β e calcule T−α .

Exercício: Se A e B são matrizes reais de ordem 2 que comutam com a matriz


!
0 1
−1 0

mostre que A e B comutam entre si.

13
Sistemas Lineares e Matrizes Matrizes

Exercício: Dada a matriz !


2 1
1 1

determine a matriz X ∈ M2 (R) tal que A X = I2 .

14
Sistemas Lineares e Matrizes Matrizes Inversíveis. Sistemas de Cramer

1.4 Matrizes Inversíveis. Sistemas de Cramer

1.4.1 Matrizes Inversíveis

Definição: Dizemos que uma matriz A ∈ Mn (R) é inversível se, e somente se, existir
uma matriz B ∈ Mn (R) de modo que A B = B A = In . Esta matriz, se existir, é chamada
de matriz inversa de A, e é indicada por A−1 .

Podemos determinar a inversa de uma matriz inversível A usando o seguinte método :


uma matriz B que puder ser obtida a partir de A após um número finito de operações
elementares (descritas abaixo) sobre as linhas de A,

(I) Permutar duas linhas de A.

(II) Multiplicar uma linha de A por um número real não nulo.

(III) Somar a uma linha de A uma outra linha de A multiplicada por um número
real.

é equivalente a A, denotado por B ∼ A. Além disso, vale o seguinte

Teorema: Uma matriz A é inversível se, e somente se, In ∼ A e a mesma sucessão de


operações elementares que levam A em In transformam In em A−1 .

Exemplo: Determine se a matriz é inversível e encontre sua inversa, se possível, sendo


 
1 1 −1
A = 2 1 1 . Calcule A A−1 .
 

3 −1 1

O procedimento a ser adotado é o seguinte: se A é uma matriz de ordem n, montamos


uma matriz n × 2n, na qual as primeiras n colunas são as colunas da matriz A e as
últimas n colunas são as colunas da matriz identidade de ordem n. No exemplo acima

15
Sistemas Lineares e Matrizes Matrizes Inversíveis. Sistemas de Cramer

.
1 1 −1 .. 1 0 0
 

..
ficamos com a seguinte situação: 
 
2 1 1 . 0 1 0
..
 
3 −1 1 . 0 0 1

A seguir, aplicamos operações elementares de modo que a matriz à esquerda se transforme


na matriz identidade. Se isso for possível, A é inversível e a matriz obtida à direita é sua
inversa.

No exemplo anterior, utilizando-se a seguinte sequência de operações:

1. Somar a 1a equação, multiplicada por -2, com a 2a equação e

• somar a 1a equação, multiplicada por -3, com a 3a equação.

2. Multiplicar a 2a equação por -1.

3. Somar a 2a equação, multiplicada por -4, com a 3a equação.

4. Multiplicar a 3a equação por - 18 .

5. Somar a 3a equação com a 1a equação (no lugar da 1a equação) e

• somar a 3a equação, multiplicada por 3, com a 2a equação.

6. Somar a 2a equação, multiplicada por -1, com a 1a equação.

obtemos:
.
1 0 0 ..
 
1 1
4
0 4
0 1 0 ...
 
1 1
8 2
− 83 
.
 
0 0 1 .. − 5
8
1
2
−8 1

16
Sistemas Lineares e Matrizes Matrizes Inversíveis. Sistemas de Cramer

o que significa que A é inversível e


 1 1

4
0 4
 
 
A−1
 
1 1 3
=
 8 2
−8
 
 
− 58 1
2
1
−8

1.4.2 Sistemas de Cramer

Consideremos o sistema linear




 a11 x1 + a12 x2 + · · · + a1n xn = b1

 a x + a x + ··· + a x
21 1 22 2 2n n = b2
S :
 ......................................................



 a x + a x + ··· + a x = bm
m1 1 m2 2 mn n

Fazendo

     
a11 a12 · · · a1n x1 b1
 a21 a22 · · · a2n x  b 
     
A=  , X =  .2  e B =  .2 

 .. .. ..
.
.. .  . 
 . . . .  . 


am1 am2 · · · amn xn bm

temos que S pode ser escrito na forma matricial A X = B, sendo que a matriz A é
chamada “matriz associada” ao sistema linear S. Chamamos de sistema de Cramer a
um sistema linear como o anterior, com m = n, cuja matriz associada é inversível. Neste
caso, X = A−1 B é a solução do sistema. Em particular, quando o sistema de Cramer n
× n é homogêneo, ele só admite a solução trivial.

17
Sistemas Lineares e Matrizes Matrizes Inversíveis. Sistemas de Cramer

x+y−z=0


Exemplo: Resolver o sistema de Cramer 2x+y+z=1

3x−y+z=1

 
1 1 −1
Solução: A matriz associada a S é a matriz A = 2 1 1  que já sabemos ser
 

3 −1 1
 1 1

4
0 4
 
 
inversível e cuja inversa é A−1 =  . Logo, a solução de S é dada por
 
1 1 3
 8 2
− 8
 
 
− 58 1
2
− 81
 1 1
   1
4
0 4
0 4
    
    
X=A B=
−1
    
1 1 3   1
 8 2
− 8  1 = 
8
    
    
− 85 1
2
−81
1 3
8

 x+y+z=2

Exercício: Resolver o sistema de Cramer x−y+z=0

y+2z=0

Exercício: Dizemos que uma matriz é ortogonal


 se A é inversível
 e A−1 = At . Deter-
1 0 0
√ √ 
minar x, y e z de modo que a matriz A = 0 1/ 2 1/ 2 seja ortogonal.

x y z

18
Sistemas Lineares e Matrizes Matrizes Inversíveis. Sistemas de Cramer

Exercícios
1. Encontre o(s) valor(es) da constante k para que o sistema de equações lineares
(
x−y = 3
2x−2y = k

(a) Não admita solução. (b) Admita exatamente uma solução. (c) Admita infinitas
soluções.

2. Mostre que para que o sistema linear S seja compatível é preciso que c = a + b, sendo

 x+y+2z = a

S : x+z = b

2x+y+3z = c

3. Resolver os sistemas abaixo :


 
 x+y+z = 1
  x+y+z = 1

S1 : x−y+2z = 2 e S2 : x − y + z = −2
 
x+6y+3z = 3 2y = 3
 

4. Determinar os valores de a e b que tornam o sistema





 3x−7y = a

 x+y = b
S2 :
 5x+3y = 5 a+2b



 x + 2 y = a + b − 1.

compatível determinado. Em seguida, resolver o sistema.

5. Discutir em função de a o sistema linear :



 x+y−az = 0

S : ax+y−z = 2−a

x + a y − z = −a

19
Sistemas Lineares e Matrizes Matrizes Inversíveis. Sistemas de Cramer

6. Resolver os sistemas lineares homogêneos :


 
 3x−y+2z−t = 0  3 x + 2 y − 12 z = 0
 ( 
4x+3y−z+t = 0
S1 : 3 x + y + 3 z + t = 0 , S2 : e S3 : x−y+z = 0
 x−y+2z−t = 0 
x− y− z−5t = 0 2x−3y+5z = 0
 

(
2X− Y = A + B
7. Determine matrizes X, Y ∈ M3 (R) de modo que
X + Y = A − B
   
1 0 0 4 0 0
sendo A = 0 2 0 e B = 0 2 0
   

0 0 4 0 0 1

8. Mostrar que A2 - 6 A + 5 I2 = 0, sendo


!
2 3
A =
1 4

9. Verificar quais das matrizes são inversíveis e determinar suas inversas :


 
    0 0 1 1
! 1 0 1 1 2  
1 2 1 0 0 1
A = B = 1 1 0 , C = 1 0  e D = 
    
2 2 1 1 1 1
0 2 1 0 −1
 
0 2 0 3

10. Determine todas as matrizes quadradas de ordem 3 que comutam com a matriz
 
a 1 0
A = 0 a 1
 

0 0 a

!
0 1
11. Se A e B são matrizes reais que comutam com a matriz A = , mostre
−1 0
que A B = B A.

20
Sistemas Lineares e Matrizes Matrizes Inversíveis. Sistemas de Cramer

12. Para x ∈ R, seja C(x) a matriz


 
c11 (x) c12 (x) c13 (x)
C(x) = c21 (x) c22 (x) c23 (x)
 

c31 (x) c32 (x) c33 (x)

sendo cij (x) funções diferenciáveis. Definimos a derivada da matriz C(x) como sendo a
matriz  0 0 0

c11 (x) c12 (x) c13 (x)
 
 
dC  0 0 0

(x) =  c21 (x) c22 (x) c23 (x)
dx 


 
0 0 0
c31 (x) c32 (x) c33 (x)

Mostrar que se A(x) e B(x) forem matrizes 3 × 3 diferenciáveis, então

d dA dB
(A B)(x) = B + A
dx dx dx

13. Dada uma matriz A = (aij ) ∈ Mm×n (R) chamamos de transposta de A, a matriz
n × m At = (bji ), sendo bji = aij , 1 ≤ i ≤ m e 1 ≤ j ≤ n. Mostre que

(a) (A + B)t = (A)t + (B)t .

(b) (α A)t = α(A)t .

(c) ((A)t )t = A.

(d) (A B)t = (B)t (A)t .

desde que as operações estejam definidas.

14. Resolver os seguintes sistemas de Cramer :



   x−y+z+t = 0
 x+y+z = 2  5x − 2y + 4z = 2


  
 x+y−z+t = 1
S1 : x−y+z = 0 S2 : 4x − 3y − 4z = 1 e S3 :
   −x + y + z − t = 0
y+2z = 0 5x + z = 3
  


 2x−y−z+3t = 1

21
Sistemas Lineares e Matrizes Determinantes

1.5 Determinantes

O determinante é um número que está associado com uma matriz quadrada. Para
os nossos propósitos neste curso, o determinante é principalmente utilizado para deci-
dir se uma matriz é invertível. No entanto, o determinante tem outras interpretações.
Além disso, aparece em aplicações variadas, como a fórmula de mudança de variáveis em
integrais múltiplas.

Vejamos inicialmente o caso 2 × 2. Consideramos a matriz


!
a b
A= . (1.1)
c d

No caso em que ambas as entradas a e c são nulas, sabemos de antemão que A não pode
ser uma matriz invertível, pois neste caso sua primeira coluna não possui posição de pivô.
Suponhamos que a 6= 0 (caso contrário, poderíamos fazer uma troca de linhas). Por
eliminação Gaussiana, chegamos a
! ! !
a b − ac `1 +`2 em `2 a b a b
−−−−−−−−−→ = . (1.2)
c d 0 − bca + d 0 ad−bc
a

Assim, A é invertível (ou, equivalentemente, as colunas de A são linearmente independen-


tes) se, e somente se, o valor numérico ad − bc é diferente de 0. Esta é a nossa definição
de determinante para uma matriz A de ordem 2 × 2:

def
det A = ad − bc. (1.3)

Outras notações bastante utilizadas de determinante são


!
a b a b
det ou . (1.4)

c d c d
!
a b
Cuidado para não confundir! Com estas notações, representa uma matriz en-
c d

a b
quanto que representa um número, o determinante de A.

c d

22
Sistemas Lineares e Matrizes Determinantes

A nossa discussão acima de imediato implica a seguinte propriedade:

A é invertível ⇐⇒ det A 6= 0. (1.5)


!
1 2
Exemplo 1.5.1. A matriz A = é invertível pois det A = 1·(−1)−3·2 = −7 6= 0.
3 −1
!
1 2
Por outro lado, A = não é invertível, já que det A = 1 · 6 − 3 · 2 = 0. C
3 6

Agora, vamos fazer as contas também no caso 3 × 3. Considere a matriz


 
a11 a12 a13
A = a21 a22 a23  . (1.6)
 

a31 a32 a33

Suponhamos que a11 6= 0. Por escalonamento:


 
a11 a12 a13
 
a11 a12 a13
 
a21  
 − a11 `1 +`2 em `2 
(1.7)
a11 a22 −a21 a12

a11 a23 −a21 a13 
a21 a22 a23  −−a−31−−−−−−−→  0 .

a11 a11
− a `1 +`3 em `3 
11
a31 a32 a33

 
a11 a32 −a31 a12 a11 a33 −a31 a13
0 a11 a11

Podemos ainda simplificar os denominadores


     
a11 a12 a13 a11 a12 a13 a11 a12 a13
 notação 
a21 a22 a23  ∼  0 a11 a22 − a21 a12 a11 a23 − a21 a13  ===  0 A33 A32  .
   

a31 a32 a33 0 a11 a32 − a31 a12 a11 a33 − a31 a13 0 A23 A22
(1.8)
Em breve (esperamos que) ficará clara a escolha da notação acima. O passo seguinte no
escalonamento será, supondo que A33 6= 0, eliminar o elemento A23 que está na posição
32. Temos assim
     
a11 a12 a13 a11 a12 a13 a11 a12 a13
A = a21 a22 a23  ∼  0 A33 A32  ∼  0 A33 A32 . (1.9)
     

a31 a32 a33 0 A23 A22 0 0 A22 A33 − A32 A23

23
Sistemas Lineares e Matrizes Determinantes

Nosso raciocínio é que nossa matriz A é uma matriz invertível se esta última coluna possuir
uma posição de pivô, isto é, se A22 A33 − A32 A23 6= 0. Este último pode ser escrito mais
explicitamente como

A22 A33 − A32 A23 = (a11 a22 − a21 a12 )(a11 a33 − a31 a13 ) − (a11 a32 − a31 a12 )(a11 a23 − a21 a13 )
= a211 a22 a33 − a11 a22 a31 a13 − a21 a12 a11 a33 + (
a21(a( a31
12(
(a(
13 +
(

− a211 a32 a23 + a11 a32 a21 a13 + a31 a12 a11 a23 − (
a31(a( a21
12(
(a(
(
13

= a11 a11 a22 a33 − a22 a31 a13 − a21 a12 a33 − a11 a32 a23 + a32 a21 a13 + a31 a12 a23
(1.10)

Destas considerações, segue que A é invertível sempre que

a11 a22 a33 − a22 a31 a13 − a21 a12 a33 − a11 a32 a23 + a32 a21 a13 + a31 a12 a23 6= 0. (1.11)

Definimos o determinante de uma matriz A de ordem 3 × 3 por (note que apenas


mudamos a ordem dos termos):

def
det A = a11 a22 a33 − a11 a32 a23 − a12 a21 a33 + a12 a31 a23 + a13 a21 a32 − a13 a31 a22 . (1.12)

Existe uma forma de memorização deste determinante que usualmente é ensinado no


ensino médio. No entanto, vamos utilizar um outro método que poderá ser aplicado para
matrizes de qualquer ordem!

Observamos que a expressão acima está cheia de simetrias, por exemplo, cada um dos
elementos da matriz A aparece exatamente duas vezes. Além disso, aparece uma vez com
sinal positivo e outra com sinal negativo. Podemos escrever:
  
det A = a11 a22 a33 − a32 a23 − a12 a21 a33 + a31 a23 + a13 a21 a32 − a31 a22 .
(1.13)
! ! !
a22 a23 a21 a23 a21 a22
= a11 · det − a12 · det + a13 · det
a32 a33 a31 a33 a31 a32

Esta última fórmula (que é apenas uma outra forma de escrever a nossa definição de
determinante de uma matriz de ordem 3 × 3), apesar de aparentemente complicada, nos
permite entender como que os coeficientes de uma matriz aparecem na definição de det A.

24
Sistemas Lineares e Matrizes Determinantes

Vamos escrever novamente:


 
a11 a12 a13 ! ! !
a22 a23 a21 a23 a21 a22
det a21 a22 a23  = a11 · det − a12 · det + a13 · det .
 
a32 a33 a31 a33 a31 a32
a31 a32 a33
(1.14)
Podemos pensar como segue:

• Nós vamos percorrer a primeira linha da esquerda para a direita, alternando o sinal
e multiplicando por determinantes menores.

• O primeiro elemento é o elemento da primeira linha é a11 . Não alteramos o sinal e


multiplicamos por um determinante menor, obtido ao desconsiderar a primeira
linha e a primeira coluna (ou, em outras palavras, a linha e a coluna do elemento
a11 ):
   
a11 a12 a13    !
def a22 a23
a21 a22 a23   a22 a23  A11 = . (1.15)
   
a32 a33
a31 a32 a33  a32 a33

Denotamos por A11 a matriz obtida ao remover a linha e a coluna no elemento a11 .

• Em seguida, vamos para o segundo elemento da primeira linha, que é a12 . Alteramos
o sinal e multiplicamos pelo determinante menor da matriz A12 , obtida de A ao
eliminar a linha e a coluna de a12 :
 
   !
def a21 a23
a21  a23  A12 = . (1.16)
 
a31 a33
a31  a33

• Finalmente consideramos a31 . Não alteramos o sinal e multiplicamos pelo determi-


nante menor da matriz A13 , obtida de A ao eliminar a linha e a coluna de a13 :
 
   !
def a21 a22
a21 a22  A13 = . (1.17)
 
a31 a32
a31 a32 

25
Sistemas Lineares e Matrizes Determinantes

• Podemos então escrever

det A = a11 det A11 − a12 det A12 + a13 det A13 . (1.18)

Exemplo 1.5.2. Calcular o determinante de


 
2 4 3
A = 1 2 −1 . (1.19)
 

0 2 1

A notação de “barrinhas” para o determinante é particularmente adequada para escrever


o determinante como aparece na fórmula (1.18), pois assim podemos ir mentalmente des-
considerando (ou tapando com um lápis) as linhas e colunas que não devemos escrever
(identifique que tudo o que fizemos foi escrever a fórmula (1.18)):

2 4 3
2 −1 1 −1 1 2
det A = 1 2 −1 = 2 · −4· +3· . (1.20)

2 1 0 1 0 2
0 2 1

Agora, já sabemos como calcular determinantes de matrizes 2 × 2, que é o que nos resta
fazer:

2 4 3
  
1 2 −1 = 2 2 · 1 − 2 · (−1) − 4 1 · 1 − 0 · (−1) + 3 1 · 2 − 0 · 2


0 2 1 (1.21)

= 2 · 4 − 4 · 1 + 3 · 2 = 10. C

Exemplo 1.5.3. Calcular o determinante de


 
1 −3 −4
B = 1 0 −1 . (1.22)
 

0 2 1

A notação de “barrinhas” para o determinante é particularmente adequada para escrever


o determinante como aparece na fórmula (1.18), pois assim podemos ir mentalmente des-
considerando (ou tapando com um lápis) as linhas e colunas que não devemos escrever

26
Sistemas Lineares e Matrizes Determinantes

(identifique que tudo o que fizemos foi escrever a fórmula (1.18)):



1 −3 −4
0 −1 1 −1 1 0
det B = 1 0 −1 = − (−3) · + (−4) ·

(1.23)

2 1 0 1 0 2
0 2 1

= 2 + 3 · 1 − 4 · 2 = −3.

Analise com atenção como os sinais alternam, independentemente dos sinais dos coefici-
entes da matriz! C

Como já mencionamos, na fórmula para o determinante de uma matriz A, cada um


dos elementos de A aparece exatamente duas vezes. Isto significa que poderíamos ter
rearranjado os termos da matriz não a partir da primeira linha, mas a partir de qualquer
linha ou qualquer coluna. Mas devemos ter cuidado para que os sinais sejam levados em
consideração de forma coerente.

Dada uma matriz quadrada A de ordem n × n, obtemos uma matriz menor Aij ao
remover a linha i e coluna j. Agora é possível entender a notação escolhida no início deste
capítulo, na fórmula (1.9). Definimos o cofator (i, j) de A por

def
Cij = (−1)i+j det Aij . (1.24)

Este sinal ±1 na definição do cofator é o que faz com que o sinal seja levado em conside-
ração corretamente.

Teorema 1.5.1. Podemos calcular o determinante de A a partir de qualquer linha ou de


qualquer coluna. Mais precisamente:

• Se consideramos a linha i, então

det A = ai1 Ci1 + ai2 Ci2 + ai3 Ci3 . (1.25)

• Se consideramos a coluna j, então

det A = a1j C1j + a2j C2j + a3j C3j . (1.26)

É prático de calcular o determinante pensando como vínhamos fazendo antes, alter-

27
Sistemas Lineares e Matrizes Determinantes

nando os sinais. Isto é possível de fazer utilizando qualquer linha ou qualquer coluna.
Basta descobrirmos com qual sinal devemos começar. Construímos uma “matriz” com os
sinais que cada posição da matriz nos dá. Vamos colocar o sinal de (−1)i+j na posição ij
da matriz:    
(−1)1+1 (−1)1+2 (−1)1+3 + − +
(−1)2+1 (−1)2+2 (−1)2+3  ! − + − . (1.27)
   
3+1 3+2 3+3
(−1) (−1) (−1) + − +
Claro que poderíamos fazer esta matriz de sinais para matrizes de qualquer ordem.

Exemplo 1.5.4. Vamos calcular de várias maneiras o determinante da matriz


 
−1 1 4
A =  3 0 −1 . (1.28)
 

1 0 3

Pela nossa definição



−1 1 4
0 −1 3 −1 3 0
3 0 −1 = −1 −1 +4 = (−1)·0−1(9+1)+4·0 = −10. (1.29)

0 3 1 3 1 0
1 0 3

Uma boa escolha seria uma linha ou coluna que tenha o maior número de zeros! Pois
assim, economizamos tanto nos cálculos quanto na escrita. Por exemplo, escolhemos a
segunda coluna. Para saber o sinal adequado, podemos proceder da seguinte maneira:
começando na posição 11 com o sinal “+”, vamos alternando o sinal até completar a
segunda coluna:
         
+ + − + − + − −
+ + sinais segunda coluna são + .
         
       
− −
(1.30)
Assim, podemos calcular

−1 1 4
3 −1
3 0 −1 = −1 · + 0 − 0 = −1(9 + 1) = −10. (1.31)

1 3
1 0 3

Observe que nem escrevemos as determinantes menores que estão multiplicados por zero.

28
Sistemas Lineares e Matrizes Determinantes de matrizes de ordem maior

De fato, nem precisaríamos ter escrito os zeros, apenas o fizemos para exemplificar os
sinais alternando de forma correta.

A segunda coluna, neste caso, era a melhor escolha para o cálculo do determinante,
pois apenas um elemento é não nulo. De qualquer maneira, para praticar, vamos calcular
ainda mais uma vez det A, agora utilizando a terceira linha. Sinais que aparecem na frente
dos coeficientes, de acordo com a terceira linha:
 
+  
− sinais terceira linha são + − + . (1.32)
 

+ − +

Logo,

−1 1 4
1 4 −1 1
3 0 −1 = 1 · −0+3· = 1 · (−1) + 3 · (−3) = −10. (1.33)

0 −1 3 0
1 0 3

Como exercício, calcule o determinante utilizando outras linhas ou colunas. C

1.6 Determinantes de matrizes de ordem maior

Seja A uma matriz quadrada, de ordem n × n. O determinante de A é definido


recursivamente:

det A = a11 det A11 − a12 det A12 + a13 det A13 − a14 det A14 + · · · + (−1)1+n a1n det A1n .
(1.34)
ou, na notação dos cofatores:

det A = a11 C11 + a12 C12 + a13 C13 + a14 C14 + · · · + a1n C1n . (1.35)

Nossa definição é de fato recorrente, pois para calcular det A, de acordo com a defini-
ção, nós precisaremos calcular vários determinantes de ordem n − 1. Estes por sua vez,
consistem de vários determinante de ordem n − 2, e assim por diante. Isto implica, em
particular, que o cálculo de determinantes é, em geral, uma tarefa bastante trabalhosa.

29
Sistemas Lineares e Matrizes Determinantes de matrizes de ordem maior

Assim como na seção anterior, podemos utilizar qualquer linha ou coluna desde que
com os sinais corretos:
Teorema 1.6.1. Podemos calcular o determinante de A a partir de qualquer linha ou de
qualquer coluna. Mais precisamente:

• Se consideramos a linha i, então

det A = ai1 Ci1 + ai2 Ci2 + ai3 Ci3 + · · · + ain Cin . (1.36)

• Se consideramos a coluna j, então

det A = a1j C1j + a2j C2j + a3j C3j + · · · + anj Cnj . (1.37)
Exemplo 1.6.1. Calcular o determinante da matriz de ordem 4 × 4:
 
−2 3 0 4
 
1 0 −1 0
A=
3
. (1.38)
 2 1 1
−2 2 0 1

Na tentativa de evitar muitas contas, vamos escolher para começar, uma linha ou coluna
que possua o maior número de zeros possível. Neste caso, poderia ser a segunda linha ou a
terceira coluna. Vamos escolher a segunda linha (calcule, como exercício, o determinante
utilizando a terceira coluna). Os sinais são:
 
+
 
− + − +  



 sinais segunda linha são − + − + . (1.39)
 

Logo,
−2 3 0 4

3 0 4 −2 3 4
1 0 −1 0
= −1 · 2 1 1 + 0 − (−1) · 3 2 1 + 0. (1.40)

3 2 1 1

2 0 1 −2 2 1
−2 2 0 1
Perceba que os dois zeros evitaram que calculássemos dois determinantes de ordem 3. Em
seguida, calculamos cada um dos determinantes de ordem 3 (no primeiro deles, escolhemos

30
Sistemas Lineares e Matrizes Determinantes de matrizes de ordem maior

a segunda coluna, por possuir dois zeros; no segundo, qualquer escolha seria parecida, já
que a matriz não tem entradas nulas – escolhemos a terceira coluna):

−2 3 0 4

3 0 4 −2 3 4
1 0 −1 0
= − +
2 1 1 3 2 1

3 2 1 1

2 0 1 −2 2 1
−2 2 0 1
! (1.41)
3 4 3 2 −2 3 −2 3
= −1 · + 4· −1· +1·


2 1 −2 2 −2 2 3 2
 
= (−1) · (−5) + 4 · 10 − 1 · 2 + 1 · (−13) = 30. C

Exemplo 1.6.2. Calcular o determinante da matriz de ordem 5 × 5:


 
2 0 0 8 0
1 −7 −5 0 0
 

(1.42)
 
A=
 3 8 6 0 0.

0 7 5 4 0
 

2 3 1 1 1

Começamos pela última coluna, pois esta possui apenas uma entrada não nula. Assim,
nosso determinante já é reduzido a calcular apenas um determinante de ordem 4 × 4 (em
contraste com calcular cinco determinantes 4 × 4).

Análise dos sinais da quinta coluna:


   
+ − + − + +
− −
   

(1.43)
   
+ + .
sinais quinta coluna são 
  
 
− −
   

+ +

31
Sistemas Lineares e Matrizes Propriedades do determinante

Assim:

2 0 0 8 0
2 0 0 8 2 0 0 8
1 −7 −5 0 0


1 −7 −5 0 1 −7 −5 0
(1.44)

3 8 6 0 0 = 0 − 0 + 0 − 0 + 1 · = .
3 8 6 0 3 8 6 0

0 7 5 4 0


0 7 5 4 0 7 5 4
2 3 1 1 1

Em seguida, escolhemos (por exemplo) a primeira linha da nova matriz 4 × 4:



2 0 0 8

−7 −5 0 1 −7 −5
1 −7 −5 0
det A = = 2 · 8 6 0 − 8 · 3 8 6 . (1.45)

3 8 6 0
7 5 4 0 7 5
0 7 5 4

Finalmente, temos dois determinantes de matrizes de ordem 3 × 3 para calcular:

!
−7 −5 8 6 −7 −5
det A = 2 · 4 · −8 −3·

(1.46)

8 6 7 5 7 5
= 8 · (−2) − 8(−2 + −3 · 0) = −16 + 16 = 0.C

Estes exemplos já devem deixar claro que o cálculo de determinantes é demasiado


trabalhoso, exceto em alguns casos que a matriz tem muitas entradas nulas. Veremos nas
próximas seções algumas propriedades e aplicações.

1.7 Propriedades do determinante

Nesta seção, vamos apontar as principais propriedades do determinante. A prova


rigorosa destas propriedades será adiada para o apêndice desta seção.

Teorema 1.7.1. Valem as seguintes propriedades:

(i) O determinante depende linearmente de cada uma das linhas, isto é, se fizermos
uma combinação linear de uma linha apenas, poderíamos ter feito uma combinação

32
Sistemas Lineares e Matrizes Propriedades do determinante

linear dos determinantes:


     
a11 ··· a1n a11 · · · a1n a11 · · · a1n
 .
.. .
..
  .
 .. ..   .
 .. .. 



  . 
  . 

det αai1 + βbi1 · · · αain + βbin  = α det  ai1 · · · ain +β det  bi1 · · · bin  .
     
 .. ..   .
 . ..   .
 . .. 
. .  . .  . . 
   
  
an1 ··· ann an1 · · · ann an1 · · · ann
(1.47)

(ii) Se uma linha de A for composta só por zeros, então det A = 0.

(iii) O determinante de uma matriz triangular é igual ao produto dos elementos da dia-
gonal principal.

(iv) A operação elementar “trocar duas linhas de lugar” altera o sinal do determinante.

(v) A operação elementar de somar o múltiplo de uma linha à outra não altera o de-
terminante. Em outras palavras, se um múltiplo de uma linha de A for somado à
outra linha formando a matriz B, então det A = det B.

(vi) Uma matriz A é invertível se, e somente se, det A 6= 0.

(vii) Para quaisquer duas matrizes A e B de mesma ordem, det(AB) = det A det B.

(viii) O determinante da matriz transposta de A é igual ao determinante de A, isto é,


det(AT ) = det A.

(ix) Todos os itens acima que envolvem operações com linhas poderiam ser enunciados
com “colunas” no lugar de “linhas”.

Várias destas propriedades já devem ser familiares para os leitores destas notas de
aula, com a possível exceção do comportamento do determinante com as operações ele-
mentares de escalonamento. E estas vão ser muito úteis no cálculo do determinante.
Vamos enfatizar estas propriedades abaixo. O método para calcular o determinante por
escalonamento, segue o seguinte raciocínio:

• Caso seja necessário uma troca de linhas para que a posição de pivô fique com um
elemento não nulo, somos permitidos de fazer a troca, desde que alterando o sinal
do determinante, como nos diz a propriedade (iv) acima;

33
Sistemas Lineares e Matrizes Propriedades do determinante

• De acordo com a propriedade (v), eliminar os elementos abaixo da posição de pivô


não altera o determinante. Um cuidado: multiplicar linhas por escalares altera o
determinante! Desta maneira, esta operação elementar significa estritamente fazer
uma operação do tipo
k`i + `j em `j . (1.48)

Observe que “adicionamos um múltiplo da linha i na linha j”. Atentem para o fato
de que não pode haver coeficiente diferente de 1 em `j .

• Caso queiramos, para simplificar as contas, multiplicar ou dividir uma linha por um
fator qualquer, podemos fazer uma aplicação cuidadosa da linearidade enunciada
na propriedade (i) acima. Considerando β = 0, esta propriedade se transforma em
“colocar um fator α de uma linha em evidência”:

a
11 · · · a 1n
a
11 · · · a 1n

. .. .. ..

.. . . .



αai1 · · · αain = α · ai1 · · · ain . (1.49)

. ..
. .. ..

. . . .

an1 · · · ann an1 · · · ann

Exemplo 1.7.1. Vamos calcular o determinante da matriz A do Exemplo 1.6.1 utilizando


as propriedades acima (em particular o escalonamento). Este método é particularmente
útil quando as matrizes não possuem muitas entradas nulas. Já que a segunda linha
possui um “1” na primeira entrada, vamos fazer uma troca de linhas para facilitar as
contas (cuidado com o sinal!). Em seguida, eliminamos os elementos da primeira coluna.

−2 3 0 4 1 0 −1 0 1 0 −1 0 1 0 −1 0


1 0 −1 0 −2 3 0 4 0 3 −2 4 0 3 −2 4
= − = − = − .
3
2 1 1 3
2 1 1 0
2 4 1 0
0 16/3 −5/3

−2 2 0 1 −2 2 0 1 0 2 −2 1 0 0 −2/3 −5/3
(1.50)
As divisões nos denominadores nos atrapalham um pouco na hora de fazer a conta. Pode-
mos retirá-los dali, desde que cuidadosamente (o mesmo para o sinal de “−1”), colocando-

34
Sistemas Lineares e Matrizes Propriedades do determinante

os em evidência (note que devemos fazê-lo para cada linha!):



−2 3 0 4 1 0 −1 0 1 0 −1 0


1 0 −1 0 1 0 3 −2 4 1 0 3 −2 4
(1.51)

=− =
3
2 1 1 3 0 0 16 −5 9 0 0 16 −5

−2 2 0 1 0 0 −2/3 −5/3 0 0 2 5

Finalmente, podemos fazer uma troca de linhas e eliminar o elemento “16”:



−2 3 0 4 1 0 −1 0


1 0 −1 0 1 0 3 −2 4 1
=− = − · 1 · 3 · 2 · (−45) = 30. C (1.52)
3
2 1 1 9 0 0 2 5 9

−2 2 0 1 0 0 0 −45

Observação: No exemplo anterior, vimos como calcular o determinante utilizando esca-


lonamento de maneira “straightforward”. Como pode-se perceber, o método não parece
muito melhor do que calcular o determinante utilizando expansão por cofatores. Vamos
ver que, de fato, o melhor é misturar o método de cofatores com as propriedades acima!
Vamos novamente calcular
−2 3 0 4


1 0 −1 0
3 2 1 1 .
(1.53)


−2 2 0 1

Observe que a terceira coluna tem duas entradas nulas. Podemos ainda utilizar uma
operação elementar para eliminar uma das entradas: por exemplo, substituir `3 + `2 em
`2 . Assim:
  
−2 3 0 4 −2 3 0 4 + − +

  
1 0 −1 0 4 2 0 1 − 
lembrando sinais   (1.54)
  
= .
3 2 1 1 3 2 1 1   +  
  

−2 2 0 1 −2 2 0 1 −

Note que a terceira coluna agora ficou com apenas uma entrada não nula; logo, utilizando

35
Sistemas Lineares e Matrizes Propriedades do determinante

a terceira coluna para o cálculo de det A (como na seção anterior), obtemos



−2 3 0 4
−2 3 4


1 0 −1 0
= 4 2 1 (1.55)

3 2 1 1

−2 2 1


−2 2 0 1

Podemos também utilizar a propriedade (ix) do teorema para colocar em evidência um


“−2” da primeira coluna e, em seguida, continuar com o cálculo:

−2 3 0 4

1 3 4 1 3 4 1 3 4
1 0 −1 0
= −2· −2 2 1 = −2· 0 8 9 = −2· 0 1 3 = −2·(−15) = 30. C

3
2 1 1
1 2 1

0 −1 −3

0 0 −15

−2 2 0 1
(1.56)

Exemplo 1.7.2. Por fim, recalculamos também o determinante da matriz do Exemplo


1.6.2, utilizando as propriedades desta seção. Vamos fazer as contas de forma um pouco
mais rápidas. Tente acompanhar o que está sendo feito de um passo para outro! Iniciamos
aproveitando o fato de a última coluna ter muitos zeros.

2 0 0 8 0
2 0 0 8 2 −14 −10 0
1 −7 −5 0 0 2 −14 −10


1 −7 −5 0 −2`4 +`1 em `1 1 −7 −5 0
3 8 6 0 0 = = = 4· 1 −7 −5 .
3 8 6 0 3 8 6 0
0 7 5 4 0 3 8 6


0 7 5 4 0 7 5 4
2 3 1 1 1
(1.57)
Em seguida, eliminamos o 2 e o 3 da primeira coluna sem trocar linhas de lugar (quanto
mais trocarmos linhas, mais riscos corremos de errar o sinal):

2 0 0 8 0

1 −7 −5 0 0 0 0 0


(1.58)

3 8 6 0 0 = 4 · 1 −7 −5 4 · 0 = 0.

0 7

5 4 0
0 29 −9

2 3 1 1 1

Nota: antes de eliminarmos o 3, já reparamos que o determinante vai ser nulo, graças à

36
Sistemas Lineares e Matrizes Uma aplicação em cálculo de várias variáveis

propriedade (ii). C

1.8 Uma aplicação em cálculo de várias variáveis

Como já é conhecido de primeiros cursos de cálculo1 , é possível fazer mudanças de


coordenadas em integrais unidimensionais (também conhecido como integrar por substi-
tuição): para I ⊆ R um intervalo e φ : [a, b] → I é diferenciável com derivada contínua e
f : I → R é uma função contínua, então
Z φ(b) Z b
f φ(t) φ0 (t) dt. (1.59)

f (x) dx =
φ(a) a

Intuitivamente, pensamos na substituição x = φ(t) =⇒ dx = φ0 (t) dt.

Um tópico que nem sempre é abordado em cursos de Cálculo em várias variáveis é a


fórmula de mudança de variáveis para integrais múltiplas, onde o determinante aparece
de forma fundamental.

Teorema 1.8.1. Seja U ⊂ R2 um conjunto aberto e φ : U → Rn uma função vetorial


cujas componentes são todas diferenciáveis e com derivadas parciais contínuas. Então,
para qualquer f : U → R contínua, vale a fórmula de mudança de variáveis:
ZZZ ZZZ
(1.60)
 
f (~v ) d~v = f ϕ ~u Jϕ ~u d~u,
φ(U ) U

onde Jϕ(~u) é o Jacobiano: valor absoluto do determinante da matriz formada com as


derivadas parciais de φ = (φ1 , φ2 , . . . , φn ):
 ∂φ 
∂φ1 ∂φ1

∂x
1
∂x2
··· ∂xn

 1


 
 
 ∂φ2 ∂φ2

∂φ2 
···

∂φ i
= det  ∂x. 1 ∂x2 ∂xn 
(1.61)

Jϕ ~u = det


∂xj

 .. .. .. .. 

 . . . 

 
 
∂φn ∂φn ∂φn


∂x1 ∂x2
··· ∂xn

1
Esta seção é opcional e necessita de conhecimentos básicos de Cálculo.

37
Sistemas Lineares e Matrizes Uma aplicação em cálculo de várias variáveis

1.8.1 Coordenadas polares

Para uma região R do plano R2 , vamos verificar como fazer para escrever uma integral
dupla em coordenadas polares. Sabemos que
ZZ ZZ
f dA = f (x, y) dx dy. (1.62)
R R

A função φ que muda de coordenadas polares para Cartesianas pode ser escrita como

φ(r, θ) = (r cos θ, r sen θ), onde r > 0 e θ ∈ (0, 2π). (1.63)

Isto é, as componentes são

x = φ1 (r, θ) = r cos θ, y = φ2 (r, θ) = r sen θ. (1.64)

Assim, a matriz das derivadas parciais é


 ∂φ ∂φ1

1 !
∂r ∂θ
cos θ −r sen θ
= cujo Jacobiano é Jφ = r cos2 θ + r sen2 θ = r. (1.65)
 

∂φ2 ∂φ2 sen θ r cos θ
∂r ∂θ

Portanto, a fórmula de mudança de variáveis implica que, em coordenadas polares:


ZZ ZZ ZZ
f dA = f (x, y) dx dy = f (r cos θ, r sen θ) r dr dθ. (1.66)
R R φ−1 (R)

1.8.2 Coordenadas esféricas

Para uma região R do espaço R3 , vamos verificar como fazer para escrever uma integral
tripla em coordenadas esféricas. O raciocínio segue as mesmas linhas da subseção anterior
para coordenadas polares. Sabemos que
ZZZ ZZZ
f dA = f (x, y, z) dx dy dz. (1.67)
R R

38
Sistemas Lineares e Matrizes Uma aplicação em cálculo de várias variáveis

A função φ que muda de coordenadas esféricas para Cartesianas pode ser escrita como

φ(ρ, θ, φ) = (ρ sen φ cos θ, ρ sen φ sen θ, ρ cos φ), onde ρ > 0, θ ∈ (0, 2π) e φ ∈ (0, π).
(1.68)
Isto é, as componentes são

x = φ1 (ρ, θ, φ) = ρ sen φ cos θ, y = φ2 (ρ, θ, φ) = ρ sen φ sen θ e z = φ3 (ρ, θ, φ) = ρ cos φ.


(1.69)
Assim, a matriz das derivadas parciais é
 ∂φ1 ∂φ1 ∂φ1

∂ρ ∂θ ∂φ
  
sen φ cos θ −ρ sen φ sen θ ρ cos φ cos θ

 
(1.70)
 ∂φ ∂φ2
 
∂φ2 
 2 = sen φ sen θ ρ sen φ cos θ ρ cos φ sen θ .

 ∂ρ ∂θ ∂φ 
cos φ 0 −ρ sen φ
 
 
∂φ3 ∂φ3 ∂φ3
∂ρ ∂θ ∂φ

cujo Jacobiano é (usando, por exemplo a segunda coluna para expandir em cofatores)


sen φ sen θ ρ cos φ sen θ sen φ cos θ ρ cos φ cos θ
Jφ = ρ sen φ sen θ + ρ sen φ cos θ


cos φ −ρ sen φ cos φ −ρ sen φ
   
= ρ sen φ sen θ − ρ sen2 φ sen θ − ρ cos2 φ sen θ + ρ sen φ cos θ − ρ sen2 φ cos θ − ρ cos2 φ cos θ

     
= ρ sen φ sen θ − ρ sen θ + ρ sen φ cos θ − ρ cos θ = −ρ2 sen φ sen2 θ + cos2 θ


= −ρ2 sen φ = ρ2 sen φ.
(1.71)

Na última igualdade, utilizamos que φ ∈ (0, π) implica sen φ > 0, de modo que o valor
absoluto está considerado corretamente. Portanto, a fórmula de mudança de variáveis
implica que, em coordenadas polares:
ZZZ ZZ ZZZ
f dA = f (x, y, z) dx dy dz = f (ρ sen φ cos θ, ρ sen φ sen θ, ρ cos φ) ρ2 sen φ dρ dθ dφ,
R R φ−1 (R)
(1.72)
como é de costume em cursos de cálculo.

39
pulando folha

40
Capítulo 2

Espaços Vetoriais

2.1 Introdução

Faremos, a seguir, um paralelo entre dois conhecidos conjuntos.

Consideremos o conjunto V3 dos vetores da Geometria Analítica, definidos por meio de


segmentos orientados. Em V3 estão definidas duas operações: uma adição de vetores e
uma multiplicação de um vetor por um número real (multiplicação por escalar).

A adição de vetores satisfaz às propriedades comutativa, associativa, admite elemento


neutro (é o vetor nulo) e cada vetor de V3 admite um oposto em V3 .

A multiplicação por escalar satisfaz às seguintes propriedades: se α, β ∈ R e ~u, ~v ∈


V3 , então:

• (α.β)~u = α(β~u);

• (α + β)~u = α~u + β~u;

• α(~u + ~v) = α~u + α~v;

• 1.~u = ~u.

41
Consideremos, agora, o conjunto Mm×n (R) das matrizes reais de m linhas e n colunas
(m,n ≥ 1). Também em Mm×n (R) estão definidas duas operações: adição de matrizes e
uma multiplicação de uma matriz por um número real (multiplicação por escalar).

A adição de matrizes satisfaz às propriedades comutativa, associativa, admite elemento


neutro (é a matriz nula) e cada matriz de Mm×n (R) admite uma matriz oposta em
Mm×n (R).

A multiplicação por escalar satisfaz às seguintes propriedades: se α, β ∈ R e A, B ∈


Mm×n (R), então:

• (α.β)A = α(βA);

• (α + β)A = αA + βA;

• α(A + B) = αA + αB;

• 1.A = A.

Conclusão: embora os conjuntos V3 e Mm×n (R) sejam de naturezas distintas, os dois


têm “comportamentos” coincidentes com relação às operações de adição e multiplicação
por escalar. Esses não são os únicos conjuntos onde isto ocorre. Vamos, a partir de
agora, estudar detalhada e simultaneamente todos os conjuntos que apresentam a mesma
estrutura que V3 e Mm×n (R).

2.2 Espaços Vetoriais e Exemplos

Definição : Um conjunto V 6= ∅ é um espaço vetorial sobre R se e somente se

I . Existe uma adição (u,v) ∈ V × V 7−→ u + v ∈ V tal que, para todos u, v, w ∈


V, valem as seguintes propriedades :
[A1 ] u + v = v + u
[A2 ] u + (v + w) = (u + v) + w

42
[A3 ] Existe em V um elemento neutro aditivo, denotado por 0, isto é, existe
0 ∈ V tal que u + 0 = 0 + u = u
[A4 ] Todo elemento u ∈ V admite um elemento oposto em V, denotado por
-u, tal que u + (-u) = (-u) + u = 0

II . Existe uma multiplicação por escalar (α, u) ∈ R× V 7−→ α u ∈ V de modo que,


para quaisquer u,v ∈ V e α, β ∈ R, valem as seguintes propriedades :
[M1 ] α(β u) = (α β) u
[M2 ] (α + β) u = α u + β u
[M3 ] α (u + v) = α u + α v
[M4 ] 1 . u = u

Observação: Da mesma forma como definimos espaços vetoriais sobre R, podemos definir
espaços vetoriais sobre C. Nesse caso, ao definirmos a multiplicação por escalar, isto
é feito considerando-se escalares complexos; isto é, definimos a multiplicação de um um
número complexo por um elemento de V: (α, u) ∈ C × V 7−→ α u ∈ V, satisfazendo
aos mesmos axiomas M1 a M4 .

Nomenclatura: Um espaço vetorial sobre R é também chamado de espaço vetorial


real e um espaço vetorial sobre C é também chamado de espaço vetorial complexo.

.
Notação: (V, +, )R denota um espaço vetorial real

(V, +, .) C denota um espaço vetorial complexo

Exemplos:

.
1. (R, +, ): O conjunto dos números reais com as operações usuais de adição e
multiplicação de números reais é um espaço vetorial real.

.
2. (R2 , +, ) é um espaço vetorial real, sendo:
R2 = {(x1 , x2 ): x1 , x2 ∈ R}
adição: (x1 , x2 ) + (y1 , y2 ) := (x1 + y1 , x2 + y2 ) ∈ R2
multiplicação por escalar: α(x1 , x2 ) := (αx1 , αx2 ) ∈ R2

43
O elemento neutro da adição é o par ordenado 0 = (0, 0) ∈ R2 e o oposto x = (x1 ,
x2 ) é o elemento - x = (- x1 , - x2 ) ∈ R2 .

3. O exemplo anterior pode ser generalizado e dessa generalização obtém-se o mais


importante espaço vetorial real:
.
(Rn , +, ) é um espaço vetorial real, sendo:
Rn = {(x1 , x2 , . . ., xn ): x1 , x2 , . . . xn ∈ R}; isto é, Rn é o conjunto das n-uplas de
números reais.
E se x = (x1 , x2 , . . ., xn ) e y = (y1 , y2 , . . ., yn ) são dois elementos genéricos do Rn
e α ∈ R, definimos:
adição: x + y = (x1 , x2 , . . ., xn ) + (y1 , y2 , . . ., yn ) := (x1 + y1 , x2 + y2 , . . ., xn +
yn )
multiplicação por escalar: αx = α(x1 , x2 , . . ., xn ) := (αx1 , αx2 , . . ., αxn )
O elemento neutro da adição é a n-upla de números reais 0 = (0, 0, . . ., 0) ∈ Rn e
o oposto x = (x1 , x2 , . . ., xn ) é o elemento - x = (- x1 , - x2 , . . ., - xn ) ∈ Rn .

.
4. (C, +, )R : O conjunto dos números complexos (isto é, o conjunto dos números da

forma a + b i, sendo a,b ∈ R e i = −1), com as operações usuais de adição de
números complexos e multiplicação de um número complexo por um número real é
um espaço vetorial real.
adição: (a + bi) + (x + yi) := (a + x) + (b + y)i ∈ C
multiplicação por escalar: α(a + bi) := (αa) + (αb)i ∈ C

O elemento neutro da adição é o número complexo 0 = 0 + 0i ∈ C e o oposto z =


a + bi é o número complexo - z = - a - bi ∈ C.

5. (C, +, ◦)C : O conjunto dos números complexos com as operações usuais de adição
e multiplicação de números complexos é um espaço vetorial complexo.
adição: (a + bi) + (x + yi) := (a + x) + (b + y)i ∈ C
multiplicação por escalar: (α + βi)(x + yi) := (αx - βy) + (αy + βx)i ∈ C

44
Aqui também o elemento neutro da adição é o número complexo 0 = 0 + 0i ∈ C e
o oposto z = a + bi é o número complexo - z = - a - bi ∈ C.

6. V3 = conjunto dos vetores da Geometria Analítica.


.
(V3 , +, ) é um espaço vetorial real, sendo
+: a operação usual de soma de vetores
.: a multiplicação usual de um vetor por um número real.

.
7. (Mm×n (R), +, ) é um espaço vetorial real, sendo
+: a operação usual de soma de matrizes
.: a multiplicação usual de uma matriz por um número real.
O elemento neutro da adição é a matriz nula 0m×n .
O elemento oposto da matriz A = (aij )m×n é a matriz - A = (- aij )m×n ∈ Mm×n (R).

8. Assim como para V = C foi possível definir duas estruturas de espaço vetorial (a
real e a complexa), para V = Mm×n (C) podemos dar duas estruturas distintas de
espaço vetorial, obtendo, desta forma, o espaço vetoriai real (Mm×n (C), +, )R e .
o espaço vetorial complexo (Mm×n (C), +, ◦)C .
Nos dois casos, a adição é a adição usual de matrizes . Com relação à multipliucação,
teremos:
. é a multiplicação de uma matriz por um número real
◦ é a multiplicação de uma matriz por um número complexo

.
9. (Pn (R), +, ) é um espaço vetorial real, sendo:
Pn (R) = {p(t) = a0 + a1 t + a2 t2 + . . . + an tn : ai ∈ R, ∀ i = 1, 2, . . . , n}; isto é,
Pn (R) é o conjunto formado por todos os polinômios de grau menor ou igual a n (n
≥ 1).
Se p(t) = a0 + a1 t + a2 t2 + . . . + an tn e q(t) = b0 + b1 t + b2 t2 + . . . + bn tn são
dois elementos genéricos de Pn (R) e α ∈ R definimos:
adição:

45
p(t) + q(t) = [a0 + a1 t + a2 t2 + . . . + an tn ] + [b0 + b1 t + b2 t2 + . . . + bn tn ] :=
:= [a0 + b0 ] + [a1 + b1 ]t + [a2 + b2 ]t2 + . . . + [an + bn ]tn
multiplicação por escalar:
αp(t) = α[a0 + a1 t + a2 t2 + . . . + an tn ] := (αa0 ) + (αa1 )t + (αa2 )t2 + . . . + (αan )tn

O elemento neutro desta adição é o polinômio identicamente nulo de grau n, dado


por 0 = 0 + 0t + 0t2 + . . . + 0tn ∈ Pn (R).

O elemento oposto do polinômio p(t) é - p(t) = -a0 - a1 t - a2 t2 - . . . - an tn ∈ Pn (R).

10. Considere o intervalo [0, 1] ⊂ R. O conjunto C([0, 1]) de todas as funções contínuas
definidas em [0, 1] e com valores em R é um espaço vetorial sobre R, sendo que dadas
f , g ∈ C([0, 1]) e α ∈ R,
adição: f + g : t ∈ [0,1] −→ f(t) + g(t) ∈ R
multiplicação por escalar: α f : t ∈ [0,1] −→ α f(t) ∈ R

O elemento neutro desta adição é a função identicamente nula, restrita ao intervalo


[0, 1] e o elemento oposto de f(t) é -f(t) = -(f(t)).

Vale um resultado análogo para qualquer intervalo I = [a, b] ⊆ R; isto é, conjunto


C([a, b]) de todas as funções contínuas definidas em [a, b] e com valores em R é um
espaço vetorial sobre R.

11. Sejam U e V dois espaços vetoriais, ambos reais ou ambos complexos. Considere o
conjunto U × V = {(u, v) : u ∈ U e v ∈ V}. Dados (u1 , v1 ), (u2 , v2 ) ∈ U × V e k
∈ K (K = R ou C), definimos:
def
adição: (u1 , v1 ) + (u2 , v2 ) = (u1 + u2 , v1 + v2 ) ∈ U × V
def
multiplicação por escalar: k.(u1 , v1 ) = (k.u1 , k.v1 ) ∈ U × V
.
(U × V, +, ) é um K-espaço vetorial.
O elemento neutro da adição é o par ordenado 0 = (0U , 0V ) ∈ U × V e o oposto
do elemento x = (u, v) é o par ordenado - x = (-u, -v) ∈ U × V.

46
Observações:

.
1. Se (V, +, ) é um espaço vetorial real (ou complexo), por analogia com G.A.,
chamamos de vetor qualquer elemento de V. Ainda usando a nomenclatura de G.A.,
chamamos de escalar qualquer elemento de R (ou de C).

2. Define-se a diferença entre os vetores u, v ∈ V por: u - v := u + (-v).

3. Nestas notas de aulas, consideraremos apenas os espaços vetoriais reais e dessa


.
forma, por simplicidade, usaremos a notação (V, +, ) para os espaços vetoriais
considerados.

Exercícios:

1. Faça com todos os detalhes os exemplos 5, 6 e 9.

2. Mostre que R∞ = {(x1 , x2 , x3 , ...)/ xi ∈ R}, com as operações definidas por :

(x1 , x2 , x3 , ...) + (y1 , y2 , y3 , ...) = (x1 + y1 , x2 + y2 , x3 + y3 , ...)

a (x1 , x2 , x3 , ...) = (a x1 , a x2 , a x3 , ...),

é um espaço vetorial sobre R.

Exemplo importante: Os exemplos vistos até agora são os chamados usuais. Faremos
agora, com detalhes, um exemplo “diferente”: as operações definidas não serão as canônicas
(daí a importância do exemplo).

Seja V = {u ∈ R: u > 0} 6= ∅. Queremos dar a V uma estrutura de espaço vetorial


real. Para isso, definiremos para quaisquer u, v ∈ V, α ∈ R:

adição: u ⊕ v := u.v ∈ V

multiplicação por escalar: α×u = uα ∈ V

Então: (V, ⊕, ×) é um espaço vetorial real.

47
De fato: Consideremos u, v, w ∈ V e α, β ∈ R. Verifiquemos que os 8 axiomas da
definição de espaços vetoriais são satisfeitos.

A1 . u ⊕ v = v⊕ u
def def
Temos que: u ⊕ v = u.v = v.u = v ⊕ u

A2 . (u ⊕ v) ⊕ w = u ⊕ (v ⊕ w)
def def def def
Temos que: (u ⊕ v) ⊕ w = u.v ⊕ w = (u.v).w = u.(v.w) = u.(v ⊕ w) = u ⊕ (v
⊕ w)

A3 . Existe em V um elemento e tal que e ⊕ u = u ⊕ e = u, ∀ u ∈ V.


def
Seja e = 1 ∈ V. Temos que: e ⊕ u = e.u = 1.u = u.
Analogamente, mostra-se que u ⊕ e = u.e, portanto, e = 1 é o elemento neutro
desta adição.

A4 . Para todo u ∈ V, existe (-u) ∈ V tal que u ⊕ (-u) = e.


def
Dado u ∈ V, o elemento u−1 está em V e é o oposto de u, pois: u ⊕ u−1 = u.(u−1 )
= 1 = e.

M1 . α × (β×u) = (αβ)×u
def def def
Temos que: α × (β×u) = α×(uβ ) = (uβ )α = uβα = uαβ = (αβ)×u

M2 . (α + β)×u = α×u ⊕ β×u


def def
Temos que: (α + β)×u = uα+β = uα .uβ = uα ⊕ uβ = α×u ⊕ β×u

M3 . α×(u ⊕ v) = α×u ⊕ α×v


def def def def
De fato: α×(u ⊕ v) = α×(u.v) = (u.v)α = uα .vα = (α×u).(α×v) = α×u
⊕ α×v

M4 . 1×u = u
def
De fato: 1×u = u1 = u.

48
o que conclui a demonstração de que (V, ⊕, ×) é um espaço vetorial real.

Propriedades: Sejam V um espaço vetorial real, u, v, u1 , u2 , . . ., un ∈ V e α, β, α1 ,


α2 , . . ., αn ∈ R. Valem as seguintes propriedades:

P1 . α. |{z}
0 = |{z}
0 .
vetor vetor
A M A
De fato: α.0 =3 α.(0 + 0) =3 α.0 + α.0. Logo: 0 =4 α.0 + [-(α.0)] = (α.0 + α.0)+
A A A
+ [-(α.0)] =2 α.0 + [α.0 + -(α.0)] =4 α.0 + 0 =3 α.0

P2 . |{z}
0 .u = |{z}
0 .
n0 .real vetor
M A
De fato: 0.u = (0 + 0).u =2 0.u + 0.u e dessa forma 0 =4 [-(0.u)] + 0.u = [-(0.u)] +
| {z }
n0 .real
A2 A A
+ [0.u + 0.u] = [-(0.u) + 0.u] + 0.u =4 0 + 0.u =3 0.u .

P3 . Se α u = |{z}
0 , com α ∈ R e u ∈ V , então α = |{z}
0 ou u = |{z}
0 .
vetor n0 .real vetor

De fato: Suponhamos que α 6= 0. Logo, existe α ∈ R e portanto:


−1

M M hipótese −1 P1
u =4 1.u = (α−1 α).u =1 α−1 (α.u) = α .0 = 0

P4 . (−α)u = α(- u) = - (αu).


M P
• -(α)u + αu =2 [(-α) + α]u = 0.u =2 0 e portanto -(α)u é o vetor oposto de
(αu), isto é, -(α)u = -(αu).
M A P
• α(-u) + α u =3 α[u + (-u)] =4 α.0 =1 0 e portanto α(-u) é o vetor oposto de
αu, isto é, α(-u) = -(αu)

P5 . α(u - v) = αu - αv.
def M P def
De fato: α(u - v) = α[u + (-v)] =2 αu + α(-v) =4 αu + (-αv) = αu - αv.

P6 . (α - β)u = αu - βu.

49
M P def
De fato: (α - β)u = [α + (-β)]u =2 αu + (-β)u =4 αu + (-βu) = αu - βu.

P7 . β(α1 u1 + α2 u2 + . . . + αn un ) = (βα1 )u1 + (βα2 )u2 + . . . + (βαn )un ; ou, escrevendo


de outra forma: n n
X X
β( αj uj ) = (β αj ) uj
j=1 j=1

Propriedades Adicionais: Num espaço vetorial V, valem ainda as propriedades:

1. O vetor nulo de V é único.


De fato: Suponhamos que em V existam dois elementos neutros para a adição; isto
é, além do vetor nulo 0, existe um vetor e ∈ V tal que para todo u ∈ V, tem-se:

(1)
e+u=u=u+e

Então:

(1) (A3 )
0=e+0 = e

ou seja: e = 0 e portanto o elemento neutro é único.

2. Para cada vetor u ∈ V, o seu oposto -u ∈ V é único.


De fato: Suponhamos que exista em V um elemento u para o qual existam dois
(2)
elementos opostos: -u e v; isto é, v ∈ V é tal que u + v = 0 = v + u. Mostremos
que v = -u.

(A3 ) (2) (A2 ) (A4 ) (A3 )


-u = -u + 0 = -u + (u + v) = (-u + u) + v = 0 + v = v.

3. Se u ∈ V, então -(-u) = u.
De fato: Basta notar que: se u + v = v + u = 0, então, por definição, o vetor u é
o oposto do vetor v. Mas:

u + (-u) = (-u) + u = 0

50
e portanto u é o oposto de -u; isto é u = -(-u).

4. Se u, v, w ∈ V são tais que u + v = u + w, então v = w.


A A A hipótese A
De fato: v =3 0 + v =4 [(-u) + u] + v =2 (-u) + (u + v) = (-u) + (u + w) =2
A2 A A
= [(-u) + u] + w =4 0 + w =3 w.

Exemplo: Consideremos no espaço vetorial R3 os vetores u = (1, 2, 1), v = (3, 1, -2) e


w = (4, 1, 0).

a. Resolver a equação 3 u + 2 x = v + w.
Somando-se o oposto do vetor 3u aos dois membros da equação dada, obtemos:
A A
(-3u) + [3u + 2x] = (-3u) + [v + w] ⇐⇒2
[(-3u) + 3u] + 2x = (-3u) + [v + w] ⇐⇒
4

A4 A3 A2
⇐⇒ 0 + 2x = (-3u) + [v + w] ⇐⇒ 2x = (-3u) + [v + w] ⇐⇒ 2x = -3u + v + w
Multiplicando-se os dois membros da última equação por 12 , obtemos:
M M M
1
2
(2x)
= 12 (-3u + v + w) ⇐⇒ 1
( 12 .2)x = 12 (-3u + v + w) ⇐⇒
2
1.x = - 32 u + 12 v + 21 w ⇐⇒
4

M4
⇐⇒ x = - 23 u + 21 v + 12 w
Substituindo-se u, v, w, obtemos:
x = - 32 (1, 2, 1) + 21 (3, 1, -2) + 21 (4, 1, 0) = (- 32 , -3, - 32 ) + ( 23 , 12 , -1) + (2, 12 , 0) =

= (- 32 + 3
2
+ 2, -3 + 1
2
+ 12 , - 32 -1 + 0) = (2, -2, - 25 ).

(
u+y = v+z
b. Resolver o sistema de equações
v+2z = y
Resposta: y = -2u + v = (1, -3, -4) e z = -u = (-1, -2, -1).

Exercícios: Considere em P3 (R) os vetores f(t) = t3 - 1 ,g(t) = t2 + t - 1 e h(t) = t + 2.

1. Calcular 2 f(t) + 3 g(t) - 4 h(t). (Resposta: 2 t3 + 3 t2 - t - 13)

2. Existe k ∈ R tal que f(t) + k g(t) = h(t)? (Não existe.)

3. Existem k1 , k2 ∈ R tais que f(t) = k1 g(t) + k2 h(t)?(Não existem.)

51
2.3 Subespaços Vetoriais

Seja V um K-espaço vetorial.

Definição: Um subespaço vetorial de V é um subconjunto W ⊆ V tal que

1. 0 ∈ W;

2. Para todos u,v ∈ W, u + v ∈ W;

3. Para todos α ∈ R e u ∈ W, α u ∈ W.

Notação: W ⊆
sev
V

Exemplo: Os subconjuntos W1 = {(x, y, z) ∈ R3 : x - y = 0} e W2 = {(x, y, z) ∈ R3 : x +


z =
= 0 e x - 2 y = 0} são subespaços do espaço vetorial R3 .

Proposição: Se W é um subespaço vetorial do espaço vetorial V, então W, com as


operações de V, também é um espaço vetorial real.

Prova: Basta ver que W é fechado para as operações de V (adição de vetores e multi-
plicação de um vetor por um escalar), e, portanto, as operações definidas em V também
são operações definidas em W. Além disso, as propriedades A1 e A2 e as propriedades da
multiplicação valem para todos elementos de V, valendo, portanto, para os elementos de
W. Finalmente, como o vetor nulo de V pertence a W, as propriedades A3 e A4 também
são satisfeitas em W e, portanto, W é um espaço vetorial real.

Exemplos:

1. { 0 } e V são subespaços de V, chamados subespaços triviais de V.

2. W = {(x, y, z) ∈ R3 : ax + by + cz = 0} é um subespaço vetorial do R3 , sendo a,


b, c números reais.

52
3. Seja S um sistema linear homogêneo de 2 equações e 3 incógnitas:

 a1 x + b1 y + c1 z = 0

S:

a2 x + b2 y + c2 z = 0

O conjunto W de todas as soluções de S é um subespaço vetorial do R3 , chamado


de espaço solução de S.

4. Generalização do exemplo anterior: Considere o sistema linear homogêneo de m


equações e n incógnitas.


 a11 x1 + a12 x2 + ... + a1n xn = 0






 a21 x1 + a22 x2 + ... + a2n xn = 0



S:

...................................................










am1 x1 + am2 x2 + ... + amn xn = 0

O conjunto W de todas as soluções do sistema S é um subespaço vetorial do Rn ,


chamado de espaço solução de S .

5. P2 (R) ⊆
sev
P5 (R), sendo P2 (R) = {a0 + a1 t + a2 t2 : ai ∈ R, i = 0, 1, 2} e
P5 (R) = {b0 + b1 t + . . . + b5 t5 : bi ∈ R, i = 0, 1, . . . , 5}

6. Generalização do exemplo anterior: Pm (R) ⊆


sev
Pn (R), para todos 0 ≤ m ≤ n.

7. O conjunto S(2) das matrizes simétricas de ordem 2 é um subespaço vetorial do


conjunto das matrizes quadradas de ordem 2; isto é,
( ! )
a b
S(2) = ∈ M2 (R), a, b, c ∈ R
b c

é um subespaço vetorial de M2 (R).

8. O exemplo anterior pode ser generalizado: o conjunto S(n) constituído por todas as
matrizes simétricas de ordem n é um subespaço vetorial de Mn (R).

53
9. O conjunto A(3) = {A ∈ M3 (R) : aij = - aji , ∀ i, j} das matrizes anti-simétricas de
ordem 3 é um subespaço vetorial de M3 (R).
Observe que: como, para cada par (i, j), aij = - aji , segue que a11 = a22 = a33 =
0 e, portanto, uma matriz anti-simétrica de ordem 3 genérica é do tipo:
 
0 a12 a13
−a12 0 a23 
 

−a13 −a23 0

10. De um modo geral, o conjunto A(n) das matrizes anti-simétricas de ordem n é um


subespaço vetorial de Mn (R).

11. O conjunto W1 = { f ∈ C([0, 1], R) : f(0) = 0 } é um subespaço vetorial de


C([0, 1], R).

12. O conjunto W2 = { f ∈ C([0, 1], R) : f(0) = f(1) } é outro subespaço vetorial de


C([0, 1], R)

13. Dados V um espaço vetorial real e 0 6= v ∈ V, o subconjunto W = {λv : λ ∈ R}


de V é um subespaço vetorial de V.

Exercício: Determine o espaço solução do sistema linear homogêneo


(
4x+3y−z+t=0
S:
x−y+2z−t=0

É um bom (e fácil) exercício mostrar o seguinte resultado:


(
(i) 0 ∈ U
Proposição 1: U sev V ⇐⇒

(ii) se α é um escalar e u, v ∈ U então αu + v ∈ U

Observação: A Proposição anterior fornece uma forma equivalente à definição de sub-


espaço vetorial; ou seja, para mostrarmos que S é um subespaço vetorial de V, basta
mostrarmos que os elementos de S satisfazem às condições (i) e (ii) da Proposição ante-
rior.

Proposição 2: Sejam V um espaço vetorial real (ou complexo) e U, W ⊆


sev
V. A intersec-
ção

54
U ∩ W é um subespaço vetorial de V.

Prova: De fato: Como U ∩ W ⊆ U ⊆ V, é claro que U ∩ W ⊆ V. Verifiquemos, agora, que


U ∩ W é um subespaço vetorial de V. Para isso, usaremos o resultado enunciado na
observação anterior. Temos que:

(i) 0 ∈ U ∩ W pois 0 ∈ U e 0 ∈ W, uma vez que U, W são subespaços vetoriais de V.

(ii) Sejam α um escalar e u, v ∈ U ∩ W. Então:

 αu + v ∈ U, pois U sev V

 
 u, v ∈ U
 
u, v ∈ U ∩ W =⇒ e =⇒ e =⇒ αu + v ∈ U ∩ W
αu + v ∈ W, pois W sev V

 
u, v ∈ W
 

o que conclui a demonstração de que U ∩ W é um subespaço vetorial de V.

Definição: Sejam U e W subespaços vetoriais do espaço vetorial V. A soma de U


com W, indicada por U + W é o subconjunto de V:

U + W := {u + w : u ∈ U e w ∈ W}

Proposição 3: Se V é um espaço vetorial e U, W ⊆


sev
V, então U + W ⊆
sev
V.

Prova: De fato: Como U, W ⊆ U ⊆ V, é claro que U + W ⊆ V. Verifiquemos, agora, que


U + W é um subespaço vetorial de V. Temos que:

(i) 0 ∈ U + W pois 0 ∈ U e 0 ∈ W, uma vez que U, W são subespaços vetoriais de V


e, portanto 0 = 0 + 0 ∈ U + W.

(ii) Sejam α um escalar e v1 = u1 + w1 , v2 = u2 + w2 dois elementos arbitrários de U +


W. Então αv1 + v2 = α(u1 + w1 ) + (u2 + w2 ) = (αu1 + αw1 ) + (u2 + w2 ) = (αu1 +
u2 ) +
+ (αw1 + w2 ) ∈ U + W, uma vez que αu1 + u2 ∈ U e αw1 + w2 ∈ W, pois
U e W são subespaços vetoriais de V.

55
Definição: Se U, W são subespaços vetoriais de um espaço vetorial V tais que
U ∩ W = {0}, então o subespaço soma é chamado soma direta de U e W e é denotado
por U ⊕ W.

Observação: Se U, W ⊆
sev
V são tais que U ⊕ W = V, dizemos que U e W são suple-
mentares.

Proposição 4: Sejam U e W subespaços vetoriais do espaço vetorial V. Então V = U


⊕ W se, e somente se, cada vetor v ∈ V admitir uma única decomposição do tipo v =
u + w, com u ∈ U e w ∈ W.

Prova: (=⇒) Suponhamos que V = U ⊕ W. Afirmamos que que cada vetor v de V se


decompõe do modo único numa soma v = u + w, com u ∈ U e w ∈ W.

De fato: se v = u1 + w1 = u2 + w2 , com u1 , u2 ∈ U e w1 , w2 ∈ W, então u1 - u2 = w2


- w1 . Dessa forma, u1 - u2 , que é um elemento de U, é igual a um elemento de W sendo,
portanto, um elemento que também pertence a W. Ou seja, u1 - u2 ∈ U ∩ W = {0}; isto
é, u1 - u2 = 0, o que implica em u1 = u2 . De modo análogo, w1 = w2 , o que conclui a
demonstração de que a decomposição de cada elemento de V como soma de um elemento
de U com um de W é única.

(⇐=) Mostremos, agora, que se cada elemento de V se escreve de modo único como uma
soma de um elemento de U com um de W, então V = U ⊕ W.

É claro, pela hipótese, que V = U + W. Resta mostrarmos que U ∩ W = {0}. Para isso,
consideremos x ∈ U ∩ W. Então: se u ∈ U e v ∈ V, teremos:

u + v = (u + x) + (v - x) ∈ U + W

e, pela unicidade da decomposição de elementos de V como soma de elementos de U e W,


segue que u = u + x, o que significa que x = 0 e, portanto, U ∩ W = {0}.

Exemplos:

1. R2 = U ⊕ W, sendo U = {(x, y) : y = 0} e W = {(x, y) : x = y}.

56
2. R3 não é soma direta dos subespaços U = {(0, y, 0): y ∈ R} e W = {(x, 0, 0): x
∈ R}. Por quê?

3. R3 é soma dos subespaços U = {(x, y, 0): x, y ∈ R} e W = {(0, t, z): t, z ∈ R}


pois se (a, b, c) é um elemento arbitrário do R3 , temos
(a, b, c) = (a, b2 , 0) + (0, b2 , c) ∈ U + W.
Porém: esta soma não é direta, uma vez que, por exemplo, (0, 1, 0) ∈ U ∩ W.

2.4 Combinações Lineares


Espaços Vetoriais Finitamente Gerados

Seja V um espaço vetorial sobre R. Consideremos um subconjunto S = {u1 , u2 , ..., un } ⊂


V e vamos indicar por [ S ] = {α1 u1 + α2 u2 + ... + αn un , α1 , α2 , ..., αn ∈ R}. Então [ S ]
é um subespaço vetorial de V.

Definição: O subespaço vetorial [ S ] é chamado de subespaço gerado por S. Cada


elemento de [ S ] é chamado de uma combinação linear de u1 , u2 , ... ,un . Em ou-
tras palavras, se u ∈ [ S ], então u = α1 u1 + α2 u2 + ... + αn un , para escalares
α1 , α2 , ..., αn ∈ R.

Observação: Algumas vezes escrevemos [u1 , u2 , ..., un ] no lugar de [ S ]. Dizemos tam-


bém que u1 , u2 , ..., un geram [ S ] ou que formam um sistema de geradores de [ S ].
Convenções:

1. Se S = ∅, então [ S ] = [ ∅ ]
convenção
= {0}

2. Se S ⊆ V é infinito, definimos [ S ] por:


u ∈ [ S ] ⇐⇒ ∃ v1 , v2 , . . ., vt ∈ S, ∃ α1 , α2 , . . . , αt ∈ R tais que u = α1 v1 +
+ α2 v2 + . . . + αt vt ; isto é, [ S ] = conjunto de todas as combinações lineares
finitas de elementos de S.

57
Propriedades: Fixemos V: um espaço vetorial e S, S1 , S2 subconjuntos de V.

P1 . S ⊆ [ S ]

P2 . S1 ⊂ S2 =⇒ [ S1 ] ⊆ [ S2 ]

P3 . [ S ] = [[ S ]] (ou: se W é um subespaço vetorial deV, então W = [ W ])

P4 . S1 , S2 ⊆ V =⇒ [ S1 ∪ S2 ] = [ S1 ] + [ S 2 ]

! !
1 0 0 0
Exemplo: Em M2 (R), considere u = ev= Encontre [ u, v ].
0 0 1 1

Solução: [ u, v ] = {αu + βv : α, β ∈ R} e portanto:


! ! !
1 0 0 0 α 0
A ∈ [ u, v ] ⇐⇒ ∃ α, β ∈ R tais que A = α + β = +
0 0 1 1 0 0
! !
0 0 α 0
+ =
β β β β

Logo:

( ! )
x 0
[ u, v ] = : x, y ∈ R
y y

Definição: Dizemos que um espaço vetorial V é finitamente gerado se, e somente se,
existe S ⊂ V, S finito, de maneira que V = [ S ].

Exemplos:

1. V3 = espaço vetorial dos vetores de G.A. é finitamente gerado pois {~i, ~j, ~k} gera V3 .

2. V = {0} é finitamente gerado pois S = ∅ gera V.

58
( ! ! ! !)
1 0 0 1 0 0 0 0
3. M2 (R) é finitamente gerado pois S = , gera
0 0 0 0 1 0 0 1
M2 (R).
Generalização: Mn (R) é finitamente gerado pois o subconjunto de n2 matrizes
reais
      


 1 0 0 · · · 0 0 1 0 ··· 0 0 0 ··· 0
0 


       
0 0 0 · · · 0 · · · 0 · · · 0


   0 0 0 0 0 0 


    
S= 
0 0 0 · · · 0 · · · 0 · · · 0
, 0 0 0 , · · · , 0 0 0
 
  
. . . .
 .. .. .. . . ... 
. . . . . ..  . .. ..
. . .. 
 .. .. ..  ..
  
. . . . . .

 


       

 
 0 0 0 ··· 0

0 0 0 ··· 0 0 0 0 ··· 1


n×n n×n n×n
gera Mn (R).

4. R3 é finitamente gerado pois S = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} gera R3 .
Generalização: Rn é finitamente gerado pois
S = {(1, 0, 0, . . ., 0), (0, 1, 0, . . ., 0), · · · , (0, 0, 0, · · · ,1)}
gera Rn .

5. Mm×n (R) é finitamente gerado pois o subconjunto de m.n matrizes reais


      


 1 0 0 · · · 0 0 1 0 ··· 0 0 0 0 ··· 0 


      
0 0 0 · · · 0 0 0 · · · 0 · · · 0


   0 0 0 0 


    
S = 0 0 0 · · · 0 , 0 0 0 · · · 0 · · · 0
0 0 0
, · · · ,
  
  
 ... ... ... . . . ... 
. .. .. . . ..  . . .. . . .. 
 ..  .. ..
    
. . . . . . .

 


      

 
 0 0 0 ··· 0

0 0 0 ··· 0 0 0 0 ··· 1


m×n m×n m×n
gera Mm×n (R).

6. P3 (R) é finitamente gerado pelo subconjunto S de quatro elementos: S = {1, t, t2 ,


t3 }.
Generalização: Pn (R) é finitamente gerado pelo subconjunto S de n + 1 ele-
mentos: S = {1, t, t2 , t3 , · · · , tn }.

59
Exercício 1: Consideremos no espaço vetorial V = R3 os vetores u = (0, 1, 0) e v = (0,
1, 1) e S = {u, v}. Então [ S ] = [ u, v ] = {α u + β v : α, β ∈ R} = { (0, α + β, β) :
α, β ∈ R}. Como o sistema α + β = y, β = z é compatível determinado, podemos escrever

[ u,v ] = {(0, y, z) : y, z ∈ R}.

Exercício 2: Considere os seguintes vetores do espaço R3 :

u1 = (1, 0, 0), u2 = (1, 1, 1), v1 = (0, 1, 0), v2 = (0, 0, 1)

(a) Determine U = [ u1 , u2 ] e V = [ v1 , v2 ].

(b) Determine um sistema de geradores do subespaço W = U ∩ V.

Solução:

a. Temos que U = { u ∈ R3 : u = a u1 + b u2 } = { u = a u1 + b u2 : a,b ∈ R}. Logo

U = {a(1, 0, 0) + b(1, 1, 1) : a,b ∈ R} = {(a + b, b, b) : a,b ∈ R}= {(x, y, z) ∈ R3 : y


=z}

V = {a(0, 1, 0) + b(0, 0, 1) : a,b ∈ R} = {(0, a, b) : a,b ∈ R} = {(x, y, z) ∈ R3 : x = 0}

b. Note que: w ∈ W ⇐⇒ w ∈ U e w ∈ V e para isto é preciso que existam a, b, c, d


∈ R tais que a(1, 0, 0) + b(1, 1, 1) = w = c(0, 1, 0) + d(0, 0, 1); isto é


 a+b=0

b=c

b=d

Portanto, w = - b(1, 0, 0) + b(1, 1, 1) = b(0, 1, 1). Logo U ∩ V = {(0, b, b) : b ∈ R};


ou seja, U ∩ V = [(0, 1, 1)].

60
Exercício 3: Pn (R) é finitamente gerado, por exemplo, pelo conjunto de polinômios
{ p0 = 1, p1 = t, p2 = t2 , p3 = t3 , ... , pn = tn }, uma vez que todo polinômio de Pn (R) é
da forma

p(t) = a0 t0 + a1 t + a2 t2 + a3 t3 + ... + an tn = a0 p0 + a1 p1 + a2 p2 + a3 p3 + ... + an pn ,

para constantes a0 , a1 , a2 , ... , an ∈ R.

Exercício 4: Achar um sistema de geradores dos seguintes subespaços vetoriais de R4 .

(a) U = {(x, y, z, t) : x - y - z + t = 0}.

(b) W = {(x, y, z, t) : x - y = z + t = 0}.

Solução:

a. Considere u = (x, y, z, t) ∈ U. Então: y = x - z + t e dessa forma


u = (x, x - z + t, z, t) = (x, x, 0, 0) + (0, -z, z, 0) + (0, t, 0, t) = x(1, 1, 0, 0) +
+ z (0, -1, 1, 0) + t(0, 1, 0, 1); isto é, u pode ser escrito como combinação linear dos
vetores u1 = (1, 1, 0, 0), u2 = (0, -1, 1, 0) e u3 = (0, 1, 0, 1) (note que: u1 , u2 , u3 ∈ U)
e portanto U = [(1, 1, 0, 0), (0, -1, 1, 0), (0, 1, 0, 1)].

b. Seja w = (x, y, z, t) ∈ W. Então: x = y e z = -t e portanto w = (x, x, -t, t) =


= (x, x, 0, 0) + (0, 0, -t, t) = x(1, 1, 0, 0) + t(0, 0, -1, 1); ou seja, w é combinação linear dos
vetores w1 = (1, 1, 0, 0) e w2 = (0, 0, -1, 1), que (é fácil ver) pertencem a W. Dessa forma,
W = [(1, 1, 0, 0), (0, 0, -1, 1)].

Exercício 5: Considere a equação (diferencial)

00 0
y − 5y + 6y = 0 (2.1)

sendo que as funções procuradas devem ter as derivadas de primeira e segunda ordens
contínuas e estão definidas em R. Uma função y(x) que satisfaz (2.1) é chamada de
solução da equação.

a. Mostre que as funções y1 (x) = e2x e y2 (x) = e3x são soluções de (2.1).

61
b. Mostre que o conjunto de todas as soluções é um subespaço vetorial de C(R, R).

c. Mostre que qualquer combinação linear y(x) = α1 y1 (x) + α2 y2 (x) também é uma
solução de (2.1).

Exercício 6: Determine um sistema de geradores para o subespaço vetorial de R3 ,


U = {(x, y, z) : x + z = 0 , x - 2 y = 0}.

Exercícios

1. No conjunto V = {(x, y) : x, y ∈ R}, definimos “adição” por: (x1 , y1 ) + (x2 , y2 ) =


= (x1 + x2 , 0) e multiplicação por escalar usual do R2 . Nessas condições, V é um espaço
vetorial real? Justifique sua resposta.

2. No conjunto V = {(x, y) : x, y ∈ R}, definimos a adição de modo usual e a


multiplicação por escalar por: α(x, y) = (αx, 0), sendo α ∈ R. V é espaço vetorial real?
Justifique sua resposta.

3. No espaço vetorial M3x2 (R), consideremos os vetores:


    
1 1 0 1 1 1
A = 0 0  B = 2 1  C = 1 0 
     

0 0 1 1 0 −1

(a) Calcule 2A + B - 3C;

(b) Calcule X ∈ M3x2 (R) tal que A+X


2
- X−B
3
= C;

(c) Existem λ1 , λ2 ∈ R tais que A = λ1 B + λ2 C?

4. Quais dos seguintes conjuntos W são subespaços do R3 ?

(a) W = {(x, y, z) ∈ R3 : x = 0};

(b) W = {(x, y, z) ∈ R3 : x é inteiro};

62
(c) W = {(x, y, z) ∈ R3 : y é irracional};

(d) W = {(x, y, z) ∈ R3 : x - 3z = 0}.

5. Seja P(R) = conjunto de todos os polinômios. Quais dos seguintes conjuntos abaixo
são subespaços de P(R)?

(a) W = {p(t) ∈ P(R) : p(t) tem grau maior que 2};

(b) W = {p(t) ∈ P(R) : p(0) = 2p(1)};

(c) W = {p(t) ∈ P(R) : p(t) > 0};


0
(d) W = {p(t) ∈ P(R) : p(t) + p (t) = 0}

6. Explique porquê os seguintes subconjuntos não são subespaços do R3 :

(a) S = {(x, y, z) ∈ R3 : x = 1};

(b) S = {(x, y, z) ∈ R3 : x2 + y + z = 0};

(c) S = {(x, y, z) ∈ R3 : x ≤ y ≤ z};

(d) S = {(x, y, z) ∈ R3 : x + y é racional}.

7. Sejam I = [0, 1] e C(I) = {f:I → R: f é contínua}. Verifique se são subespaços de C(I)


os seguintes subconjuntos:

(a) S = {f ∈ C(I) : f(0) = 0};


R1
(b) S = {f ∈ C(I) : 0 f(t)dt = 0}

8. Sejam U, V, W os seguintes subespaços do R3 :


U = {(x, y, z) : x = z}; V = {(x, y, z) : x = y = 0} e W = {(x, y, z) : x + y + z = 0}.
Verifique que U + V = R3 e V + W = R3 . Em algum dos casos a soma é direta?

9. Mostre que os polinômios 1-t, (1-t)2 , (1-t)3 , 1 geram P3 (R).

10. Encontre um conjunto de geradores para cada um dos seguintes subespaços do R3


dados abaixo:

63
(a) U = {(x, y, z) ∈ R3 : x - 2y = 0};

(b) V = {(x, y, z) ∈ R3 : x + z = 0 e x - 2y = 0};

(c) W = {(x, y, z) ∈ R3 : x + 2y - 3z =0};

(d) U ∩ V;

(e) V + W.

11. Verifique se as seguintes matrizes geram o espaço vetorial M2 (R):


! ! ! !
1 0 1 1 0 0 0 1
0 1 0 0 1 1 1 2

64
pulando folha

65
Capítulo 3

Base e Dimensão

3.1 Dependência Linear

Seja V um espaço vetorial sobre R (ou C).

Definição: Um conjunto de vetores L = {u1 , u2 , ... , ur } ⊂ V é linearmente inde-


pendente (LI) se, e somente se, a única maneira de termos a igualdade

α1 u1 + α1 u2 + ... + αr ur = 0, αi ∈ R,

é tomando α1 = α2 = ... = αr = 0.

Definição: Um conjunto finito de vetores L = {u1 , u2 , ... , ur } ⊂ V é linearmente


dependente (LD) se, e somente se, ele não for LI; ou seja, é possível uma igualdade do
tipo
α1 u1 + α1 u2 + ... + αr ur = 0, αi ∈ R,

para escalares α1 , α2 , ..., αr não todos nulos.

66
Definição: Um conjunto infinito de vetores L = {u1 , u2 , ... , ur , . . .} ⊂ V é

linearmente independente (LI) se, e somente se, todo subconjunto finito de L é


LI.

linearmente dependente (LD) se, e somente se, L contém um subconjunto finito


LD.

Convenção: ∅ ⊆ V é LI.

Exemplo 1: Verificar se os seguintes subconjuntos do R3 são linearmente independentes:

a) L1 = {(1, 1, 0), (1, 4, 5), (3, 6, 5)}

b) L2 = {(1, 2, 3), (1, 4, 9), (1, 8, 27)}

c) L3 = {(1, 2, 1), (2, 4, 2), (5, 10, 5)}

d) L4 = {(1, 2, 4), (2, 4, 1), (6, 3, 1)}

Solução: Vamos resolver apenas o item (d). Os outros itens são deixados como exercícios
para o leitor.

d) Se a(1, 2, 4) + b(2, 4, 1) + c(6, 3, 1) = (0, 0, 0), então


a+2b+6c=0


S= 2a+4b+3c=0

4a + b + c=0

Escalonando o sistema S temos

 
 a+2b+6c=0
  a+2b+6c=0

−9 c = 0 ∼ b + 23
7
c=0
 
−7 b − 23 c = 0 c=0
 

67
Portanto a única solução de S é a terna (a, b, c) = (0, 0, 0), o que mostra que L4 é
L.I.

Exemplo 2: Estude a dependência linear dos seguintes subconjuntos de P4 (R) :

a) L1 = {1, x - 1, x2 + 2 x + 1 , x2 }.

b) L2 = {x4 + x - 1 , x3 - x + 1 , x2 - 1}.

Solução: Exercício.

Exemplo 3: Determine m para que o conjunto de vetores L = {(3, 5m, 1), (2, 0, 4),
( 1, m, 3)} do espaço R3 seja L.I.

Solução: Se a(3, 5m, 1) + b(2, 0, 4) + c(1, m, 3) = (0, 0, 0), então, para que L seja LI
é preciso que a única solução do sistema linear homogêneo

 3a+2b+ c=0

5ma + mc=0

a+4b +3c=0

seja a trivial (0, 0, 0) e para que isto aconteça o sistema deve ser compatível determinado.
Escalonando o sistema temos
  

 a + 4 b + 3 c = 0  a+4b +3c=0
  a+4b +3c=0

−10 b − 8 c = 0 ∼ −10 b − 8 c = 0 ∼ −10 b − 8 c = 0
  
−20 m b − 14m c = 0 2mc=0 mc=0
  

e assim o sistema só é compatível determinado quando m 6= 0.

Exemplo 4: Mostre que é L.D. o conjunto de matrizes


( ! ! ! !)
1 2 −1 2 0 2 1 3
L = , , , .
1 0 −3 −2 0 0 2 1

68
Propriedades da dependência linear

Seja V um espaço vetorial real.

P1 . Se um conjunto L ⊂ V contém o vetor nulo, então esse conjunto é LD.


De fato: Seja L = {u1 , u2 , . . ., un , 0}. Então: 0.u1 + 0.u2 + . . . + 0.un + 1.0 = 0;
isto é, o vetor nulo se escreve como combinação linear dos vetores u1 , u2 , . . ., un , 0
sem que todos os escalares sejam nulos.

P2 . Se L = {u} ⊂ V e u 6= 0, então L é LI.


De fato: Basta ver que: αu = 0 ⇐⇒ α = 0 ou u = 0 e como por hipótese u 6= 0,
segue que α = 0 e portanto {u} é LI.

P3 . Se L = {u1 , u2 , ... , ur } ⊂ V é LD, então um dos seus vetores é combinação linear


dos demais.
De fato: De L ser LD, segue que existem α1 , α2 , . . ., αr ∈ R, não todos nulos,
tais que α1 u1 + α2 u2 + . . . + αr ur = 0. Podemos, sem perda de generalidade, supor
que α1 6= 0 e, portanto:
α2 α3 αr
u1 = - u2 - u3 - . . . - ur ;
α1 α1 α1

isto é, u1 se escreve como combinação linear de u2 , u3 , . . ., ur .

P4 . Sejam L1 ⊂ L2 subconjuntos finitos e não vazios de V.


[a.] Se L1 é LD então L2 também é LD.
[b.] Se L2 é LI então L1 também é LI.
De fato: Suponhamos que L1 = {u1 , u2 , . . ., ur } e que L2 = {u1 , u2 , . . ., ur , ur+1 ,
. . ., un }.
(a) De L1 ser LD, segue (de P3 ) que um de seus vetores, por exemplo u1 , é combi-
nação linear dos vetores restantes; isto é, existem escalares α2 , α3 , . . ., αr tais que

u 1 = α 2 u 2 + α 3 u 3 + . . . + αr u r ;

69
e portanto u1 = α2 u2 + α3 u3 + . . . + αr ur + 0.ur+1 + . . . + 0.un
ou seja, u1 é combinação linear dos vetores u2 , u3 , . . ., ur , ur+1 , . . ., un , o que mostra
que L2 é LD.

(b) Suponhamos que α1 u1 + α2 u2 + α3 u3 + . . . + αr ur = 0. Logo,

α1 u1 + α2 u2 + α3 u3 + . . . + 0.ur + . . . + 0.un = 0

e como L2 é LI, segue que α1 = α2 = . . . = αr = 0, o que conclui a prova de que L1


é LI.

P5 . Se L = {u1 , u2 , ... , ur } ⊂ V é LI e L ∪{u} é LD, para um vetor u ∈ V, então o


vetor u é combinação linear dos vetores de L.
De fato: De L ∪{u} ser LD, segue que existem escalares α1 , α2 , . . ., αr , α, não
todos nulos tais que α1 u1 + α2 u2 + . . . + αr ur + αu = 0. Suponhamos, por
absurdo, que α = 0. Então: α1 u1 + α2 u2 + . . . + αr ur = 0 e como por hipótese L
= {u1 ,u2 , ... ,ur } é LI, segue que α1 = α2 = . . . = αr = 0, o que contraria o fato
dos escalares não serem todos nulos. Logo, α 6= 0 e daí segue que u é combinação
linear dos demais vetores.

P6 . Se L = {u1 , u2 , ... , ur } e uj ∈ [ L - {uj } ], então [L] = [L - {uj }].


De fato: Podemos supor, sem perda de generalidade, que j = 1; isto é, u1 ∈ [ L -
{u1 } ]. Logo, existem escalares α2 , α3 , . . ., αr tais que

u1 = α2 u2 + α3 u3 + . . . + αr ur (∆)

Mostremos que [ L ] = [ L - {u1 } ]. Esta última igualdade é uma igualdade de con-


juntos e portanto, para mostrar a sua validade, devemos provar que são verdadeiras
as duas inclusões a seguir:

[1)] [ L ] ⊂ [ L - {u1 } ].
Dado v ∈ [ L ], provemos que v ∈ [ L - {u1 } ]:
v = β 1 u1 + β 2 u2 + . . . + βr ur

70

= β 1 (α2 u2 + α3 u3 + . . . + αr ur ) + β 2 u2 + . . . + βr ur
= (β 1 α2 + β 2 )u2 + (β 1 α3 + β 3 )u3 + . . . + (β 1 αr + βr )ur ; ou seja, é possível
escrever v como combinação linear dos elementos de L - {u1 }.

[2)] [ L - {u1 } ] ⊂ [ L ].
Como L - {u1 } ⊆ L, a inclusão pretendida segue imediatamente da propriedade
P2 da página 40.

Exemplo: É fácil verificar que o suconjunto

L = {(1, 2, 1, 0), (−1, 2, −1, −2), (0, 2, 0, 0), (1, 3, 1, 1)} ⊂ R4

é LD e que

(−1, 2, −1, −2) = 1 (1, 2, 1, 0) + 3 (0, 2, 0, 0) − 2 (1, 3, 1, 1).

Determine [ L ] e [ L-{ (-1, 2, -1, -2)}] = [(1, 2, 1, 0), (0, 2, 0, 0), (1, 3, 2, 1)]. Mostre
0
que L = {(1, 2, 1, 0), (0, 2, 0, 0), (1, 3, 1, 1)} é um conjunto LI de vetores.

Basta notar que (0, 0, 0, 0) é a única solução do sistema



 x + z = 0  
 x + z = 0  x =0



 2x + 2y +  
3z = 0
∼ 2y + z = 0 ∼ 2y =0
 x + z = 0  
z = 0 z=0

  

 z = 0

3.2 Base de um Espaço Vetorial Finitamente Gerado

Definição: Seja V um espaço vetorial finitamente gerado. Uma base de V é um


subconjunto finito B ⊂ V tal que

71
a) [ B ] = V.

b) B é linearmente independente.

Observações:

1) Como [ B ] = V, todo vetor v ∈ V é uma combinação linear dos vetores de B, isto é,


se B = {u1 , u2 , ... , un }, então existe uma n-upla de escalares (α1 , α2 , ..., αn ), αi ∈ R,
i = 1, 2, ... , n, tais que

v = α1 u1 + α2 u2 + ... + αn un

2) Para cada vetor v ∈ V, a n-upla encontrada acima é única.


De fato: Suponhamos que, para um dado v ∈ V, tenhamos:

v = α1 u1 + α2 u2 + ... + αn un = β1 u1 + β2 u2 + ... + βn un

Então:
(α1 − β1 ) u1 + (α2 − β2 ) u2 + ... + (αn − βn ) un = 0

e como B = {u1 , u2 , ..., un } é base de V, segue que

α1 − β1 = α2 − β2 = . . . = αn − βn = 0

e portanto
α1 = β1 ; α2 = β2 ; . . . ; αn = βn

Definição: Os escalares α1 , α2 , ..., αn são chamados de coordenadas do vetor v em


relação à base B. Denotamos por: [v]B = (α1 , α2 , ... , αn ).

Algumas vezes é conveniente associarmos às coordenadas de um vetor v em uma base B


uma matriz coluna n × 1, chamada matriz das coordenadas de v na base B,

72
 
α1
 α2 
 
[v]B = 
 .. 

 .
αn B

Exemplos:

1) B = {~i, ~j, ~k} ⊂ V3 é uma base de V3 .

2) B = ∅ é uma base de V = {0} (espaço vetorial trivial nulo).

( ! ! ! !)
1 0 0 1 0 0 0 0
3) B = , , , ⊂ M2 (R) é uma base de M2 (R).
0 0 0 0 1 0 0 1
Generalização: o subconjunto de Mn (R)
      


 1 0 0 ··· 0 0 1 0 ··· 0 0 0 ··· 0
0 


       
0 0 0 · · ·


  0 0 0 0 · · · 0 0 0 · · · 0
0 


     
B = 0 0 0 · · · 0 , 0 0 0 · · · 0 , · · · , 0 0 · · · 0
0
  
  
. . . . ..  . . . . ..  . .. ..
. . .. 
 .. .. .. . .  .. .. .. . .  ..
  
. . . . . .

 


      

 
 0 0 0 ···

0 0 0 0 ··· 0 0 0 0 ··· 1


n×n n×n n×n

é uma base de Mn (R).

4) B = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} ⊂ R3 é uma base de R3 .

Generalização: B = {(1, 0, 0, . . ., 0), (0, 1, 0, . . ., 0), · · · , (0, 0, 0, · · · ,1)} ⊂ Rn


é uma base de Rn .

73
      


 1 0 ··· 0
0 0 1 ··· 0
0 0 0 ··· 0
0 


      
0


 0 · · · 0
0 
0
 0 · · · 0
0 
0
 0 · · · 0
0 




5. B = 0 0 · · · 0
0 , 0 0 · · · 0
0 , · · · , 0 0 · · · 0
0
  
  
. .. ..
. . . ..  . .. ..
. . ..  . .. ..
. . .. 
.  ..  ..
 
. . . . . .. . . . . .

 

     



 
0 0 ··· 0 0 0 ··· 0 0 0 ··· 1

 0 
0 0 
m×n m×n m×n

é uma base de Mm×n (R).

6. O conjunto de quatro elementos: B = {1, t, t2 , t3 } ⊂ P3 (R) é uma base de P3 (R).


Generalização: O conjunto de n + 1 elementos B = {1, t, t2 , t3 , · · · , tn } ⊂
Pn (R) é uma base de Pn (R).

Observação: As bases dadas nos exemplos anteriores são chamadas de bases canônicas.

Exercício 1: Qual é a matriz das coordenadas dos vetores


!
1 0
(1, 3, 2) , e 5 + 2 t + t2
3 2

nas bases canônicas de R3 , M2 (R) e P2 (R)?

Exercício 2: Mostre que o conjunto B = {1, 1 + t, 1 + t2 , 1 + t3 } é uma base de P3 (R).

a) [ B ] = P3 (R)

Seja p(t) = a0 + a1 t + a2 t2 + a3 t3 ∈ P3 (R) um polinômio qualquer. Então

a0 + a1 t + a2 t2 + a3 t3 = α (1) + β (1 + t) + γ (1 + t2 ) + δ (1 + t3 )

se, e somente se, a0 = α + β + γ + δ, a1 = β, a2 = γ e a3 = δ. Logo α = a0 - a1 - a2 - a3 ,


β = a1 , γ = a2 e δ = a3 , e portanto, p(t) é a combinação linear dos vetores de B,

p(t) = (a0 − a1 − a2 − a3 ) (1) + (a1 ) (1 + t) + (a2 ) (1 + t2 ) + (a3 ) (1 + t3 )

74
b) B é LI

Se a.1 + b.(1 + t) + c.(1 + t2 ) + d.(1 + t3 )= 0, então a + b + c + d = 0, b = 0,


c = 0 e d = 0, e portanto, a = b = c = d = 0.

Considere agora o vetor p(t) = 4 + t + 3 t2 - 2 t3 . Se

4 + t + 3t2 − 2t3 = a.1 + b.(1 + t) + c.(1 + t2 ) + d.(1 + t3 )


 
2
 
 1
então a matriz das coordenadas de p(t) na base B é  .

 3 
 
−2
( ! ! ! !)
1 1 2 1 0 1 0 0
Exemplo: Mostre que B = , , , é uma base de M2 (R).
0 0 0 0 1 0 0 2
!
1 2
Qual é a matriz das coordenadas do vetor nesta base ?
2 3

Proposição: Todo espaço finitamente gerado admite uma base.

Prova: Seja V um espaço vetorial finitamente gerado. Se V = {0}, então ∅ é uma base
de V, conforme convencionado anteriormente. Suponhamos, então, V 6= {0}. Então,
existe um subconjunto finito e não vazio L ⊂ V tal que V = [ L ]. Como L 6= ∅, segue
que existem subconjuntos de L que são não vazios e LI. Seja B um destes subconjuntos,
com a propriedade de ter o maior número possível de elementos. Afirmamos que B é uma
base de V.

De fato: Dado u ∈ L - B, o conjunto B ∪ {u} é LD (pela maneira como foi definido


o conjunto B). Logo, u é combinação linear dos elementos de B. Pela propriedade P6 ,
conclui-se que [ B ] = [ L ] = V. Como, além disso, B é LI, segue que B é uma base de V.

O próximo teorema é de grande importância na teoria que estamos estudando mas,


apesar disso, não daremos aqui sua demonstração, por ser trabalhosa (embora não seja
difícil). O aluno que tiver interesse em conhecer essa demonstração, deve procurá-la em

75
[2] (ver Referências Bibliográficas).

Teorema da Invariância: Se V é um espaço finitamente gerado, então duas bases


quaisquer de V têm o mesmo número de vetores.

Definição: Seja V um espaço vetorial finitamente gerado. Chamamos de dimensão


de V, e denotamos por dim V, o número de vetores de qualquer uma de suas bases.
Dizemos também que V é um espaço vetorial de dimensão finita.

Da definição acima e dos exemplos anteriormente vistos, segue que:

• 1) dim V3 = 3.

• 2) dim {0} = 0.

• 3) dim M2 (R) = 4.
Generalização: dim Mn (R) = n2 .

• 4) dim R3 = 3.
Generalização: dim Rn = n.

• 5) dim Mm×n (R) = m.n.

• 6) dim P3 (R) = 4.
Generalização: Pn (R) = n + 1.

Exemplo 1: Determinar uma base e a dimensão do espaço WS solução do sistema linear




 x − y − z − t=0
S : 3x− y+2z−4t=0

2y+5z+t=0

76
Solução: Escalonando o sistema temos

 x − y − z − t=0

2y + 5z−t=0

−2 t = 0

Logo WS = {(x,y,z,t) / t = 0, x = − 23 z, y = − 25 z }, isto é, WS = {(− 32 z, − 52 z, z, 0)


/ z ∈ R}. Portanto

WS = [(− 23 , − 52 , 1, 0)].

Como B = {(− 23 , − 52 , 1, 0)} é LI temos que B é uma base de WS , e portanto dim WS


= 1.

Observação: No exemplo anterior, ao escalonarmos o sistema linear homogêneo S, obti-


vemos um novo sistema linear homogêneo S0 , equivalente a S. Esse novo sistema S0 possui
p = 3 equações e n = 4 incógnitas e o subespaço WS ⊆ R4 constituido de todas as
soluções de S0 (e, portanto, de S) tem dimensão 1. Observe que:

dim WS = n - p = (no de incógnitas do sistema escalonado) - (no de equações do sistema


escalonado).

Esse não é um resultado válido apenas para o exemplo acima. É um caso particular do
seguinte resultado geral:

Proposição: A dimensão do espaço solução de um sistema linear homogêneo escalonado


com p-equações e n- incógnitas é n - p.

Observação: Sejam V um espaço vetorial de dimensão finita n e B = {v1 , v2 , · · · , vn } ⊂


V um subconjunto de V. Então:

1) B é Li =⇒ B é base de V.

77
De fato: Basta ver que, dado u ∈ V, o conjunto {v1 , v2 , · · · , vn , u} é LD (uma vez
que possui n + 1 elementos e dim V = n) e portanto u é combinação linear dos
elementos de B.

2) B gera V =⇒ B é base de V.
De fato: Suponha, por absurdo, que B não seja LI. Então existe um índice i para o
qual vi é combinação linear dos demais vetores de B . Logo, B0 = B - {vi } gera V,
o que é um absurdo, pois dim V = n.

Exemplo 2: Determinar uma base e a dimensão do espaço solução do sistema linear




x − y − z − t=0
S : 3x− y+2z−4t=0

2y+5z−t=0

Exemplo 3: Determinar uma base e a dimensão do espaço solução do sistema linear




x − y − z − t=0
S : 3x− y+2z−4t=0

2y−5z−t=0

Teorema do Completamento: Seja V um espaço vetorial de dimensão finita n ≥


1. Se L = {u1 , u2 , . . ., ur } ⊂ V é um subconjunto LI com r vetores e r < n, então
existem n - r vetores ur+1 , . . ., un ∈ V de modo que B = {u1 , u2 , . . ., ur , ur+1 , . . ., un } é
base de V.

Prova: Seja C = {v1 , v2 , · · · , vn } uma base de V. Consideremos a reunião S = L ∪ C;


isto é

S = {u1 , u2 , · · · , v1 , v2 , · · · vn }

Consideremos, agora, todos os subconjuntos S0 de S satisfazendo:

• S0 é LI;

78
• S0 é contém L.

Seja B um destes subconjuntos, com a propriedade adicional de ter o maior número


possível de elementos; ou seja, B = {u1 , u2 , · · · , ur , v1 , v2 , · · · vs } é LI e qualquer outro
subconjunto de S contendo L com mais de s + r elementos é LD.

Mostremos que B é uma base de V. É claro que, pelo modo como foi escolhido, B é LI.

Além disso, os vetores v1 , v2 , · · · , vs são obviamente combinações lineares de B. Pela


propriedade P5 , os vetores vs+1 , · · · , vn também são combinações lineares de B. Em outras
palavras, todos vetores de C são combinações lineares de B. Mas: C é, por hipótese, uma
base de V e, portanto, todo vetor v ∈ V é combinação linear de C. Ou seja, todo vetor v
∈ V é combinação linear de B, o que completa a prova de que B é uma base de V.

Observação: O Teorema do Completamento diz que o subconjunto L (LI) pode “ser


completado” para uma base de V.

Exemplo : Se L = {v1 = (2, 1, 1, 0), v2 = (1, 2, 0, 1)}, então L é LI. Logo, pelo Teorema
do Completamento, existem dois vetores de v3 , v4 ∈ R4 que completam {v1 , v2 } para
uma base do R4 ; isto é, o subconjunto {v1 , v2 , v3 , v4 } é uma base do R4 .

Proposição: Todo subespaço vetorial de um espaço vetorial finitamente gerado também


é finitamente gerado.

Prova: Se W = {0}, nada temos a fazer. Caso contrário, consideremos 0 6= w1 ∈ W. Se


W = {λ1 w1 : λ1 ∈ R}, então W é finitamente gerado. Caso contrário, existe w2 ∈
W que não é da forma λ1 w1 e, portanto, {w1 , w2 } é LI. Se W é gerado por {w1 , w2 },
está provado. Caso contrário, existe w3 ∈ W que não é combinação linear de {w1 , w2 }.
Continuamos com este processo até encontrar um subconjunto finito de W que gera W. É
claro que este processo deve parar pois, em caso contrário, haveria em V um subconjunto
infinito e LI, o que seria contra a hipótese de V ser finitamente gerado.

Proposição: Seja W um subespaço vetorial de um espaço vetorial finitamente gerado


V, tal que dim W = dim V. Então W = V.

Prova: Pela Proposição anterior, W é finitamente gerado e, portanto, admite uma base.

79
Como dim W = dim V, toda base de W também é uma base de V. Logo, todo vetor de
V também pertence a W; ou seja, V ⊂ W e como W ⊂ V, segue que V = W.

Exercício: Determine a dimensão do subespaço das matrizes simétricas S3 ⊂ M3 (R).


Solução : Seja A ∈ M3 (R) tal que At = A. Então, para a, b, c, d, e, f ∈ R,
         
a b c 1 0 0 0 1 0 0 0 1 0 0 0
A = b d e = a 0 0 0 + b 1 0 0 + c 0 0 0 + d 0 1 0 +
         

c e f 0 0 0 0 0 0 1 0 0 0 0 0

   
0 0 0 0 0 0
+ e 0 0 1 + f 0 0 0
   

0 1 0 0 0 1

Portanto o conjunto de matrizes


           

 1 0 0 0 1 0 0 0 1 0 0 0 0 0 0 0 0 0 

B = 0 0 0 , 1 0 0 , 0 0 0 , 0 1 0 , 0 0 1 , 0 0 0
           
 
0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 1
 

gera S3 . Além disso, é fácil verificar (faça isso!!) que B é LI e portanto uma base de
S3 . Logo, dim S3 = 6.

3.3 Determinação de Bases de um Subespaço do Rn

Um subespaço vetorial W do Rn , em geral, ou é definido através de seus geradores ou


então é possível encontrar geradores para W. Ou seja, podemos dizer que, em qualquer
um dos dois casos, o subespaço vetorial W é dado através de seus geradores. Daremos, a
seguir, um método prático para encontrar uma base de um subespaço vetorial do Rn , a
partir de seus geradores. Este processo se baseia nem três observações, que estão descritas
a seguir:

Seja V = [ u1 ,u2 ,...,ur ] ⊂


sev
Rn , 1 ≤ r ≤ n. Observemos que para quaisquer 1 ≤ i, j ≤
r,

80
(a) V = [ u1 ,..., ui ,..., uj , ... , ur ] = [ u1 ,..., uj , ..., ui ,..., ur ]

(b) V = [u1 ,..., ui , ... , uj + αui , ... , ur ]

(c) Se u1 , u2 , ... , ur se apresentam na forma escalonada, então {u1 , u2 , ... , ur } é um


conjunto linearmente independente e dim V = r.

Observação: Dizemos que os vetores u1 , u2 , ... , ur estão na forma escalonada quando


o número de “zeros iniciais ” do vetor ui é estritamente menor do que o número de zeros
iniciais do vetor ui+1 , para i = 1, 2, ..., r - 1. Assim, por exemplo, os vetores do R6 :
u1 = (1, 2, 3, 4, 0, 6), u2 = (0, 0, 1, 2, 0, 3) e u3 = (0, 0, 0, 0, 0, 1) estão na forma
escalonada pois u1 não tem zeros iniciais, u2 tem dois zeros iniciais e u3 tem cinco zeros
iniciais. Logo, {u1 , u2 , u3 } são LI. Por outro lado, se considerarmos u1 , u2 e v = (0, 0, 1,
1, 1, 1), u1 , u2 e v não estão na forma escalonada, pois o número de zeros iniciais de u2
é igual ao número de zeros iniciais de v. Isto não significa que o conjunto de vetores S
= {u1 , u2 , v} seja LD; significa apenas que, para decidir sobre a dependência linear de S
devemos usar outro critério (por exemplo, a definição).

Exemplo 1: Consideremos W = [(2, 1, 1, 0), (1, 0, 1, 2), (0, -1, 1, 4), (3, 1, 2, 2), (1, -1,
2, 6)] e formemos a matriz (simbólica)
 
2 1 1 0
1 0 1 2
 
 
0 −1 1 4
 
3 1 2 2
 

1 −1 2 6

Nesse caso, para obter a situação (c) acima descrita, aplicamos sucessivamente as opera-
ções dadas nos itens (a) e (b), do seguinte modo:

• 1. Permuta-se a 1a linha com a 2a ;

• 2. Permuta-se a 2a linha com a 3a ;

• 3. Substitui-se:

81
. a3 a
linha por -2L1 + L3 ;
. a4 a
linha por -3L1 + L4 ;
. a5 a
linha por -L1 + L5 ;

• 4. Substitui-se:
. a3 a
linha por L2 + L3 ;
. a4 a
linha por L2 + L4 ;
. a5 a
linha por -L2 + L5 .

Dessa forma, obtemos a seguinte situação:


 
1 0 1 2
0 −1 1 4
 
 
0 0 0 0
 
0 0 0 0
 

0 0 0 0

donde podemos concluir que W = [(1, 0, 1, 2), (0, -1, 1, -4)] e que {(1, 0, 1, 2), (0, 1,
-1, -4)} é uma base de W.

Exemplo 2: Considere os subespaços U = [(1, 0, 1, 0),(0, 1, 0, 0)] e W = {(x, y, z, t) ∈ R4 :


x + y = 0 }. Podemos determinar uma base, e portanto a dimensão, do subespaço
U + W. Temos que

W = {(-y, y, z, t) ∈ R4 : y, z, t ∈ R} = {y(-1, 1, 0, 0) + z(0, 0, 1, 0) + t(0, 0, 0, 1) :


y, z, t ∈ R}

Portanto W = [(-1, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)], e como B = {(-1, 1, 0, 0), (0, 0, 1, 0),
(0, 0, 0, 1)} é L.I., B é uma base de W, e assim dim W = 3. Pela definição do subespaço
U + W, temos que U + W = [(1, 0, 1, 0), (0, 1, 0, 0), (-1, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0,

82
1)]. Vamos usar o critério anterior :
     
1 0 1 0 1 0 1 0 1 0 0 0
 0 1 0 0  0 1 0 0 0 1 0 0
     
     
∼ 0  ∼ 0
−1 1 0 0  0 1 0  0 1 0
 
 0 0 1 0  0 0 0 1 0 0 0 1
     

0 0 0 1 −1 1 0 0 0 0 0 0

Como B0 = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} é L.I., B0 é uma base de U
+ W e assim dim (U + W) = 4. Como U + W sev ⊆
R4 , segue que U + W = R4 .

Teorema: Seja V um espaço vetorial de dimensão finita. Se U e W são subespaços


de V, então

dim (U ∩ W) + dim (U + W) = dim U + dim W.

Prova: Seja B1 = {v1 , v2 , . . ., vr } uma base de U ∩ W. Pelo Teorema do Completamento,


existem vetores u1 , u2 , . . ., us de U e w1 , w2 , . . ., wt de W tais que B2 = {v1 , v2 , . . ., vr ,
u1 , u2 , . . ., us } e B3 = {v1 , v2 , . . ., vr , w1 , w2 , . . ., wt } são, respectivamente, base de U e
base de W. Mostremos que B = {v1 , v2 , . . ., vr , u1 , u2 , . . ., us , w1 , w2 , . . ., wt } é uma
base de U + W; isto é, devemos mostrar que:

• 1) B é L.I.:
Suponhamos que

α1 v1 + α2 v2 + . . . + αr vr + β 1 u1 + β 2 u2 + . . . + βs us + γ 1 w1 + γ 2 w2 + . . . + γt wt
=0

Logo:
α1 v1 + α2 v2 + . . . + αr vr + β 1 u1 + β 2 u2 + . . . + βs us = −γ 1 w1 − γ 2 w2 − . . . − γt wt (∆)
| {z } | {z }
U W
Observe que: do lado esquerdo da igualdade acima, temos um elemento de U e do
lado direito, temos um elemento de W e portanto o vetor γ 1 w1 + γ 2 w2 + . . . + γt wt
pertence ao subespaço U ∩ W, sendo, dessa forma, combinação linear da base B1
de U ∩ W. Em outras palavras, existem escalares λ1 , λ2 , . . . , λr tais que

83
γ 1 w1 + γ 2 w2 + . . . + γt wt = λ1 v1 + λ2 v2 + . . . + λr vr

e portanto

λ1 v1 + λ2 v2 + . . . + λr vr - γ 1 w1 - γ 2 w2 - . . . - γt wt = 0

Ou seja, obtivemos o vetor nulo escrito como combinação linear dos vetores v1 ,
v2 , . . ., vr , w1 , w2 , . . ., wt . Mas esses vetores formam uma base de W e, portanto,
são L.I., donde concluímos que λ1 = λ2 = . . . = λr = γ 1 = γ 2 = . . . = γt = 0.
Substituindo-se em ∆, segue que:

α1 v1 + α2 v2 + . . . + αr vr + β 1 u1 + β 2 u2 + . . . + βs us = 0

e agora obtivemos o vetor nulo escrito como combinação linear dos vetores v1 , v2 , . . .,
vr , u1 , u2 , . . ., us que, por sua vez, formam uma base de U e, portanto, são L.I.; donde
concluímos que α1 = α2 = . . . = αr = β 1 = β 2 = . . . = βs = 0, concluindo, dessa
forma, a prova de que B é LI.

• 2) [ B ] = U + W:
De fato:
u ∈ [ B ] ⇐⇒ u = α1 v1 + α2 v2 + . . . + αr vr + β 1 u1 + β 2 u2 + . . . + βs us +
| {z }
U
+ γ 1 w1 + γ 2 w2 + . . . + γt wt ⇐⇒ u ∈ U + W.
| {z }
W

Observação: No exemplo anterior, o teorema garante que dim (U ∩ W) = 1.

Exemplo 1: Dados os dois seguintes subespaços do R4 : U = [(1, 1, 0, 0), (0, 0, 1, 0)] e


V = {(x, y, z, t) ∈ R4 : y + z = 0, x + t = 0}, determine uma base e a dimensão dos
subespaços U + V e U ∩ V.

Solução: Para determinar uma base e a dimensão de U + V e de U ∩ V é necessário


conhecer uma base e a dimensão de U e de V.

dim U:

84
Os geradores de U estão na forma escalonada e portanto B = {(1, 1, 0, 0), (0, 0, 1,
0)} é uma base de U. Logo dim U = 2.

dim V:

v = (x, y ,z, t) ∈ V ⇐⇒ y + z = x + t = 0 ⇐⇒ z = -y e t = -x ⇐⇒ v = (x, y, -y, -x) =


= x(1, 0, 0, −1) + y(0, 1, −1, 0)
| {z } | {z }
∈V ∈V

Logo: V = [(1, 0, 0, -1), (0, 1, -1, 0)] e como esses geradores de V estão na forma
escalonada, segue que B0 = {(1, 0, 0, -1), (0, 1, -1, 0)} é uma base de V e portanto dim
V = 2.

dim U + V:

Da definição de soma de subespaços, segue que U + V = [B ∪ B0 ]. A partir desses


geradores de U + V, vamos procurar uma base de U + V:
       
1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0
       
0
 0 1 0 ∼ 0
 1 −1 0  ∼ 0 1 −1 0  ∼ 0
   1 −1 0 ∼
1
 0 0 −1 

0 0 1 0  0 0
  1 0 0
 0 1 0
0 1 −1 0 1 0 0 −1 0 −1 0 −1 0 0 −1 −1
 
1 1 0 0
 
0 1 −1 0 
∼
0

 0 1 0
0 0 0 −1

Assim U + V = [(1, 1, 0, 0), (0, 1, -1, 0), (0, 0, 1, 0), (0, 0, 0, -1)] e como esses vetores
são LI, segue que formam uma base de U + V e portanto dim (U+V) = 4.

dim U ∩ V:

Pelo Teorema anterior, temos que

dim (U ∩ V) = dim U + dim V - dim (U + V) = 2 + 2 - 4 = 0

Logo U ∩ V = (0, 0, 0, 0) e B 00
= ∅ é uma base de U ∩ V.

85
Note que: Nesse caso R4 = U ⊕ V.

Exemplo 2: Considere agora os seguintes subespaços do R4 : U = [(1, 1, 0, 0), (0, 0, 1, 0)]


e
V = {(x, y, z, t) ∈ R4 : y + z = 0}. Calcule dim (U + V) e dim (U ∩ V).

Solução: Para determinar uma base e a dimensão de U + V e de U ∩ V é necessário


conhecer uma base e a dimensão de U e de V.

dim U:

Os geradores de U estão na forma escalonada e portanto B = {(1, 1, 0, 0), (0, 0, 1,


0)} é uma base de U e dim U = 2.

dim V:

v = (x, y, z, t) ∈ V ⇐⇒ y + z = 0 ⇐⇒ z = -y ⇐⇒ v = (x, y, -y, t) = x(1, 0, 0, 0) +


| {z }
∈V
+ y(0, 1, −1, 0) + t(0, 0, 0, 1)
| {z } | {z }
∈V ∈V

Logo: V = [(1, 0, 0, 0), (0, 1, -1, 0), (0, 0, 0, 1)] e como esses geradores estão na forma
escalonada, segue que B0 = {(1, 0, 0, 0), (0, 1, -1, 0), (0, 0, 0, 1)} é uma base de V e
portanto dim V = 3.

dim U + V:

Da definição de soma de subespaços, segue que U + V = [B ∪ B0 ]. A partir desses


geradores de U + V, vamos procurar uma base de U + V:
       
1 1 0 0 1 0 0 0 1 0 0 0 1 0 0 0
0 0 1 0 0 1 −1 0 0 1 −1 0 0 1 −1 0
       
       
 ∼ 1  ∼ 0  ∼ 0 ∼
1 0 0 0  1 0 0  1 0 0  0 1 0

0 1 −1 0 0 0 1 0 0 0 1 0 0 0 0 1
       

0 0 0 1 0 0 0 1 0 0 0 1 0 0 1 0

86
 
1 0 0 0
0 1 −1 0
 
 
∼
0 0 1 0
0 0 0 1
 

0 0 0 0

Assim U + V = [(1, 0, 0, 0), (0, 1, -1, 0), (0, 0, 1, 0), (0, 0, 0, 1)] e como esses vetores
são LI, segue que formam uma base de U + V e portanto dim (U+V) = 4.

dim U ∩ V:

Pelo Teorema anterior, temos que

dim (U ∩ V) = dim U + dim V - dim (U + V) = 2 + 3 - 4 = 1

dim(U + V) = 4 e portanto U + V = R4 mas U ∩ V 6= (0, 0, 0, 0) e portanto R4 não é


soma direta de U e V.

Exercícios

1. Dar uma base e a dimensão do subespaço W de R4 sendo W = {(x, y, z, t) ∈ IR4 :


x - y = y e x - 3y + t = 0}.

2. Sendo W e U subespaços do R4 de dimensão 3, que dimensões pode ter W + U se


(1, 2, 1, 0), (-1, 1, 0, 1), (1, 5, 2, 1) é um sistema de geradores de W ∩ U?

3. Sendo W o subespaço do Exercício 1 e U o subespaço do R4 gerado por (1, 2, 1, 3) e


(3, 1, -1, 4), determinar uma base e a dimensão de U + W e de U ∩ W.

4. Achar uma base e a dimensão do seguintes subespaços do R4 :

(a) U = {(x, y, z, t) ∈ R4 : x - y = 0 e x + 2y + t = 0};

87
(b) V = {(x, y, z, t) ∈ R4 : x - y + z = -2t e x + 2y + t = 0}

5. No espaço vetorial R3 consideremos os seguintes subespaços: U = {(x, y, z) : x = 0},


V = {(x, y, z) : y - 2z = 0} e W = [(1, 1, 0), (0, 0, 2)]. Determine uma base e a dimensão
de cada um dos seguintes subespaços: U, V, W, U ∩ V, V + W e U + V + W.

6. Determinar uma base e a dimensão do subespaço de M3 (R) constituído das matrizes


anti-simétricas.

7. Mostre que os polinômios 1, 1 + t, 1 - t2 e 1 - t - t2 - t3 formam uma base de P3 (R).

8. Mostre que o conjunto B forma uma base de M2 (R):


( ! ! ! !)
1 1 2 1 0 1 0 0
B= , , ,
0 0 0 0 1 0 0 2

9. Determinar uma base e a dimensão do espaço solução de cada um dos sistemas lineares
homogêneos:

  
 x−y=0
  x+y+z=0
  x−y−z−t=0

(a) 2x − 3y = 0 (b) 2x − y − 2z = 0 (c) 3x − y + 2z − 4t = 0
  
6x + y = 0 x + 4y + 5z = 0 2y + 5z + t = 0
  

10. Para que valores reais de reais de a o conjunto B = {(a, 1, 0), (1, a, 1), (0, 1, a)} é
uma base de R3 ?

11. Determinar as coordenadas do vetor u = (4, -5, 3) ∈ R em relação às seguintes bases:


(a) canônica; (b) {(1, 1, 1), (1, 2, 0), (3, 1, 0)}; (c) {(1, 2, 1), (0, 3, 2), (1, 1, 4)}.

88
12. Determinar as coordenadas do polinômio t3 em relação à seguinte base de P3 (R):
{1, 2 - t, t2 + 1, 1 + t + t3 }.

3.4 Matriz de Mudança de Base

Consideremos duas bases B = {u1 , u2 , ... , un } e C = {v1 , v2 , ... , vn } de um espaço


vetorial V de dimensão finita n. Então cada vetor da base C pode ser escrito como uma
combinação linear dos vetores da base B, isto é,


 v1 = a11 u1 + a21 u2 + · · · + an1 un

 v2 = a12 u1 + a22 u2 + · · · + an2 un

(∆) .. .. .. ..


 . . . ··· .

vn = a1n u1 + a2n u2 + · · · + ann un

n
X
ou seja, para cada j, 1 ≤ j ≤ n, vj = aij ui . A matriz quadrada de ordem n
i=1

 
a11 a12 ... a1n
 
a21 a22 ... a2n 
P = 
 .

 . ... .  
an1 an2 ... ann

é chamada matriz de mudança da base B para a base C.

Notação: P = MB,C = matriz de mudança da base B para a base C.

Observe que: A matriz P = MB,C é obtida quando temos os (elementos de C) escri-


tos como combinação linear de (elementos de B). Dessa forma, de (∆), obtemos que as
coordenadas dos vetores v1 , v2 · · · , vn em relação à base B são dadas por:

89
     
a11 a12 a1n
a21  a22  a2n 
     
[v1 ]B = 
 .. ,
 [v2 ]B = 
 .. ,
 ···, [vn ]B = 
 .. 

 .  .  .
an1 an2 ann

Compare as coordenadas dos vetores da base C em relação à base B com as colunas da


matriz P!!

Exemplo 1: Determine a matriz P de mudança da base B = {(-1, 1), (1, 1)} para a base
C = {(1, 0), (0, 1)}.

Solução: Para obter a matriz P = (aij ), devemos escrever os elementos da base C como
combinação linear dos elementos da base B; isto é:

(1, 0) = a11 (−1, 1) + a21 (1, 1) = (−a11 + a21 , a11 + a21 )


(0, 1) = a12 (−1, 1) + a22 (1, 1) = (−a12 + a22 , a12 + a22 )

e portanto resolvendo os sistemas lineares


( (
−a11 + a21 = 1, −a12 + a22 = 0,
,
a11 + a21 = 0 a12 + a22 = 1,

1 1
 

 2 2
segue que P = 
 

 1 1
2 2
Exemplo 2: Determine a matriz de mudança da base B = {(-1, 2, 1), (0, 1, 1), (1, 0,
2)} do R3 para a própria base B.

Solução: Para obter a matriz P = (aij ), devemos escrever os elementos da base B como
combinação linear dos próprios elementos da base B; isto é:

(−1, 2, 1) = a11 (−1, 2, 1) + a21 (0, 1, 1) + a31 (1, 0, 2) = (−a11 + a31 , 2a11 + a21 , a11 + a21 + 2a31 )
( 0, 1, 1) = a12 (−1, 2, 1) + a22 (0, 1, 1) + a32 (1, 0, 2) = (−a12 + a32 , 2a12 + a22 , a12 + a22 + 2a32 )
( 1, 0, 2) = a13 (−1, 2, 1) + a23 (0, 1, 1) + a33 (1, 0, 2) = (−a13 + a33 , 2a13 + a23 , a13 + a23 + 2a33 )

90
e portanto resolvendo os sistemas lineares
  

 −a11 + a31 = −1 
 −a12 + a32 = 0 
 −a13 + a33 = 1
2a11 + a21 = 2 , 2a12 + a22 = 1 , 2a13 + a23 = 0
  
a11 + a21 + 2a31 = 1 a12 + a22 + 2a32 = 1 a13 + a23 + 2a33 = 2
  

 
1 0 0
segue que P = 0 1 0
 

0 0 1

Observação: O resultado obtido no Exemplo 2 não é um caso particular, válido apenas


para este exemplo. De um modo geral, dada uma base B de um espaço vetorial V de
dimensão finita n, se P é a matriz de mudança da base B para a mesma base B, então P
= In ; isto é, P é a matriz identidade de ordem n = dim V.

Exemplo 3: Determine a matriz P de mudança da base B = {1 - t, 2 + t} para a base


C = {1, t}, ambas de P1 (R).

Solução: Para obter a matriz P = (aij ), devemos escrever os elementos da base C como
combinação linear dos elementos da base B; isto é:

1 = a11 (1 − t) + a21 (2 + t) = (a11 + 2a21 ).1 + (−a11 + a21 ).t


t = a12 (1 − t) + a22 (2 + t) = (a12 + 2a22 ).1 + (−a12 + a22 ).t

e portanto resolvendo os sistemas lineares


( (
a11 + 2a21 = 1 a12 + 2a22 = 0
,
−a11 + a21 = 0 −a12 + a22 = 1

segue que
1 2
 

3 3
P = 
 

1 1
3 3

91
Exemplo 4: Considere as bases B = {(1, 1), (-1, 1)} e C = {(1, -1), (1, 1)} do R2 .

(i) Determine a matriz P de mudança da base B para a base C .

(ii) Determine a matriz Q de mudança da base C para a base B.

(iii) Calcule PQ e QP.

Solução:

(i) Para obter a matriz P = (aij ), devemos escrever os elementos da base C como
combinação linear dos elementos da base B; isto é:

(1, −1) = a11 (1, 1) + a21 (−1, 1) = (a11 − a21 , a11 + a21 )
( 1 , 1) = a12 (1, 1) + a22 (−1, 1) = (a12 − a22 , a12 + a22 )

e portanto resolvendo os sistemas lineares


( (
a11 − a21 = 1, a12 − a22 = 1,
,
a11 + a21 = −1 a12 + a22 = 1,

segue que !
0 1
P =
−1 0

(ii) a matriz Q = (bij ), devemos escrever os elementos da base B como combinação linear
dos elementos da base C; isto é:

(1, 1) = b11 (1, −1) + b21 (1, 1) = (b11 + b21 , −b11 + b21 )
(−1, 1) = b12 (1, −1) + b22 (1, 1) = (b12 + b22 , −b12 + b22 )

e portanto resolvendo os sistemas lineares


( (
b11 + b21 = 1, b12 + b22 = −1,
,
−b11 + b21 = 1 −b12 + b22 = 1,

92
segue que

!
0 −1
Q =
1 0

(iii) Finalmente, calculemos as matrizes PQ e QP:


Temos que
! ! ! !
0 1 0 −1 0.0 + 1.1 0.(−1) + 1.0 1 0
PQ = . = = = I2
−1 0 1 0 −1.0 + 0.1 (−1).(−1) + 0.0 0 1

e analogamente, mostra-se que QP = I2 .

Exemplo 5: Mostre que a matriz de mudança da base B = {(1, 0, 2), (2, 1, 0), (0, 1, 2)}
para a base C = {(1, 1, 0), (0, 1, 0), (0, 0, 3)} é a matriz P abaixo e calcule sua inversa
P−1 :  1 
− 3 −1 1
 
 
 
2 1 1
P =  3
2
− 2
 
 
1 1 1
3 2 2

Solução: Realmente, devemos ter

(1, 1, 0) = a (1, 0, 2) + b (2, 1, 0) + c (0, 1, 2)


(0, 1, 0) = d (1, 0, 2) + e (2, 1, 0) + f (0, 1, 2)
(0, 0, 3) = g (1, 0, 2) + h (2, 1, 0) + i (0, 1, 2)

Para tal, (a, b, c), (d, e, f) e (g, h, i) devem ser, respectivamente, soluções dos sistemas
lineares

  
 1a+2b+0c=1
  1d+2e+0f=0
  1g+2h+0i=0

0a+1b+1c=1 , 0d+1e+1f=1 , 0g+1h+1i=0
  
2a+0b+2c=0 2d+0e+2f=0 2g+0h+2i=3
  

ou seja, devemos encontrar soluções dos sistemas:

93
  

 a+2b=1 d+2e=0

  g+2h=0

b+ c=1 , e+ f=1 , h+ i=0
  
2b+2c=0 2d+2f=0 2g+2i=3
  

Efetuando-se os cálculos, obtemos:


  

 a = − 13 
 d = − 32 
 g=1

 
 


 
 

  
b = 23 , e = 13 , h = − 12

 
 


 
 


 
 

c = 13 f = 23 i= 1
  
2

e a inversa de P é :

 
1 2 0
P−1 =  −1 −1 1 
 
2
3
0 32

Exercício 1: Determine a matriz de mudança da base C para a base B do exemplo


anterior.

Solução: Seja Q a matriz de mudança da base C para a base B. A matriz Q é obtida


escrevendo-se os elementos de B como combinação linear dos elementos de C; isto é:

(1, 0, 2) = a (1, 1, 0) + b (0, 1, 0) + c (0, 0, 3)


(2, 1, 0) = d (1, 1, 0) + e (0, 1, 0) + f (0, 0, 3)
(0, 1, 2) = g (1, 1, 0) + h (0, 1, 0) + i (0, 0, 3)

Ou seja, obtemos os três seguintes sistemas:


  

 a =1 
d =2 
 g =0
a+ b=0 , d+ e=1 , g+ h=1
  
3c=2 3f=0 3i=2
  

94
cujas soluções são:
  

 a=1 
 d=2  g=0

b = −1 , e = −1 , h=1
  
c = 32 f=0 i = 32
  

 
1 2 0
e portanto Q =  −1 −1 1 
 
2
3
0 32

Observações:

1. No item (iii) do Exemplo 4 e no Exercício 1 acima, ficou mostrado que a matriz P


de mudança da base B para a base C é inversível e que sua inversa é a matriz Q
de mudança da base C para a base B. Esse não é um resultado particular, válido
apenas para esses casos; é um resultado geral, dado pela Proposição a seguir:
Proposição: Se a matriz de mudança da base B para a base C é P, e a matriz de
mudança da base C para a base D é Q, então a matriz de mudança da base B para
a base D é a matriz PQ . Em particular, se a matriz de mudança da base B para a
base C é P, então a matriz de mudança da base C para a base B é P−1

2. Se a matriz das coordenadas de u ∈ V em relação à base B é


 
x1
x2 
 
[u]B  .. 
=  
 .
xn

e a matriz de mudança da base B para C é P = (aij ), para i,j = 1,...,n, então a

95
matriz das coordenadas de u na base C é
 
y1
 
y2  −1
[u]C = 
  = P . [u]B

 
yn

Ou seja:

[u]C = MC,B.[u]B

Exercício 2: No Exemplo 5, sabendo que as coordenadas de um vetor u na base B são


(2, 1, 4), calcule a matriz das coordenadas [u]C .

Solução: Basta aplicarmos a fórmula anterior:


     
1 2 0 2 4
[u]C = P−1 . [u]B =  −1 −1 1  . 1 = 1
     
2
3
0 32 4 4

Exercício 3: Determine a base C de P2 (R), sabendo-se que a matriz de mudança da base


B = {1, 1 + t, 1 - t2 } de P2 (R) para C é
 
1 0 2
P = 0 1 2 
 

1 1 −1

Solução: Se C = {q1 (t), q2 (t), q3 (t)}, então

q1 (t) = 1 (1) + 0 (1 + t) + 1 (1 − t2 ) = 2 − t2 ,
q2 (t) = 0 (1) + 1 (1 + t) + 1 (1 − t2 ) = 2 + t − t2 ,
q3 (t) = 2 (1) + 2 (1 + t) − 1 (1 − t2 ) = 3 + 2t + t2

Logo C = {2 - t2 , 2 + t - t2 , 3 + 2t + t2 }.

96
Exercício 4: No exercício anterior, determine a matriz das coordenadas do vetor p(t)
em relação à base B sabendo que suas coordenadas na base C são (2, 1, 5).

Solução: Temos que    


y1 2
[p(t)]C = y2  = 1
   

y3 5

Como

P = MB,C ;

[p(t)]B = MB,C .[p(t)]C = (MC,B )−1 .[p(t)]C

segue que:
           
x1 2 2 1 0 2 2 12
[p]B = x2  = (P−1 )−1 . 1 = P. 1 = 0 1 2 . 1 =  11
           

x3 5 5 1 1 −1 5 −2

Exercícios

1. Considere a base D = {1, 1 - t, 1 - t2 } de P2 (R). Encontre a matrizes de mudança


das bases C para D e de D para C, sendo C a base canônica de P2 (R).

2. Determinar as coordenadas do polinômio t3 em relação à seguinte base de P3 (R):


{1, 2 - t, t2 + 1, 1 + t + t3 }.

3. Determine a base B do R2 , sabendo que !a matriz de mudança de B para a base


1 0
{(1, 1), (0, 2)} desse mesmo espaço é: .
2 3

4. Determine a base C, sabendo que a matriz de mudança da base B = {1 + t, 1 - t2 }

97
!
1 2
para a base C (ambas de um mesmo subespaço de P2 (R) é .
1 −1

5. Considere as bases B = {e1 , e2 , e3 } e C = {g1 , g2 , g3 } de R3 assim relacionadas:



 g 1 = e 1 − e2 − e3

g2 = 2e2 + 3e3

g3 = 3e1 + e3

(a) Determine as matrizes de mudança de B para C e de C para B.

(b) Se um vetor u de R3 apresenta coordenadas 1, 2 e 3 em relação a B, quais são as


coordenadas de u relativamente a C?

( ! )
x y
6. Considere o seguinte subespaço vetorial de M2 (R): U = :x−y−z=0
z t

(a) Mostrar que os seguintes subconjuntos de M2 (R) são bases de U:


( ! ! !) ( ! ! !)
1 1 1 0 0 0 1 0 0 −1 0 0
B= , , eC= , ,
0 0 1 0 0 1 1 0 1 0 0 1

(b) Achar a matriz de mudança de B para C e de C para B.

(c) Achar uma base D de U de tal maneira que a matriz de mudança de D para B seja
 
1 2 0
0 0 2.
 

0 3 1

98
pulando folha

99
Capítulo 4

Transformações Lineares

4.1 Aplicações

Sejam U e V conjuntos não vazios. Uma aplicação F de U em V , indicada por F :


U → V, é uma regra pela qual a cada elemento u ∈ U está associado um único elemento
F(u) ∈ V, chamado de imagem de u. Algumas vezes indicamos uma aplicação por
u 7−→ F(u). Os conjuntos U e V são chamados, respectivamente, de domínio e contra-
domínio da aplicação F . Duas aplicações F e G são iguais quando e somente quando
F(u) = G(u), para todo u ∈ U .

Definição: Sejam F : U → V uma aplicação e W ⊂ U. Chamamos de imagem de W


por F o subconjunto de V

F(W) = {F(u) ∈ V : u ∈ W}

Quando W = U, chamamos F(U) de imagem de F e denotamos por Im F. Ou seja

Im F = {F(u) ∈ V : u ∈ U}.

Observação: Pela definição de Im F temos que v ∈ Im F se, e somente se, existe u ∈ U

100
tal que F(u) = v. Definição: Dizemos que uma aplicação F : U → V é

a. injetora ou 1-1(lê-se “um a um ”) quando para quaisquer u1 , u2 ∈ U, se F(u1 ) =


F(u2 ), então u1 = u2 ,
(ou, equivalentemente, F(u1 ) = F(u2 ) =⇒ u1 = u2 ),

b. sobrejetora quando Im F = V, isto é, para todo v ∈ V, existe um u ∈ U tal que


F(u) = v,

c. bijetora quando for sobrejetora e injetora.

Observação: Se F : U → V é bijetora, então cada elemento v ∈ V é do tipo v = F(u),


para algum u ∈ U, pois F é sobrejetora. Desse modo, a cada v ∈ V podemos associar o
elemento u ∈ U tal que v = F(u). Note que, como F é injetora, para cada v ∈ V existe
um único u ∈ U tal que F(u) = v. Dessa forma, fica definida uma aplicação G : V →
U dada por v 7→ G(v). G é chamada de aplicação inversa de F, e é denotada por F−1 .
Então
F(F−1 (v)) = v e F−1 (F(u)) = u

4.2 Transformações Lineares

Definição: Dados dois espaços vetoriais reais ou complexos, dizemos que uma aplicação
T : U → V é uma transformação linear de U em V se e somente se as duas condições
a seguir estão satisfeitas:

1. T(u1 + u2 ) = T(u1 ) + T(u2 ), ∀ u1 , u2 ∈ U;

2. T(α u) = α T(u), ∀ α ∈ R e ∀ u ∈ U.

Quando U = V dizemos que T é um operador linear em U. Quando V = R dizemos


que T é um funcional linear em U.

101
Exemplos:

1. Transformação Nula é a transformação


0: U −→ V definida por
def
u∈U 7→ 0 (u) = |{z}
|{z} 0 ∈V
função vetor

De fato: Sejam u, v ∈ U e α um escalar. Então:


def A def
1. 0(u + v) = 0 =3 0 + 0 = 0(u) + 0(v)
def def
2. 0(αu) = 0 = α.0 = α.0(u)

2. O Operador Identidade definido por


I:U −→ U
u∈U 7→ I(u) = u ∈ U
é um operador linear.
De fato: Sejam u, v elementos arbitrários de U e α um escalar genérico. Então:
def def
1. I(u + v) = u + v = I(u) + I(v)
def def
2. I(αu) = αu = αI(u)

3. Consideremos a aplicação T : R2 → R3 dada por T(x,y) = (x + y, x - y, 2y).


Então T é uma transformação linear.
De fato: Sejam u = (m, n) e v = (p, q) elementos arbitrários do R2 e α ∈ R.
Então:
def
1. T(u + v) = T((m, n) + (p, q)) = T(m + p, n + q) =
| {z } | {z }
x y
def
= ((m + p) + (n + q),(m + p) - (n + q),2(n + q)) = ((m + n) + (p + q),(m - n) +
def
+ (p - q), 2n + 2q) = (m + n, m - n, 2n) + (p + q, p - q, 2q) = T(m,n) + T(p,q) =
= T(u) + T(v)

def
2. T(αu) = T(α(m, n)) = T(αm, αn) = (αm + αn, αm - αn, 2.αn) =

102
def
= α(m + n, m - n, 2n) = α.T(m,n) = αT(u)

4. Para toda sequência (aij ) de números reais dados, a aplicação T : Rn → Rp dada por

T(x1 , x2 , · · · , xn ) = (a11 x1 + a12 x2 + · · · + a1n xn , · · · , ap1 x1 + ap2 x2 + · · · + apn xn )

é uma transformação linear.

5. A aplicação D : Pn (R) → Pn (R) definida por D(p(t)) = p0 (t) é um operador linear,


chamado de operador derivada.
De fato: Sejam p(t), q(t) ∈ Pn (R) e α ∈ R arbitrários. Então:
def def
1. D(p(t) + q(t)) = D((p + q)(t)) = (p + q)0 (t) = p0 (t) + q0 (t) = D(p(t)) +
D(q(t))

def def
2. D(α.p(t)) = D((αp)(t)) = (αp)0 (t) = α.p0 (t) = α.D(p(t))

Z 1
6. A aplicação T : C([0, 1], R) → R definida por T(f) = f(s) ds
0
é um funcional linear.
De fato: Sejam f, g ∈ C([0, 1], R) e α ∈ R arbitrários. Então:
Z 1 Z 1 Z 1
def def
1. T(f + g) = (f + g)(s) ds = f(s) ds + g(s) ds = T(f) + T(g)
0 0 0
Z 1 Z 1
def def
2. T(αf) = (αf)(s) ds = α. f(s) ds = α T(f)
0 0

7. A aplicação T : P2 (R) → R definida por T(a0 + a1 t + a2 t2 ) = a0 + a1 + a2 é um


funcional linear.
De fato: Sejam p(t) = a0 + a1 t + a2 t2 , q(t) = b0 + b1 t + b2 t2 ∈ P2 (R) e α ∈ R
arbitrários. Então:
1. T(p(t) + q(t)) = T((a0 + a1 t + a2 t2 ) + (b0 + b1 t + b2 t2 )) = T((a0 + b0 ) +
def
+ (a1 + b1 )t + (a2 + b2 )t2 ) = (a0 + b0 ) + (a1 + b1 ) + (a2 + b2 ) = (a0 + a1 + a2 ) +
def
+ (b0 + b1 + b2 ) = T(p(t)) + T(q(t))

103
2. Fica a cargo do leitor mostrar que T(αp(t)) = α.T(p(t)).

8. A aplicação T : Mn (R) → Mn (R) dada por

T(X) = X − Xt

é um operador linear.
De fato: Sejam A, B ∈ Mn (R) e α ∈ R. Então:
def
1. T(A + B) = (A + B) - (A + B)t = (A + B) - (At + Bt ) = A + B - At - Bt =
def
= (A - At ) + (B - Bt ) = T(A) + T(B)

def def
2. T(αA) = αA - (αA)t = α(A - At ) = αT(A)
 
a11 a12 a13
9. A aplicação T : M3 (R) → R que a cada matriz A = a21 a22 a23  associa o
 

a31 a32 a33

traço de A, definido por tr A = a11 + a22 + a33 , é um funcional linear.


De fato: Consideremos duas matrizes quadradas de ordem 3, A = (aij ) e B = (bij ),
para 1 ≤ i, j ≤ 3, e α um número real arbitrário. Então:
def
1. T(A + B)= T((aij + (bij )) = T((aij + bij )) = (a11 + b11 ) + (a22 + b22 ) +
def
+ (a33 + b33 ) = (a11 + a22 + a33 ) + (b11 + b22 + b33 ) = tr A + tr B = T(A) +
T(B)

def
2. T(αA) = T(α(aij ) = T((α.aij )) = αa11 + αa22 + αa33 = α(a11 + a22 +
def
a33 ) =
def
= αtr A = αT(A)

Generalização: A aplicação T : Mn (R) → R, que a cada A = (aij )1≤i,j≤n associa o


traço de A:

104
n
X
T(A) = tr A = aii ,
i=1

é um funcional linear.

10. Sejam P ∈ Mn (R) uma matriz inversível e T : Mn (R) → Mn (R) dada por

T(X) = P−1 X P.

Então T é um operador linear.


De fato: Sejam A, B ∈ Mn (R) e α ∈ R arbitrários. Então:
def
1. T(A + B) = P−1 (A + B) P = (P−1 A + P−1 B) P = (P−1 A) P + (P−1 B)
def
P = = P−1 A P + P−1 B P = T(A) + T(B)

def def
2. T(α.A) = P−1 (α.A) P = α. P−1 A P = α.T(A)

Exercícios:

1. No Exemplo 3, determine T(1, 2), T(3, 2), T(1, 0), T(0, 1) e T(0, 0). Além disso, se
W1 = {(x, y) ∈ R2 : x = y} e W2 = {(x, y) ∈ R2 : x + y = 1}, encontre T(W1 ) e
T(W2 ).
Solução:
• T(1, 2) = (1 + 2, 1 - 2, 2.2) = (3, -1, 4);

• T(3, 2) = (3 + 2, 3 - 2, 2.2) = (5, 1, 4);

• T(1, 0) = (1 + 0, 1 - 0, 2.0) = (1, 1, 0);

• T(0, 0) = (0 + 0, 0 - 0, 2.0)= (0, 0, 0);

105
• Se w1 = (x, y) ∈ W1 , então y = x e assim T(w1 ) = T((x, x)) = (x + x, x - x, 2x)
= (2x, 0, 2x) = 2x(1, 0, 1), e daí concluimos que T(W1 ) = {2x(1, 0, 1) : x ∈ R} =
= [(1, 0, 1)];

• Seja w2 = (x, y) ∈ W2 um elemento arbitrário. Então y = 1 - x e dessa forma


T(w2 ) = T((x, 1 - x)) = (x + (1 - x), x - (1 - x), 2(1 - x)) = (1, 2x - 1, 2 - 2x), o
que mostra que T(W2 ) = {(1, 2x - 1, 2 - 2x) : x ∈ R}

2. No Exemplo 6, determine T(f1 ) e T(f2 ), sendo f1 (t) = sen t e f2 (t) = 1 + t2 .


Z 1 Z 1
• T(f1 ) = f1 (s)ds = sen s ds = -cos s|10 = cos 1 - cos 0 = (cos 1) - 1;
0 0
1 1  1 
s3
Z Z    
1 0 4
• T(f2 ) = f2 (s)ds = (1 + s2 ) ds = s + = 1+ − 0+ = .

0 0 3 3 3 3
0

Observação: No Exercício 1, W1 é um subespaço vetorial do R2 e T(W1 ) também é um


subespaço vetorial do R3 . Já W2 , por sua vez, não é um subespaço vetorial do R2 (basta
ver que (0, 0) ∈
/ W2 ) e T(W2 ) também não é um subespaço vetorial do R3 (pois (0, 0, 0)
/ T(W2 )).

Propriedades: Sejam U e V espaços vetoriais reais e T : U → V uma transformação


linear. Então:

P1 . T(0) = 0; isto é, T transforma o vetor nulo de U no vetor nulo de V.


T linear T linear
De fato: T(0) = T(0 - 0) = T(0 + (-1).0) = T(0) + T((-1).0) =
T linear
= T(0) + (-1). T(0) = T(0) - T(0) = 0.

P2 . T(-u) = - T(u), ∀ u ∈ U.
T linear
De fato: T(-u) = T((-1).u) = (-1).T(u) = -T(u)

P3 . T(u1 - u2 ) = T(u1 ) - T(u2 ), ∀ u1 , u2 ∈ U.


T linear P
De fato: T(u1 - u2 ) = T(u1 + (-u2 )) = T(u1 ) + T(-u2 ) =3 T(u1 ) - T(u2 )

106
P4 . Se W é um subespaço vetorial de U então o conjunto imagem de W por T,
T(W) = {T(w) ∈ V : w ∈ W} é um subespaço vetorial de V.
De fato: Temos que mostrar que estão satisfeitas as condições para que T(W) seja
um subespaço vetorial.
(i) 0 ∈ T(W) pois, como W é subespaço vetorial de U, 0 ∈ W.
P
Logo, 0 =1 T(0) ∈ T(W)

(ii) Sejam v1 , v2 ∈ T(W) e α ∈ R. Então, existem w1 , w2 ∈ W tais que T(w1 )


= v1 e T(w2 ) = v2 . Como W é subespaço vetorial de U segue que αw1 + w2 ∈ W
e portanto :
T linear T linear
v1 + α v2 = T(w1 ) + α T(w2 ) = T(w1 ) + T(α w2 ) = T(w1 + α w2 ) ∈
T(W).

n
! n
X X
P5 . T ai ui = ai T(ui )
i=1 i=1
 
n
! n n
!
 
T linear
X X X
De fato: T ai ui = T a1 u1 + ai ui  = T(a1 u1 ) + T ai ui =
 
i=1
 
|i=2{z } i=2

u∈U
n
! n
!
X X
= T(a1 u1 ) + T a2 u2 + ai ui = T(a1 u1 ) + T(a2 u2 ) + T ai ui = ···
i=3 i=3
T linear
= T(a1 u1 ) + T(a2 u2 ) + · · · + T(an un ) = a1 T(u1 ) + a2 T(u2 ) + · · · + an T(un ) =
n
X
= ai T(ui ).
i=1

Observação: As duas condições para que uma aplicação seja linear podem ser reescritas
de um modo mais simples, dado pela Proposição seguinte:

Proposição: Sejam U e V dois espaços vetoriais reais (ou complexos) e T : U −→ V uma


aplicação. Então:

T : U −→ V é linear ⇐⇒ T(αu1 + u2 ) = α T(u1 ) + T(u2 ), ∀ α ∈ R (ou C), ∀ u1 , u2 ∈ U.

107
Prova: (=⇒) Sejam α um escalar e u1 , u2 elementos arbitrários de U. Então:

T linear T linear
T(αu1 + u2 ) = T(αu1 ) + T(u2 ) = α T(u1 ) + T(u2 )

(⇐=) Supondo agora que T(αu1 + u2 ) = α T(u1 ) + T(u2 ), ∀ escalar α, ∀ u1 , u2 ∈


U, mostremos que as duas condições para que a aplicação T seja linear estão satisfeitas.

Afirmamos, inicialmente, que T(0) = 0.

De fato: Como V é um espaço vetorial, temos que 0 = 1.0 + 0 e, portanto,

hip M
T(0) = T(1.0 + 0) = 1.T(0) + T(0) =4 T(0) + T(0) =⇒ T(0) = 0

Consideremos, agora, elementos arbitrários u1 , u2 ∈ U. Então:

M hip M
T(u1 + u2 ) =4 T(1.u1 + u2 ) = 1.T(u1 ) + T(u2 ) =4 T(u1 ) + T(u2 )

Além disso, considerando-se u2 = 0, obtemos:

A hip A
T(αu1 ) =3 T(αu1 + 0) = α T(u1 ) + T(0) = α T(u1 ) + 0 =3 α T(u1 )

o que completa a prova do resultado enunciado.

Exercício 1: Seja V um espaço vetorial real. Dado β ∈ R, mostre que a aplicação


homotetia de razão β, Hβ : V → V definida por Hβ (u) = βu, é uma transformação
linear.

Solução: Sejam u, v ∈ V vetores arbitrários e α ∈ R um escalar. Então:

def M M def
Hβ (αu + v) = β(αu + v) =3 β(αu) + βv =1 α(βu) + βv = αHβ (u) + Hβ (v).

Exercício 2: Seja F : R2 −→ R2 um operador linear tal que F(-1, 1) = (1, -8) e F(2, 3) =
= (8, -9). Determine F(x, y), sendo (x, y) um vetor genérico do R2 .

108
Solução: Observe que o conjunto B = {((-1, 1), (2, 3)} é uma base do R2 , pois B é
constituído de dois vetores não proporcionais do R2 . Logo, para qualquer (x, y) ∈ R2 ,
existem α, β ∈ R tais que

(x, y) = α(-1, 1) + β(2, 3)

Mas:

(x, y) = α(-1, 1) + β(2, 3) ⇐⇒ (x, y) = (-α + 2β, α + 3β) ⇐⇒ α = −3x+2y


5
e
β = x+y 5

Isto é:

(x, y) = −3x+2y
5
(-1, 1) + x+y
5
(2, 3)

e dessa forma:
F linear −3x+2y hip
F(x, y) = F( −3x+2y
5
(-1, 1) + x+y
5
(2, 3)) = 5
F(-1,1) + x+y
5
F(2,3) =
hip −3x+2y
= 5
(1, -8) + x+y
5
(8, -9) = (x + 2y, 3x - 5y).

noi Exercício 3: Existe um operador linear F : P2 (R) −→ P2 (R) tal que:

• F(1 + t + t2 ) = 1 + 2t + 3t2 ;

• F(1 + 2t + 3t2 ) = 1 + 4t + 9t2 e

• F(2 + 3t + 4t2 ) = 1 + 8t + 27t2 ?

Solução: Suponhamos que tal operador exista. Como

2 + 3t + 4t2 = (1 + t + t2 ) + (1 + 2t + 3t2 )

devemos ter

109
hip hip
1 + 8t + 27t2 = F(2 + 3t + 4t2 ) = F(1 + t + t2 ) + F(1 + 2t + 3t2 ) = (1 + 2t +
3t2 ) +
+ (1 + 4t + 9t2 ) = 2 + 6t + 12t2 ,

o que é uma contradição. Portanto, não existe operador F como o pedido.

Exercícios

1. Quais das seguintes aplicações do R3 no R3 são operadores lineares?

(a) F1 (x, y, z) = (x - y, x + y, 0);

(b) F2 (x, y, z) = (2x - y - z, 0, 0);

(c) F3 (x, y, z) = (x + y + z, x + y - z, 3);

(d) F3 (x, y, z) = (2x2 + 3z, -2y, x + z).

2. Seja P uma matriz inversível de Mn (R). Mostrar que F: Mn (R) −→ Mn (R) dada
por F(X) = P−1 X P é um operador linear.

3. Seja C([0, 1]) o espaço vetorial das funções reais contínuas definidas em [0, 1]. Mostre
que F: R2 −→ C([0, 1]) dada por F(x, y) = x et + y e2t , ∀ (x, y) ∈ R2 , é uma aplicação
linear.

4. Seja ϕ(t) um elemento fixo do espaço vetorial C([0, 1]). Mostre que é um operador
linear a aplicação F: C([0, 1]) −→ C([0, 1]) definida por F(f(t)) = f(t). ϕ(t), ∀ f(t) ∈
C([0, 1]).

5. Num R-espaço vetorial V, dado w ∈ V, chamamos de translação definida por w à


aplicação Tw : V −→ V dada por Tw (u) = u + w, ∀ u ∈ V. Mostre que: se w 6= 0, então
T não é linear.

6. Seja F: R3 −→ R3 o operador linear tal que F(1, 0, 0) = (2, 3, 1), F(0, 1, 0) = (5, 2,
7) e F(0, 0, 1) = (-2, 0, 7). Determinar F(x, y, z), sendo (x, y, z) um vetor genérico do
R3 .

110
7. Consideremos o espaço vetorial C sobre R e seja F: C −→ C tal que F(z) = z, ∀ z
∈ C. Mostre que F é um operador linear. Se considerarmos C como C-espaço vetorial F
ainda seria um operador linear?

8. Verifique se são operadores lineares no espaço Pn (R):

0
(a) F: Pn (R) −→ Pn (R) tal que F(f(t)) = tf (t), ∀ f(t) ∈ Pn (R);
0 00
(b) F: Pn (R) −→ Pn (R) tal que F(ft)) = f (t) + t2 f (t), ∀ f(t) ∈ Pn (R).

9. Seja u = (x, y, z, t) um vetor genérico do R4 . Quais das aplicações definidas abaixo


são operadores lineares do R4 ?

(a) F(u) = u + (1, 0, 1, 0)

(b) F(u) = (1, 0, 1, 1)

(c) F(u) = (x, y - z, y + z, x + t)

(d) F(u) = (cos x, y, z, t)

10. Sejam U e V subespaços vetoriais de um espaço W tais que W = U ⊕ V. Considere


as aplicações P1 , P2 : W −→ W, tais que, para todo w = u + v ∈ W, P1 (w) = u e
P2 (w) = v. Mostre que P1 e P2 assim definidas são operadores lineares.

11. Seja F o operador linear do R2 tal que F(1,0) = (2, 1) e F(0, 1) = (1, 4).

(a) Determinar F(2, 4);

(b) Determinar (x, y) ∈ R2 tal que F(x, y) = (2, 3);

(c) Provar que F é injetor e bijetor.

12. Dada uma transformação linear F: U −→ V, assinale V(erdadeiro) ou F(also), justi-


ficando sua resposta:

( ) Se u ∈ U é tal que F(u) = 0, então u = 0.

111
( ) Se F(w) = F(u) + F(v) então w = u + v.

( ) Se u é combinação linear de u1 , u2 , ... , un , então F(u) é combinação linear de


F(u1 ), F(u2 ), ... , F(un ).

( ) Se u, v e w pertencem a um mesmo subespaço de U, então F(u), F(v) e F(w)


pertencem a um mesmo subespaço de V.

13. Dados os vetores u1 = (2, -1), u2 = (1, 1), u3 = (-1, -4), v1 = (1, 3), v2 = (2, 3) e
v3 = (-5, -6), decida se existe ou não um operador linear T: R2 −→ R2 tal que T(u1 )
= u1 , T(u2 ) = u2 e T(u3 ) = u3 .

14. A expressão geral de um operador linear T: R2 −→ R2 é T(x, y) = (ax + by, cx


dy). Determine os valores de a, b, c e d para que T transforme os vetores u = (1, 2) e v
= (3, 4) nos vetores T(u) = (1, 1) e T(v) = (2, 2).

15. A expressão geral de um funcional linear T: R3 −→ R é T(x, y, z) = ax + by +


cz. Dados os vetores u = (1, 2, 3), v = (-1, 2, 3) e w = (1, -2, 3), determine os valores de
a, b e c para que T(u) = 1 e T(v) = T(w) = 0.

16. Seja T: R2 −→ R2 o operador linear definido por T(x, y) = (5x + 4y, -3x - 2y).
Encontre vetores não-nulos u = (x, y) e v = (z, t) tais que T(u) = u e T(v) = 2v. Essa
soluções são únicas? É possível encontrar w 6= 0 em R2 tal que T(w) = α w, com α 6=1
e α 6= 2?

17. Seja A ∈ Mn (R) uma matriz fixa. Mostrar que a aplicação F : Mn (R) −→ Mn (R)
definida por F(X) = XA - AX, ∀ X ∈ Mn (R), é linear. Se A = λIn , para λ ∈ R, como é
F?

18. Seja F: U −→ V uma transformação linear satsfazendo a propriedade: se {u1 , u2 , ...


, un } é uma base de U, então {F(u1 ), F(u2 ), ... , F(un )} é um conjunto LI em V. Prove
que F é injetora.

112
4.3 Núcleo e Imagem de uma Transformação Linear

Definição: Seja F : U → V uma transformação linear. Definimos o núcleo de F


como sendo o seguinte subconjunto de U:

Ker F = {u ∈ U : F(u) = 0}

e imagem de U por F o subconjunto de V

Im F = F(U) = {F(u) ∈ V : u ∈ U}

Observação: Note que da definição anterior temos que Ker F e Im F são subconjuntos
de U e V, respectivamente.

Veremos, mais a frente, que Ker F e Im F são mais do que simples subconjuntos.

Exemplo: Determinar Ker F e Im F, sendo F : R2 −→ R2 o operador linear dado por


F(x, y) = (0, x - 2y).

Solução:

1. Ker F = ?
(a, b) ∈ Ker F ⇐⇒ F(a, b) = (0, 0) ⇐⇒ (0, a - 2b) = (0, 0) ⇐⇒ a - 2b = 0 ⇐⇒
⇐⇒ a = 2b e portanto (chamando b de x)

Ker F = {(2x, x) : x ∈ R}

2. Im F = ?
(a, b) ∈ Im F ⇐⇒ existe um par (c, d) ∈ R2 tal que (a, b) = F(c, d) ⇐⇒ (a,
b) =
= (0, c - 2d) ⇐⇒ a = 0 e b = c - 2d. Portanto, chamando c - 2d de x

Im F = {(0, x) : x ∈ R}

Proposição: Seja F : U → V uma transformação linear. Então

113
a. Ker F é um subespaço vetorial de U.

b. A transformação linear F é injetora se, e somente se, Ker F = {0}.

Prova:

a. Devemos mostrar que


1. 0 ∈ Ker F (trivial pois, por P1 , F(0) = 0)

2. Para quaisquer u1 , u2 ∈ Ker F e α escalar, tem-se αu1 + u2 ∈ Ker F.

De fato:

F linear u1 ,u2 ∈ KerF


F(αu1 + u2 ) = αF(u1 ) + F(u2 ) = α.0 + 0 = 0,

o que significa que αu1 + u2 ∈ Ker F e que, portanto, o subconjunto Ker F é um


subespaço vetorial de U.

b. Mostremos que F é injetora ⇐⇒ Ker F = {0}.

(=⇒) Supondo que F seja injetora, devemos mostrar que Ker F = {0}. Para isso,
consideremos u ∈ Ker F um elemento arbitrário do núcleo da aplicação linear F.
Então:

F injetora
u ∈ Ker F =⇒ F(u) = F(0) = 0 =⇒ u=0

o que mostra que Ker F = {0}.

(⇐=) Mostremos agora que vale a recíproca, isto é, supondo que Ker F = {0},
devemos mostrar que F é injetora. Para isso, consideremos u1 , u2 ∈ U tais que
F(u1 ) = F(u2 ). Então:
F linear def
F(u1 ) = F(u2 ) =⇒ F(u1 ) - F(u2 ) = 0 =⇒ F(u1 - u2 ) = 0 =⇒ u1 - u2 ∈ Ker F
hip
=⇒
hip
=⇒ u1 - u2 = 0 =⇒ u1 = u2 =⇒ F é injetora,
o que completa a demonstração do resultado enunciado.

114
Exemplo 1: O operador derivada não é injetor pois, por exemplo, f(t) ≡ 1 e g(t) ≡ 2
são tais que D(f(t)) = D(g(t)) = 0; isto é f(t), g(t) ∈ Ker (D) e portanto Ker (D) 6= {0}.

Exemplo 2: Consideremos a aplicação


! linear F: M2 (R) −→ R definida por
a11 a12
F(A) = tr A; isto é, se A = então F(a) = a11 + a22 . F é injetora?
a21 a22

Solução: Para sabermos se F é injetora, basta estudarmos Ker F. Dessa forma:


!
a11 a12
A= ∈ Ker F ⇐⇒ F(A) = tr A = a11 + a22 = 0 ⇐⇒ a11 = -a22
a21 a22
! ! ! !
a11 a12 1 0 0 1 0 0
Logo: A ∈ Ker F ⇐⇒ A = = a11 + a12 + a21
a21 −a11 0 −1 0 0 1 0
" ! ! !#
1 0 0 1 0 0
e portanto KerF = , , .
0 −1 0 0 1 0

Ou seja, ficou mostrado que Ker F 6= {0} e que, portanto, F não é injetora.

Observação: No Exemplo 2, é fácil ver que os geradores obtidos para Ker F são linear-
mente independentes e que, portanto, formam uma base de Ker F. Em outras palavras,
obtivemos que Ker F é um subespaço vetorial de M2 (R) tal que dim Ker F = 3.

Teorema do Núcleo e Imagem (TNI): Sejam U e V espaços vetoriais reais, ambos


de dimensão finita. Dada uma transformação linear F : U → V, então

dim U = dim (Ker F) + dim (Im F)

Prova: Seja B1 = {u1 , u2 , · · · , ur } uma base de Ker F. Podemos estender esta base a
uma base B2 = {u1 , u2 , · · · , ur , v1 , v2 , · · · , vs } de U usando o Teorema do Completa-
mento. Vamos mostrar que B = {F(v1 ), F(v2 ), · · · , F(vs )} é uma base de Im F.

[a.] [B] = Im F

Seja v ∈ Im F. Então existe u ∈ U tal que F(u) = v. Como B2 é base de U temos que

u = α1 u1 + α2 u2 + · · · + αr ur + β1 v1 + β2 v2 + · · · + βs vs

115
com αi , βj ∈ R, i = 1, · · · , r, j = 1, · · · , s. Logo, como F(ui ) = 0, i = 1, · · · , r,

v = F(u) = F(α1 u1 + α2 u2 + · · · + αr ur + β1 v1 + β2 v2 + · · · + βs vs ) =
= α1 F(u1 ) + α2 F(u2 ) + · · · + αr F(ur ) + β1 F(v1 ) + β2 F(v2 ) + · · · + βr F(vs ) =
| {z } | {z } | {z }
0 0 0
= β1 F(v1 ) + β2 F(v2 ) + · · · + βs F(vs )

Portanto v = β1 F(v1 ) + β2 F(v2 ) + · · · + βs F(vs ).

[b.] B é L.I.

Suponhamos que β1 F(v1 ) + β2 F(v2 ) + · · · + βs F(vs ) = 0, com β1 , β2 , · · · , βs ∈ R.


Como

F(β1 v1 + β2 v2 + · · · + βs vs ) = β1 F(v1 ) + β2 F(v2 ) + · · · + βs F(vs ) = 0

temos que v = β1 v1 + β2 v2 + · · · + βs vs ∈ Ker F. Logo existem α1 , α2 , · · · , αr ∈ R


tais que

β1 v1 + β2 v2 + · · · + βs vs = v = α1 u1 + α2 u2 + · · · + αr ur

Assim

α1 u1 + α2 u2 + · · · + αr ur + (-β1 ) v1 + (-β2 ) v2 + · · · + (-βs ) vs = 0

Como B2 é L.I. segue que α1 = α2 = · · · = αr = β1 = β2 = .. = βs = 0. Em particular,


β1 = β2 = · · · = βs = 0.

Como aplicação direta do TNI, segue o seguinte resultado, que será bastante utilizado e
por isso é tão importante quanto o Teorema do qual ele é consequência:

Corolário: Sejam U e V espaços vetoriais sobre R, com dim U = dim V = n, e uma


transformação linear T : U → V. Então são equivalentes :

a. T é sobrejetora.

116
b. T é bijetora.

c. T é injetora.

d. T transforma bases de U em bases de V.

Prova:

• (a) =⇒ (b)

• Supondo que F seja sobrejetora, tem-se Im F = V e portanto dim Im(F) = dim V


= n. Logo, pelo TNI, segue que

dim Ker F = dim U - dim Im F = n - n = 0

o que mostra que Ker F = {0}; isto é, F é injetora e, portanto, F é uma bijeção.

• (b) =⇒ (c)

• É claro que se F é bijetora, então F é injetora.

• (c) =⇒ (d)

• Sejam B = {u1 , u2 , · · · , un } uma base de U e B0 = F(B) = {v1 = F(u1 ), v2 =


F(u2 ), · · · , vn = F(un )}. Mostremos que B0 é uma base de V. Note que, como B0
tem n = dim V elementos, basta mostrarmos que B0 é LI. Para isso, suponhamos
que

α1 v1 + α2 v2 + · · · + αn vn = 0

Logo, substituindo-se vi por F(ui ), para i = 1, 2, · · · , n, segue que

F linear
α1 F(u1 ) + α2 F(u2 ) + · · · + αn F(un ) = 0 =⇒ F(α1 u1 + α2 u2 + · · · + αn un ) =
F injetora B base
= 0 = F(0) =⇒ α1 u1 + α2 u2 + · · · + αn un = 0 =⇒ α1 = α2 = · · · = αn = 0

ou seja, B0 = F(B) é LI sendo, portanto, uma base de V.

• (d) =⇒ (a)

117
• Consideremos a base B = {u1 , u2 , · · · , un } de U. Por hipótese, B0 = F(B) = {v1 =
F(u1 ), v2 = F(u2 ), · · · , vn = F(un )} é uma base de V. Assim, dado y ∈ V, existem
escalares α1 , α2 · · · αn tais que

y = α1 v1 + α2 v2 + αn vn

e portanto, chamando de x = α1 u1 + α2 u2 + · · · + αn un ∈ U, temos

F linear
y = α1 v1 + α2 v2 + αn vn = α1 F(u1 ) + α2 F(u2 ) + αn F(un ) =

F linear
= F(α1 u1 + α2 u2 + · · · + αn un ) = F(x)

o que mostra que F é sobrejetora.

4.4 Isomorfismos e Automorfismos

Definição: Uma aplicação linear F : U → V bijetora é chamada um isomorfismo


entre os espaços vetoriais U e V. Um isomorfismo F : U → U é chamado um automor-
fismo.

Quando existe um isomorfismo F entre os espaços vetoriais U e V, dizemos que U e V


são isomorfos e denotamos por U 'F V ou, mais simplesmente, U ' V.

Exemplos:

1. O Operador Identidade definido por


I:U −→ U
u∈U 7→ I(u) = u ∈ U
é um automosfismo de U.

2. F : R2 −→ P1 (R) definido por F(x, y) = x + (x+y)t é um isomorfismo entre os


espaços vetoriais R2 e P1 (R).

118
• De fato: devemos mostrar que F é linear, injetora e sobrejetora.
(i) F é linear:
def
F((x, y) + α(z, t)) = F(x + αz, y + αt) = (x + αz) + [(x + αz) +(y + αt)] =
= (x + αz) + [(x + y) + α(z + t)] = [x + (x + y)] + [αz + α(z + t)] = [x + (x +
def
y)] + + α[z + (z + t)] = F(x, y) + F(z, t)
(ii) F é injetora:
def
(x,y) ∈ Ker F ⇐⇒ F(x, y) = 0 ⇐⇒ x + (x + y)t = 0 = 0 + 0.t ⇐⇒
⇐⇒ x = 0 e x + y = 0 ⇐⇒ x = y = 0 ⇐⇒ (x, y) = (0, 0) ⇐⇒ F é injetora.
(iii) F é sobrejetora:
Pelo TNI, temos que

F 1−1
2 = dim (R2 ) = dim Ker F + dim Im(F) = 0 + dim Im(F) = dim Im(F);

ou seja, dim Im(F) = 2 = dim P1 (R), o que mostra que F é sobrejetora.

Observação: Se F : U → V é um isomorfismo entre os espaços vetoriais U e V, então


a aplicação F−1 : V → U também é um isomorfismo de espaços vetoriais, chamado
isomorfismo inverso de F.

Teorema: Sejam U e V dois espaços vetoriais , ambos de dimensão finita. U e V são


isomorfos se, e somente se, dim U = dim V.

Prova: (=⇒) Suponhamos que U e V sejam dois espaços vetoriais isomorfos e mostremos
que dim U = dim V.

Seja F : U → V o isomorfismo existente entre os espaços vetoriais U e V. Logo, Ker F =


{0} e Im F = V, uma vez que F é injetor e sobrejetor. Dessa forma, pelo TNI, temos que

TNI
dim U = dim Ker F + dim Im F = dim {0} + dim V = 0 + dim V = dim V.

(⇐=) Suponhamos, agora, que dim U = dim V = n e mostremos que existe um


isomorfismo F : U → V.

119
Sejam B = {u1 , u2 , · · · , un } e B0 = {v1 , v2 , · · · , vn } bases de U e de V, respectivamente.
def Pn
Seja F : U → V definida por F( ni=1 αi ui ) = i=1 αi vi . Afirmamos que F assim
P

definida é um isomorfismo de espaços vetoriais.

De fato:

• 1. F é linear pois, dados u = ni=1 αi ui , v = ni=1 βi ui elementos arbitrários de U


P P

e γ um escalar qualquer, temos que:

F(γ( ni=1 αi ui ) + ni=1 βi ui ) = F( ni=1 γ(αi ui ) + ni=1 βi ui ) = F( ni=1 (γαi + βi )


P P P P P

ui ) =
def F Pn def
i=1 (γαi + βi ) vi = γ i=1 αi vi + i=1 βi vi = γF(u) + F(v)
Pn Pn
=

• 2. F é injetora pois, se u = αi ui ∈ Ker F, então


Pn
i=1

def F
0 = F(u) = F( αi ui ) = αi vi
Pn Pn
i=1 i=1

e como B0 = {v1 , v2 , · · · , vn } é base de V, segue que αi = 0, para i = 1, 2, · · · , n


e, portanto, u = 0. Logo, F é injetora.

• 3. F é sobrejetora pois:

hip TNI F 1−1


dim V = dim U = dim Ker F + dim Im F = 0 + dim Im F = dim Im F

o que completa a prova de que F é um isomorfismo e , portanto, U e V são isomorfos.

120
Exercícios:

1. Considere a aplicação linear F : R3 → R2 dada por F(x, y, z) = (x - y, 2x + y + z).


Encontre uma base e a dimensão dos subespaços Ker F e Im F.

Solução: Devemos determinar os subespaços Ker F e Im F.

dim Ker F:

Ker F = {(x, y, z) ∈ R3 : F(x, y, z) = (0, 0)}. Dessa forma, temos


(
x−y=0
u = (x, y, z) ∈ Ker F ⇐⇒ (x - y, 2x + y + z) = (0, 0) ⇐⇒ ⇐⇒
2x + y + z = 0
(
x=y
⇐⇒ ⇐⇒ u = (y, y, -3y) = y(1, 1, −3)
z = −3y | {z }
∈ KerF

Logo, Ker F = [(1, 1, -3)] e como esse vetor é LI, segue que B = {(1, 1, -3)} é uma base de
Ker F e dim Ker F = 1.

Note que: do TNI, devemos ter 3 = 1 + dim Im F, o que implica em dim Im F = 2.

dim Im F:

Seja v = (x - y, 2x + y + z) ∈ Im F. Então:

v = (x, 2x) + (-y, y) + (0, z) = x(1, 2) + y(-1, 1) + z(0, 1) ∈ [(1, 2), (-1, 1), (0, 1)]

É fácil ver que {(1, 2), (-1, 1), (0, 1)} ⊆ Im F, uma vez que

(1, 2) = F(1, 0, 0) ∈ Im F; (-1, 1) = F(0, 1, 0) ∈ Im F e (0, 1) = F(0, 0, 1) ∈ Im F

e que, portanto, C = {(1, 2), (-1, 1), (0, 1)} é um conjunto de geradores para Im F.

base de Im F:

Para encontrar uma base de Im F a partir de seus geradores aplicaremos ao conjunto C

121
obtido acima o critério desenvolvido no Capítulo 3:
       
1 2 1 2 1 2 1 2
−1 1 ∼ 0 3 ∼ 0 1 ∼ 0 1
       

0 1 0 1 0 3 0 0

o que significa que B0 = {(1, 2), (0, 1)} é uma base de Im F e, portanto, dim Im F =
2, confirmando o resultado obtido através do TNI. Note que: dim Im F = 2 =⇒ F é
sobrejetora.

2. Determine F : R3 → R4 linear tal que Im F = [(1, 1, 1, 1), (1, -1, 1, -2)].

Solução: Como o conjunto {(1, 1, 1, 1), (0, -1, 1, -2)} é LI, a aplicação F que estamos
procurando deve ser tal que dim Im F = 2 e portanto, pelo TNI, devemos ter

3 = dim R3 = dim Ker F + 2 =⇒ dim Ker F = 1

Fixemos no R3 a base canônica; isto é, a base C = { (1, 0, 0), (0, 1, 0), (0, 0, 1)}.
Consideremos a aplicação:

F
F : R3 −→ R4

(1, 0, 0) 7−→ (0, 0, 0, 0)

(0, 1, 0) 7−→ (1, 1, 1, 1)

(0, 0, 1) 7−→ (0, -1, 1, -2)

Vamos estender F linearmente a todo R3 . Considerando um elemento arbitrário


(x, y, z) ∈ R3 , vamos escrevê-lo como combinação linear dos elementos da base C,
na qual sabemos como F atua; ou seja:

(x, y, z) = x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1)

122
e portanto
F linear
F(x, y, z) = F(x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1)) = F(x(1, 0, 0)) + F(y(0, 1, 0)) +
F linear hip
+ F(z(0, 0, 1)) = x.F(1, 0, 0) + y.F(0, 1, 0) + z.F(0, 0, 1) = x.(0, 0, 0, 0) + y.(1, 1,
1, 1) + z.(0, -1, 1, -2) = (y, y - z, y + z, y - 2z)

isto é, F(x, y, z) = (y, y - z, y + z, y - 2z) é uma aplicação linear do R3 no R4 satisfazendo


Im F = [(1, 1, 1, 1), (1, -1, 1, -2)].

Observações:

1. A aplicação linear encontrada no Exercício 2 não é única. Isso se deve ao fato de


que fizemos várias “escolhas” escolhemos a base a ser fixada no domínio de F e depois
escolhemos qual vetor dessa base seria levado, pela F, no zero do contra-domínio e
quais seriam levados nos geradores de Im F. Se tivéssemos considerado no R3 uma
outra base que não a canônica obteríamos uma outra aplicação linear. O importante
é observar que dim Im F (e portanto dim Ker F) estão fixadas.

2. É importante observar que se considerarmos no domínio uma outra base B que não
a canônica deveremos fazer os cálculos para obtermos um vetor genérico do domínio
escrito como combinação linear dos elementos de B.

3. Considere a aplicação linear F : M2 (R) −→ P3 (R) definida por:


!
a b F
7−→ p(t) = (a + b) + (a + d)t + (a + c) t2 + (b - d)t3 . Determine uma
c d
base e a dimensão dos subespaços Ker F e Im F.

Solução: Devemos determinar os subespaços Ker F e Im F.

base e dimensão de Ker F:


!
a b
A= ∈ Ker F ⇐⇒ F(A) = 0 + 0.t + 0.t2 + 0.t3 ⇐⇒ (a + b) + (a + d)t +
c d

123



 a+b=0

 a+d=0
+ (a + c) t2 + (b - d)t3 = 0 + 0.t + 0.t2 + 0.t3 ⇐⇒ ⇐⇒


 a+c=0

 b−d=0
! !
−a a −1 1
⇐⇒ b = c = d = -a ⇐⇒ A = = a.
a a 1 1
!
−1 1
Note que ∈ Ker F e portanto Ker F é o subespaço gerado por essa matriz e
1 1
assim
( !)
−1 1
B= é base de Ker F e dim Ker F = 1.
1 1

base e dimensão de Im F:

Do TNI segue que

4 = dim M2 (R) = 1 + dim Im F =⇒ dim Im F = 3

Temos que:
!
a b
p(t) ∈ Im F ⇐⇒ p(t) = F(A), para alguma matriz A = ∈ M2 (R) ⇐⇒
c d

⇐⇒ p(t) = (a + b) + (a + d)t + (a + c) t2 + (b - d)t3 = a(1 + t + t2 ) + b(1 + t3 )


+ ct2 + d(t - t3 )

Note que:

!! !!
0 1 0 1
1 + t + t2 = F ∈ Im F; 1 + t3 = F ∈ Im F;
1 1 0 0
!! !!
0 0 0 0
t2 = F ∈ Im F e t - t3 = F ∈ Im F.
1 0 0 1

124
e portanto Im F = [1 + t + t2 , 1 + t3 , t2 , t - t3 ] = [1 + t + t2 , 1 + t3 , t - t3 ], uma vez que
t2 = (1 + t + t2 ) - (1 + t3 )- (t - t3 ).

Finalmente, é fácil mostrar que B = {1 + t + t2 , 1 + t3 , t - t3 } é LI (faça isso!!) sendo,


dessa forma, uma base de Im F, com o que confirmamos o resultado já encontrado: dim
Im F = 3.

4. Considere o operador linear F : R3 → R3 dado por F(x, y, z) = (x + y, y + z, x + y


+ 4z). Mostre que F é um automorfismo e encontre F−1 .

Solução: Já é dado que F é linear. Passemos a mostrar que F é bijetora. Estudemos,


então, o subespaço Ker F.

 x+y=0

Ker F: (x,y,z) ∈ Ker F ⇐⇒ (x + y, y + z, x + y + 4z) = (0, 0, 0) ⇐⇒ y+z=0 ⇐⇒

x + y + 4z = 0

⇐⇒ x = y = z = 0

Portanto:
TNI
Ker F = {(0, 0, 0)} =⇒ F é injetora =⇒ F é bijetora =⇒ F é automorfismo.

F−1 :

Seja F−1 : R3 → R3 , F−1 (x, y, z) = (a, b, c). Precisamos determinar a, b, c em função de


x, y, z. Mas:
 
 a+b=x
  4a = 3x − 4y + z

F (x,y,z) = (a, b, c) ⇐⇒ (x, y, z) = F(a, b, c) ⇐⇒
−1
b+c=y ⇐⇒ 4b = x + 4y − z
 
a + b + 4c = z 4c = z − x
 

e dessa forma

F−1 (x, y, z) = 41 (3x - 4y + z, x + 4y - z, z - x)

5. Mostre que a aplicação linear F : R3 −→ R4 dada por F(x, y, z) = (x + y, y - z, 2z)

125
é injetora mas não é isomorfismo.

Solução: Seja u = (x, y, z) ∈ Ker F. Então:





 x+y=0

 y=0
(x + y, y - z, 2z) = (0, 0, 0, 0) ⇐⇒ ⇐⇒ x = y = z = 0 ⇐⇒


 y−z=0

 2z = 0

⇐⇒ u = (0, 0, 0) ⇐⇒ Ker F = {(0, 0, 0)} ⇐⇒ F é injetora.

Para provar que F não é isomorfismo, mostremos que F não é sobrejetora. Segue do TNI
que:

F 1−1
3 = dim R3 = dim Ker F + dim Im F = 0 + dim Im F

Ou seja, dim Im F = 3 e portanto Im F 6= R4 , o que significa que F não é sobrejetora.

Observação: Poderíamos ter mostrado que F não é sobrejetora exibindo um vetor v


∈ R4 tal que v ∈ / Im F; isto é, mostrando que existe pelo menos um vetor v ∈ R4
tal que v 6= F(u), para todo u ∈ R3 . Por exemplo, v = (0, 0, 0, 2) é um vetor nessas
condições (prove isso!!).

6. Achar uma aplicação linear F : R3 → R2 tal que Ker F = [(1, 1, 0)].

Solução: A idéia usada na solução deste exercício é a mesma usada na demonstração


do TNI. Observe que o gerador de Ker F é LI e portanto dim Ker F = 1. Assim, pelo
TNI, devemos ter dim Im F = 2. Considero, no domínio da F procurada, uma base que
contenha o vetor (1, 1, 0). Para isso, basta completarmos o vetor (1, 1, 0) para uma
base do R3 usando, por exemplo, os vetores (0, 1, 0) e (0, 0, 1). Vamos, agora, definir a
aplicação linear F na base B = {(1, 1, 0), (0, 1, 0), (0, 0, 1)}, levando em conta que Ker
F = [(1, 1, 0)] e dim Im F = 2.

Note que: a imagem, pela F, do vetor (1, 1, 0) só pode ser (0, 0). Já sobre os vetores
imagens dos vetores (0, 1, 0) e (0, 0, 1) a única restrição que existe é que tais vetores
devem ser LI, uma vez que devemos obter dim Im F = 2.

126
Defino F : R3 −→ R2 na base B do R3 da seguinte maneira:
F F F F
(1, 1, 0) −→ (0, 0); (1, 1, 0) −→ (0, 0); (0, 1, 0) −→ (1, 0); (0, 0, 1) −→
(0, 1)

Finalmente, vamos agora encontrar a expressão que define F. Para isso, devemos escrever
um vetor genérico (x, y, z) ∈ R3 como combinação linear dos vetores da base B, isto é,
encontremos α, β, γ ∈ R tais que:

(x, y, z) = α(1, 1, 0) + β(0, 1, 0) + γ(0, 0, 1)

Efetuando-se os cálculos, obtém-se: α = x, β=y-x e γ=z e dessa


forma

(x, y, z) = x(1, 1, 0) + (y - x) (0, 1, 0) + z(0, 0, 1)

de onde segue que


F linear
F(x, y, z) = F(x(1, 1, 0) + (y - x) (0, 1, 0) + z(0, 0, 1)) = F(x(1, 1, 0)) +
F linear
+ F((y - x) (0, 1, 0)) + F(z(0, 0, 1)) = xF((1, 1, 0)) + (y - x) F((0, 1, 0)) +
hip
+ zF((0, 0, 1)) = x(0, 0) + (y - x)(1, 0) + z(0, 1) = (y - x, z)

Logo, F(x, y, z) = (y - x, z) é uma aplicação linear do R3 no R2 tal que


Ker F = [(1, 1, 0)].

Observação: Assim como no Exercício 2, a aplicação linear encontrada no Exercício


6 não é única pois também aqui fizemos várias “escolhas”: escolhemos os vetores que
completaram a base de Ker F para uma base de todo o domínio de F bem como escolhemos
quais vetores LI seriam suas imagens.

7. Determine F : M2 (R) → R4 linear cuja imagem é gerada por (1, 1, 1, 1) e (0, 1, 1, 0).

Solução: Considero uma base do domínio M2 (R), por exemplo, a base canônica
( ! ! ! !)
1 0 0 1 0 0 0 0
C= , , ,
0 0 0 0 1 0 0 1

127
Defino:

F
M2 (R) −→ R4
!
1 0
7−→ (1, 1, 1, 1)
0 0
!
0 1
7−→ (0, 0, 0, 0)
0 0
!
0 0
7−→ (0, 0, 0, 0)
1 0
!
0 0
7−→ (0, 1, 1, 0)
0 1

!
x y
e dessa forma, dada A = ∈ M2 (R), temos que
z t
! ! ! !!
1 0 0 1 0 0 0 0 F linear
F(A) = F x + y + z + t =
0 0 0 0 1 0 0 1
!! !! !! !!
F linear 1 0 0 1 0 0 0 0 hip
= xF + + yF + + zF + + tF =
0 0 0 0 1 0 0 1

hip
= x.(1, 1, 1, 1) + y.(0, 0, 0, 0) + z.(0, 0, 0, 0) + t.(0, 1, 1, 0) = (x, x + t, x + t, x)

e portanto,

!!
x y
F = (x, x + t, x + t, x)
z t

é uma aplicação linear do M2 (R) em R4 tal que Im F [(1, 1, 1, 1), (0, 1, 1, 0)].

128
Exercícios
1. Para cada uma das transformações lineares abaixo determinar uma base e a dimensão
do núcleo e da imagem:

(a) F: R3 −→ R dada por F(x, y, z) = x + y - z;

(b) F: R2 −→ R2 dada por F(x, y) = (2x, x + y);

(c) F: R3 −→ R4 dada por F(x, y, z) = (x - y - z, x + y + z, 2x - y + z, -y);


00
(d) F: P2 (R) −→ P2 (R) dada por F(f(t)) = t2 f (t).
!
1 1
(e) F: M2 (R) −→ M2 (R) dada por F(X) = MX + X, sendo M =
0 0
!
1 2
(f) F: M2 (R) −→ M2 (R) dada por F(X) = MX - XM, sendo M =
0 1

2. Determinar um operador linear F: R3 −→ R3 tal que ImF = [(2, 1, 1), (1, 1, -2)].

3. Determinar um operador linear F do R4 tal que KerF = [(1, 1, 0, 0), (0, 0, 1, 0)].

4. Seja F: R3 −→ R3 definida por F(1, 0, 0) = (1, 1, 0), F(0, 1, 0) =


= (1, 1, 2) e F(0, 0, 1) = (0, 0, 2). Determinar uma base para cada um dos seguin-
tes subespaços vetoriais: Ker F, Im F, Ker F ∩ Im F e Ker F + Im F.

5. Mostrar que cada um dos operadores lineares do R3 é inversível e determinar o iso-


morfismo inverso nos casos:

(a) F(x, y, z) = (x - 3y - 2z, y - 4z, z);

(b) F(x, y, z) = (x, x-y, 2x + y - z).

6. Considere o operador linear F do R3 definido por F(1, 0, 0) = (1, 1, 1), F(0, 1, 0) =


= (1, 0, 1) e F(0, 1, 2) = (0, 0, 4). F é inversível? Se for, determine o isomorfismo inverso.

7. Sejam u, v ∈ R2 vetores tais que {u, v} é uma base do R2 . Sendo F: R2 −→ R2 uma


transformação linear, mostrar que uma das seguintes alternativas se verifica:

129
(a) {F(u), F(v)} é LI; (b) dim Im(F) = 1; (c) Im(F) = {0}.

8. Sejam U e V subespaços do espaço W tais que W = U ⊕ V. Consideremos o espaço


vetorial U × V com a adição e a multiplicação usuais do produto cartesiano. Mostre que
a aplicação F: U × V −→ W definida por F(u, v) = u + v é um isomorfismo. A seguir,
encontre F−1 .

9. Seja {e1 , e2 , ... , en } a base canônica do Rn . Considere F: Rn −→ Rn o operador


linear dado por F(e1 ) = e2 , F(e2 ) = e3 , ... , F(en ) = e1 . Determinar F(x1 , x2 , ... , xn ). F
é automorfismo? Em caso afirmativo, encontre F−1 .

10. Considere uma transformação linear T : U −→ V. Prove que, se o conjunto {T(u1 ),


T(u2 ), ... , T(un )} é LI em V, então {u1 , u2 , ... , un } é LI em U. A seguir, prove que se
T é injetora e {u1 , u2 , ... , un } é LI em U, então {T(u1 ), T(u2 ), ... , T(un )} é LI em V.

11. Considere uma transformação linear linear T : U −→ V. Se dim U > dim V, prove
que existe um vetor não nulo u0 ∈ U tal que F(u0 ) = 0V .

12. Prove que R2 é isomorfo a qualquer subespaço de dimensão 2 do R3 .

13. Seja T: V −→ V um operador linear. Para quaisquer vetores u ∈ Ker T e v ∈ Im T,


prove que T(u) ∈ Ker T e T(v) ∈ Im T.

14. Dado o operador T: R2 −→ R2 definido por T(x, y) = (ax + by, cx + dy), encontre
a, b, c ∈ R para que seu núcleo seja a reta y = 3x.

15. Dado o operador T: R2 −→ R2 definido por T(x, y) = (ax + by, cx + dy), encontre
a, b, c ∈ R para que sua imagem seja a reta y = 2x.

16. Idem para T: R2 −→ R2 que tenha como núcleo a reta y = x e imagem a reta
y = 2x.

17. Assinale V(erdadeiro) ou F(also), justificando sua resposta:

( ) Considere a transformação linear T : U −→ V. Então: T é sobrejetora se, e


somente se dim Ker T = dim U - dim V.

( ) Dada a transformação linear T : U −→ V, para todo v fixado em V, o conjunto


G = {u ∈ U : T(u) = v} é um subespaço vetorial de U.

130
( ) O núcleo de toda transformação linear T : R5 −→ R3 tem dimensão ≥ 3.

18. Sejam U e W subespaços de V tais que dim U + dim W = dim V. Mostre que existe
um operador linear T : V −→ V tal que U = Ker T e W = Im T.

131
4.5 Representação Matricial da Transformação Linear

4.5.1 Operações com Transformações Lineares

Dados dois espaços vetoriais reais U e V, indicamos por L(U,V) o conjunto de todas
as transformações lineares de U em V; isto é

L(U,V):= {T : U −→ V tal que T é linear} : conjunto de todas as aplicações lineares

definidas em U e com valores em V

Quando U = V, o conjunto L(U,U), denotado simplesmente por L(U), é constituído por


todos os operadores lineares de U.

Vamos, a seguir, definir em L(U,V) duas operações: adição e multiplicação por escalar.

adição: Se F, G ∈ L(U, V), definimos a soma F + G de F com G por:

F + G : U −→ V

u 7−→ (F + G)(u) := F(u) + G(u)

Afirmamos que: F + G é uma transformação linear; isto é, dados u1 , u2 ∈ U e α ∈ R

(F + G) (αu1 + u2 ) = α(F + G)(u1 ) + (F + G)(u2 )

def F,G lineares


De fato: (F + G) (αu1 + u2 ) = F(αu1 + u2 ) + G(αu1 + u2 ) = αF(u1 ) + F(u2 ) +
def
+ αG(u1 ) + G(u2 ) = α[F(u1 ) + G(u1 )] + [F(u2 ) + G(u2 )] = α(F + G)(u1 ) + (F +
G)(u2 )

multiplicação por escalar: Se F ∈ L(U, V) e k ∈ R, definimos o produto kF por:

kF : U −→ V

u 7−→ (kF)(u) := k.F(u)

Afirmamos que: kF + G é uma transformação linear; isto é, dados u1 , u2 ∈ U e α ∈ R

132
(kF) (αu1 + u2 ) = α(kF)(u1 ) + (kF)(u2 )

def F linear
De fato: (kF) (αu1 + u2 ) = k.F(αu1 + u2 ) = k.[αF(u1 ) + F(u2 )] = k.[αF(u1 )] +
M def
+ k.F(u2 ) =1 α[k.F(u1 )] + k.F(u2 ) = α(kF)(u1 ) + (kF)(u2 )

Proposição: Se U, V são dois espaços vetoriais reais, então (L(U, V), +, ) é um espaço .
vetorial real.

Além destas operações, podemos compor duas transformações lineares.

Definição: Sejam U, V e W espaços vetoriais reais. Se F : U → V e G : V → W são


transformações lineares, denotamos por G ◦ F a transformação composta de F e G,
definida por

G ◦ F : U −→ W,

u 7−→ (G ◦ F)(u) := G(F(u))

Afirmamos que: G ◦ F ∈ L(U,W); isto é, dados u1 , u2 ∈ U e α ∈ R

(G ◦ F) (αu1 + u2 ) = α(G ◦ F)(u1 ) + (G ◦ F)(u2 )

def F linear G linear


De fato: (G ◦ F) (αu1 + u2 ) = G(F(αu1 + u2 )) = G(αF(u1 ) + F(u2 )) =
| {z } | {z }
∈V ∈V
G linear def
= αG(F(u1 )) + G(F(u2 )) = α(G ◦ F)(u1 ) + (G ◦ F)(u2 ).

Observações:

1. Em geral F ◦ G 6= G ◦ F, mesmo quando U = V = W.

2. Quando U = V = W, então G ◦ F ∈ L(U). Em L(U) podemos definir potenciação


para expoentes naturais:
F0 := I = operador identidade
F1 := F
F2 := F ◦ F
F3 := F ◦ F ◦ F

133
..
.
Fn := F ◦ Fn−1

Exercícios:

1. Consideremos duas aplicações lineares F, G : R3 −→ R2 definidas, respectivamente,


por F(x, y, z) = (x + y -z, x - y +z) e G(x, y, z) = (2x - z, 3y + 2z). Calcule 2F - 3G.
def
Solução: (2F - 3G)(x, y, z) = 2.F(x, y, z) - 3.G(x, y, z) = 2.(x + y -z, x - y +z) +
- 3.(2x - z, 3y + 2z) = (2.(x + y -z), 2.(x - y +z)) + (-3.(2x - z), -3.(3y + 2z)) = (2x+2y-2z,
2x-2y+2z) + (-6x+3z, -9y -6z) = ((2x + 2y - 2z) + (-6x + 3z), (2x - 2y + 2z) + (-9y - 6z)) =
= (-4x + 2y + z, 2x - 11y -4z)

2. Consideremos as aplicações lineares F : R2 −→ R3 e G : R3 −→ R, dadas,


respectivamente, por F(x, y) = (x + y, x - y, 2x - 3y) e G(x, y, z) = 2x - 3y + 4z. Calcule
G ◦ F. Solução: Como o domínio de G coincide com o contra-domínio de F, está definida,
e portanto é possível calcular, a aplicação linear G ◦ F. Temos que:
def def F def G
(G ◦ F)(x, y) = G(F(x, y, z)) = G(x + y, x − y, 2x − 3y) = 2X - 3Y + 4Z =
| {z } | {z } | {z }
X Y Z
= 2(x + y) - 3(x - y) + 4(2x - 3y) = 7x - 7y.

3. Sejam F, G ∈ L(P1 (R)) definidas, respectivamente, por F(a0 + a1 t) = (a0 - a1 ) + (a0


+ a1 )t e G(b0 + b1 t) = (2b0 + b1 ) + (b0 - 2b1 )t. Calcule (G ◦ F)2 .

Solução: Temos que calcular (G ◦ F) ◦ (G ◦ F). Mas:


def F def G
(G ◦ F)(a0 + a1 t) = G((a0 − a1 ) + (a0 + a1 ) t) = (2b0 + b1 ) + (b0 - 2b1 )t =
| {z } | {z }
b0 b1
= [2(a0 - a1 ) + (a0 + a1 )] + [(a0 - a1 ) - 2(a0 + a1 )]t = (3a0 - a1 ) + (-a0 - 3a1 )t

ou seja

(G ◦ F)(c0 + c1 t) = (3c0 - c1 ) + (-c0 - 3c1 )t

134
e daí segue que
def G◦F
(G ◦ F) ◦ (G ◦ F)(a0 + a1 t) = (G ◦ F)((3a0 − a1 ) + (−a0 − 3a1 ) t) = (3c0 - c1 ) +
| {z } | {z }
c0 c1
+ (-c0 - 3c1 )t = [3(3a0 - a1 ) - (-a0 - 3a1 )] + [(3a0 - a1 ) - 3(-a0 - 3a1 )] t = 10a0 + 10a1 t

4. Sejam F, G : R3 −→ R2 duas aplicações lineares dadas por F(x, y, z) = (y, x + z) e


G(x, y, z) = (2z, x - y). Mostre que {F, G} é LI em L(R2 , R2 )

Solução: Sejam α, β ∈ R tais que αF + βG = 0 = transformação linear nula. Mostremos


que α = β = 0 (= escalar).

Temos que: (αF + βG)(x, y, z) = 0.(x, y, z) = (0, 0), ∀ (x, y, z) ∈ R2 . Em particular:

• (αF + βG)(1, 0, 0) = αF(1, 0, 0) + βG(1, 0, 0) = α(0, 1) + β(0, 1) = (0, α + β)


= (0, 0)

• (αF + βG)(0, 1, 0) = αF(0, 1, 0) + βG(0, 1, 0) = α(1, 0) + β(0, -1) = (α, -β) =


(0, 0)


 α +β =0

ou seja α=0 e portanto α = β = 0, o que significa que {F, G} é LI.

−β = 0

4.5.2 Matriz de uma Transformação Linear

Observação: Usaremos a notação Un para indicar que U é um espaço vetorial real de


dimensão finita n.

Sejam Un e Vm dois espaços vetoriais reais de dimensão finita e T : U −→ V uma trans-


formação linear. Consideremos duas bases B = {u1 , u2 , · · · , un } e C = {v1 , v2 , · · · , vm },
respectivamente de U e V. Então, como T(ui ) ∈ V, para cada i = 1, 2, · · · , n , temos que
existem escalares αij , 1 ≤ i ≤ n, 1 ≤ j ≤ m univocamente determinados tais que

135
T(u1 ) = α11 v1 + α21 v2 + · · · + αm1 vm

T(u2 ) = α12 v1 + α22 v2 + · · · + αm2 vm


..
.

T(un ) = α1n v1 + α2n v2 + · · · + αmn vm

isto é

m
X
T(uj ) = αij vi , (1 ≤ j ≤ n)
i=1

Definição: Chamamos de matriz de T em relação às bases B e C, e denotamos por


(T)B,C , à matriz real m × n

 
α11 α12 ... α1n
 α21 α22 ... α2n
 
TB,C =

 .. .. ... .. 
 . . .


αm1 αm2 ... αmn

Observações:

1. Se T é um operador linear e B = C dizemos matriz de T em relação à base B, e


denotamos por (T)B .

2. Se T : Un −→ Vm , então a matriz de T em relação às bases B e C é uma matriz


m × n = (dim V) × (dim U).

3. Na matriz (T)B,C , a primeira coluna é formada pelas coordenadas de T(u1 ) na base


C; isto é, a primeira coluna é obtida escrevendo-se T(1o vetor da base B) como
combinação linear da base C.
De um modo geral, a i-ésima coluna de (T)B,C é obtida escrevendo-se T(i-ésimo
vetor da base B) como combinação linear da base C.

136
Exemplo 1: Determinar matriz de T : R4 → R3 , T(x, y, z, t) = (x + 2y + z, 3x + 2z + t,
y + 4z + 2t) em relação às bases B = {(1, 0, 2, 4), (0, 2, 3, 1), (2, 5, 0, 3), (4, 1, 3, 0)} e
C = {(2, 1, 0), (0, 2, 1), (1, 0, 1)}.

Solução: Pra obter (T)B,C , devemos calcular T(b), para todo b ∈ B e encontrar as
coordenadas de cada T(b) em relação à base C.

T(b), para b em B:

• T(1, 0, 2, 4) = (1 + 2.0 + 2, 3.1 + 2.2 + 4, 0 + 4.2 + 2.4) = (3, 11, 16)

• T(0, 2, 3, 1) = (0 + 2.2 + 3, 3.0 + 2.3 + 1, 2 + 4.3 + 2.4) = (7, 7, 22)

• T(2, 5, 0, 3) = (2 + 2.5 + 0, 3.2 + 2.0 + 3, 5 + 4.0 + 2.3) = (12, 9, 11)

• T(4, 1, 3, 0) = (2 + 2.1 + 3, 3.4 + 2.3 + 0, 1 + 4.3 + 2.0) = (7, 18, 13)

coordenadas de T(b) na base C:

Observe que: uma combinação linear genérica dos elementos da base C é dada por

a(2, 1, 0) + b(0, 2, 1) + c(1, 0, 1) = (2a + c, a + 2b, b + c)

Devemos, então, encontrar escalares a, b, c tais que:

• 1. (2a + c, a + 2b, b + c) = (3, 11, 16)



 2a + c = 3

ou seja, devemos resolver o sistema a + 2b = 11 =⇒ a = −3, b = 7, c = 9

b + c = 16

e portanto

137
(T(1, 0, 2, 4))C = (-3, 7, 9)

• 2. (2a + c, a + 2b, b + c) = (7, 7, 22)


ou seja, devemos resolver o sistema

 2a + c = 7

a + 2b = 7 =⇒ a = − 23
5
, b= 29
5
c= 81
5

b + c = 22

e portanto

(T(0, 2, 3, 1))C = (- 23
5
, 5
, 5)
29 81

• 3. (2a + c, a + 2b, b + c) = (12, 9, 11)


ou seja, devemos resolver o sistema

 2a + c = 12

11 17 38
a + 2b = 9 =⇒ a= 5
, b= 5
, c= 5

b + c = 11

e portanto

(T(2, 5, 0, 3))C = ( 11
5
, 5
, 5)
17 38

• 4. (2a + c, a + 2b, b + c) = (7, 18, 13)


ou seja, devemos resolver o sistema

 2a + c = 7

a + 2b = 18 =⇒ a = 56 , b = 42
5
, c= 23
5

b + c = 13

138
e portanto

(T(4, 1, 3, 0))C = ( 65 , , 5)
42 23
5

e daí concluímos que

 
−15 −23 11 6
(T)B,C = 15  35 29 17 42
 

45 81 38 23 3×4

Exemplo 2: Determinar a matriz do operador linear I : R3 → R3 em relação às bases


B = {(0, 2, 4), (2, 3, 1), (2, 5, 0)} no domínio e C = {(2, 1, 0), (0, 2, 1), (1, 0, 1)} no
contra-domínio.

Solução: Pra obter (I)B,C , devemos calcular I(b), para todo b ∈ B e encontrar as coor-
denadas de cada I(b) em relação à base C.

I(b), para b em B:

• I(0, 2, 4) = (0, 2, 4)

• I(2, 3, 1) = (2, 3, 1)

• I(2, 5, 0) = (2, 5, 0)

coordenadas de I(b) na base C:

Observe que: uma combinação linear genérica dos elementos da base C é dada por

a(2, 1, 0) + b(0, 2, 1) + c(1, 0, 1) = (2a + c, a + 2b, b + c)

139
Devemos, então, encontrar escalares a, b, c tais que:

• 1. (2a + c, a + 2b, b + c) = (0, 2, 4)


ou seja, devemos resolver o sistema

 2a + c = 0

a + 2b = 2 =⇒ a = − 56 , b = 85 , c = 12
5

b+c=4

e portanto

(I(0, 2, 4))C = (− 56 , 85 , 12
5
)

• 2. (2a + c, a + 2b, b + c) = (2, 3, 1)


ou seja, devemos resolver o sistema

 2a + c = 2

a + 2b = 3 =⇒ a = 1, b = 1 c = 0

b+c=1

e portanto

(I(2, 3, 1))C = (1, 1, 0)

• 3. (2a + c, a + 2b, b + c) = (2, 5, 0)


ou seja, devemos resolver o sistema

 2a + c = 2

a + 2b = 5 =⇒ a = 59 , b = 85 , c = − 85

b+c=0

e portanto

140
(I(2, 5, 0))C = ( 95 , 85 , − 85 )

e daí concluímos que

 
−6 5 9
(I)B,C = 15  8 5 8 
 

12 0 −8 3×3

Exemplo 3: Determinar matriz de T : P4 → R2 , dada por

Z 1 
0
T(p(t)) = p(t)dt, p (1)
0

em relação às bases B = {1, t, t2 , t3 , t4 } e C = {(2, 1), (0, 2)}.

Solução: Temos que

• T(1) = (1, 0) = 21 .(2, 1) - 14 .(0, 2)

• T(t) = ( 12 , 1) = 41 .(2, 1) + 38 .(0, 2)

• T(t2 ) = ( 13 , 2) = 61 .(2, 1) + 11
12
.(0, 2)

• T(t3 ) = ( 14 , 3) = 81 .(2, 1) + 23
16
.(0, 2)

• T(t4 ) = ( 15 , 4) = 1
10
.(2, 1) + 39
20
.(0, 2)

Portanto,

 1 1 1 1 1

2 4 6 8 10
(T)B,C = 
 

− 14 3
8
11
12
23
16
39
20

141
4.5.3 Matriz de kF + G

Sejam F, G: Un −→ Vm duas aplicações lineares e k ∈ R. Consideremos B = {u1 ,


u2 , · · · , un } e C = {v1 , v2 , · · · , vm } bases de U e de V, respectivamente. Já vimos que
kF + G : U −→ V é uma aplicação linear; queremos, então, calcular de (kF + G)B,C .
Para isto, devemos escrever (kF +G)(ui ) como combinação linear de v1 , v2 , · · · , vm , para
cada i = 1, 2, · · · , n.

Suponhamos que (F)B,C = (αij )m×n e que (G)B,C = (βij )m×n , para 1 ≤ i ≤ m e 1 ≤ j ≤ n.
Então:

(kF + G) (u1 ) = (kF)(u1 ) + G(u1 ) = k[α11 v1 + α21 v2 + α31 v3 + · · · + αm1 vm ] +


+ [β11 v1 + β21 v2 + β31 v3 + · · · + βm1 vm ]

e portanto

• (kF + G)(u1 ) = (kα11 + β11 )v1 + (kα21 + β21 )v2 + (kα31 + β31 )v3 + · · · + (kαm1 +
+ βm1 )vm

Analogamente, obtemos:

• (kF + G)(u2 ) = (kα12 + β12 )v1 + (kα22 + β22 )v2 + (kα32 + β32 )v3 + · · · + (kαm2 +
+ βm2 )vm
..
.

• (kF + G)(ui ) = (kα1i + β1i )v1 + (kα2i + β2i )v2 + (kα3i + β3i )v3 + · · · + (kαmi +
+ βmi )vm
..
.

• (kF + G)(un ) = (kα1n + β1n )v1 + (kα2n + β2n )v2 + (kα3n + β3n )v3 + · · · + (kαmn +
+ βmn )vm

o que significa que

142
 
kα11 + β11 kα12 + β12 ··· kα1n + β1n
 kα21 + β21 kα22 + β22 ··· kα2n + β2n 
 
((kF + G))B,C = .. .. ..  = k(F)B,C + (G)B,C
. . ··· .
 
 
kαm1 + βm1 kαm2 + βm2 ··· kαmn + βmn

ou seja:

(kF + G)B,C = k(F)B,C + (G)B,C

4.5.4 Matriz da Transformação Composta

Sejam Un , Vm e Wp espaços vetoriais reais. Consideremos as bases B = {u1 , u2 , · · · , un }


de U, C = {v1 ,v2 , · · · , vm } de V e D = {w1 , w2 , · · · , wp } de W, respectivamente. Sejam
F ∈ L(U,V) e G ∈ L(V,W); isto é

F G
Un −→ Vm −→ Wp
B C D

Se (F)B,C é a matriz da transformação linear F em relação às bases B e C e (G)C,D matriz


da transformação linear G em relação às bases C e D, então

(G ◦ F)B,D = (G)C,D .(F)B,C

Consequência: Se F : Un −→ Vn é um isomorfismo entre dois espaços vetoriais e B e C


são, respectivamente, bases de U e de V, então a matriz (F)B,C é inversível e sua inversa
é a matriz (F−1 )C,B

De fato: Basta ver que

(F)B,C .(F−1 )C,B = (F ◦ F−1 )C = In .

(F−1 )C,B .(F)B,C = (F−1 ◦ F)B = In .

143
Exemplo: Já vimos que F : R2 −→ P1 (R) definido por F(x, y) = x + (x + y)t é um
isomorfismo entre os espaços vetoriais R2 e P1 (R). Vamos calcular F−1 .

Sejam B = {(1, 0), (0, 1)} e C = {1, t} as bases canônicas do R2 e do P1 (R), respectiva-
mente. Devemos, primeiramente, encontrar (F)B,C e a partir dessa matriz, determinamos
(F−1 )C,B para então, finalmente, calcularmos F−1 .

(F)B,C :

Precisamos determinar as coordenadas de F(1, 0) e de F(0, 1) em relação à base C; isto é

def F
F(1, 0) = 1 + (1 + 0).t = 1.1 + 1.t =⇒ (F(1, 0))C = (1, 1)
def F
F(0, 1) = 0.1 + 1.t =⇒ (F(0, 1))C = (0, 1)

e portanto

!
1 0
(F)B,C =
1 1

(F−1 )C,B :

Para encontrarmos a matriz (F−1 )C,B , basta invertermos a matriz (F(0, 1))C :

.. ..
   
1 0 . 1 0  −L1 +L2
∼ 1 0 . 1 0
. .
1 1 .. 0 1 0 1 .. − 1 1

.. ..
   
1 0 . 1 0 −L1 +L2
1 0 . 1 0
Logo,  .. ∼ .. é a inversa da matriz de F e,
1 1 . 0 1 0 1 .−1 1
portanto, é a matriz de (F )C,B . Ou seja:
−1

F−1 (1) = 1.(1, 0) - 1.(0, 1) = (1, -1)

F−1 (t) = 0.(1, 0) + 1.(0, 1) = (0, 1)

144
e assim, se p(t) = x.1 + y.t ∈ P1 (R), então

F−1 (x.1 + y.t) = x.F−1 (1) + y.F−1 (t) = x.(1, -1) + y.(0, 1) = (x, -x+y)

Lembre que: Se V é um espaço vetorial real de dimensão finita n e B = {u1 , u2 , · · · ,


un } e C = {v1 , v2 , · · · , vn } são duas bases de V então a matriz MC,B de mudança da base
C para a base B é obtida escrevendo-se os elementos da base B como combinação linear
dos elementos da base C; isto é:

• u1 = combinação linear {v1 , v2 , · · · , vn }

• u2 = combinação linear {v1 , v2 , · · · , vn }


..
.

• un = combinação linear {v1 , v2 , · · · , vn }

Por outro lado, consideremos no mesmo espaço vetorial V o operador identidade, fixando
no domínio a base B e no contra-domínio a base C; isto é:

I:V −→ V

B = {u1 , u2 , · · · , un } C = {v1 , v2 , · · · , vn }

Para encontrarmos (I)B,C , devemos calcular os vetores I(u1 ), I(u2 ), · · · , I(un ) e escrevê-los
como combinação linear dos elementos da base C; isto é:

• I(u1 ) = u1 = combinação linear {v1 , v2 , · · · , vn }

• I(u2 ) = u2 = combinação linear {v1 , v2 , · · · , vn }


..
.

• I(un ) = un = combinação linear {v1 , v2 , · · · , vn }

e daí concluímos que

(I)B,C = MC,B = matriz de mudança da base C para a base B

145
Aplicação: Consideremos no espaço vetorial real Vn de dimensão finita n duas bases
B = {u1 , u2 , · · · , un } e C = {v1 , v2 , · · · , vn } e T ∈ L(V). Qual é a relação entre as
matrizes (T)B e (T)C ? Em outras palavras: quando mudamos a base do espaço vetorial
V, o que ocorre com a matriz de T ∈ L(V)?

No esquema a seguir, para facilitar o entendimento, usaremos as seguintes notações:

IB,C denotará o operador identidade de V, considerando-se no domínio a base B e


no contra-domínio a base C;

TB denotará o operador T de V, considerando-se tanto no domínio como no contra-


domínio a mesma a base B.

IC,B T IB,C
V −→ V B
−→ V −→ V
C B B C
TC = IB,C ◦ TB ◦ IC,B

Logo:
(T)C = MC,B.(T)B.MB,C
Conclusão: (T)C e (T)B são matrizes semelhantes; isto é, existe uma matriz inversível
M (a matriz de mudança da base B para a base C) tal que

.
(T)C = M−1 (T)B M .
Observação: Para utilizarmos a fórmula acima, deveremos calcular uma matriz (M ou
sua inversa M−1 ). A escolha de qual matriz calcularemos dependerá das bases fixadas.
Se uma das bases fixadas for a base canônica dos espaço, é claro que sempre é mais fácil
escrevermos vetores de uma certa base como combinação linear dos elementos da base
canônica.

Exemplo 1: Consideremos F ∈ L(R2 ) e no R2 fixemos


! duas bases: B = {(1, 1), (1, 4)}
1 −1
e C a base canônica. Sabendo que (F)B = , encontre (F)C usando a fórmula de
2 1
mudança de bases para operadores.

146
. .
Solução: Para usar a fórmula (F)C = MC,B (F)B MB,C , devemos encontrar a matriz
MC,B e invertê-la ou encontrar a matriz MB,C e invertê-la. Nesse caso, como C é a base
canônica, é mais simples escrever os elementos da base B como combinação linear dos
elementos da base C; isto é, é mais fácil calcularmos a matriz MC,B .

MC,B :

(1, 1) = 1.(1, 0) + 1.(0, 1)

(1, 4) = 1.(1, 0) + 4.(0, 1)

!
1 1
e portanto MC,B =
1 4

MB,C :

Para encontrarmos essa matriz, basta invertermos a matriz MC,B . Efetuando-se os cálcu-
los, obtemos
!
4 −1
MC,B = 31
−1 1

e finalmente
! ! ! !
1 1 1 −1 4 −1 4 −1
(F)C = 1
3
1 4
. 2 1
. −1 1
=
11 −2

Observação: A matriz (F)C poderia ter sido encontrada sem o uso da fórmula. Para
isso, o procedimento que seria seguido é o seguinte:

• usando-se a matriz conhecida (dado do problema) (F)B , encontro F(1, 1) e F(1, 4);

• escrevo um vetor genérico (x, y) ∈ R2 como combinação linear da base


B = {(1, 1), (1, 4)};

• encontro a expressão de F(x, y);

• calculo F(1, 0) e F(0, 1);

147
• escrevo a matriz (F)C .

Exemplo 2: Seja V um espaço vetorial real de dimensão 3. Consideremos em V a base


B = {e1 , e2 , e3 } e F : V −→ V um operador linear tal que F(e1 ) = e2 e F deixa fixos todos
os vetores do seu subespaço W = {xe1 + ye2 + ze3 : x - y + z = 0}. Determine (F)B .

Solução: Devemos escrever F(e1 ), F(e2 ) e F(e3 ) como combinação linear dos vetores da
base B = {e1 , e2 , e3 }. Para isso, precisamos determinar F(e2 ) e F(e3 ). Como conhecemos
a atuação de F nos elementos de W, vamos procurar geradores de W:

w = xe1 + ye2 + ze3 ∈ W ⇐⇒ w = xe1 + (x + z)e2 + ze3 = x(e1 + e2 ) + z(e2 + e3 )

e portanto

W = [e1 + e2 , e2 + e3 ]

Assim, temos que:

hip hip
• e1 + e2 = F(e1 ) + F(e2 ) = e2 + F(e2 ) =⇒ F(e2 ) = e1
hip
• e2 + e3 = F(e2 ) + F(e3 ) = e1 + F(e3 ) =⇒ F(e3 ) = - e1 + e2 + e3

Logo:

F(e1 ) = 0.e1 + 1.e2 + 0.e3

F(e2 ) = 1.e1 + 0.e2 + 0.e3

F(e3 ) = -1.e1 + 1.e2 + 1.e3

e portanto
 
0 1 −1
1 0 1 
 

0 0 1

148
Exercícios

1. Sejam F, G ∈ L(R3 ) definidas respectivamente por F(x, y, z) = (x + y, y + z, z) e


G(x, y, z) = (x + 2y, y - z, x + 2z). Determine: F ◦ G; Ker (F ◦ G) e Im (F ◦ G); uma
base e a dimensão de Ker (F2 ◦ G).

2. Sejam F ∈ L(R2 , R3 ) e G ∈ L(R3 , R2 ) dadas por F(x, y) = (0, x, x - y) e G(x, y, z) =


= (x - y, x + 2y + 3z). Determine F ◦ G ◦ F.

3. Seja F ∈ L(R2 ) dado por F(x, y) = (y, x). Determine Fn , para qualquer inteiro n ≥ 1.
Idem para G ∈ L(R2 ), sendo G(x, y) = (x, 0).

4. Seja F ∈ L(R2 ) o operador dado por F(1, 0) = (2, 5) e F(0, 1) = (3, 4). Verifique se
os seguintes operadores do R2 são automorfismos: G = I + F e H = I + F + F2 .

5. Considere F, G, H ∈ L(R2 ) definidos por: F(x, y) = (x, 2y), G(x, y) = (y, x + y) e


H(x, y) = (0, x). Mostre que {F, G, H} é um conjunto LI em L(R2 ).

6. No espaço vetorial V, considere F, G ∈ L(V). Mostre que Ker G ⊂ Ker (F ◦ G).

7. Prove que: Sejam F ∈ L(U, V) e G ∈ L(V, W) são tais que Ker F = {0} e Ker G =
{0}, então Ker(G ◦ F) = {0}.

8. Sejam U e V dois subespaços vetoriais do espaço vetorial W tais que W = U ⊕ V.


Considere as projeções P1 e P2 definidas em U respectivamente por: P1 (u + v) = u e
P2 (u + v) = v. Mostre que:

(a) P21 = P1 e P22 = P2 (b) P1 + P2 = I (c) P1 ◦ P2 = P1 ◦ P2 = 0 (operador nulo


de W)

9. Prove que: Se F ∈ L(R4 ) dado por F(x, y, z, t) = (0, x, y + 2x, z + 2y + 3x). Mostre
que

(a) F4 = 0;

(b) I - F é um automorfismo do IR4 e I + F + F2 + F3 = (I - F)−1 .

10. Um operador linear F de um espaço vetorial V é dito

149
• idempotente se F2 = F;

• nilpotente se existe um número n ∈ N tal que Fn = 0 (operador identicamente


nulo).

Determinar se os seguintes operadores lineares do R3 são idempotentes ou nilpotentes ou


ainda nenhuma das duas coisas:

(a) F(x, y, z) = (-x, -y, -z);

(b) F(x, y, z) = (z, x, y);

(c) F(x, y, z) = (x, 0, z);

(d) F(x, y, z) = (0, 0, x).

11. Mostrar que um operador F ∈ L(V) é idempotente se, e somente se, I - F é idempo-
tente.

12. Se F ∈ L(V) é um operador nilpotente, mostre que existe um vetor v6= 0 tal que F(v)
= 0.

13. Seja C o R-espaço vetorial dos números complexos. Considere F, G ∈ L(C) definidos
por:
√ √ 
F(z) = 22 + i 22 z e G(z) = iz, para z ∈ C. Calcule:

(a) F2 ; (b) F4 ; (c) G2 ; (d) F ◦ G; (e) (F ◦ G). ◦(F ◦ G)

14. Seja F ∈ L(R2 ) definido por F(x, y) = (x, x + y). Calcule F2 e em seguida mostre que
F2 - 2F + I = (F - I)2 = 0 mas F - I 6= 0.

15. Sejam F e G operadores lineares de um espaço vetorial V tais que F ◦ G = G ◦ F .


Mostre que Ker F + Ker G ⊂ Ker(F ◦ G).

16. Seja F ∈ L(V) um operador tal que F2 - F + I = 0. Mostre que F é inversível e que
F−1 = I - F.

17. Sejam F, G ∈ L(V) tais que F ◦ G = G ◦ F. Mostre que:

150
(a) (F + G)2 = F2 + 2 (F ◦ G) + G2 ; (b) (F + G) ◦ (F - G) = F2 - G2 .

18. Seja F ∈ L(R3 , R2 ) definida por F(x, y, z) = (x + z, y - 2z). Determinar (F)B,C , sendo
B = {(1, 2, 1), (0, 1, 1), (0, 3, -1)} e C = {(1, 5), (2, -1)}.

19. Determinar as matrizes da seguintes aplicações lineares em relação às bases canônicas


dos repectivos espaços:

(a) F ∈ L(R3 , R2 ) definida por F(x, y, z) = (x + y, z);

(b) F ∈ L(R2 , R3 ) definida por F(x, y) = (x + y, x, x - y);

(c) F ∈ L(R4 , R) definida por F(x, y, z, t) = 2x + y - z + 3t;

(d) F ∈ L(R, R3 ) definida por F(x) = (x, 2x, 3x).

!
a b
20. No espaço vetorial M2 (R) considere M = . Determinar a matriz do operador
c d
linear F ∈ M2 (R) dado por F(X) = MX - XM, em relação à base canônica de M2 (R).
!
1 1
21. Seja F o operador linear de M2 (R) dado por F(X) = X, ∀ X ∈ M2 (R). Sendo
2 1
B a base canônica do espaço M2 (R), determine o traço da matriz (F)B .
!
1 1
22. Seja F ∈ L(R2 ) cuja matriz em relação à base B = {(1, 0), (1,4)} é (F)B = .
5 1
Determinar a matriz de F em relação à base canônica, usando a fórmula de mudança de
base para operador.

23. Seja B = {e1 , e2 , e3 } uma base do espaço vetorial real V. Sendo F, G ∈ L(V) dados
por F(e1 ) = e1 - e2 , F(e2 ) = e1 + e3 , F(e3 ) = e2 , G(e1 ) = 2e1 + e3 , G(e2 ) = e1 e G(e3 )
= e2 - 3e1 , determinar em relação à base B as matrizes dos seguintes operadores lineares:
F, G, F + G, 2F - G, F ◦ G, G ◦ F, F2 + G2 , F−1 (caso exista) e (F ◦ G)−1 (caso exista).
!
3 1
24. Determine F ∈ L(R2 ) cuja matriz em relação à base B = {(1, 2), (0, 5)} é
2 −1

25. Sejam F, G ∈ L(P2 (R), P3 (R)) assim definidos: F(p(t))= tp(t) - p(1) e G(p(t)) =
= (t - 1)p(t), ∀ p(t) ∈ P2 (R). Determinar as matrizes de F e de G em relação ao seguinte

151
par de bases: B = {1, t - 1, (t - 1)2 } e C = {1, t - 1, (t - 1)2 , (t - 1)3 } de P2 (R) e P3 (R),
respectivamente.
R1
26. Seja F ∈ L(P2 (R), R) definida por F(p(t)) = −1
p(t)dt. Determinar a matriz de F
em relação às bases:

(a) B = {1, t, t2 } e C = {1};

(b) B = {1, 1 + t, -1 + t2 } e C = {-2}.

27. Encontre a matriz de H = I + F + 2F2 em relação à base canônica do R3 e determine


H(x, y, z), sabendo que a matriz do operador linear F do R3 em relação à base canônica é

 
1 1 0
0 1 0 
 

0 1 −1

28. Determinar todos os operadores lineares F do R2 que satisfazem F(x, y) = (ax, bx +


cy) e F2 = F.

29. Determinar todos os operadores lineares F do R2 que satisfazem F(x, y) = (ax + by,
cy) e F2 = 0 (operador identicamente nulo).

30. Sejam F e G operadores lineares do R3 . Determine a matriz de G e encontre também


a expressão de G(x, y, z), sabendo que F(x, y, z) = (x, 2y, y - z) e que a matriz de 2F -
 
1 1 0
G em relação à base canônica é 0 1 0
 

1 2 1

152
pulando folha

153
Capítulo 5

Espaços com Produto Interno

5.1 Produto Interno

Um dos conceitos fundamentais quando estudamos os vetores da Geometria Analítica


é o conceito de “produto escalar”, que associa, a cada par ordenado de vetores (~u, ~v)
∈ V3 × V3 o número real ~u • ~v = k ~u k . k ~v k . cos θ, sendo θ o ângulo entre
os vetores ~u e ~v. Além disso, se B = {~i, ~j, ~k} é uma base ortonormal do espaço V3 ,
~u = x1 ~i + x2 ~j + x3 ~k e ~v = y1 ~i + y2 ~j + y3 ~k, então ~u • ~v = x1 y1 + x2 y2 + x3 y3 .

Neste Capítulo, generalizaremos a definição de “produto escalar” e introduziremos o con-


ceito de “distância”. Para tal, apresentaremos uma noção que completa a estrutura de um
espaço vetorial, uma vez que os axiomas que definem espaço vetorial não são suficientes
para abordar noções geométricas como, por exemplo, ângulo, perpendicularismo, com-
primento, distância. Isto se torna possível quando introduzimos no espaço vetorial um
produto interno.

Definição: Seja V um espaço vetorial real de dimensão finita. Chama-se produto


interno sobre V a uma aplicação de V × V em R que transforma cada par ordenado (u,
v) ∈ V × V em um número real (denotado por <u, v> ou ainda por u • v), satisfazendo
às seguintes condições: para quaisquer que sejam u, v, w ∈ V e para todo α ∈ R,

154
(a) <u, u> ≥ 0 e <u, u> = 0 se, e somente se , u = 0;

(b) <u, v> = <v, u>;

(c) <u + v, w> = <u, w> + <v, w>;

(d) < α u, v> = α. <u, v>.

Observação: Quando V é um espaço vetorial complexo, o item (b) da definição anterior


fica: <u, v> = < v, u >

Nomenclatura: (V, < >) é chamado um espaço vetorial real com produto interno ou
espaço euclidiano ou espaço vetorial real munido de um produto interno.

Exemplo 1: Produto interno usual (ou canônico) do Rn :

Dados os vetores u = (x1 , x2 , . . . , xn ) e v = (y1 , y2 , . . . , yn ) do Rn , a aplicação

Rn × Rn −→ R

(u, v) 7−→ < u, v> = x1 y1 + x2 y2 + . . . + xn yn

é um produto interno em Rn .

Assim, se consideremos o R3 com seu produto interno usual, então:

• < (1, 2, 3), (3, 2, 1)> = 10 > 0

• < (1, 2, 3), (-1, -2, -3)> = - 14 < 0

• < (1, 2, 3), (6, 3, -4)> = 0

Observação: Quando nos referirmos ao Rn como espaço euclidiano, estamos conside-


rando o produto interno usual acima definido.

Exemplo 2: Seja Pn (R) o espaço vetorial dos polinômios de grau ≤ n. A aplicação:

Pn (R) × Pn (R) −→ R
Z 1
(f(t), g(t)) 7−→ < f(t), g(t)> = f(t) g(t) dt
0

155
é um produto interno em Pn (R).

103
Assim, para n = 3, teremos, < 2 t3 + t 2
- 3 t + 1, t3 - 2 t2 + t - 3 > = - .
105
Propriedades do produto interno

Seja V um espaço vetorial real munido de um produto interno. Considere os vetores u, v


w, u1 , u2 , . . . , un , v1 , v2 , . . . , vm e os números reais α, α1 , α2 , . . . , αn , β1 , β2 , . . . , βm ,
sendo m, n ≥ 1. Valem as seguintes propriedades:

P1 . <0, u> = <u, 0> = 0


def
De fato: 0 .u = |{z}
|{z} 0 e, portanto <0, u> = <0.u, u> = 0.<u, u> = 0
real vetor

P2 . <u, α v> = α <u, v>


(b) (d) (b)
De fato: <u, α v> = < α v, u> = α < v, u> = α <u, v>

P3 . <u, v + w> = <u, v> + <u, w>


(b) (c) (b)
De fato: <u, v + w> = <v + w, u> = < v, u> + <w, u> = <u, v> +
<u, w>

n
X n
X
P4 . < αi ui , v> = αi <ui , v>
i=1 i=1

De fato: A prova é feita por indução sobre o número n.


1
(d) X
• para n = 1: < α1 u1 , v> = α1 <u1 , v> = αi <ui , v>
i=1

(c) (d)
• para n = 2: < α1 u1 + α2 u2 , v> = < α1 u1 , v> + < α2 u2 , v> =
2
X
= α1 <u1 , v> + α2 <u2 , v> = αi <ui , v>
i=1

156
n−1
X n−1
X
• Suponhamos verdadeiro para n - 1, isto é, < αi ui , v> = αi <ui , v>
i=1 i=1
e mostremos que é verdadeiro para n:
n n n
X X (c) X (HI)
< αi ui , v> = < α1 u1 + αi ui , v> = < α1 u1 , v> + < αi ui , v> =
i=1 i=2 i=2

n
X n
X
= < α1 u1 , v> + αi <ui , v> = αi <ui , v>
i=2 i=1

m
X m
X
P5 . <u, βj vj > = βj <u, vj >
j=1 j=1

m m m
X (b) X P4
X (b)
De fato: <u, βj vj > = < βj vj , u> = βj <vj , u> =
j=1 j=1 j=1

m
X
= βj <u, vj >
j=1

n
X m
X n X
X m
P6 . < αi u i , βj vj > = αi βj <ui , vj >
i=1 j=1 i=1 j=1

De fato: A prova desta propriedade é aplicação direta de P4 e de P5 , sucessivamente:


n m n m
P4 P
X X X X
< αi ui , βj vj > = αi <ui , βj vj > =5
i=1 j=1 i=1 j=1

n
X m
X n X
X m
= αi βj < ui , vj > = αi βj < ui , vj >
i=1 j=1 i=1 j=1

5.2 Norma e Distância

Definição: Seja V um espaço euclidiano com produto interno (u, v) 7−→ <u, v>.
Dado um vetor u ∈ V, indicamos por k u k e chamamos norma de u ao número real
positivo ou nulo dado por

157
def √
kuk = < u, u >

Exemplo: Considerando no Rn o produto interno usual, se u = (x1 , x2 , . . ., xn ) ∈ Rn ,


então
def
kuk x21 + x22 + . . . + x2n
p
=

Convenção: Para não haver confusão, denotaremos o módulo de um número real α por
| α | e a norma de um vetor v ∈ V por k v k.

Proposição 1: Em todo espaço euclidiano V, temos:

(i) kα uk = | α | . k u k, para todo α ∈ R e todo u ∈ V.

(ii) k u k ≥ 0, para todo u ∈ V e k u k = 0 ⇐⇒ u = 0

Prova:
def √ p √
(i) kα uk = < αu, αu > = α2 < u, u > = | α | < u, u > =
= |α|. kuk

(ii) kuk ≥ 0 pelas definições de produto interno e de norma de um vetor. Além


disso,

k u k = 0 ⇐⇒ < u, u > = 0 ⇐⇒ <u, u> = 0 ⇐⇒ u = 0

Proposição 2: (Desigualdade de Cauchy-Schwarz - DCS)

Para quaisquer que sejam os vetores u, v em um espaço euclidiano V, vale:

| < u, v > | ≤ kuk.kvk


Prova: Temos duas possibilidades a considerar:

1o Caso : O vetor v é nulo; isto é, v = 0.

Neste caso, temos que <u, v> = <u, 0> = 0 e k u k . k v k = k u k . k 0 k = 0,

158
e, portanto, a desigualdade é válida.

2o Caso : O vetor v é não nulo; isto é, v 6= 0.

Neste caso, considerando α ∈ R, temos que k u + α v k2 ≥ 0 e, portanto,

0 ≤ k u + α v k2 = < u + α v, u + α v > = < u, u > + < u, α v > +


+ < α v, u > + < α v, α v > = k u k2 + α < u, v > + α < v, u > +
+ α2 k v k2 = k v k2 . α2 + 2 < u, v > . α + k u k2

Assim, temos que: k v k2 . α2 + 2 < u, v > . α + k u k2 ≥ 0.

Em outras palavras, obtivemos um trinômio do 2o grau (pois k v k2 6= 0) que é sempre


≥ 0 e, portanto, seu discriminante deve ser negativo ou nulo. Isto é:

2
∆ = 4 < u, v > − 4 . k v k2 . k u k2 ≤ 0 =⇒ < u, v > 2

k u k2 . k v k2

e, portanto, | < u, v > | ≤ kuk.kvk

Corolário: (Desigualdade de Triangular - DT)

Para quaisquer que sejam os vetores u, v em um espaço euclidiano V, vale:

ku + vk ≤ kuk + kvk
Prova: Temos que:

k u + v k2 = < u + v, u + v > = < u, u > + < u, v > + < v, u > +

+ < v, v > = k u k2 + k v k2 + 2. < u, v > ≤ k u k2 + k v k2 + 2. | <


u, v > | ≤


C−S
k u k2 + k v k2 + 2.k u k . k v k = (k u k + k v k)2 ,

de onde conclui-se que

159
ku + vk ≤ kuk + kvk

Em um espaço euclidiano V com produto interno (u, v) 7−→ <u, v>, consideremos a
aplicação

d : V × V −→ R

definida por d(u, v) = k u − v k, u, v ∈ V.

Para quaisquer que sejam u, v, w ∈ V, a aplicação acima definida satisfaz as seguintes


propriedades:

P1 . d(u, v) ≥ 0 e d(u, v) = 0 ⇐⇒ u = v
def
De fato: Como d(u, v) = k u − v k e u - v é um vetor de V, o resultado
segue como conseqüência direta da Proposição 1, (ii).

P2 . d(u, v) = d(v, u)
def Prop.1(i)
De fato: d(u, v) = k u − v k = k (−1).(v − u) k = | −1 |.k v − u k =
def
= k v − u k = d(v, u)

P3 . d(u, v) ≤ d(u, w) + d(w, v)


def DT
De fato: d(u, v) = k u − v k = k (u − w) + (w − v) k ≤ ku−wk +
def
+ k w − v k = d(u, w) + d(w, v)

Definição: A aplicação d : V × V −→ R, definida por d(u, v) = k u - v k chama-se


métrica sobre V, induzida pela norma de V. O número d(u, v) é a distância de
u a v.

160
5.2.1 Aplicação da Desigualdade de Cauchy-Schwarz: ângulo en-
tre vetores em um espaço euclidiano

Considere u e v dois vetores não nulos em um espaço euclidiano V. Da DCS

| < u, v > | ≤ kuk.kvk

segue que −kuk.kvk ≤ < u, v > ≤ kuk.kvk

e portanto, como u e v não são nulos,


<u, v>
− 1 ≤ kuk.kvk ≤ 1
<u, v>
Logo, existe um único número real θ tal que 0 ≤ θ ≤ π e cos θ = k u k . k v k.

Observação: Quando o espaço vetorial V = R2 ou V = R3 e o produto interno é o


produto interno usual destes espaços, o número θ é exatamente a medida do ângulo entre
os segmentos orientados que representam os vetores u e v. Dessa forma, por analogia com
o que ocorre em R2 e R3 , temos a seguinte

Definição: O número real θ tal que cos θ = <u, v>


kuk.kvk
é chamado de ângulo entre
os vetores u e v.

Exercícios:

1. Considerando o espaço euclidiano R3 , calcular o produto interno <u, v> para:

• u = (1, 2, 3) e v = (2, -1, -4)

<u, v> = <(1, 2, 3), (2, - 1, - 4)> = 1.2 + 2.(-1) + 3.(-4) = 2 - 2 - 12 = - 12

• u = (1, 2, 3) e v = (2, − 21 , − 13 )

<u, v> = <(1, 2, 3), (2, − 12 , − 31 ) > = 1.2 + 2.(− 12 ) + 3.(− 13 ) = 2 - 1 - 1 = 0

• u = (1, 2, 3) e v = (2, 12 , − 13 )

161
<u, v> = <(1, 2, 3), (2, 12 , − 13 ) > = 1.2 + 2. 12 + 3.(− 13 ) = 2 + 1 - 1 = 2
Z 1
2. Considerando em P2 (R) o produto interno definido por <f(t), g(t)> = f(t).g(t)
0
dt, calcule <f(t), g(t)> para cada um dos seguintes casos:

• f(t) = t e g(t) = 1 - t2
Z 1 Z 1   1
2
t t 4 1 1 1
<f(t), g(t)> = t.(1 - t2 ) dt = (t - t3 ) dt = − = − =
0 0 2 4 0 2 4 2

• f(t) = t - 1 e g(t) = 1 - t
Z 1 Z 1   1
3
t
<f(t), g(t)> = (t - 1).(1 - t) dt = (- t2 + 2 t - 1) dt = − + t2 − t =

0 0 3
0

1 1
= − + 1 − 1 = −
3 3

3. No espaço vetorial R2 , dados u = (x1 , x2 ) e v = (y1 , y2 ) dois elementos arbitrários,


x1 .y1 x2 .y2
defina <u, v> = 2
+ , sendo a, b ∈ R fixos e nãos nulos. Prove que
a b2
<u, v> define um produto interno no R2 .

Solução: Vamos verificar que <u, v> satisfaz satisfaz as quatro propriedades da defi-
nição de produto interno. Para isso, consideremos u = (x1 , x2 ), v = (y1 , y2 ) e w = (z1 ,
z2 ) três elementos arbitrários do R2 e α ∈ R. Então:
x .x x .x x 2
• <u, u> = 1 2 1 + 2 2 2 = ( a1 )
a b
+ ( xb2 )2 ≥ 0, sendo a igualdade
verdadeira se, e somente se, u = 0.
x1 .y1 x2 .y2 y1 .x1 y2 .x2
• <u, v> =
a2
+ b2
= a2
+ b2
= <v, u>.

(x1 +z1 ).y1


• <u + w, v> =
a2
+ (x2+z 2 ).y2
b2
= x1.y1 a+2 z1.y1 + x2.y2 b+2 z2.y2 =
x .y x .y z .y z .y
= ( 1 2 1 + 2 2 2 ) + ( 1 2 1 + 2 2 2 ) = <u, v> + <w, v>.
a b a b
(αx1 ).y1 (αx2 ).y2
• < αu, v> =
a2
+ b2
= α( x1a.y2 1 + x2 .y2
b2
) = α <u, v>.

162
4. Em um espaço euclidiano V, considere dois vetores u e v de modo que k u k = k v k
= 1 e k u − v k = 2. Determine <u, v>.

Solução: 4 = k u − v k2 = < u − v, u − v > = < u, u − v > + < −v, u − v > =

= < u, u > + < u, −v > + < −v, u > + < −v, −v > = k u k2 − 2 < u, v > +

+ k v k2

e, portanto, 2 <u, v> = k u k2 + k v k2 − 4 = 1 + 1 − 4 = − 2

5. Em um espaço euclidiano V, mostre que vale a identidade:

k u + v k2 − k u − v k2 = 4. <u, v>

Solução: Temos que:

k u + v k2 = < u + v, u + v > = < u, u > + < u, v > + < v, u > + < v, v > =

= k u k2 + 2 < u, v > + k v k2

e, por outro lado,

k u − v k2 = < u − v, u − v > = < u, u > − < u, v > − < v, u > + < v, v > =

= k u k2 − 2 < u, v > + k v k2 ,

o que nos leva a

ku + vk2 − ku − vk2 = (kuk2 + 2 < u, v > + kvk2 ) − (kuk2 − 2 < u, v > + kvk2 ) =

= 4. <u, v>,

como enunciado.

6. No espaço vetorial euclidiano R3 , considere o vetor u = (6, a, -1). Determine o valor



do número real a para que k u k = 41.

Solução: Temos que:

163
41 = k u k2 = < u, u > = 36 + a2 + 1 = 37 + a2 ⇐⇒ a2 = 4 ⇐⇒ a = ± 2

7. Encontre o ângulo θ entre os seguintes pares de vetores do R3 :

• u = (1, 1, 1) e v = ( 21 , -1, 12 )

<u, v> 1. 21 + 1.(−1) + 1. 12 0


cos θ = k u k.k v k = √ √1 1
= √ √3 = 0
1+1+1. 4 +1+ 4 3. 2
π
=⇒ θ = 2

• u = (1, - 1, 0) e v = (2, - 1, 2)

<u, v> 1.2 + (−1).(−1) + 0.2


cos θ = k u k.k v k = √ √ = √3 = 1 =⇒ θ = π
1+1. 4+1+4 9 4

Exercícios
1. Sejam u = (x1 , x2 ) e v = (y1 , y2 ) vetores genéricos do R2 . Encontre os valores de t
∈ R para os quais a função <u, v> = x1 y1 + tx2 y2 é um produto interno em R2 .

2. Verifique se a expressão abaixo define um produto interno no R2 :


< u, v > = x1 y1 - x1 y2 - x2 y1 + 3 x2 y2 , com u = (x1 , x2 ) e y = (y1 , y2 ).

3. Mostre que se <u, v> = 0 para todo vetor v, então u = 0.


Z 1
4. Em V = P3 (R) considere o produto interno dado por <f, g> = f(t).g(t) dt.
0
Calcule <f(t), g(t)>, k f(t) k, k g(t) k e k f(t) + g(t) k, para:

(a) f(t) = t3 - t - 1 e g(t) = t2 + 1 e (b) f(t) = 2 e g(t) = t3 + t + 1

5. Dado um automorfismo T : V −→ V do espaço vetorial V, prove que: se <u, v> é


um produto interno sobre V, então o mesmo acontece com a função PT : V × V −→ R
definida por PT (u, v) = <T(u), T(v)>.

6. Seja V um espaço com produto interno <u, v>. Encontre os valores de α ∈ R para
os quais a aplicação (u, v) 7−→ α. <u, v> também é um produto interno sobre V.

164
7. Chama-se traço de uma matriz quadrada A = (aij ) ∈ Mn (R) ao número real dado
pela soma dos elementos da diagonal principal de A; isto é, tr(A) = a11 + a22 + ... +
ann . Mostre que: <A, B> = tr(Bt A) é um produto interno sobre Mm×n (R).

8. Seja V um espaço vetorial euclidiano de dimensão 3. Dada uma base B = {e1 , e2 , e3 }


de V, seja A = (aij ) ∈ M3 (R) a matriz tal que aij = <ei , ej >, para i, j = 1, 2, 3.

(a) Prove que A é uma matriz simétrica.


3
X 3
X
(b) Mostre que se u = xi ei e v = yi ei , então o produto escalar em V pode
i=1 i=1
ser expresso na seguinte forma matricial: <u, v> = (x1 x2 x3 ).A.(y1 y2 y3 )t .

(c) Generalize os resultados acima para um espaço vetorial euclidiano de dimensão n.

9. Considere oa vetores u = (1, 5) e v = (3, 4) em R2 . Calcule:

(a) < u, v > em relação ao produto interno usual do R2 .

(b) < u, v > em relação ao produto interno de R2 dado no Exercício 2.

(c) k v k, usando o produto interno usual do R2 .

(d) k v k, usando o produto interno de R2 dado no Exercício 2.

10. No espaço vetorial V = M2 (R), considere o produto interno !


definido no Exercício !8.
1 1 1 0
Calcule <A, B>, k A k, k B k e d(A, B), quando A = e B = .
0 1 0 0

11. No espaço vetorial R4 , considere os vetores u = (1, 2, 0, 1) e v = (3, 1, 4, 2).


u + v
Calcule: <u, v>, k u k, k v k, d(u, v), , e o cosseno do ângulo entre os
ku + vk
vetores u e v.

12. Sejam u e v dois vetores não nulos de um espaço vetorial euclidiano e θ o ângulo
entre eles. Mostre que k u + v k2 = k u k2 + k v k2 + 2 k u k.k v k.cos θ

13. Sejam u e v dois vetores de um espaço euclidiano. Determine o cosseno do ângulo



entre eles, sabendo que k u k = 5, k v k = 8 e k u + v k = 129.

14. Verifique que num espaço euclidiano V é válida a Lei do Paralelogramo: para quais-

165
quer u, v ∈ V, tem-se: k u + v k2 + k u − v k2 = 2k u k2 + 2k v k2

15. Sejam u = (x1 , x2 ) vetores genéricos do R2 .

(a) Mostre que <u, v> = x1 y1 - 2x1 y2 - 2x2 y1 + 5x2 y2 é um produto interno sobre o
R2 ;

(b) Dado o vetor u = (1, 2), determine sua norma em relação ao produto interno
usual do R2 e também em relação ao produto interno definido no item (a).

16. Use a desigualdade de Cauchy-Schwarz no espaço euclidiano R3 (produto interno


usual) para mostrar que, dados os números reais estritamente positivos a1 , a2 , a3 , vale a
desigualdade:
1 1 1
(a1 + a2 + a3 ).( a1 + a2 + a3 ) ≥ 9

17. Num espaço euclidiano V, considere vetores u e v tais que k u k = 3 e


k v k = 5. Determine α ∈ R de modo que <u + α v, u − α v> = 0.

18. Num espaço vetorial euclidiano, prove que:

(a) k u k = k v k ⇐⇒ < u + v, u − v > = 0

(b) k u + v k2 = k u k2 + k v k2 ⇐⇒ < u, v > = 0

19. Sejam ! u = (x1 , x2 ) e v = (y1 , y2 ) vetores genéricos do R2 e M = (aij )n =


a11 a12
= ∈ M2 (R). Defina <u, v> = a11 x1 y1 + a12 x1 y2 + a21 x2 y1 + a22
a21 a21
x2 y2 .

(a) Mostre que o produto assim definido satisfaz as duas últimas condições da definição
de produto interno.

(b) Mostre que a condição (b) da definição de produto interno é válida se, e somente
se, a matriz M é simétrica.

(c) Qual matriz M dá origem ao produto interno usual do R2 ?

(d) Utilizando a definição de <u, v> acima, verifique quais das seguintes matrizes
definem produtos internos sobre o R2 :

166
! ! !
2 1 −1 0 1 1
(d1) (d2) (d3)
1 1 1 0 1 1

20. Determinar a norma de cada um dos seguintes vetores:

(a) u = (3, 1, 2, 1) ∈ R4 ;
Z 1
(b) f(t) = t + t - 1, em relação ao produto interno <f(t), g(t)> =
2
f(t).g(t) dt;
0
Z 1
(c) f(t) = t, em relação ao produto interno <f(t), g(t)> = f(t).g(t) dt;
0
!
1 2
(d) A = em relação ao produto interno proposto no Exercício 8.
2 1

21. Encontrar a distância de u a v e o cosseno do ângulo entre u a v, nos casos:

(a) u = (1, 1, 1, 1) e v = (0, 0, 1, 1), com o produto interno usual do R4 ;

(b) u = 1 + t - t2 e v = 3 t3 , com o produto considerado no item (b) do Exercício


20;
! !
1 1 0 1
(c) A = e B= , com o produto proposto no Exercício 8.
0 0 1 0

22. Sejam u = (1, 1, 0) e v = (0, 1, 2) no espaço euclidiano R3 . Determine todos os


vetores w ∈ R3 tais que k w k = 1 e < u, w > = < v, w > = 0.

23. Considere o espaço vetorial Zdos polinômios de qualquer grau P(t), munido do pro-
1
duto interno <f(t), g(t)> = f(t).g(t) dt. Dados os polinômios f(t) = t + 2,
0
g (t) = 3t - 2 e h(t) = t2 - 2t - 3,

(a) Calcule < f, g > e < f, h >

(b) Calcule k f || e k g ||

(c) Normalize f e g.

167
5.3 Ortogonalidade

Em Geometria Analítica estudamos o espaço vetorial V3 e vimos que dois vetores não
nulos ~u e ~v são ortogonais se, e somente se, o produto escalar entre eles é nulo. Isto
motiva a seguinte definição mais geral:

Definições:

[1] Dois vetores u, v de um espaço euclidiano V são ortogonais se, e somente se,
<u, v> = 0.

[2] Um subconjunto S = {u1 , u2 , ... , un } ⊂ V é dito ortonormal se, e somente se,

(i) k ui k = 1, i = 1, 2, ... n

(ii) quaisquer dois vetores distintos de S são ortogonais.

!
1 1
Exemplo 1: No conjunto M2 (R), considere a matriz simétrica A = A regra:
1 2
" ! !#
  1 1 x2
<(x1 , y1 ), (x2 , y2 ) > = det x1 y 1 . .
1 2 y2

define um produto interno no R2 . (Prove isso!!). Assim:


" ! !# " !#
 1 1
 0   1
• <(1, 0), (0, 1)> = det 1 0 . = det 1 0 . = det(1) =
1 2 1 2
=1
" ! !# " !#
 1 1
 1   −1
• <(2, 1), (1, -2)> = det 2 1 . . = det 2 1 . =
1 2 −2 −3
= det(-5) = -5
" ! !# " !#
 1 1
 5   2
• <(1, 2), (5, -3)> = det 1 2 . . = det 1 2 . =
1 2 −3 −1
= det(0) = 0

168
Podemos, então, concluir que:

• (1, 0) e (0, 1) não são ortogonais;

• (2, 1) e (1, -2) não são ortogonais;

• (1, 2) e (5, -3) são ortogonais.

Exemplo 2: No Rn , para n ≥ 2, o conjunto constituído pelos vetores da base canônica


é ortonormal.

De fato: Basta ver que S = {e1 , e2 , ... , en }, sendo e1 = (1, 0, ... , 0), e2 = (0, 1, ... , 0), ...
, en = (0, 0, ..., 1) e, portanto k e1 k = k e2 k = ... = k en k = 1 .
(
1, se i = j
Além disso, <ei , ej > = δij =
0, se i 6= j

Definição: A função δij acima definida é a chamada função delta de Kronecker.

Proposição 3: Sejam V um espaço euclidiano e S = {g1 , g2 , ... , gn } um subconjunto


ortonormal de V. Então S é linearmente independente.

Prova: Nas condições do enunciado, suponhamos que

α1 g1 + α2 g2 + ... + αn gn = 0 (1)

Multiplicando-se (1) escalarmente por g1 , obtemos:

0 = <0, g1 > = α1 < g1 , g1 > + α2 < g1 , g2 > + ... + αn < gn , g1 > = α1 ,


(
1, se i = j
uma vez que <gi , gj > = δij = , por se tratar de
0, se i 6= j
uma base ortonormal. Provamos, portanto, que α1 = 0 e, de modo análogo, obteremos
α2 = α3 = ... = αn = 0, o que conclui a demonstração do resultado enunciado.

169
Proposição 4: Sejam V um espaço euclidiano e S = {g1 , g2 , ... , gn } um subconjunto
ortonormal de V. Então, para todo vetor u ∈ V, o vetor

v = u − <u, g1 > .g1 − ... − <u, gn > .gn

é ortogonal a todo vetor do subespaço gerado pelos vetores de S.

Prova: Afirmamos, inicialmente, que o vetor v é ortogonal ao vetor gi , para todo i = 1,


... , n.

De fato:

< v, gi > = < u − < u, g1 > .g1 − ... − < u, gi > .gi − ... − < u, gn > .gn , gi > =

= < u, gi > − < u, g1 > . < g1 , gi > − < u, g2 > . < g2 , gi > − ... − < u, gn > . < gn , gi >

Mas: < gi , gj > = δij e, portanto, < v, gi > = < u, gi > − < u, gi > = 0

Acabamos, dessa forma, de provar que o vetor v é ortogonal a cada um dos vetores do
subconjunto S. Mostremos, agora, que v é ortogonal a w, para todo w ∈ [ S ]. Para isso,
consideremos w = a1 g1 + a2 g2 + ... + an gn um vetor genérico de [ S ]. Então:

< v, w > = a1 . < v, g1 > + a2 . < v, g2 > +... + ar . < v, gr > = 0

Definição: No espaço vetorial euclidiano V de dimensão finita, consideremos o subcon-


junto B = {g1 , g2 , ... , gn }. Dizemos que B é uma base ortonormal de V se, e somente
se

(i) B é uma base de V;

(ii) B é ortonormal.

Exemplo: A base canônica do Rn é uma base ortonormal deste espaço.

Teorema 1: (Processo de Ortonormalização de Gram-Schmidt)

Todo espaço vetorial euclidiano de dimensão finita n > 0 admite uma base ortonormal.

170
Prova: • Suponhamos que dim V = 1 e consideremos B = {u} uma base de V. Afirmamos
1
que o conjunto S = {g1 } é uma base ortonormal de V, sendo g1 = k u k .u

De fato: S é LI, pois g1 6= 0 e, além disso

1 1
k g1 k = k kuk
.uk = kuk
.kuk = 1

• Suponhamos, agora, que dim V = 2 e seja B = {u1 , u2 } uma base de V. Vamos


construir, a partir da base B, uma base ortonormal S de V. Para isso, consideremos g1 =
1
k u1 k .u1 . Pela Proposição 4, o vetor v2 = u2 − < u2 , g1 > g1 é ortogonal ao vetor
1
g1 . Logo, o vetor g2 = k v k .v2 também é ortogonal a g1 e, além disso, k g2 k = 1.
2
Assim, S = {g1 , g2 } é um subconjunto ortonormal de V. Finalmente, pela Proposição 3,
S é LI e como S é formado por 2 = dim V vetores, segue que S é uma base ortonormal
de V.

• Suponhamos, agora, que dim V = 3 e seja B = {u1 , u2 , u3 } uma base de V. Nova-


mente, utilizaremos a base B para construir uma base ortonormal S de V. Como anterior-
1 1
mente, consideremos g1 = k u k .u1 , v2 = u2 − < u2 , g1 > g1 e g2 = k v k .v2 .
1 2
Como vimos acima, o conjunto {g1 , g2 } é um subconjunto ortonormal de V. Considere-
mos, agora,
1
v3 = u3 − < u3 , g1 > g1 − < u3 , g2 > g2 e g3 = k v k .v3 . Pela Proposição 4, v3 é
3
ortogonal a g1 e a g2 . Além disso, k g3 k = 1, o que completa a prova de que o conjunto
S = {g1 , g2 , g3 } é uma base ortonormal de V, construída a partir da base dada B.

Para dim V > 3, basta repetir o processo.

Exemplo: Considere no R3 , com o seu produto interno usual, a base B = {u1 , u2 , u3 },


sendo u1 = (1, 0, 0), u2 = (0, 1, 1) e u3 = (0, 1, 2). Aplicando o processo de
ortonormalização de Gram-Schmidt, encontre, a partir de B, uma base ortonormal de R3 .

u (1, 0, 0)
Solução: • g1 = k u1 k = √ = (1, 0, 0).
1 12 +02 +02
• g2 = ?

Seja v2 = u2 − < u2 , g1 > . g1 . Como < u2 , g1 > = (0, 1, 1) . (1, 0, 0) = 0, segue


que v2 = u2 = (0, 1, 1). Basta, então, considerarmos

171
√ √
v (0, 1, 1) (0, 1, 1) 2 2
g2 = k v2 k = √ = √ = (0, 2 , 2 )
2 02 +12 +12 2
• g3 = ?

Seja v3 = u3 − < u3 , g1 > . g1 − < u3 , g2 > . g2 . Como < u3 , g1 > =


√ √ √ √
(0, 1, 2) . (1, 0, 0) = 0 e < u3 , g2 > = (0, 1, 2) . (0, 22 , 22 ) = 22 + 2 . 22 =
√ √
3 2
2
, segue que v 3 = u 3 − 0.g 1 − 3 2
2
. g2 = (0, 1, 2) − (0, 32 , 23 ) = (0, − 12 , 12 ).
Basta, então, considerarmos

v (0, − 21 , 12 ) (0, − 21 , 12 ) (0, − 12 , 21 ) (0, − 1, 1)


g3 = k v3 k = √ = √1 = √ = √ =
3 02 +(− 21 )2 +( 12 )2 2 2
2 2

√ √
2 2
= (0, − 2 , 2 )
√ √ √ √
Logo: C = {(1, 0, 0), (0, 2
2
, 2
2
), (0, − 2
2
, 2
2
)} é a base ortonormal procurada, obtida
a partir da base B.

5.4 Complemento Ortogonal

Seja V um espaço vetorial euclidiano. Dado U ⊂


sev
V, seja U⊥ o seguinte subconjunto de
V:

U⊥ = {v ∈ V : <v, u> = 0, para todo u ∈ U}

Lema 1: U⊥ é um subespaço vetorial de V.

Prova: Verifiquemos que são válidas as condições para que um subconjunto de V seja um
subespaço vetorial de V. Para isso, consideremos k ∈ R e u1 , u2 ∈ U⊥ . Então, para todo
u ∈ V, <u1 , u> = <u2 , u> = 0 e, dessa forma,

• 0 ∈ U⊥ , uma vez que, para todo u ∈ U, tem-se <0, u> = 0

• <k u1 + u2 , u> = k.<u1 , u> + <u2 , u> = k.0 + 0 = 0

o que mostra o resultado enunciado.

172
Definição: O subespaço vetorial U⊥ de V é chamado de complemento ortogonal de
U.

Exemplo: Considere no espaço vetorial R3 o subespaço U = {(x, y, 0) : x, y ∈ R}.


Encontre o subespaço U⊥ .

Solução:

Inicialmente, observemos que U = [u1 , u2 ], sendo u1 = (1, 0, 0) e u2 = (0, 1, 0). Além


def
disso, temos que U⊥ = { v = (a, b, c) ∈ R3 : <v, u> = 0, ∀ u ∈ U} e portanto,
dado v = (a, b, c) ∈ U⊥ , em particular para u1 e u2 , segue que:

• 0 = <v, u1 > = <(a, b, c), (1, 0, 0)> = a.1 + b.0 + c.0 = a

• 0 = <v, u2 > = <(a, b, c), (1, 0, 0)> = a.0 + b.1 + c.0 = b

Dessa forma, v = (0, 0, c), para c ∈ R, ou seja, U⊥ = {(0, 0, z) : z ∈ R} = [(0, 0, 1)].

Proposição 5: Sejam V um espaço vetorial euclidiano de dimensão finita n e U um


subespaço vetorial de V. Então V = U ⊕ U⊥ .

Prova: Devemos mostrar que V = U + U⊥ e que U ∩ U⊥ = {0}.

• V = U + U⊥ :

Seja B = {g1 , g2 , ... , gr } uma base ortonormal de U. Dado v ∈ V, pela Proposição 4, o


vetor w = v - <v, g1 > . g1 - ... - <v, gr > . gr é ortogonal a todo elemento de U;
ou, em outras palavras, w ∈ U⊥ . Dessa forma:

v = [< v, g1 > . g1 + · · · + < v, gr > . gr ] + |{z}


w ∈ U + U⊥
| {z }
∈U ∈ U⊥

• U ∩ U⊥ = {0}:

Seja w ∈ U ∩ U⊥ . Como w ∈ U⊥ , segue que w é ortogonal a todo vetor de U. Em


particular, w é ortogonal a si próprio; isto é, w ⊥ w e, portanto,

k w k2 = < w, w > = 0 ⇐⇒ w = 0

173
o que completa a prova de que V = U ⊕ U⊥ .

Observe que: Pelo que acabamos de ver, em um espaço vetorial euclidiano V de dimensão
finita n, se B [ {g1 , g2 , ... , gr } é uma base ortonormal de um subespaço vetorial U, então
todo vetor v ∈ V se decompões, de modo único, como soma de um elemento u de U com
um elemento w de U⊥ , (e, portanto, u é ortogonal a w), da seguinte forma:

v = [< v, g1 > . g1 + · · · + < v, gr > . gr ] + |{z}


w
| {z }
∈U ∈ U⊥

Nesta decomposição, a parcela u = < v, g1 > . g1 + · · · + < v, gr > . gr ∈ U é


chamada projeção ortogonal de v sobre o subespaço U. Além disso, a aplicação

E : V −→ V dada por

E(u) = < v, g1 > . g1 + · · · + < v, gr > . gr

é chamada de projeção ortogonal de V sobre U e satisfaz às seguintes propriedades:

1. E é um operador linear ;

2. E2 = E (isto é, E é idempotente);

3. Ker E = U⊥ e Im E = U e, portanto, V = Im (E) ⊕


Ker (E).

Exercícios

1. Consideremos no R2 o produto interno dado por <u, v> = x1 y1 + 2 x2 y2 , para todo


par de vetores u = (x1 , x2 ), v = (y1 , y2 ). Verificar se u e v são ortogonais em relação a
este produto, em cada um dos seguintes casos:

(a) u = (1, 1) e v = (2, -1)

(b) u = (2, 1) e v = (-1, 1)

174
(c) u = (3, 2) e v = (2, -1)

2. Considere no R2 o produto interno dado por <u, v> = x1 x2 + 2 y1 y2 - x1 y2 - x2


y1 , para todo par de vetores u = (x1 , y1 ), v = (x2 , y2 ) do R2 .

(a) Determinar m para que os vetores u = (1 + m, 2) e v = (3, m - 1) sejam


ortogonais.

(b) Determinar todos os vetores do R2 que são ortogonais a w = (2, 1).

(c) Determinar todos os vetores u = (m, m - 1) de norma igual a 1.


Z 1
3. Consideremos em P2 (R) o produto interno dado por <p(t), q(t)> = p(t).q(t)
0
dt. Para que valor de m, p(t) = m t2 - 1 é ortogonal a q(t) = t, segundo este produto
interno?
Z 1
4. Idem para <p(t), q(t)> = p(t).q(t) dt.
−1

5. Num espaço vetorial euclidiano V, considere os vetores w 6= 0 e v. Mostre que


< v, w > < v, w >
c = < w, w > = k wk2

é o único escalar para o qual v0 = v - c w é ortogonal a w.

6. Determinar todos os vetores do R3 de norma igual a 2 que sejam ortogonais simulta-


neamente a u = (2, 1, 2) e v = (-1, 3, 4).

7. Ortonormalizar a base u1 = (1, 1, 1), u2 = (1, -1, 1), u3 = (-1, 0, 1) do R3 , utilizando


o processo de Gram-Schmidt.

8. Determinar uma base ortonormal de cada um dos seguintes subespaços do R4 utilizando


o processo de Gram-Schmidt:

(a) W = [(1, 1, 0, 0), (0, 1, 2, 0), (0, 0, 3, 4)].

(b) W = [(2, 0, 0, 0), (1, 3, 3, 0), (3, -3, -3, 0)].

9. Encontre uma base ortonormal para o subespaço W = {(x, y, z) ∈ R3 : x - y = 0} do


R3 .

175
10. Considere a aplicação linear F : R3 −→ R2 definida por F(x, y, z) = (x - y - z, 2z -
x). Determine uma base ortonormal para Ker F.
Z 1
11. Em P2 (R) considere o produto interno definido por: <p(t), q(t)> = p(t).q(t)
0
dt

(a) Ortonormalizar a base {1, 1 + t, 2 t2 }.

(b) Achar o complemento ortogonal do subespaço W = [5, 1 + t].

12. Determinar uma base ortonormal de W e uma base ortonormal de W⊥ , sabendo que
W é o subespaço do R4 dado por W = {(x, y, z, t) : x + y = 0 e 2x + z = y}.

13. Determinar um vetor unitário do R3 que seja ortogonal a todos os vetores do subes-
paço W = [(1, 2, -1), (-1, 0, 2)].

14. Determinar a projeção ortogonal do vetor u = (1, 1, 0, -1) ∈ R4 sobre o subespaço


W = {(x, y, z, t) ∈ R4 : x - y - z = 0 e z - 2t = 0}.
1
15. Provar que os vetores 1, t e t2 − de P2 (R) são dois a dois ortogonais em relação
Z 1 3
ao produto interno definido por: p(t).q(t) dt.
−1

16. Determinar uma base ortonormal do subespaço W = [(1, 1, 1), (1, -2, 3)] do R3 em
relação ao produto interno <u, v> = x1 y1 + 2 x2 y2 + x3 y3 , para todo par de vetores
u = (x1 , x2 , x3 ) e v = (y1 , y2 , y3 ).

17. Sejam U e V subespaços vetoriais de um espaço euclidiano de dimensão finita. Provar


que (U ∩ V)⊥ = U⊥ + V⊥ .

18. Considere os vetores u = (2, 2, 2) e v = (3, 3, 1), ambos do R3 .

(a) Determinar dois vetores v1 e v2 tais que v = v1 + v2 ; v1 é ortogonal a u e


v2 = λ u, (λ ∈ R);

(b) Se w = (-5, 1, -1), decompor v em uma parcela de W = [u, w] e uma parcela de


W ; ⊥

(c) Determinar uma base ortonormal de W.

176
Z 1
19. Seja P2 (R) munido do produto interno <p(t), q(t)> = p(t).q(t) dt. Ortonor-
0
malizar a base canônica C = {1, t, t2 }, utilizando o processo de Gram-Schmidt.

20. Considere o subespaço U = [v1 , v2 , v3 ] do R4 , sendo v1 = (1, 1, 1, 1), v2 = (1, 1, 2,


4) e v3 = (1, 2, -4, -3). Encontre

(a) uma base ortogonal de U.

(b) uma base ortonormal de U.

21. Considere o espaço vetorial dos polinômios de qualquer grau P(t), munido do produto
Z 1
interno <f(t), g(t)> = f(t).g(t) dt. Aplique o Processo de Ortogonalização de Gram-
0
Schmidt ao conjunto B = {1, t, t2 } para obter um conjunto ortogonal C = {f0 , f1 , f2 }
com coeficientes inteiros.

5.5 Isometrias

Definição: Seja V um espaço euclidiano de dimensão finita. Um operador linear


T : V −→ V é chamado uma isometria sobre V (ou ainda um operador ortogonal
sobre V) se satisfaz a propriedade

k T(u) k = k u k, ∀u ∈ V

Ou seja: uma isometria é um operador linear que preserva normas de vetores.

Observe que: Geometricamente, uma isometria T preserva distâncias, uma vez que
T linear T isometria
d(T(u), T(v)) = k T(u) − T(v) k = k T(u − v) k = k u − v k = d(u, v)

Exemplo: Seja T : R2 −→ R2 dado por T(x, y) = (x cos θ - y sen θ, x sen θ + y xos θ),
com 0 ≤ θ ≤ 2π. Então, para cada u = (x, y) ∈ R2 , temos que:

177
k T(u) k2 = k T(x, y) k2 = (x2 cos2 θ - 2 x y sen θ cos θ + y2 sen2 θ) +

+ (x2 sen2 θ + 2 x y sen θ cos θ + y2 cos2 θ)

= x2 (cos2 θ + sen2 θ) + y2 (sen2 θ + cos2 θ)

= x2 + y2 = k (x, y) k2 = k u k2

Proposição 6: Toda isometria T : Vn −→ Vn de um espaço euclidiano é um


isomorfismo.

Prova: É suficiente mostrarmos que T é uma aplicação injetora, uma vez que o operador
T está definido em um espaço vetorial de dimensão finita n. Para isto, consideremos um
vetor arbitrário u ∈ Ker T. Então:

T(u) = 0 =⇒ k T(u) k = 0 =⇒ k u k = 0 =⇒ u = 0 =⇒ Ker T = { 0 }

e, portanto, T é injetora.

Exercício: Sejam V um espaço vetorial real de dimensão finita, munido de um produto


interno. Mostre que se T e P são duas isometrias sobre V, então T ◦ P também é uma
isometria de V.

Proposição 7: Seja T : Vn −→ Vn um operador linear em um espaço euclidiano. São


equivalentes as seguintes afirmações:

(i) T é isometria

(ii) T transforma bases ortonormais de V em bases ortonormais de V

(iii) < T(u), T(v) > = < u, v >, ∀ u, v ∈ V

Prova: (i) =⇒ (ii)

Seja B = { g1 , g2 , . . . , gn } uma base ortonormal de V. Mostraremos que T(B) também


é uma base ortonormal de V. Como T é um isomorfismo, temos que T(B) = { T(g1 ),
T(g2 ), . . . , T(gn )} é uma base de V

178
Afirmamos que: T(B) é ortonormal.

De fato: Temos que:


k gi + gj k2 = k gi k2 + k gj k2 + 2 < gi , gj >

k T(gi ) + T(gj ) k2 = k T(gi ) k2 + k T(gj ) k2 + 2 < T(gi ), T(gj ) >

De T ser uma isometria, segue que k gi + gj k2 = k T(gi ) + T(gj ) k2 e também que


k gi k2 = k T(gi ) k2 , para quaisquer 1 ≤ i, j ≤ n. Portanto,

k gi k2 + k gj k2 + 2 < gi , gj > = k T(gi ) k2 + k T(gj ) k2 + 2 < T(gi ), T(gj ) >

e daí segue que < T(gi ), T(gj ) > = < gi , gj >, ∀ 1 ≤ i, j ≤ n.

Como { g1 , g2 , . . . , gn } é uma base ortonormal de V, segue que { T(g1 ), T(g2 ), . . . ,


T(gn )} também é uma base ortonormal de V.

(ii) =⇒ (iii)

Seja B = { g1 , g2 , . . . , gn } uma base ortonormal de V. Então, dados u, v ∈ V arbitrários,


Xn Xn
, temos que u = αi gi e v= βi gi . Portanto, usando a notação:
i=1 i=1
(
not 1, se i = j
δij =
0, se i 6= j

temos que
n
X n
X n
X n
X
< T(u), T(v) > = < αi T(gi ), βj T(gj ) > = αi βj < T(gi ), T(gj ) > =
i=1 j=1 i=1 j=1

n X
X n n
X
= αi βj δij = αi βi
i=1 j=1 i=1

Por outro lado:


n
X n
X n
X n
X n
X n
X
< u, v > = < αi gi , βj gj > = αi βj < gi , gj > = αi βj δij =
i=1 j=1 i=1 j=1 i=1 j=1

179
n
X
= αi βi , o que conclui a prova de que < T(u), T(v) > = < u, v >.
i=1

(iii) =⇒ (i)

hip
k T(u) k2 = < T(u), T(u) > = < u, u > = k u k2

Ou seja, k T(u) k = k u k, e, portanto, T é uma isometria.

Lembre que: Uma matriz quadrada M é dita ortogonal se M−1 = Mt (ou M Mt = I).

Proposição 8: Seja T : Vn −→ Vn um operador linear definido em um espaço


euclidiano V. Então: T é uma isometria se, e somente se, a matriz de T em relação a uma
base ortonormal é uma matriz ortogonal.

5.6 Operadores Auto-Adjuntos e Espaços Hermitianos.

Operadores Auto-Adjuntos:

Definição: Seja V um espaço vetorial euclidiano. Um operador linear A ∈ L(V) é


chamado auto-adjunto se, e somente se,

< A(u), v > = < u, A(v) >, ∀ u, v ∈ V

Quando dim V = n < ∞, os operadores auto-adjuntos admitem uma caracterização


matricial bastante simples, como veremos a seguir:

Proposição 9: Sejam V um espaço vetorial euclidiano de dimensão finita e A ∈ L(V)


um operador linear definido em V. Então: A é auto-adjunto se, e somente se, a matriz de
A em relação a uma base ortonormal de V é simétrica.

180
Espaços Hermitianos:

Seja V um espaço vetorial complexo.

Definição: Um produto interno sobre V é uma aplicação

V × V −→ C

(u, v) 7−→ < u, v >

de modo que, para todos u, v, w ∈ V, α ∈ C, estão satisfeitas as condições:

(a) <u, u> é um número real maior do que zero, se u 6= 0;

(b) <u, v> = < v, u >;

(c) <u + v, w> = <u, w> + <v, w>;

(d) < α u, v> = α. <u, v>.

Exemplo: Considere em V = Cn os vetores u = (x1 , x2 , . . . , xn ) e v = (y1 , y2 , . . . ,


yn ). A aplicação:
def
(u, v) 7−→ < u, v > = x1 .y1 + x2 .y2 + . . . + xn .yn

define o produto interno usual em Cn .

Definição: Um espaço vetorial complexo munido de um produto interno é chamado um


espaço hermitiano.

181
pulando folha

182
Capítulo 6

Diagonalização de Operadores Lineares

6.1 Valores Próprios e Vetores Próprios

Definição: Sejam V um espaço vetorial real (ou complexo) e T : V −→ V um operador


linear em V. Um vetor 0 6= u ∈ V é chamado vetor próprio de T se, e somente se,
existe um número real (ou complexo) λ tal que T(u) = λu. Nesse caso, λ é dito um valor
próprio de T, associado a u.

Nomenclatura:

• o vetor u é chamado de vetor próprio ou vetor característico ou auto-vetor


do operador T;

• o escalar λ é chamado de valor próprio ou valor característico ou auto-valor


do operador T, associaso ao vetor u.

Observações: Seja T : V −→ V um operador linear.

1. É importante notar que, da definição, auto-vetor de T nunca é vetor nulo e que


auto-valor de T pode ser qualquer escalar, inclusive zero;

183
2. Se 0 6= u é um auto-vetor de T, então:

u 6= 0
λ.u = λ0 .u ⇐⇒ (λ − λ0 ).u = 0 = λ = λ0

Ou seja: o auto-valor associado ao auto-vetor u é único.

3. Se λ é um auto-valor do operador T, o conjunto

V(λ) = {u ∈ V : T(u) = λu} é um subespaço vetorial de V.

De fato: Basta ver que


u ∈ V(λ) ⇐⇒ T(u) = λu ⇐⇒ T(u) = λI(u) ⇐⇒ (T - λI)(u) = 0 ⇐⇒
⇐⇒ u ∈ Ker(T - λI), e portanto V(λ) = Ker(T - λI), que é um subespaço ve-
torial.

Observação: Denotando-se por Cλ o conjunto de todos os auto-vetores associados a λ,


V(λ) 6= Cλ , uma vez que, 0 ∈ V(λ) e, por definição, 0 ∈
/ Cλ ; em outras palavras, V(λ)
contém propriamente o conjunto dos auto-vetores associados a λ.

Definição: O subespaço vetorial V(λ) = {u ∈ V : T(u) = λu} = Ker(T - λI) é chamado


subespaço próprio associado a λ.

Exemplos:

1. Consideremos o operador linear T : R2 −→ R2 definido por T(u) = u; isto é,


T(x, y) = (x, y). Então:
T(x, y) = (x, y) = 1.(x, y), para todo (0, 0) 6= (x, y) ∈ R2

Ou seja, todo vetor não nulo do R2 é um auto-vetor de T, associado ao auto-valor


λ = 1 e, portanto
V(1) = {u ∈ R2 : T(u) = 1.u} = Ker(T - I) = R2

2. Consideremos o operador reflexão sobre o eixo x, rX : R2 −→ R2 definido por


rX (x, y) = (x, -y). Então:

184
rX (x, y) = λ(x, y) ⇐⇒ (x, -y) = λ(x, y) ⇐⇒ (x, -y) = (λx, λy) ⇐⇒

⇐⇒ (x - λx, -y - λy) = (0, 0) ⇐⇒ ((1 - λ)x, (-1 - λ)y) = (0, 0) ⇐⇒


(
(1 − λ)x = 0
⇐⇒
(1 + λ)y = 0

Uma vez que auto-vetores são vetores não nulos, temos dois casos a considerar:
• x 6= 0 =⇒ λ = 0 e portanto y = 0
• x = 0 =⇒ y 6= 0, pois (x, y) é um auto-vetor =⇒ λ = -1
Assim, temos que:
• vetores da forma (x, 0), com x 6= 0 são auto-vetores associados ao auto-valor
λ=1e
• vetores da forma (0, y), com y 6= 0 são auto-vetores associados ao auto-valor
λ = -1 e dessa forma
V(1) = {(x, y) : rX (x, y) = 1.(x, y)} = {(x, 0) : x ∈ R} = {x(1, 0) : x ∈ R} =
= [(1, 0)]
e analogamente, obtemos V(-1) = [(0, 1)]

3. Seja P: R3 −→ R3 a projeção sobre o plano xy; isto é, P é o operador linear


definido por P(x, y, z) = (x, y, 0). Observe que:
• vetores da forma u = (0, 0, z), z 6= 0, são auto-vetores de P, associados ao
auto-valor λ = 0, pois

def
P(u) = P(0, 0, z) = (0, 0, 0) = 0.(0, 0, z) = 0.u

e portanto
V(0) = eixo z

• vetores da forma v = (x, y, 0), x2 + y2 6= 0, são auto-vetores de P, associados


ao auto-valor λ = 1, pois

def
P(v) = P(x, y, 0) = (x, y, 0) = 1.(x, y, 0) = 1.v

185
e portanto
V(1) = plano xy

Definição: Seja A = (aij ) ∈ Mn (R) (ou Mn (C)). Chama-se polinômio característico


da matriz A ao seguinte polinômio de grau n:
 
a11 − λ a12 ··· a1n
 a21 a22 − λ · · · a2n
 

 = det(A − λIn )
 ..
pA (λ) =  .. ..
.
..
 . . .


an1 an2 ··· ann − λ

Lembre que: Duas matrizes quadradas A e B de ordem n são ditas semelhantes


quando existe uma matriz inversível M, de ordem n, tal que B = M−1 AM.

Observação: Matrizes semelhantes têm o mesmo polinômio característico.

De fato: Suponhamos que B = M−1 AM. Então:

def hip
pB (λ) = det (B - λ In ) = det(M−1 AM - λIn ) = det(M−1 AM - M−1 (λ In )M) =
def
= det(M−1 (A - λIn )M) = (det M−1 ).(det(A - λIn )).(det M) = det (A - λ In ) = pA (λ)

Definição: Sejam V um espaço vetorial real (ou complexo) de dimensão finita n e


T : V −→ V um operador linear em V. Chama-se polinômio característico de T
ao polinômio característico da matriz de T, em relação a qualquer base de V.

Notação: pT (λ) = polinômio característico do operador linear T

Note que: matrizes de um mesmo operador linear, consideradas em bases diferentes, são
semelhantes e, portanto, têm o mesmo polinômio característico.

Proposição: Sejam V um espaço vetorial real (ou complexo) de dimensão finita n e


T : V −→ V um operador linear em V. Os valores próprios de T são as raízes de pT (λ)
em R (respectivamente, e, C).

186
Prova: λ é auto-valor de T ⇐⇒ existe 0 6= v ∈ V tal que T(v) = λ v ⇐⇒ T(v) = λ I(v)
⇐⇒ (T - λ I)(v) = 0 ⇐⇒ Ker(T - λ I) 6= 0 ⇐⇒ o operador T - λ I não é inversível ⇐⇒
⇐⇒ a matriz de T - λ I não é inversível ⇐⇒ det( (T − λI) ) = 0 ⇐⇒ det((T − λIn )) =
| {z } | {z }
matriz de T−λI matriz
0 ⇐⇒ det [(T) - λ(In )] = 0 ⇐⇒ pT (λ) = 0.

Exemplos: Encontre os auto-valores e auto-vetores associados dos seguintes operadores


lineares:

• 1. rX : R2 −→ R2 dado por
rX (x, y) = (x, -y)
Os auto-valores de rX são as raízes do polinômio característico de rX . Para encontrá-
las, devemos calcular a matriz de rX com relação a alguma base do R2 . Fixemos,
para isso, a base canônica B = {(1, 0), (0, 1)} do R2 . Então:
!
1 0
(rX )B =
0 −1

O polinômio característico de rX é:
!
1−λ 0
prX (λ) = det = (1 - λ)(-1 - λ)
0 −1 − λ

Os auto-valores de rX são as raízes do seu polinômio característico


( prX (λ):
λ1 = −1
prX (λ) = 0 ⇐⇒ (1 - λ)(-1 - λ) = 0 ⇐⇒
λ2 = 1

Os auto-vetores associados aos auto-valores encontrados são os vetores não nulos de


Ker(rX − λ In ), sendo λ auto-valor do operador rX . Assim, temos que:

para λ1 = -1: Seja 0 6= v = (x, y) um auto-vetor de rX associado a λ1 = -1. Então:


v ∈ Ker(r
( X + I) ⇐⇒ (rX - I)(v) = 0 ⇐⇒ rX (x, y) = -I(x, y) ⇐⇒ (x, -y) = -(x, y) ⇐⇒
x = −x
⇐⇒ ⇐⇒ x = 0 e y : qualquer
−y = −y
Logo: v = (0, y) = y(0, 1), ∀ y ∈ R∗ , é um auto-vetor de rX associado a λ1 = -1.

187
Assim: V(-1) = [(0, 1)] e portanto dim V(-1) = 1.

para λ2 = 1: Seja 0 6= u = (x, y) um auto-vetor de rX associado a λ2 = 1. Então:


u ∈ Ker(r
( X - I) ⇐⇒ (rX - I)(u) = 0 ⇐⇒ rX (x, y) = I(x, y) ⇐⇒ (x, -y) = (x, y) ⇐⇒
x=x
⇐⇒ ⇐⇒ x : qualquer e y = 0
−y = y
Logo: u = (x, 0) = x(1, 0), ∀ x ∈ R∗ , é um auto-vetor de rX associado a λ2 = 1.
Assim: V(1) = [(1, 0)] e portanto dim V(1) = 1.

outro modo de calcular os auto-vetores associados aos auto-valores de rX :


0 6= v = (x, y) é um auto-vetor associado a λ1 = -1 ⇐⇒ (rX - λ1 I)(v) = 0
Matricialmente esta última igualdade é equivalente a:
! ! !
1 − λ1 0 x 0
=
0 −1 − λ1 y 0

Ou seja, substituindo-se λ1 por -1:


! !
x 0
= ⇐⇒ 2x = 0 ⇐⇒ x = 0
y 0

Portanto: x = 0 e 0 6= y: qualquer; ou seja, v = (0,y), para todo y ∈ R∗ .

• 2. P : R3 −→ R3 dado por
P(x, y, z) = (x, y, 0): projeção sobre o plano xy
A matriz do operador P com relação à base canônica B do R3 é:
 
1 0 0
0 1 0
 

0 0 0

e portanto

188
 
1−λ 0 0
(P)B - λ (I)B =  0 1−λ 0 
 

0 0 −λ

O polinômio característico de P é então dado por:


 
1−λ 0 0
pP (λ) = det 0 1 − λ 0  = (-λ)(1 - λ)2
 

0 0 −λ

Os auto-valores de P são as raízes de seu polinômio característico. Mas:


(
λ1 = 0
pP (λ) = 0 ⇐⇒ λ(1 - λ)2 = 0 ⇐⇒
λ2 = λ3 = 1 : multiplicidade 2

Cálculo dos auto-vetores associados:

para λ1 = 0: Seja v = (x, y, z) 6= 0 um auto-vetor do operador P associado ao


auto-valor λ1 = 0. Então:
        
1 0 0 x 0 x 0 (
x=y=0
0 1 0 y = 0 ⇐⇒ y = 0 ⇐⇒ ⇐⇒
        
z : qualquer
0 0 0 z 0 0 0
⇐⇒ v = (0, 0, z)
Logo: 0 6= v = (0, 0, z) é um auto-vetor associado ao auto-valor λ1 = 0 e dessa
forma
(
V(0) = [(0, 0, 1]
dimV(0) = 1

para λ2 = λ3 = 1: Seja u = (x, y, z) 6= 0 um auto-vetor do operador P associado


ao auto-valor λ2 = λ3 = 1. Então:

        
0 0 0 x 0 0 0 (
x, y : quaisquer
0 0 0  y = 0 ⇐⇒  0  = 0 ⇐⇒ ⇐⇒
        
z=0
0 0 −1 z 0 −z 0

189
⇐⇒ u = (x, y, 0)
Logo: 0 6= u = (x, y, 0) = x(1, 0, 0) + y(0, 1, 0) é um auto-vetor associado ao
auto-valor λ2 = 1 e dessa forma
(
V(1) = [(1, 0, 0), (0, 1, 0)]
dimV(1) = 2

Note que: (1, 0, 0) e (0, 1, 0) são dois auto-vetores LI associados aos auto-valores
λ2 = λ3 = 1.

Observações:

1. Assim como definimos valores próprios e vetores próprios de um operador linear, po-
demos definir valores e vetores próprios de uma matriz A, como segue: se A ∈ Mn (R)
(ou Mn (C)),
 chama-se
 vetor próprio de A toda matriz não nula
x1 0
x2  0
   
X =  .. 
 6
=  .  tal que AX = λ X, sendo λ um escalar, chamado de valor
.
. .
xn 0
próprio de A.

λ é um valor próprio de A ⇐⇒ λ é raiz do polinômio característico de A ⇐⇒


⇐⇒ det(A - λ In ) = 0

2. Suponha que para um dado operador linear T (ou matriz A) tenhamos o seguinte
polinômio característico:

p(λ) = (λ − λ1 )r1 .(λ − λ2 )r2 . · · · .(λ − λn )rn .

então λi é um valor próprio de T (ou de A), para i = 1, 2, · · · , n

ri = multiplicidade algébrica do auto − valor λi


si = dimVi = multiplicidade geométrica do auto − valor λi

190
6.2 Diagonalização de Operadores

Vamos examinar dois operadores do R2 :

1. S : R2 −→ R2
S(x,y) = (x + y, y)
Em relação à base canônica C do R2 , a matrizes de S e de S - λ I são dadas,
respectivamente, por:
! !
1 1 1−λ 1
(S)C = e (S)C − λ I2 =
0 1 0 1−λ

e, portanto, o polinômio característico de S é:

pS (λ) = det ((S)C − λ I2 ) = (1 - λ)2

e como os auto-valores de S são as raízes do seu polinômio característico, segue que


λ = 1 é um auto-valor de S, de multiplicidade algébrica 2.
Os auto-vetores associados a λ = 1 são os vetores v = x(1, 0) com x ∈ R∗ .
Logo:
V(1) = [(1, 0)]

Note que: {(1, 0)} não é uma base do R2 ; isto é, não é possível formar uma base
do R2 constituída apenas de auto-vetores de S.

2. T : R2 −→ R2
T(x,y) = (-3x + 4y, -x + 2y)
Em relação à base canônica C do R2 , a matrizes de T e de T - λ I são dadas,
respectivamente, por:
! !
−3 4 −3 − λ 4
(T)C = e (T)C − λ I2 =
−1 2 −1 2−λ

e, portanto, o polinômio característico de T é:

191
pT (λ) = det ((T)C − λ I2 ) = (λ -1)(λ +2)

e como os auto-valores de T são as raízes do seu polinômio característico, segue que


λ1 = 1 e λ2 = -2 são os auto-valores (distintos) de T, cada um deles de multiplicidade
algébrica 1.
Os auto-vetores associados aos auto-valores encontrados são:

para λ1 = 1 =⇒ v1 = (1, 1)
para λ2 = −2 =⇒ v2 = (4, 1)

Note que: {v1 , v2 } é LI e portanto B = {v1 , v2 } é uma base do R2 constituída


apenas de auto-vetores de T.
Além disso:

T(v1 ) = 1.v1 + 0.v2


T(v2 ) = 0.v1 − 2.v2

e daí concluímos que


!
1 0
(T)B = : matriz diagonal
0 −2

Observe também que:


! !
1 4 −1 4
MC,B = =⇒ MB,C = 1
3
1 1 1 −1

Logo:

(T)B = MB,C .(T)C .MC,B

ou seja:
! ! ! !
1 0 1 −1 4 −3 4 1 4
= 3
. .
0 −2 1 −1 −1 2 1 1

192
Ou seja: existe uma base B do R2 em relação à qual a matriz do operador linear
T é diagonal. Em outras palavras, a matriz de T na base C é semelhante a uma
matriz diagonal. Note que o mesmo não ocorreu com o operador S. Vamos, a partir
de agora, estudar os operadores que, como T, podem ser “diagonalizados”.

Definição: Seja Vn um espaço vetorial real (ou complexo) de dimensão finita. Um


operador T : V −→ V é dito diagonalizável se, e somente se, existe uma base de V
formada por vetores próprios de T.

Se B = {e1 , e2 , · · · , en } for uma base formada por auto-vetores de T, então

 
λ1 0 0 ··· 0
 
 0 λ2 0
 ··· 0 
(T)B =  0 0 λ3 ··· 0 , sendo λi os valores próprios de T

. .. .. .. .. 
 .. . . . .
 
0 0 0 ··· λn

Assim:
pT (λ) = (λ1 − λ)(λ2 − λ) · · · (λn − λ)

Ou seja: o polinômio característico de T se decompõe como um produto de fatores lineares.


Os escalares λ1 , λ2 , · · · , λn não são necessariamente dois a dois distintos.

Observação: Valem as seguintes Proposições:

1. Seja T ∈ L(V), sendo Vn um espaço vetorial sobre K (com K = R ou C). Suponha


que as raízes do polinômio característico pT (λ) estejam todas em K (o que sempre
acontece quando K = C). Então:

T é diagonalizável ⇐⇒ para cada valor próprio λi de T, tem-se que a


multiplicidade algébrica de λi é igual sua multiplicidade geométrica (isto é, igual a
dim V(λi )).

2. Auto-vetores associados a auto-valores distintos são LI. Assim, se T ∈ L(Vn ) admite


n auto-valores distintos, T é diagonalizável.

193
Note que: para o resultado dado em [2.] não vale a volta; isto é, T pode ter auto-valores
coincidentes e ainda assim ser diagonalizável, como mostra o exemplo a seguir:

Exemplo: Seja T : R3 −→ R3 o operador linear tal que sua matriz em relação à base
canônica C do R3 seja dada por:

 
3 0 −4
(T)C = 0 3 5 
 

0 0 −1

Dessa forma:

 
3−λ 0 −4
(T)C − λ I3 =  0 3−λ 5  =⇒ pT (λ) = (3 - λ)2 (-1-λ)
 

0 0 −1 − λ

Logo:

( (
λ1 = −1 λ2 = 3
r1 = 1 r2 = 2

auto-vetores associados:

para λ1 = -1: Seja v1 = (x ,y, z) 6= 0 um auto-vetor associado ao auto-valor λ1 = -1.


Então:

    
4 0 −4 x 0 (
x=z
0 4 5  y = 0 ⇐⇒
    
4y = −5z
0 0 0 z 0

e portanto v1 = (z, - 5z
4
, z) = z
4
(4, −5, 4)
| {z }
v1

Isto é:

194
(
V(−1) = [(4, −5, 4)]
s1 = dimV(−1) = 1 = r1

para λ2 = 3: Seja v = (x, y, z) 6= 0 um auto-vetor associado ao auto-valor λ2 = 3.


Então:

    
0 0 −4 x 0 (
x, y : quaisquer
0 0 5  y = 0 ⇐⇒
    
z=0
0 0 −4 z 0

e portanto v = (x, y, 0) = x(1, 0, 0) + y(0, 1, 0), para quaisquer x, y ∈ R, não


simultaneamente nulos. Observe que considerando:
x=1 e y=0 =⇒ v2 = (1, 0, 0)
x=0 e y=1 =⇒ v3 = (0, 1, 0)

o que significa que v2 = (1, 0, 0) e v3 = (0, 1, 0) são dois auto-vetores LI associados


ao auto-valor λ2 = 3, cuja multiplicidade algébrica é 2.

Isto é:
(
V(3) = [(1, 0, 0), (0, 1, 0)]
s2 = dimV(3) = 2 = r2

Dessa forma, B = {v1 , v2 , v3 } é uma base do R3 formada apenas por auto-vetores de T,


o que significa que T é diagonalizável e além disso

 
−1 0 0
(T)B =  0 3 0
 

0 0 3

Note que:

 
4 1 0
(M)C,B =  5 0 1
 

−4 0 0

195
é a matriz tal que

. .
(T)B = (MC,B )−1 (T)C (MC,B )

De fato: (faça esses cáculos!!)

Observação: Sejam A ∈ Mn (R) e B a base canônica do Rn . Existe um operador linear


T ∈ L(Rn ) tal que a matriz (T)B = A. A matriz A é dita diagonalizável se, e somente
se, T é diagonalizável; isto é, se, e somente se, existe uma base C do Rn tal que (T)
!C
−3 4
é diagonal. A base C é formada pelos auto-vetores de T. Assim, a matriz é
−1 2
diagonalizável.
!
4 4
Exemplo: Considere a matriz A = . Encontre:
1 4

1. o polinômio característico de A;
!
4−λ 4
p(λ) = det(A - λ I2 ) = det = (4 - λ)2 - 4 = 16 - 8 λ + λ2 - 4 =
1 4−λ
= λ - 8 λ + 12 = (λ - 2)(λ - 6)
2

2. os auto-valores de A;
Os auto-valores de A são as raízes do seu polinômio característico. Mas:
p(λ) = 0 ⇐⇒ (λ - 2)(λ - 6) = 0 ⇐⇒ λ1 = 2 ou λ2 = 6

3. os auto-vetores de A;
para λ1 = 2 : seja 0 6= u = (x, y) um auto-vetor associado ao auto-valor
λ1 = 2. Então:
! ! ! ! ! !
4−2 4 x 0 2 4 x 0
= ⇐⇒ = ⇐⇒
1 4−2 y 0 1 2 y 0
! ! (
2x + 4y 0 (2x + 4y) = 0
⇐⇒ = ⇐⇒ ⇐⇒ x + 2y = 0 ⇐⇒
x + 2y 0 (x + 2y) = 0
⇐⇒ u = (-2y, y) = -y(2, -1)

196
para λ2 = 6 : seja 0 6= v = (x, y) um auto-vetor associado ao auto-valor
λ2 = 6. Então:
! ! ! ! ! !
4−6 4 x 0 −2 4 x 0
= ⇐⇒ = ⇐⇒
1 4−6 y 0 1 −2 y 0
! ! (
−2x + 4y 0 (−2x + 4y) = 0
⇐⇒ = ⇐⇒ ⇐⇒ x − 2y = 0 ⇐⇒
x − 2y 0 (x − 2y) = 0
⇐⇒ v = (2y, y) = y(2, 1)
e portanto u = (2, -1) e v = (2, 1) são os auto-vetores associados à matriz A.

4. uma matriz M inversível que diagonaliza a matriz A;


Basta considerarmos a matriz M cujas colunas são formadas pelas coordenadas dos
auto-vetores de A encontrados no item anterior; isto é
!
2 2
M=
−1 1

5. uma matriz D diagonal semelhante à matriz A.


Basta considerarmos a matriz diagonal D cujos elementos da diagonal principal são
os auto-valores de A encontrados no item 2; isto é
!
2 0
D=
0 6

6.3 Polinômio Minimal

Queremos saber se é possível decidir se um operador linear é diagonalizável ou não, sem


que para isso tenhamos que calcular seus auto-vetores. Já vimos que:

dim V = n
T : V −→ V : linear =⇒ T é diagonalizável
T admite n auto − valores distintos

197
No caso geral, a resposta a esta pergunta está ligada ao aspecto de um polinômio, que
chamaremos de polinômio minimal do operador linear T.

Definição: Sejam p(x) = an xn + an−1 xn−1 + · · · + a0 x0 um polinômio e A uma matriz


quadrada de ordem p. Então p(A) é a matriz

p(A) = an An + an−1 An−1 + · · · + a0 Ip

Quando p(A) = 0, dizemos que o polinômio p anula a matriz


! A. Assim, considerando,
−1 4
por exemplo, p(x) = x2 - 9, q(x) = 2x + 3 e A = teremos que p anula A mas
2 1
q não anula A (faça esses cálculos!!).

Definição: Seja A uma matriz quadrada. O polinômio minimal de A é um polinômio

m(x) = 1.xk + ak−1xk−1 + ak−2xk−2 + · · · + a1 x + a0

tal que:

• (i) m(A) = 0; isto é, m anula a matriz A;

• (ii) m(x) é o polinômio de menor grau entre aqueles que anulam a matriz A.

Observe que: o coeficiente do termo de maior grau do polinômio minimal de uma matriz
é sempre igual a 1.

A seguir, daremos alguns resultados sobre polinômio minimal que nos levarão a um pro-
cedimento que possibilita decidir se um operador é diagonalizável ou não, sem que seja
necessário calcular os auto-vetores do operador.

Lembre que: A notação Vn indica que o espaço vetorial V tem dimensão finita n.

Teorema 1: Sejam T : Vn −→ Vn um operador linear e B uma base de V. Então:

T é diagonalizável ⇐⇒ o polinômio minimal de (T)B é da forma

m(x) = (x - λ1 )(x - λ2 ) · · · (x - λr ), com λ1 , λ2 , · · · , λr dois a dois distintos.

198
Observação: O Teorema 1 afirma que um operador linear T é diagonalizável se, e somente
se, seu polinômio minimal se escreve como produto de fatores lineares distintos. Dessa
forma, o problema de determinar se o operador T é ou não diagonalizável reduz-se a achar
seu polinômio minimal.

Teorema 2 (Teorema de Cayley- Hamilton):


T : Vn −→ Vn : linear
B : base de V =⇒ p((T)B ) = 0
p(x) : polinômio caracterß́stico de T

Ou seja: o polinômio característico de T anula a matriz (T)B . Isto significa que o


polinômio característico é um “candidato”a polinômio minimal de (T)B .

Teorema 3: As raízes do polinômio minimal são as mesmas raízes do polinômio carac-


terístico.

Observação: Os Teoremas 2 e 3, juntos, ensinam a achar o polinômio minimal de um


operador linear T : V −→ V: o polinômio minimal deve ter grau menor ou igual ao grau
do polinômio característico e deve ter as mesmas raízes que o polinômio característico.

Exemplo: Consideremos um operador linear T : V −→ V e suponhamos que o seu


polinômio característico seja dado por pT (λ) = (λ - 3)2 .(λ - 1)3 .(λ + 5). Então o polinômio
minimal de T será um dos seguintes polinômios:

• p1 (x) = (x - 3).(x - 1).(x + 5); grau p1 (x) = 3;

• p2 (x) = (x - 3)2 .(x - 1).(x + 5); grau p2 (x) = 4;

• p3 (x) = (x - 3).(x - 1)2 .(x + 5); grau p3 (x) = 4;

• p4 (x) = (x - 3)2 .(x - 1)2 .(x + 5); grau p4 (x) = 5;

• p5 (x) = (x - 3).(x - 1)3 .(x + 5); grau p5 (x) = 5;

• p6 (x) = (x - 3)2 .(x - 1)3 .(x + 5); grau p6 (x) = 6.

Como o polinômio minimal é o de menor grau que anula (T)B , verificamos se p1 ((T)B ))
= 0. Em caso afirmativo, p1 (x) será o polinômio minimal de T e T será diagonalizável.
Caso contrário, testamos p2 (x), e assim por diante.

199
Note que: T será diagonalizável se, e somente se, seu polinômio minimal for p1 (x).

O Teorema 1 pode ser reescrito da seguinte forma:

Teorema: Sejam λ1 , λ2 , · · · , λr todos os auto-valores distintos do operador linear


T : V −→ V. Então:

T é diagonalizável ⇐⇒ p(x) = (x - λ1 ).(x - λ2 ).· · · (x - λr ) anula a matriz de T.

Exemplo: Verifique se o operador linear T : R4 −→ R4 definido por:


T(x, y, z, t) = (3 x - 4 z, 3 y + 5 z, -z, -t) é diagonalizável.

Solução: Seja C a base canônica do R4 . Então:

 
3 0 −4 0
 
0 3 5 0
(T)C =  
0
 0 −1 0 

0 0 0 −1

e portanto

 
3−λ 0 −4 0
 
 0 3 − λ 5 0
(T)C − λ I4 = 


 0
 0 −1 − λ 0 

0 0 0 −1 − λ

e daí segue que o polinômio característico de T é:

pT (λ) = det((T)C − λ I4 ) = (3 - λ)2 (-1 - λ)2

e dessa forma os auto-valores de T são:


( (
λ1 = −1 λ2 = 3
r1 = 2 r2 = 2

Assim, o polinômio minimal de T é um dos seguintes polinômios:

200
• p1 (x) = (x + 1).(x - 3); grau p1 (x) = 2;

• p2 (x) = (x + 1).(x - 3)2 ; grau p2 (x) = 3;

• p3 (x) = (x + 1)2 .(x - 3); grau p3 (x) = 3;

• p4 (x) = (x + 1)2 .(x - 3)2 ; grau p4 (x) = 4.

Temos que:
   
0 0 −4 0 4 0 −4 0
   
0 0 5 0
p1 ((T)C ) = ((T)C - 3I3 ).((T)C + I3 ) =   . 0 4 5 0

 = 0
0
 0 −4 0 

0 0 0 0 
0 0 −4 0 0 0 0 0

Logo, p1 (x) é o polinômio minimal de T e portanto T é diagonalizável. Ou seja, existe


uma base B do R4 formada por auto-vetores de T. Com relação a essa base, temos que:

 
−1 0 0 0
 
 0 −1 0 0
(T)B = 
 
 0 0 3 0

0 0 0 3

Qual é a base B?

Cálculo dos auto-vetores:

para λ1 = -1: Seja u = (x, y, z, t) 6= 0 um auto-vetor associado ao auto-valor


λ1 = -1. Então:

    
4 0 −4 0 x 0  
      4x − 4z = 0  x = z

0 4 5 0 y = 0 ⇐⇒
    

0 4y + 5z = 0 ⇐⇒ y = − 5z
4
0 0 0  z  0  
0.t = 0 t : qualquer
      
0 0 0 0 t 0

e portanto u = (z, - 5z
4
, z, t) = 5z
4
(4, -5, 4, 0) + t(0, 0, 0, 1), para quaisquer z, t ∈ R, não
simultaneamente nulos. Observe que considerando:

201
z = 54 e t = 0 =⇒ u1 = (4, −5, 4, 0)
z = 0 e t = 1 =⇒ u2 = (0, 0, 0, 1)

Logo:
(
V(−1) = [u1 , u2 ] = [(4, −5, 4, 0), (0, 0, 0, 1)]
s1 = dimV(−1) = 2 = r1

Note que:

T(4, −5, 4, 0) = (−4, 5, −4, 0) = −1.(4, −5, 4, 0)


T(0, 0, 0, 1) = (0, 0, 0, −1) = −1.(0, 0, 0, 1)

para λ2 = 3: Seja v = (x, y, z, t) 6= 0 um auto-vetor associado ao auto-valor


λ2 = 3. Então:

     
0 0 −4 0 x 0 

 −4z = 0 (
     
0 0 5 0 y 0  5z = 0 z = t = 0
    =   ⇐⇒ ⇐⇒
0
 0 −4 0   z  0
     

 −4z = 0 x, y : quaisquer

0 0 0 −4 t 0  −4t = 0

e portanto v = (x, y, 0, 0) = x(1, 0, 0, 0) + y(0, 1, 0, 0), para quaisquer x, y ∈ R, não


simultaneamente nulos. Observe que considerando:

x = 1 e y = 0 =⇒ v1 = (1, 0, 0, 0)
x = 0 e y = 1 =⇒ v2 = (0, 1, 0, 0)

Logo:
(
V(3) = [v1 , v2 ] = [(1, 0, 0, 0), (0, 1, 0, 0)]
s2 = dimV(3) = 2 = r2

Note que:

T(1, 0, 0, 0) = (3, 0, 0, 0) = 3.(1, 0, 0, 0)


T(0, 1, 0, 0) = (0, 3, 0, 0) = 3.(0, 1, 0, 0)

202
Portanto, a base B em relação à qual a matriz de T é diagonal é a base

B = {u1 , u2 , v1 , v2 } = {(4, -5, 4, 0), (0, 0, 0, 1), (1, 0, 0, 0), ((0, 1, 0, 0)}

6.4 Aplicações da Diagonalização

6.4.1 Potências de uma Matriz

Seja A ∈ Mn (R). As potências de A são definidas recursivamente da seguinte forma:


A0 = I, A1 = A, A2 = A.A, A3 = A2 .A, . . ., Ap = Ap−1 .A.

O cálculo de Ap pode ser muito trabalhoso, se p for um número grande. Mas: se a matriz
A é uma matriz diagonalizável, existe uma matriz inversível M tal que M−1 AM = D, sendo
D = diag(λ1 , λ2 , . . ., λn ) (lembre que diag(λ1 , λ2 , . . ., λn ) representa a matriz diagonal
tal que aii = λi , para i = 1, 2, . . ., n).

Nessas condições, é fácil ver que D2 = diag(λ21 , λ22 , . . ., λ2n ), D3 = diag(λ31 , λ32 , . . ., λ3n ), . . .,
Dp = diag(λp1 , λp2 , . . ., λpn ).

Mas: D = M−1 AM ⇒ A = MDM−1 e, além disso, Ap = MDp M−1 (faça os cálculos dessa
última igualdade para p = 2, 3, 4, para se convencer!!).
!
4 4
Exemplo 1: Calcule Ap para A = .
1 4
!
2 2
Solução: A matriz M = diagonaliza a matriz A (faça os cálculos), isto é,
−1 1
!
p
2 0
M−1 AM = = diag(2, 6) e portanto A = MDM−1 . Logo, Ap = M M−1 = .....
0 6p
(continue esses cálculos).

203
Exercício 1: Calcule Ap para as seguintes matrizes:

   
0 1 1 0 7 −6
(i) A = 1 0 1 (ii) A = −1 4 0 
   

1 1 0 0 2 −2
   
0 1 5 9 −1 −4 −2 −2
   
2 1 6 8 −4 −1 −2 −2
(iii) A = 
0
 (iv) A = 
 
 0 0 3  2 2 1 4 

0 0 1 −2 2 2 4 1

6.4.2 Noções Sobre Séries de Matrizes

Seja A1 , A2 , . . ., Ak , . . . uma sequência de matrizes reais de tipo mxn. Suponha que


(k)
Ak = (aij ), k = 1, 2, 3, . . . . Dizemos que a sequência dada converge para a matriz
(1) (2) (k)
B = (bij ) de tipo mxn se as sequências de números reais aij , aij , . . ., aij , . . . convergem
para bij , para todo i = 1, 2, . . ., m e todo j = 1, 2, . . ., n.

Por exemplo,
! ! ! !
1 0 1/2 0 1/3 0 1/n 0
, , , . . ., ...
0 0 0 0 0 0 0 0
!
0 0
converge para a matriz pois 1, 1/2, 1/3, . . . converge para 0 (e, obviamente, a
0 0
sequência 0, 0, 0, . . . também converge para 0).

Se a sequência A1 , A1 + A2 , A1 + A2 + A3 , . . . converge para uma matriz B, dizemos


que a série infinita A1 + A2 + A3 + . . . + An + . . . é convergente para a matriz B,
que é chamada soma da série dada.

204
Prova-se que: Se A ∈ Mn (R), a série exponencial

A2 A3 Ap X Ak
exp(A) = I + A + + + ... + + ... =
2 3! p! k=0
k!

é convergente.

Notação: exp(A) = eA

Observe que: como na secção 5.4.1, o cálculo de eA pode ser bastante trabalhoso. Porém
se A for diagonalizável, então Ap = MDp M−1 , com D = diag(λ1 , λ2 , . . ., λn ) e então:

∞ ∞ ∞
!
X Ak X MDk M−1 X Dk
eA = = = M M−1 = M.eD .M−1 =
k=0
k! k=0
k! k=0
k!

= M.diag(eλ1 , eλ2 , . . ., eλn )M−1 .


! !
4 4 2 0
Exemplo 2: Se A = então D =
1 4 0 6

e assim
! ! ! !
e2 0 1 2 2 e2 0 1 −2
eA = M 6
M−1 = = ...
0 e 4 −1 1 0 e6 1 2

(continue esses cálculos).

Exercício 2: Calcule eA para as matrizes dadas no Exercício 1.

6.5 Operadores Diferenciais

Denotemos por C ∞ (R) o conjunto de todas as funções reais definidas em R e que admitem
derivadas de todas as ordens. Definindo-se nesse conjunto as operações usuais de adição
de funções e multiplicação de uma função por um número real, (C ∞ (R), + , ) é um .
espaço vetorial real de dimensão infinita.

205
Note que: se f(t) ∈ C ∞ (R), então para todo n ≥ 0, f0 (t), f00 (t), · · · , f(n) (t) ∈ C ∞ (R) e
portanto a combinação linear

a0 f(t) + a1 f0 (t) + a2 f00 (t) + · · · + an f(n) (t) ∈ C ∞ (R)

Consideremos o operador definido por:

D : C ∞ (R) −→ C ∞ (R)

D(f(t)) = f0 (t)

A aplicação: C ∞ (R) −→ C ∞ (R)

f(t) 7−→ a0 f(t) + a1 f0 (t) + a2 f00 (t) + · · · + an f(n) (t) ∈ C ∞ (R)

com an 6= 0, é chamada operador diferencial de grau n, com coeficientes a0 , a1 · · · ,


an .

Note que: o operador acima é dado por

a0 I + a1 .D + a2 .D2 + · · · + an Dn

Observação: Em geral, na expressão acima, omitimos o operador I e escrevemos, mais


simplesmente, a0 + a1 .D + a2 .D2 + · · · + an Dn

Exemplo: (3 - 7D)(f(t)) = 3f(t) - 2D(f(t)) = 3f(t) + 7f0 (t).

Assim, se considerarmos, por exemplo,

• f(t) = 2e5t , teremos:


(3 - 7D)(f(t)) = (3 - 7D)(2e5t ) = 3.(2e5t ) + 7.(2e5t )0 = 6.e5t - 7.(2.5e5t ) =
= 6.e5t - 70.e5t = - 64.e5t

• f(t) = t3 - 2t2 + 3t - 1, teremos:


(3 - 7D)(f(t)) = (3 - 7D)(t3 - 2t2 + 3t - 1) = 3.(t3 - 2t2 + 3t - 1) +
- 7D(t3 - 2t2 + 3t - 1) = 3.(t3 - 2t2 + 3t - 1) - 7(t3 - 2t2 + 3t - 1)0 =
= 3.(t3 - 2t2 + 3t - 1) - 7(3t2 - 4t + 3) = 3t3 - 27t2 + 37t - 24

206
Exercício: Aplicar à função f(t) = cos ωt os operadores: D, D2 , D2 + ω, D2 + ω 2 , sendo
ω ∈ R.

Solução:

ω .sen ωt
• • D(f(t)) = D(cos ωt) = -|{z}
real

• D2 (f(t)) = D(D(f(t)) = D(cos ωt) = D(-ω sen ωt) = -|{z}


ω 2 . cos ωt
real

Logo: -ω é auto-valor de D associado ao auto-vetor cos ωt.


2 2

• (D2 + ω)(f(t)) = (D2 + ω)(cos ωt) = -ω 2 .cos ωt + ω.cos ωt = (-ω 2


| {z+ ω}).cos ωt
real

Logo: -ω + ω é auto-valor de D + ω associado ao auto-vetor cos ωt.


2 2

• (D2 + ω 2 )(f(t)) = (D2 + ω 2 )(cos ωt) = -ω 2 .cos ωt + ω 2 .cos ωt = 0


Logo: cos ωt ∈ Ker(D2 + ω 2 )

6.5.1 Aplicação da Diagonalização: Sistemas de Equações Dife-


renciais Ordinárias com Coeficientes Constantes

Desenvolveremos este tópico através de um exemplo.

Exemplo: Consideremos o seguinte sistema de EDO:


 3x1 (t)
 + x3 (t) = x1 0 (t)
S= 2x2 (t) = x2 0 (t)

x1 (t) + 3x3 (t) = x3 0 (t)

207
sendo xi (t) (i = 1, 2, 3) funções reais definidas num intervalo I ∈ R no qual essas funções
são diferenciáveis.

O sistema homogêneo associado ao sistema S é o sistema S1 dado por:



 3x1 (t)
 + x3 (t) = 0
S1 : 2x2 (t) =0

x1 (t) + 3x3 (t) = 0

Vamos tentar resolver esse sistema.


   0 
x1 (t) x1 (t)
Se X(t) = x2 (t) então X (t) = x2 (t)
0
   0 

x3 (t) x3 0 (t)

e dessa forma o sistema S pode ser escrito na forma

X0 (t) = AX(t)

 
3 0 1
sendo A = 0 2 0 a matriz do sistema homogêneo associado ao sistema S.
 

1 0 3

Vamos estudar a matriz A:

Polinômio Característico de A:
 
3−λ 0 1
pA (λ) = det  0 2−λ 0  = (3 - λ)2 (2 - λ) - (2 - λ) =
 

1 0 3−λ

= (2 - λ)[(3 - λ)2 - 1] = (2 - λ)[9 - 6λ + λ2 - 1] = (2 - λ)[8 - 6λ + λ2 ] = (2 - λ)(λ - 2)(λ - 4) =


= (2 - λ)(2 - λ)(4 - λ) = (2 - λ)2 (4 - λ)

Auto-valores de A:
( (
λ1 = 2 λ2 = 4
r1 = 2 r2 = 1

208
Auto-vetores Associados:
( (
V(2) = [(1, 0, −1), (0, 1, 0)] V(4) = [(1, 0, 1)]
dimV(2) = 2 dimV(4) = 1

Logo, fazendo-se: v1 = (1, 0, -1), v2 = (0, 1, 0) e v3 = (1, 0, 1), temos que


{v1 , v2 , v3 } é uma base do R3 formada apenas por auto-vetores de A. Portanto, A é
diagonalizável e chamando-se de P a matriz cujas 1a , 2a e 3a colunas são formadas, res-
pectivamente, pelas coordenadas de v1 , v2 e v3 ; isto é,

 
1 0 1
P =  0 1 0
 

−1 0 1

então:

 
2 0 0
D = P−1 .A.P = 0 2 0
 

0 0 4

Consideremos

Q = P−1 e Y(t) = Q X(t) (portanto, X(t) = Q−1 Y(t))

então:

Y0 (t) = QX0 (t) = Q.AX(t) = QA.Q−1 Y(t)


| {z }
AX(t)

e como Q = P−1 , segue que

Y0 (t) = (P−1 AP).Y(t) = D.Y(t)

Assim:

209
 
2 0 0
Y0 (t) = 0 2 0.Y(t)
 

0 0 4

y01 (t)
      
2 0 0 y1 (t) 2y1 (t)
y2 (t) = 0 2 0 y2 (t) = 2y2 (t)
 0      

y03 (t) 0 0 4 y3 (t) 4y3 (t)

e daí segue que

y01 (t) = 2y1 (t) y1 (t) = c1 e2t


y02 (t) = 2y2 (t) =⇒ y2 (t) = c2 e2t
y03 (t) = 4y3 (t) y3 (t) = c3 e4t

Dessa forma:


  2t 
1 0 1 c1 e
X(t) = Q .Y(t) = P.Y(t) =  0 1 0 c2 e 
−1    2t 

−1 0 1 c3 e4t

e daí, finalmente, obtemos que:

   
x1 (t) c1 e2t + c3 e4t
x2 (t) =  c2 e2t
   

2t 4t
x3 (t) −c1 e + c3 e

Exemplo:

• (a) Resolva o sistema de EDO X0 (t) = A.X(t), quando


 
1 0 1
A = 0 1 0
 

1 0 1

• (b) Encontre a solução para a qual X(0) = (0, 1, -1)

210
Solução:

 
1−λ 0 1
• (a) pA (λ) = det 0 1−λ 0  = λ(1 − λ)(λ − 2)
 

1 0 1−λ

auto-valores: λ1 = 0, λ2 = 1 e λ3 = 2

auto-vetores:
λ1 (t) = 0 =⇒ V(0) = [(1, 0, −1)]
λ2 (t) = 1 =⇒ V(1) = [(0, 1, 0)]
λ3 (t) = 2 =⇒ V(2) = [(1, 0, 1)]

Sejam: v1 = (1, 0, -1), v2 = (0, 1, 0) e v3 = (1, 0, 1). Como {v1 , v2 , v3 } é LI, segue
que A é diagonalizável. Considerando:
 
1 0 1
P =  0 1 0
 

−1 0 1

temos que:
     
1 0 1 c1 c1 + c3 e2t
X(t) =  0 1 0 .  c2 et  =  c2 et
     

2t 2t
−1 0 1 c3 e −c1 + c3 e

    
c1 + c 3 0  c1 + c 3 = 0

 hip  
• (b) X(0) =  c2  =  1  ⇐⇒ c2 = 1


−c1 + c3 −1 −c1 + c3 = −1

1
Dessa forma: c1 = = -c3 e c2 = 1
2
e portanto
1 1 2t
 
− e
 2 2 
 
 
X(t) = 
 
t
 e 

 
 
 1 1 
− − e2t
2 2
211
Exercícios

1. Determine os auto-valores e auto-vetores do operadores lineares:

(a) T(x, y) = (x + y, x - y).

(b) T(1, 0) = (0, -1) e T(0, 1) = (1, 0).

(c) T(1, 0, 0) = (2, 0, 0), T(0, 1, 0) = (2, 1, 2) e T(0, 0, 1) = (3, 2, 1).

2. Determine o polinômio característico e os auto-valores das matrizes:


 
! ! 2 1 0 0
 
2 0 −1 −3 0 2 0 0
, e  
1 1 −1 1 0 0 1 1
 
0 0 −2 4

3. Encontre os auto-valores do operador T ∈ L(R2 ) cuja matriz é


!
1 1
0 1

Neste caso existem dois auto-vetores linearmente independentes?

4. Determinar em cada caso, se possível, uma matriz inversível M de modo que M−1 A
M seja diagonal.
 
0 1 5 9  
  2 0 4
2 1 6 8 , 3 −4 12
  
0 0 0 3
1 −2 5
 
0 0 1 −2

5. Determine uma matriz diagonal semelhante à matriz


 
3 −1 −1
−6 1 2
 

2 1 0

212
6. Seja F ∈ L(R3 ) cuja matriz em relação à base canônica é
 
2 2 0
A = 2 −1 0
 

0 0 2

(a) Encontre os auto-valores de F.

(b) Determine uma base ortonormal do R3 em relação à qual a matriz de F seja diagonal.

(c) Determine uma matriz ortogonal M (isto é, M−1 = Mt ) tal que Mt A M é a matriz
diagonal obtida em (b).

7. Seja G ∈ L(R3 ) definido por G(x, y, z) = (x + y + z, x + y + z, x + y + z).

(a) Encontre os auto-valores de F.

(b) Determine uma base ortonormal B do R3 tal que [F]B seja diagonal.

(c) Determine a matriz da mudança de base canônica do R3 para B.

8. Determine exp(A) sendo:


 
  0 1 5 9
0 7 −6  
2 1 6 8
−1 4 0  e
   
0 0 0 3
0 2 −2
 
0 0 1 −2

9. Aplicar o operador diferencial D3 + D2 + D - 1 às funções f(t) = sen t, g(t) = cos t,


(f + g)(t) e h(t) = t3 + t2 + t - 1.

10. Aplicar os operadores diferenciais D2 + ω 2 e D2 + ω 3 às seguintes funções:


f(t) = sen ωt, g(t) = cos ωt. A seguir, mostre que toda combinação linear com coe-
ficientes reais das funções f(t) = sen ωt, g(t) = cos ωt pertence ao núcleo do operador
D2 + ω 2 .

11. Mostre que toda função do tipo k exp(at), k ∈ R, pertence ao núcleo do operador
D - a.

213
12. Mostre que as funções f(t) = sen t, g(t) = cos t são soluções linearmente independen-
tes da equação y0 + y0 = 0. Determine a solução geral de y0 + y0 = 0 e todas as soluções de
y00 + y0 = t.

13. Determine a solução geral da equação diferencial que satisfaz as condições indicadas:


(a) y00 + 2 y = 0, y0 (0) = 2 2 e y(0) = 2.

(b) y00 - 3 y0 + 2 y = 0, y0 (0) = 2 e y(0) = 3.

214
Referências Bibliográficas

[1] ANTON, H., Álgebra Linear. Rio de Janeiro, Editora Câmpus, 1978.

[2] CALLIOLI, C.A.; DOMINGUES, H.H. e COSTA, R.C.F., Álgebra Linear e Aplica-
ções. São Paulo, Atual Editora, 1990.

[3] LIPSCHUTZ, S., Álgebra Linear. São Paulo, McGraw-Hill do Brasil, 1972. (Coleção
Schãum)

215

Você também pode gostar