Você está na página 1de 107

ÁLGEBRA LINEAR I

Departamento de Estrutura Matemática - IME - UERJ


Prof. Jessica Gavia
Conteúdo

1 MATRIZES, SISTEMAS LINEARES E DETERMINANTES 3


1.1 Definições e Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Tipos de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Operações com Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.1 Adição, Multiplicação por escalar e Multiplicação . . . . . . . . . . . . . . 7
1.3.2 Potenciação e Transposição . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.3 Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4 Escalonamento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.4.1 Operações Elementares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.4.2 Escalonamento, Posto e Nulidade . . . . . . . . . . . . . . . . . . . . . . . 22
1.4.3 Matrizes Elementares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.4.4 Cálculo da Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.5 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.5.1 Definição Geral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.5.2 Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.5.3 Desenvolvimento de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.5.4 Adjunta Clássica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.5.5 Interpretação Geométrica no Plano . . . . . . . . . . . . . . . . . . . . . . . 38
1.6 Sistemas de Equações Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.6.1 Eliminação de Gauss e de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . 40
1.6.2 Sistemas Homogêneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
1.6.3 Solução por Inversão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
1.6.4 Regra de Crammer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

2 ESPAÇOS VETORIAIS 50

1
2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.2 Definições e Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.3 Subespaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.4 Combinação Linear e Espaço gerado . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.5 Independência e Dependência Linear . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.6 Base e Dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
2.7 Espaços Associados a uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2.8 Soma e Interseção de subespaços . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
2.9 Coordenadas com relação a uma base . . . . . . . . . . . . . . . . . . . . . . . . . 76

3 TRANSFORMAÇÕES LINEARES 82
3.1 Definição e Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.2 Núcleo e Imagem de uma Transformação Linear . . . . . . . . . . . . . . . . . . . . 86
3.3 Operações com TLs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.4 Transformações Injetoras, Sobrejetoras e Isomorfismos . . . . . . . . . . . . . . . . 94
3.5 Matriz Associada a uma Transformação Linear . . . . . . . . . . . . . . . . . . . . 98

Bibliografia Básica 106

2
Capı́tulo 1

MATRIZES, SISTEMAS LINEARES E


DETERMINANTES

1.1 Definições e Exemplos


Sejam m e n naturais não nulos. Uma matriz de ordem m × n ou simplesmente matriz é um elemento
representado na forma de arranjo retangular com m linhas e n colunas, composto por números reais
ou complexos.
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A =  .. ..  .
 
..
 . ... . . 
am1 am2 . . . amn

Considerando 1 ≤ i ≤ n, 1 ≤ j ≤ m, o elemento aij é um número real ou complexo que representa o


elemento localizado na posição (i,j), isto é na i-ésima linha e j-ésima coluna, esses elementos também
são chamados entradas da matriz.
Estaremos tratando somente com matrizes com entradas reais. Em geral, nestas notas estamos res-
tritos aos números reais, que também serão chamados escalares, embora esse conceito seja mais
abrangente.
Uma matriz também é denotada como,

A = Am×n = [aij ]m×n .

A representação dada acima é útil e suficiente para a manipulação com matrizes, embora não é uma
definição. A definição do elemento matriz, apresentada abaixo, tem importância pela rigorosidade
com que os conceitos matemáticos devem ser introduzidos, mas não é utilizada na manipulação com
matrizes.

D EFINIÇ ÃO 1.1. Dados inteiros m ≥ 1 e n ≥ 1, definimos uma matriz A de ordem m × n sobre R

3
como a funçõ da forma:
{1, · · · , m} × {1, · · · , n} → R
.
(i, j) → aij

E XEMPLO 1.2.  
40 30 10 0
A3×4 =  0 50 30 10 .
5 20 40 5

Matrizes podem representar dados de diversos tipos de problemas concretos como: produção de di-
ferentes itens em diferentes anos, preços de diferentes itens em certas lojas, composição de materiais
com relação certos elementos quı́micos, etc. Em geral, usamos matrizes para registrar certos dados
apresentados por diferentes objetos.

E XEMPLO 1.3. Consideremos duas ligas de aço A e B, com componentes adicionais: carbono (C),
Silı́cio (Si), Manganês (Mn), Cromo (Cr), Nı́quel (Ni), Molibdênio (Mo) que são dadas em % na
tabela abaixo:

Liga %C %Si %Mn %Ni %Cr %Mo


Liga A 0,85 1,50 1,50 0,50 1,30 0,30
Liga B 0,84 2,00 1,48 0,48 1,32 0,28

estes dados podem ser representados pela matriz,


 
0, 85 1, 50 1, 50 0, 50 1, 30 0, 30
.
0, 84 2, 00 1, 48 0, 48 1, 32 0, 28

E XEMPLO 1.4. Um grupo de 5 alunos da disciplina de matemática possuem as seguintes notas em 4


testes realizados num perı́odo letivo:

Alunos T1 T2 T3 T4
1 7,5 5,0 6,0 7,5
2 6,5 8,0 7,5 8,0
3 4,5 4,5 6,5 7,0
4 7,0 8,5 7,0 7,0
5 8,0 8,0 7,5 8,0

Sendo o peso de cada teste:

T1 T2 T3 T4
,
0,2 0,2 0,2 0,4

e as médias resultantes por aluno:

4
Alunos M
1 6,7
2 7,6
3 5,9
4 7,3
5 7,9

Neste caso os dados dos alunos nos diferentes testes e o peso dos testes podem ser representados pelas
matrizes N , P e M :
   
7, 5 5, 0 6, 0 7, 5   6, 7
 6, 5 8, 0 7, 5 8, 0  0, 2  7, 6 
   0, 2   
N =  4, 5 4, 5 6, 5 7, 0  P =
  0, 2 
 e M =  5, 9 
 
 7, 0 8, 5 7, 0 7, 0   7, 3 
0, 4
8, 0 8, 0 7, 5 8, 0 7, 9

E XEMPLO 1.5. Matrizes podem ser definidas através de regras para o cálculo de suas entradas, por
exemplo:

A = [aij ]2×4 , onde aij = (i − j) cos jπ, para todos i = 1, 2 e j = 1, 2, 3, 4;

daı́ obtemos:  
0 −1 2 −3
A= .
−1 0 1 −2

D EFINIÇ ÃO 1.6. A = [aij ] e B = [bij ] são matrizes iguais, se são da mesma ordem e,

aij = bij , para todos i, j.

1.2 Tipos de Matrizes


1. Matriz nula: é uma matriz de ordem qualquer, cujas entradas são todas nulas, esta matriz é
denotada 0m×n ou simplesmente 0.

2. Matriz linha: matriz com uma única linha.


 
A1×n = a11 . . . a1n .

3. Matriz coluna: matriz com uma única coluna.


 
a11
Am×1 =  ...  .
 
am1

5
4. Matriz quadrada: é uma matriz de ordem m × m (número de linhas e colunas iguais a m),
chamada matriz quadrada de ordem m.
 
a11 . . . a1m
 .. .. ..  .
Am×m = . . . 
am1 . . . amm

Consideremos uma matriz quadrada de ordem m, A = [aij ], chamamos de diagonal principal a


sequência de entradas:
a11 a22 . . . amm .

A diagonal secundária é a sequência de entradas:

a1m a2(m−1) . . . am1 .

Alguns tipos especiais de matrizes quadradas são:

5. Matriz diagonal: matriz quadrada A = [aij ], onde todas as entradas “fora” da diagonal princi-
pal são nulas, isto é aij = 0, para todo i 6= j.

6. Matriz identidade: é uma matriz diagonal, onde as entradas na diagonal são todas iguais a 1.
A matriz identidade de ordem m é denotada por Im .

7. Matriz triangular superior: matriz quadrada A = [aij ], onde todos os elementos “abaixo” da
diagonal principal são nulos, isto é aij = 0, para todo i > j.

8. Matriz triangular inferior: matriz quadrada A = [aij ], onde todos os elementos “acima” da
diagonal principal são nulos, isto é aij = 0, para todo i < j.

9. Matriz simétrica: matriz quadrada A = [aij ], com a propriedade aij = aji , para todo i, j (ou
seja que as entradas simétricas com relação à diagonal principal, são iguais).

10. Matriz anti-simétrica: matriz quadrada A = [aij ], com a propriedade aij = −aji , para todo
i, j.

O BSERVAÇ ÃO 1.7. Os elementos aii da diagonal de uma matriz anti-simétrica são nulos, pois aii =
−aii ⇒ aii = 0.

O BSERVAÇ ÃO 1.8. Uma matriz de ordem 1 × 1 será considerada também como um escalar.

N OTAÇ ÃO 1.9. O conjunto das matrizes de ordem m × n e entradas reais será denotado Mm×n (R),
se tratando de matrizes quadradas de ordem m a notação é Mm (R).

6
1.3 Operações com Matrizes

1.3.1 Adição, Multiplicação por escalar e Multiplicação


Dadas matrizes A = [aij ] e B = [bij ], de ordem m × n, definimos a matriz soma de A e B, denotada
A + B, como sendo a matriz de ordem m × n dada por:

A + B = [aij + bij ].

E XEMPLO 1.10. Dadas as matrizes:


     
1 −1 0 3 1 2
A = 4 0  e B = −2 0  , temos A + B = 2 0  .
2 1 1 −3 3 −2

P ROPRIEDADES 1.11. Sejam matrizes A, B e C, da mesma ordem. A soma de matrizes possui as


seguintes propriedades:
(a) Associativa: (A + B) + C = A + (B + C)
(b) Comutativa: A + B = B + A
(c) Matriz Nula: A + 0 = 0 + A = A, onde 0 é a matriz nula na ordem respectiva.
(d) Matriz Oposta: Para cada matriz A = [aij ] define-se a matriz oposta de A, denotada por −A, e
definida como −A = [−aij ]. A matriz −A é a única com a propriedade: A + (−A) = 0.

Para conferir as propriedades basta ver que os elementos de posição (i, j) do lado esquerdo e direito
das igualdades são iguais.

D EFINIÇ ÃO 1.12. Dadas matrizes da mesma ordem A = [aij ] e B = [bij ], define-se a matriz
diferença de A e B na forma usual, A − B = A + (−B) = [aij − bij ].

Multiplicação por Escalar

Dados uma matriz A = [aij ] de ordem m × n e um número real k, definimos a matriz multiplicação
por escalar de k e A como a matriz também de ordem m × n, dada por

kA = [kaij ].

E XEMPLOS 1.13.    
1 3 −1 −2 −6 2
−2 = ,
−2 0 1/2 4 0 −1
   
0, 2 0, 4 1 2 4
= .
−0, 2 0, 5 10 −2 5

7
P ROPRIEDADES 1.14. Sejam A e B matrizes da mesma ordem e k, k1 , k2 escalares. O produto de
matriz por escalar possui as seguintes propriedades:
(a) k(A + B) = kA + kB
(b) (k1 + k2 )A = k1 A + k2 A
(c) k1 (k2 A) = (k1 k2 )A
(d) 0A = 0
(e) 1A = A e −1A = −A.

Novamente as demonstrações são simples e consistem em verificar que elementos das posições (i, j)
em ambos os lados das igualdades são iguais.

E XEMPLO 1.15. Se A e B são matrizes da mesma ordem, pelas propriedades enunciadas temos:

5(4A − B) − 2A + 3B = 20A − 5B − 2A + 3B = 18A − 2B.

Multiplicação de Matrizes

Definiremos primeiro a multiplicação de uma matriz linha por uma matriz coluna, para isto conside-
remos a matriz linha L, de ordem 1 × n e a matriz coluna C, de ordem n × 1:
 
b1
   .. 
L = a1 . . . an , C =  .  ,
bn

definimos o produto das matrizes L e C, como o escalar:


 
b
   .1  Xn
L · C = a1 . . . an ·  ..  = a1 b1 + a2 b2 + . . . + an bn = ak bk ∈ R.
bn k=1

E XEMPLO 1.16.
 
  −2 √ √
4 12 2 · √1  = (4)(−2) + (12)(1) + (2)( 2) = 4 + 2 2.
2

Consideremos uma matriz A = [aij ]m×n e usemos a notação:

• Li (A) para a matriz linha composta pela i-ésima linha de A


 
Li (A) = ai1 . . . ain .

8
• Cj (A) para a matriz coluna composta pela j-ésima coluna de A
 
a1j
Cj (A) =  ...  .
 
amj

Agora, definiremos de forma geral o produto de matrizes. Sejam A = [aij ], uma matriz de ordem
m × n e B = [bij ], uma matriz de ordem n × p, a matriz produto, A · B, é a matriz de ordem m × p
definida como:

k=n
X
A · B = [aij ]m×n [bij ]n×p = [cij ]m×p , onde cij = Li (A) · Cj (B) = aik bkj ,
k=1

ou seja que cij é o produto da i-ésima linha de A e a j-ésima coluna de B.


E XEMPLOS 1.17. 1. Dadas as matrizes:
 
1 −1  
2 1
A = 4 0  e B= ,
−1 0
2 1 3×2 2×2

temos:
c11 = (1)(2) + (−1)(−1) = 3; c12 = (1)(1) + (−1)(0) = 1
c21 = (4)(2) + (0)(−1) = 8; c22 = (4)(1) + (0)(0) = 4
c31 = (2)(2) + (1)(−1) = 3; c22 = (2)(1) + (1)(0) = 2
 
3 1
logo: A · B = 8 4 .
3 2 3×2

2. Considere as matrizes A = [aij ]3×3 , onde aij = i + j − 2 e B = [bij ]3×4 , onde bij = i2 − j.
Vamos determinar a segunda linha da matriz A · B que é de ordem 3 × 4.
Seja A · B = [cij ]3×4 , assim temos
 
0 −1 −2 −3
c2j = L2 (A) · Cj (B), onde L2 (A) = [1 2 3] e B = 3 2 1 0 ,
8 7 6 5
logo
   
  0   −1
c21 = 1 2 3 · 3 = 30; c22 = 1 2 3 ·  2  = 24,
8 7
   
  −2   −3
c23 = 1 2 3 ·  1  = 18; c24 = 1 2 3 ·  0  = 12.
6 5
 
∴ L2 (A · B) = 30 24 18 12 .

9
3. No exemplo 1.4 temos M = N · P .
O BSERVAÇ ÃO 1.18. Só tem sentido efetuar o produto A · B, quando o número de colunas de A é
igual ao número de linhas de B e neste caso a matriz C = AB terá mesmo número de linhas que A e
mesmo número de colunas que B.
A · |{z}
|{z} B = |{z}C .
m×n n×p m×p

E XEMPLO 1.19 (Um produto importante). Sejam A uma matriz m×n e b uma matriz coluna n×1. O
produto A · b é uma matriz m × 1 que pode ser escrita em função das colunas de A. Sejam C1 , . . . , Cn
as colunas de A; denotemos A = [C1 . . . Cn ]m×n e consideremos b = [bi ]n×1 , logo

A · b = b1 C 1 + . . . + bn C n .
   
2 6 −2 b1
No caso, A = 0 1 3  e b = b2 , temos
1 2 4 b3
     
2 6 −2 b1 2b1 + 6b2 − 2b3
A · b = 0 1 3  · b2  =  0 + b2 + 3b3 
1 2 4 b3 b1 + 2b2 + 4b3
     
2b1 6b2 −2b3
=  0  +  b2  +  3b3 
b1 2b2 4b3
     
2 6 −2
= b1 0 + b2 1 + b3 3  .
    
1 2 4

De forma similar, o produto de uma matriz linha pela matriz A é uma matriz linha, que escreve-se em
função das linhas de A (exercı́cio).
P ROPRIEDADES 1.20. Para matrizes A, B e C com ordens adequadas ás operações envolvidas, valem
as seguintes propriedades.

1. Associatividade. (A · B) · C = A · (B · C).

2. Distributividade.

A · (B + C) = A · B + A · C, Distributividade à esquerda ,

(B + C) · A = B · A + C · A, Distributividade à direita.

3. Im · A = A e A · In = A, onde Im e In são as matrizes identidades de ordem m e n


respectivamente.

4. A · 0 = 0 e 0 · A = 0, neste caso a ordem da matriz nula deve ter a ordem adequada.

5. (αA) · (βB) = (αβ)A · B, onde α e β são escalares.

10
Demonstração. provaremos a associatividade do produto, nas propriedades restantes é simples veri-
ficar que as entradas das matrizes em ambos os lados são iguais. Sejam A = [aij ]m×n , B = [bij ]n×p e
C = [cij ]p×r , claramente as matrizes A(BC) e (AB)C tem a mesma ordem m×r, logo basta verificar
a igualdade dos elementos (i, j) de A(BC) e (AB)C, de fato:
p p
n
! n X
X X X
Li (A) · Cj (BC) = aik bkl clj = aik bkl clj
k=1 l=1 k=1 l=1
p n
!
X X
= aik bkl clj = Li (AB) · Cj (C)
l=1 k=1

Mostraremos algumas propriedades do produto usuais nos números, mas que não são verdadeiras para
matrizes.

1. O produto de matrizes não é comutativo, ou seja que para algumas matrizes, A · B 6= B · A


(mesmo que as ordens permitam efetuar os produtos). Por exemplo, se:
   
−1 2 3 −2
A= e B= ,
0 3 1 −1
   
−1 0 −3 0
temos, A · B = 6= = B · A.
3 −3 −1 −1
  

1 2 1 −1
Embora existem matrizes que comutam, como A = e B= .
−2 1 1 1

2. A · B = 0 não implica A = 0 ou B = 0.
   
−1 −1 1 0
Um exemplo é o par de matrizes A = e B = , pois A · B = 0, mas
0 0 −1 0
A 6= 0 e B 6= 0.

3. A · B = A · C, A 6= 0, não implica B = C.
     
1 0 1 2 1 2
Um exemplo é o caso A = , B = e C = , pois temos A · B =
  −1 0 1 1 −1 0
1 2
A·C = , mas B 6= C.
−1 −2

Matrizes em Blocos

As vezes é conveniente particionar uma matriz, para escreve-la como uma matriz cujos elementos são
submatrizes da própria. Dada uma matriz A, dizemos que A é uma matriz em blocos r×s quando, pela

11
introdução de linhas divisórias entre as linhas ou entre as colunas da matriz, representamos A como a
matriz r × s, cujos elementos são as submatrizes determinadas, chamadas blocos. Por exemplo,
     
1 0 2 −1 1 0 2 −1 1 0 2 −1
 0 1 1 3   0 1 1 3   0 1 1 3 
A=  0 0 1 7 
 =  0 0 1 7 
 =  0 0 1 7  .

0 0 7 2 4×1 0 0 7 2 1×4 0 0 7 2 2×2

Com blocos de ordens adequadas podemos verificar de forma simples que o produto de duas matrizes
pode-se descrever em função de seus blocos.

E XEMPLOS 1.21. 1. O produto na forma usual, pode ser entendido como um produto de matrizes
em blocos de várias formas. Sejam A = [aij ]m×n e B = [bij ]n×p .

• Considerando A em blocos 1 × 1 e B em blocos 1 × p, com blocos compostos por suas


colunas, obtemos:
   
A · B = A · C1 (B) . . . Cm (B) = A · C1 (B) . . . A · Cm (B) .

• Também podemos representar o produto A · B particionado A em blocos m × 1, com suas


linhas como blocos e B em blocos 1 × 1, assim temos:
   
L1 (A) L1 (A) · B
A·B = .. ..
·B = .
   
. .
Lm (A) Lm (A) · B
   
1 0 2 −1   1 0  
 0 1 1 3  A11 A12 0 1  = B11
  
2. Sejam A =  = e B= .
 0 0 1 7  A21 A22 2×2  1 0  B21 2×1
0 0 7 2 0 1
Os blocos de AB são:
 
    3 −1
3 −1 1 7  1 4 
A11 B11 + A12 B21 = , A21 B11 + A22 B21 =  1 7 .
. Logo, AB =  
1 4 7 2
7 2

1.3.2 Potenciação e Transposição


Para matrizes quadradas podemos definir a potência de uma matriz, de forma análoga as potências de
números. De fato, dada a matriz quadrada A = [aij ] de ordem m, definimos as potências de A como:

A0 = Im e An = A
| · .{z
. . · A}, para n ≥ 1.
n vezes

12
E XEMPLO 1.22.
 
2 4 −2
1. Caculemos a expressão A − 3A, para A = . De fato,
0 1
    
4 −2 4 −2 16 −10
A2 = =
0 1 0 1 0 1
logo,
         
2 16 −10 4 −2 16 −10 −12 6 4 −4
A − 3A = −3 = + = .
0 1 0 1 0 1 0 −3 0 −2

2. Mostre que A2 − 3A = A(A − 3I), onde A é uma matriz quadrada qualquer e I é a matriz
identidade com a mesma ordem de A.
De fato, A(A − 3I) = A · A − A · (3I) = A2 − 3(A · I) = A2 − 3A.

São claras as seguintes propriedades da potenciação de matrizes.

P ROPRIEDADES 1.23. Sejam A uma matriz quadrada, m, n números naturais e k um escalar, então
valem as propriedades:

1. Am+n = Am · An

2. (Am )n = Amn

3. (kA)m = k m Am .

Note que, da propriedade 1.23 temos que as potências da mesma matriz comutam.

E XERC ÍCIO 1.24. Mostre que não é válida a propriedade:

(A · B)2 = A2 · B 2 ,

onde A e B são matrizes quadradas da mesma ordem.

D EFINIÇ ÃO 1.25. Dizemos que uma matriz quadrada A é Idempotente quando A2 = A. Dizemos
que A é Nilpotente, se existir um natural k, tal que Ak = 0. Exemplos:
 
  2 −1 1
1 0 
0, Im , , −3 4 −3 , são matrizes idempotentes.
1 0
−5 5 −4
 
  0 1 2
0 1 
0, , 0 0 −1 são matrizes nilpotentes.
0 0
0 0 0

13
Transposição

Consideremos uma matriz A = [aij ] de ordem m × n, chamamos matriz transposta de A à matriz de


ordem n × m, denotada At e dada por:

At = [bij ], onde bij = aji .


 t
1 2    t  
1 2 −1 3 −1 3 1
E XEMPLOS 1.26.  2 4 = , = ,
2 4 5 1 −2 −1 −2
−1 5
 t
−1  
 0  = −1 0 6 .
6

O BSERVAÇ ÕES 1.27.

1. Seja A = [aij ]m×n uma matriz qualquer, então considerando as linhas de A e colunas de At
temos  
ai1
 .. 
(Li (A)) =  .  = Ci (At ), (Cj (A))t = a1j · · · amj = Lj (At ).
t
 

ain

2. De acordo com as definições estudadas é simples ver que

• Uma matriz quadrada é simétrica, se e somente se At = A


• Uma matriz quadrada é antisimétrica, se e somente se At = −A.

P ROPRIEDADES 1.28. Sejam A, B matrizes, então:

1. (At )t = A

2. (λA)t = λAt , onde λ é escalar.

3. (A + B)t = At + B t , se A, B são da mesma ordem

4. (A · B)t = B t · At , se as ordens de A e B são adequadas para o produto.

5. (Ak )t = (At )k , onde A é uma matriz quadrada e k é um natural.

Demonstração. Provemos a propriedade (4), as outras são deixadas como exercı́cio. Considerando
A = [aij ] e B = [bij ] temos que a igualdade abaixo prova que as entradas ij de (A · B)t são iguais as
entradas ij de B t · At :

Lj (A) · Ci (B) = (Ci (B))t · (Lj (A))t = Li (B t ) · Cj (At ).

14
No seguinte exemplo algumas matrizes simétricas e anti-simétricas importantes.

E XEMPLO 1.29. 1. Se A é uma matriz de ordem m × n verifiquemos que AAt é simétrica de


t
ordem m e A A é simétrica de ordem n.
De fato, no primeiro caso, (AAt )t = (At )t At = AAt , analogamente para At A.

2. Se A é uma matriz quadrada de ordem m verifiquemos que A + At é simétrica e A − At é


antisimétrica.
De fato no primeiro caso, (A + At )t = At + (At )t = At + A = A + At , analogamente para o
segundo caso.

E XEMPLO 1.30. Muitos processos de diferente natureza podem envolver uma variável que muda no
tempo, de forma que em cada perı́odo de tempo esta variável assume um entre um número finito de
estados fixos E1 , . . . , En . Suponhamos que a probabilidade de passagem do estado Ej ao estado Ei
(“taxa” de passagem ou tranferência) só depende do estado inicial Ej e não da quantidade de perı́odos
transcorridos,

onde, pij é a probabilidade de passagem do estado Ej ao estado Ei , chamadas probabilidades de


transição. Suponha que queremos determinar a probabilidade de acontecer Ei no k-ésimo perı́odo,
pk (Ei ), de acordo com o diagrama:

temos,
 
n pk−1 (E1 )
pk (Ei ) =
X
pij pk−1 (Ej ) = pi1
  
. . . pin ·  ..
.

.
j=1 k−1
p (En )
A matriz T = [pij ]n×n é chamada matriz de transição de probabilidade. Nomeando por Xk a matriz
coluna das probabilidades no k-ésimo perı́odo, temos

Xk = T · Xk−1 , k ≥ 1.

15
Este tipo de processo é chamado cadeia de markov discreta.
Consideremos o seguinte caso: em uma determinada região, ao longo do tempo, o clima reveza-se
entre estados de chuva e seca. Observa-se que se chover bastante durante um perı́odo, a probabilidade
que chova no perı́odo seguinte é de 1/4 e que a probabilidade de que faça seca é de 3/4. Ainda se
houver seca em um perı́odo, no perı́odo seguinte a probabilidade de haver seca ou chuva será a mesma
e igual a 1/2.
Considerando a sequência de estados na ordem: 1o chuva e 2o seca, a matriz de transição de probabi-
lidades é,
C S
C 1/4 1/2 ,
T =
S 3/4 1/2
Usemos a notação:
p0s = probabilidade de seca inicial
p0c = probabilidade de chuva inicial
pns = probabilidade de seca no n-ésimo perı́odo
pnc = probabilidade de chuva no n-ésimo perı́odo
 n
p
Vamos supor conhecidas as probabilidades iniciais p0c = 4/5 e p0s = 1/5. Considerando Xn = cn ,
ps
pela propriedade da matriz de transição, temos:

X1 = T X0
X2 = T X1 = T (T X0 ) = T 2 X0
X3 = T X2 = T (T 2 X0 ) = T 3 X0
.. .. ..
. . .
Xn = T Xn−1 = T (T n−1 X0 ) = T n X0

Portanto,
Xn = T n X0 , ∀n ≥ 1.
Dadas as condições iniciais, temos no quarto perı́odo:
 4       
4 1/4 1/2 4/5 0, 4 0, 4 4/5 0, 4
X4 = T X0 = ≈ ≈ .
3/4 1/2 1/5 0, 6 0, 6 1/5 0, 6

Portanto no quarto perı́odo a probabilidade de ter chuva é 0,4 e a de ter seca é de 0,6.
O comportamento do clima a longo prazo poderá ser previsto, caso os elementos da matriz T n se
aproximem dos elementos de uma matriz fixa P . Caso contrário não poderemos fazer previsão a
longo prazo, pois o processo modificará bastante a cada passo. Existem condições sob as quais
podemos saber se T terá esta propriedade ou não, mas não vamos abordar isso neste exemplo.

16
O Traço
D EFINIÇ ÃO 1.31. Seja A = [aij ] uma matriz quadrada de ordem n. O traço de A, denotado tr(A),
é o número real dado pela soma dos elementos da diagonal de A, ou seja:

tr(A) = a11 + . . . + ann .


 
4 5 4
1 
Por exemplo, se A = 5 6 5, então tr(A) = 1, 7.
10
7 8 7

P ROPRIEDADES 1.32. Sejam A e B matrizes quadradas de ordem n e λ ∈ R, temos:

1. tr(λA) = λtr(A).

2. tr(A + B) = tr(A) + tr(B).

3. tr(AB) = tr(BA)

4. tr(AAt ) = ni=1,j=1 a2ij , onde A = [aij ].


P

Demonstração. Provemos 1.32-3, as outras propriedades são deixadas como exercı́cio:


n
X n X
X n
tr(AB) = Li (A) · Ci (B) = aik bki
i=1 i=1 k=1
Xn Xn n X
X n
= aik bki = bki aik
k=1 i=1 k=1 i=1
n
X
= Lk (B) · Ck (A) = tr(BA)
k=1

Observamos o mesmo resultado também é válido para matrizes não quadradas sendo AB e BA qua-
dradas.

De forma geral, não é verdadeiro que tr(AB) = tr(A)tr(B). Determine matrizes A e B que não
verifiquem a igualdade.

1.3.3 Matriz Inversa


Seja A uma matriz de ordem m × n.

• Se B é uma matriz de ordem n × m, tal que Am×n Bn×m = Im , diremos que A é invertı́vel à
direita, neste caso a matriz B é chamada inversa à direita de A. Com relação a B diremos que
B é invertı́vel à esquerda e que a matriz A é sua inversa à esquerda.

17
• Se A é quadrada de ordem m, A é dita invertı́vel, quando existe uma matriz B de mesma ordem,
tal que AB = BA = Im . Para ser invertı́vel é suficiênte que AB = Im ou BA = Im (a prova
deste fato é parte do teorema 1.92). Neste caso B é dita inversa de A e é denotada A−1 , assim

AA−1 = A−1 A = Im .

O BSERVAÇ ÃO 1.33. Se A é uma matriz invertı́vel, então sua inversa é única, de fato dadas duas
matrizes B 0 e B 00 inversas de A, temos B 0 = B 0 In = B 0 (AB 00 ) = (B 0 A)B 00 = In B 00 = B 00 .
E XEMPLOS 1.34.

1. A matriz identidade Im é invertı́vel pois Im Im = Im . A matriz quadrada nula não é invertı́vel.


   
1 0 2 1 0 −2
2. Verifique que a matriz A = 0 −1 1 é invertı́vel e sua inversa é a matriz B = 0 −1 1  .
0 0 1 0 0 1
De fato,
       
1 0 2 1 0 −2 1 0 −2 1 0 2 1 0 0
AB = 0 −1 1 0 −1 1  = 0 −1 1  0 −1 1 = 0 1 0 .
0 0 1 0 0 1 0 0 1 0 0 1 0 0 1

Ou seja A é invertı́vel e A−1 = B.


 
  3 −4
2 1 3
3. Sejam A = e B = 13 −3 5 . Notando que A · B = I2 , podemos dizer que B é
1 1 2
0 1
uma inversa à direita de A e que A é uma inversa à esquerda de B.
 
2 1  
1 3 −3 0
Que podemos dizer sobre as matrizes A = 1 1 e B = 3 ?
−4 5 1
3 2
 
a b
4. A = é invertı́vel, se e somente se, 4 = ad − bc 6= 0. Neste caso
c d
 
−1 1 d −b
A = .
4 −c a
 
x y
De fato se B = é a inversa de A, então
z w
      
a b x y ax + bz ay + bw 1 0
= = .
c d z w cx + dz cy + dw 0 1
Daı́ temos os sistemas,
 
ax + bz = 1 ay + bw = 0
e
cx + dz = 0 cy + dw = 1.

18
No primeiro sistema,
 
ax + bz = 1 acx + bcz = c
⇒ ⇒ (ad − bc)z = −c,
cx + dz = 0 acx + adz = 0
 
ax + bz = 1 adx + bdz = d
⇒ ⇒ (ad − bc)x = d.
cx + dz = 0 bcx + bdz = 0
Analogamente, do segundo sistema,

(ad − bc)y = −b e (ad − bc)z = a.

Logo, o sistema terá solução se e somente se 4 = ad − bc 6= 0 e:


d −c
x= , z= ,
4 4
analogamente
−b a
y= w= .
4 4
 
−1 1 d −b
Portanto A = .
4 −c a
 
2 −1
Por exemplo, se A = , então 4 = 2 − (−1) = 3 6= 0, portanto A é invertı́vel e
  1 1
−1 1 1 1
A = .
3 −1 2

Sabemosque em
 R todo número não nulo é invertı́vel, nas matrizes isto não é verdade, por exemplo
1 0
a matriz 6= 02×2 e claramente não é invertı́vel.
0 0
P ROPRIEDADE 1.35 (Lei do Corte). Seja A uma matriz invertı́vel. Se X, Y são matrizes nas ordens
adequadas, tais que AX = AY , então X = Y .

Para provar a Lei do corte, basta multiplicar por A−1 pelo lado esquerdo em ambos os lados da
igualdade AX = AY .
P ROPRIEDADES 1.36. Dados A e B matrizes invertı́veis, k 6= 0 escalar e m inteiro positivo, temos

1. A−1 também é invertı́vel e (A−1 )−1 = A

2. kA é invertı́vel e (kA)−1 = k1 A−1

3. AB é invertı́vel e (AB)−1 = B −1 A−1

4. Am é invertı́vel e (Am )−1 = (A−1 )m

5. At é invertı́vel e (At )−1 = (A−1 )t .

19
Demonstração. 1. Como AA−1 = A−1 A = I, então A é inversa de A−1 .

2. Segue de: (kA)( k1 A−1 ) = (k · k1 )(AA−1 ) = I

3. Segue de: (AB)(B −1 A−1 ) = A(BB −1 )A−1 = AA−1 = I

4. Segue da aplicação sucessiva da propriedade anterior, com A = B.

5. Segue de: At (A−1 )t = (A−1 A)t = I t = I.

 
3 1
E XEMPLO 1.37. Considere a matriz A = . Mostre que A é invertı́vel e resolva a equação:
2 −1
I + AX t = A2 .
A matriz A é invertı́vel pois 4 = (3)(−1) − (2)(1) = −5 6= 0
Aplicando as propriedades das matrizes na equação, temos:

I + AX t = A2 ⇔ AX t = A2 − I
⇔ A−1 AX t = A−1 (A2 − I)
⇔ X t = A − A−1
⇔ X = (A − A−1 )t .
 
−1 −1 −1
Sendo A−1 = , temos
5 −2 3
   −1 !t    t
3 1 3 1 3 1 1 −1 −1
X = − = +
2 −1 2 −1 2 −1 5 −2 3
 t  
1 14 4 1 14 8
= = .
5 8 −2 5 4 −2

D EFINIÇ ÃO 1.38. Uma matriz A, quadrada de orden n é dita matriz ortogonal quando A é invertı́vel
e sua inversa é At , ou seja AAt = In = At A.

E XEMPLOS 1.39. 1. A identidade In é uma matriz ortogonal, pois In Int = In . Outras matrizes
ortogonais são
 √ √ 
 √ √  1/√3 0√ 2/ √6
1/ √2 1/√2
A= , e B =  1/ √3 1/√2 −1/√ 6 ,
−1/ 2 1/ 2
−1/ 3 1/ 2 1/ 6

de fato, √ √  √ √   
t1/ √2 1/√2 1/√2 −1/√ 2 1 0
AA = = ,
−1/ 2 1/ 2 1/ 2 1/ 2 0 1
analogamente para B.

20
 
cos θ −sen θ
2. Verifique que as matrizes da forma , são ortogonais para todo θ ∈ R.
sen θ cos θ
P ROPRIEDADES 1.40. Se A e B são matrizes ortogonais, então também são ortogonais as matrizes:
AB, At e A−1 .

Demonstração. Usando propriedades da matriz inversa, temos que AB é invertı́vel e (AB)−1 =


B −1 A−1 = B t At = (AB)t , logo AB é ortogonal. É imediato mostrar que At = A−1 também é
ortogonal.

1.4 Escalonamento

1.4.1 Operações Elementares


Sejam A uma matriz de ordem m × n e Li sua i-ésima linha. São denominadas Operações Elemen-
tares Linhas em A, as seguintes transformações da matriz A.

1. Permutação de linhas: Por Li ↔ Lj , representa-se a transformação de A pela permutação da


i-ésima com a j-ésima linha. Por exemplo:
   
1 2 4 1 2 6 −2 0
L1 →L3
A = 0 1 3 −1 −→ 0 1 3 −1 .
2 6 −2 0 1 2 4 1

2. Multiplicação de uma linha por um escalar: Seja k 6= 0, representamos por kLi → Li a


transformação de A pela multiplicação da i-ésima linha pelo escalar k.
   
1 2 4 1 1 L →L 1 2 4 1
3 3
A = 0 1 3 −1 2 −→ 0 1 3 −1 .
2 6 −2 0 1 3 −1 0

3. Substituição de uma linha por operação com linhas: Seja k um escalar qualquer, representa-
mos por Li + kLj → Li a transformação de A pela substutição da i-ésima linha pela combinção
Li + kLj .    
1 2 4 1 1 2 4 1
L −2L3 →Li
A = 0 1 3 −1 3 −→ 0 1 3 −1 .
2 6 −2 0 0 2 −10 −2

O BSERVAÇ ÃO 1.41. Sejam q 6= 0 e k escalares, a aplicação seguidamente das operações qLi e
Li + kLj → Li resulta na operação de substituição da i-ésima linha pela combinação qLi + kLj , a
aplicação destas duas operações elementares será denotada como qLi + kLj → Li .
D EFINIÇ ÃO 1.42. Sejam A e B matrizes. Diremos que B é linha equivalente a A, se B é obtida
pela a partir de A pela aplicação de um número finito de operações elementares. A notação usada é
A → B.

21
E XEMPLO 1.43.
     
1 2 4 1 1 2 4 1 1 2 4 1
L −2L1 →L3
A = 0 1 3 −1 3 −→ 0 1 3 −1 −2L2−→ +L3 →L3
0 1 3 −1 .
2 6 −2 0 0 2 −10 −2 0 0 −16 0
 
1 2 4 1
Portanto, B = 0 1 3 −1 é linha-equivalente a A.
0 0 −16 0

P ROPRIEDADES 1.44. A relação “linha equivalência”entre matrizes da mesma ordem tem as propri-
edades:

1. Reflexiva: A → A.
2. Simétrica: Se A → B então B → A, ou seja que as operações elementares podem ser
invertidas.
3. Transitiva: Se A → B e B → C, então A → C.

1.4.2 Escalonamento, Posto e Nulidade


Dada uma matriz A e uma linha não nula Li de A, chama-se pivô ou lı́der de Li ao primeiro elemento
não nulo dessa linha.
Diremos que uma matriz A = [aij ] está na forma escalonada linha (el) , quando:

1. Toda linha nula de A ocorre “abaixo”de todas as linhas não nulas.


2. Nas linhas não nulas o número de zeros anteriores ao pivô “aumenta linha após linha”. Neste
caso os elementos “abaixo”de um pivô serão todos nulos.

Diremos que uma matriz está na forma escalonada reduzida linha (erl), quando:

1. A tem a forma escalonada


2. Os pivôs são iguais a 1.
3. Os pivôs são os únicos elementos não nulos de suas respectivas colunas.
E XEMPLOS 1.45.

1. Matrizes escalonadas linha,


   
4 2 0 1 0 −2 1 5 0 2
0 −1 3 1 e 0 0 0 −4 7 −3
0 0 0 0 0 0 0 0 0 −1

22
2. Matrizes escalonadas reduzidas linha,
 
  1 0 −4 0 0
1 0 0 1
0 1 0 −1
0 1 −1 0 0
e 
0

0 0 1 0
0 0 1 −2
0 0 0 0 1
3. As matrizes erl de ordem 2 e 3 são de alguma das seguintes formas,
       
1 0 0 1 1 a 0 0
• Para ordem 2: , , e .
0 1 0 0 0 0 0 0
       
1 0 0 1 0 a 1 a 0 0 1 0
• Para ordem 3: 0 1 0 , 0 1 b  , 0 0 1 , 0 0 1 ,
   0 0 1  0 0 0 0 0 0  0 0 0
1 a b 0 1 a 0 0 1 0 0 0
0 0 0 , 0 0 0 , 0 0 0 e 0 0 0 .
0 0 0 0 0 0 0 0 0 0 0 0

Dada uma matriz A, vamos efetuar operações elementares para transformar A em uma matriz esca-
lonada ou escalonada reduzida. Com este objetivo, inicialmente vamos definir a seguinte operação
entre linhas.
Pivoteamento. Sejam Li uma linha não nula com pivô aij e Lk uma linha tal que akj 6= 0, o pivotea-
mento de Li sobre Lk consiste usar operações elementares para substituir Lk por uma linha L0k onde
o elemento da coluna j seja nulo:

Li : 0 . . . aij ∗ ∗ ...
Lk : ∗ . . . akj ∗ ∗ ...
L0k : ∗ . . . 0 ∗ ∗ ...

Como algoritmo, o pivoteamento é realizado por meio da aplicação, em A, da operação elementar:


akj
−cLi + Lk → Lk , onde c = , é chamado multiplicador.
aij
Também podemos usar operações elementares como:
±(−akj Li + aij Lk ) → Lk .

O escalonamento de uma matriz A é um processo organizado para transformar uma matriz qualquer
A em uma matriz escalonada e linha equivalente a A e consiste em aplicar em A a seguinte sequência
de operações elementares:

1°) Use permutação de linhas, se necessário, para levar as linhas nulas abaixo das não nulas.
2°) Use permutação de linhas, se necessário, de forma que a primeira linha tenha o menor número
de zeros antes do pivô do que às linhas abaixo. Se baixo o pivô da primeira linha tem elementos
não nulos, pivotear a linha sobre as linhas abaixo dela, assim após os pivoteamentos necessários,
os elementos baixo o pivô serão nulos.

23
3°) Se a matriz resultante está escalonada parar o processo, senão efetue as etapas 1°) e 2°) partindo
da segunda linha de A, continue o processo sucessivamente até a penúltima linha não nula, ao
finalizar o processo obtem-se uma matriz el e linha equivalente a A.

Para obter a forma escalonada reduzida (erl), continuar o processo pivotendo as linhas não nulas para
zerar todos os elementos acima de cada pivô. Finalmente usar a multiplicação por escalar de linhas
para obter pivôs iguais a 1.

E XEMPLOS 1.46.
   
0 6 5 0 −1 1 0 2 −1 −3
L3 −2L1 →L3
1 0 2 −1 −3 L1 ↔L2  0 6 5 0 −1 −→
1. A = 
  −→   
L4 +L1
2 −3 1 −2 −7  2 −3 1 −2 −7  −→
−1 2 −3 1 0 −1 2 −3 1 0
   
1 0 2 −1 −3 1 0 2 −1 −3
0 6 5 0 −1  2L3 +L 2 →L3 0
 6 5 0 −1 −3L4−→
+L2 →L4

0 −3 −3 0 −1 −→ 0 0 −1 0 −3
0 2 −1 0 −3 0 2 −1 0 −3
   
1 0 2 −1 −3 1 0 2 −1 −3
0 6 5 0 −1  L4 +8L3 →L4 0
 6 5 0 −1 

0 0 −1 0 −3 −→ 0 0 −1 0 −3  .

0 0 8 0 8 0 0 0 0 −16

A matriz obtida é uma matriz escalonada e linha equivalente a A. Vamos obter a matriz escalo-
nada reduzida linha:
   
1 0 2 −1 −3 1 0 2 −1 −3
0 6 5 0 −1   L2 +5L 3 →L2 0
 6 0 0 −16  L1 +2L 3 →L1

0 0 −1 0 −3  −→ 0 0 −1 0 −3  −→
0 0 0 0 −16 0 0 0 0 −16
   
1 0 0 −1 −9 1 0 0 −1 −9 9L4 +L1 →L1
−→
−1
0 6 0 0 −16 16 L4 0 6 0
  0 −16 16L4 +L2 →L2

0 0 −1 0 −3  −→ 0 0 −1 0 −3  −→

3L4 +L3 →L3
0 0 0 0 −16 0 0 0 0 1 −→
 
1 0 0 −1 0
0 6 0 0 0 1
0 0 −1 0 0, finalmente realizando 6 L2 → L2 e −1L3 → L3 , temos que a
 

0 0 0 0 1
 
1 0 0 −1 0
0 1 0 0 0
matriz erl, linha equivalente a A é, 
0 0 1 0 0 .

0 0 0 0 1

2. Determinemos a matriz erl da matriz A dada.

24
     
2 1 2 2 1 2 2 1 2
2 3 1  2 3 1  −L1−→ +L2 →L2
0 2 −1 −2L1 +L2 →L1
  L3 ↔L5   −2L +L →L   −→
0 0 0  −→ 4 2 3 
A=    1
−→3 3  0 0 −1 3L2 +2L4 →L3
−→

1 2 −1 1 2 −1 L1 −2L4 →L4 0 −3 4 
−→
4 2 3 0 0 0 0 0 0
     
−4 0 −5 −4 0 0 −1
L1 1 0 0
 0 2 −1 L1 −5L
−→ 3 →L1 4
−→ 0
0 2 0 1 1 0
  
 0 0 −1 L2 −L 3 →L2
   
  −→ 
 0 0 −1  L
 −→ 0
2 2  0 1
.
 0 0 5  L4 +5L3 →L3  0 0 0  −L3 0 0 0
−→ −→ 0
0 0 0 0 0 0 0 0

O BSERVAÇ ÕES 1.47.

1. Dada uma matriz A, é claro que podemos obter diferentes formas escalonadas e equivalentes a
A.
2. Dada uma matriz A, as matrizes escalonadas linha equivalentes a A tem o mesmo número de
pivôs, ou seja o mesmo número de linhas não nulas, isto deve-se aos resultados envolvendo os
conceitos de base e dimensão em espaços vetoriais, tratados no capı́tulo 2.

Sobre as formas escalonadas reduzidas temos o seguinte resultado.


Teorema 1.48. Toda matriz A é linha equivalente a uma única matriz da forma erl.

Para uma demonstração veja [5].


C OROL ÁRIO 1.49. Duas matrizes serão linha-equivalentes, se e somente se, tem as mesmas formas
erl.

Demonstração. Por um lado, se A é linha equivalente a B, então a forma erl de B também é uma
forma erl para A, pelo teorema anterior, as formas erl’s de A e B serão iguais. Por outro lado, se A e
B tem a mesma forma erl R, temos
A → R e B → R ⇒ A → R → B ⇒ A → B.

D EFINIÇ ÃO 1.50. Seja A uma matriz de ordem m × n, definimos posto de A como o número de
linhas não nulas (ou número de pivôs) de uma forma escalonada linha-equivalente a A, o posto será
denotado pA . E verifica-se pA ≤ min{m, n}. Define-se a nulidade A como: nA = n − pA .
E XEMPLOS 1.51. Calcule o posto e a nulidade das matrizes dadas.
     
1 0 −1 1 0 −1 1 0 −1
2 1 −5 L2 −2L1 →L2 0 1 −3 L3 −2L −→ 2 →L3 
1 −3
1. A =   −→   0 ,
0 2 −6 0 2 −6 L4 +L 2 →L4 0 0 0
−→
0 −1 3 0 −1 3 0 0 0
logo pA = 2 e nA = 3 − 2 = 1.

25
     
2 2 0 1 −2L2 +L1 →L2 2 2 0 1 2 2 0 1
−→ 0 2 −4 1  L3 +L2 →L3
0 2 −4 1,
2. A = 1 0 2 0 −2L3 +L1 →L3 −→
1 2 −2 1 −→ 0 −2 4 −1 0 0 0 0
logo pA = 2 e nA = 4 − 2 = 2.

1.4.3 Matrizes Elementares


O teorema a seguir relaciona a aplicação de uma operação elementar com o produto de matrizes.
Teorema 1.52. Seja A uma matriz quadrada de ordem m, se B é uma matriz linha equivalente a A,
obtida pela aplicação da operação elementar O, então B = EA, onde E é a matriz linha equivalente
a identidade Im obtida pela aplicação da operação elementar O, ou seja
O O
A → B e Im → E ⇒ B = EA.

E XEMPLO 1.53. Por exemplo,


   
1 2 4 1 2 4
L +L1 →L3
A = 0 1 3  3 −→ 0 1 3 = B,
2 1 −4 3 3 0
e
   
1 0 0 1 0 0
L +L1 →L3
I3 = 0 1 0 3 −→ 0 1 0 = E,
0 0 1 1 0 1

verificamos claramente que


    
1 0 0 1 2 4 1 2 4
EA = 0 1 0 0 1 3  = 0 1 3 = B.
1 0 1 2 1 −4 3 3 0

D EFINIÇ ÃO 1.54. A matriz E obtida de Im pela aplicação de exatamente uma operação elementar é
chamada matriz elementar.
Por exemplo, as matrizes E1 , E2 e E3 a seguir são elementares:
   
1 0 0 0 0 1
L1 ↔L3
I3 = 0 1 0 −→ 0 1 0 = E1 ,
0 0 1 1 0 0
   
1 0 0 1 0 0
5L2 ↔L2
I3 = 0 1 0 −→ 0 5 0 = E2 e
0 0 1 0 0 1
   
1 0 0 1 3 0
L +3L2 →L1
I3 = 0 1 0 1 −→ 0 1 0 = E3 .
0 0 1 0 0 1

26
C OROL ÁRIO 1.55. Sejam O1 , . . . , Ok uma sequência de operações e E1 , . . . , Ek as matrizes elemen-
tares associadas.
1 O k O
1. Se F é a matriz quadrada tal que Im −→ . . . −→ F , então F = Ek · . . . · E1 .
1 Ok O
2. Se A e B são matrizes de ordem m × n tais que A −→ . . . −→ B, então B = F A, onde F é a
matriz obtida em 1.

As matrizes elementares são invertı́veis e suas inversas são também matrizes elementares. De fato,
considerando as operações elementares “inversas”em cada caso, temos:

• Se E1 é obtida de Im por permutação de linhas, então E1−1 = E1 .

• Se E2 é obtida de Im pela aplicação de kLi , então E2−1 é obtida de Im pela aplicação de k1 Li .

• Se E3 é obtida de Im pela aplicação de kLj + Li → Li , então E3−1 é obtida de Im pela aplicação


de −kLj + Li.

1.4.4 Cálculo da Matriz Inversa


Se A é uma matriz quadrada de ordem m e R é a matriz erl, linha equivalente a A, pelo corolário 1.55
temos que F A = R, onde F é um produto de matrizes elementares e portanto F é invertı́vel. Desta
igualdade, por um lado, supondo que R = Im , obtemos:

R = Im ⇒ A = F −1 é invertı́vel.

Reciprocamente,
A invertı́vel ⇒ R invertı́vel ⇒ R = Im ,
pois Im é a única matriz erl de ordem m, invertı́vel. Sendo A → Im ⇔ R = Im , concluı́mos

A → Im ⇔ A é invertı́vel.

Mais uma caracterização para uma matriz invertı́vel obtemos notando que:

A invertı́vel ⇒ F A = Im ⇒ A = F −1 é produto de matrizes elementares,

e que a recı́proca é direta. Assim, está provado o seguinte resultado.


Teorema 1.56. Seja A uma matriz quadrada de ordem m, então:

1. A é invertı́vel se e somente se é um produto de matrizes elementares.

2. A é invertı́vel, se e somente se, A é linha equivalente a Im . Neste caso, se S é a sequência de


operações elementares que leva A em Im , então a mesma sequência de operações elementares
levará Im em A−1 , ou seja
S S
A −→ Im ⇒ Im −→ A−1 .

27
O BSERVAÇ ÃO 1.57. De acordo com o teorema acima, se A é invertı́vel, temos o esquema:
S
A −→ Im
S ,
Im −→ A−1

por praticidade construı́mos uma matriz composta por A e Im , chamada matriz ampliada, denotada
por [A|Im ]. Assim, o processo de inversão consiste em “levar” [A|Im ] em [Im |A−1 ].
 
1 −2 4
E XEMPLOS 1.58. 1. Seja A =  0 −1 4, veremos que A é invertı́vel e cacularemos sua
−1 0 2
inversa.
   
1 −2 4 1 0 0 1 −2 4 1 0 0 L1 −2L2 →L1
L1 +L3 →L3 −→
[A|I] =  0 −1 4 0 1 0  −→  0 −1 4 0 1 0 
L3 −2L2 →L3
−1 0 2 0 0 1 0 −2 6 1 0 1 −→
   
1 0 −4 1 −2 0 L1 −2L3 →L1 1 0 0 −1 2 −2 −L2 →L2
−→
 0 −1 4 0 1 0  −→  0 −1 0
L2 −2L3 →L2 2 −3 2 
− 12 L3 →L3
0 0 −2 1 −2 1 −→ 0 0 −2 1 −2 1 −→
 
1 0 0 −1 2 −2
 0 1 0 −2 3 −2  ,
0 0 1 −1/2 1 −1/2
 
−1 2 −2
∴ A−1 =  −2 3 −2  , verifique!
−1/2 1 −1/2
 
1 0 −1 1
 2 1 0 0
2. Seja A =   0 1 1 1. Determinemos se A é invertı́vel.

−1 0 0 2
     
1 0 −1 1 1 0 −1 1 1 0 −1 1
 2 1 0 0 L−→ 2 −2L1 
0 1 2 −2 L−→
 3 −L2 0 1 2 −2
   
 0 1 1 1 L−→ 4 +L1 0 1 1 1 0 0 −1 3 
−1 0 0 2 0 0 −1 3 0 0 −1 3
   
L1 −L3
−→ 1 0 0 −2 1 0 0 0
L2 +2L3 0 1 0 4 −L3 →L3 0 1 0 8 
  
−→ 0 0 −1 3   −→ 0 0 1 −3 ,

L4 −L3
−→ 0 0 0 0 0 0 0 0
observamos que a matriz A não é linha equivalente a I4 e portanto não é invertı́vel.

Observando que entre as formas erl de uma matriz quadrada de ordem m, a identidade é a única com
posto m e em vista do teorema 1.56, obtemos o seguinte corolário.
C OROL ÁRIO 1.59. Uma matriz A, quadrada de ordem m é invertı́vel, se e somente se, pA = m.

28
Pelo Corolário acima, para determinar se A é invertı́vel ou não, é suficiente obter a forma escalonada
de A (não há necessidade da forma erl).
 
2 0 −2
E XEMPLO 1.60. Determine se a matriz A =  1 −2 0  é invertı́vel ou não.
−1 0 2
   
2 0 −2 L1 −2L2 2 0 −2
−→
A =  1 −2 0  L1 +2L3 0 4 −2 , logo pA = 3, portanto A é invertı́vel.
−1 0 2 −→ 0 0 2

1.5 Determinantes
Dada uma matriz quadrada A, o determinante de A é um número real, denotado por det A ou |A|,
que define a invertibilidade da matriz. Iniciamos com o determinante de matrizes de ordem n ≤ 3 e
seguimos com a definição no caso geral.

D EFINIÇ ÃO 1.61 (Casos particulares).

i) Ordem 1. |[a]| = a
a b
ii) Ordem 2. A = = ad − bc.
c d

a1 a2 a3
iii) Ordem 3. b1 b2 b3 = a1 b2 c3 + a2 b3 c1 + a3 b1 c2 − a1 b3 c2 − a2 b1 c2 − a3 b2 c1 .
c1 c2 c3
Neste caso o valor do determinante é obtido também pela Regra de Sarrus, mas esta regra só se
aplica a este caso e não para ordem maior.

1.5.1 Definição Geral


Notemos que o determinante de uma matriz de ordem 3 é um somatório, onde cada parcela é ± o
produto de 3 elementos da matriz, um em cada linha escolhido em colunas diferentes e indexadas
de acordo com uma permutação de 1, 2, 3. Para descrever a definição geral serão necessários alguns
detalhes sobre as permutações.

29
D EFINIÇ ÃO 1.62. Uma permutação σ de 1, 2, . . . , n é uma função bijetiva: σ : {1, 2, . . . , n} →
{1, 2, . . . , n}. Uma permutação σ é denotada pelas imagens, na forma (σ(1) . . . σ(n)). Por exemplo,

• (231), representa a função: σ(1) = 2, σ(2) = 3 e σ(3) = 1

• (1324), representa a função: σ(1) = 1, σ(2) = 3, σ(3) = 2 e σ(4) = 4.

D EFINIÇ ÃO 1.63. Uma permutação (σ(1) . . . σ(n)) tem uma inversão quando para i < j tem-se que
σ(i) > σ(j), ou seja que o i-ésimo elemento é maior que o j-ésimo elemento. Uma permutação σ é
dita par se o número total de inversões é par, σ é dita ı́mpar, se o número de inversões é ı́mpar.

E XEMPLOS 1.64. Para contar as inversões de uma permutação comparamos cada elemento de (σ(1) . . . σ(n))
com aqueles que estão a sua direita.

1. Consideremos a permutação (24513), temos:


Iniciando com σ(1) = 2 temos somente uma inversão: 2 > 1. Com σ(2) = 4 temos duas
inversãoes: 4 > 1 e 4 > 3. Com σ(3) = 5 temos duas inversões: 5 > 1 e 5 > 3. Com σ(4) = 1
não temos inversões. Logo, temos exatamente 5 inversões, portanto (24513) é uma permutação
ı́mpar.

2. Para as permutações de {1, 2, 3} temos:

permutação inversões par/ı́mpar


(123) 0 par
(231) 2 par
(312) 2 par .
(132) 1 ı́mpar
(321) 3 ı́mpar
(213) 1 ı́mpar

D EFINIÇ ÃO 1.65. Seja σ uma permutação de 1, . . . , n e N o número de inversões de σ, definimos o


signal de σ como: (
1, se N é par
sgn(σ) = .
−1, se N é ı́mpar

Por exemplo, no caso das permutações de 1, 2, 3, temos:

sgn(123) = sgn(231) = sgn(312) = 1

e
sgn(132) = sgn(123) = sgn(312) = −1,
Note que, no determinante da matriz de ordem 3, o sinalP± de cada parcela corresponde exatamente
ao signal da permutação envolvida, ou seja: det A = sgn(ijk)ai bj ck . A definição geral é uma
extensão deste caso.

30
D EFINIÇ ÃO 1.66. Seja A = [aij ] uma matriz quadrada de ordem n, definimos o determinante de A
como o número real: X
det A = sgn(σ)a1σ(1) a2σ(2) . . . anσ(n) ,
σ

onde o somatório é sobre todas as permutações de σ de 1, . . . , n. Note que, o elemento a1σ(1) a2σ(2) . . .
anσ(n) representa o produto de n elementos de A, tomados um em cada linha, na ordem usual, e em
colunas diferentes e ordenadas de acordo com a permutação σ.
E XEMPLO 1.67.
 
3 0 0 2
 0 0 −1 0 
1. Seja A = 
 0
.
4 3 0 
−2 0 0 −1
Calculemos det(A). Considerando os produtos não nulos de elementos, um em cada linha e em
colunas diferentes, temos:

det A = sgn(1324) · 3 · (−1) · 4 · (−1) + sgn(4321) · 2 · (−1) · 4 · (−2)


= (−1)1 · 12 + (−1)6 · 16
= 4.
 
−3 0 −2 1
 0 2 0 6 
2. Seja A a matriz triangular superior: 
 0 0 −1 5  .

0 0 0 4
Calculemos det(A). Observe que as parcelas do determinante são nulas, exceto a relativa a
diagonal, então:
det A = sgn(1234) · −3 · 2 · −1 · 4 = 24.

O mesmo vale para uma matriz triangular inferior de ordem n.

1.5.2 Propriedades
O determinante possui várias propriedades que facilitam os cálculos.
Nos enunciados abaixo, além da notação usual das matrizes, também usamos: A = (L1 , . . . , Ln ),
onde L1 , . . . , Ln representam as linhas de A.
P ROPRIEDADES 1.68.

1. Se A = (L1 , . . . , Ln ) e L é uma linha 1 × n, então

det(L1 , . . . , Li + L, . . . , Ln ) = det(L1 , . . . , Li , . . . , Ln ) + det(L1 , . . . , L, . . . , Ln ).

2. Se B é obtida de A pela permutação de duas linhas, então det B = − det A.

31
3. Se duas linhas de A são iguais, então det A = 0.
4. Se uma linha de A é nula, então det A = 0.
5. Se B é obtida de A pela aplicação da operação elementar kLi → Li , então det(B) = k det(A)
6. Se B é obtida de A pela aplicação da operação elementar Li + kLj → Li , então det(B) =
det(A).
7. det(A) = det(At ).
8. As propriedades de 1 a 6 são válidas também para colunas.
9. O determinante de uma matriz triângular superior ou inferior é o produto dos elementos da sua
diagonal.
10. Se k é um escalar, então det(kA) = k n det A.
11. A é uma matriz invertı́vel, se e somente se, det(A) 6= 0.
12. Teorema de Binet. Se A e B são matrizes quadradas de ordem n, então

det(AB) = det(A) det(B).

Demonstração. As propriedades 1, 2 e 7 requerem da definição, as restantes são obtidas pela aplicação


de propriedades anteriores. Provaremos 3 e 7 e 11.
3) Suponha que A tem duas linhas iguais Li (A) = Lj (A), i 6= j. Desde que A não muda pela
aplicação da permutação Li ↔ Lj , temos: det(A) = − det(A), donde det(A) = 0.
7) Sejam A = [aij ], At = [bij ], onde bij = aji . Dada uma permutação σ de 1, 2, . . . n. Note que
colocando j = σ(i) podemos escrever aiσ(i) = aσ−1 (j)j , logo se reordenamos os ı́ndices das colunas
na ordem usual, obtemos

a1σ(1) . . . anσ(n) = aσ−1 (1)1 . . . aσ−1 (n)n = b1σ−1 (1) . . . bnσ−1 (n) .

Observemos que cada inversão em σ: i < j e σ(i) > σ(j) produz uma inversão em σ −1 , pois
colocando i0 = σ(i), j 0 = σ(j) obtemos j 0 < i0 e σ −1 (j 0 ) > σ −1 (i0 ), substituindo σ por σ −1 obtemos
a recı́proca da observação. Daı́ sgn(σ) = sgn(σ −1 ) e portanto,
X X
det A = sgn(σ)a1σ(1) a2σ(2) . . . anσ(n) = sgn(σ −1 )b1σ−1 (1) . . . bnσ−1 (n) = det(At ).
σ σ −1

11) Seja R a matriz erl linha-equivalente a A, sendo que R é obtida pela aplicação de operações
elementares e em vista das propriedades 2, 5 e 6 obtemos det(R) = k · det(A), onde k 6= 0. Ou
seja det(A) 6= 0 ⇔ det(R) 6= 0, considerando que a matriz identidade é a única matriz erl com
determinante não nulo obtemos:

det(A) 6= 0 ⇔ det(R) 6= 0 ⇔ R = In ⇔ A invertı́vel.

32
 
1 −4 2
E XEMPLOS 1.69. 1. Calcule o determinante da matriz A = −2 8 −9.
1 3 0
Aplicando operações elementares temos,
1 −4 2 1 −4 2 1 −4 2
−2 8 −9 = 0 0 −5 = − 0 7 −2 = −(1)(7)(−5) = 35.
1 3 0 0 7 −2 0 0 −5
 
2 −8 6 8
 3 −9 5 10 
−3 0 1 −2 .
2. Calculemos o determinante da matriz  

1 −4 0 6
2 −8 6 8 1 −4 3 4 1 −4 3 4
3 −9 5 10 3 −9 5 10 0 3 −4 −2
=2 =2
−3 0 1 −2 −3 0 1 −2 0 −12 10 10
1 −4 0 6 1 −4 0 6 0 0 −3 2
1 −4 3 4 1 −4 3 4
0 3 −4 −2 0 3 −4 −2
=2 =2 = −36.
0 0 −6 2 0 0 −6 2
0 0 −3 2 0 0 0 1

3. Verifique que det(A) = det(At ), para a matriz do exercı́cio 1.


 
1 −2 1
Temos At = −4 8 3, logo
2 −9 0
1 −2 1 1 −2 1
det(At ) = 0 0 7 = − 0 −5 −2 = −(−5)(7) = 35 = det(A).
0 −5 −2 0 0 7

4. Por observação, dê o valor dos determinantes das matrizes:


 
  3 0 0 0
−2 1 4 0 0 −1 1
A = 1 −2 −2, B = 

0 2 3 3, e −2B

3 5 −6
0 0 0 1
Temos,

• det(A) = 0, pois a 3a coluna é múltiplo da 1a coluna.


• det(B) = −(3)(2)(−1)(1) = 6, pois permutando a 2a e 3a linhas a matriz é triangular
superior com as entradas 3, 2, -1 e 1 na diagonal.
• det(−2B) = (−2)4 det(B) = 16 × 6 = 96.

O valor do determinante permite dizer se a matriz é invertı́vel ou não.

33
1
P ROPOSIÇ ÃO 1.70. A matriz A é invertı́vel, então det A−1 = .
det A
Demonstração. Sendo A invertı́vel temos o AA−1 = I, calculando o determinante em ambos os
lados:
det(AA−1 ) = det(A) det(A−1 ) = det(I) = 1,
sendo det(A) 6= 0, resulta
1
det A−1 = .
det A

 
−1 −2 0
E XEMPLO 1.71. Vamos usar o critério acima para determinar se a matriz A =  1 4 1 é
5 0 1
invertı́vel.
−1 −2 0 −1 −2 0 −1 −2 0
det(A) = 1 4 1 = 0 2 1 = 0 2 1 = −12 6= 0.
5 0 1 0 −10 1 0 0 6

Portanto A é invertı́vel.
C OROL ÁRIO 1.72. Seja A uma matriz quadrada de ordem n, temos
A é invertı́vel ⇔ |A| =
6 0 ⇔ pA = n.

1.5.3 Desenvolvimento de Laplace.


O determinante de uma matriz quadrada de ordem m ≥ 3, pode ser reduzido ao cálculo de determi-
nantes de matrizes de ordem m − 1, é o que estabelece o Teorema de Laplace, para isto definamos os
seguintes conceitos.
D EFINIÇ ÕES 1.73. Dada uma matriz quadrada A = [aij ] de ordem m ≥ 2, denotemos por Mij , a
submatriz, de ordem m − 1, obtida da matriz A pela retirada da i-ésima linha e da j-ésima coluna, ou
seja:  
a11 ... a1(j−1) a1(j+1) ... a1m
 .. .. .. .. 
 . . . . 
a . . . a a . . . a
 
Mij =  (i−1)1 (i−1)(j−1) (i−1)(j+1) (i−1)m 
.

a(i+1)1 . . . a(i+1)(j−1) a(i+1)(j+1) . . . a(i+1)m 
 . .. .. .. 
 .. . . . 
am1 . . . am(j−1) am(j+1) . . . amm
Definimos como cofator de aij ao número,
Cij = (−1)i+j det(Mij ).

Definimos como Matriz de cofatores de A a matriz dada por: Cof (A) = [Cij ]m×m .

34
Os sinais (−1)i+j no cofator do elemento aij , variam com a posição (i, j), como indicado:
 
+ − + ...
− + − . . .
 .
.. .. ..
. . .
 
2 0 −3
E XEMPLO 1.74. Para a matriz A =  1 1 −1, temos:
−1 2 −1
1 −1 1 −1 1 1
C11 = = 1, C12 = − = 2, C13 = =3
2 −1 −1 −1 −1 2
0 −3 2 −3 2 0
C21 = − = −6, C22 = = −5, C23 = − = −4
2 −1 −1 −1 −1 2
0 −3 2 −3 2 0
C31 = = 3, C32 = − = −1, C33 = = 2.
1 −1 1 −1 1 1
 
1 2 3
∴ Cof (A) = −6 −5 −4 .
3 −1 2
Teorema 1.75 (Desenvolvimento de Laplace). Dada uma matriz quadrada A = [aij ], de ordem
n ≥ 2, temos

• Desenvolvimento através da i-ésima linha


n
X
det A = ai1 Ci1 + ai2 Ci2 + . . . + ain Cin = aik Cik .
k=1

• Desenvolvimento através da j-ésima coluna


n
X
det(A) = a1j C1j + a2j C2j + . . . + anj Cnj = akj Ckj .
k=1
E XEMPLO 1.76. Aproveitando os cálculos do exemplo 1.74, temos:
det A = 2C11 + 0 · C12 − 3C13 = 2 − 9 = −7.
O BSERVAÇ ÃO 1.77. Verifiquemos que, para ordem 3, o desenvolvimento de Laplace é exatamente a
expressão dada pela regra de Sarrus.
a1 a2 a3
b2 b3 b b b b
det A = b1 b2 b3 = a1 − a2 1 3 + a3 1 2
c2 c3 c1 c3 c1 c2
c1 c2 c3
a2 a3 a a a a
= −b1 + b2 1 3 − b3 1 2
c2 c3 c1 c3 c1 c2
a2 a3 a a a a
= c1 − c2 1 3 + c3 1 2 ,
b2 b3 b2 b3 b1 b2
= a1 b 2 c 3 + a2 b 3 c 1 + a3 b 1 c 2 − a1 b 3 c 2 + a2 b 1 c 3 + a3 b 2 c 1 ,

35
o mesmo acontece com o desenvolvimento de Laplace por colunas.
E XEMPLOS 1.78.
 
3 1 2
1. Calculemos o determinante da matriz A = −2 −4 5  .
5 4 −3
Desenvolvendo pela 3a coluna,
−2 −4 3 1 3 1
det A = (2) · − (5) · + (−3) ·
5 4 5 4 −2 −4
= (2)(12) − (5)(7) + (−3)(−10) = 19.
 
1 0 0 −1
−3 2 1 2
2. Calculemos o determinante da matriz A =  3 0 0
.
1
2 0 −2 1
Neste caso o é conveniente o desenvolvimento pela 2a coluna.
1 0 −1
det A = (2) 3 0 1 .
2 −2 1
Desenvolvendo novamente pela 2a coluna, temos:
1 −1
det A = (2)(−2)(−1) = (4)(1 + 3) = 16.
3 1

3. Neste exemplo vamos usar operações


 linha e desenvolvimento
 por linhas ou colunas para cal-
3 5 −2 6
1 2 −1 1
cular o determinante da matriz A = 
2 4 1 5 .

3 7 5 3

3 5 −2 6 0 −1 1 3
−1 1 3
1 2 −1 1 1 2 −1 1
det(A) = = =− 0 3 3
2 4 1 5 0 0 3 3
1 8 0
3 7 5 3 0 1 8 0
−1 1 3
3 3
= − 0 3 3 = −(−1) = −18.
9 3
0 9 3
P ROPOSIÇ ÃO 1.79. Sejam A = [aij ]n×n e Cij seus cofatores. Dados n inteiros b1 , . . . bn , temos que
para todo k = 1, 2, . . . n:

1. b1 Ck1 + . . . + bn Ckn = det(S) e b1 C1k + . . . + bn Cnk = det(T ), onde S é a matriz que resulta
de substituir, em A, a k-ésima linha por [b1 . . . bn ] e T é a matriz que resulta de substituir, em
A, a k-ésima coluna por [b1 . . . bn ]t .

36
2. Em particular, se i 6= k:

ai1 Ck1 + . . . + ain Ckn = a1i C1k + . . . + ani Cnk = 0.

Demonstração. 1) Basta calcular det(S) e det(T ) usando Laplace, escolhendo a k-ésima linha de
S e a k-ésima coluna de T respectivamente. 2) Trata-se de determinantes com duas linhas ou duas
colunas iguais.

1.5.4 Adjunta Clássica


D EFINIÇ ÃO 1.80. Dada a matriz A, define-se matriz adjunta classica de A como a matriz:

adj(A) = (Cof (A))t = [Cij ]t .


 
−1 −2 0
E XEMPLO 1.81. Calculemos adj(A), para A =  1 4 1. Temos:
5 0 1
4 1 1 1 1 4
C11 = = 4, C12 = − = 4, C13 = = −20
0 1 5 1 5 0

−2 0 −1 0 −1 −2
C21 = = 2, C22 = = −1, C23 = = −10
0 1 5 1 5 0

−2 0 −1 0 −1 −2
C31 = = −2, C32 = − = 1, C33 = = −2.
4 1 1 1 1 4
 
4 2 −2
Portanto: adj(A) =  4 −1 1 .
−20 −10 −2

Observemos o produto das matrizes quadradas A = [aij ] e adj(A) = [Cij ]t , de fato

adj(A) · A = [bij ],

Na diagonal, bii = a1i C1i +· · ·+ani Cni = det A. Para i 6= j, ou seja fora da diagonal, pela proposição
1.79, temos bij = a1j C1i + · · · + anj Cni = 0. Portanto:

adj(A) · A = [bij ] = (det A)In .

Esta igualdade permite determinar a inversa caso det A 6= 0.

P ROPOSIÇ ÃO 1.82. Para toda matriz quadrada, A invertı́vel, temos:


1
A−1 = adj(A).
det(A)

37
 
−1 −2 0
E XEMPLO 1.83. Sabemos que a matriz A =  1 4 1 é invertı́vel, com
5 0 1
 
4 2 −2
det(A) = −12 e adj(A) =  4 −1 1  ,
−20 −10 −2

logo,  
4 2 −2
−1 
A−1 = 4 −1 1  .
12
−20 −10 −2

1.5.5 Interpretação Geométrica no Plano


 
x1 y 1
Considere a matriz A = , veremos que o valor absoluto do det(A) é exatamente a área
x2 y 2
do paralelogramo determinado pelos vetores u = (x1 , y1 ) e v = (x2 , y2 ), sendo u e v vetores não
paralelos.

• Consideremos o caso em que u e v são perpendiculares. Assim, se x1 6= 0 e x2 6= 0 é claro que


y1 y2
· = −1 ⇒ x1 x2 + y1 y2 = 0,
x1 x2
caso x1 = 0 necessariamente y2 = 0, pois u e v são perpendiculares, analogamente no caso
x2 = 0, de forma que:
x1 x2 + y1 y2 = 0, ∀ u, v.
Sejam a a área do paralelogramo determinado por u e v, l1 e l2 comprimentos de u e v respec-
tivamente, assim a = l1 l2 .

Por outro lado note que,



    2  2 
x1 y 1
t x1 x2 x1 + y12 0 l1 0
A·A = · = =
x2 y 2 y1 y2 0 x22 + y22 0 l22
det(AAt ) = det(A2 ) = l12 · l22 = a2 ,
portanto a = |det(A)|.

38
• No caso geral, tomamos λ ∈ R tal que o vetor v − λu seja perpendicular a u:
Aplicando o caso anterior aos vetores u e u − λv e entendendo vetores de R2 como linhas 1 × 2,
resulta:    
u u
a = |det | = |det | = |det(A)|.
v − λu v

1.6 Sistemas de Equações Lineares


Um sistema de equações lineares, com m de equações lineares relativas a um grupo de n incógnitas
x1 , . . . , xn é da forma: 

 a11 x1 + . . . + a1n xn = b1
 a21 x1 + . . . + a2n xn = b2

.. .. .. , (1.1)


 . . .
 a x + ... + a x = b
m1 1 mn n m

onde,

• aij : representa o coeficiente da incógnita xj na i-ésima equação;


• bi : denota o coeficiente independente da i-ésima equação.

Uma solução do sistema é uma sequência de n valores que atribuı́dos a cada x1 , · · · , xn satisfazem
todas as equações do sistema. Pode-se verificar que um sistema somente pode ter uma única solução,
infinitas soluções ou nehuma solução. Logo, podemos classificar os sistemas como:

1. Sistema Possı́vel Determinado, SPD : quando 1.1 possui uma única solução.
2. Sistema Possı́vel Indeterminado, SPI : quando 1.1 possui infinitas soluções.
3. Sistema Impossı́vel, SI: quando 1.1 não possui solução.

Escrevendo matricialmente o sistema 1.1, temos:


      
b1 a11 x1 + . . . + a1n xn a11 . . . a1n x1
 ..   .
.. . . .
..   ... 
 . =  =  .. .. .
   
bm am1 x1 + . . . + amn xn am1 . . . amn xn

39
Logo o sistema 1.1 é representado pela equação matricial:

A · X = b, (1.2)

onde
X = [xi ] : Matriz coluna das incógnitas,
A = [aij ] : Matriz dos coeficientes do sistema,
b = [bi ] : Matriz coluna dos termos independentes.
Outra matriz útil é a matriz da forma: [A|b], chamada matriz ampliada de A com b.
As soluções do sistema matricial 1.2 são representadas como colunas n × 1 que verificam a igualdade
matricial.

E XEMPLO 1.84. As matrizes associadas ao sistema,



 x + y + 2z = 9
2x + 4y − 3z = 1 ,
3x + 6y − 5z = 0

são:
 
1 1 2
Matriz de coeficientes: A = 2 4 −3.
3 6 −5
 
9
Matriz de termos independentes: b = 1 .

0
 
1 1 2 9
Matriz ampliada: [A|b] =  2 4 −3 1  .
3 6 −5 0

1.6.1 Eliminação de Gauss e de Gauss-Jordan


Um dos métodos básicos par determinar as soluções de um sistema é substituir-o por um sistema
equivalente (sistema com mesmas incógnitas e solução), que seja mais simples de resolver. É claro
que as seguintes operações com as equações do sistema, levam a um sistema equivalente ao inicial:

• Multiplicar uma equação por um escalar não nulo.

• Permutar duas equações

• Substituir uma equação pela soma dessa equação e um múltiplo de outra equação.

40
Consideremos o sistema S : A·X = b, notemos que para realizar as operações enunciadas acima com
as equações de S basta aplicar as correspondentes operações elementares na matriz ampliada [A|b],
portanto podemos usar o escalonamento da matriz ampliada para obter um sistema S 0 de solução
simples ou direta e equivalente ao sistema original.

Chamamos Eliminação de Gauss ao método de solução de um sistema linear, que consiste em:

• Escalonar a matriz ampliada levando a forma el.


• Obter o sistema linear associado a forma el, que será equivalente ao inicial.
• Resolver por substituição retroativa.

Se no primeiro passo usamos a forma escalonada reduzida de [A|b], o método é chamado de Eliminação
de Gauss-Jordan.
E XEMPLOS 1.85.

1. Consideremos o sistema: 
 x + y + 2z = 9
2x + 4y − 3z = 1 ,
3x + 6y − 5z = 0

 
1 1 2 9
A matriz ampliada do sistema é: [A|b] =  2 4 −3 1 . Escalonando [A|b] temos:
3 6 −5 0
   
1 1 2 9 L2 −2L1 →L2 1 1 2 9
−→  0 2 −7 −17  3L2 −2L →L
 2 4 −3 1 
L3 −3L1 →L3 −→3 3
3 6 −5 0 −→ 0 3 −11 −27
   
1 1 2 9 1
L
1 1 2 9
2 2
 0 2 −7 −17  −→  0 1 −7/2 −17/2 ,
0 0 1 3 0 0 1 3
Agora voltando ao sistema temos:

 x + y + 2z = 9
y − 7z/2 = −17/2 ,
z = 3

. Logo o sitema é SPD e temos :

z = 3 ⇒ y = 2 ⇒ x = 1.

41
2. Resolvamos o sistema:


 x − y + 3z = 1
x + z − w = −1


 2y + w = 0
2x + y + 4z = 0

 
1 −1 3 0 1
 1 0 1 −1 −1 
A matriz ampliada do sistema é: [A|b] = 
 0 2 0 1
. Escalonando [A|b] temos:
0 
2 1 4 0 0
   
1 −1 3 0 1 1 −1 3 0 1
 1 0 1 −1 −1  L2 −L −→ 1 →L1  0 1 −2 −1 −2  L3 −2L −→ 2 →L3
   
 0 2 0 1 0  L4 −2L−→ 1 →L4  0 2 0 1 0  L4 −3L−→ 2 →L4

2 1 4 0 0 0 3 −2 0 −2
   
1 −1 3 0 1 1 −1 3 0 1
 0 1 −2 −1 −2  −L3 +L4 →L4  0 1 −2 −1 −2 

 0 0
 −→  .
4 3 4   0 0 4 3 4 
0 0 4 3 4 0 0 0 0 0
Agora voltando ao sistema temos:

 x − y + 3z = 1
y − 2z − w = −2 ,
4z + 3w = 4

logo, por substituição temos :

3 1 7
z = 1 − w ⇒ y = − w ⇒ x = 1 − 3z + y = −2 + w.
4 2 4
Portanto, existem infinitas soluções obtidas determinando valores para w, ou seja o sistema é
SPI.

3. Resolvamos o sistema:


 x − y + 3z = 1
x + z − w = −1


 2y + w = 0
2x + y + 4z = 1

 
1 −1 3 0 1
 1 0 1 −1 −1 
A matriz ampliada do sistema é: [A|b] = 
 0 2 0 1
. Escalonando [A|b] temos:
0 
2 1 4 0 1

42
   
1 −1 3 0 1 1 −1 3 0 1
 1 0 1 −1 −1  L2 −L−→1 →L2
1 −2 −1 −2 
L3 −2L2 →L3
−→
 0

  
 0 2 0 1 0  L4 −2L
−→ 1 →L4  0 2 0 1 0  L4 −3L2 →L4
−→
2 1 4 0 1 0 3 −2 0 −1
   
1 −1 3 0 1 1 −1 3 0 1
 0 1 −2 −1 −1  −L3 +L4 →L4 →  0 1 −2 −1 −2 

 0 0
 −→  .
4 3 4   0 0 4 3 4 
0 0 4 3 5 0 0 0 0 1
Agora voltando ao sistema temos:


 x − y + 3z = 1
y − 2z − w = −2

,

 4z + 3w = 4
0 = 1

não tem valores que satisfazam simultaneamente todas as equações, logo temos um SI.

Observando os sistemas colocados nos exemplos, podemos concluir que:

1. O sistema 1.1 admite uma única solução (SPD), se e somente se,

pA = p[A|b] = n.

2. O sistema 1.1 admite infinitas soluções (SPI), se e somente se,

pA = p[A|b] < n.

As variáveis que ao assumir valores quaisquer determinam a solução do sistema são chamadas
de variáveis livres ou independentes, as variáveis restantes são ditas variáves dependentes.
Observemos que n − pA , representa o número de variáveis livres e pA corresponde ao número
de variáveis dependentes. n − p[A|b] é chamado grau de liberdade do sistema.

3. O sistema 1.1 não admite soluções (SI), se e somente se,

pA 6= p[A|b] ,

neste caso, pA < p[A|b] , pois é claro que pA ≤ p[A|b] .

E XEMPLOS 1.86. 1. Consideremos o sistema:



 2x1 + 2x2 − x3 + x4 = −1
−x1 − x2 + 2x3 + x4 = −1 ,
x1 + 3x2 − x3 − x4 = 0

Usando eliminação de Gauss-Jordan, temos.

43
   
2 2 −1 1 −1 L1 +2L2 →L2 2 2 −1 1 3
−→
A =  −1 −1 2 1 −1  L1 −2L3 →L3  0 0 3 3 −3 
1 3 −1 −1 0 −→ 0 −4 1 3 −1
   
2 2 −1 1 3 2L1 +L2 →L1
−→ 4 0 −1 5 5
L2 ⇔L3
−→  0 −4 1 3 −1  1
L
 0 −4 1 3 −1 
3 3
0 0 3 3 −3 −→ 0 0 1 1 −1
  1  
L1 +L3 →L1 4 0 0 6 4 L
4 1 1 0 0 3/2 1
−→  0 −4 0 2 0  −1−→ 
L2 −L3 →L2 L2
0 1 0 −1/2 0  ,
−→ 0 0 1 1 −1 −→4
0 0 1 1 −1
voltando ao sistema temos:

 x1 + 3x4 /2 = 1
x2 − x4 /2 = 0 .
x3 + x4 = −1

Como pA = 3 = p[A|b] < n = 4 o sistema é SPI, com grau de liberdade 1, variável indepen-
dente x4 e solução:
x1 = 1 − 6t, x2 = 2t e x3 = −1 − 4t e x4 = 4t, com t qualquer.
2. Discuta a solução do sistema, de acordo com os valores dos parâmetros a e b.

 x + y + az = 1
x + 2y + z = 2
2x + 5y − 3z = b

Escalonando o sistema temos:


     
1 1 a 1 1 1 a 1 1 1 a 1
[A|B] =  1 2 1 2  −→  0 1 1 − a 1  −→  0 1 1 − a 1 ,
2 5 −3 b 0 3 −3 − 2a b − 2 0 0 −6 + a b − 5
observando os valores de pA e p[A|B] , de acordo com os valores de a e b, vamos ter:

• SPD, para a 6= 6 e b qualquer.


• SPI, para a = 6 e b = 5. Com grau de liberdade 1.
• SI, para a = 6 e b 6= 5.

1.6.2 Sistemas Homogêneos


Um sistema linear cujos termos independentes são todos nulos (ou seja b = 0) é dito sistema linear
homogêneo (SLH), a forma matricial de um sistema linear homogêneo é:

A · X = 0, (1.3)

onde A = Am×n é a matriz de coeficientes e 0 = 0m×1 é a matriz coluna de termos independentes.

44
P ROPRIEDADES 1.87. Seja A · X = 0 um SLH.

1. SLH sempre admite solução seja determinada ou indeterminada, pois a coluna X = 0n×1 , é
uma solução, de fato: A · 0n×1 = 0m×1 .
2. SLH sistema é SPD, com solução X = 0n×1 , se e somente se, pA = n, pois a condição
p[A|0] = pA é automaticamente verificada.
3. SLH é SPI, se e somente se, pA < n. Neste caso, para obter as soluções escalonamos somente
a matriz de coeficientes, já que a coluna de termos independentes nulos não muda pela ação de
operações elementares.
E XEMPLO 1.88. Resolvamos o sistema homogêneo:

 2x1 + 2x2 − x3 + x4 = 0
−x1 − x2 + 2x3 + x4 = 0 ,
x1 + 3x2 − x3 − x4 = 0

Como, pA ≤ 3 < 4, claramente o sistema é SPI com grau de liberdade nA = 1. Usando o exemplo
1.86 temos:
   
2 2 −1 1 1 0 0 3/2
A = −1 −1 2 1  −→ 0 1 0 −1/2 ,
1 3 −1 −1 0 0 1 1
voltando ao sistema temos:
 3
 x1 + x
2 4
= 0
1
x2 − x
2 4
= 0 ,
x3 + x4 = 0

daı́, com x4 = 2t, t qualquer, temos x1 = −3t, x2 = t e x3 = −2t.

As soluções do sistema não homogêneo (SNH) A · Y = b (quando existem) e do homogêneo 1.3 estão
associadas.
P ROPOSIÇ ÃO 1.89. Se existirem, toda solução do sistema não homogêneo (SNH) A · Y = b é da
forma:
Y = X0 + XH ,
onde X0 é uma solução particular do sistema (SNH) e XH é solução do sistema homogêneo 1.3.

Demonstração. Por um lado verificamos que Y = X0 + XH é solução de (SNH), pois:


A · (X0 + XH ) = A · X0 + A · XH = b + 0 = b.
Por outro lado, se Y é uma solução qualquer de (SNH), então:
A · (Y − X0 ) = A · Y − A · X0 = b − b = 0,
logo Y − X0 é solução do sistema homogêneo, daı́ Y − X0 = XH , portanto Y = X0 + XH .

45
1.6.3 Solução por Inversão
P ROPOSIÇ ÃO 1.90. Consideremos um sistema com m equações e m incógnitas, na forma matricial
A · X = b. Então, o sistema será SPD, se e somente se, a matriz quadrada, A, de coeficientes é
invertı́vel, neste caso a única solução é X = A−1 · b.

Esta proposição vem do fato que:

A invertı́vel ⇔ pA = m ⇔ o sistema é SPD.

Caso A não seja invertı́vel podemos ter sistemas SPI ou SI.

E XEMPLO 1.91. Consideremos os sistema:



 x − 2y + 4z = 6
− y + 4z = 7
−x + 2z = 6

 
1 −2 4
Neste caso, A =  0 −1 4 de acordo com o exemplo 1.58(1), A é invertı́vel e
−1 0 2
 
−1 2 −2
A−1 =  −2 3 −2  ,
− 21 1 − 12
      
x −1 2 −2 6 −4
−1
logo, X = y = A b = −2 3 −2
    7 = −3 .
 
1 1
z −2 1 −2 6 1
Logo x = −4, y = −3 e z = 1.

As seguintes equivalências caracterizam uma matriz invertı́vel.

Teorema 1.92. Dada uma matriz quadrada A de ordem m, as seguintes sentençãs são equivalentes.

(a) A é invertı́vel.

(b) det(A) 6= 0.

(c) pA = m

(d) Para toda coluna b de ordem m × 1, o sistema matricial A · X = b tem pelo menos uma solução.

(e) O sistema homogêneo A · X = 0 tem solução única nula.

(f) Existe uma matriz B tal que A · B = Im

46
(g) Existe uma matriz C tal que C · A = Im .

Demonstração. Sabemos que (a) ⇔ (b) ⇔ (c). Para as restantes equivalências seguir na ordem:

(c) ⇔ (d); (c) ⇔ (e); (f ) ⇒ (d); (g) ⇒ (e),

a prova completa-se com as implicações (a) ⇒ (f ) e (g) que são evidentes.


Provemos (d) ⇒ (c). Por absurdo se pA < m, temos que a matriz A0 escalonada e linha-equivalente
a A tem uma linha nula. Para a coluna b0 = [b0i ]m×1 , onde b0m 6= 0, é claro que o sistema A0 · X = b0
é SI. Aplicamos em [A0 |b0 ] as operações elementares que levam A0 em A e obtemos uma coluna b tal
que
[A0 |b0 ] → [A|b],
logo o sistema A · X = b também é SI, mais isto contradiz a hipótese.
Provemos (f ) ⇒ (d). Uma solução para o sistema A · X = b é X = Bb, pois

A · (Bb) = (A · B)b = Im · b = b.

Complete a prova com as implicações (e) ⇒ (c) e (g) ⇒ (e).

1.6.4 Regra de Crammer


Consideremos um sistema linear SPD, com matriz de coeficientes quadrada, para simplificar a notação
tomemos um sistema com 3 equações e 3 incógnitas:

 a11 x1 + a12 x2 + a13 x3 = b1
a21 x1 + a22 x2 + a23 x3 = b2 ,
a31 x1 + a32 x2 + a33 x3 = b3

a forma matricial do sistema é:


   
a11 a12 a13 b1
A · X = b, onde A = a21 a22 a23  e b = b2  .
a31 a32 a33 b3

Sendo A invertı́vel podemos descrever a solução por inversão:

1
X = A−1 · b = adj(A) · b,
det(A)

notemos o produto:
     
C11 C21 C31 b1 b1 C11 + b2 C21 + b3 C31
adj(A) · b = Cof (A)t · b = C12 C22 C32  · b2  = b1 C12 + b2 C22 + b3 C32 
C13 C23 C33 b3 b1 C13 + b2 C23 + b3 C33

47
 
b1 C11 + b2 C21 + b3 C31
1 
portanto X = b1 C12 + b2 C22 + b3 C32 , ou seja
det(A)
b1 C13 + b2 C23 + b3 C33
b1 C11 + b2 C21 + b3 C31 b1 C12 + b2 C22 + b3 C32 b1 C13 + b2 C23 + b3 C33
x1 = , x2 = e x3 = ,
det(A) det(A) det(A)
mas pela proposição 1.79 podemos escrever os numeradores como determinantes, obtemos:
b1 a12 a13 a11 b1 a13 a11 a12 b1
b2 a22 a23 a21 b2 a23 a21 a22 b2
b3 a32 a33 a31 b3 a33 a31 a32 b3
x1 = , x2 = e x3 = .
det(A) det(A) det(A)
P ROPOSIÇ ÃO 1.93 (Regra de Crammer). Se A é uma matriz quadrada invertı́vel, de ordem
 m  e b é
x1
 .. 
uma coluna de ordem m × 1, então o sistema linear A · X = b tem solução única X =  .  dada
xm
por:
det(A(1, b)) det(A(2, b)) det(A(m, b))
x1 = , x2 = , . . . , xm = ,
det(A) det(A) det(A)
onde A(j, b) é a matriz que resulta de substituir em A a j-ésima coluna pela coluna b.

E XEMPLO 1.94 (Aplicação: Balanceamento de equações quı́micas). A combustão de amônia


(N H3 ) e oxı́geneo (O2 ) produz Nitrogêneo (N ) e água (H2 O):

N H3 + O2 −→ N + H2 O .
| {z } | {z }
reagentes produto

xN H3 + yO2 −→ zN + wH2 O.
Determine a equação balanceada.
De acordo com a Lei de conservação da massa, a quantidade de átomos de um elemento presentes
nos reagentes deve ser igual a presente nos produtos.
Coeficientes estequeométricos: x, y, z, w soluções inteiras positivas do sistema linear.

Nitrogêneo : x=z  x−z = 0
Hidrogêneo : 3x = 2w ⇒ 3x − 2w = 0
Oxigêneo : 2y = w 2y − w = 0

Usando a eliminação de Gauss-Jordan temos,


     
1 0 −1 0 1 0 −1 0 1 0 −1 0
 3 0 0 −2  −→  0 0 3 −2  −→  0 2 0 −1  ,
0 2 0 −1 0 2 0 −1 0 0 3 −2

48
 
1 0 0 −2/3
−→  0 1 0 −1/2  ⇒ x = 2w/3, y = w/2, z = 2w/3, w natural.
0 0 1 −2/3

Com w = 6 obtemos x = 4; y = 3; z = 4.

∴ 4N H3 + 3O2 −→ 4N + 6H2 O.

49
Capı́tulo 2

ESPAÇOS VETORIAIS

2.1 Introdução
O plano munido de um sistema de coordenadas cartesianas,

R2 = {(x, y) /x, y ∈ R},

é o exemplo mais tı́pico de espaço vetorial. R2 também representa o conjunto de vetores de um plano,
desde que todo vetor é considerado como idéntico a um com origem em O = (0, 0), com mesmo
comprimento, sentido e direção, assim vetores são entendidos como iguais às coordenadas do seu
extremo. O conjunto de vetores do plano, R2 , possui duas operações conhecidas: adição de vetores e
multiplicação de escalar por vetor,

• Adição de vetores: Se u = (a, b) e v = (c, d), então a soma de u e v é o vetor

u + v = w = (a + b, b + d) ∈ R2 ,

geometricamente a soma é efetuada pela regra do paralelogramo.

50
• Multiplicação de vetor por escalar: Se λ ∈ R e v = (a, b) ∈ R2 , então a multiplicação de
λ por v, é o vetor: λv = (λa, λb) ∈ R2 , geometricamente entendido como um vetor na reta
determinada por v, com comprimento e sentido determinado por λ.

Notemos que vetores de R2 podem ser entendidos também como matrizes coluna 2 × 1, visto que a
única diferença ao efetuar as operações é a notação.
Em resumo, R2 possui duas operações, uma entre vetores resultando em vetor que é a adição de
vetores e outra de real por vetor resultando vetor, que é a multiplicação por escalar, sendo que estas
operações possuem uma série de propriedades algébricas. Um espaço vetorial basicamente, é uma
generalização deste conjunto geométrico de vetores, de suas operações de soma e multiplicação por
escalar e de suas propriedades. Nesta generalização, no lugar de R2 considera-se um conjunto não
vazio V e no lugar de escalares em R usamos elementos de um conjunto com estrutura de corpo,
de forma que seja possı́vel efetuar as operações com propriedades análogas às de R2 . Definiremos a
estrutura de corpo e posteriormente o conceito de espaço vetorial.

2.2 Definições e Propriedades


D EFINIÇ ÃO 2.1. Um conjunto não vazio K, que possui duas operações internas: adição e multiplicação,
ou seja,
u + v ∈ K, u · v ∈ K, ∀ u, v ∈ K,
é dito corpo, quando verifica:
A1) A adição é Associativa: (x + y) + z = x + (y + z), ∀x, y, z ∈ K.
A2) A adição é Comutativa: x + y = y + x, ∀x, y ∈ K.
A3) Existência do Neutro Aditivo: Existe 0 ∈ K, tal que: x + 0 = 0 + x = x, ∀x ∈ K.
A4) Existência dos Simétricos: Para todo x ∈ K, existe o elemento −x ∈ K, com a propriedade:
x + (−x) = (−x) + x = 0.

51
M1) A multiplição é Associativa: (x · y) · z = x · (y · z), ∀x, y, z ∈ K.
M2) A multiplição é Comutativa: x · y = y · x, ∀x, y ∈ K.
M3) Existência da Unidade: Existe 1 ∈ K, com a propriedade: x · 1 = 1 · x = x, ∀x ∈ K.
M4) Existência dos Inversos: Para cada x 6= 0, x ∈ K, existe o elemento x−1 ∈ K, que verifica,
x · x−1 = x−1 · x = 1, ∀ x ∈ K.
M5) Distributividade: Para todos x, y, z ∈ K, x · (y + z) = x · y + x · z.
E XEMPLO 2.2.

1. Q, R, C, são corpos munidos das operações usuais de adição e multiplicação.


2. Existem corpos com um número finito de elementos, um exemplo é o corpo com dois elementos
Z2 = {0, 1}, aqui os elementos 0 e 1 não são os números usuais, as operações são realizadas de
acordo com as seguintes tabelas.

+ 0 1 · 0 1
0 0 1 0 0 0
1 1 0 1 0 1
D EFINIÇ ÃO 2.3. Consideremos um conjunto não vazio V e um corpo K, (normalmente será R),
onde existem as operações de adição e de multiplicação por escalar:

• Adição: Para todo u, v ∈ V , u + v ∈ V


• Multiplicação por escalar: Para todo λ ∈ K e u ∈ V , temos λu ∈ V .

Dizemos que V com as operações acima é um Espaço Vetorial sobre K, se são satisfeitas:
E1) Associatividade da Adição: Para todos u, v, w ∈ V , temos

(u + v) + w = u + (v + w).

E2) Comutatividade da Adição: Para todos u, v ∈ V , temos

u + v = v + u.

E3) Existência do Zero: Existe um elemento, denotado por 0V ∈ V (ou simplesmente 0), com a
propriedade
v + 0V = 0V + v = v.

E4) Existência do Simétrico: Para todos v ∈ V , existe −v tal que:

v + (−v) = (−v) + v = 0V .

E5) Para todos λ, β ∈ K e v ∈ V , temos

(λβ)v = λ(βv).

52
E6) Para todos λ, β ∈ K e v ∈ V ,
(λ + β)v = λv + βv.

E7) Para todos λ ∈ K e u, v ∈ V , então


λ(u + v) = λu + λv.

E8) Para todo u ∈ V , temos 1u = u.

Os elementos de V são ditos vetores, o elemento zero é dito vetor nulo e os elementos de K são ditos
escalares.
V é dito Espaço Vetorial Real, caso K = R ou Espaço Vetorial Complexo, caso K = C. Nestas
notas estaremos trabalhando principalmente com espaços vetoriais reais.

Espaços vetoriais reais importantes.

E XEMPLOS 2.4. 1. Dado um natural n ≥ 1, consideremos o conjunto das n-uplas de números


reais
Rn = {(x1 , · · · , xn ) | x1 , . . . , xn ∈ R},
Rn é um espaço vetorial real munido das operações:
(x1 , · · · , xn ) + (y1 , · · · , yn ) = (x1 + y1 , · · · , xn + yn )
λ(x1 , · · · , xn ) = (λx1 , · · · , λxn ),
pois satisfaz as propriedades E1-E8. Aqui o vetor nulo é 0Rn = (0, · · · , 0) e o simétrico de
u = (x1 , · · · , xn ) é −u = (−x1 , · · · , −xn ).
Trataremos os vetores de Rn como matrizes coluna 1 × n, ou seja
 
x1
 .. 
(x1 , · · · , xn ) =  .  ,
xn
em vista da identificação entre os elementos e suas operações.
2. Consideremos os conjuntos de matrizes de ordem m × n, com entradas em R ou C, denotados
respectivamente como M (m × n, R) e M (m × n, C). Munidos com as operações de adição
de matrizes e de produto de escalar por matriz, M (m × n, R) é um espaço vetorial real e
M (m × n, C) é um espaço vetorial complexo. Nestes casos o vetor nulo corresponde à matriz
nula.
3. Seja I um intervalo real e consideremos o conjunto das funções de I com valores em R que
denotaremos por F (I, R). F (I, R) é um espaço vetorial real, munido com as operações:
(f + g)(x) = f (x) + g(x), para todo x ∈ I,
(λf )(x) = λf (x), para todo x ∈ I e λ ∈ R,
neste caso o vetor nulo é a função nula de I em R e a função simétrica de f é −f , dada por
(−f )(x) = −f (x), ∀x ∈ I.

53
P ROPOSIÇ ÃO 2.5. Seja V um espaço vetorial, então para todo v ∈ V e λ ∈ R, temos:

1. 0v = 0V .

2. λ0V = 0V .

3. −1v = −v.

Demonstração. 1. 0v = (0 + 0)v = 0v + 0v, substraindo 0v, em ambos os lados, temos 0v = 0V .

2. λ0V = λ(0V + 0V ) = λ0V + λ0V , substraindo de ambos os lados λ0V , temos, λ0V = 0V .

3. v + (−1)v = 1v + (−1)v = (1 + (−1))v = 0v = 0V , portanto (−1)v = −v.

O BSERVAÇ ÃO 2.6. Um espaço vetorial real, V , também é um espaço vetorial sobre o corpo Q, pois

λv ∈ V, ∀ λ ∈ R ⇒ λv ∈ V, ∀ λ ∈ Q.

2.3 Subespaços Vetoriais


Subconjuntos de um espaço vetorial podem ser espaços vetoriais? Em que condições?

D EFINIÇ ÃO 2.7. Consideremos um espaço vetorial real V e um conjunto não vazio W ⊂ V . W será
dito Subespaço vetorial de V , se são satisfeitas:

1. As operações de V podem ser definidas em W , ou seja que adição e multiplicação por escalar
de V verificam:

• Para todos u, v ∈ W , u + v ∈ W
• Para todo u ∈ W e λ ∈ R, λu ∈ W .

2. W munido com as operações de V é um espaço vetorial.

O BSERVAÇ ÃO 2.8. Devido a que várias propriedades necessárias para W ser um espaço vetorial
munido das operações de V são transladadas de V para W , para verificar que W é um subespaço de
V é suficiente que,

SV1. Para todos u, v ∈ W , temos que u + v ∈ W

SV2. Para todo u ∈ W e λ ∈ R, temos λu ∈ W .

SV3. 0V ∈ W .

E XEMPLOS 2.9.

54
1. Se V é um espaço vetorial, trivialmente {0V } e V serão subespaços de V .
 
2 x
2. Se V = R , a reta W = { ∈ R2 | y = 3x} é um subespaço vetorial real de V . Para verificar
y      
x 2 x 1
este fato, reescrevemos W = { ∈ R | y = 3x} = { | x ∈ R} = {x | x ∈ R} e
y 3x 3
testamos as condições da obervação 2.8.
   
1 1
• Se u = x ev=y ∈ W , temos
3 3
     
1 1 1
u+v =x +y = (x + y) ∈ W.
3 3 3
 
1
• Se u = x ∈ W e λ ∈ R, temos
3
   
1 1
λu = λ(x ) = (λx) ∈ W.
3 3
   
0 1
• =0· ∈ W.
0 3

Analogamente, toda reta de R2 que passa pela origem é um subespaço vetorial de R2 . Enquanto
que uma reta que não passa pela origem não será um subespaço vetorial de R2 , por não conter
o vetor nulo.
3. Em V = R3 , as retas e planos que passam pela origem (0, 0, 0), são subespaços vetoriais.

4. Dada a matriz de coeficientes A, de ordem m × n e o vetor de incógnitas X = (x1 , . . . , xn ),


podemos considerar o conjunto das soluções do sistema homogêneo A · X = 0:

W = {X = (x1 , . . . , xn ) | A · X = 0}.
W é um subespaço vetorial de Rn , pois:

55
• 0 ∈ W , já que A · 0 = 0
• Se X, Z ∈ W , então A · (X + Z) = A · X + A · Z = 0 + 0 = 0,
• Se X ∈ W e λ ∈ R, então

A · (λX) = λ(A · X) = λ0 = 0.

W é dito espaço nulo de A, usaremos a notação: N ul(A).

5. No espaço vetorial das matrizes V = Mm×m (R), temos os seguintes subespaços vetoriais:

W1 = {A ∈ V | A é diagonal}

W2 = {A ∈ V | A é simétrica} = {A ∈ V | At = A}.

De fato, no caso de W2 , de acordo com o exemplo 1.29, temos que as operações de soma de
matrizes simétricas e multiplicação por escalar de uma matriz simétrica são ambas simétricas.
É claro também que 0V ∈ W2 pois 0V é simétrica.

6. No espaço vetorial F (R, R), temos o subespaço das funções polinomiais:

P(R) = {p(x) = a0 + a1 x + . . . + an xn | a0 , a1 , . . . , an ∈ R, n ≥ 0} ,

também temos o subespaço de todas as funções polinomiais de grau máximo n:

Pn (R) = {p(x) = a0 + a1 x + . . . + an xn | a0 , a1 , . . . , an ∈ R} .

Pn (R) ⊂ P(R).

7. No espaço vetorial F(I, R), onde I é um intervalo real, temos o subespaço das funções contı́nuas
de I em R, denotado C(I).

O BSERVAÇ ÃO 2.10. Se 0V ∈


/ W , então W não será um subespaço.

Os seguintes subconjuntos de R2 não são subespaços vetoriais:


   
x 0
W1 = { | x + 5y = 2}, pois não contém o vetor ,
y 0

     
x 2 1 2
W2 = { | x = y }, pois por exemplo ∈ W2 , mas ∈
/ W2 .
y 1 2

56
2.4 Combinação Linear e Espaço gerado
Consideremos um espaço vetorial V . Sejam v1 , . . . , vn vetores de V e consideremos os vetores da
forma:
v = α1 v1 + . . . + αn vn ∈ V,

onde α1 , . . . , αn são escalares quaisquer. O vetor v ∈ V é chamado combinação linear (c.l.) de


v1 , . . . , vn .
   
−1 2
3
E XEMPLO 2.11. Consideremos em V = R , os vetores v1 = 1 , v2 = 0 . Vejamos que os
  
2 −1
seguintes vetores são combinações lineares de v1 e v2 :
     
4 1 1
u = 2v1 + 3v2 = 2 , w = v1 + v2 = 1 e z = −1 · v1 + 0 · v2 = −v1 = −1 .
    
1 1 −2

Geometricamente temos a seguinte situação:

Assim, para mostrar uma combinação linear dos vetores v1 e v2 , escolhemos escalares α e β e calcu-
lamos αv1 + βv2 . Por outro lado, dado
  um vetor v de R3 , como determinar se v é uma combinação
1
linear de v1 e v2 ? Por exemplo v = 5 é uma combinação linear de v1 e v2 ? E o que dizer sobre
  7
3
v = 1 ?
0

57
   
1 1
• Para o caso v = 5 , procurando escalares α e β, tais que 5 = αv1 + βv2 , temos
  
7 7
          
−1 2 1 −1 2   1  −α + 2β = 1
α
α  1  + β  0  = 5 ⇔  1 0 = 5 ⇔ α = 5 .
β
2 −1 7 2 −1 7 2α − β = 7

O sistema obtido é SPI e a solução é evidente α = 5 e β = 3, logo v é combinação linear de v1


e v2 .
 
3
• Já no caso v = 1, não é combinação linear de v1 e v2 , pois procurando escalares α e β tais

1
que:
     
−1 2 3
α 1 + β 0 = 1 ,
    
2 −1 1
   
−1 2   3
α
obtemos o sistema:  1 0 = 1. Este sistema é SI, logo v não é combinação linear
β
2 −1 1
de v1 e v2 .
O BSERVAÇ ÃO 2.12. De acordo com o exemplo anterior, no caso do espaço Rm , uma combinação
linear dos vetores v1 , . . . , vn ∈ Rm é da forma:

α1 v1 + α2 v2 + . . . + αn vn = A · w,
 
onde A é a matriz m × n, dada por blocos na forma A = v1 | . . . |vn e w = [αi ]n×1 . Logo, um vetor
v ∈ Rm será c. l. de v1 , . . . , vn se, e somente se, o sistema linear Aw = v tem solução w ∈ Rn , do
tipo SPD ou SPI.

Sejam V um espaço vetorial e v1 , v2 , . . . , vn vetores de V . Consideremos o conjunto W , de todas as


combinações lineares de v1 , v2 , . . . , vn .

W = {α1 v1 + α2 v2 + . . . , +αn vn | α1 , . . . , αn ∈ R} ⊆ V.

Vejamos que W é um subespaço vetorial de V :

SV1. Dados u = α1 v1 +α2 v2 +. . . , +αn vn e v = β1 v1 +β2 v2 +. . . , +βn vn , vetores de W , claramente:


u + v = α1 v1 + . . . , +βn vn ∈ W.

SV2. Dados λ ∈ R e u = α1 v1 + α2 v2 + . . . , +αn vn ∈ W , claramente:

λu = λ (α1 v1 + . . . , +αn vn ) = (λα1 )v1 + . . . + (λαn )vn ∈ W.

58
SV3. 0V = 0v1 + . . . + 0vn ∈ W.

W é um subespaço vetorial de V chamado subespaço gerado pelos vetores v1 , . . . , vn ou subespaço


gerado por S, onde S = {v1 , ..., vn }. O subespaço vetorial W será denotado da forma:

W = ger{v1 , . . . , vn } ou W = [S].

O conjunto S é chamado gerador de W e v1 , ..., vn são ditos geradores de W. Subespaços gerados


por conjuntos finitos de vetrores são ditos espaços finitamente gerados.

E XEMPLO
  2.13. Determine
  a(s) equação(ões)
  que definem o subespaço de R3 , gerado pelos vetores
2 −1 a
u = 1 e v = −1 . Neste caso, b  ∈ ger{u, v} se, e somente, se existem α, β ∈ R, tais que:
    
−1 3 c
         
2 −1 a 2 −1   a
α
α 1 + β −1 = b , ou seja
       1 −1 = b .

β
−1 3 c −1 3 c

A matriz ampliada do sistema é:


 
2 −1 a
[A|B] =  1 −1 b , escalonando, temos:
−1 3 c
     
2 −1 a 2 −1 a 2 −1 a
 1 −1 b  →  0 1 a − 2b  →  0 1 a − 2b 
−1 3 c 0 5 a + 2c 0 0 −4a + 10b + 2c
 
2 −1 a
→ 0 1 a − 2b  ,
0 0 2a − 5b − c
assim, o sistema tem solução se, e somente se, 2a − 5b − c = 0, portanto:

ger{u, v} = {(a, b, c) ∈ R3 | 2a − 5b − c = 0}.

E XEMPLOS 2.14 (Espaços gerados em R3 ). Consideremos V = R3 , temos:

1. Se v ∈ R3 , v 6= 0, então ger{v} é a reta que passa pela origem do sistema de coordenadas e


que tem a direção de v.

59
2. Se u, v são vetores não nulos de R3 e não paralelos (u 6= kv, ∀k ∈ R). Então o subespaço
ger{u, v} é o plano determinado por u e v.

3. Se os vetores u e v estão nas condições acima e se w é um vetor de R3 , tal que w ∈


/ ger{u, v},
então o espaço gerado por ger{u, v} é todo R3 .

60
E XEMPLOS 2.15.

1. Dado v = (4, −2, 2) ∈ R3 , W = ger{v} é a reta de R3 que passa pela origem e que contém o
vetor v, que podemos descrever como,

W = ger{v} = {λ(4, −2, 2) | λ ∈ R} = {λ(2, −1, 1) | λ ∈ R}.

Notemos que a reta W pode ser gerada por,


     
4 2 −6
−2 ou −1 ou  3 ....
2 1 −3
   
−1 0
2. Dados u =  2 e v = −1, notemos que u ∈
  / ger{v}, pois u não é múltiplo de v.
1 0
Assim, concluı́mos que W = ger{u, v} é o plano de R3 que passa pela origem e contém u e v.
Determinemos exatamente os vetores de W ,
       
x −1 0 x
y  ∈ W ⇔ α  2  + β −1 = y  , α, β ∈ R
z 1 0 z
   
−1 0   x
α
⇔  2 −1  = y  , α, β ∈ R

β
1 0 z

Considerando a matriz ampliada do sistema temos,


   
−1 0 x −1 0 x
 2 −1 y  →  0 −1 2x + y  ,
1 0 z 0 0 x+z

61
 
x
assim, y  ∈ W , se e somente se, o sistema tem solução ou seja, x + z = 0. Esta equação é a

z
que representa o plano ger{u, v}.
   
−2 0
 2  3
 
3. Determine as equações que definem o espaço W gerado pelos vetores de R4 : {  2  , 2 }.

−2 1
   
−1 0
1 3
Notemos que W também é gerado por {u =   1  , v = 2}. Vamos determinar as
  

−1 1
condições sobre x, y, z, w ∈ R de forma que a equação αu + βv = (x, y, z, w) tenha solução.
Assim, temos o sistema:
         
−1 0 x −1 0   x
1 3  y   1 3 α y 
α 1  + β 2 =  z  , ou seja  1 2 β =  z  .
        

−1 1 w −1 1 w
A matriz ampliada do sistema é:
 
−1 0 x
 1 3 y 
[A|B] =  1 2 z , escalonando, temos:

−1 1 w
     
−1 0 x −1 0 x −1 0 x
 0 3 x+y   0 1 x+w   0 1 x+w 
 0 2 x+z → 0 2 x+z →
     ,
0 0 −x + z − 2w 
0 1 x+w 0 3 x+y 0 0 −2x + y − 3w
assim, o sistema tem solução se, e somente se, x − z + 2w = 0 e 2x − y + 3w = 0, portanto:
W = {(x, y, z, w) ∈ R4 | x − z + 2w = 0 e 2x − y + 3w = 0}.

E XEMPLOS 2.16. 1. O conjunto usual de geradores do espaço vetorial Rn é {e1 , . . . , en }, onde:


     
1 0 0
0 1 0
e1 =  ..  , e2 =  ..  , . . . , en =  ..  ,
     
. . .
0 0 1
pois:        
x1 1 0 0
 x2  0 1 0
 ..  = x1  ..  + x2  ..  + . . . + xn  ..  = x1 e1 + x2 e2 + . . . + xn en .
       
. . . .
xn 0 0 1

62
Rn é um espaço finitamente gerado, P(R) e F (I, R) não tem essa propriedade.
2. O conjunto usual de geradores do espaço vetorial M (m × n, R) é o conjunto de mn matrizes:
(
1, se i = s e j = t
{E11 , E12 , . . . , Est , . . . , Emn }, onde Est = [aij ], aij = ,
0, o. c.

pois para toda A = [αij ]m×n temos:


A = α11 E11 + . . . + αst Est + . . . + αmn Emn .

3. O conjunto usual de geradores do espaço vetorial Pn (R) é


{p0 = 1, p1 = x, p2 = x2 , . . . , pn = xn },
pois para todo q(x) = a0 + a1 x + . . . + an xn ∈ Pn (R) temos:
q(x) = a0 p0 + a1 p1 + . . . + an pn .

A seguinte propriedade mostra que o espaço gerado por um conjunto finito S é “o menor subespaço
que contém S”e é útil para determinar quando dois conjuntos geram o mesmo subespaço.
P ROPOSIÇ ÃO 2.17. 1. Se W é um subespaço e S um conjunto finito de vetores de W , então:
S ⊂ W ⇒ ger{S} ⊂ W.

2. Se S e T são conjuntos de vetores de um espaço vetorial V , então,


ger{S} = ger{T } ⇔ S ⊆ ger{T } e T ⊆ ger{S}.
E XEMPLO 2.18. Se u e v são vetores de um espaço vetorial V , temos ger{u, v} = ger{−u, u + v},
pois

• u = −1 · (−u) + 0 · (u + v); v = 1 · (−u) + 1 · (u + v) ⇒ u, v ∈ ger{−u, u + v}


• −u = −1 · u + 0 · v; u + v = 1 · u + 1 · v ⇒ −u, u + v ∈ ger{u, v}.

2.5 Independência e Dependência Linear


No espaço R3 consideremos vetores não nulos, u, v, que não são múltiplos um do outro, neste caso é
claro que,
ger{u, v, u + v} = ger{u, v} = 6 ger{u},
este exemplo ilustra que em certos conjuntos de geradores de um espaço, podemos extrair vetores
preservando o espaço gerado, mas em outros conjuntos isto não é mais possı́vel.
Em geral, dado um conjunto de vetores geradores de V , {v1 , v2 , . . . , vn }, desejamos extrair um sub-
conjunto com um mı́nimo de vetores que ainda seja gerador de V , para isto definiremos os conceitos
de dependência e independência linear.

63
D EFINIÇ ÃO 2.19. Consideremos o conjunto S = {v1 , . . . , vn }, de vetores de V . Diremos que S é
linearmente independente (LI), se a única solução da equação:

α1 v1 + α2 v2 + . . . + αn vn = 0V

é, α1 = α2 = . . . = αn = 0. Caso exista uma solução com alguns escalares não nulos, diremos que
S é linearmente dependente (LD).

P ROPOSIÇ ÃO 2.20. Seja V um espaço vetorial e S um subconjunto de vetores de V . Temos:

1. Se S = {0V } ou se S é um conjunto que contém 0V , então S é LD.

2. Se v 6= 0V , então S = {v} é um conjunto LI

3. Se n ≥ 2, o conjunto com n vetores S = {v1 , . . . , vn } será LD, se e somente se algum vetor de


S é combinação linear de outros vetores de S. Consequentemente, S será LI, se nenhum vetor
de S for combinação linear de outros vetores de S.

N OTA 2.21. De 2.20(3), veja que um conjunto S com dois vetores não nulos verifica,

S = {u, v} é LI, se e somente se, u 6= kv qualquer que seja o escalar k.

E se existir k tal que u = kv, então S será LD.

E XEMPLOS 2.22.
   
−2 4
1. {u =  3  , v = −6} é LD, pois v = −2u.
1 −2
   
1 1
{w = 0 , z = −1} é LI, pois w 6= kz, ∀k ∈ R.
  
2 2
     
−2 1 1
2. { 1 , −1 , −1} é LI. De fato, consideremos a equação:
    
1 1 −1
       
−2 1 1 0
α 1 + β −1 + γ −1 = 0 ,
      
1 1 −1 0

esta equação equivale ao sistema homogêneo,


    
−2 1 1 α 0
 1 −1 −1 β  = 0 .
1 1 −1 γ 0

64
Para determinar se a solução do sistema é única (portanto nula) ou não, podemos calcular o
posto.      
−2 1 1 −2 1 1 −2 1 1
 1 −1 −1 →  0 −1 −1 →  0 −1 −1 ,
1 1 −1 0 3 −1 0 0 −4
logo o posto é 3, assim a solução é única e nula, portanto S é LI.
O BSERVAÇ ÃO 2.23. No caso V = Rm e S = {v1 , . . . , vn } ⊆ V , para determinar se S é LI ou LD
considere a matriz A, de ordem m × n, cujas colunas são os vetores de S e observamos que o posto
de A determina o tipo de solução do sistema homogêneo AX = 0, logo:

• No caso m = n, temos
pA = m ⇔ A invertı́vel ⇔ det A 6= 0 ⇔ S é LI
pA < m ⇔ A não invertı́vel ⇔ det A = 0 ⇔ S é LD.

• No caso m < n temos pA ≤ m < n logo S será LD.


• No caso m > n temos duas possibilidades:
pA = n ⇔ S é LI
pA < n ⇔ S é LD.
No primeiro caso, ainda podemos usar o determinante de uma submatriz de A na seguinte
forma:
S é LI ⇔ pA = n
⇔ alguma submatriz quadrada M de ordem n de A verifica detM 6= 0.
E XEMPLOS 2.24. 1. Em R4 , consideremos o conjunto de vetores
     
1 0 2
−1  2  0
{
 0  ,  1  , 1}.
    

2 −1 3
Temos:      
1 0 2 1 0 2 1 0 2
 −1 2 0 
  0 2 2  0 1 1
A=
 0 → → ,
1 1   0 1 1  0 0 0
2 −1 3 0 −1 −1 0 0 0
o posto é 2 < 3, logo o conjunto de vetores é LD.
2. Em R4 , o conjunto de vetores      
1 −1 1
0  0  2
0 ,  2  , 0}
{     

1 1 1

65
 
1 −1 1
0 0 2
Considerando A = 
0 2 0, temos o determinante de uma submatriz:

1 1 1
0 0 2
0 2 0 = −4 6= 0, ∴ o conjunto é LI.
1 1 1

2.6 Base e Dimensão


D EFINIÇ ÃO 2.25. Um conjunto não vazio S de n vetores de V será uma Base para V , se

1. S é um conjunto LI
2. S gera V .
E XEMPLOS 2.26.

1. Base usual ou canônica de R2 . É simples verificar que o conjunto:


   
1 0
{e1 = , e2 = },
0 1
é uma base de R2 , chamada base canônica de R2 .
Da mesma forma,      
1 0 0
{e1 = 0 , e2 = 1 , e3 = 0},
    
0 0 1
é uma base de R2 , chamada base canônica de R3 . Em geral, o conjunto
   
1 0
0 0
{e1 =  ..  , . . . , en =  .. },
   
. .
0 1
é uma base, chamada base canônica de Rn .
     
1 2 3
2. Verifiquemos que S = {2 , 9 , 3} é uma base para R3 .
1 0 4
 
1 2 3
Calculemos o determinante da matriz A = 2 9 3:
1 0 4
1 2 3 1 2 3 1 2 3
2 9 3 = 0 5 −3 = 0 5 −3 = −5 6= 0,
1 0 4 0 −2 1 0 0 −1

66
logo S é LI, também gera R3 , pois claramente o sistema AX = b terá solução para todo b ∈ R3 .
Portanto S é uma base para V .

3. No espaço vetorial Pn (R) = {a0 + a1 x + . . . + an xn | a0 , a1 , . . . , an ∈ R} o conjunto


{1, x, x2 , . . . , xn } é gerador e LI, portanto é uma base para Pn (R), chamada base usual.

4. No espaço vetorial das matrizes M (m × n, R) o conjunto gerador usual com mn matrizes:


{E11 , E12 , . . . , Emn } é uma base de M (m × n, R), pois o conjunto é LI (verifique) e gerador.

O BSERVAÇ ÃO 2.27. Como colocado no exemplo 2.26(2), em Rn um conjunto com n vetores {v1 , . . . , vn }
será uma base, se e somente se, det A 6= 0, onde A é a matriz cujas colunas (ou linhas) são os vetores
v1 , . . . , vn .
     
1 1 3
3
E XEMPLO 2.28. Consideremos os vetores de R , u = 1 , v = 0 e w = 1.
    
0 −2 1
Como
1 1 3 1 1 0 1 1 0
1 0 1 = 0 −1 −2 = 0 −1 −2 = −5 6= 0,
0 −2 1 0 −2 1 0 0 5
logo o conjunto é uma base para R3 . Em casos deste tipo os vetores podem ser as linhas ou colunas
de A, pois det A = det At .

A seguinte proposição contém resultados que mostram que todas as bases de um espaço vetorial tem
o mesmo número de vetores.

P ROPOSIÇ ÃO 2.29. Seja V é um espaço vetorial, que possui uma base com exatamente n vetores,
então temos:

1. Todo conjunto de V com mais do que n vetores será LD.

2. Todo conjunto de V com menos do que n vetores não gera V .

3. Todas as bases de um espaço vetorial V , possuem o mesmo número de vetores.

Demonstração. 1. Sejam B = {v1 , v2 , . . . , vn } base de V e um conjunto de vetores S = {u1 , u2 , . . . , um }


de V com m > n.
Como cada uj é c.l. de B temos:
n
X
uj = aij vi ,
i=1

assim, uma c.l. de S igual a 0 é da forma:


m m n
! n X
m n m
!
X X X X X X
0= xj uj = xj aij vi = xj aij vi = aij xj vi ,
j=1 j=1 i=1 i=1 j=1 i=1 j=1

67
sendo B LI, temos:
m
X
aij xj = 0, ∀ i = 1, . . . , n,
j=1

note-se que temos um sistema linear homogêneo de n equações e m incógnitas: x1 , . . . , xm , o


sistema é do tipo SPI, pois tem m > n incógnitas. Portanto S é LD.

3. Decorre de (1) e (2) que uma base, isto um conjunto gerador e LI, dever ter exatamente n
vetores.

D EFINIÇ ÃO 2.30. Dizemos que um espaço vetorial V tem dimensão finita quando tem uma base
composta por um número finito de vetores. Neste caso, dizemos que V tem dimensão n se suas bases
possuem n elementos, neste caso escrevemos

dimV = n.

Se V = {0V }, entenderemos que dim{0V } = 0.

E XEMPLOS 2.31.

1. dimRn = n.

2. Seja W = ger{v} , com v 6= 0. Claramente {v} é LI e gera, logo é uma base de W , assim
dimW = 1. Em R2 ou R3 o espaço gerado por um vetor não nulo e tem dimensão 1.

3. Em R3 , um subespaço W gerado por quaisquer dois vetores LI u e v, é um plano passando pela


origem cuja base é {u, v}, logo dimW = 2.

4. Determine uma base e a dimensão do espaço dado por

W = {(x, y, z) ∈ R3 | 3x − 2y + 5z = 0}.

3x + 5z
De fato, y = logo,
2
   
x x
y  = (3x + 5z)/2
z z
   
x 0
= 3x/2 + 5z/2
0 z
   
1 0
= x 3/2 + z 5/2 , ∀x, z ∈ R.
0 1

68
Assim temos que W é gerado por:
       
1 0 2 0
{ 3/2 , 5/2} ou por
   { 3 , 5},
  
0 1 0 2
   
2 0
logo conjunto B = {3 , 5} é gerador de W , B também é LI, pois os vetores não são
0 2
múltiplos, logo B é uma base para W , portanto W é um plano e dimW = 2.

5. dim(Pn (R)) = n + 1, pois de acordo com o exemplo 2.26 sua base usual tem n + 1 vetores.

6. dim(M (m × n, R)) = mn, pois no exemplo 2.26 temos uma base com mn matrizes.

As propriedades abaixo mostram a existência de bases em espaços finitamente gerados e também são
úteis para construição bases a partir de conjuntos LI ou geradores.

P ROPOSIÇ ÃO 2.32. Seja V um espaço vetorial de dimensão finita.

1. Se B = {v1 , . . . , vk } é um conjunto de vetores não nulos de V que geram V , então podemos


extrair um subconjunto de B, de forma que seja uma base para V .

2. Se B = {v1 , . . . , vk } é um conjunto de vetores LI de V , então podemos completar B para obter


uma base de V .

3. Se dimV = n e B ⊂ V é um conjunto com n vetores, então:

• B é LI ⇔ B é base de V
• B gera V ⇔ B é base de V.

Sobre as dimensões de um espaço e um subespaço, das propriedades 2.32 conclui-se que:

P ROPOSIÇ ÃO 2.33. Se W é um sub-espaço de um espaço V de dimensão n, então

1. dimW ≤ dimV.

2. dimW = n ⇔ W = V.

A seguinte proposição providencia um processo para determinar bases para o espaço gerado por um
conjunto de vetores do espaço Rn .

P ROPOSIÇ ÃO 2.34. Sejam A uma matriz de ordem m × n e B sua forma escalonada linha, conside-
rando as linhas das matrizes como vetores de Rn , temos que as linhas não nulas de B formam uma
base para o espaço gerado pelas linhas de A.

69
E XEMPLO 2.35. Determine uma base para o subespaço W de R3 gerado pelos vetores
       
1 2 −2 −1
u =  2  , v =  7  , w = −1 , z =  1  .
−1 −1 3 2
     
1 2 −1 1 2 −1 1 2 −1
2
 7 −1  → 0 3 1  → 0 3 1  .
   
−2 −1 3  0 3 1  0 0 0 
−1 1 2 0 3 1 0 0 0
   
1 0
Portanto uma base para W é { 2 , 3} e dimW = 2. Neste caso qualquer par de vetores entre
  
−1 1
os dados é uma base, pois serão 2 vetores LI em um espaço com dimensão 2.

2.7 Espaços Associados a uma Matriz


Seja A uma matriz de ordem m × n. O espaço nulo de uma matriz A é o espaço das soluções do
sistema homogêneo com matriz de coeficientes A,

N ul(A) = {X ∈ Rn | A · X = 0}.
 
2 1 −1 1
E XEMPLO 2.36. Seja A =  1 1 −2 −1 , determinemos uma base para W = N ul(A).
1 2 −5 −4
Temos que W é o subespaço de R4 das soluções do sistema homogêneo,
 
  x  
2 1 −1 1   0
1 1 −2 −1  y  = 0 .
z 
1 2 −5 −4 0
w

Escalonando A temos,
       
2 1 −1 1 2 1 −1 1 2 0 2 4 1 0 1 2
A = 1 1 −2 −1 → 0 −1 3 3 → 0 1 −3 −3 → 0 1 −3 −3 .
1 2 −5 −4 0 −3 9 9 0 0 0 0 0 0 0 0

Temos pA = 2 e nA = 4 − 2 = 2, as variáveis livres são s = z e t = w e a solução é, x = −s − 2t,


y = 3s + 3t, ou seja
         
−s − 2t −s −2t −1 −2
 3s + 3t   3s   3t  3 3
X=
 s  =  s  +  0  = s 1  + t 0 .
         (2.1)
t 0 t 0 1

70
   
−1 −2
3 3
Portanto dim W = 2 e uma base para W é {
 1  ,  0 }.
  

0 1

Sabemos que as soluções do sistema homogêneo A · X = 0 são determinadas pelas variáveis livres, o
número destas é exatamente o grau de liberdade do sistema, dado por nA = n − pA que já foi definido
(vide definição 1.50 do Cap. I) como nulidade de A.
O vetor solução X ∈ N ul(A) é determinado como combinação linear de nA vetores v1 , . . . , vnA de
Rn ,
X = s1 v1 + . . . + snA vnA ,
onde os escalares são as variáveis independentes, como em 2.1, logo o conjunto B = {v1 , . . . , vnA }
gera N ul(A). Por outro lado,
X = 0 ⇒ s1 = 0, . . . , snA = 0,
ou seja que o conjunto B é LI, portanto determinará uma base para N ul(A).
Os vetores da base B podem ser determinados atribuindo 1 a uma variável independente e 0 as res-
tantes. Concluı́mos então que:
dim N ul(A) = nA = n − pA .

D EFINIÇ ÃO 2.37. Se A é uma matriz m × n, definimos

• O subespaço de Rn gerado pelas linhas de A, chamado espaço linha de A, denotado Lin(A).


• O subespaço de Rm gerado pelas colunas de A, dito espaço coluna e denotado Col(A).
Se C1 , . . . , Cn são as colunas de A, então os vetores de Col(A) são da forma:
 
x1
 .. 
x1 C 1 + . . . + xn C n = A  .  ,
xn
ou seja
Col(A) = {AX ∈ Rm / X ∈ Rn }.
E XEMPLO 2.38. Determine uma base e a dimensão de Col(A) ⊆ R3 , onde
 
1 2 −4
A =  2 9 −7 .
−1 3 5

Calculemos o determinante, para verificar se o conjunto é LI ou LD.


1 2 −4 1 2 −4
2 9 −7 = 0 5 1 = 0
−1 3 5 0 5 1

71
Logo, o conjunto é LD. Notando que tem no máximo 2 vetores LI, concluı́mos que dim(Col(A)) = 2
e uma base para Col(A) é
   
1 2
{ 2 , 9}.
  
−1 3

O BSERVAÇ ÕES 2.39. 1. Col(A) = Lin(At ).

2. Diretamente da proposição 2.34, obtemos que a dimensão do espaço Lin(A) é exatamente o


posto de A (posto linha de A), e daı́ dim(Col(A)) = pAt (posto coluna de A). Ainda podemos
usar essa proposição para determinar uma base para Col(A) que será composta pelas linhas não
nulas da matriz escalonada obtida a partir de At .

O teorema abaixo estabelece que os postos linha e coluna são iguais e seu valor é pA .

Teorema 2.40. Se A é uma matriz m × n, então pA = pAt , portanto

dim Col(A) = dim Lin(A) = pA .

Usemos o teorema 2.40 para cálculo de dim(Col(A)).


 
1 −2 5 −1
E XEMPLO 2.41. Calculemos dim(Col(A)) onde A = 3 1 1 4 .
1 1 −1 2
     
1 −2 5 −1 1 −2 5 −1 1 −2 5 −1
3 1 1 4  → 0 7 −14 7  → 0 1 −2 1  .
1 1 −1 2 0 3 −6 3 0 0 0 0
Portanto dim(Col(A)) = pA = 2. Note que conseguimos a dimensão mas não uma base para Col(A).
Mas sendo um espaço de dimensão 2 uma base é qualquer conjunto de dois vetores colunas distintos
de A. Por exemplo:
   
1 −2
{ 3 , 1 }.
  
1 1

2.8 Soma e Interseção de subespaços


P ROPOSIÇ ÃO 2.42 (Interseção de Subespaços). Dados os subespaços U e W do espaço vetorial V ,
temos que a interseção de U e W ,

U ∩ W = {u ∈ V | u ∈ U e u ∈ W } ,

também é um subespaço vetorial de V .

72
E XEMPLOS 2.43. 1. Sejam V = R3 e U, W planos que contém 0V = (0, 0, 0). Caso U = W ,
temos que U ∩ W = U = W é um subespaço vetorial, caso U 6= W , temos que U ∩ W é uma
reta que contém 0V e portanto também é um subespaço vetorial de V .

2. Sejam V = R3 e U e W duas retas diferentes que passam pela origem, neste caso temos o
subespaço vetorial: U ∩ W = {0V } .

D EFINIÇ ÃO 2.44. Sejam U e W sebespaços de um espaço vetorial V , define-se a soma de U e W


como
U + W = {u + w ∈ V | u ∈ U e w ∈ W } ⊂ V.

P ROPOSIÇ ÃO 2.45 (Subespaço soma). Se U e W são subespaços de V , então a soma U +W também
é um subespaço de V . U + W qual contém U e W .

73
E XEMPLOS 2.46.

1. Consideremos V = R3 e U , W retas diferentes, como no Exemplo 2.43. Notemos que U + W


contém todas as somas de vetores nas retas dadas, então U + W é exatamente o plano que
contém as retas U e W .

2. Consideremos V = R3 e um plano U passando pela origem e uma reta W passando pela


origem. Temos:
• Se a reta está contida no plano, isto é W ⊂ U , então U + W será exatamente o plano U .

• Se a reta não está contida no plano, então U + W será todo R3 .

74
O BSERVAÇ ÃO 2.47. Notemos que se temos bases: {u1 , . . . uk } e {w1 , . . . , wr }, para os espaços
U e W , respectivamente, então a união destas bases:
{u1 , . . . , wr } ,
será um conjunto gerador para U + W .

As dimensões dos espaços U , W , U ∩ W e U + W , estão relacionadas pelo seguinte teorema.


Teorema 2.48. Se U e W são subespaços de um espaço vetorial V de dimensão finita, então verifica-
se:
dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W ).
E XEMPLO 2.49. Determine U + W e verifique o teorema anterior, onde U e W são os subespaços
de R3 :
U = {(x, y, z) ∈ R3 | x + y − z = 0} e W = {(x, y, z) ∈ R3 | x − y = 0}.

Notemos que:        
1 0 1 0
U = ger{0 , 1} e W = ger{1 , 0}.
1 1 0 1
Então,        
1 0 1 0
U + W = ger{ 0 , 1 , 1 , 0}.
      
1 1 0 1
Notemos que dim(U + W ) = 3, pois temos 3 vetores LI, de fato:
0 1 0
1 1 0 = −1 6= 0.
1 0 1
Então, U + W = R3 .
Determinemos uma base para U ∩ W .
 
x 
y  ∈ U ∩ W ⇔ x + y − z = 0 ⇔ x = y = 1 z, z ∈ R,
x−y = 0 2
z
tomando z = 2λ obtemos:
     
x λ 1
y  ∈ U ∩ W ⇔  λ  = λ 1 , λ ∈ R.
z 2λ 2
Logo dim(U ∩ W ) = 1. Portanto verifica-se:

dim(V ) = dim(U ) + dim(W ) − dim(U ∩ W ) .


| {z } | {z } | {z } | {z }
3 2 2 1

75
D EFINIÇ ÃO 2.50. No caso U ∩ W = {0V }, o espaço V = U + W é dito soma direta de U e W e
usamos a notação V = U ⊕ W

No caso de soma direta, temos dim(U ∩ W ) = dim{0V } = 0, logo dim(U ⊕ W ) = dimU + dimW .
Nesse caso, uma reunião de bases de U e de W , terá o número de vetores igual a dim(U ⊕ W ), logo
a reunião de bases é uma base para a soma direta.
No exemplo anterior, V não é soma direta de U e W .
E XEMPLO 2.51. Um exemplo de soma direta é o plano V , determinado por dois vetores LI u e
w, neste caso tomando os subespaços de V : U = ger{u} e W = ger{w}, temos claramente que
V = U ⊕ W.

O BSERVAÇ ÃO 2.52. Da propria definição temos que todo vetor do espaço V = U + W é composto
por somas de dois vetores, um em U e o outro em W . Agora se a soma é direta, ou seja V = U ⊕ W ,
além de cada vetor de V ser da forma: v = u + w, com u ∈ U e w ∈ W , as componenetes de v em
U e W são únicas, ou seja que:
v = u + w = u0 + w0 , com u, u0 ∈ U e w, w0 ∈ W ⇒ u − u0 = w0 − w ∈ U ∩ W
⇒ u − u0 = 0 e w − w 0 = 0
⇒ u = u0 e w = w0 .

2.9 Coordenadas com relação a uma base


Sejam V um espaço vetorial de dimensão finita sobre R e α = {v1 , . . . , vn } uma base de V . Vejamos
que, para todo v ∈ V existem únicos escalares x1 , . . . , xn ∈ R tais que:
v = x1 v1 + . . . + xn vn ,
de fato, se tivermos que:
v = x1 v1 + . . . + xn vn = y1 v1 + . . . + yn vn ⇒ 0V = (x1 − y1 )v1 + . . . + (xn − yn )vn ,
como os vetores são LI, então os escalares devem ser nulos, logo
x1 = y 1 , . . . , x n = y n .
Consideremos uma ordem fixa nos vetores da base α, assim os escalares associados a um vetor v ∈ V ,
ordenados de acordo com a ordem fixa da base, determinaram v de forma única.

76
D EFINIÇ ÃO 2.53. Nas condições acima e dado v ∈ V , chamamos coordenadas de v com relação a
base α ao vetor coluna:  
x1
 .. 
[v]α =  .  ∈ Rn .
xn
De forma que  
x1
v = x1 v1 + . . . + xn vn ⇔ [v]α =  ...  .
 
xn
E XEMPLOS 2.54.
   
1 0
n  ..   .. 
1. Sejam V = R e a base canônica ordenada α = {e1 =  .  , . . . , en =  . }. Neste caso para
0 1
n
qualquer vetor de R , temos
     
x1 1 0
 ..   ..   .. 
v =  .  = x1  .  + . . . + xn  .  = x1 e1 + . . . + xn en , ou seja:
xn 0 1
 
x1
 .. 
[v]α =  .  = v, para todo v ∈ Rn .
xn
     
1 2 0
3
2. Seja V = R , afirmamos que β = {u1 = −1 , u2 = −1 , u3 = 1} é uma base para V
    
0 −1 1
(verifique!).
 
x
(a) Determinemos as coordenadas de um vetor v = y  ∈ V em relação a base ordenada β,

z
temos,

              
a 1 2 0 x 1 2 0 a x
[v]β = b ⇒ a −1 + b −1 + c 1 = y ⇔ −1 −1 1
             b = y .
 
c 0 −1 1 z 0 −1 1 c z

O sistema pode ser resolvido por inversão pois a solução é única, ou seja é SPD, logo a matriz
de coeficientes é invertı́vel. Usando qualquer processo de inversão de matrizes, obtemos:
   −1     
a 1 2 0 x 0 −2 2 x
1
[v]β =  b  = −1 −1 1 y  = 1 1 −1 y  ,
2
c 0 −1 1 z 1 1 1 z

77
assim  
−2y + 2z
1
[v]β = x + y − z  .
2
x+y+z

(b) Dadas as coordenadas de um vetor, podemos obter o próprio vetor. De fato:


         
1 1 2 0 −1
• Se [u]β = −1 ⇒ u = u1 − u2 + 2u3 = −1 − −1 + 2 1 = 2  .
        
2 0 −1 1 3
   
0 2
• Se [v]β = 1 ⇒ v é o segundo vetor da base ⇒ v = −1 .
0 −1

P ROPRIEDADES 2.55. Se V é um espaço de dimensão finita n, com base α e u, v ∈ V , então valem


as seguintes propriedades:

1. [u]α = 0Rn ⇔ u = 0V .

2. [u]α = [v]α ⇔ u = v

3. [u + v]α = [u]α + [v]α

4. [λu]α = λ[u]α

5. Se A e B são matrizes de ordem m × n, tais que A[u]α = B[u]α , ∀u ∈ V , então A = B.

Matriz Mudança de base.


Sejam α e β bases do espaço vetorial V , onde α = {u1 , · · · , un }. Dado u ∈ V , desejamos saber a
relação entre [u]α e [u]β .
Por exemplo, em R3 , dada uma base ordenada α = {u1 , u2 , u3 } e um vetor v ∈ R3 , representando v
como combinação linear dos vetores de α obtemos a igualdade:
 
u1 |u2 | u3 · [v]α = v = [v]C , onde C é a base canônica,

que associa [v]α e [v]C , veremos que em geral temos uma relação similar entre coordenadas de um
mesmo vetor em duas bases do espaço.
 
a1
 .. 
Consideremos, [u]α =  . , escalares de u com relação à base α. Determinemos os escalares [u]β .
an
Temos,
u = a1 u1 + . . . + an un ,
logo,

78
[u]β = [a1 u1 + . . . + an un ]β
= a1 [u1 ]β + . . . + an [un ]β
 
a
   .1 
= [u1 ]β | . . . | [un ]β ·  .. 
an
 
= [u1 ]β | . . . | [un ]β · [u]α

A matriz acima cuja j-ésima coluna é o vetor [uj ]β , é chamada matriz mudança de base, da base α
para base β e é denotada por [I]αβ , ou seja

[I]αβ = [u1 ]β | . . . | [un ]β .


 

Esta matriz é uma matriz quadrada de ordem n, com a propriedade caracterı́stica:

[u]β = [I]αβ [u]α , ∀u ∈ V,

ou seja que, fixadas as bases α, β a matriz [I]αβ é a única que verifica a igualdade acima.
Resumindo em um diagrama,

de forma prática, conhecendo [u]α podemos determinar [u]β multiplicando pela matriz [I]αβ .
As seguintes propriedades auxiliam nos cálculos de matrizes mudança de base e coordenadas de
vetores.

1. Inversa de uma matriz Mudança de base. A matriz [I]αβ é invertı́vel, pois notemos que para
todo u ∈ V ,
[u]β = [I]αβ [u]α e [u]α = [I]βα [u]β
logo,
[u]α = [I]βα ([I]αβ [u]α ) = ([I]βα [I]αβ )[u]α , ∀ u ∈ V ⇒ [I]αβ [I]βα = In ,

daı́, concluimos que,


[I]αβ = ([I]βα )−1 .

2. [I]αα é a matriz identidade. Sim, pois [u]α = In · [u]α , ∀u ∈ V , logo [I]αα = In .

3. Mudança entre 3 bases. Dadas as bases α, β e γ de V , mudando a base β para γ e em seguida


para α temos,
[u]γ = [I]βγ [u]β e [u]γ = [I]βγ [u]β = [I]βγ [I]αβ [u]α ,
o que mostra que [I]αγ = [I]βγ [I]αβ .

79
4. Mudança de bases em Rn . A matriz mudança de base, da base α = {u1 , . . . , un } para a base
canônica C de Rn é simplesmente, [I]αC = [u1 · · · un ]. Já a matriz mudança de base entre
bases quaisquer α e β de Rn pode ser calculada da forma,
β −1
[I]αβ = [I]C α α
β [I]C = ([I]C ) [I]C .

E XEMPLOS 2.56.
       
2 1 1 −1
1. Sejam V = R2 e as bases de R2 : α = { , }eβ ={ , }. Determine as matrizes
1 1 1 0
mudança de bases [I]αβ , [I]βα .
Primeira forma. Para obter [I]αβ calcularemos as coordenadas, na base β, de um vetor qualquer
 
x
u= . Notemos que,
y
            
a 1 −1 x 1 −1 a x
[u]β = ⇒a +b = ⇔ =
b 1 0 y 1 1 b y
     
x a y
cuja solução é a = y e b = y − x, ou seja [ ] = = .
y β b y−x
       
2 1 1 1
Logo, [ ] = e [ ] = . Portanto,
1 β −1 1 β 0
   
α 1 1 β α −1 0 −1
[I]β = e [I]α = ([I]β ) = .
−1 0 1 1

Segunda forma. Sabemos que [I]αβ = ([I]βC )−1 [I]αC , onde C é a base canônica de R2 , temos
     −1  
α 2 1 β 1 −1 β −1 1 −1 0 1
[I]C = , [I]C = e ([I]C ) = = .
1 1 1 0 1 0 −1 1
    
α 0 1 2 1 1 1
[I]β = = .
−1 1 1 1 −1 0
     
0 0 1
3 3
2. Considere V = R , α a base canônica de R e a base β = { 0 , −2 , 0 }. Calcule [I]βα
    
1 1 −1
α
e [I]β .
 
0 0 1
Claramente, [I]βα =  0 −2 0  .
1 1 −1
Fazendo o processo de inversão obtemos:
 −1  
0 0 1 1 1/2 1
[I]αβ =  0 −2 0  =  0 −1/2 0  .
1 1 −1 1 0 0

80
           
−2 0 2 1 1 0
3
3. Considere as bases de R , α = { 0 , −1 , 1 } e β = { 1 , 0 , 0}, calcule [I]αβ
          
1 1 0 1 1 1
β
e [I]α
Seja C a base canônica de R3 . Temos [I]αβ = ([I]βC )−1 [I]αC . É claro que,
   
−2 0 2 1 1 0
[I]αC =  0 −1 1 e [I]βC = 1 0 0 ,
1 1 0 1 1 1

logo:
 −1  
1 1 0 −2 0 2
[I]αβ = 1 0 0  0 −1 1
1 1 1 1 1 0
  
0 1 0 −2 0 2
=  1 −1 0  0 −1 1
−1 0 1 1 1 0
 
0 −1 1
= −2 1 1 .
3 1 −2

Calculamos a outra mudança de base por inversão:


 −1  
0 −1 1 3 1 2
1
[I]βα = ([I]αβ )−1 = −2 1 1  = 1 3 2 .
4
3 1 −2 5 3 2

81
Capı́tulo 3

TRANSFORMAÇÕES LINEARES

3.1 Definição e Exemplos


D EFINIÇ ÃO 3.1. Dados dois espaços vetoriais reais, V e W , diremos que a aplicação,

T : V → W,

é uma transformação linear (TL), se são satisfeitas as seguintes propriedades.

1. T (u + v) = T (u) + T (v), para todos u, v ∈ V

2. T (λu) = λT (u), para todos λ ∈ R, u ∈ V.

E XEMPLOS 3.2.

1. Dado k ∈ R, temos que a aplicação T : R → R, dada por T (x) = kx, ∀ x ∈ R é uma


transformação linear, pois

T (x + y) = k(x + y) = kx + ky = T (x) + T (y),

T (λx) = k(λx) = λ(kx) = λT (x),


para todos x, y, λ ∈ R.

2. Seja A uma matriz de ordem m × n. A aplicação:

T : Rn → Rm , T (u) = Au, ∀ u ∈ Rn ,

é uma transformação linear, pois para todos u, v ∈ Rn e λ ∈ R,

• T (u + v) = A(u + v) = Au + Av = T (u) + T (v),


• T (λu) = A(λu) = λ(Au) = λT (u).

82


1 2
Por exemplo, com A = −1 3, temos
0 1
   
  1 2   x + 2y  
2 3 x x x
T : R → R , T( ) = −1 3
  = −x + 3y , ∀
  ∈ R2 .
y y y
0 1 y

Nota: Toda transformação linear T : Rn → Rm é da forma dada neste exemplo, isto será
esclarecido na observação 3.27.

3. Nos espaços vetoriais V = C 1 (R) das funções reais, diferenciáveis com derivada contı́nua e
W = C(R), das funções contı́nuas, a aplicação de derivação é uma transformação linear, pois
é conhecido que,

(f + g)0 = f 0 + g 0 e que, (λf )0 = λf 0 .

4. Dados espaços vetoriais V e W , é simples verificar que as seguintes aplicações são transformações
lineares.

(a) Transformação Identidade. I : V → V, I(u) = u, para todo u ∈ V .


(b) Transformação Nula. T : V → W, T (u) = 0W ∈ W , para todo u ∈ V .

P ROPRIEDADES 3.3. Dada uma transformação linear T : V → W valem as propriedades:

1. T (0V ) = 0W ,

2. T (−u) = −T (u), para todo u ∈ V ,

3. Dados u1 , . . . , un vetores de V e α1 , . . . , αn escalares, temos que:

T (α1 u1 + . . . + αn un ) = α1 T (u1 ) + . . . + αn T (un ).

Daı́, claramente uma aplicação entre espaços vetoriais que verifica T (0V ) 6= 0W não pode ser transformação
linear.
Dado um espaço vetorial V , uma transformação linear T de V em V é chamado operador linear
sobre V . As transformações lineares de V em R são chamadas funcionais lineares sobre V .

Operadores do Plano

1. Contração ou Dilatação uniforme. Consideremos o escalar c > 0 e a aplicação


     
2 2 x x x
T : R → R , tal que T ( )=c , para todo ∈ R2 .
y y y

83
T é uma transformação linear, pois
        
x x cx c 0 x
T =c = = .
y y cy 0 c y

Se c > 1, T é chamada Dilatação. Caso 0 < c < 1, T é dita Contração.

2. Reflexão em torno do eixo x. Considere a aplicação que leva um vetor do plano na sua reflexão
através do eixo x,
     
2 2 x x x
T : R → R , tal que T = , ∀ ∈ R2 .
y −y y

T é um operador linear, pois


      
x x 1 0 x
T( )= = .
y −y 0 −1 y

84
3. Reflexão em torno do eixo y. A aplicação
     
2 2 x −x x
T : R → R , tal que T = , para todo ∈ R2 ,
y y y
leva um vetor do plano na sua reflexão através do eixo y, analogamente ao caso anterior é um
operador linear, pois       
x −x −1 0 x
T( )= = .
y y 0 1 y

4. Reflexão em torno da origem. A aplicação


     
2 2 x −x x
T : R → R , tal que T = , para todo ∈ R2 ,
y −y y
leva um vetor do plano na sua reflexão através da origem, é um operador linear, pois
      
x −x −1 0 x
T( )= = .
y −y 0 −1 y

5. Rotação com ângulo θ. Dado um ângulo θ, consideremos a aplicação de rotação pelo ângulo
θ,
Rθ : R2 → R2 ,

85
que leva um vetor do plano num novo vetor, que é a rotação, com ângulo θ, no sentido anti-
  o caso basta considerar 0 ≤ θ < 2π. Vamos descrever exatamente
horário do vetor inicial, para
x
o vetor Rθ (u), para u = . Escrevendo as componentes de u em função de seu comprimento
y
r e de seu ângulo de inclinação β, temos

x = rcos β, y = rsen β.

logo,
     
x rcos(β + θ) rcosβcosθ − rsenβsenθ
R = =
y rsen(β + θ) rsenβcosθ + rcosβsenθ
   
xcosθ − ysenθ xcosθ − ysenθ
= =
ycosθ + xsenθ xsenθ + ycosθ
     
cosθ −senθ x x
= · , ∀ ∈ R2 .
senθ cosθ y y

 
cosθ −senθ
A matriz é chamada matriz de rotação no plano, pelo ângulo θ.
senθ cosθ

3.2 Núcleo e Imagem de uma Transformação Linear

D EFINIÇ ÃO 3.4. Seja T : V → W uma TL, definimos

1. Núcleo de T :
N uc(T ) = {u ∈ V | T (u) = 0W } .

2. Imagem de T :
Im(T ) = T (V ) = {T (u) ∈ W | ∀ u ∈ V } .

86
Qualquer que seja a transformação T , temos que N uc(T ) e Im(T ) são subespaços de V e W , res-
pectivamente. De fato:

• Para todos u, v ∈ N uc(T ), temos

T (u + v) = T (u) + T (v) = 0W + 0W = 0W ⇒ u + v ∈ N uc(T ).

Para todo u ∈ N uc(T ) e λ ∈ R, temos

T (λu) = λT (u) = λ0W = 0W ⇒ λu ∈ N uc(T )

Também 0 ∈ N uc(T ), pois T (0V ) = 0W .

• Para todos u, v ∈ Im(T ), temos

u + v = T (u0 ) + T (v 0 ) = T (u0 + v 0 ) ⇒ u + v ∈ Im(T ).

Para todo v ∈ Im(T ) e λ ∈ R, temos

λv = λT (u) = T (λu) ⇒ λv ∈ Im(T )

Também 0W = T (0V ) ∈ Im(T ).

Relação do Núcleo e Imagem com os espaços N ul(A) e Col(A).

No caso, V = Rn , W = Rm , A uma matriz fixa de ordem m × n e T : Rn → Rm , dada por


T u = Am×n u, ∀ u ∈ Rn , temos

• N uc(T ) = {X ∈ Rn / T (X) = AX = 0} = N ul(A), logo

N uc(T ) = N ul(A) e dim N uc(T ) = nA = n − pA .


 
x1
• Im(T ) = {T (X) = AX ∈ Rm / X ∈ Rn }, sendo X =  ...  e C1 , . . . , Cn as colunas de A,
 
xn
temos
AX = x1 C1 + . . . + xn Cn ,
logo Im(T ) é o espaço gerado pelas colunas de A, ou seja

Im(T ) = Col(A) e dim Im(T ) = dim Col(A) = pA .

• Verifica-se que,
dim N uc(T ) + dim Im(T ) = n = dim V.

A observação sobre as dimensões, vale em geral para qualquer transformação linear.

87
Teorema 3.5 (Teorema da Dimensão Nucleo-Imagem). Sejam V , W espaços vetoriais de dimensão
finita e T : V → W uma transformação linear, nestas condições temos:

dim(V ) = dim(N uc(T )) + dim(Im(T )).


   
x x + 3z
E XEMPLO 3.6. Determine N uc(T ) e Im(T ), onde T : R3 → R3 , T (y ) = x − y + 5z  .
z 2x + 3y
        
x x + 3z 1 0 3 x 1 0 3
Notemos que T (y ) = x − y + 5z  = 1 −1 5 y  . seja A = 1 −1 5.
z 2x + 3y 2 3 0 z 2 3 0

• Sabemos que N uc(T ) = N ul(A), ou seja trata-se das soluções do sistema homogêneo,
    
1 0 3 x 0
1 −1 5 y  = 0 .
2 3 0 z 0

Escalonando,      
1 0 3 1 0 3 1 0 3
A = 1 −1 5 → 0 −1 2  → 0 1 −2 ,
2 3 0 0 3 −6 0 0 0
 
−3
logo a solução é x = −3s, y = 2s e s ∈ R, ou seja X = 2  s, s ∈ R.

1
 
−3
∴ N uc(T ) = { 2  s / s ∈ R} e dim N uc(T ) = 1.
1

• Sabemos que Im(T ) = Col(A), de fato


         
x x + 3z 1 0 3
T (u) = T y = x − y + 5z = x 1 + y −1 + z 5 ,
        
z 2x + 3y 2 3 3

Do escalonamento de A obtemos, dimIm(T ) = dim Col(A) = pA = 2, logo quaisquer dois


vetores coluna de A formam uma base, por exemplo,
   
 1 0 
1 , −1 .
2 3
 

Determinemos as equações de Im(T ) conhecida a base acima:

88
     
1 0 a 1 0 a 1 0 a
 1 −1 b  →  0 1 a − b  →  0 1 a−b 
2 3 c 0 3 c − 2a 0 0 −5a + 3b + c

Logo,  
a
Im(T ) = { b  / 5a − 3b − c = 0}
c

Neste exemplo, temos dim(V ) = dim(W ) = dim(R3 ) = 3, dim(N uc(T )) = 1 e dim(Im(T )) = 2,


de forma que vale:
dim(V ) = dim(N uc(T )) + dim(Im(T )) .
| {z } | {z } | {z }
3 1 2

E XEMPLO3.7. Determinemos
 bases e as dimensões de N uc(T ) e Im(T ), onde T : R2 → R3 ,
  x − 2y
x
T( ) = x + y .

y
3x − 3y
       
  x − 2y 1 −2   1 −2
x x
Notemos que T ( ) =  x + y  = 1 1  = x 1 + y  1 , logo uma base para
y y
3x − 3y 3 −3 3 −3
Im(T ) é
   
1 −2
{ 1 , 1 }, então dim Im(T ) = 2.
  
3 −3

Obtemos a dimensão de N uc(T ) diretamente


 
0
dimN uc(T ) + dimIm(T ) = 2 ⇒ dim N uc(T ) = 0 ⇒ N uc(T ) = { }.
| {z } 0
2

P ROPRIEDADE 3.8. Para uma transformação linear T : V → W , Im(T ) é gerado pelas imagens de
uma base de V . Para verificarmos esta afirmação, suponha que {u1 , . . . , un } é uma base qualquer de
V , logo todo u ∈ V é uma combinação linear da forma:

u = a1 u1 + · · · + an un ⇒ T (u) = a1 T (u1 ) + · · · + an T (un ),

assim, Im(T ) é gerado por T (u1 ), · · · , T (un ).

Determinando Transformações Lineares.

O seguinte teorema mostra que podemos determinar uma transformação linear conhecendo as ima-
gens em uma base qualquer.

89
Teorema 3.9. Sejam V e W espaços vetoriais. Dados uma base α = {v1 , . . . , vn } de V e um grupo
de n vetores {w1 , . . . , wn }, de W , então existe uma única transformação linear T : V → W , tal que:

T (v1 ) = w1 , . . . , T (vn ) = wn .

Demonstração. Dado que todo vetor de v ∈ V escreve-se como combinação linear de vetores da
base,
v = a1 v1 + . . . + an vn , onde a1 , . . . , an são as coordenadas de v em α,
assim podemos definir a aplicação T ,

T (v) = T (a1 v1 + . . . + an vn ) = a1 T (v1 ) + . . . + an T (vn ).

É simples verificar que a T definida assim é uma TL, que verifica T (vi ) = wi e que é única com esta
condição.
   
1   1
1
E XEMPLO 3.10. Determine a transformação linear T : R3 → R2 , tal que T (1) = , T (1) =
2
  1 0
  1  
2 3
e T ( 0) =
 . É direto verificar que
3 4
0
     
1 1 1
α = { 1 , 1 , 0}
    
1 0 0

é uma base para V = R3 , logo existe


 atransformação pedida e ela será única. Para determinar esta
x
TL, vamos escrever um vetor u = y  como combinação linear dos vetores da base α e portanto
z
devemos calcular as coordenadas de u em α. De fato,
            
x 1 1 1 x 1 1 1 a
u = y  = a 1 + a 1 + c 0 ⇒ y  = 1 1 0  b  ,
z 1 0 0 z 1 0 0 c
logo,
   −1       
a 1 1 1 x 0 0 1 x z
[u]α =  b  = 1 1 0 y  = 0 1 −1 y  = y − z 
c 1 0 0 z 1 −1 0 z x−y
Com as coordenadas de u em α, obtemos
       
x 1 1 1
u = y  = z 1 + (y − z) 1 + (x − y) 0 ,
z 1 0 0

90
Aplicando T em ambos os lados da igualdade temos,
       
x 1 1 1
T ( y ) = zT ( 1 ) + (y − z)T ( 1 ) + (x − y)T ( 0)
      
z 1 0 0
     
1 2 3
= z + (y − z) + (x − y)
2 3 4
 
3x − y − z
= .
4x − y − z
E XEMPLO
  3.11. Determine
 atransformação
  linear T : R3 → R3 , tal que N uc(T ) = [u], onde
1 −1 1
u = −1 e tal que e T ( 0 ) = 1.
    
0 4 1
       
1 0 −1 1
Neste caso T (−1) = 0, T ( 0 ) = 1, mas
0 0 4 1
   
1 −1
{ −1 , 0 } não é uma base para R3 , e sim um conjunto LI, logo pode ser completado para obter
  
0 4
uma base,      
1 −1 0 1 −1 0
β = {−1 ,  0  , 0}, pois −1 0 0 = −1 6= 0
0 4 1 0 4 1
logo β é uma base para V = R3 .
 
0
Para determinar T será suficiente definir T (0), mas a transformação pedida não será única, pois
1
podemos completar a base de várias formas, assim como
 podemos
  definir a imagem do terceiro vetor
0 −1
de muitas formas. Neste caso vamos definir, T (0) =  0  . Para o cálculo das coordenadas de
  1 1
x
um vetor u = y  em β, usemos matriz mudança de base,
z
 −1       
1 −1 0 x 0 −1 0 x −y
β −1
[u]β = [I]C
β u = ([I]C ) u = −1
 0 0 y  = −1 −1 0 y  =  −x − y  ,
0 4 1 z 4 4 1 z 4x + 4u + z
assim temos,
       
x 1 −1 0
u = y  = −y −1 + (−x − y)  0  + (4x + 4y + z) 0 ,
z 0 4 1

91
Aplicando T em ambos os lados da igualdade temos,
       
x 1 −1 0
T ( y ) = −yT ( −1 ) + (−x − y)T ( 0 ) + (4x + 4y + z)T ( 0)
      
z 0 4 1
     
0 1 −1
= −y 0 + (−x − y) 1 + (4x + 4y + z)  0 
0 1 1
 
−5x − 5y − z
=  −x − y − z  .
3x + 3y + z

3.3 Operações com TLs


Soma e Multiplicação por Escalar.
D EFINIÇ ÃO 3.12. Dados espaços vetoriais U e V e as transformações lineares, T : U → V e
L : U → V , de forma usual define-se,

1. Soma. A aplicação soma de T e L, denotada L + T , é dada por

L + T : U → V, onde (L + T )(u) = L(u) + T (u).

2. Multiplicação por Escalar. Dados α ∈ R e T : U → V uma TL, denotamos por αL a


aplicação,
αL : U → V, dada por (αL)(u) = αL(u).

Da forma padrão, prova-se que T + L e αL são transformações Lineares.

No caso usual L, T : Rn → Rm dadas por L(u) = Am×n u e T (u) = Bm×n u, temos,

(L + T )u = (A + B)u e (αL)u = αAu.


   
2y x
E XEMPLO 3.13. Sejam T : R2 → R3 , L(x, y) =  2x  e T : R2 → R3 , T (x, y) = x + 2y ,
x+y y
calculemos o operador −L + 3T .
     
2y x x
(−L + 3T )(x, y) = −L(x, y) + 3T (x, y) = −  2x  + 3 x + 2y  =  x + 6y  .
x+y y −x + 3y

92
Composição de Transformações.
D EFINIÇ ÃO 3.14 (Composição). Dados espaços vetoriais U , V e W e as transformações lineares,
T : U → V e L : V → W , definimos a Aplicação composta de T e L, denotada L ◦ T , como:

L ◦ T : U → W, onde (L ◦ T )(u) = L(T (u)).

L ◦ T é uma transformação linear, pois para todos u, v ∈ U e λ ∈ R,


(L ◦ T )(u + v) = L(T u + T v) = L(T u) + L(T v) = (L ◦ T )u + (L ◦ T )v, e
(L ◦ T )(λu) = L(T (λu)) = L(λT u) = λL(T u) = λ(L ◦ T )u, ∀u ∈ U.

No caso usual T : Rn → Rm , T (u) = Am×n u e L : Rm → Rs , L(u) = Bs×m u, a composição é


da forma,
(L ◦ T )u = L(T u) = B · (A · u) = (B · A)u,
ou seja que L ◦ T é determinada pela matriz BA.
E XEMPLO 3.15. Calcule L ◦ T , para as transformações lineares:
   
2 2 x x−y
T : R → R ,T( )=
y x + 2y
e  
  −y
x
L : R2 → R3 , L( ) = x + y  .
y
x

Notemos que,
    
         −y 0 −1 x
x x−y 1 −1 x x
T( )= = e L( ) = x + y  = 1 1  y 
y x + 2y 1 2 y y
x 1 0 z
 
0 −1  
2 3 1 −1
Obtemos que L◦T : R → R , multiplicando as matrizes de L e T respectivamente: 1 1  =
1 2
  1 0
−1 −2
2 1 , logo:
1 −1    
  −1 −2   −x − 2y
x x
(L ◦ T )( )= 2 1 =  2x + y  .
y y
1 −1 x−y

Observe que não é possı́vel calcular T ◦ L, pois Im(L) não está contida no domı́nio de T .

Como nas matrizes, a composição não é comutativa, ainda que as ordens das matrizes sejam adequa-
das.

93
P ROPOSIÇ ÃO 3.16. Valem as seguintes da composição:

1. Associatividade. Dadas transformações lineares T : U → V , L : V → W e S : W → Z,


temos:
(S ◦ L) ◦ T = S ◦ (L ◦ T ).

2. Se T : U → V é uma TL, então,

T ◦ IU = T e IV ◦ T = T,

onde IU , e IV são as identidades em U e V respectivamente.

3.4 Transformações Injetoras, Sobrejetoras e Isomorfismos


D EFINIÇ ÕES 3.17. Seja uma transformação linear entre espaços vetoriais: T : V → W . Diremos
que:

1. T é injetora, se para todos u, v ∈ V , T (u) = T (v) ⇒ u = v.

2. T é sobrejetora, se Im(T ) = T (V ) = W .

3. T é isomorfismo, se T é injetora e sobrejetora.

Dada a transformação T : V → W , temos:


T (u) = T (v) ⇔ T (u−v) = 0W ⇔ u−v ∈ N uc(T ), desprende-se daı́ que, T será uma transformação
injetora, se e somente se, N uc(T ) = {0V } ,
A próxima proposição estabelece este resultado.

P ROPOSIÇ ÃO 3.18. Dada uma tranformação T : V → W , temos:


(a) T é injetora ⇔ N uc(T ) = {0V } ⇔ dim(N uc(T )) = 0
(b) T é sobrejetora ⇔ Im(T ) = W ⇔ dim(Im(T )) = dimW
 
  x + 2y
x
E XEMPLO 3.19. Considere T : R2 → R3 , onde T ( ) =  x − y . Determine se T é injetora e
y
y
se é sobrejetora.
Notemos que:
   
x + 2y 1 2  
 x − y  = 1 −1 x .
y
y 0 1

Para determinar N uc(T ), resolvamos o sistema homogêneo com matriz de coeficientes:

94
     
1 2 1 2 1 2
1 −1 → 0 3 → 0 1
0 1 0 1 0 0
Claramente a única solução deste sistema é x = y = 0. Portanto, T é injetora.
Pelo teorema da dimensão núcleo-imagem, temos que

dim(R2 ) = dim(N (T )) +dim(Im(T )) ⇒ dim(Im(T )) = 2.


| {z } | {z }
2 0

Logo, Im(T ) 6= R3 , ou seja T não é sobrejetora.

Lembrando que para transformações T : Rn → Rm , da forma T (u) = Am×n u temos

N uc(T ) = N ul(A) e Im(T ) = Col(A),

sobre as dimensões temos

dim(N uc(T )) = nA = n − pA e dim(Im(T )) = pA .

Para isomorfismos (transformações lineares bijetoras), temos as seguintes propriedades.

Teorema 3.20. Seja T : V → W uma transformção linear, temos:

1. Todo isomorfismo transforma bases de V em bases de W

2. T : V → W é um isomorfismo ⇔ dimV = dimW e T injetora ou sobrejetora.


   
x x + 2y
E XEMPLO 3.21. Provemos que a transformação linear T : R3 → R3 , T (y ) = x + y − z  é
z x+z
um isomorfismo.
    
x 1 2 0 x
Temos, T ( y ) = 1 1 −1
     y .
z 1 0 1 z
Calculemos N uc(T ) = N ul(A).
     
1 2 0 1 2 0 1 2 0
A = 1 1 −1 → 0 −1 −1 → 0 1 1 .
1 0 1 0 −2 1 0 0 3

 
0
Assim, pA = 3 e nA = 0, logo N uc(T ) = {0} e Im(T ) = R3 , ou seja que T é bijetora e portanto,
0
um isomorfismo.

95
Consideremos que T : V → W , é um isomorfismo, ou seja uma transformação bijetora, como toda
função bijetora, temos que T é invertı́vel, ou seja que existe uma aplicação denotada por T −1 : W →
V e que tem a propriedade:
T (u) = w ⇔ T −1 (w) = u.

Neste caso, T −1 : W → V , também é um isomorfismo. De fato:

• T −1 é bijetiva pois, T também é.

• T −1 é linear. Consideramos v, v1 , v2 ∈ W , como T é sobrejetiva temos v = T (u), v1 = T (u1 )


e v2 = T (u2 ).

T −1 (v1 + v2 ) = T −1 (T (u1 ) + T (u2 ))


= T −1 (T (u1 + u2 ))
= u1 + u2
= T −1 (v1 ) + T −1 (v2 ).

T −1 (λv) = T −1 (λT (u))


= T −1 (T (λu))
= λu
= λT −1 (v).

• T ◦ T −1 = IW e T −1 ◦ T = IV .
O BSERVAÇ ÃO 3.22. Caso T : Rn → Rn , T u = Au veremos que:

T é isomorfismo, se e somente se, A é uma matriz invertı́vel,

isto acontece pois, sendo T um isomorfismo vale n = dim Im(T ) = dim Col(A) = pA , o que
mostra que A é invertı́vel. Da igualdade T u = Au = v obtemos:

T −1 (v) = A−1 v.

E XEMPLO 3.23. Considere o isomorfismo do Exemplo 3.21. A matriz de coeficientes de T tem posto
3, logo é invertı́vel. Para achar T −1 , usamos

T u = Au = v ⇔ u = A−1 v ⇒ T −1 (v) = A−1 v.


 
1 2 0
logo basta calcular A−1 . Temos A = 1 1 −1, a matriz ampliada é,
1 0 1
   
1 2 0 1 0 0 1 2 0 1 0 0
[A|I] = 1 1 −1 0 1 0 −→ 0 −1 −1 −1 1 0 −→
1 0 1 0 0 1 0 −2 1 −1 0 1

96
   
1 0 −2 −1 2 0 1 0 0 −1/3 2/3 2/3
0 1 1 1 −1 0 −→ 0 1 0
  2/3 −1/3 −1/3
0 0 3 1 −2 1 0 0 1 1/3 −2/3 1/3
     
−1 2 2 x −x + 2y + 2z
Logo, A−1 1
=3 2 −1  
−1 −1 e portanto, T ( y ) =
 1
3
2x − y − z  .
1 −2 1 z x − 2y + z

P ROPRIEDADES 3.24. Considerando dois isomorfismos T : U → V e L : V → W , temos que:

1. A composição L ◦ T é um isomorfismo e (L ◦ T )−1 = T −1 ◦ L−1

2. (T −1 )−1 = T .
E XEMPLO 3.25. Sejam as transformações T : R2 → R2 e L : R2 → R2 , dadas por:
       
x −x + y x x + 2y
T( )= e L( )= .
y 3x + 2y y −y

Verifique que L e T são isomorfismos e calcule (L ◦ T )−1 .


    
x −1 1 x −1 1
• T( )= é invertı́vel pois = −5 6= 0.
y 3 2 y 3 2
    
x 1 2 x 1 2
L( )= é invertı́vel pois = −1 6= 0.
y 0 −1 y 0 −1

• Seja A a matriz que determina T e B a que determina L, então (L ◦ T )−1 u = (BA)−1 u. Temos
      
1 2 −1 1 5 5 −1 1 −2 −5
BA = = ⇒ (BA) = 5 , portanto,
0 −1 3 2 −3 −2 3 5
     
−1 x 1 −2 5 1 −2x + 5y
(L ◦ T ) ( )= = .
y 5 3 5 5 3x + 5y
E XEMPLO 3.26. Se V é um espaço de dimensão n e α uma base ordenada de V , então a aplicação:

u ∈ V → [u]α ∈ Rn ,

é um isomorfismo. De fato,

• Pelas propriedades das coordenadas vistas temos:

[u + v]α = [u]α + [v]α e [λu]α = λ[u]α .

• É bijetiva, pois V e Rn tem a mesma dimensão e seu núcleo é {0V }:

[u]α = 0Rn ⇔ u = 0V .

97
3.5 Matriz Associada a uma Transformação Linear
Seja T : V → W uma TL. Consideremos as bases ordenadas α = {u1 , . . . , un } e β = {w1 , . . . , wm }
de V e W respectivamente. Dado u ∈ V , desejamos saber a relação entre [u]α (coordenadas de u na
base α) e [T (u)]β (coordenadas de T (u) na base β).
 
k1
 .. 
Consideremos, [u]α =  . , escalares de u com relação à base α. Determinemos os escalares
kn
[T (u)]β . Temos:

T (u) = T (k1 u1 + . . . + kn un ) = k1 T (u1 ) + . . . + kn T (un ),


Logo,

[T (u)]β = k1 [T (u1 )]β + . . . + kn [T (un )]β


 
k1
 .. 
= [[T (u1 )]β · · · [T (un )]β ] ·  . 
kn
= [[T (u1 )]β · · · [T (un )]β ] · [u]α

A matriz acima, cuja j-ésima coluna coluna é o vetor coordenadas de T (uj ) em β, é chamada matriz
de T, da base α à base β e é denotada por [T ]αβ , ou seja
[T ]αβ = [[T (u1 )]β . . . [T (un )]β ] .
Esta matriz tem a propriedade caracterı́stica,

[T (u)]β = [T ]αβ [u]α , ∀u ∈ V.


Resumindo em um diagrama,

Fixadas T e as bases α, β, a matriz [T ]αβ é a única com a propriedade acima.


No caso que T : V → V é um operador linear e que α é uma base de V , a matriz associada [T ]αα é
uma matriz quadrada que será denotada simplesmente: [T ]α .

O BSERVAÇ ÕES 3.27. 1. No caso de transformações do tipo T : Rn → Rm , usando a matriz


associada a T , podemos conferir que T é dada pela multiplicação por uma matriz fixa. De fato,
se α e β são as bases canônicas, na ordem usual de Rn e Rm respectivamente, temos
T (u) = [T (u)]β = [T ]αβ · [u]α = [T ]αβ · u.

98
Na prática, se T : Rn → Rm é dada na forma T (u) = A u, ∀u ∈ Rn , obtemos diretamente que
[T ]αβ = A, tanto pela unicidade, quanto pela própria definição de matriz associada.

2. Se α, β são bases de um espaço V , então a matriz associada ao operador identidade IV : V → V


da base α a base β, é exatamente a matriz mudança de base entre essas bases. De fato:

[IV (v)]β = [v]β = [I]αβ [v]α , logo [IV ]αβ = [I]αβ .

E XEMPLOS 3.28.
 
x  
3 2 2x − y + 3z
1. Dada T : R → R , T (y ) = , determine a matriz [T ]αC , onde α = {u1 =
−x + 2z
    z 
1 0 1
−1 , u2 =  2  , u3 = 0} é base de R3 e C é a base canônica de R2 .
1 −1 1
Sabemos que, [T ]αC = [ [T (u1 )]C [T (u2 )]C [T (u3 )]C ], calculando as colunas obtemos,
   
1   0  
6 −5
[T (u1 )]C = T (u1 ) = T (−1) = , [T (u2 )]C = T (u2 ) = T ( 2 ) = e
1 −2
  1 −1
1  
5
[T (u3 )]C = T (u3 ) = T ( 0 ) =
  , portanto
1
1
 
6 −5 5
[T ]αC = .
1 −2 1

   
x x+y
2. Seja T : R3 → R3 , dada por T (y ) =  x − 2z . Determine [T ]αβ , onde α e β são as
z x+y−z
bases de R3 :      
1 −1 1
α = {u1 = 0 , u2 = 1 , u3 = 0},
    
−1 0 1
     
1 0 2
β = {−1 , 1 , 0}.
1 0 1
Neste caso temos, [T ]αβ = [ [T (u1 )]β [T (u2 )]β [T (u3 )]β ], calculando as imagens resulta,
           
1 1 −1 0 1 1
T (u1 ) = T ( 0 ) = 3, T (u2 ) = T ( 1 ) = −1 e T (u3 ) = T (0) = −1 .
−1 2 0 0 1 0

99
Para obter as colunas de [T ]αβ devemos determinar as coordenadas em β dos vetores acima, para
 
x
isso calcularemos as coordenadas de um vetor qualquer v = y  na base β. Usando matrizes

z
mudança de base temos, [v]β = [I]C β [v]C = [I] C
β · v, onde C é a base canônica de R3 . Por
inversão de matriz obtemos,
 −1  
1 0 2 −1 0 2
β −1
[I]C
β = ([I]C ) = −1 1 0 = −1 1 2  .
1 0 1 1 0 −1
Então,
      
1 −1 0 2 1 3
[T (u1 )]β = [ 3 ]β = −1 1 2
     3 = 6 ,
 
2 1 0 −1 2 −1
      
0 −1 0 2 0 0
[T (u2 )]β = [ −1 ]β = −1 1 2
     −1 = −1,
 
0 1 0 −1 0 0
      
1 −1 0 2 1 −1
[T (u3 )]β = [−1]β = −1 1 2  −1 = −2.
0 1 0 −1 0 1
 
3 0 −1
Portanto [T ]αβ =  6 −1 −2  .
−1 0 1

Matriz da Composição.
Vamos determinar a matriz associada a uma composição de transformações. Para isto consideremos
espaços vetoriais U , V e W , com bases ordenadas α, β e γ, respectivamente e as transformações
lineares T : U → V e L : V → W . Nestas condições temos a composição:

L ◦ T : U → W.

Para todo u ∈ U , as coordenadas de (L ◦ T )(u) na base γ satisfazem:

[(L ◦ T )(u)]γ = [(L(T (u))]γ = [L]βγ [T (u)]β = [L]βγ [T ]αβ [u]α .

Pela unicidade da matriz de L ◦ T , temos:

[L ◦ T ]αγ = [L]βγ [T ]αβ .

Matriz da Soma e Multiplicação por escalar.


Consideremos as transformações lineares L, T : V → W e as bases α de V e β de W , notemos que

[(L + T )(u)]β = [L(u)]β + [T (u)]β = [L]αβ [u]α + [T ]αβ [u]α = ([L]αβ + [T ]αβ )[u]α , ∀u ∈ V,

100
portanto
[L + T ]αβ = [L]αβ + [T ]αβ ,
de forma análoga obtemos,
[λL]αβ = λ[L]αβ .

Mudança de bases na matriz de uma TL.


Dados a transformação linear T : V → W , bases α, α0 de U e β, β 0 de W , temos uma relação
0
entre as matrizes [T ]αβ e [T ]αβ 0 . De fato, se IV e IW são as transformações identidades em V e W
respectivamente, temos:

T = IW ◦ T ◦ IV ,

nestas igualdades aplicando matrizes associadas, temos a relação:

0 0
[T ]αβ 0 = [IW ]ββ 0 [T ]αβ [IV ]αα

De forma geral estas equações permitem a troca de bases na matriz associada [T ]αβ .
Casos particulares:

• Relação entre [T ]αβ e [T ]αβ0 :


[T ]αβ0 = [I]ββ 0 [T ]αβ
0
• Relação entre [T ]αβ e [T ]αβ :
0 0
[T ]αβ = [T ]αβ [I]αα

• No caso de um operador linear T : V → V , se α e β são bases de V , a relação entre [T ]α = [T ]αα


e [T ]β = [T ]ββ é:
[T ]α = [I]βα [T ]β [I]αβ .
Note que as matrizes mudança de bases [I]αβ e [I]βα , são inversas uma da outra, logo colocando
P = [I]βα , temos
[T ]α = P [T ]β P −1 .

D EFINIÇ ÃO 3.29. Quando duas matrizes quadradas A e B estão associadas pela relação

A = P BP −1 , onde P é uma matriz invertı́vel,

dizemos que A é semelhante ou similar a B, é simples notar que neste caso também B será seme-
lhante a A (verifique).

Pelas propriedades do traço e do determinante (vide exercı́cios 1.4-??h e 1.8-??e), temos:

P ROPOSIÇ ÃO 3.30. Se A e B são matrizes semelhantes, então:

1. tr(A) = tr(B).

101
2. det(A) = det(B).

Dizemos que traço e determinantes são “invariantes” por matrizes semelhantes.

Sobre as matrizes associadas a um operador em bases diferentes [T ]α e [T ]β podemos dizer que são
matrizes semelhantes e que portanto tem o mesmo traço e o mesmo determinante.
     
0 −1 1
E XEMPLO 3.31. Considere a base α = {1 ,  0  , 1} e a transformação linear T : R3 → R3 ,
1 1 1
cuja matriz na base α é:  
−1 0 1
[T ]α =  1 −1 0  .
0 1 2

Calcule as matrizes [T ]C C 3
α e [T ]C , onde C é a base canônica de R .

• [T ]C α C
α = [T ]α [I]α .
 −1  
0 −1 1 −1 2 −1
α −1
Note que [I]C
α = ([I]C ) = 1 0 1 =  0 −1 1 , logo:
1 1 1 1 −1 1
    
−1 0 1 −1 2 −1 2 −3 2
[T ]C
α =
 1 −1 0  0 −1 1  = −1 3 −2 .
0 1 2 1 −1 1 2 −3 3

• [T ]C α C
C = [I]C [T ]α .

Logo:     
0 −1 1 2 −3 2 3 −6 5
[T ]C
C = 1
 0 1 −1 3 −2 = 4 −6 5 .
1 1 1 2 −3 3 3 −3 3
   
x 3x − 6y + 5z
Portanto, T (y ) = 4x − 6y + 5z .
z 3x − 3y + 3z

Verifica-se que tr([T ]α ) = tr([T ]C ) = 0 e que det([T ]α ) = det([T ]C ) = 3.

Matriz da inversa.
Consideremos espaços vetoriais V e W , com igual dimensão e com bases ordenadas α e β respecti-
vamente, se T : V → W é uma transformação linear, então:

• T : V → W é um isomorfismo, se e somente se, [T ]αβ é invertı́vel. A justificativa vem do fato


que o núcleo de T e o espaço nulo de [T ]αβ tem as mesmas dimensões.
Sendo T um isomorfismo, temos que:

102
• [T −1 ]βα = ([T ]αβ )−1 . A justificativa para esta relação é simplesmente ver que:
T −1 ◦ T = IV , também T ◦ T −1 = IW , tomando as matrizes temos [T ]αβ [T −1 ]βα = [IW ]β = I,
ou seja que as matrizes são inversas.

103
E XEMPLOS 3.32.
       
2 1 −1 2 1
1. Sejam as bases de R , α = { , }eβ ={ , } e a transformação linear T : R2 →
 1  0 0 1
2 α 3 1
R cuja matriz é: [T ]β =
1 2
3 −1
[T ]αβ é invertı́vel, pois = 5 6= 0, logo T é isomorfismo.
1 2
 −1  
3 −1 2 1
[T −1 ]βα = =51
, transformando a base canônica:
1 2 −1 3
[T −1 ]C α
C = [I]C [T
−1 β
]α [I]C α
β = [I]C [T ]α ([I]βC )−1
−1 β
      
1 −1 2 1 2 1 6 1
[T −1 ]C
C = ·51
=5 1
, portanto
1 0 −1 3 0 1 4 3
   
−1 x 1 2x + y
T ( )= .
y 5 −x + 3y
     
1 0 0
3
2. Em R consideremos a base canônica C, a base α = { 0 , −1 , 0} e o operador linear
    
1 1 1
3 3
T : R → R , cuja matriz é:  
−2 0 0
[T ]C
α =
 0 1 0 ,
−1 0 2
 
x
−1  
prove que T é um isomorfismo e calcule T ( y ).
z
De fato
−2 0 0
0 1 0 = −4 6= 0,
−1 0 2
logo T é isomorfismo. Usando os métodos estudados calculamos a matriz inversa:
 
−2 0 0
1
[T −1 ]αC = ([T ]C
α)
−1
=  0 4 0 ,
4
−1 0 2
 
−2 0 0
logo, [T −1 ]αC = 14  0 4 0.
−1 0 2
Transformando à base C: [T −1 ]C = [T −1 ]αC [I]C
α = [T
−1 α
]C ([I]αC )−1

104
 −1  
1 0 0 1 0 0
Calculando a inversa temos, [I]αC = 0 −1 0 =  0 −1 0,
1 1 1 −1 1 1
daı́,
    
−2 0 0 1 0 0 −2 0 0
[T −1 ]C = 41  0 4 0  0 −1 0 = 14  0 −4 0,
−1 0 2 −1 1 1 −3 2 2
finalmente,
   
x −2x
1
T −1 (y ) =  −4y .
4
z −3x + 2y + 2z

105
Bibliografia

[1] Anton, Howard e Rorres Chris. “Álgebra Linear com Aplicações”. Bookman Editora, 2012 (10ª
edição).

[2] Boldrini, J.L. e outros. “Álgebra Linear” - Editora Harbra Ltda.

[3] Poole, David. “Linear Algebra, a Modern Introduction ”. CENGAGE Learning (4ª edição).

[4] Lay, David C. “Álgebra Linear e suas Aplicações”- Editora LTC.

[5] Yuster, Thomas. “The Reduced Row Echelon Form of a Matrix Is Unique: A Simple Proof”.
Mathematics Magazine, vol. 57, no. 2, pp. 93-94, 1984.

106

Você também pode gostar