Você está na página 1de 192

ÁLGEBRA LINEAR III

Departamento de Estrutura Matemática - IME - UERJ


Prof. Jessica Gavia
Conteúdo

1 MATRIZES, SISTEMAS LINEARES E DETERMINANTES 3


1.1 Definições e Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Tipos de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Operações com Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.5 Escalonamento - Aplicações ao Cálculo da Inversa e a Fatoração LU . . . . . . . 23
1.6 Sistemas de Equações Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.7 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
1.8 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

2 ESPAÇOS VETORIAIS 55
2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.2 Definições e Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.3 Subespaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.4 Independência Linear e Geradores . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.5 Base e Dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.6 Espaços Associados a uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 73
2.7 Soma e Interseção de subespaços . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2.8 Coordenadas com relação a uma base . . . . . . . . . . . . . . . . . . . . . . . . 79
2.9 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

3 TRANSFORMAÇÕES LINEARES 92
3.1 Definição e Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.2 Núcleo e Imagem de uma Transformação Linear . . . . . . . . . . . . . . . . . . 96
3.3 Operações com TLs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3.4 Transformações Injetoras, Sobrejetoras e Isomorfismos . . . . . . . . . . . . . . . 104

1
3.5 Matriz Associada a uma Transformação Linear . . . . . . . . . . . . . . . . . . . 107
3.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114

4 PRODUTO INTERNO 120


4.1 Produto Escalar em R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
4.2 Produto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
4.3 Norma e Distância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
4.4 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
4.5 Projeção Ortogonal e Ortogonalização de Gram-Schmidt . . . . . . . . . . . . . 135
4.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
4.7 Solução em Mı́nimos Quadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . 145

5 AUTOVALORES, AUTOVETORES E DIAGONALIZAÇÃO 148


5.1 Autovalores e Autovetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
5.2 Diagonalização de Operadores e Matrizes . . . . . . . . . . . . . . . . . . . . . . 155
5.3 Aplicações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
5.4 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162

6 OPERADORES AUTOADJUNTOS, ORTOGONAIS E SUAS PROPRIE-


DADES 166
6.1 Operadores Autoadjuntos e Ortogonais . . . . . . . . . . . . . . . . . . . . . . . 166
6.2 Diagonalização Ortogonal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
6.3 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175

Bibliografia Básica 191

2
Capı́tulo 1

MATRIZES, SISTEMAS LINEARES


E DETERMINANTES

1.1 Definições e Exemplos


Sejam m e n naturais não nulos. Uma matriz de ordem m × n ou simplesmente matriz é
um elemento representado na forma de arranjo retangular com m linhas e n colunas, composto
por números reais ou complexos.

 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A =  .. ..  .
 
..
 . ... . . 
am1 am2 . . . amn

Considerando 1 ≤ i ≤ n, 1 ≤ j ≤ m, o elemento aij é um número real ou complexo que


representa o elemento localizado na posição (i,j), isto é na i-ésima linha e j-ésima coluna,
esses elementos também são chamados entradas da matriz .
Estaremos sempre tratando com matrizes com entradas reais. Os números reais também serão
chamados escalares.
A matriz também é denotada como,

A = Am×n = [aij ]m×n .

Exemplo 1.1.
 
40 30 10 0
A3×4 =  0 50 30 10 .
5 20 40 5

Matrizes podem representar dados de diversos tipos de problemas concretos.

3
Exemplo 1.2. Consideremos duas ligas de aço A e B, com componentes adicionais: carbono
(C), Silı́cio (Si), Manganês (Mn), Cromo (Cr), Nı́quel (Ni), Molibdênio (Mo) que são dadas em
% na tabela abaixo:

Liga %C %Si %Mn %Ni %Cr %Mo


Liga A 0,85 1,50 1,50 0,50 1,30 0,30
Liga B 0,84 2,00 1,48 0,48 1,32 0,28

estes dados podem ser representados pela matriz,


 
0, 85 1, 50 1, 50 0, 50 1, 30 0, 30
.
0, 84 2, 00 1, 48 0, 48 1, 32 0, 28
Exemplo 1.3. Matrizes podem ser definidas através de regras para o cálculo de suas entradas,
por exemplo:

A = [aij ]2×4 , onde aij = (i − j) cos jπ, para todos i = 1, 2 e j = 1, 2, 3, 4;

daı́ obtemos:  
0 −1 2 −3
A= .
−1 0 1 −2
Definição 1.4. A = [aij ] e B = [bij ] são matrizes iguais, se são da mesma ordem e,

aij = bij , para todos i, j.

1.2 Tipos de Matrizes


1. Matriz nula: é uma matriz de ordem qualquer, cujas entradas são todas nulas, esta
matriz é denotada 0m×n ou simplesmente 0.
2. Matriz linha: matriz com uma única linha.
 
A1×n = a11 . . . a1n .

3. Matriz coluna: matriz com uma única coluna.


 
a11
Am×1 =  ...  .
 
am1

4. Matriz quadrada: é uma matriz de ordem m × m (número de linhas e colunas iguais a


m), chamada matriz quadrada de ordem m.
 
a11 . . . a1m
Am×m =  ... .. ..  .

. . 
am1 . . . amm

4
Consideremos uma matriz quadrada de ordem m, A = [aij ], chamamos de diagonal principal
a sequência de entradas:
a11 a22 . . . amm .
A diagonal secundária é a sequência de entradas:

a1m a2(m−1) . . . am1 .

Alguns tipos especiais de matrizes quadradas são:

5. Matriz diagonal: matriz quadrada A = [aij ], onde todas as entradas “fora” da diagonal
principal são nulas, isto é aij = 0, para todo i 6= j.

6. Matriz identidade: é uma matriz diagonal, onde as entradas na diagonal são todas
iguais a 1. A matriz identidade de ordem m é denotada por Im .

7. Matriz triangular superior: matriz quadrada A = [aij ], onde todos os elementos


“abaixo” da diagonal principal são nulos, isto é aij = 0, para todo i > j.

8. Matriz triangular inferior: matriz quadrada A = [aij ], onde todos os elementos


“acima” da diagonal principal são nulos, isto é aij = 0, para todo i < j.

9. Matriz simétrica: matriz quadrada A = [aij ], com a propriedade aij = aji , para todo
i, j (ou seja que as entradas simétricas com relação à diagonal principal, são iguais).

10. Matriz anti-simétrica: matriz quadrada A = [aij ], com a propriedade aij = −aji , para
todo i, j.

Observação 1.5. Os elementos aii da diagonal de uma matriz anti-simétrica são nulos, pois
aii = −aii ⇒ aii = 0.

Observação 1.6. Uma matriz de ordem 1 × 1 será considerada também como um escalar.

Notação 1.7. O conjunto das matrizes de ordem m×n e entradas reais será denotado Mm×n (R),
se tratando de matrizes quadradas de ordem m a notação é Mm (R).

1.3 Operações com Matrizes


Adição de Matrizes

Dadas matrizes A = [aij ] e B = [bij ], de ordem m × n, definimos a matriz soma de A e B,


denotada A + B, como sendo a matriz de ordem m × n dada por:

A + B = [aij + bij ].

5
Exemplo 1.8. Dadas as matrizes:
     
1 −1 0 3 1 2
A = 4 0  e B = −2 0  , temos A + B = 2 0  .
2 1 1 −3 3 −2

Propriedades 1.9. Sejam matrizes A, B e C, da mesma ordem. A soma de matrizes possui


as seguintes propriedades:
(a) Associativa: (A + B) + C = A + (B + C)
(b) Comutativa: A + B = B + A
(c) Matriz Nula: A + 0 = 0 + A, onde 0 é a matriz nula na ordem respectiva.
(d) Matriz Oposta: Para cada matriz A = [aij ] define-se a matriz oposta de A, denotada
por −A, e definida como −A = [−aij ]. A matriz −A é a única com a propriedade: A + (−A) =
0.

Para conferir as propriedades basta ver que os elementos de posição (i, j) do lado esquerdo e
direito das igualdades são iguais.
Definição 1.10. Dadas matrizes da mesma ordem A = [aij ] e B = [bij ], define-se a matriz
diferença de A e B na forma usual, A − B = A + (−B) = [aij − bij ].

Multiplicação por Escalar

Dados uma matriz A = [aij ] de ordem m×n e um escalar k, definimos a matriz multiplicação
por escalar de k e A como a matriz também de ordem m × n, dada por

k · A = [kaij ].

Exemplos 1.11.    
1 3 −1 −2 −6 2
−2 · = ,
−2 0 1/2 4 0 −1
   
0, 2 0, 4 1 2 4
= .
−0, 2 0, 5 10 −2 5

Propriedades 1.12. Sejam A e B matrizes da mesma ordem e k, k1 , k2 escalares. O produto


de matriz por escalar possui as seguintes propriedades:
(a) k · (A + B) = kA + kB
(b) (k1 + k2 ) · A = k1 A + k2 A
(c) k1 (k2 A) = (k1 k2 )A
(d) 0 · A = 0
(e) 1 · A = A e −1 · A = −A.

6
Novamente as demonstrações são simples e consistem em verificar que elementos das posições
(i, j) em ambos os lados das igualdades são iguais.

Multiplicação de Matrizes

Definiremos primeiro a multiplicação de uma matriz linha por uma matriz coluna, para isto
consideremos a matriz linha L, de ordem 1 × n e a matriz coluna C, de ordem n × 1:
 
b1
   .. 
L = a1 . . . an , C =  .  ,
bn

definimos o produto das matrizes L e C, como o escalar.


 
b
   .1  Xn
.
L · C = a1 . . . an ·  .  = a1 b1 + a2 b2 + . . . + an bn = ak b k .
bn k=1

Exemplo 1.13.

  −2 √ √
4 12 2 · √1  = (4)(−2) + (12)(1) + (2)( 2) = 4 + 2 2.
2

Consideremos uma matriz A = [aij ]m×n e usemos a notação:

• Li (A) para a matriz linha composta pela i-ésima linha de A


 
Li (A) = ai1 . . . ain .

• Cj (A) para a matriz coluna composta pela j-ésima coluna de A


 
a1j
Cj (A) =  ...  .
 
amj

Agora, definiremos de forma geral o produto de matrizes. Sejam A = [aij ], uma matriz de
ordem m × n e B = [bij ], uma matriz de ordem n × p, a matriz produto, A · B, é a matriz
de ordem m × p definida como:

k=n
X
A · B = [aij ]m×n [bij ]n×p = [cij ]m×p , onde cij = Li (A) · Cj (B) = aik bkj ,
k=1

ou seja que cij é o produto da i-ésima linha de A e a j-ésima coluna de B.

7
Exemplo 1.14. Dadas as matrizes:
 
1 −1 
2 1
A = 4 0  e B= ,
−1 0
2 1

temos:
c11 = (1)(2) + (−1)(−1) = 3; c12 = (1)(1) + (−1)(0) = 1
c21 = (4)(2) + (0)(−1) = 8; c22 = (4)(1) + (0)(0) = 4
c31 = (2)(2) + (1)(−1) = 3; c22 = (2)(1) + (1)(0) = 2
 
3 1
logo: A · B = 8 4.
3 2

Exemplo 1.15. Considere as matrizes A = [aij ]3×3 , onde aij = i + j − 2 e B = [bij ]3×4 , onde
bij = i2 − j. Vamos determinar a segunda linha da matriz A · B que é de ordem 3 × 4.
Seja A · B = [cij ]3×4 , assim temos
 
0 −1 −2 −3
c2j = L2 (A) · Cj (B), onde L2 (A) = [1 2 3] e B = 3 2 1 0 ,
8 7 6 5

logo
   
  0   −1
c21 = 1 2 3 · 3 = 30; c22 = 1 2 3 ·  2  = 24,
8 7
   
  −2   −3
c23 = 1 2 3 ·  1  = 18; c24 = 1 2 3 ·  0  = 12.
6 5
 
∴ L2 (A · B) = 30 24 18 12 .

Observação 1.16. Só tem sentido efetuar o produto A · B, quando o número de colunas de A
é igual ao número de linhas de B e neste caso a matriz C = AB terá mesmo número de linhas
que A e mesmo número de colunas que B.

A · |{z}
|{z} B = |{z}
C .
m×n n×p m×p

Exemplo 1.17 (Um produto importante). Sejam A uma matriz m × n e b uma matriz coluna
n × 1. O produto A · b é uma matriz m × 1 que pode ser escrita em função das colunas de A.
Sejam C1 , . . . , Cn as colunas de A; denotemos A = [C1 . . . Cn ]m×n e consideremos b = [bi ]n×1 ,
logo
A · b = b1 C 1 + . . . + b n C n .

8
   
2 6 −2 b1
No caso, A = 0 1 3
  e b = b2 , temos

1 2 4 b3
     
2 6 −2 b1 2b1 + 6b2 − 2b3
A · b = 0 1 3  · b2  =  0 + b2 + 3b3 
1 2 4 b3 b1 + 2b2 + 4b3
     
2b1 6b2 −2b3
=  0  +  b2  +  3b3 
b1 2b2 4b3
     
2 6 −2
= b1 0 + b2 1 + b3 3  .
    
1 2 4

De forma similar, o produto de uma matriz linha pela matriz A é uma matriz linha, que
escreve-se em função das linhas de A (exercı́cio).

Propriedades 1.18. Para matrizes A, B e C com ordens adequadas ás operações envolvidas,
valem as seguintes propriedades.

1. Associatividade. (A · B) · C = A · (B · C).

2. Distributividade.

A · (B + C) = A · B + A · C, Distributividade à esquerda ,

(B + C) · A = B · A + C · A, Distributividade à direita.

3. Im · A = A e A · In = A, onde Im e In são as matrizes identidades de ordem m e n


respectivamente.

4. A · 0 = 0 e 0 · A = 0, neste caso a ordem da matriz nula deve ter a ordem adequada.

5. (αA) · (βB) = (αβ)A · B, onde α e β são escalares.

Como nos casos anteriores, para as demonstrações o procedimento é verificar as igualdades das
entradas das matrizes em ambos os lados.
Mostraremos algumas propriedades do produto usuais nos números, mas que não são verdadei-
ras para matrizes.

1. O produto de matrizes não é comutativo, ou seja que para algumas matrizes, A·B 6=
B · A (mesmo que as ordens permitam efetuar os produtos). Por exemplo, se:
   
−1 2 3 −2
A= e B= ,
0 3 1 −1

9
   
−1 0 −3 0
temos, A · B = 6= = B · A.
3 −3 −1 −1
   
1 2 1 −1
Embora existem matrizes que comutam, como A = e B= .
−2 1 1 1
2. A · B = 0 não implica A = 0 ou B = 0.
   
−1 −1 1 0
Um exemplo é o par de matrizes A = e B= , pois A · B = 0, mas
0 0 −1 0
A 6= 0 e B 6= 0.

3. A · B = A · C, A 6= 0, não implica B = C.
     
1 0 1 2 1 2
Um exemplo é o caso A = , B = e C = , pois temos
  −1 0 1 1 −1 0
1 2
A·B =A·C = , mas B 6= C.
−1 −2

Matrizes em Blocos

As vezes é conveniente particionar uma matriz, para escreve-la como uma matriz cujos elementos
são submatrizes da própria. Dada uma matriz A, com a introdução de linhas divisórias entre
as linhas ou entre as colunas da matriz, podemos descrever A como a matriz cujos elementos
são os blocos determinados, neste caso A é dita matriz em blocos. Por exemplo,
 
1 0 2 −1  
 0 1 1 3  I B
A=  0 0 1 7 = 0 C .

0 0 7 2

Com blocos de ordens adequadas podemos verificar de forma simples que o produto de duas
matrizes pode-se descrever em função de seus blocos. Por exemplo, se
   
A11 A12 B11 B12 B13
A= ,B = , temos:
A21 A22 B21 B22 B23

  
A11 A12 B11 B12 B13
AB =
A21 A22 B21 B22 B23
 
A11 B11 + A12 B21 A11 B12 + A12 B22 A11 B13 + A12 B23
=
A21 B11 + A22 B21 A21 B12 + A22 B22 A21 B13 + A22 B23
   
1 0 2 −1   1 0  
 0 1 1 3  A11 A12 0 1 
 = B11 .
 
Exemplos 1.19. 1. Sejam A =  = e B=
 0 0 1 7  A21 A22  1 0  B21
0 0 7 2 0 1
Os blocos de AB são:

10
 
    3 −1
3 −1 1 7  1 4 
A11 B11 + A12 B21 = , A21 B11 + A22 B21 = . Logo, AB = 
 1 7 .

1 4 7 2
7 2
2. O produto na forma usual, pode ser entendido como um produto de matrizes em blocos.
De fato, se A = [aij ]m×n e B = [bij ]n×p , consideramos A como um único bloco e B com p
blocos compostos por suas colunas, isto é B = [ C1 | . . . |Cp ], assim obtemos:

A · B = A · [ C1 | . . . |Cp ] = [ A · C1 | . . . |A · Cp ].

Potenciação

Para matrizes quadradas podemos definir a potência de uma matriz , de forma análoga as
potências de números. De fato, dada a matriz quadrada A = [aij ] de ordem m, definimos as
potências de A como:

A0 = Im e An = A . . · A}, para n ≥ 1.
| · .{z
n vezes

Exemplo 1.20.
 
4 −2
1. Caculemos a expressão A2 − 3A, para A = . De fato,
0 1
    
2 4 −2 4 −2 16 −10
A = =
0 1 0 1 0 1
logo,
         
2 16 −10 4 −2 16 −10 −12 6 4 −4
A − 3A = −3 = + = .
0 1 0 1 0 1 0 −3 0 −2

2. Mostre que A2 − 3A = A(A − 3I), onde A é uma matriz quadrada qualquer e I é a matriz
identidade com a mesma ordem de A.
De fato, A(A − 3I) = A · A − A · (3I) = A2 − 3(A · I) = A2 − 3A.

São claras as seguintes propriedades da potenciação de matrizes.


Propriedades 1.21. Sejam A uma matriz quadrada, m, n números naturais não nulos e k um
escalar, então valem as propriedades:

1. Am+n = Am · An

2. (Am )n = Amn

3. (kA)m = k m Am .

Note que, da propriedade 1.21 temos que as potências da mesma matriz comutam.

11
Definição 1.22. Diremos que uma matriz quadrada é Idempotente quando A2 = A. A
será chamada Nilpotente, se existir um natural k, tal que Ak = 0. Exemplos:
 
  2 −1 1
1 0 
0, Im , , −3 4 −3 , são matrizes idempotentes.
1 0
−5 5 −4
 
  0 1 2
0 1 
0, , 0 0 −1 são matrizes nilpotentes.
0 0
0 0 0

Transposição

Consideremos uma matriz A = [aij ] de ordem m × n, chamamos matriz transposta de A à


matriz de ordem n × m, denotada At e dada por:

At = [bij ], onde bij = aji .


 t
1 2    t  
1 2 −1 3 −1 3 1
Exemplos 1.23.  2 4 = , = ,
2 4 5 1 −2 −1 −2
−1 5
 t
−1  
 0  = −1 0 6 .
6

Observações 1.24.

1. Seja A = [aij ]m×n uma matriz qualquer, então considerando as linhas de A e colunas de
At temos
 
ai1
 .. 
(Li (A)) =  .  = Ci (At ), (Cj (A))t = a1j · · · amj = Lj (At ).
t
 

ain

2. De acordo com as definições estudadas é simples ver que

• Uma matriz quadrada é simétrica, se e somente se At = A


• Uma matriz quadrada é antisimétrica, se e somente se At = −A.

Propriedades 1.25. Sejam A, B matrizes, então:

1. (At )t = A

2. (λA)t = λAt , onde λ é escalar.

12
3. (A + B)t = At + B t , se A, B são da mesma ordem

4. (A · B)t = B t · At , se as ordens de A e B são adequadas para o produto.

5. (Ak )t = (At )k , onde A é uma matriz quadrada e k é um natural.

No seguinte exemplo algumas matrizes simétricas e antisimétricas importantes.

Exemplo 1.26. 1. Se A é uma matriz de ordem m × n verifiquemos que AAt é simétrica


de ordem m e At A é simétrica de ordem n.
De fato, no primeiro caso, (AAt )t = (At )t At = AAt , analogamente para At A.

2. Se A é uma matriz quadrada de ordem m verifiquemos que A + At é simétrica e A − At


é antisimétrica.
De fato no primeiro caso, (A + At )t = At + (At )t = At + A = A + At , analogamente para
o segundo caso.

Exemplo 1.27. Muitos processos de diferente natureza podem envolver uma variável que muda
no tempo, de forma que em cada perı́odo de tempo esta variável assume um entre um número
finito de estados fixos E1 , . . . , En . Suponhamos que a probabilidade de passagem do estado Ej
ao estado Ei (“taxa” de passagem ou tranferência) só depende do estado inicial Ej e não da
quantidade de perı́odos transcorridos,

onde, pij é a probabilidade de passagem do estado Ej ao estado Ei , chamadas probabilidades


de transição. Suponha que queremos determinar a probabilidade de acontecer Ei no k-ésimo
perı́odo, pk (Ei ), de acordo com o diagrama:

temos,
 
n pk−1 (E1 )
pk (Ei ) =
X
pij pk−1 (Ej ) = pi1
  
. . . pin ·  ..
.

.
j=1 k−1
p (En )

13
A matriz T = [pij ]n×n é chamada matriz de transição de probabilidade. Nomeando por
Xk a matriz coluna das probabilidades no k-ésimo perı́odo, temos

Xk = T · Xk−1 .

Este tipo de processo é chamado cadeia de markov discreta.


Consideremos o seguinte caso: em uma determinada região, ao longo do tempo, o clima reveza-
se entre estados de chuva e seca. Observa-se que se chover bastante durante um perı́odo, a
probabilidade que chova no perı́odo seguinte é de 1/4 e que a probabilidade de que faça seca
é de 3/4. Ainda se houver seca em um perı́odo, no perı́odo seguinte a probabilidade de haver
seca ou chuva será a mesma e igual a 1/2.
Considerando a sequência de estados na ordem: 1o chuva e 2o seca, a matriz de transição de
probabilidades é,
C S
C 1/4 1/2 ,
T =
S 3/4 1/2
Usemos a notação:
p0s = probabilidade de seca inicial
p0c = probabilidade de chuva inicial
pns = probabilidade de seca no n-ésimo perı́odo
pnc = probabilidade de chuva no n-ésimo perı́odo
Vamos supor
 conhecidas as probabilidades iniciais p0c = 4/5 e p0s = 1/5. Considerando
n
p
Xn = cn , pela propriedade da matriz de transição, temos:
ps
X1 = T X0
X2 = T X1 = T (T X0 ) = T 2 X0
X3 = T X2 = T (T 2 X0 ) = T 3 X0
.. .. ..
. . .
Xn = T Xn−1 = T (T n−1 X0 ) = T n X0

Portanto,
Xn = T n X0 , ∀n ≥ 1.
Dadas as condições iniciais, temos no quarto perı́odo:
 4       
4 1/4 1/2 4/5 0, 4 0, 4 4/5 0, 4
X4 = T X0 = ≈ ≈ .
3/4 1/2 1/5 0, 6 0, 6 1/5 0, 6
Portanto no quarto perı́odo a probabilidade de ter chuva é 0,4 e a de ter seca é de 0,6.
O comportamento do clima a longo prazo poderá ser previsto, caso os elementos da matriz
T n se aproximem dos elementos de uma matriz fixa P . Caso contrário não poderemos fazer

14
previsão a longo prazo, pois o processo modificará bastante a cada passo. Existem condições
sob as quais podemos saber se T terá esta propriedade ou não, mas não vamos abordar isso
neste exemplo.

O Traço
Definição 1.28. Seja A = [aij ] uma matriz quadrada de ordem n. O traço de A, denotado
tr(A), é o número real dado pela soma dos elementos da diagonal de A, ou seja:

tr(A) = a11 + . . . + ann .


 
4 5 4
1 
Por exemplo, se A = 5 6 5, então tr(A) = 1, 7.
10
7 8 7
Propriedades 1.29. Sejam A e B matrizes quadradas de ordem n e λ ∈ R, temos:

1. tr(λA) = λtr(A).

2. tr(A + B) = tr(A) + tr(B).

3. tr(AB) = tr(BA)

4. tr(AAt ) = ni=1,j=1 a2ij , onde A = [aij ].


P

Demonstração. Provemos 1.29-3, as outras propriedades são deixadas como exercı́cio:


n
X n X
X n
tr(AB) = Li (A) · Ci (B) = aik bki
i=1 i=1 k=1
X n
n X n X
X n
= aik bki = bki aik
k=1 i=1 k=1 i=1
n
X
= Lk (B) · Ck (A) = tr(BA)
k=1

De forma geral, não é verdadeiro que tr(AB) = tr(A)tr(B). Determine matrizes A e B que
não verifiquem a igualdade.

Matriz Inversa

Seja A uma matriz de ordem m × n.

• A é dita invertı́vel à direita, se existir uma matriz B de ordem n×m, tal que AB = Im .
Neste caso a matriz B é chamada inversa à direita de A.

15
• A é dita invertı́vel à esquerda, se existir uma matriz C de ordem n × m, tal que
CA = In . Neste caso a matriz C é chamada inversa à esquerda de A.

• Se A é quadrada de ordem m, A é dita invertı́vel , quando existe uma matriz B de


mesma ordem, tal que AB = BA = Im . Para ser invertı́vel é suficiênte que AB = Im ou
BA = Im (a prova deste fato resulta do teorema 1.62). Neste caso B é dita inversa de A
e é denotada A−1 , assim
AA−1 = A−1 A = Im .
Exemplos 1.30.

1. A matriz identidade Im é invertı́vel pois Im Im = Im . A matriz quadrada nula não é


invertı́vel.
 
1 0 2
2. Verifique que a matriz A = 0 −1 1 é invertı́vel e sua inversa é a matriz B =
  0 0 1
1 0 −2
0 −1 1  . De fato,
0 0 1
       
1 0 2 1 0 −2 1 0 −2 1 0 2 1 0 0
AB = 0 −1 1 0 −1 1  = 0 −1 1  0 −1 1 = 0 1 0 .
0 0 1 0 0 1 0 0 1 0 0 1 0 0 1

Ou seja A é invertı́vel e A−1 = B.


 
2 1  
1 3 −3 0
3. Seja A = 1 1, a matriz B = 3 é uma inversa a esquerda de A, pois
−4 5 1
3 2
B · A = I2 .
 
  3 −4
2 1 3
Seja C = , a matriz D = 13 −3 5  é uma inversa a direita de C, pois
1 1 2
0 1
C · D = I2 .
 
a b
4. A = é invertı́vel, se e somente se, 4 = ad − bc 6= 0. Neste caso
c d
 
−1 1 d −b
A = .
4 −c a
 
x y
De fato se B = é a inversa de A, então
z w
      
a b x y ax + bz ay + bw 1 0
= = .
c d z w cx + dz cy + dw 0 1

16
Daı́ temos os sistemas,
 
ax + bz = 1 ay + bw = 0
e
cx + dz = 0 cy + dw = 1.

No primeiro sistema,
 
ax + bz = 1 acx + bcz = c
⇒ ⇒ (ad − bc)z = −c,
cx + dz = 0 acx + adz = 0
 
ax + bz = 1 adx + bdz = d
⇒ ⇒ (ad − bc)x = d.
cx + dz = 0 bcx + bdz = 0
Analogamente, do segundo sistema,

(ad − bc)y = −b e (ad − bc)z = a.

Logo, o sistema terá solução se e somente se 4 = ad − bc 6= 0 e:


d −c
x= , z= ,
4 4
analogamente
−b a
y= w= .
4 4
 
−1 1 d −b
Portanto A = .
4 −c a
 
2 −1
Por exemplo, se A = , então 4 = 2 − (−1) = 3 6= 0, portanto A é invertı́vel e
  1 1
−1 1 1 1
A = .
3 −1 2

Sabemos que em R  todo


 número não nulo é invertı́vel, nas matrizes isto não é verdade, por
1 0
exemplo a matriz 6= 02×2 e claramente não é invertı́vel.
0 0

Propriedade 1.31 (Lei do Corte). Se A é uma matriz invertı́vel e X, Y são matrizes tais que,
definidos os produtos, verificam AX = AY , então X = Y .

Para obter a Lei do corte, basta multiplicar por A−1 pelo lado esquerdo em ambos os lados da
igualdade AX = AY .

Propriedades 1.32. Dados A e B matrizes invertı́veis, k 6= 0 escalar e m inteiro positivo,


temos

1. A−1 também é invertı́vel e (A−1 )−1 = A

17
2. kA é invertı́vel e (kA)−1 = k1 A−1
3. AB é invertı́vel e (AB)−1 = B −1 A−1
4. Am é invertı́vel e (Am )−1 = (A−1 )m
5. At é invertı́vel e (At )−1 = (A−1 )t .

Demonstração. 1. Como AA−1 = A−1 A = I, então A é inversa de A−1 .


2. Segue de: (kA)( k1 A−1 ) = (k · k1 )(AA−1 ) = I
3. Segue de: (AB)(B −1 A−1 ) = A(BB −1 )A−1 = AA−1 = I
4. Segue da aplicação sucessiva da propriedade anterior, com A = B.
5. Segue de: At (A−1 )t = (A−1 A)t = I t = I.

 
3 1
Exemplo 1.33. Considere a matriz A = . Mostre que A é invertı́vel e resolva a
2 −1
equação: I + AX t = A2 .
A matriz A é invertı́vel pois 4 = (3)(−1) − (2)(1) = −5 6= 0
Aplicando as propriedades das matrizes na equação, temos:
I + AX t = A2 ⇔ AX t = A2 − I
⇔ A−1 AX t = A−1 (A2 − I)
⇔ X t = A − A−1
⇔ X = (A − A−1 )t .
 
−1 −1 −1 −1
Sendo A = , temos
5 −2 3
   −1 !t    t
3 1 3 1 3 1 1 −1 −1
X = − = +
2 −1 2 −1 2 −1 5 −2 3
 t  
1 14 4 1 14 8
= = .
5 8 −2 5 4 −2
Definição 1.34. Uma matriz A, quadrada de orden n é dita matriz ortogonal quando A é
invertı́vel e sua inversa é At , ou seja AAt = In = At A.

Exemplos 1.35. 1. A identidade In é uma matriz ortogonal, pois In Int = In . Outras


matrizes ortogonais são
 √ √ 
 √ √  1/√3 0√ 2/ √6
1/ √2 1/√2
A= , e B =  1/ √3 1/√2 −1/√ 6 ,
−1/ 2 1/ 2
−1/ 3 1/ 2 1/ 6

18
de fato, √ √  √ √  
 
1/ √2 1/√2 1/√2 −1/√ 2
t 1 0
AA = = ,
−1/ 2 1/ 2 1/ 2 1/ 2 0 1
analogamente para B.
 
cos θ −sen θ
2. Verifique as matrizes da forma , são ortogonais para todo θ ∈ R.
sen θ cos θ

Propriedades 1.36. Se A e B são matrizes ortogonais, então também são ortogonais as ma-
trizes: AB, At e A−1 .

Demonstração. Usando propriedades da matriz inversa, temos que AB é invertı́vel e (AB)−1 =


B −1 A−1 = B t At = (AB)t , logo AB é ortogonal. É imediato mostrar que At = A−1 também é
ortogonal.

No capı́tulo 4 seção 4, caracterizamos as matrizes ortogonais.

1.4 Exercı́cios
1. Encontre a matriz [aij ]4×4 cujas componentes satisfazem a condição dada.

 −5, se i + j < 4
(a) aij = 2cos ( π(i+j)
2
) (b) aij = e j−1
(c) a ij = 0, se i + j = 4 .
i + j, se i + j > 4

2. Determine a forma geral de uma matriz A = [aij ]5×5 com a propriedade: aij = 0, para
todos i, j tais que |i − j| > 1.

   
1 7 2 1
3. Dadas A = , B= e I a matriz identidade de ordem 2.
2 6 4 3
(a) Se existir, determine a matriz X tal que: 12 (X − A − B) = 13 (X − 2I)
(b) Se existir a matriz X, tal que 2(A − B + X) = 3(X − A)

4. Se existir, determine a solução do sistema matricial:



X + Y = 3A
,
X − Y = 2B
   
2 0 1 5
onde A = eB= .
2 4 3 0

19
 
3 0    
4 −1 1 4 2
5. Considere as matrizes: A = −1 2 , B =
  ,C= ,
0 2 3 1 5
1 1
   
1 6 1 3
D = −1 e E = −1 1 2.
2 4 1 3
Calcule quando possı́vel, as seguintes matrizes:
(a) 5(2A + C t ) − 4(A − C t ) (b) 21 (A · B)t + 21 At (c) (10E t − 10E)t
(d) 4B · C + 2B (e) B t (C · C t − At · A) (f) Dt · D · E (g) D · Dt · E
   
2 −1 3 1 −3 −5
6. Sejam as matrizes A =  0 4 5  eB= 0 1 2 
−2 1 4 4 3 6
Caso exista uma matriz C nas condições dadas, calcule seu traço:
(a) −C t = −A+B (b) (2A+C t )t = At +B t (c) (B 2 −3C)t = B t At (d) A+B +C = C t .
 
2 1
7. Seja A = , mostre duas matrizes B e C, tais que AB = AC e B 6= C.
6 3
8. Dados s = 1, 2, 3 ou 4 e t = 1, 2 ou 3, define-se a matriz,
(
1, se i = s, j = t
Est = [eij ]4×3 , onde eij = .
0, outro caso

Analogamente, para k = 1, 2, 3 e l = 1, 2, 3, define-se


(
1, se i = k, j = l
Fkl = [fij ]3×3 , onde fij = .
0, outro caso

Determine:
(a) E32 F21 (b) Em que casos Est Fkl = 0 ? (c) Em que casos Est Fkl 6= 0 ?
9. Sejam A, B e C matrizes quadradas de ordem n. Determine se as seguintes proposições
são V ou F, justificando se verdadeiras, dando exemplo de falsidade se falsas.
a) Se A e B são tais que AB = 0 então BA = 0.
b) A2 − B 2 = (A + B)(A − B)
c) (A + B)2 = A2 + 2AB + B 2
d) Se A e B são matrizes simétricas, então A + B é simétrica.
e) Se A e B são matrizes anti-simétricas, então A + B é anti-simétrica.
f) Se A e B são matrizes simétricas, então AB é simétrica.
g) Se tr(AAt ) = 0 então A é a matriz nula.
h) Se P é uma matriz invertı́vel, então tr(P AP −1 ) = tr(A).

20
10. Em cada caso, encontre os valores de k, se houverem, que satisfazem a equação.
  
  1 1 0 k
(a) k 1 1 1 0 2  1 = 0
0 2 −3 1
  
  1 2 0 2
(b) 2 2 k 2 0 3 2 = 0.
0 3 1 k
 
1 2
11. Considere A = e determine todas as matrizes 2 × 2 que comutam com A.
2 1

12. Em cada caso calcule as potências A2 , A3 , A4 , A5 , A6 . É possı́vel calcular A2015 ?


   √ √ 
0 1 1/√2 −1/√ 2
(a) A = , (b) A =
−1 1 1/ 2 1/ 2
   
1 0 −2 2 3 0
13. Considere as matrizes A = −3 1 1  e B =  1 −1 1.
2 0 −1 −1 6 4
(a) Calcule as colunas de AB na forma ACi (B), i = 1, 2, 3 e verifique que cada coluna de
AB é uma combinação da forma rC1 (A) + sC2 (A) + tC3 (A), onde Ci (A) são as colunas
de A.
(b) Calcule as linhas de AB na forma Li (A)B, i = 1, 2, 3 e verifique que cada linha de
AB é uma combinação da forma rL1 (B) + sL2 (B) + tL3 (B), onde . Justifique que isto
sempre acontece assim.
Lembre que Li (A) e Cj (A) é a notação para as linhas e colunas de A respectivamente e
idem para B.

14. Uma rede de comunicação tem cinco locais com transmissores de potências distintas. Na
matriz A abaixo é definido aij = 1, quando a i-ésima estação pode transmitir diretamente
para a j-ésima estação, também temos aij = 0 quando a transmissão da i-ésima estação
não alcança a j-ésima estação. Considere que aii = 0.
 
0 1 1 1 1
 1 0 1 1 0 
 
A=  0 1 0 1 0 .

 0 0 1 0 1 
0 0 0 1 0
Calcule e dê o significado das matrizes A2 e A + A2 .

15. Sejam A, B, C e X matrices quadradas da mesma ordem e invertı́veis. Resolva as


equações. Dando X em função de A, B e C.
(a) ABX = C
(b) AX 2 C = AXBC

21
(c) AX −1 = CA
   
t 2 5 −1 1
(d) AX B = AB − I, calcule X, sendo A = ,B= .
2 4 −1 2

16. Se possı́vel, resolva a equação matricial: At X = AB, onde X é uma coluna 2 × 1 e:


       
−2 1 −1 40 120 160
(a) A = e B= (b) A = e B=
−3 3 −1 80 80 200

17. (a) Se A é uma matriz retângular, tal que At A é invertı́vel, verifique que a matriz B =
(At A)−1 At é uma inversa à esquerda de A.
(b) Se A é uma matriz retângular, tal que AAt é invertı́vel, verifique que a matriz C =
At (AAt )−1 é uma inversa à direita de A.
 
1 2
−1 0 
(c) Se possı́vel, determine uma matriz inversa à esquerda de A =  2
.
2
1 −1

18. Determine os parâmetros reais a, b, c, d de modo que a matriz abaixo seja ortogonal :
 
1 0 0
 0 √1 √1 
2 2
a b c

19. 
Determine, justificando,
 se é verdadeiro ou falso que, para todo θ ∈ R a matriz A =
cos θ −sen θ
é ortogonal.
sen θ cos θ

20. Determine, justificando, se é verdadeiro ou falso que, se A é uma matriz ortogonal e λ é


um escalar não nulo, então λA também é ortogonal.

21. Em uma pesquisa sobre consumo de refrigerantes, foram consideradas três marcas do
mercado: Gelato, Delı́cia e Suave. Após a aplicação da pesquisa foi constatado que em
um intervalo de tempo as pessoas mudam a marca do refrigerante consumido e foram
determinadas as seguintes probabilidades de mudança de uma marca para outra (taxas
de passagem) organizadas na matriz T = [aij ], onde
aij = probabilidade de escolha do refrigerante i, após consumo do refrigerante j. Considere
que os refrigerantes mencionados foram numerados na ordem dada.
 
0.8 0.4 0.6
(a) Considere T = 0.1 0.5 0.2. Determine :
0.1 0.1 0.2

• A probabilidade de que uma pessoa que consome o refrigerante Gelato passe a con-
sumir o refrigerante Suave.
• A probabilidade de que uma pessoa que consome o refrigerante Suave passe a con-
sumir o refrigerante Gelato.

22
(b) Considerando a matriz dada em (a) e que as taxas de passagem não mudam numa
segunda pesquisa, determine a matriz T2 que indica a probabilidade de se mudar de marca
após duas pesquisas e mostre que é T2 = T 2 .
(c) Considerando que as pesquisas mostram que, as pessoas sempre mudam de refrigerante
para alguma das outras duas marcas com a mesma probabilidade, construa a matriz T .
Verifique que a matriz T2 que indica a probabilidade de se mudar de marca após duas
pesquisas é T2 = T 2 , como em (b).

1.5 Escalonamento - Aplicações ao Cálculo da Inversa e


a Fatoração LU
Operações Elementares

Sejam A uma matriz de ordem m × n e Li sua i-ésima linha. São denominadas Operações
Elementares Linhas em A, as seguintes transformações da matriz A.

1. Permutação de linhas: Por Li ↔ Lj , representa-se a transformação de A pela


permutação da i-ésima com a j-ésima linha. Por exemplo:
   
1 2 4 1 2 6 −2 0
L1 →L3
A = 0 1 3 −1 −→ 0 1 3 −1 .
2 6 −2 0 1 2 4 1

2. Multiplicação de uma linha por um escalar: Seja k 6= 0, representamos por kLi → Li


a transformação de A pela multiplicação da i-ésima linha pelo escalar k.
   
1 2 4 1 1 L →L 1 2 4 1
3 3
A = 0 1 3 −1 2 −→ 0 1 3 −1 .
2 6 −2 0 1 3 −1 0

3. Substituição de uma linha por operação com linhas: Seja k um escalar qualquer,
representamos por Li + kLj → Li a transformação de A pela substutição da i-ésima linha
pela combinção Li + kLj .
   
1 2 4 1 1 2 4 1
L −2L3 →Li
A = 0 1 3 −1 3 −→ 0 1 3 −1 .
2 6 −2 0 0 2 −10 −2

Observação 1.37. Sejam q 6= 0 e k escalares, a aplicação seguidamente das operações qLi e


Li + kLj → Li resulta na operação de substituição da i-ésima linha pela combinação qLi + kLj ,
a aplicação destas duas operações elementares será denotada como qLi + kLj → Li .

23
Definição 1.38. Sejam A e B matrizes. Diremos que B é linha equivalente a A, se B
é obtida pela a partir de A pela aplicação de um número finito de operações elementares. A
notação usada é A → B.

Exemplo 1.39.
     
1 2 4 1 1 2 4 1 1 2 4 1
L −2L1 →L3
A= 0 1 3
 −1 3 −→ 0 1 3 −1 −2L2−→+L3 →L3
0 1 3 −1 .
2 6 −2 0 0 2 −10 −2 0 0 −16 0
 
1 2 4 1
Portanto, B = 0 1 3 −1 é linha-equivalente a A.
0 0 −16 0
Propriedades 1.40. A relação “linha equivalência”entre matrizes da mesma ordem tem as
propriedades:

1. Reflexiva: A → A.

2. Simétrica: Se A → B então B → A, ou seja que as operações elementares podem ser


invertidas.

3. Transitiva: Se A → B e B → C, então A → C.

Escalonamento

Dada uma matriz A e uma linha não nula Li de A, chama-se pivô ou lı́der de Li ao primeiro
elemento não nulo dessa linha.
Diremos que uma matriz A = [aij ] está na forma escalonada linha (el) , quando:

1. Toda linha nula de A ocorre “abaixo”de todas as linhas não nulas.

2. Nas linhas não nulas o número de zeros anteriores ao pivô “aumenta linha após linha”.
Neste caso os elementos “abaixo”de um pivô serão todos nulos.

Diremos que uma matriz está na forma escalonada reduzida linha (erl ), quando:

1. A tem a forma escalonada

2. Os pivôs são iguais a 1.

3. Os pivôs são os únicos elementos não nulos de suas respectivas colunas.

24
Exemplos 1.41.

1. Matrizes escalonadas linha,


   
4 2 0 1 0 −2 1 5 0 2
0 −1 3 1 e 0 0 0 −4 7 −3
0 0 0 0 0 0 0 0 0 −1

2. Matrizes escalonadas reduzidas linha,


 
  1 0 −4 0 0
1 0 0 1
0 1 0 −1
0 1 −1 0 0
e 
0

0 0 1 0
0 0 1 −2
0 0 0 0 1

3. As matrizes erl de ordem 2 e 3 são de alguma das seguintes formas,


       
1 0 0 1 1 a 0 0
• Para ordem 2: , , e .
0 1 0 0 0 0 0 0
       
1 0 0 1 0 a 1 a 0 0 1 0
• Para ordem 3: 0 1 0 , 0 1 b  , 0 0 1 , 0 0 1 ,
   0 0 1  0 0 0  0 0 0 0 0 0
1 a b 0 1 a 0 0 1 0 0 0
0 0 0 , 0 0 0 , 0 0 0 e 0 0 0 .
   
0 0 0 0 0 0 0 0 0 0 0 0

Dada uma matriz A, vamos efetuar operações elementares para transformar A em uma matriz
escalonada ou escalonada reduzida. Com este objetivo, inicialmente vamos definir a seguinte
operação entre linhas.
Pivoteamento. Consideremos linhas não nulas Li e Lk de A com pivôs na mesma coluna,
digamos Cj de A, o pivoteamento de Li sobre Lk consiste usar operações elementares para
substituir Lk por uma linha L0k que tenha maior número de zeros antes do pivô.

Li : 0 . . . aij ∗ ∗ ...
Lk : 0 . . . akj ∗ ∗ ...
L0k : 0 . . . 0 ∗ ∗ ...

onde aij e akj são os pivôs de Li e Lk respectivamente. Como algoritmo, o pivoteamento é


realizado por meio da aplicação, em A, da operação elementar:
akj
−cLi + Lk → Lk , onde c = , é chamado multiplicador .
aij
Manualmente, também podemos usar operações elementares como:

±(−akj Li + aij Lk ) → Lk .

25
O escalonamento de uma matriz A é um processo organizado para transformar uma matriz
qualquer A em uma matriz escalonada e linha equivalente a A e consiste em aplicar em A a
seguinte sequência de operações elementares:

1°) Use permutação de linhas, se necessário, para levar as linhas nulas abaixo das não nulas.

2°) Use permutação de linhas, se necessário, de forma que a primeira linha tenha o menor
número de zeros antes do pivô do que às linhas abaixo. Se baixo o pivô da primeira
linha tem elementos não nulos, pivotear a linha sobre as linhas abaixo dela, assim após
os pivoteamentos necessários, os elementos baixo o pivô serão nulos.

3°) Se a matriz resultante está escalonada parar o processo, senão efetue as etapas 1°) e
2°) substituindo a primeira pela segunda linha de A, continue o processo sucessivamente
até a penúltima linha não nula, ao finalizar o processo obtem-se uma matriz el e linha
equivalente a A.

Para obter a forma escalonada reduzida (erl), continuar o processo pivotendo as linhas não
nulas para zerar todos os elementos acima de cada pivô. Finalmente usar a multiplicação por
escalar de linhas para obter pivôs iguais a 1.
Exemplos 1.42.
   
0 6 5 0 −1 1 0 2 −1 −3
L3 −2L1 →L3
1 0 2 −1 −3 1 ↔L2  0
 L−→
 6 5 0 −1 −→
1. A = 
 2 −3 1 −2 −7  2 −3 1 −2 −7

L4 +L1
−→
−1 2 −3 1 0 −1 2 −3 1 0
   
1 0 2 −1 −3 1 0 2 −1 −3
0 6 5 0 −1  2L3 +L 2 →L3 0
 6 5 0 −1 −3L4−→
+L2 →L4

0 −3 −3 0 −1 −→ 0 0 −1 0 −3
0 2 −1 0 −3 0 2 −1 0 −3
   
1 0 2 −1 −3 1 0 2 −1 −3
0 6 5 0 −1  L4 +8L3 →L4 0
 6 5 0 −1 

0 0 −1 0 −3 −→ 0 0 −1 0 −3  .

0 0 8 0 8 0 0 0 0 −16

A matriz obtida é uma matriz escalonada e linha equivalente a A. Vamos obter a matriz
escalonada reduzida linha:
   
1 0 2 −1 −3 1 0 2 −1 −3
0 6 5 0 −1   L2 +5L3 →L2 0
 6 0 0 −16  L1 +2L 3 →L1

0 0 −1 0 −3  −→ 0 0 −1 0 −3  −→
0 0 0 0 −16 0 0 0 0 −16
   
1 0 0 −1 −9 1 0 0 −1 −9 9L4 +L1 →L1
−→
−1
0 6 0 0 −16 16 4 0 6 0
 L  0 −16 16L4 +L2 →L2

0 0 −1 0 −3  −→ 0 0 −1 0 −3  −→

3L4 +L3 →L3
0 0 0 0 −16 0 0 0 0 1 −→

26
 
1 0 0 −1 0
0 6 0 0 0
 , finalmente realizando 1 L2 → L2 e −1L3 → L3 , temos que a
0 0 −1 0 0 6

0 0 0 0 1
 
1 0 0 −1 0
0 1 0 0 0
matriz erl, linha equivalente a A é, 
0 0 1 0 0 .

0 0 0 0 1
2. Determinemos a matriz erl da matriz A dada.
     
2 1 2 2 1 2 2 1 2
2 3 1   −L1−→+L2 →L2
2 −1
 L3 ↔L5 2 3 1  −2L +L →L
 0 −2L1 +L2 →L1
   −→
A= 0 0 0  −→ 4 2 3 
   1
−→3 3 0 0 −1 3L2 +2L4 →L3
−→
 
1 2 −1 1 2 −1 L1 −2L4 →L4 0 −3 4 
−→
4 2 3 0 0 0 0 0 0
     
−4 0 −5 L −5L →L −4 0 0 −1
L1 1 0 0
 0 2 −1 1 −→ 3 1
 0 2 0  −→ 4
0 1 0
 0 0 −1 L2 −L 3 →L2  0 0 −1 12 L2
     
0 0 1
  −→   −→  .
 0 0 5  L4 +5L3 →L3  0 0 0  −L3 0 0 0
−→ −→
0 0 0 0 0 0 0 0 0

Observações 1.43.

1. Dada uma matriz A, é claro que podemos obter diferentes formas escalonadas e equi-
valentes a A. Agora a matriz escalonada reduzida, linha equivalente a A é única, isto
deve-se ao fato, que vamos admitir, que matrizes da mesma ordem, diferentes e da forma
erl não são linha equivalentes.

2. Duas matrizes serão linha-equivalentes, se e somente se, tem as mesmas formas erl. De
fato, por um lado é claro que se A é linha equivalente a B, então suas formas erl também
serão linha equivalentes e portanto serão iguais. Por outro lado, se A e B tem a mesma
forma erl R, temos

A → R e B → R ⇒ A → R → B ⇒ A → B.

3. Dada uma matriz A, as matrizes escalonadas linha equivalentes a A tem o mesmo número
de pivôs, ou seja o mesmo número de linhas não nulas, isto deve-se basicamente a que
a partir de linhas não nulas de matrizes escalonadas não é possı́vel obter novas linhas
nulas usando operações elementares (vide conceito de independência linear em espaços
vetoriais, colocado nos enunciados 2.18 e 2.19(3)).

Definição 1.44. Seja A uma matriz de ordem m × n, definimos posto de A como o número de
linhas não nulas (ou número de pivôs) de uma forma escalonada linha-equivalente a A, o posto
é denotado pA . E verifica-se pA ≤ min{m, n}. Define-se a nulidade A como: nA = n − pA .

27
Exemplos 1.45. Calcule o posto e a nulidade das matrizes dadas.
     
1 0 −1 1 0 −1 1 0 −1
2 1 −5 L2 −2L1 →L2 0 1 −3 L3 −2L2 →L3
−→ 0 1 −3
1. A = 
0 2 −6
 −→ 
0 2 −6

L4 +L2 →L4

0
,
−→ 0 0
0 −1 3 0 −1 3 0 0 0
logo pA = 2 e nA = 3 − 2 = 1.
     
2 2 0 1 −2L2 +L1 →L2 2 2 0 1 2 2 0 1
−→ L +L2 →L3
2. A = 1 0
 2 0 −2L3 +L1 →L3 0 2 −4 1  3 −→ 0 2 −4 1,
1 2 −2 1 −→ 0 −2 4 −1 0 0 0 0
logo pA = 2 e nA = 4 − 2 = 2.

O teorema a seguir relaciona a aplicação de uma operação elementar com o produto de matrizes.

Teorema 1.46. Seja A uma matriz quadrada de ordem m, se B é uma matriz linha equivalente
a A, obtida pela aplicação da operação elementar O, então B = EA, onde E é a matriz linha
equivalente a identidade Im obtida pela aplicação da operação elementar O, ou seja
O O
A → B e Im → E ⇒ B = EA.

Exemplo 1.47. Por exemplo,


   
1 2 4 1 2 4
L +L1 →L3
A = 0 1 3  3 −→ 0 1 3 = B,
2 1 −4 3 3 0
e
   
1 0 0 1 0 0
L +L1 →L3
I3 = 0 1 0 3 −→ 0 1 0 = E,
0 0 1 1 0 1

verificamos claramente que


    
1 0 0 1 2 4 1 2 4
EA = 0 1 0 0 1 3  = 0 1 3 = B.
1 0 1 2 1 −4 3 3 0

Observação 1.48. A matriz E obtida de Im pela aplicação de exatamente uma operação


elementar é chamada matriz elementar.
Por exemplo, as matrizes E1 , E2 e E3 a seguir são elementares:
   
1 0 0 0 0 1
L1 ↔L3
I3 = 0 1 0 −→ 0 1 0 = E1 ,
0 0 1 1 0 0

28
   
1 0 0 1 0 0
5L2 ↔L2
I3 = 0
 1 0 −→ 0 5
  0 = E2 e
0 0 1 0 0 1
   
1 0 0 1 3 0
L +3L2 →L1
I3 = 0 1 0 1 −→ 0 1 0 = E3 .
0 0 1 0 0 1

Corolário 1.49. Sejam O1 , . . . , Ok uma sequência de operações e E1 , . . . , Ek as matrizes ele-


mentares associadas.
1 O k O
1. Se F é a matriz quadrada tal que Im −→ . . . −→ F , então F = Ek · . . . · E1 .
1 O k O
2. Se A e B são matrizes de ordem m × n tais que A −→ . . . −→ B, então B = F A, onde
F é a matriz obtida dada em 1.

As matrizes elementares são invertı́veis e suas inversas são também matrizes elementares. De
fato, considerando as operações elementares “inversas”em cada caso, temos:

• Se E1 é obtida de Im por permutação de linhas, então E1−1 = E1 .

• Se E2 é obtida de Im pela aplicação de kLi , então E2−1 é obtida de Im pela aplicação de


1
L.
k i

• Se E3 é obtida de Im pela aplicação de kLj + Li → Li , então E3−1 é obtida de Im pela


aplicação de −kLj + Li.

Cálculo da inversa aplicando escalonamento

Se A é uma matriz quadrada de ordem m e R é a matriz erl, linha equivalente a A, pelo


corolário 1.49 temos que F A = R, onde F é um produto de matrizes elementares e portanto F
é invertı́vel. Desta igualdade obtemos que

A invertı́vel ⇔ R invertı́vel ⇔ R = Im ,

pois a única matriz erl de ordem m, invertı́vel é Im . Assim,

A é invertı́vel ⇔ A → Im .

Sendo A é invertı́vel obtemos,


F A = Im ⇒ A = F −1 ,
logo A é um produto de matrizes elementares e A−1 = F . O corolário 1.49 mostra que a
sequência de operações elementares que leva A em Im levará Im em F . Assim, podemos enunciar
o seguinte resultado.

29
Teorema 1.50. Seja A uma matriz quadrada de ordem m, então:

1. A é invertı́vel se e somente se é um produto de matrizes elementares.

2. A é invertı́vel, se e somente se, A é linha equivalente a Im . Neste caso, se S é a sequência


de operações elementares que leva A em Im , então a mesma sequência de operações
elementares levará Im em A−1 , ou seja
S S
A −→ Im ⇒ Im −→ A−1 .

Observação 1.51. De acordo com o teorema acima, se A é invertı́vel, temos o esquema:


S
A −→ Im
S ,
Im −→ A−1

por praticidade construı́mos uma matriz composta por A e Im , chamada matriz ampliada,
denotada por [A|Im ]. Assim, o processo de inversão consiste em “levar” [A|Im ] em [Im |A−1 ].

Exemplos 1.52.
 
1 −2 4
1. Seja A =  0 −1 4, veremos que A é invertı́vel e cacularemos sua inversa.
−1 0 2
   
1 −2 4 1 0 0 1 −2 4 1 0 0 L1 −2L2 →L1
L +L3 →L3 −→
[A|I] =  0 −1 4 0 1 0  1 −→  0 −1 4 0 1 0 
L3 −2L2 →L3
−1 0 2 0 0 1 0 −2 6 1 0 1 −→
   
1 0 −4 1 −2 0 L1 −2L3 →L1 1 0 0 −1 2 −2 −L2 →L2
−→
 0 −1 4 0 1 0  −→  0 −1 0
L2 −2L3 →L2 2 −3 2  1
− 2 L3 →L3
0 0 −2 1 −2 1 −→ 0 0 −2 1 −2 1 −→
 
1 0 0 −1 2 −2
 0 1 0 −2 3 −2  ,
0 0 1 −1/2 1 −1/2
 
−1 2 −2
∴ A−1 =  −2 3 −2  .
−1/2 1 −1/2
 
1 0 −1 1
 2 1 0 0
2. Seja A =  0 1 1 1. Determinemos se A é invertı́vel.

−1 0 0 2
     
1 0 −1 1 1 0 −1 1 1 0 −1 1
 2 1 0 0 L−→ 2 −2L1 
0 1 2 −2 L−→
 3 −L2 0 1 2 −2
   
 0 1 1 1 L−→ 4 +L1 0 1 1 1 0 0 −1 3 
−1 0 0 2 0 0 −1 3 0 0 −1 3

30
   
L1 −L3
−→ 1 0 0 −2 1 0 0 0
0 1 0 4 0 1 0 8
L2 +2L3
−→   −L−→
3 →L3  ,
L4 −L3
0 0 −1 3  0 0 1 −3
−→ 0 0 0 0 0 0 0 0
observamos que a matriz A não é linha equivalente a I4 e portanto não é invertı́vel.

Observando que entre as formas erl de uma matriz quadrada de ordem m, a identidade é a
única com posto m e em vista do teorema 1.50, obtemos o seguinte corolário.

Corolário 1.53. Uma matriz A, quadrada de ordem m é invertı́vel, se e somente se, pA = m.

Pelo Corolário acima, para determinar se A é invertı́vel ou não, é suficiente a forma escalonada
de A (não há necesidade da forma erl).
 
2 0 −2
Exemplo 1.54. Determine se a matriz A =  1 −2 0  é invertı́vel ou não.
−1 0 2
   
2 0 −2 L1 −2L2 2 0 −2
−→
A = 1 −2 0  L1 +2L3 0 4 −2 , logo pA = 3, portanto A é invertı́vel.

−1 0 2 −→ 0 0 2

Aplicação a Fatoração LU

Consideremos uma matriz A quadrada, com a condição que seu escalonamento possa ser rea-
lizado sem permutações de linhas, isto significa que o escalonamento poderá ser feito somente
com operações linha do tipo Li + kLj → Li . Com esta condição veremos que é possı́vel escrever
A como produto de uma matriz triangular inferior L e outra triangular superior U , isto é,

A = LU.

Do processo de escalonamento via operações de pivoteamento, obtemos A −→ U , onde U é


uma matriz na forma el, logo U será triangular superior, e

Ek · . . . · E1 · A = U,

onde cada matriz elementar Ei está associada a uma operação de pivoteamento. Daı́,

A = L · U, onde L = E1−1 · . . . · Ek−1 .

Suponha que a matriz elementar E está associada ao pivoteamento da linha Ls , sobre a linha
Li , i < s, com pivôs o na coluna j, podemos descrever a operação na forma,

−cLs + Li → Li .

31
Definimos cij = c, chamado multiplicador da posição (i, j), daı́ a matriz elementar E terá
1’s na diagonal, −cij na posição (i, j) (baixo a diagonal) e 0’s no resto. Logo a matriz inversa
E −1 terá 1’s na diagonal, cij na posição (i, j) e 0’s no resto. Notemos que cada matriz E −1 é
uma matriz triangular inferior.
Assim, o produto L = E1−1 · . . . · Ek−1 é uma matriz triangular inferior, é possı́vel verificar que L
está composta por 1’s na diagonal e cij em cada posição (i, j) baixo a diagonal e 0’s no resto,
pois trata-se de sucessivas operações elementares realizados na matriz I. Por exemplo, se A é
uma matriz 3 × 3, em cujo escalonamento obtem-se os multiplicadores c21 , c31 e c32 , então
     
1 0 0 1 0 0 1 0 0
E1 = −c21 1 0 , E2 =  0 1 0 e E3 = 0 1 0 ,
0 0 1 −c31 0 1 0 −c32 1

logo
     
1 0 0 1 0 0 1 0 0
E1−1 = c21 1 0 , E2−1 =  0 1 0 e E3−1 = 0 1 0 ,
0 0 1 c31 0 1 0 c32 1
portanto
     
1 0 0 1 0 0 1 0 0 1 0 0
L = E1−1 E2−1 E3−1 = c21 1 0  0 1 0 0 1 0 = c21 1 0 ,
0 0 1 c31 0 1 0 c32 1 c31 c32 1

em geral, desde que as operações elementares sejam realizadas seguindo o algoritmo de escalo-
namento, a matriz L terá a forma acima, ou seja que L é a matriz triangular inferior com 1’s
na diagonal e os respectivos multiplicadores baixo a diagonal. Assim,

A = LU, onde L é triangular inferior e U é triangular superior.



2 1 3
Exemplo 1.55. Faremos a fatoração LU da matriz A =  1 −1 1 .
−2 1 −1
Escalonando, obtendo em cada passo a matriz elementar e o multiplicador respectivo:
     
2 1 3 2 1 3 1 0 0
1 +L2 →L2
 1 −1 1  (−1/2)L−→  0 −3/2 −1/2, c21 = 1/2, E1−1 = 1/2 1 0
−2 1 −1 −2 1 −1 0 0 1
     
2 1 3 2 1 3 1 0 0
+L3 →L3
 0 −3/2 −1/2 1·L1−→ 0 −3/2 −1/2, c31 = −1, E2−1 =  0 1 0
−2 1 −1 0 2 2 −1 0 1
     
2 1 3 4
L +L3 →L3
2 1 3 1 0 0
0 −3/2 −1/2 3 2 −→ 0 −3/2 −1/2, c32 = − 4 , E3−1 = 0 1 0.
3
0 2 2 0 0 4/3 0 − 43 1

32
 
2 1 3
Logo, U = 0 −3/2 −1/2 é triangular superior. Para calcular L = E1−1 E2−1 E3−1 , basta
4
0 0 3
compor a matriz usando os multiplicadores:
 
1 0 0
L = 1/2 1 0 .
−1 −4/3 1

Portanto:   
1 0 0 2 1 3
A = LU = 1/2 1 0 0 −3/2 −1/2 .
−1 − 34 1 0 0 4
3

1.6 Sistemas de Equações Lineares


Um sistema de equações lineares, com m de equações lineares relativas a um grupo de n
incógnitas x1 , . . . , xn é da forma:


 a11 x1 + . . . + a1n xn = b1
 a21 x1 +

. . . + a2n xn = b2
(∗) .. .. .. ,


 . . .
 a x + . . . + amn xn = bm
m1 1

onde,

• aij : representa o coeficiente da incógnita xj na i-ésima equação;

• bi : denota o coeficiente independente da i-ésima equação.

Uma solução do sistema é uma sequência de n valores que atribuı́dos a cada x1 , · · · , xn sa-
tisfazem todas as equações do sistema. Pode-se verificar que um sistema somente pode ter
uma única solução, infinitas soluções ou nehuma solução. Logo, podemos classificar os sistemas
como:

1. Sistema Possı́vel Determinado, SPD : quando (*) possui uma única solução.

2. Sistema Possı́vel Indeterminado, SPI : quando (*) possui infinitas soluções.

3. Sistema Impossı́vel, SI: quando (*) não possui solução.

33
Escrevendo matricialmente o sistema (*), temos:
      
b1 a11 x1 + . . . + a1n xn a11 . . . a1n x1
 ..   .
.   .. .
. .
.   .. 
 . = . = . . .  . .
bm am1 x1 + . . . + amn xn am1 . . . amn xn

Logo o sistema (*) é representado pela equação matricial:

A · X = b,

onde
X = [xi ] : Matriz coluna das incógnitas,
A = [aij ] : Matriz dos coeficientes do sistema,
b = [bi ] : Matriz coluna dos termos independentes.
Outra matriz útil é a matriz da forma b: [A|b], chamada matriz ampliada de A com b.

Exemplo 1.56. As matrizes associadas ao sistema,



 x + y + 2z = 9
2x + 4y − 3z = 1 ,
3x + 6y − 5z = 0

são:
 
1 1 2
Matriz de coeficientes: A = 2 4 −3.
3 6 −5
 
9
Matriz de termos independentes: b = 1 .

0
 
1 1 2 9
Matriz ampliada: [A|b] =  2 4 −3 1  .
3 6 −5 0

Eliminação de Gauss e de Gauss-Jordan.

Um dos métodos básicos par determinar as soluções de um sistema é substituir-o por um sistema
equivalente (sistema com a mesma solução), que seja mais simples de resolver. É claro que as
seguintes operações com as equações do sistema, levam a um sistema equivalente ao inicial.

• Multiplicar uma equação por um escalar não nulo.

34
• Permutar duas equações

• Substituir uma equação pela soma dessa equação e um múltiplo de outra equação.

Consideremos o sistema S : A · X = b, notemos que realizar as operações, enunciadas acima,


com as equações de S equivale a aplicar operações elementares na matriz ampliada [A|b], daı́
podemos usar o escalonamento da matriz ampliada para obter um sistema S 0 de solução simples
ou direta e equivalente ao sistema original.

Chamamos Eliminação de Gauss ao método de solução de um sistema linear, que consiste


em:

• Escalonar a matriz ampliada levando a forma el.

• Obter o sistema linear associado a forma el, que será equivalente ao inicial.

• Resolver por substituição retroativa.

Se no primeiro passo usamos a forma escalonada reduzida de [A|b], o método é chamado de


Eliminação de Gauss-Jordan.

Exemplos 1.57.

1. Consideremos o sistema:

 x + y + 2z = 9
2x + 4y − 3z = 1 ,
3x + 6y − 5z = 0

 
1 1 2 9
A matriz ampliada do sistema é: [A|b] =  2 4 −3 1 . Escalonando [A|b] temos:
3 6 −5 0
   
1 1 2 9 L2 −2L1 →L2 1 1 2 9
−→ 3L −2L →L
 2 4 −3 1 
L3 −3L1 →L3
 0 2 −7 −17  2 −→3 3
3 6 −5 0 −→ 0 3 −11 −27
   
1 1 2 9 1
L
1 1 2 9
2 2
 0 2 −7 −17  −→  0 1 −7/2 −17/2 ,
0 0 1 3 0 0 1 3
Agora voltando ao sistema temos:

35

 x + y + 2z = 9
y − 7/2z = −17/2 ,
+ z = 3

. Logo o sitema é SPD e temos :


z = 3 ⇒ y = 2 ⇒ x = 1.

2. Resolvamos o sistema:


 x − y + 3z = 1
x + z − w = −1


 2y + w = 0
2x + y + 4z = 0

 
1 −1 3 0 1
 1 0 1 −1 −1 
A matriz ampliada do sistema é: [A|b] =  0 2 0 1
. Escalonando [A|b]
0 
2 1 4 0 0
temos:
   
1 −1 3 0 1 1 −1 3 0 1
 1 0 1 −1 −1  L2 −L 1 →L1
−→  0 1 −2 −1 −2  L3 −2L −→2 →L3
   
 0 2 0 1 0  L4 −2L
−→1 →L4  0 2 0 1 0  L4 −3L
−→2 →L4

2 1 4 0 0 0 3 −2 0 −2
   
1 −1 3 0 1 1 −1 3 0 1
 0 1 −2 −1 −2  −L3 +L4 →L4  0 1 −2 −1 −2 

 0 0
 −→  .
4 3 4   0 0 4 3 4 
0 0 4 3 4 0 0 0 0 0
Agora voltando ao sistema temos:

 x − y + 3z = 1
y − 2z − w = −2 ,
4z + 3w = 4

logo, por substituição temos :


3 1 7
z = 1 − w ⇒ y = − w ⇒ x = 1 − 3z + y = −2 + w.
4 2 4
Portanto, existem infinitas soluções obtidas determinando valores para w, ou seja o sis-
tema é SPI.
3. Resolvamos o sistema:


 x − y + 3z = 1
x + z − w = 0


 2y + w = −1
2x + y + 4z = 0

36
 
1 −1 3 0 1
 1 0 1 −1 0 
A matriz ampliada do sistema é: [A|b] =  0 2 0 1 −1 . Escalonando [A|b]

2 1 4 0 0
temos:
   
1 −1 3 0 1 1 −1 3 0 1
 1 0 1 −1 0  L2 −L 1 →L2
−→  0 1 −2 −1 −1  L3 −2L −→2 →L3
   
 0 2 0 1 −1  L4 −2L −→1 →L4  0 2 0 1 0  L4 −3L
−→2 →L4

2 1 4 0 0 0 3 −2 0 −2
   
1 −1 3 0 1 1 −1 3 0 1
 0 1 −2 −1 −1  −L3 +L4 →L4 →  0 1 −2 −1 −2 

 0 0
 −→  .
4 3 2   0 0 4 3 4 
0 0 4 3 1 0 0 0 0 1
Agora voltando ao sistema temos:


 x − y + 3z = 1
y − 2z − w = −2

,

 4z + 3w = 4
0 = 1

não tem valores que satisfazam simultaneamente todas as equações, logo temos um SI.

Observando os sistemas colocados nos exemplos, podemos concluir que:

1. O sistema (∗) admite uma única solução (SPD), se e somente se,

pA = p[A|b] = n.

2. O sistema (∗) admite infinitas soluções (SPI), se e somente se,

pA = p[A|b] < n.

As variáveis que ao assumir valores quaisquer determinam a solução do sistema são chama-
das de variáveis livres ou independentes, as variáveis restantes são ditas variáves
dependentes. Observemos que n − pA , representa o número de variáveis livres e pA
corresponde ao número de variáveis dependentes. n−p[A|b] é chamado grau de liberdade
do sistema.

3. O sistema (∗) não admite soluções (SI), se e somente se,

pA 6= p[A|b] ,

neste caso, pA < p[A|b] , pois é claro que pA ≤ p[A|b] .

37
Exemplos 1.58. 1. Consideremos o sistema:

 2x1 + 2x2 − x3 + x4 = −1
−x1 − x2 + 2x3 + x4 = −1 ,
x1 + 3x2 − x3 − x4 = 0

Usando eliminação de Gauss-Jordan, temos.


   
2 2 −1 1 −1 L1 +2L2 →L2 2 2 −1 1 3
−→
A =  −1 −1 2 1 −1  L1 −2L3 →L3  0 0 3 3 −3 
1 3 −1 −1 0 −→ 0 −4 1 3 −1
   
2 2 −1 1 3 2L1 +L2 →L1
−→ 4 0 −1 5 5
L2 ⇔L3
−→  0 −4 1 3 −1  1
L
 0 −4 1 3 −1 
3 3
0 0 3 3 −3 −→ 0 0 1 1 −1
  1  
L1 +L3 →L1 4 0 0 6 4 L
4 1 1 0 0 3/2 1
−→  0 −4 0 2 0  −1 −→ 
L2 −L3 →L2 L2
0 1 0 −1/2 0  ,
−→ 0 0 1 1 −1 −→4
0 0 1 1 −1
voltando ao sistema temos:

 x1 + 3/2x4 = 1
x2 − 1/2x4 = 0 .
x3 + x4 = −1

Como pA = 3 = p[A|b] < n = 4 o sistema é SPI, com grau de liberdade 1, variável


independente x4 e solução:
x1 = 1 − 6t, x2 = 2t e x3 = −1 − 4t e x4 = 4t, com t qualquer.

2. Discuta a solução do sistema, de acordo com os valores dos parâmetros a e b.



 x + y + az = 1
x + 2y + z = 2
2x + 5y − 3z = b

Escalonando o sistema temos:


     
1 1 a 1 1 1 a 1 1 1 a 1
[A|B] =  1 2 1 2  −→  0 1 1 − a 1  −→  0 1 1 − a 1 ,
2 5 −3 b 0 3 −3 − 2a b − 2 0 0 −6 + a b − 5
observando os valores de pA e p[A|B] , de acordo com os valores de a e b, vamos ter:

• SPD, para a 6= 6 e b qualquer.


• SPI, para a = 6 e b = 5. Com grau de liberdade 1.
• SI, para a = 6 e b 6= 5.

38
Sistemas Homogêneos

Um sistema cujos termos independentes são todos nulos (ou seja b = 0) é dito sistema
homogêneo (SH), a forma matricial de um sistema homogêneo é:

AX = 0,

onde A é a matriz de coeficientes e 0 é a matriz coluna de termos independentes.


Um sistema homogêneo sempre admite solução seja determinada ou indeterminada, pois a
coluna X = 0, é uma solução, de fato: A · 0 = 0.
Num sistema homogêneo a solução do sistema depende somente da matriz de coeficientes A,
assim temos:
(i) O sistema é SPD, com solução X = 0, se e somente se, pA = n.
(ii) O sistema é SPI, se e somente se, pA < n, para obter as soluções escalonamos somente
a matriz de coeficientes, já que a coluna de termos independentes será sempre 0, mesmo baixo
a ação de operações elementares.

Exemplo 1.59. Resolvamos o sistema homogêneo:



 2x1 + 2x2 − x3 + x4 = 0
−x1 − x2 + 2x3 + x4 = 0 ,
x1 + 3x2 − x3 − x4 = 0

Como, pA ≤ 3 < 4, claramente o sistema é SPI. Usando o exemplo 1.58 temos


   
2 2 −1 1 1 0 0 3/2
A = −1 −1 2 1  −→ 0 1 0 −1/2 ,
1 3 −1 −1 0 0 1 1

voltando ao sistema temos:


 3
 x1 + x
2 4
= 0
1
x2 − x
2 4
= 0 ,
x3 + x4 = 0

daı́, com x4 = 2t, t qualquer, temos x1 = −3t, x2 = t e x3 = −2t.

Solução por Inversão


Proposição 1.60. Consideremos um sistema com m equações e m incógnitas, na forma ma-
tricial A · X = b. Então, o sistema será SPD, se e somente se, a matriz quadrada, A, de
coeficientes é invertı́vel, neste caso a única solução é X = A−1 · b.

39
Esta proposição vem do fato que:
A invertı́vel ⇔ pA = m ⇔ o sistema é SPD.

Caso A não seja invertı́vel podemos ter sistemas SPI ou SI.


Exemplo 1.61. Consideremos os sistema:

2x + 4y = 6
3x + 5y = 7
 
2 4
Neste caso, A = é invertı́vel, pois ad − bc = −2 6= 0 e a inversa é:
3 5
 
−1 1 5 −4
A =− ,
2 −3 2
      
x −1 1 5 −4 6 −1
logo, X = =A b=− = .
y 2 −3 2 7 2
Logo x = −1 e y = 2.

As seguintes equivalências caracterizam uma matriz invertı́vel.


Teorema 1.62. Dada uma matriz quadrada A de ordem m, as seguintes sentençãs são equi-
valentes.

a) A é invertı́vel.
b) pA = m
c) Para toda coluna b de ordem m × 1, o sistema matricial A · X = b tem pelo menos uma
solução.
d) O sistema homogêneo A · X = 0 tem solução única nula.

Sabemos que a) ⇔ b), completa-se a demonstração seguindo a sequência b) ⇔ c), a) ⇔ d).

Aplicação: Fluxo em redes.


Muitas situações práticas envolvem fluxos em redes, como por exemplo fluxo de veı́culos em
redes de transporte, fluxo de informações em redes de comunicações, fluxo de bens e servições
em redes econômicas, etc.. Vamos considerar que uma rede é composta por um número finito de
nós (também chamados de junções ou vértices) conectados por uma série de arestas direcionadas
conhecidas como ramificações ou arcos. Cada ramo será rotulado com um fluxo que representa a
quantidade de alguma mercadoria que pode fluir através dessa ramificação na direção indicada.
A regra fundamental que rege o fluxo através de uma rede é a conservação do fluxo.
Exemplo 1.63. Descreva os possı́veis fluxos através da rede de tubulações de água mostrada
na Figura 1.1, onde o fluxo é medido em litros por minuto.

40
Figura 1.1: Rede de tubulações

Escrevendo a equação que representa a conservação do fluxo em cada nó temos,



Nó A: 15 = f1 + f4 
 f1 + f4 = 15
Nó B: f1 = f2 + 10 f1 − f2 = 10

−→
Nó C: f2 + f3 + 5 = 30 
 f2 + f3 = 25
Nó D: f4 + 20 = f3 f3 − f4 = 20

Usando a eliminação de Gauss-Jordan temos,


   
1 0 0 1 15 1 0 0 1 15
 1 −1 0 0 10   0 1 0 1 5 
  −→  ,
 0 1 1 0 25   0 0 1 −1 20 
0 0 1 −1 20 0 0 0 0 0
voltando ao sistema, 
 f1 + f4 = 15
f2 + f4 = 5 ,
f3 − f4 = 20

logo o sistema é SPI com grau de liberdade 1, tomando f4 = t, temos,


f3 = 20 + t; f2 = 25 − (20 + t) = 5 − t; f1 = 15 − t.
Note que os fluxos podem ser controlados pelo fluxo em AD, por exemplo, se f4 = 5l/seg então
f1 = 10 l/seg; f2 = 0; f3 = 25 l/seg. Também podemos obter os fluxos mı́nimos e máximos
em cada ramo, considerando que estes são positivos ou nulos.
10 ≤ f1 ≤ 15
0≤ f2 ≤5
20 ≤ f3 ≤ 25
0≤ f4 ≤5

41
1.7 Determinantes
Dada uma matriz quadrada A, o determinante de A é um número real, denotado por det A
ou |A|, que define a inversibilidade da matriz. Vamos apresentar a forma geral que tem o
determinante de uma matriz quadrada de ordem qualquer embora não constitui uma definição
do conceito. O determinante de matrizes de ordem 1, 2 e 3 será dado explicitamente e para o
caso de ordem maior serão usadas propriedades e o desenvolvimento de Laplace.

Forma geral do Determinante. Dada uma matriz A = [aij ]n×n o determinante de A tem a
forma, X
det A = ±a1i1 · . . . · akik · . . . · anin ,
onde (i1 , . . . , in ) são permutações de 1, 2, . . . , n e o somátorio é sobre todas as n! permutações.
O sinal de cada parcela depende da permutação associada e não será definido nestas notas.
Para os cálculos usaremos os casos particulares, propriedades e o Teorema de Laplace.

Definição 1.64 (Casos particulares).

i) Ordem 1. |[a]| = a
a b
ii) Ordem 2. A = = ad − bc.
c d

a1 a2 a3
iii) Ordem 3. b1 b2 b3 = a1 b2 c3 + a2 b3 c1 + a3 b1 c2 − a1 b3 c2 − a2 b1 c2 − a3 b2 c1 .
c1 c2 c3
Neste caso o valor do determinante é obtido também pela Regra de Sarrus, mas esta regra
só se aplica a este caso e não para ordem maior.

Em geral, o determinante é calculado utilizando somente as propriedades, e não sua definição.


Primeiro enunciaremos quatro propriedades básicas das quais podem ser deduzidas todas as
outras.
Seja A uma matriz quadrada de ordem n. Além da notação usual, A também será denotada
na forma,
A = (L1 , . . . , Ln ),
onde L1 , . . . , Ln representam as linhas de A.

42
Proposição 1.65 (Propriedades básicas).

1. det(In ) = 1.

2. Se L1 , . . . , Ln , L são linhas 1 × n, então

a) det(L1 , . . . , Li + L, . . . , Ln ) = det(L1 , . . . , Li , . . . , Ln ) + det(L1 , . . . , L, . . . , Ln ).


b) det(L1 , . . . , kLi , . . . , Ln ) = k det(L1 , . . . , Li , . . . , Ln ), onde k 6= 0.

3. Se B é obtida de A pela permutação de duas linhas, então det B = − det A, ou seja

det(L1 , . . . , Li , . . . , Lj . . . , Ln ) = − det(L1 , . . . , Lj , . . . , Li . . . , Ln ).

A partir destas derivam-se as seguintes propriedades relacionadas a aplicação de operações


elementares, entre outras.

Propriedades 1.66. Seja A matriz quadrada de ordem n.

4. Se duas linhas de A são iguais, então det A = 0.

5. Se B é obtida de A pela aplicação da operação elementar Li + kLj → Li , então det(B) =


det(A).

6. O determinante de uma matriz triângular superior ou inferior é o produto dos elementos


da sua diagonal.

7. Se k é um escalar, então det(kA) = k n det A.

8. Teorema de Binet. Se A e B são matrizes quadradas de ordem n, então

det(AB) = det(A) det(B).

9. det A 6= 0 ⇔ pA = n ⇔ A invertı́vel.

10. det(A) = det(At ).

11. As propriedades de 2 a 5 são válidas também para colunas.


 
1 −4 2
Exemplos 1.67. 1. Calcule o determinante da matriz A = −2 8 −9.
1 3 0
Aplicando operações elementares temos,
1 −4 2 1 −4 2 1 −4 2
−2 8 −9 = 0 0 −5 = − 0 7 −2 = −(1)(7)(−5) = 35.
1 3 0 0 7 −2 0 0 −5

43
 
2 −8 6 8
 3 −9 5 10 
2. Calculemos o determinante da matriz 
−3 0 1 −2 .

1 −4 0 6
2 −8 6 8 1 −4 3 4 1 −4 3 4
3 −9 5 10 3 −9 5 10 0 3 −4 −2
=2 =2
−3 0 1 −2 −3 0 1 −2 0 −12 10 10
1 −4 0 6 1 −4 0 6 0 0 −3 2
1 −4 3 4 1 −4 3 4
0 3 −4 −2 0 3 −4 −2
=2 =2 = −36.
0 0 −6 2 0 0 −6 2
0 0 −3 2 0 0 0 1
3. Verifique que det(A) = det(At ), para a matriz do exercı́cio 1.
 
1 −2 1
Temos At = −4 8 3, logo
2 −9 0
1 −2 1 1 −2 1
det(At ) = 0 0 7 = − 0 −5 −2 = −(−5)(7) = 35 = det(A).
0 −5 −2 0 0 7
4. Por observação, dê o valor dos determinantes das matrizes:
 
  3 0 0 0
−2 1 4 0 0 −1 1
A = 1 −2 −2, B = 

0 2 3 3, e −2B

3 5 −6
0 0 0 1
Temos,
• det(A) = 0, pois a 3a coluna é múltiplo da 1a coluna.
• det(B) = −(3)(2)(−1)(1) = 6, pois permutando a 2a e 3a linhas a matriz é triangular
superior com as entradas 3, 2, -1 e 1 na diagonal.
• det(−2B) = (−2)4 det(B) = 16 × 6 = 96.
Observação 1.68. Considere o sistema linear AX = b, onde a matriz de coeficientes A é uma
matriz quadrada de ordem n, temos
AX = b é SPD ⇔ pA = n ⇔ A é invertı́vel ⇔ |A| =
6 0.
Caso |A| = 0 o sistema pode ser SPI ou SI.

Desenvolvimento de Laplace.
O determinante de uma matriz quadrada de ordem m ≥ 3, pode ser reduzido ao cálculo de
determinantes de matrizes de ordem m − 1, é o que estabelece o Teorema de Laplace, para isto
definamos os seguintes conceitos.

44
Definições 1.69. Dada uma matriz quadrada A = [aij ] de ordem m ≥ 2, denotemos por Mij ,
a submatriz, de ordem m − 1, obtida da matriz A pela retirada da i-ésima linha e da j-ésima
coluna, ou seja:
 
a11 ... a1(j−1) a1(j+1) ... a1m
 .. .. .. .. 
 . . . . 
a . . . a a . . . a
 
Mij =  (i−1)1 (i−1)(j−1) (i−1)(j+1) (i−1)m 
.

a(i+1)1 . . . a(i+1)(j−1) a(i+1)(j+1) . . . a(i+1)m 
 . .. .. .. 
 .. . . . 
am1 . . . am(j−1) am(j+1) . . . amm

Definimos como cofator de aij ao número,

Cij = (−1)i+j det(Mij ).

Definimos como Matriz de cofatores de A a matriz dada por: Cof (A) = [Cij ]m×m .

Os sinais (−1)i+j no cofator do elemento aij , variam com a posição (i, j), como indicado:
 
+ − + ...
− + − . . .
.
.. .. ..

. . .
 
2 0 −3
Exemplo 1.70. Para a matriz A =  1 1 −1, temos:
−1 2 −1
1 −1 1 −1 1 1
C11 = = 1, C12 = − = 2, C13 = =3
2 −1 −1 −1 −1 2
0 −3 2 −3 2 0
C21 = − = −6, C22 = = −5, C23 = − = −4
2 −1 −1 −1 −1 2
0 −3 2 −3 2 0
C31 = = 3, C32 = − = −1, C33 = = 2.
1 −1 1 −1 1 1
 
1 2 3
∴ Cof (A) = −6 −5 −4 .
3 −1 2

Teorema 1.71 (Desenvolvimento de Laplace). Dada uma matriz quadrada A = [aij ], de


ordem n ≥ 2, temos

• Desenvolvimento através da i-ésima linha


n
X
det A = ai1 Ci1 + ai2 Ci2 + . . . + ain Cin = aik Cik .
k=1

45
• Desenvolvimento através da j-ésima coluna
n
X
det(A) = a1j C1j + a2j C2j + . . . + anj Cnj = akj Ckj .
k=1

Exemplo 1.72. Aproveitando os cálculos do exemplo 1.70, temos:

det A = 2C11 + 0 · C12 − 3C13 = 2 − 9 = −7.

Observação 1.73. Verifiquemos que, para ordem 3, o desenvolvimento de Laplace é exata-


mente a expressão dada pela regra de Sarrus.
a1 a2 a3
b 2 b3 b b b b
det A = b1 b2 b3 = a1 − a2 1 3 + a3 1 2
c2 c3 c1 c3 c1 c2
c1 c2 c3
a2 a3 a a a a
= −b1 + b2 1 3 − b3 1 2
c2 c3 c1 c3 c1 c2
a2 a3 a a a a
= c1 − c2 1 3 + c3 1 2 ,
b2 b3 b2 b3 b1 b2
= a1 b 2 c 3 + a2 b 3 c 1 + a3 b 1 c 2 − a1 b 3 c 2 + a2 b 1 c 3 + a3 b 2 c 1 ,

o mesmo acontece com o desenvolvimento de Laplace por colunas.


Exemplos 1.74.
 
3 1 2
1. Calculemos o determinante da matriz A = −2 −4 5  .
5 4 −3
a
Desenvolvendo pela 3 coluna,
−2 −4 3 1 3 1
det A = (2) · − (5) · + (−3) ·
5 4 5 4 −2 −4
= (2)(12) − (5)(7) + (−3)(−10) = 19.
 
1 0 0 −1
−3 2 1 2
2. Calculemos o determinante da matriz A =  3 0 0
.
1
2 0 −2 1
Neste caso o é conveniente o desenvolvimento pela 2a coluna.
1 0 −1
det A = (2) 3 0 1 .
2 −2 1
Desenvolvendo novamente pela 2a coluna, temos:
1 −1
det A = (2)(−2)(−1) = (4)(1 + 3) = 16.
3 1

46
3. Neste exemplo vamos usar operações linha
 e desenvolvimento
 por linhas ou colunas para
3 5 −2 6
1 2 −1 1
calcular o determinante da matriz A =  2
.
4 1 5
3 7 5 3

3 5 −2 6 0 −1 1 3
−1 1 3
1 2 −1 1 1 2 −1 1
det(A) = = =− 0 3 3
2 4 1 5 0 0 3 3
1 8 0
3 7 5 3 0 1 8 0
−1 1 3
3 3
= − 0 3 3 = −(−1) = −18.
9 3
0 9 3

O Determinante da Matriz Invertı́vel

O valor do determinante permite dizer se a matriz é invertı́vel ou não.


Proposição 1.75. A matriz A será invertı́vel, se e somente se, det(A) 6= 0. Neste caso
1
det A−1 = .
det A

Demonstração. Por um lado, se A é invertı́vel, então AA−1 = I, tomando determinantes em


ambos os lados:

det(AA−1 ) = det(A) det(A−1 ) = det(I) = 1,


daı́ é claro que
1
det(A) 6= 0 e det A−1 = .
det A
Por outro lado, se det(A) 6= 0, então a matriz erl, B, obtida a partir de A, verifica det(B) =
k det(A), com k 6= 0, logo det B 6= 0. Como entre as formas erl, a única que não possui linhas
nulas é a identidade, então B = I e portanto A é invertı́vel.
 
−1 −2 0
Exemplo 1.76. Vamos usar o critério acima, para determinar se a matriz A =  1 4 1
5 0 1
é invertı́vel.

det(A) = (−1)C11 + (−2)C12 + (0)C13


4 1 1 1
= (−1) − (−2)
0 1 5 1
= (−1)(4) − (−2)(−4) = −12 6= 0.

Portanto A é invertı́vel.

47
Definição 1.77. Dada a matriz A, define-se matriz adjunta classica de A como a matriz:
adj(A) = (Cof (A))t = [Cij ]t .
 
−1 −2 0
Exemplo 1.78. Calculemos adj(A), para A = 1
 4 1. Temos:
5 0 1
4 1 1 1 1 4
C11 = = 4, C12 = − = 4, C13 = = −20
0 1 5 1 5 0

−2 0 −1 0 −1 −2
C21 = = 2, C22 = = −1, C23 = = −10
0 1 5 1 5 0

−2 0 −1 0 −1 −2
C31 = = −2, C32 = − = 1, C33 = = −2.
4 1 1 1 1 4
 
4 2 −2
Portanto: adj(A) =  4 −1 1 .
−20 −10 −2

Observemos o produto das matrizes quadradas A = [aij ] e adj(A) = [Cij ]t , de fato


X
A · adj(A) = [bij ], onde bij = aik Cjk .
k

Na diagonal, bii = ai1 Ci1 + · · · + ain Cjn = det A. Para i 6= j, ou seja, fora da diagonal, temos
bij = ai1 Cj1 + · · · + ain Cjn = 0. Portanto:
A · adj(A) = (det A)In .
Esta igualdade permite determinar a inversa caso det A 6= 0.
Proposição 1.79. Para toda matriz quadrada, A invertı́vel, temos:
1
A−1 =adj(A).
det(A)
 
−1 −2 0
Exemplo 1.80. Sabemos que a matriz A =  1 4 1 é invertı́vel, com
5 0 1
 
4 2 −2
det(A) = −12 e adj(A) =  4 −1 1  ,
−20 −10 −2

logo,  
4 2 −2
−1 
A−1 = 4 −1 1  .
12
−20 −10 −2

48
Interpretação Geométrica no Plano
 
x1 y 1
Considere a matriz A = , veremos que o valor absoluto do det(A) é exatamente a área
x2 y 2
do paralelogramo determinado pelos vetores u = (x1 , y1 ) e v = (x2 , y2 ), sendo u e v vetores não
paralelos.

• Consideremos o caso em que u e v são perpendiculares. Assim, se x1 6= 0 e x2 6= 0 é claro


que
y1 y2
· = −1 ⇒ x1 x2 + y1 y2 = 0,
x1 x2
como x1 = 0 ⇒ y2 = 0 e x2 = 0 ⇒ y1 = 0 ( pois u e v são perpendiculares), então:

x1 x2 + y1 y2 = 0, ∀ u, v.

Sejam a a área do paralelogramo determinado por u e v, l1 e l2 comprimentos de u e v

respectivamente, assim temos:

x21 + y12 0
a2 = l12 l22 = (x21 + y12 )(x22 + y22 ) = = det(AAt ) = (det(A))2 ,
0 x22 + y22

portanto a = |det(A)|.

• No caso geral, tomamos λ ∈ R tal que v − λu seja perpendicular a u, assim temos

portanto,    
u u
a = |det | = |det | = |det(A)|.
v − λu v

49
1.8 Exercı́cios
1. Em cada caso determine a matriz da forma el e da forma erl, linha-equivalente a matriz
dada.
   
0 −3 −6 4 9   1 2 3  
−1 1 1 2 9 3 −2 0
−2 −1 3 1  1 0 0
(a) 
−2
 (b) 2 4 −3 1 (c)   (d) 2 −1 −1.
−3 0 3 −1 0 1 1
3 6 −5 0 4 −3 1
0 −3 −6 4 9 2 4 5

2. Determine os postos e nulidades das matrizes dada no exercı́cio (1).

3. Quais pares de matrizes são linha equivalentes?


     
1 −4 9 −7 3 2 −8 −21 1 −6 14 −13
A = 5 −6
 10 7  e B = 1 0 −1 5 , C = 2 −2 3 4 
−1 2 −4 1 1 −6 14 −13 1 −2 4 −1

4. Se existirem, determine todas as formas das matrizes erl, 3 × 2 e tais que:


(a) Tem posto 1 (b) Tem posto 2 (c) Tem posto 3.
 
1 2 0 3
 0 1 −1 2 
5. Determine os valores de k para os quais o posto da matriz ; 
 1

0 1 k 
0 1 0 −1
é igual a 3. Qual o posto para outros valores de k?

6. Determine
 todos 
os valores possı́veis para pA , de acordo com os valores do parâmetro a.
1 2 a
A = −2
 4a 2
a −2 1

7. Se existir, determine a matriz inversa das seguintes matrizes:


 
  1 3 0
2 −1
(a) (b)  2 5 −1 
−6 7
0 1 2

8. Determine a de modo que as matrizes abaixo sejam invertı́veis :


   
1 1 1 a 0 0
(a) 2 1
 2 (b) 1 a 0
1 2 a 0 1 a
 
1 3 −3
9. Dada a matriz A−1 =  0 −1 2  , calcule a matriz A.
1 −2 1

50
10. Determine os valores de a, b e c para os quais a matriz :
 
1 1 1 1
 1 1+a 1 1 
  é invertı́vel.
 1 1 1+b 1 
1 1 1 1+c
 
1 3 −3
11. A matriz M é invertı́vel e verifica (3M −1 )t =  0 −1 2  , determine M .
1 −2 1

12. Considere a equação matricial AC 2 X t = C, onde A e C são matrizes invertı́veis


(a) Determine X em função de A e C.
 
1 0 1
(b) Calcule X, se A = C =  −6 2 3 .
−1 −1 −3

13. Resolva os seguintes sistemas pelo método de eliminação de Gauss ou de Gauss-Jordan,


dando quando for possı́vel seu grau de liberdade.

  5x + 5y = 5
x+ y+ z = 4
(a) (b) 2x + z = 0
2x+ 5y− 2z = 3
5x + y − z = 1

 

 2x + y + z = 1  x+y+z+w =
 0
x − y + z = 0 x+y+z−w = 4
 
(c) (d)

 3x + y + 3z = 2 
 x + y − z + w = −4
4x + y + 5z = −3 x−y+z+w = 2
 
 

 x1 − 2x3 = −1 
 x1 + 2x2 − x3 = 5
x 2 − x4 = 2 x1 + x2 + x3 = 1
 
(e) (f)

 −3x2 + 2x3 = 0 
 2x1 − 2x2 + x3 = 4
−4x1 + 7x4 = −5 5x1 + 3x2 = −15
 
 
 5x1 + 8x2 + 15x3 = −7  x + 4y − z + w = 2
(g) 3x1 + 5x2 + 9x3 = −2 (h) 3x + 2y + z + 2w = 5
x1 + 2x2 + 3x3 = 3 −2x − 8y + 2z − 2w = −4
 


 x + 2y + 3z = 24
14. Considere o sistema 2x + y + 3z = 48
3x + 2y + z = 60

(a) Escreva o sistema na forma matricial, AX = b


(b) Justifique que o sistema pode ser resolvido por inversão e determine a solução X por
esse método.

15. Considere os seguintes sistemas:

51
 
 2x − 5y + 2z = 0  x + 6y − kz + w = 0
S1 : x+y+z = 0 S2 : x+y−w = 0 .
2x + kz = 0 4x + y + 6z + kw = 0
 

(a) Para cada sistema, encontre os valores de k para os quais o sistema seja possı́vel e
indeterminado.
(b) Para cada sistema, considere k = −3 e determine a solução.
16. Em cada caso, determine o tipo de solução dos sistemas, de acordo com os valores dos
parâmetros α, β, γ, a, b e c.
 
 x+y+z = 0  x + y + βz = 1
(a) x − y + αz = 1 (b) x + 2y + z = 2 .
αx + 2y + z = −2 2x + 5y − 3z = γ
 
 
 x1 + ax2 + x3 = 1  x1 + 2x2 + (b + 1)x3 = 2
2
(c) 2x1 − ax2 + 3x3 = a (d) x2 + b x3 = b+1
−x1 + 3x2 = −2 x1 + (1 − b)x3 = 0
 


 x+y+z = 0
x + (c − 1)y = 1

(e)

 x + cz = −1
x+z = 2

17. Em cada caso, determine a relação entre os parâmetros a, b e c para que o sistema admita
solução.
 
 x − 2y − z = a  x+ 2y+ 3z− 3w = a
(a) 2x + y + 3z = b (b) 2x− 5y− 3z+ 12w = b
4x − 3y + z = c 7x+ y+ 8z+ 5w = c
 

18. Considere o seguinte sistema linear :




 x − y = b 1 − a1
y − z = b 2 − a2


 z − w = b3 − a3
x − w = a4 − b 4

onde a1 , a2 , a3 , a4 , b1 , b2 , b3 e b4 são parâmetros reais. Qual a relação entre os parâmetros


de forma que o sistema seja :
(a) SPD (b) SPI (c) SI
  

2 1 2 x
19. Considere as matrizes : A =  2 2 −2  e X =  y .
3 1 1 z
(a) Verifique que a equação AX = X pode ser reescrita como (A − I3 )X = 0, onde I3
é a matriz identidade de ordem 3.
(b) Use o item anterior para resolver a equação AX = X.
(c) Resolva AX = 4X.

52
20. Uma rede de valas de irrigação é mostrada na figura abaixo, com vazões medidas em
milhares de litros por dia.

(a) Configure e resolva um sistema de equações lineares para encontrar os possı́veis fluxos
f1 , . . . , f 5
(b) Suponha que DC esteja fechado. Que faixa de fluxo precisará para ser mantido através
do DB?
(c) A partir da figura, é claro que o DB não pode ser fechada, justifique esta afirmação.
Como sua solução, na parte (a) mostra isso?
(d) Da solução obtida em (a), determine os fluxos mı́nimo e máximo por DB.

21. Suponha que a curva y = ax2 + bx + c passa pelos três distintos pontos (x1 , y1 ), (x2 , y2 )
e (x3 , y3 ). Mostre que os coeficientes
 2 a, b e c são uma solução do sistema de equações
x1 x1 1 y1
lineares cuja matriz ampliada é  x22 x2 1 y2 .
x23 x3 1 y3
Use determinantes para concluir que os coeficientes a, b, c existem e são únicos.

22. Calcule os determinantes das matrizes:


   
  2 1 2 1 0 0 1 3
1 −2 4  3 0 1 1 0 1 3 1
(a) A = 2 −3 5  (b) B =  −1 2 −2 1 (c) C = 1 3
  
1 0
3 −4 −6
−3 2 3 1 3 1 0 0
 
5 3 0 0
−1 2 0 0
(d) D =   (e) det(BB t ), onde B é a matriz dada em (b).
0 0 4 1
0 0 −3 −2

23. Sejam A e B matrizes quadradas de ordem n ≥ 2. Determine se as seguintes proposições


são V ou F, justificando sua resposta.
(a) det AB = det BA
(b) Se A é ortogonal, isto é AAt = I então det A = ±1.
(c) det(−A) = − det A

53
(d) det(2A) det(3B) = 6 det A det B
(e) Se B é invertı́vel então det(B −1 AB) = det A

24. Suponha que A = [aij ] é uma matriz quadrada de ordem 4, tal que det A = −7 e calcule:
2a14 a34 a44 a24
−2a12 −a32 −a42 −a22
(a) det(3A) (b) det(2A−1 ) (c) det(2A)−1 (d) .
2a13 a33 a43 a23
2a11 a31 a41 a21
25. Use determinantes para achar todos os valores de a e b, tais que a matriz A seja invertı́vel
 
a −1 3
A = −1 −2 b  .
0 1 −3

26. Use determinantes para encontrar uma condição necessária e suficiente sobre a, b, c, d ∈ R
de forma que a matriz A não seja invertı́vel.
 
a+1 b c d
 a b+1 c d 
A=  a
.
b c+1 d 
a b c d+1

54
Capı́tulo 2

ESPAÇOS VETORIAIS

2.1 Introdução
O plano munido de um sistema de coordenadas cartesianas,

R2 = {(x, y) /x, y ∈ R},

é o exemplo mais tı́pico de espaço vetorial. R2 também representa o conjunto de vetores de


um plano, desde que todo vetor é considerado como idéntico a um com origem em (0, 0),
mas com mesmo comprimento, sentido e direção, assim vetores são entendidos como iguais
às coordenadas do seu extremo. O conjunto de vetores do plano, R2 , possui duas operações
conhecidas: adição de vetores e multiplicação de escalar por vetor,

• Adição de vetores: Se u = (a, b) e v = (c, d), então a soma de u e v é o vetor

u + v = w = (a + b, b + d) ∈ R2 ,

geometricamente a soma é efetuada pela regra do paralelogramo.

55
• Multiplicação de vetor por escalar: Se λ ∈ R e v = (a, b) ∈ R2 , então a multiplicação
de λ por v, é o vetor: λv = (λa, λb) ∈ R2 , geometricamente entendido como um vetor na
reta determinada por v, com comprimento e sentido determinado por λ.

Notemos que vetores de R2 podem ser entendidos também como matrizes coluna 2 × 1, visto
que a única diferença ao efetuar as operações é a notação.
Em resumo, R2 possui duas operações, uma interna (entre vetores resultando em vetor) que é
a soma de vetores e outra externa (de real por vetor resultando vetor), que é a multiplicação
por escalar, sendo que estas operações possuem uma série de propriedades algébricas. Um
espaço vetorial basicamente, é uma generalização deste conjunto geométrico de vetores, de suas
operações de soma e multiplicação por escalar e de suas propriedades. Nesta generalização,
no lugar de R2 considera-se um conjunto V e no lugar do conjunto com escalares R usamos
um conjunto com estrutura de corpo, de forma que seja possı́vel efetuar as operações interna e
externa com propriedades análogas às de R2 . Definiremos a estrutura de corpo e posteriormente
o conceito de espaço vetorial.

2.2 Definições e Propriedades


Definição 2.1. Um conjunto não vazio K, que possui duas operações internas: soma e multi-
plicação, ou seja,
u + v ∈ K, u · v ∈ K, ∀ u, v ∈ K,
é dito corpo, quando verifica:
A1) A adição é Associativa: (x + y) + z = x + (y + z), ∀x, y, z ∈ K.
A2) A adição é Comutativa: x + y = y + x, ∀x, y ∈ K.
A3) Existência do Neutro Aditivo: Existe 0 ∈ K, tal que: x + 0 = 0 + x = x, ∀x ∈ K.
A4) Existência dos Simétricos: Para todo x ∈ K, existe o elemento −x ∈ K, com a propriedade:
x + (−x) = (−x) + x = 0.

56
M1) A multiplição é Associativa: (x · y) · z = x · (y · z), ∀x, y, z ∈ K.
M2) A multiplição é Comutativa: x · y = y · x, ∀x, y ∈ K.
M3) Existência da Unidade: Existe 1 ∈ K, com a propriedade: x · 1 = 1 · x = x, ∀x ∈ K.
−1
M4) Existência dos Inversos: Para cada x 6= 0, x ∈ K, existe o elemento x ∈ K, que verifica,
x · x−1 = x−1 · x = 1, ∀ x ∈ K.
M5) Distributividade: Para todos x, y, z ∈ K, x · (y + z) = x · y + x · z.
Exemplo 2.2.

1. Q, R, C, são corpos munidos das operações usuais de adição e multiplicação.


2. Existem corpos com um número finito de elementos, um exemplo é o corpo com dois
elementos Z2 = {0, 1}, aqui os elementos 0 e 1 não são os números usuais, as operações
são realizadas de acordo com as seguintes tabelas.

+ 0 1 · 0 1
0 0 1 0 0 0
1 1 0 1 0 1
Definição 2.3. Consideremos um conjunto não vazio V e um corpo K, (normalmente será R),
onde existem as operações de adição e de multiplicação por escalar:

• Adição: Para todo u, v ∈ V , u + v ∈ V


• Multiplicação por escalar: Para todo λ ∈ K e u ∈ V , temos λ · u ∈ V .

Dizemos que V com as operações acima é um Espaço Vetorial sobre K, se são satisfeitas:
E1) Associatividade da Adição: Para todos u, v, w ∈ V , temos

(u + v) + w = u + (v + w).

E2) Comutatividade da Adição: Para todos u, v ∈ V , temos

u + v = v + u.

E3) Existência do Zero: Existe um elemento, denotado por 0V ∈ V (ou simplesmente 0),
com a propriedade
v + 0V = 0V + v = v.

E4) Existência do Simétrico: Para todos v ∈ V , existe −v tal que:

v + (−v) = (−v) + v = 0V .

E5) Para todos λ, β ∈ K e v ∈ V , temos

(λβ)v = λ(βv).

57
E6) Para todos λ, β ∈ K e v ∈ V ,

(λ + β) · v = λ · v + β · v.

E7) Para todos λ ∈ K e u, v ∈ V , então

λ · (u + v) = λ · u + λ · v.

E8) Para todo u ∈ V , temos 1 · u = u.

Os elementos de V são ditos vetores, o elemento zero é dito vetor nulo e os elementos de K
são ditos escalares.
V é dito Espaço Vetorial Real , caso K = R ou Espaço Vetorial Complexo, caso K = C.
Nestas notas estaremos trabalhando sempre com espaços vetoriais reais.

Dois espaços vetoriais reais importantes.

Exemplos 2.4. 1. Dado um natural n ≥ 1, consideremos o conjunto das n-uplas de números


reais
Rn = {(x1 , · · · , xn ) | x1 , . . . , xn ∈ R},
Rn é um espaço vetorial real munido com as operações:

(x1 , · · · , xn ) + (y1 , · · · , yn ) = (x1 + y1 , · · · , xn + yn )

λ · (x1 , · · · , xn ) = (λx1 , · · · , λxn ),


pois satisfaz as propriedades A1-A4 e M1-M4. Aqui o vetor nulo é 0Rn = (0, · · · , 0) e o
simétrico de u = (x1 , · · · , xn ) é −u = (−x1 , · · · , −xn ).
Trataremos as n-uplas como matrizes coluna, ou seja
 
x1
 .. 
(x1 , · · · , xn ) =  .  ,
xn

visto a identificação entre os elementos e suas operações.

2. Seja I um intervalo real e consideremos o conjunto das funções de I com valores em R que
denotaremos por F (I, R). F (I, R) é um espaço vetorial real, munido com as operações:

(f + g)(x) = f (x) + g(x), para todo x ∈ I,

(λf )(x) = λf (x), para todo x ∈ I e λ ∈ R,


neste caso o vetor nulo é a função nula de I em R e a função simétrica de f é −f , dada
por (−f )(x) = −f (x), ∀x ∈ I.

58
Proposição 2.5. Seja V um espaço vetorial, então para todo v ∈ V e λ ∈ R, temos:

1. 0 · v = 0V .

2. λ · 0V = 0V .

3. −1 · v = −v.

Demonstração. 1. 0 · v = (0 + 0) · v = 0 · v + 0 · v, substraindo 0 · v, em ambos os lados,


temos 0V = 0 · v.

2. λ · 0V = λ · (0V + 0V ) = λ · 0V + λ · 0V , substraindo de ambos os lados λ · 0V , temos,


0V = λ · 0V .

3. v + (−1) · v = 1 · v + (−1) · v = (1 + (−1)) · v = 0 · v = 0V , portanto (−1) · v = −v.

2.3 Subespaços Vetoriais


Definição 2.6. Consideremos um espaço vetorial real V e um subconjunto não vazio W ⊂ V .
W será dito Subespaço vetorial de V , se são satisfeitas:

1. As operações de V podem ser definidas em W , ou seja que a adição e multiplicação por


escalar de V verificam:

• Para todos u, v ∈ W , temos que u + v ∈ W


• Para todo u ∈ W e λ ∈ R, temos λ · u ∈ W .

2. W munido com as operações de V é um espaço vetorial.

Observação 2.7. Devido a que várias propriedades necessárias para W ser um espaço vetorial
munido das operações de V são transladadas de V para W , para verificar que W é um subespaço
de V é suficiente que,

1. Para todos u, v ∈ W , temos que u + v ∈ W

2. Para todo u ∈ W e λ ∈ R, temos λ · u ∈ W .

3. 0V ∈ W .

Exemplos 2.8.

1. Se V é um espaço vetorial, trivialmente {0V } e V serão subespaços de V .

59
 
2 x
2. Se V = R , a reta W = { ∈ R2 | y = 3x} é um subespaço vetorial real de V .
y    
x x
Para verificar este fato, reescrevemos W = { ∈ R2 | y = 3x} = { | x ∈ R} =
  y 3x
1
{x | x ∈ R} e testamos as condições da obervação 2.7.
3
   
1 1
• Se u = x ev=y ∈ W , temos
3 3
     
1 1 1
u+v =x +y = (x + y) ∈ W.
3 3 3
 
1
• Se u = x ∈ W e λ ∈ R, temos
3
   
1 1
λu = λ(x ) = (λx) ∈ W.
3 3
   
0 1
• =0· ∈ W.
0 3

Analogamente, toda reta de R2 que passa pela origem é um subespaço vetorial de R2 .


2
Enquanto que uma reta que não  passa pela origem não será um subespaço vetorial de R ,
0
já que não verfica a condição ∈ W.
0
3. Em V = R3 , as retas e planos que passam pela origem (0, 0, 0), são subespaços vetoriais.

4. Dada a matriz de coeficientes A, de ordem m×n e o vetor de incógnitas X = (x1 , . . . , xn ),


podemos considerar o conjunto das soluções do sistema homogêneo A · X = 0:
 
x1
W = {X =  ...  | A · X = 0}.
 
xn

60
W é um subespaço vetorial de Rn , pois:

• 0 ∈ W , já que A · 0 = 0
• Se X, Z ∈ W , então A · (X + Z) = A · X + A · Z = 0 + 0 = 0,
• Se X ∈ W e λ ∈ R, então
A · (λX) = λ(A · X) = λ0 = 0.

W é dito espaço nulo de A, usaremos a notação: N ul(A).


5. No espaço vetorial F (R, R), temos o subespaço de todas as funções polinomiais de grau
máximo n.
Pn (R) = {p(x) = a0 + a1 x + . . . + an xn | a0 , a1 , . . . , an ∈ R} .

6. No espaço vetorial F(I, R), onde I é um intervalo real, temos


• O subespaço das funções contı́nuas de I em R, denotado C(I).
• O subespaço das funções de I em R com derivada contı́nua até ordem m , denotado
C m (I).
• O subespaço das funções de I em R com derivadas contı́nuas de todas as ordens,
denotado C ∞ (I).
Esses sub-espaços verificam as inclusões,
C ∞ (I) ⊂ . . . ⊂ C m (I) ⊂ . . . ⊂ C 1 (I) ⊂ C(I).
Observação 2.9. Se 0V ∈
/ W , então W não será um subespaço.

Os seguintes subconjuntos de R2 não são subespaços vetoriais:


   
x 0
W1 = { | x + 5y = 2}, pois não contém o vetor ,
y 0
     
x 2 1 2
W2 = { | x = y }, pois por exemplo ∈ W2 , mas ∈
/ W2 .
y 1 2

2.4 Independência Linear e Geradores

Combinação Linear e Espaço gerado

Consideremos um espaço vetorial V . Sejam v1 , . . . , vn vetores de V e consideremos os vetores


da forma:
v = α1 v1 + . . . + αn vn ∈ V,
onde α1 , . . . , αn são escalares quaisquer. O vetor v ∈ V é chamado combinação linear de
v1 , . . . , vn .

61
   
−1 2
3
Exemplo 2.10. Consideremos em V = R , os vetores v1 = 1 , v2 = 0 . Vejamos que
  
2 −1
os seguintes vetores são combinações lineares de v1 e v2 :
     
4 1 1
u = 2v1 + 3v2 = 2 , w = v1 + v2 = 1 e z = −1 · v1 + 0 · v2 = −v1 = −1 .
    
1 1 −2

Geometricamente temos a seguinte situação:

Assim, para mostrar uma combinação linear dos vetores v1 e v2 , escolhemos escalares α e β e
3
calculamos αv1 + βv2 . Por outro lado, dado umvetor
 v de R , como determinar se v é uma
1
combinação linear de v1 e v2 ? Por exemplo v = 5 é uma combinação linear de v1 e v2 ? E o
  7
3
que dizer sobre v = 1 ?
0
   
1 1
• Para o caso v = 5 , procurando escalares α e β, tais que 5 = αv1 + βv2 , temos
  
7 7
          
−1 2 1 −1 2   1  −2α + 2β = 1
α
α 1 +β 0 = 5 ⇔ 1
       0  = 5 ⇔
  α = 5 .
β
2 −1 7 2 −1 7 2α − β = 7

O sistema obtido é SPI e a solução é evidente α = 5 e β = 3, logo v é combinação linear


de v1 e v2 .

62
 
3
• Já no caso v = 1, não é combinação linear de v1 e v2 , pois procurando escalares α e β

1
tais que:
       
3 −1 2 −α + 2β
1 = α  1  + β  0  =  α ,
1 2 −1 2α − β
   
−1 2   3
α
obtemos o sistema:  1 0 = 1 Este sistema é SI, logo v não é combinação
β
2 −1 1
linear de v1 e v2 .

Observação 2.11. De acordo com o exemplo, notamos que uma combinação linear dos vetores
v1 , . . . , vn em Rm é da forma:

α1 v1 + α2 v2 + . . . + αn vn = A · v,

onde A é a matriz cujas colunas são os vetores v1 , . . . , vn e v = [αi ]n×1 .

Sejam V um espaço vetorial e v1 , v2 , . . . , vn vetores de V . Consideremos o conjunto, W , de


todas as combinações lineares de v1 , v2 , . . . , vn .

W = {α1 v1 + α2 v2 + . . . , +αn vn | α1 , . . . , αn ∈ R} ⊆ V.

Vejamos que W é um subespaço vetorial de V :

• Dados u = α1 v1 + α2 v2 + . . . , +αn vn e v = β1 v1 + β2 v2 + . . . , +βn vn , vetores de W ,


claramente: u + v = α1 v1 + . . . , +βn vn ∈ W.

• Dados λ ∈ R e u = α1 v1 + α2 v2 + . . . , +αn vn ∈ W , claramente:

λu = λ (α1 v1 + . . . , +αn vn ) = (λα1 )v1 + . . . + (λαn )vn ∈ W.

• 0V = 0v1 + . . . + 0vn ∈ W.

W é um subespaço vetorial de V , chamado subespaço gerado pelos vetores v1 , . . . , vn este


subespaço vetorial será denotado da forma:

W = [v1 , . . . , vn ] ou W = [S],

onde S = {v1 , ..., vn }. Os vetores v1 , . . . , vn , são ditos geradores de W .

63
Exemplo 2.12.
 Determine
 a(s)
 equação(ões) que definem
 o subespaço de R3 , gerado pelos
2 −1 a
vetores u = 1 e v = −1 . Neste caso, w = b  ∈ [u, v], se e somente, se existem α e β,
    
−1 3 c
tais que:
         
a 2 −1 2 −1   a
 b  = α  1  + β −1 , ou seja  1 −1 α =  b  .
β
c −1 3 −1 3 c
A matriz ampliada do sistema é:
 
2 −1 a
[A|B] =  1 −1 b , escalonando, temos:
−1 3 c
     
2 −1 a 2 −1 a 2 −1 a
 1 −1 b  →  0 1 a − 2b  →  0 1 a − 2b 
−1 3 c 0 5 a + 2c 0 0 −4a + 10b + 2c
 
2 −1 a
→ 0 1
 a − 2b  ,
0 0 2a − 5b − c
assim, para que o sistema tenha solução é necessário que 2a − 5b − c = 0, portanto:
 
a
[u, v] = { b  ∈ R3 | 2a − 5b − c = 0}.

c
Exemplos 2.13 (Espaços gerados em R3 ). Consideremos V = R3 , temos:

1. Se v ∈ R3 , v 6= 0, então [v] é a reta que passa pela origem do sistema de coordenadas e


que tem a direção de v.

64
2. Se u, v são vetores não nulos de R3 e não paralelos. Então o subespaço [u, v] é o plano
determinado por u e v.

3. Se os vetores u e v estão nas condições acima e se w é um vetor de R3 , tal que w ∈


/ [u, v],
3
então o espaço gerado por [u, v] é todo R .

Exemplos 2.14.
 
4
1. Dado v = −2 ∈ R3 , W = [v] é a reta de R3 que passa pela origem e que contém o
2
vetor v, que podemos descrever como,
     
4 2 2λ
W = [v] = {λ −2 | λ ∈ R} = {λ −1 | λ ∈ R} = {−λ | λ ∈ R}.
2 1 λ

65
Notemos que a reta W pode ser gerada por,
         
4 2 −6 2 4
−2 ou −1 ou  3  ou por −1 e −2 .
2 1 −3 1 2
   
−1 0
2. Dados u = 2 e v = −1, notemos que u ∈
   / [v], pois u não é múltiplo de v. Assim,
1 0
concluı́mos que W = [u, v] é o plano de R3 , que passa pela origem e contém u e v.
Determinemos exatamente os vetores de W ,
       
x x −1 0
y  ∈ W ⇔ y  = α  2  + β −1 , α, β ∈ R
z z 1 0
   
−1 0   x
α
⇔  2 −1 = y  , α, β ∈ R
β
1 0 z

Considerando a matriz ampliada do sistema temos,


   
−1 0 x −1 0 x
 2 −1 y  →  0 −1 2x + y  ,
1 0 z 0 0 x+z

 
x
assim, y  ∈ W , se e somente se, o sistema tem solução ou seja, x + z = 0. Esta equação
z
é a que representa o plano [u, v].
Observação 2.15. O conjunto usual de geradores do espaço vetorial Rn é composto pelos
vetores:      
1 0 0
0 1 0
e1 =  ..  , e2 =  ..  , . . . , en =  ..  ,
     
. . .
0 0 1
pois, claramente:
       
x1 1 0 0
 x2  0 1 0
 ..  = x1  ..  + x2  ..  + . . . + xn  ..  = x1 e1 + x2 e2 + . . . + xn en .
       
. . . .
xn 0 0 1

A seguinte propriedade útil para determinar quando dois conjuntos geram o mesmo subespaço.

66
Proposição 2.16. Se S e T são conjuntos de vetores de um espaço vetorial V , então,

[S] = [T ] ⇔ S ⊆ [T ] e T ⊆ [S].

Exemplo 2.17. Se u e v são vetores de um espaço vetorial V , temos [u, v] = [−u, u + v], pois
u = −1 · (−u) + 0 · (u + v); v = 1 · (−u) + 1 · (u + v) ⇒ u, v ∈ [−u, u + v]
e
−u = −1 · u + 0 · v; u + v = 1 · u + 1 · v ⇒ −u, u + v ∈ [u, v].

Independência e Dependência Linear.

No espaço R3 consideremos vetores não nulos, u, v, que não são múltiplos um do outro, neste
caso é claro que,
[u, v, u + v] = [u, v] 6= [u],
este exemplo ilustra que em certos conjuntos de geradores de um espaço, podemos extrair
vetores preservando o espaço gerado, mas em outros conjuntos isto não é mais possı́vel.
Em geral, dado um conjunto de vetores geradores de V , v1 , v2 , . . . , vn , desejamos extrair um
subconjunto com um mı́nimo de vetores que ainda seja gerador de V , para isto definiremos os
conceitos de dependência e independência linear.

Definição 2.18. Consideremos o conjunto S = {v1 , . . . , vn }, de vetores de V . Diremos que S


é linearmente independente (LI), se a única solução da equação:

α1 v1 + α2 v2 + . . . + αn vn = 0V

é, α1 = α2 = . . . = αn = 0. Caso exista uma solução com alguns escalares não nulos, diremos
que S é linearmente dependente (LD).

Proposição 2.19. Seja V um espaço vetorial e S um subconjunto de vetores de V . Temos:

1. Se S = {0V } ou se S é um conjunto que conté 0V , então S é LD.

2. Se v 6= 0V , então S = {v} é um conjunto LI

3. Se n ≥ 2, o conjunto com n vetores S = {v1 , . . . , vn } será LD, se e somente se um dos


vetores é combinação linear de outros vetores de S. Consequentemente, S será LI, se
nehum vetor for combinação linear de outros vetores de S.

Nota 2.20. De 2.19(3), veja que um conjunto S com dois vetores não nulos verifica,

S = {u, v} é LI, se e somente se, u 6= kv qualquer que seja o escalar k.

E se existir k tal que u = kv, então S será LD.

67
Exemplos 2.21.
   
−2 4
1. {u = 3 , v = −6} é LD, pois v = −2u.
  
1 −2
   
1 1
{w = 0 , z = −1} é LI, pois w 6= kz, ∀k ∈ R.
2 2
     
−2 1 1
2. { 1 , −1 , −1} é LI. De fato, consideremos a equação:
    
1 1 −1
       
−2 1 1 0
α  1  + β −1 + γ −1 = 0 ,
1 1 −1 0
esta equação equivale ao sistema homogêneo,
    
−2 1 1 α 0
 1 −1 −1 β  = 0 .
1 1 −1 γ 0

Para determinar se a solução do sistema é única (portanto nula) ou não, podemos calcular
o posto.      
−2 1 1 −2 1 1 −2 1 1
 1 −1 −1 →  0 −1 −1 →  0 −1 −1 ,
1 1 −1 0 3 −1 0 0 −4
logo o posto é 3, assim a solução é única e nula, portanto S é LI.
Observação 2.22. No caso V = Rm e S = {v1 , . . . , vn } ⊆ V , para determinar se S é LI ou LD
considere a matriz A, de ordem m × n, cujas colunas são os vetores de S e observamos que o
posto de A determina o tipo de solução do sistema homogêneo AX = 0, logo:

• No caso m = n, temos

S é LI ⇔ pA = m ⇔ A invertı́vel ⇔ det A 6= 0
S é LD ⇔ pA < m ⇔ A não invertı́vel ⇔ det A = 0.

• No caso geral, temos:

S é LI ⇔ pA = n
S é LD ⇔ pA < n,

Neste caso ainda podemos usar o determinante de uma submatriz de A na seguinte forma:

S é LI ⇔ alguma submatriz M de ordem n de A verifica detM 6= 0.

68
Exemplos 2.23. 1. Em R4 , consideremos o conjunto de vetores
     
1 0 2
−1  2  0
{ 0  ,  1  , 1}.
    

2 −1 3

Temos:      
1 0 2 1 0 2 1 0 2
 −1 2 0 
  0 2 2  0 1 1

 0 → → ,
1 1   0 1 1  0 0 0
2 −1 3 0 −1 −1 0 0 0
o posto é 2 < 3, logo o conjunto de vetores é LD.

2. Em R4 , o conjunto de vetores      
1 −1 1
0  0  2
{
0 ,  2  , 0}
    

1 1 1
é LI, pois:
0 0 2
0 2 0 = −4 6= 0.
1 1 1

2.5 Base e Dimensão


Definição 2.24. Um conjunto não vazio S de n vetores de V será uma Base para V , se

1. S é um conjunto LI

2. S gera V .

Exemplos 2.25.

1. Base usual ou canônica de R2 . É simples verificar que o conjunto:


   
1 0
{e1 = , e2 = },
0 1

é uma base de R2 , chamada base canônica de R2 .


Da mesma forma,      
1 0 0
{e1 = 0 , e2 = 1 , e3 = 0},
0 0 1

69
é uma base de R2 , chamada base canônica de R3 . Em geral, o conjunto
   
1 0
0 0
{e1 =  ..  , . . . , en =  .. },
   
. .
0 1

é uma base, chamada base canônica de Rn .


     
1 2 3
2. Verifiquemos que S = { 2 , 9 , 3} é uma base para R3 .
    
1 0 4
 
1 2 3
Calculemos o determinante da matriz A = 2 9 3:
1 0 4

1 2 3 1 2 3 1 2 3
2 9 3 = 0 5 −3 = 0 5 −3 = −5 6= 0,
1 0 4 0 −2 1 0 0 −1

logo S é LI, também gera R3 , pois claramente o sistema AX = b terá solução para todo
b ∈ R3 . Portanto S é uma base para V .

3. No espaço vetorial Pn (R) = {a0 +a1 x+. . .+an xn | a0 , a1 , . . . , an ∈ R}, é simples notar que
o conjunto {1, x, x2 , . . . , xn } é gerador e LI, portanto é uma base para Pn (R), chamada
base usual.

Observação 2.26. Como colocado no exemplo 2.25(2), em Rn um conjunto com n vetores


{v1 , . . . , vn } será uma base, se e somente se, det A 6= 0, onde A é a matriz cujas colunas (ou
linhas) são os vetores v1 , . . . , vn .
     
1 1 3
Exemplo 2.27. Consideremos os vetores de R3 , u = 1 , v =  0  e w = 1.
0 −2 1
Como
1 1 3 1 1 0 1 1 0
1 0 1 = 0 −1 −2 = 0 −1 −2 = −5 6= 0,
0 −2 1 0 −2 1 0 0 5
logo o conjunto é uma base para R3 . Em casos deste tipo os vetores podem ser as linhas ou
colunas de A, pois det A = det At .

A seguinte proposição contém resultados que mostram que todas as bases de um espaço vetorial
tem o mesmo número de vetores.
Proposição 2.28. Seja V é um espaço vetorial, que possui uma base com exatamente n vetores,
então temos:

70
1. Todo conjunto de V com mais do que n vetores será LD.
2. Todo conjunto de V com menos do que n vetores não gera V .
3. Todas as bases de um espaço vetorial V , possuem o mesmo número de vetores.
Definição 2.29. Dizemos que um espaço vetorial V tem dimensão n, se suas bases possuem
n elementos, neste caso escrevemos
dimV = n.
Se V = {0V }, entenderemos que dim{0V } = 0.
Exemplos 2.30.

1. dimRn = n.
2. Seja W = [v] , com v 6= 0. Claramente {v} é LI e gera, logo é uma base de W , assim
dimW = 1. Em R2 ou R3 o espaço gerado por um vetor não nulo e tem dimensão 1.
3. Em R3 , um subespaço W gerado por quaisquer dois vetores LI u e v, é um plano passando
pela origem cuja base é {u, v}, logo dimW = 2.
4. Determine uma base e a dimensão do espaço dado por
 
x
W = { y  | 3x − 2y + 5z = 0}.

z
3x + 5z
De fato, y = logo,
2
   
x x
y  = (3x + 5z)/2
z z
   
x 0
= 3x/2 + 5z/2
0 z
   
1 0
= x 3/2 + z 5/2 , ∀x, z ∈ R.
  
0 1

Assim temos que W é gerado por:


       
1 0 2 0
{ 3/2 , 5/2} ou por
   { 3 , 5},
  
0 1 0 2
   
2 0
logo conjunto B = { 3 , 5} é gerador de W , B
   também é LI, pois os vetores não são
0 2
múltiplos, logo B é uma base para W , portanto W é um plano e dimW = 2.

71
5. dim(Pn (R)) = n + 1, pois sua base estândar tem n + 1 vetores.

As propriedades abaixo mostram a relação entre conjuntos LI ou geradores e bases.

Proposição 2.31. Seja V um espaço vetorial de dimensão n.

1. Se B = {v1 , . . . , vk } é um conjunto de vetores não nulos de V que geram V , então podemos


extrair um subconjunto de B, de forma que seja uma base para V .

2. Se B = {v1 , . . . , vk } é um conjunto de vetores LI de V , então podemos completar B para


obter uma base de V .

3. Se dim(V ) = n e B é um conjunto com n vetores, então:

• B é LI ⇔ base deV
• B geraV ⇔ B é base deV.

Sobre as dimensões de um espaço e um subespaço, das propriedades 2.31 conclui-se que:

Proposição 2.32. Se W é um sub-espaço de um espaço V de dimensão n, então

1. dimW ≤ dimV.

2. dimW = n ⇔ W = V.

A seguinte proposição providencia um processo para determinar bases para o espaço gerado
por um conjunto de vetores do espaço Rn .

Proposição 2.33. Sejam A uma matriz de ordem m × n e B sua forma escalonada linha,
considerando as linhas das matrizes como vetores de Rn , temos que as linhas não nulas de B
formam uma base para o espaço gerado pelas linhas de A.

Exemplo 2.34. Determine uma base para o subespaço W de R3 gerado pelos vetores
       
1 2 −2 −1
u =  2  , v =  7  , w = −1 , z =  1  .
−1 −1 3 2
     
1 2 −1 1 2 −1 1 2 −1
2 7 −1
0
 3 1  → 0 3 1  .
 
−2 −1 3  → 0

3 1 0 0 0 
−1 1 2 0 3 1 0 0 0
   
1 0
Portanto uma base para W é { 2 , 3} e dimW = 2. Neste caso qualquer par de vetores
  
−1 1
entre os dados é uma base, pois serão 2 vetores LI em um espaço com dimensão 2.

72
2.6 Espaços Associados a uma Matriz
Seja A uma matriz de ordem m × n. O espaço nulo de uma matriz A é o espaço das
soluções do sistema homogêneo com matriz de coeficientes A,

N ul(A) = {X ∈ Rn | A · X = 0}.
 
2 1 −1 1
Exemplo 2.35. Seja A =  1 1 −2 −1 , determinemos uma base para W = N ul(A).
1 2 −5 −4
Temos que W é o subespaço de R4 das soluções do sistema homogêneo,
 
  x  
2 1 −1 1   0
1 1 −2 −1  y  = 0 .
z 
1 2 −5 −4 0
w
Escalonando A temos,
       
2 1 −1 1 2 1 −1 1 2 0 2 4 1 0 1 2
A = 1 1 −2 −1 → 0 −1 3 3 → 0 1 −3 −3 → 0 1 −3 −3 .
1 2 −5 −4 0 −3 9 9 0 0 0 0 0 0 0 0

Temos pA = 2 e nA = 4−2 = 2, as variáveis livres são s = z e t = w e a solução é, x = −s−2t,


y = 3s + 3t, ou seja
         
−s − 2t −s −2t −1 −2
 3s + 3t   3s   3t  3 3
X=
 s  =  s  +  0  = s 1  + t 0 .
         (2.1)
t 0 t 0 1
   
−1 −2
3 3
Portanto dim W = 2 e uma base para W é {
 1  ,  0 }.
  

0 1

Sabemos que as soluções do sistema homogêneo A · X = 0 são determinadas pelas variáveis


livres, o número destas é exatamente o grau de liberdade do sistema, dado por nA = n − pA
que já foi definido (vide definição 1.44 do Cap. I) como nulidade de A.
O vetor solução X ∈ N ul(A) é determinado como combinação linear de nA vetores v1 , . . . , vnA
de Rn ,
X = s1 v1 + . . . + snA vnA ,
onde os escalares são as variáveis independentes, como em 2.1, logo o conjunto B = {v1 , . . . , vnA }
gera N ul(A). Por outro lado,

X = 0 ⇒ s1 = 0, . . . , snA = 0,

73
ou seja que o conjunto B é LI, portanto determinará uma base para N ul(A).
Os vetores da base B podem ser determinados atribuindo 1 a uma variável independente e 0
as restantes. Concluı́mos então que:

dim N ul(A) = nA = n − pA .

Definição 2.36. Se A é uma matriz m × n, definimos

• O subespaço de Rn gerado pelas linhas de A, chamado espaço linha de A, denotado


Lin(A).

• O subespaço de Rm gerado pelas colunas de A, dito espaço coluna e denotado Col(A).


Se C1 , . . . , Cn são as colunas de A, então os vetores de Col(A) são da forma:
 
x1
 .. 
x1 C 1 + . . . + xn C n = A  .  ,
xn

ou seja
Col(A) = {AX ∈ Rm / X ∈ Rn }.

Nota 2.37. Podemos obter uma base e a dimensão de Col(A), usando a propriedade 2.33, ou
seja tomando as linhas não nulas da matriz escalonada obtida a partir de At .

Exemplo 2.38. Determine uma base e a dimensão de Col(A) ⊆ R3 , onde


 
1 2 −4 1
A =  2 9 −7 2  .
−1 3 5 −1

Usando operações linha, temos


     
1 2 −1 1 2 −1 1 2 −1
2 9 3 0 5 5 0 1 1
   
−4 −7 5  → 0 →
 
1 1 0 0 0
1 2 −1 0 0 0 0 0 0
   
1 0
Assim { 2  , 1} é uma base para Col(A), logo dim(Col(A)) = 2.
−1 1

Em geral, como no exercı́cio anterior, a dimensão do espaço Col(A) é igual ao posto de At , mas
o teorema abaixo esclarece que os postos de At e A são iguais, assim temos uma forma prática
de calcular dimCol(A).

74
Teorema 2.39. Se A é uma matriz m × n, então pA = pAt , portanto
dim Col(A) = dim Lin(A) = pA .

Retornamos ao exemplo 2.38, usando o teorema 2.39 para cálculo da dimensão.


 
1 2 −4 1
Exemplo 2.40. Calculemos o posto de A =  2 9 −7 2  .
−1 3 5 −1
     
1 2 −4 1 1 2 −4 1 1 2 −4 1
 2 9 −7 2  → 0 5 1 0 → 0 5 1 0 .
−1 3 5 −1 0 5 1 0 0 0 0 0
Portanto dim(Col(A)) = pA = 2. Note que neste caso conseguimos a dimensão mas não uma
base para Col(A). Como a dimensão de Col(A) é 2, uma base é qualquer conjunto de dois
vetores colunas distintos de A. Poe exemplo:
   
1 2
{ 2 , 9}
  
−1 3
.

2.7 Soma e Interseção de subespaços


Proposição 2.41 (Interseção de Subespaços). Dados os subespaços U e W do espaço vetorial
V , temos que a interseção de U e W ,
U ∩ W = {u ∈ V | u ∈ U e u ∈ W } ,
também é um subespaço vetorial de V .
 
0
Exemplos 2.42. 1. Sejam V = R3 e U, W planos que contém 0V = 0. Caso U = W ,
0
temos que U ∩ W = U = W é um subespaço vetorial, caso U 6= W , temos que U ∩ W é
uma reta que contém 0V e portanto também é um subespaço vetorial de V .

75
2. Sejam V = R3 e U e W duas retas diferentes que passam pela origem, neste caso temos
o subespaço vetorial: U ∩ W = {0V } .

Definição 2.43. Sejam U e W sebespaços de um espaço vetorial V , define-se a soma de U


e W como
U + W = {u + w ∈ V | u ∈ U e w ∈ W } ⊂ V.

Proposição 2.44 (Subespaço soma). Se U e W são subespaços de V , então a soma U + W


também é um subespaço de V . U + W qual contém U e W .

Exemplos 2.45.

1. Consideremos V = R3 e U , W retas diferentes, como no Exemplo 2.42. Notemos que


U + W contém todas as somas de vetores nas retas dadas, então U + W é exatamente o
plano que contém as retas U e W .

76
2. Consideremos V = R3 e um plano U passando pela origem e uma reta W passando pela
origem. Temos:

• Se a reta está contida no plano, isto é W ⊂ U , então U + W será exatamente o plano


U.

• Se a reta não está contida no plano, então U + W será todo R3 .

Observação 2.46. Notemos que se temos bases: {u1 , . . . uk } e {w1 , . . . , wr }, para os espaços
U e W , respectivamente, então a união destas bases:

{u1 , . . . , wr } ,

será um conjunto gerador para U + W .

As dimensões dos espaços U , W , U ∩ W e U + W , estão relacionadas pelo seguinte teorema.

Teorema 2.47. Se U e W são subespaços de um espaço vetorial V de dimensão finita, então


verifica-se:
dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W ).

77
Exemplo 2.48. Determine U +W e verifique o teorema anterior, onde U e W são os subespaços
de R3 :    
x x
U = { y | x + y − z = 0} e W = { y  | x − y = 0}.
  
z z
Notemos que:        
1 0 1 0
U = [ 0 , 1 ] e W = [ 1 , 0].
      
1 1 0 1
Então,        
1 0 1 0
U + W = [0 , 1 , 1 , 0].
1 1 0 1
Notemos que dim(U + W ) = 3, pois temos 3 vetores LI, de fato:
0 1 0
1 1 0 = −1 6= 0.
1 0 1
Então, U + W = R3 .
Agora determinemos U ∩ W :
 
x
U ∩ W = {y  ∈ R3 | x + y − z = 0 e x − y = 0}
z
 
x
1
= {y  ∈ R3 | x = y = z}
2
z
 
1
= {λ 1 | λ ∈ R}.

2

Logo dim(U ∩ W ) = 1. Portanto verifica-se:

dim(V ) = dim(U ) + dim(W ) − dim(U ∩ W ) .


| {z } | {z } | {z } | {z }
3 2 2 1

Definição 2.49. No caso U ∩ W = {0V }, o espaço V = U + W é dito soma direta de U e


W e usamos a notação V = U ⊕ W

No caso de soma direta, temos dim(U ∩W ) = dim{0V } = 0, logo dim(U ⊕W ) = dimU +dimW .
Nesse caso, uma reunião de bases de U e de W , terá o número de vetores igual a dim(U ⊕ W ),
logo a reunião de bases é uma base para a soma direta.
No exemplo anterior, V não é soma direta de U e W .

78
Exemplo 2.50. Um exemplo de soma direta é o plano V , determinado por dois vetores LI
u e w, neste caso tomando os subespaços de V : U = [u] e W = [w], temos claramente que
V = U ⊕ W.

Observação 2.51. Da propria definição temos que todo vetor do espaço V = U +W é composto
por somas de dois vetores, um em U e o outro em W . Agora se a soma é direta, ou seja
V = U ⊕ W , além de cada vetor de V ser da forma: v = u + w, com u ∈ U e w ∈ W , as
componenetes de v em U e W são únicas, ou seja que:
v = u + w = u0 + w0 , com u, u0 ∈ U e w, w0 ∈ W ⇒ u − u0 = w0 − w ∈ U ∩ W
⇒ u − u0 = 0 e w − w 0 = 0
⇒ u = u0 e w = w0 .

2.8 Coordenadas com relação a uma base


Sejam V um espaço vetorial de dimensão finita sobre R e α = {v1 , . . . , vn } uma base de V .
Vejamos que, para todo v ∈ V existem únicos escalares x1 , . . . , xn ∈ R tais que:
v = x1 v1 + . . . + xn vn ,
de fato, se tivermos que:
v = x1 v1 + . . . + xn vn = y1 v1 + . . . + yn vn ⇒ 0V = (x1 − y1 )v1 + . . . + (xn − yn )vn ,
como os vetores são LI, então os escalares devem ser nulos, logo
x1 = y1 , . . . , xn = yn .
Consideremos uma ordem fixa nos vetores da base α, assim os escalares associados a um vetor
v ∈ V , ordenados de acordo com a ordem fixa da base, determinaram v de forma única.
Definição 2.52. Nas condições acima e dado v ∈ V , chamamos coordenadas de v com
relação a base α ao vetor coluna:
 
x1
 .. 
[v]α =  .  ∈ Rn .
xn

79
De forma que  
x1
v = x1 v1 + . . . + xn vn ⇔ [v]α =  ...  .
 
xn
Exemplos 2.53.
   
1 0
n  ..   .. 
1. Sejam V = R e a base canônica ordenada α = {e1 =  .  , . . . , en =  . }. Neste caso
0 1
n
para qualquer vetor de R , temos
     
x1 1 0
 ..   ..   .. 
v =  .  = x1  .  + . . . + xn  .  = x1 e1 + . . . + xn en , ou seja:
xn 0 1
 
x1
 .. 
[v]α =  .  = v, para todo v ∈ Rn .
xn
     
1 2 0
3
2. Seja V = R , afirmamos que β = {u1 = −1 , u2 = −1 , u3 = 1} é uma base para
    
0 −1 1
V (verifique!).
 
x
(a) Determinemos as coordenadas de um vetor v = y  ∈ V em relação a base ordenada

z
β, temos,

              
a 1 2 0 x 1 2 0 a x
[v]β = b ⇒ a −1 + b −1 + c 1 = y ⇔ −1 −1 1
             b = y .
 
c 0 −1 1 z 0 −1 1 c z

O sistema pode ser resolvido por inversão pois a solução é única, ou seja é SPD, logo
a matriz de coeficientes é invertı́vel. Usando qualquer processo de inversão de matrizes,
obtemos:
   −1     
a 1 2 0 x 0 −2 2 x
1
[v]β = b = −1 −1 1
     y =
 1 1 −1   y ,
2
c 0 −1 1 z 1 1 1 z
assim  
−2y + 2z
1
[v]β = x + y − z  .
2
x+y+z

80
(b) Dadas as coordenadas de um vetor, podemos obter o próprio vetor. De fato:
         
1 1 2 0 −1
• Se [u]β = −1 ⇒ u = u1 − u2 + 2u3 = −1 − −1 + 2 1 =  2  .
2 0 −1 1 3
   
0 2
• Se [v]β = 1 ⇒ v é o segundo vetor da base ⇒ v = −1 .
0 −1
Propriedades 2.54. Se V é um espaço de dimensão finita n, com base α e u, v ∈ V , então
valem as seguintes propriedades:

1. [u]α = 0Rn ⇔ u = 0V .
2. [u]α = [v]α ⇔ u = v
3. [u + v]α = [u]α + [v]α
4. [λu]α = λ[u]α
5. Se A e B são matrizes de ordem m × n, tais que A[u]α = B[u]α , ∀u ∈ V , então A = B.

Matriz Mudança de base.


Sejam α e β bases do espaço vetorial V , onde α = {u1 , · · · , un }. Dado u ∈ V , desejamos saber
a relação entre [u]α e [u]β .
Por exemplo, em R3 , dada uma base ordenada α = {u1 , u2 , u3 } e um vetor v ∈ R3 , representando
v como combinação linear dos vetores de α obtemos a igualdade:
 
u1 u2 u3 [v]α = v = [v]C , onde C é a base canônica,
que associa [v]α e [v]C , veremos que em geral temos uma relação similar entre coordenadas de
um mesmo vetor em duas bases do espaço.
 
a1
 .. 
Consideremos, [u]α =  . , escalares de u com relação à base α. Determinemos os escalares
an
[u]β . Temos,
u = a1 u1 + . . . + an un ,
logo,

[u]β = [a1 u1 + . . . + an un ]β
= a1 [u1 ]β + . . . + an [un ]β
 
a1
 .. 
= [ [u1 ]β . . . [un ]β ] ·  . 
an
= [ [u1 ]β . . . [un ]β ] · [u]α

81
A matriz acima cuja j-ésima coluna é o vetor [uj ]β , é chamada matriz mudança de base,
da base α para base β e é denotada por [I]αβ , ou seja

[I]αβ = [ [u1 ]β . . . [un ]β ] .

Esta matriz é uma matriz quadrada de ordem n, com a propriedade caracterı́stica:

[u]β = [I]αβ [u]α , ∀u ∈ V,

ou seja que, fixadas as bases α, β a matriz [I]αβ é a única que verifica a igualdade acima.
Resumindo em um diagrama,

de forma prática, conhecendo [u]α podemos determinar [u]β multiplicando pela matriz [I]αβ .
As seguintes propriedades auxiliam nos cálculos de matrizes mudança de base e coordenadas
de vetores.

1. Inversa de uma matriz Mudança de base. A matriz [I]αβ é invertı́vel, pois notemos
que para todo u ∈ V ,
[u]β = [I]αβ [u]α e [u]α = [I]βα [u]β
logo,
[u]α = [I]βα ([I]αβ [u]α ) = ([I]βα [I]αβ )[u]α , ∀ u ∈ V ⇒ [I]αβ [I]βα = In ,

daı́, concluimos que,


[I]αβ = ([I]βα )−1 .

2. [I]αα é a matriz identidade. Sim, pois [u]α = In · [u]α , ∀u ∈ V , logo [I]αα = In .

3. Mudança entre 3 bases. Dadas as bases α, β e γ de V , mudando a base β para γ e


em seguida para α temos,

[u]γ = [I]βγ [u]β e [u]γ = [I]βγ [u]β = [I]βγ [I]αβ [u]α ,

o que mostra que [I]αγ = [I]βγ [I]αβ .

4. Mudança de bases em Rn . A matriz mudança de base, da base α = {u1 , . . . , un } para


a base canônica C de Rn é simplesmente, [I]αC = [u1 · · · un ]. Já a matriz mudança de
base entre bases quaisquer α e β de Rn pode ser calculada da forma,
β −1
[I]αβ = [I]C α α
β [I]C = ([I]C ) [I]C .

82
Exemplos 2.55.
       
2 2 2 1 1 −1
1. Sejam V = R e as bases de R : α = { , } e β = { , }. Determine as
1 1 1 0
matrizes mudança de bases [I]αβ , [I]βα .

Primeira forma. Para obter [I]αβ calcularemos as coordenadas, na base β, de um vetor


 
x
qualquer u = . Notemos que,
y
            
a 1 −1 x 1 −1 a x
[u]β = ⇒a +b = ⇔ =
b 1 0 y 1 1 b y
     
x a y
cuja solução é a = y e b = y − x, ou seja [ ] = = .
y β b y−x
       
2 1 1 1
Logo, [ ]β = e [ ]β = . Portanto,
1 −1 1 0
   
α 1 1 β α −1 0 −1
[I]β = e [I]α = ([I]β ) = .
−1 0 1 1

Segunda forma. Sabemos que [I]αβ = ([I]βC )−1 [I]αC , onde C é a base canônica de R2 ,
temos
     −1  
α 2 1 β 1 −1 β −1 1 −1 0 1
[I]C = , [I]C = e ([I]C ) = = .
1 1 1 0 1 0 −1 1
    
0 1 2 1 1 1
[I]αβ = = .
−1 1 1 1 −1 0
     
0 0 1
3 3
2. Considere V = R , α a base canônica de R e a base β = { 0 , −2 , 0 }. Calcule
    
1 1 −1
β α
[I]α e [I]β .
 
0 0 1
Claramente, [I]βα =  0 −2 0  .
1 1 −1
Fazendo o processo de inversão obtemos:

 −1  
0 0 1 1 1/2 1
[I]αβ =  0 −2 0  =  0 −1/2 0  .
1 1 −1 1 0 0

83
           
−2 0 2 1 1 0
3
3. Considere as bases de R , α = { 0 , −1 , 1 } e β = { 1 , 0 , 0}, calcule
          
1 1 0 1 1 1
[I]αβ e [I]βα
Seja C a base canônica de R3 . Temos [I]αβ = ([I]βC )−1 [I]αC . É claro que,
   
−2 0 2 1 1 0
[I]αC =  0 −1 1 e [I]βC = 1 0 0 ,
1 1 0 1 1 1
logo:
 −1  
1 1 0 −2 0 2
[I]αβ = 1 0 0  0 −1 1
1 1 1 1 1 0
  
0 1 0 −2 0 2
=  1 −1 0  0 −1 1
−1 0 1 1 1 0
 
0 −1 1
= −2 1 1 .
3 1 −2

Calculamos a outra mudança de base por inversão:


 −1  
0 −1 1 3 1 2
1
[I]βα = ([I]αβ )−1 = −2 1 1  = 1 3 2 .
4
3 1 −2 5 3 2

2.9 Exercı́cios
     
1 2 3
3
1. Considere os vetores de R , u = 2 , v = 1 , w = 3 e calcule:
    
1 2 2
(a) −3(u + 2v) + 4(2u + v) = 5u − 2v (b) (2u − v + 3w) − 2(u + 3v − w)
(c) 21 (u + v + w) + 14 (u − v + w) + 14 (u − v − w).
2. Nos seguintes casos determine se o conjunto W de vetores é um sub-espaço vetorial do
espaço vetorial V , dando a justificativa correta.
 
x
(a) V = R3 , W = {y  ∈ R3 | z = 3}
z
 
x
(b) V = R3 , W = {y  ∈ R3 | x = z}
z

84
 
x
(c) V = R3 , W = { y  ∈ R3 | x ≤ y ≤ z}

z
 
a
(d) V = R3 , W = { b  ∈ R3 | |a| = |b|, onde a, b, c ∈ R}

c
 
x
y 
(e) V = R4 , W = { 4
y  ∈ R | x, y ∈ R}

x
 
a
b
(f) V = R4 , W = { 4
 c  ∈ R | a + b + c + d ≥ 0}

3. O conjunto dado (solução de um sistema linear de equações) dado por,


 
x
S = { y  ∈ R3 | x − y + z = 2, 2x + 4y − z = 0, x − 2y − z = 1}

z
é um subespaço vetorial de R3 ? Justifique.
   
1 3
4. Considere os vetores de R3 , u =  1  , v = 0. Determine qual dos seguintes vetores
−2 4
é combinação linear de u e v:
     
4 3 11
(a) w1 = −5
  (b) w2 = 1  (c) w3 = 5 .

9 −4 −2

5. Determine a equação(s) linear(s) que descrevem o sub-espaço W do espaço vetorial V


dado:
   
1 −1
(a) V = R3 , W gerado pelos vetores 1 e  2 
0 3
     
−1 0 −2
3
(b) V = R , W gerado pelos vetores 2 , 1 , 5 
    
0 2 2
     
−1 2 0
 1  1  0 
   
(c) V = R4 , W gerado pelos vetores   0  , 3 ,  2 

0 0 −1

85
 
2
(d) V = R3 , W gerado pelo vetor −5
3
   
2 0 630
(e) V = R , W gerado pelos vetores , .
0 990
     
1 −1 4
6. Considere os vetores de R3 u =  5  , v =  1  , w = 5. Determine se algum vetor do
10 4 5
conjunto {u, v, w} é combinação dos restantes, nesse caso mostre essa combinação linear.
     
−5 3 4
3
7. Considere os vetores de R , u = 3 , v = −1 e u = −2. Determine se {u, v, w}
    
2 3 9
3
gera R .
   
1 3
 1  −4
 
8. Considere os subespaços vetoriais de V = R4 , W1 gerado por { −6 , −1} e W2 gerado

−4 1
   
5 −4
−5  9 
por {
 0  ,  6 }. Determine se W1 = W2 ou não.
  

2 0
     
1 −1 4
9. Considere os vetores de R3 , u =  1  , v =  1 . Determine k ∈ R tal que o vetor 5
−2 3 k
pertença ao espaço gerado por u e v.
10. Verifique se os conjuntos abaixo são LI ou LD.
     
1 1 3
(a) { 0 , 3 , 2}
    
0 5 5
     
1 1 3
(b) { 2  , −2 , −2}
−1 3 5
       
1 1 1 1
0 1 1 1
(c) {
0 , 0 , 1 , 1}
      

0 0 0 1
11. Determine se possı́vel, os valores de k tais que o conjunto S seja LI em V = R3 .
     
−1 1 k
S = { 0  , 1 , −2}.
2 1 0

86
12. Determine se possı́vel, os valores de k tais que o conjunto S seja LD em V = R4 .
     
1 0 0
1  1   1 
S = {0 , −1 , −2}.
    

2 0 k

13. Complete com V(verdadeiro) ou F(falso), justificando sua resposta.


     
−1 0 −1
(a) O conjunto { 2 , 1 , 1 } gera o espaço R3 .
    
3 2 1
     
1 0 2
(b) O conjunto {2 , 0 , 3} é LI em R3 .
3 0 3
(c) Se S = {v1 , v2 , . . . , vn } ⊂ V é LI então qualquer subconjunto não vazio de S também
é LI.
       
1 7 1 7
(d) {0 , 8} é base do subespaço [ 0 , 8 ] de R3 .
4 0 4 0
(e) Todo conjunto LI de vetores é uma base de seu subespaço gerado.
   
3 0
(f) { , } é base do espaço R2 .
5 0
(g) Se [v1 , v2 , v3 , v4 ] = R3 então quaisquer três vetores deste conjunto formam uma base
do R3 .
(h) Um conjunto com três vetores do R3 é base do R3 .
(i) Um conjunto com mais do que três vetores do R3 não será uma base do R3 .
       
2 x 2 x 2
(j) { , } é base do R quando ∈
/[ ].
3 y y 3
(k) Sejam V um espaço vetorial de dimensão n e {v1 , v2 , . . . , vn−1 } ⊂ V um conjunto LI.
Então {v1 , v2 , . . . , vn−1 , v} é base de V qualquer que seja o vetor v ∈ V .
(l) Todo conjunto gerador de um espaço vetorial V é uma base para V .
     
1 2 1
(m) dim([  0  , 1 , 1 ]) = 3 .
−1 3 4
       
1 0 0 1
2 −1 2 0
14. Para que valores de k os vetores 
0 ,  k  , 1 e
       geram um espaço tridimensi-
2
k 1 0 3k
onal?

87
15. Determine uma base e a dimensão dos seguintes sub-espaçõs W do espaço V :
 
x
3
(a) V = R e W = { y  ∈ V /2x − y + z = 0 e x + 3y − z = 0}

z
 
x1
5  .. 
(b) V = R e W = { .  ∈ V /x1 = x2 = x5 }
x5
       
1 1 0 2
3
(c) V = R e W é o subespaço gerado por: { −1 , 2 , 1 , 1}
      
1 0 1 2
 
1 1 1
16. Dada a matriz A = 1 0 2, considere V = N ul(A) e W = Col(A).
2 3 1
(a) Determine se V é R3 , um plano, uma reta ou contém somente o vetor nulo.
(b) Idem Para W .

17. Para as seguintes matrizes, ache uma base e a dimensão para o espaço nulo de A e para
o espaço coluna de A.
 
  1 −2 7 0
1 1 0 1 1 −1 4 0
(a) A = 0 1 −1 1  (b) A = 

3 2 −3 5

0 1 −1 −1
2 1 −1 3
 
  2 5 6
1 −1 −1 2 −1 −1 3 
(c) A = (d) A =  
1 −1 −1 −2 2 3 −2
1 3 5
       
1 0 −2 1
−1   0  2
     0
  
18. Seja W o subespaço, de R4 , gerado pelos vetores: {
 0  , 1 ,  1  , 0}
0 1 1 0
 
2
−3
 2  ∈ W ?. Justifique
(a)  

2
(b) Exiba uma base para W.

19. Considere os vetores u, v, w de um espaço vetorial V e mostre que:


(a) Se {u, v, w} é LI, então {u + v, u + w, v + w} também é LI
(b) [u, v, w] = [u + v, u + w, v + w] ?

88
20. Considere V = Pn (R), com n ≥ 1 e determine quais dos seguintes subconjuntos são
subespaços de V .
(a) W = {p ∈ V | p(0) = 0}
(b) W = {p ∈ V | p(1) = 1}
(c) W = {p ∈ V | p0 + 2p = 0V }
21. Em cada caso determine se o conjunto α é uma base do espaço V .
(a) α = {x, 1 + x} em V = P1 (R)
(b) α = {1 + x, x + x2 , 1 + x2 } em V = P2 (R)
(c) α = {1 + x + 2x2 , 2 + x + 2x2 , −1 + x + 2x2 } em V = P2 (R).
22. Para os subespaços S1 e S2 de R3 dados, determine S1 ∩ S2 , S1 + S2 e suas dimensões.
Indique se a soma é direta ou não.
   
x x
(a) S1 = {  y  3
∈ R , x − 2y + z = 0} e S2 = { y  ∈ R3 , x + 3y = 0}

z z
     
x −1 3
3
(b) S1 = { y ∈ R , y = 0} e S2 = [ 2 , 1 ]
    
z 0 1
   
x x
  3
(c) S1 = { y ∈ R , x = y} e S2 = { y  ∈ R3 , x + y + z = 0}

z z
   
x x
  3
(d) S1 = { y ∈ R , x − 2y + z = 0 e 2x − z = 0} e S2 = { y  ∈ R3 , x + y = 0}

z z
   
x 1
3
(e) S1 = { y ∈ R , x − y + z = 0} e S2 = [ 1 ]
  
z 1
23. Sejam os subespaços de R4 :
 
x
y  4
W1 = {
 z  ∈ R / x + y = 0 e z − w = 0} e

w
 
x
y  4
 z  ∈ R / x − y − z + w = 0}
W2 = { 

w
a) Determine os espaços W = W1 + W2 e W1 ∩ W2 dando as respectivas bases e
dimensões.
L
b) W = W1 W2 ? Justifique sua resposta.

89
24. Considere os subespaços de R4 :
 
x
y  4
W1 = {
 z  ∈ R / x + y = z e y + w = 0} e

w
 
x
y  4
W2 = {
 z  ∈ R / x = w e y = z}

w
a) Determine os espaços W = W1 + W2 e W1 ∩ W2 dando as respectivas bases e
dimensões.
L
b) W = W1 W2 ? Justifique sua resposta.
25. Em cada caso considere o espaço vetorial V , a base β de V e w ∈ V e determine [w]β .
     
2 2 3 1
(a) V = R , β = { , }ew=
4 8 1
       
1 2 3 2
(b) V = R3 , β = {0 , 2 , 3} e w = −1
0 0 3 3
       
3 5 1 1
3
(c) V = R , β = { 2 , −1 , 0 } e w = 2 
      
−1 3 1 −2
       
1 1 1 1
3
(d) V = [ u = 1 , v = 2 ] (subespaço de R gerado por u e v), β = { 1 , 2}
      
 −1 1 −1 1
2
e w = 9/2

3
 
2 1
26. (a) Considere a base dada em (25a) e determine w ∈ R , tal que [w]β =
−1
 
1
(b) Considere a base dada em (25c) e determine w ∈ R3 , tal que [w]β =  1 
−1
           
−1 0 0 0 0 1
27. Dadas as bases A = { 0 , 1 , 0 } e B = { 0 , −2 , 0 } do R3 .
          
2 0 2 1 1 −1

(a) Determine [I]A B


B e [I]A .
 
−1
(b) Considere [v]A =  2 . Calcule [v]B .
3

90
 
3
(c) Considere [v]B =  1 . Calcule [v]A
−1

28. Em cada caso considere que A e B são bases de R2 .


     
A 1 −2 1 2
(a) Se [I]B = eB={ , }, determine A.
0 −3 −2 0
     
A 1 2 1 0
(b) Se [I]B = eA={ , }, determine B.
0 3 −1 1
 
2 −1
29. Sabendo que A = {u1 , u2 } e B = {w1 , w2 } são bases do R tais que [v]A = ,
0
w1 = u1 − u2 e w2 = 2u1 − 3u2 , determine [v]B .

30. (a) Sejam α = {1 + x, 1 − x} base de P1 (R) e p(x) = 1 + 3x ∈ P1 (R), determine [p(x)]α


(b) Sejam β = {1, x − 1, (x − 1)2 } base de P2 (R) e p(x) = 1 + 2x − 5x2 ∈ P2 (R),
determine [p(x)]β
(c) Seja γ = {x, 1 + x2 , x + x2 } base de P2 (R), determine p(x) ∈ P2 (R) tal que
3
[p(x)]γ = 4 .

−5
(d) Considere as bases β e γ de P2 (R), dadas acima e determine as matrizes [I]βγ e [I]γβ .

91
Capı́tulo 3

TRANSFORMAÇÕES LINEARES

3.1 Definição e Exemplos


Definição 3.1. Dados dois espaços vetoriais reais, V e W , diremos que a aplicação,

T : V → W,

é uma transformação linear (TL), se são satisfeitas as seguintes propriedades.

1. T (u + v) = T (u) + T (v), para todos u, v ∈ V

2. T (λu) = λT (u), para todos λ ∈ R, u ∈ V.

Exemplos 3.2.

1. Dado k ∈ R, temos que a aplicação T : R → R, dada por T (x) = kx, ∀ x ∈ R é uma


transformação linear, pois

T (x + y) = k(x + y) = kx + ky = T (x) + T (y),

T (λx) = k(λx) = λ(kx) = λT (x),


para todos x, y, λ ∈ R.

2. Seja A uma matriz de ordem m × n. A aplicação:

T : Rn → Rm , T (u) = Au, ∀ u ∈ Rn ,

é uma transformação linear, pois para todos u, v ∈ Rn e λ ∈ R,

• T (u + v) = A(u + v) = Au + Av = T (u) + T (v),


• T (λu) = A(λu) = λ(Au) = λT (u).

92


1 2
Por exemplo, com A = −1 3, temos
0 1
   
  1 2   x + 2y  
2 3 x x x
T : R → R , T( ) = −1 3 = −x + 3y  , ∀ ∈ R2 .
y y y
0 1 y

Nota: Toda transformação linear T : Rn → Rm é da forma dada neste exemplo, isto será
esclarecido na observação 3.26.

3. Nos espaços vetoriais V = C 1 (R) das funções reais, diferenciáveis com derivada contı́nua
e W = C(R), das funções contı́nuas, a aplicação de derivação é uma transformação linear,
pois é conhecido que,

(f + g)0 = f 0 + g 0 e que, (λf )0 = λf 0 .

4. Dados espaços vetoriais V e W , é simples verificar que as seguintes aplicações são trans-
formações lineares.

(a) Transformação Identidade. I : V → V, I(u) = u, para todo u ∈ V .


(b) Transformação Nula. T : V → W, T (u) = 0W ∈ W , para todo u ∈ V .

Propriedades 3.3. Dada uma transformação linear T : V → W valem as propriedades:

1. T (0V ) = 0W ,

2. T (−u) = −T (u), para todo u ∈ V ,

3. Dados u1 , . . . , un vetores de V e α1 , . . . , αn escalares, temos que:

T (α1 u1 + . . . + αn un ) = α1 T (u1 ) + . . . + αn T (un ).

Daı́, claramente uma aplicação entre espaços vetoriais que verifica T (0V ) 6= 0W não pode ser
transformação linear.
Dado um espaço vetorial V , uma transformação linear T de V em V é chamado operador
linear sobre V .

Operadores do Plano

1. Contração ou Dilatação uniforme. Consideremos o escalar c > 0 e a aplicação


     
2 2 x x x
T : R → R , tal que T ( )=c , para todo ∈ R2 .
y y y

93
T é uma transformação linear, pois
        
x x cx c 0 x
T =c = = .
y y cy 0 c y

Se c > 1, T é chamada Dilatação. Caso 0 < c < 1, T é dita Contração.

2. Reflexão em torno do eixo x. Considere a aplicação que leva um vetor do plano na


sua reflexão através do eixo x,
     
2 2 x x x
T : R → R , tal que T = , ∀ ∈ R2 .
y −y y

T é um operador linear, pois


      
x x 1 0 x
T( )= = .
y −y 0 −1 y

94
3. Reflexão em torno do eixo y. A aplicação
     
2 2 x −x x
T : R → R , tal que T = , para todo ∈ R2 ,
y y y

leva um vetor do plano na sua reflexão através do eixo y, analogamente ao caso anterior
é um operador linear, pois
      
x −x −1 0 x
T( )= = .
y y 0 1 y

4. Reflexão em torno da origem. A aplicação


     
2 2 x −x x
T : R → R , tal que T = , para todo ∈ R2 ,
y −y y

leva um vetor do plano na sua reflexão através da origem, é um operador linear, pois
      
x −x −1 0 x
T( )= = .
y −y 0 −1 y

95
5. Rotação com ângulo θ. Dado um ângulo θ, consideremos a aplicação de rotação pelo
ângulo θ,
Rθ : R2 → R2 ,
que leva um vetor do plano num novo vetor, que é a rotação, com ângulo θ, no sentido
 basta considerar 0 ≤ θ < 2π. Vamos descrever
anti-horário do vetor inicial, para o caso
x
exatamente o vetor Rθ (u), para u = . Escrevendo as componentes de u em função
y
de seu comprimento r e de seu ângulo de inclinação β, temos

x = rcos β, y = rsen β.

logo,
     
x rcos(β + θ) rcosβcosθ − rsenβsenθ
R = =
y rsen(β + θ) rsenβcosθ + rcosβsenθ
   
xcosθ − ysenθ xcosθ − ysenθ
= =
ycosθ + xsenθ xsenθ + ycosθ
     
cosθ −senθ x x
= · , ∀ ∈ R2 .
senθ cosθ y y

 
cosθ −senθ
A matriz é chamada matriz de rotação no plano, pelo ângulo θ.
senθ cosθ

3.2 Núcleo e Imagem de uma Transformação Linear

Definição 3.4. Seja T : V → W uma TL, definimos

1. Núcleo de T :
N uc(T ) = {u ∈ V | T (u) = 0W } .

96
2. Imagem de T :
Im(T ) = T (V ) = {T (u) ∈ W | ∀ u ∈ V } .

Qualquer que seja a transformação T , temos que N uc(T ) e Im(T ) são subespaços de V e W ,
respectivamente. De fato:

• Para todos u, v ∈ N uc(T ), temos

T (u + v) = T (u) + T (v) = 0W + 0W = 0W ⇒ u + v ∈ N uc(T ).

Para todo u ∈ N uc(T ) e λ ∈ R, temos

T (λu) = λT (u) = λ0W = 0W ⇒ λu ∈ N uc(T )

Também 0 ∈ N uc(T ), pois T (0V ) = 0W .

• Para todos u, v ∈ Im(T ), temos

u + v = T (u0 ) + T (v 0 ) = T (u0 + v 0 ) ⇒ u + v ∈ Im(T ).

Para todo v ∈ Im(T ) e λ ∈ R, temos

λv = λT (u) = T (λu) ⇒ λv ∈ Im(T )

Também 0W = T (0V ) ∈ Im(T ).

Relação do núcleo e imagem com os espaços N ul(A) e Col(A).

No caso, V = Rn , W = Rm , A uma matriz fixa de ordem m × n e T : Rn → Rm , dada por


T u = Am×n u, ∀ u ∈ Rn , temos

• N uc(T ) = {X ∈ Rn / T (X) = AX = 0} = N ul(A), logo

N uc(T ) = N ul(A) e dim N uc(T ) = nA = n − pA .



x1
• Im(T ) = {T (X) = AX ∈ Rm / X ∈ Rn }, sendo X =  ...  e C1 , . . . , Cn as colunas de
 
xn
A, temos
AX = x1 C1 + . . . + xn Cn ,
logo Im(T ) é o espaço gerado pelas colunas de A, ou seja

Im(T ) = Col(A) e dim Im(T ) = dim Col(A) = pA .

• Verifica-se que,
dim N uc(T ) + dim Im(T ) = n = dim V.

97
A observação sobre as dimensões, vale em geral para qualquer transformação linear.

Teorema 3.5 (Teorema da Dimensão Nucleo-Imagem). Sejam V , W espaços vetoriais de di-


mensão finita e T : V → W uma transformação linear, nestas condições temos:

dim(V ) = dim(N uc(T )) + dim(Im(T )).


   
x x + 3z
Exemplo 3.6. Determine N uc(T ) e Im(T ), onde T : R3 → R3 , T (y ) = x − y + 5z  .
z 2x + 3y
        
x x + 3z 1 0 3 x 1 0 3
Notemos que T ( y ) = x − y + 5z = 1 −1
     5 y  . seja A = 1 −1 5.
z 2x + 3y 2 3 0 z 2 3 0

• 
Sabemos que
 Nuc(T) = N ul(A), ou seja trata-se das soluções do sistema homogêneo,
1 0 3 x 0
1 −1 5 y  = 0.
2 3 0 z 0
Escalonando,      
1 0 3 1 0 3 1 0 3
A = 1 −1 5 → 0 −1 2  → 0 1 −2 ,
2 3 0 0 3 −6 0 0 0
 
−3
logo a solução é x = −3s, y = 2s e s ∈ R, ou seja X =  2  s, s ∈ R.
1
 
−3
∴ N uc(T ) = { 2  s / s ∈ R} e dim N uc(T ) = 1.

1

• Sabemos que Im(T ) = Col(A), de fato


         
x x + 3z 1 0 3
T (u) = T y  = x − y + 5z  = x 1 + y −1 + z 5 ,
z 2x + 3y 2 3 3

Do escalonamento de A obtemos, dimIm(T ) = dim Col(A) = pA = 2, logo quaisquer


dois vetores coluna de A formam uma base, por exemplo,
   
 1 0 
1 , −1 .
2 3
 

Determinemos as equações de Im(T ) sabendo que é gerado pelas colunas de A,

98
     
1 0 a 1 0 a 1 0 a
 1 −1 b  →  0 1 a − b  →  0 1 a−b 
2 3 c 0 3 c − 2a 0 0 −5a + 3b + c

Logo,  
a
Im(T ) = { b  / 5a − 3b − c = 0}

c

Neste exemplo, temos dim(V ) = dim(W ) = dim(R3 ) = 3, dim(N uc(T )) = 1 e dim(Im(T )) =


2, de forma que vale:
dim(V ) = dim(N uc(T )) + dim(Im(T )) .
| {z } | {z } | {z }
3 1 2

Exemplo 3.7. Determinemos


 bases e as dimensões de N uc(T ) e Im(T ), onde T : R2 → R3 ,
  x − 2y
x
T( ) =  x + y .
y
3x − 3y
       
  x − 2y 1 −2   1 −2
x x
Notemos que T ( )=  x+y  = 1 1
  = x 1 + y 1 , logo uma base para
  
y y
3x − 3y 3 −3 3 −3
Im(T ) é
   
1 −2
{1 ,  1 }, então dim Im(T ) = 2.
3 −3

Obtemos a dimensão de N uc(T ) diretamente


 
0
dimN uc(T ) + dimIm(T ) = 2 ⇒ dim N uc(T ) = 0 ⇒ N uc(T ) = { }.
| {z } 0
2

Propriedade 3.8. Para uma transformação linear T : V → W , Im(T ) é gerado pelas imagens
de uma base de V . Para verificarmos esta afirmação, suponha que {u1 , . . . , un } é uma base
qualquer de V , logo todo u ∈ V é uma combinação linear da forma:

u = a1 u1 + · · · + an un ⇒ T (u) = a1 T (u1 ) + · · · + an T (un ),

assim, Im(T ) é gerado por T (u1 ), · · · , T (un ).

Determinando Transformações Lineares.

O seguinte teorema mostra que podemos determinar uma transformação linear conhecendo as
imagens em uma base qualquer.

99
Teorema 3.9. Sejam V e W espaços vetoriais. Dados uma base α = {v1 , . . . , vn } de V
e um grupo de n vetores {w1 , . . . , wn }, de W , então existe uma única transformação linear
T : V → W , tal que:
T (v1 ) = w1 , . . . , T (vn ) = wn .

Demonstração. Dado que todo vetor de v ∈ V escreve-se como combinação linear de vetores
da base,

v = a1 v1 + . . . + an vn , onde a1 , . . . , an são as coordenadas de v em α,

assim podemos definir a aplicação T ,

T (v) = T (a1 v1 + . . . + an vn ) = a1 T (v1 ) + . . . + an T (vn ).

É simples verificar que a T definida assim é uma TL, que verifica T (vi ) = wi e que é única
com esta condição.
 
1  
3 2 1
Exemplo 3.10. Determine a transformação linear T : R → R , tal que T ( 1 ) =   ,
2
    1
1   1  
2 3
T( 1 ) =
  e T( 0 ) =
  . É direto verificar que
3 4
0 0
     
1 1 1
α = { 1 , 1 , 0}
    
1 0 0

é uma base para V = R3 , logo existe a transformação


  pedida e ela será única. Para determinar
x
esta TL, vamos escrever um vetor u = y  como combinação linear dos vetores da base α e
z
portanto devemos calcular as coordenadas de u em α. De fato,
            
x 1 1 1 x 1 1 1 a
u = y  = a 1 + a 1 + c 0 ⇒ y  = 1 1 0  b  ,
z 1 0 0 z 1 0 0 c
logo,    −1       
a 1 1 1 x 0 0 1 x z
[u]α =  b  = 1 1 0 y  = 0 1 −1 y  = y − z 
c 1 0 0 z 1 −1 0 z x−y
Com as coordenadas de u em α, obtemos
       
x 1 1 1
u = y  = z 1 + (y − z) 1 + (x − y) 0 ,
z 1 0 0

100
Aplicando T em ambos os lados da igualdade temos,
       
x 1 1 1
T (y ) = zT (1) + (y − z)T (1) + (x − y)T (0)
z 1 0 0
     
1 2 3
= z + (y − z) + (x − y)
2 3 4
 
3x − y − z
= .
4x − y − z
Exemplo
  3.11. Determine atransformação
  linear T : R3 → R3 , tal que N uc(T ) = [u], onde
1 −1 1
u = −1 e tal que e T ( 0 ) = 1.
    
0 4 1
       
1 0 −1 1
Neste caso T (−1) = 0, T ( 0 ) = 1, mas
0 0 4 1
   
1 −1
{ −1 , 0 } não é uma base para R3 , e sim um conjunto LI, logo pode ser completado
  
0 4
para obter uma base,
     
1 −1 0 1 −1 0
β = {−1 ,  0  , 0}, pois −1 0 0 = −1 6= 0
0 4 1 0 4 1
logo β é uma base para V = R3 .
 
0
Para determinar T será suficiente definir T ( 0), mas a transformação pedida não será única,

1
pois podemos completar a base de várias formas, assim como podemos
  definir
 a imagem do
0 −1
terceiro vetor de muitas formas. Neste caso vamos definir, T (0) =  0  . Para o cálculo
  1 1
x
das coordenadas de um vetor u = y  em β, usemos matriz mudança de base,

z
 −1       
1 −1 0 x 0 −1 0 x −y
β −1
[u]β = [I]C
β u = ([I]C ) u = −1
 0 0 y  = −1 −1 0 y  =  −x − y  ,
0 4 1 z 4 4 1 z 4x + 4u + z
assim temos,
       
x 1 −1 0
u = y  = −y −1 + (−x − y)  0  + (4x + 4y + z) 0 ,
z 0 4 1

101
Aplicando T em ambos os lados da igualdade temos,
       
x 1 −1 0
T ( y ) = −yT ( −1 ) + (−x − y)T ( 0 ) + (4x + 4y + z)T ( 0)
      
z 0 4 1
     
0 1 −1
= −y 0 + (−x − y) 1 + (4x + 4y + z) 0 
    
0 1 1
 
−5x − 5y − z
=  −x − y − z  .
3x + 3y + z

3.3 Operações com TLs


Soma e Multiplicação por Escalar.
Definição 3.12. Dados espaços vetoriais U e V e as transformações lineares, T : U → V e
L : U → V , de forma usual define-se,

1. Soma. A aplicação soma de T e L, denotada L + T , é dada por

L + T : U → V, onde (L + T )(u) = L(u) + T (u).

2. Multiplicação por Escalar. Dados α ∈ R e T : U → V uma TL, denotamos por αL a


aplicação,
αL : U → V, dada por (αL)(u) = αL(u).

Da forma padrão, prova-se que T + L e αL são transformações Lineares.

No caso usual L, T : Rn → Rm dadas por L(u) = Am×n u e T (u) = Bm×n u, temos,

(L + T )u = (A + B)u e (αL)u = αAu.


   
2y x
Exemplo 3.13. Sejam T : R2 → R3 , L(x, y) =  2x  e T : R2 → R3 , T (x, y) = x + 2y ,
x+y y
calculemos o operador −L + 3T .
     
2y x x
(−L + 3T )(x, y) = −L(x, y) + 3T (x, y) = −  2x  + 3 x + 2y  =  x + 6y  .
x+y y −x + 3y

102
Composição de Transformações.
Definição 3.14 (Composição). Dados espaços vetoriais U , V e W e as transformações lineares,
T : U → V e L : V → W , definimos a Aplicação composta de T e L, denotada L ◦ T , como:

L ◦ T : U → W, onde (L ◦ T )(u) = L(T (u)).

L ◦ T é uma transformação linear, pois para todos u, v ∈ U e λ ∈ R,


(L ◦ T )(u + v) = L(T u + T v) = L(T u) + L(T v) = (L ◦ T )u + (L ◦ T )v, e
(L ◦ T )(λu) = L(T (λu)) = L(λT u) = λL(T u) = λ(L ◦ T )u, ∀u ∈ U.

No caso usual T : Rn → Rm , T (u) = Am×n u e L : Rm → Rs , L(u) = Bs×m u, a composição é


da forma,
(L ◦ T )u = L(T u) = B · (A · u) = (B · A)u,
ou seja que L ◦ T é determinada pela matriz BA.
Exemplo 3.15. Calcule L ◦ T , para as transformações lineares:
   
2 2 x x−y
T : R → R ,T( )=
y x + 2y
e  
  −y
x
L : R2 → R3 , L( ) = x + y  .
y
x

Notemos que,
    
         −y 0 −1 x
x x−y 1 −1 x x
T( )= = e L( ) = x + y  = 1 1  y 
y x + 2y 1 2 y y
x 1 0 z
 
0 −1  
1 −1
Obtemos que L◦T : R2 → R3 , multiplicando as matrizes de L e T respectivamente: 1 1  =
1 2
  1 0
−1 −2
2 1 , logo:
1 −1    
  −1 −2   −x − 2y
x x
(L ◦ T )( )= 2 1 =  2x + y  .
y y
1 −1 x−y

Observe que não é possı́vel calcular T ◦ L, pois Im(L) não está contida no domı́nio de T .

Como nas matrizes, a composição não é comutativa, ainda que as ordens das matrizes sejam
adequadas.

103
Proposição 3.16. Valem as seguintes da composição:

1. Associatividade. Dadas transformações lineares T : U → V , L : V → W e S : W → Z,


temos:
(S ◦ L) ◦ T = S ◦ (L ◦ T ).

2. Se T : U → V é uma TL, então,

T ◦ IU = T e IV ◦ T = T,

onde IU , e IV são as identidades em U e V respectivamente.

3.4 Transformações Injetoras, Sobrejetoras e Isomorfis-


mos
Definições 3.17. Seja uma transformação linear entre espaços vetoriais: T : V → W . Diremos
que:

1. T é injetora, se para todos u, v ∈ V , T (u) = T (v) ⇒ u = v.

2. T é sobrejetora, se Im(T ) = T (V ) = W .

3. T é isomorfismo, se T é injetora e sobrejetora.

Dada a transformação T : V → W , temos:


T (u) = T (v) ⇔ T (u − v) = 0W ⇔ u − v ∈ N uc(T ), desprende-se daı́ que, T será uma
transformação injetora, se e somente se, N uc(T ) = {0V } ,
A próxima proposição estabelece este resultado.

Proposição 3.18. Dada uma tranformação T : V → W , temos:


(a) T é injetora ⇔ N uc(T ) = {0V } ⇔ dim(N uc(T )) = 0
(b) T é sobrejetora ⇔ Im(T ) = W ⇔ dim(Im(T )) = dimW
 
  x + 2y
x
Exemplo 3.19. Considere T : R2 → R3 , onde T ( ) =  x − y . Determine se T é injetora
y
y
e se é sobrejetora.
Notemos que:
   
x + 2y 1 2  
 x − y  = 1 −1 x .
y
y 0 1

104
Para determinar N uc(T ), resolvamos o sistema homogêneo com matriz de coeficientes:
     
1 2 1 2 1 2
1 −1 → 0 3 → 0 1
0 1 0 1 0 0
Claramente a única solução deste sistema é x = y = 0. Portanto, T é injetora.
Pelo teorema da dimensão núcleo-imagem, temos que

dim(R2 ) = dim(N (T )) +dim(Im(T )) ⇒ dim(Im(T )) = 2.


| {z } | {z }
2 0

Logo, Im(T ) 6= R3 , ou seja T não é sobrejetora.

Lembrando que para transformações T : Rn → Rm , da forma T (u) = Am×n u temos

N uc(T ) = N ul(A) e Im(T ) = Col(A),

sobre as dimensões temos

dim(N uc(T )) = nA = n − pA e dim(Im(T )) = pA .

Para isomorfismos (transformações lineares bijetoras), temos as seguintes propriedades.


Teorema 3.20. Seja T : V → W uma transformção linear, temos:

1. Todo isomorfismo transforma bases de V em bases de W

2. T : V → W é um isomorfismo ⇔ dimV = dimW e T injetora ou sobrejetora.


   
x x + 2y
Exemplo 3.21. Provemos que a transformação linear T : R3 → R3 , T (y ) = x + y − z 
z x+z
é um isomorfismo.
    
x 1 2 0 x
Temos, T ( y ) = 1 1 −1
     y .
z 1 0 1 z
Calculemos N uc(T ) = N ul(A).
     
1 2 0 1 2 0 1 2 0
A = 1 1 −1 → 0 −1 −1 → 0 1 1 .
1 0 1 0 −2 1 0 0 3
 
0
Assim, pA = 3 e nA = 0, logo N uc(T ) = { 0} e Im(T ) = R3 , ou seja que T é bijetora e

0
portanto, um isomorfismo.

105
Consideremos que T : V → W , é um isomorfismo, ou seja uma transformação bijetora, como
toda função bijetora, temos que T é invertı́vel, ou seja que existe uma aplicação denotada por
T −1 : W → V e que tem a propriedade:

T (u) = w ⇔ T −1 (w) = u.

Neste caso, T −1 : W → V , também é um isomorfismo. De fato:

• T −1 é bijetiva pois, T também é.


• T −1 é linear. Consideramos v, v1 , v2 ∈ W , como T é sobrejetiva temos v = T (u), v1 =
T (u1 ) e v2 = T (u2 ).

T −1 (v1 + v2 ) = T −1 (T (u1 ) + T (u2 ))


= T −1 (T (u1 + u2 ))
= u1 + u2
= T −1 (v1 ) + T −1 (v2 ).

T −1 (λv) = T −1 (λT (u))


= T −1 (T (λu))
= λu
= λT −1 (v).

• T ◦ T −1 = IW e T −1 ◦ T = IV .
Observação 3.22. Caso T : Rn → Rn , T u = Au veremos que:

T é isomorfismo, se e somente se, A é uma matriz invertı́vel,

isto acontece pois, sendo T um isomorfismo vale n = dim Im(T ) = dim Col(A) = pA , o que
mostra que A é invertı́vel. Da igualdade T u = Au = v obtemos:

T −1 (v) = A−1 v.

Exemplo 3.23. Considere o isomorfismo do Exemplo 8. A matriz de coeficientes de T tem


posto 3, logo é invertı́vel. Para achar T −1 , usamos

T u = Au = v ⇔ u = A−1 v ⇒ T −1 (v) = A−1 v.


 
1 2 0
logo basta calcular A−1 . Temos A = 1 1 −1, a matriz ampliada é,
1 0 1
   
1 2 0 1 0 0 1 2 0 1 0 0
[A|I] = 1 1 −1 0 1 0 −→ 0 −1 −1 −1 1 0 −→
1 0 1 0 0 1 0 −2 1 −1 0 1

106
   
1 0 −2 −1 2 0 1 0 0 −1/3 2/3 2/3
0 1 1 1 −1 0 −→ 0 1 0 2/3 −1/3 −1/3
0 0 3 1 −2 1 0 0 1 1/3 −2/3 1/3
     
−1 2 2 x −x + 2y + 2z
Logo, A−1 = 13  2 −1 −1 e portanto, T −1 (y ) = 31  2x − y − z  .
1 −2 1 z x − 2y + z

Propriedades 3.24. Considerando dois isomorfismos T : U → V e L : V → W , temos que:

1. A composição L ◦ T é um isomorfismo e (L ◦ T )−1 = T −1 ◦ L−1

2. (T −1 )−1 = T .

Exemplo 3.25. Sejam as transformações T : R2 → R2 e L : R2 → R2 , dadas por:


       
x −x + y x x + 2y
T( )= e L( )= .
y 3x + 2y y −y

Verifique que L e T são isomorfismos e calcule (L ◦ T )−1 .


    
x −1 1 x −1 1
• T( )= é invertı́vel pois = −5 6= 0.
y 3 2 y 3 2
    
x 1 2 x 1 2
L( )= é invertı́vel pois = −1 6= 0.
y 0 −1 y 0 −1

• Seja A a matriz que determina T e B a que determina L, então (L ◦ T )−1 u = (BA)−1 u.


Temos
      
1 2 −1 1 5 5 −1 1 −2 −5
BA = = ⇒ (BA) = 5 , portanto,
0 −1 3 2 −3 −2 3 5
     
−1 x 1 −2 5 1 −2x + 5y
(L ◦ T ) ( )= = .
y 5 3 5 5 3x + 5y

3.5 Matriz Associada a uma Transformação Linear


Seja T : V → W uma TL. Consideremos as bases ordenadas α = {u1 , . . . , un } e β =
{w1 , . . . , wm } de V e W respectivamente. Dado u ∈ V , desejamos saber a relação entre [u]α
(coordenadas de u na base α) e [T (u)]β (coordenadas de T (u) na base β).
 
k1
 .. 
Consideremos, [u]α =  . , escalares de u com relação à base α. Determinemos os escalares
kn
[T (u)]β . Temos:

107
T (u) = T (k1 u1 + . . . + kn un ) = k1 T (u1 ) + . . . + kn T (un ),
Logo,

[T (u)]β = k1 [T (u1 )]β + . . . + kn [T (un )]β


 
k1
 .. 
= [[T (u1 )]β · · · [T (un )]β ] ·  . 
kn
= [[T (u1 )]β · · · [T (un )]β ] · [u]α

A matriz acima, cuja j-ésima coluna coluna é o vetor coordenadas de T (uj ) em β, é chamada
matriz de T, da base α à base β e é denotada por [T ]αβ , ou seja

[T ]αβ = [[T (u1 )]β . . . [T (un )]β ] .

Esta matriz tem a propriedade caracterı́stica,

[T (u)]β = [T ]αβ [u]α , ∀u ∈ V.


Resumindo em um diagrama,

Fixadas T e as bases α, β, a matriz [T ]αβ é a única com a propriedade acima.


No caso que T : V → V é um operador linear e que α é uma base de V , a matriz associada
[T ]αα é uma matriz quadrada que será denotada simplesmente: [T ]α .

Observações 3.26. 1. No caso de transformações do tipo T : Rn → Rm , usando a matriz


associada a T , podemos conferir que T é dada pela multiplicação por uma matriz fixa.
De fato, se α e β são as bases canônicas, na ordem usual de Rn e Rm respectivamente,
temos
T (u) = [T (u)]β = [T ]αβ · [u]α = [T ]αβ · u.
Na prática, se T : Rn → Rm é dada na forma T (u) = A u, ∀u ∈ Rn , obtemos diretamente
que [T ]αβ = A, tanto pela unicidade, quanto pela própria definição de matriz associada.

2. Se α, β são bases de um espaço V , então a matriz associada ao operador identidade


IV : V → V da base α a base β, é exatamente a matriz mudança de base entre essas
bases. De fato:
[IV (v)]β = [v]β = [I]αβ [v]α , logo [IV ]αβ = [I]αβ .

108
Exemplos 3.27.
 
x  
3 2 2x − y + 3z
1. Dada T : R → R , T (y ) = , determine a matriz [T ]αC , onde α = {u1 =
−x + 2z
    z 
1 0 1
−1 , u2 =  2  , u3 = 0} é base de R3 e C é a base canônica de R2 .
1 −1 1
Sabemos que, [T ]αC = [ [T (u1 )]C [T (u2 )]C [T (u3 )]C ], calculando as colunas obtemos,
   
1   0  
6 −5
[T (u1 )]C = T (u1 ) = T ( −1 ) =
  , [T (u2 )]C = T (u2 ) = T ( 2 ) =
  e
1 −2
 1 −1
1  
5
[T (u3 )]C = T (u3 ) = T (0) = , portanto
1
1
 
α 6 −5 5
[T ]C = .
1 −2 1
   
x x+y
2. Seja T : R3 → R3 , dada por T (y ) =  x − 2z . Determine [T ]αβ , onde α e β são as
z x+y−z
3
bases de R :      
1 −1 1
α = {u1 = 0 , u2 = 1 , u3 = 0},
    
−1 0 1
     
1 0 2
β = {−1 , 1 , 0}.
1 0 1
Neste caso temos, [T ]αβ = [ [T (u1 )]β [T (u2 )]β [T (u3 )]β ], calculando as imagens resulta,
           
1 1 −1 0 1 1
T (u1 ) = T ( 0 ) = 3, T (u2 ) = T ( 1 ) = −1 e T (u3 ) = T (0) = −1 .
−1 2 0 0 1 0
Para obter as colunas de [T ]αβ devemos determinar as coordenadas em β dos vetores acima,
 
x
para isso calcularemos as coordenadas de um vetor qualquer v = y  na base β. Usando
z
C C
matrizes mudança de base temos, [v]β = [I]β [v]C = [I]β · v, onde C é a base canônica de
R3 . Por inversão de matriz obtemos,
 −1  
1 0 2 −1 0 2
β −1
[I]C
β = ([I]C ) = −1 1 0 = −1 1 2  .
1 0 1 1 0 −1

109
Então,
      
1 −1 0 2 1 3
[T (u1 )]β = [ 3 ]β = −1 1 2
     3 = 6 ,
 
2 1 0 −1 2 −1
      
0 −1 0 2 0 0
[T (u2 )]β = [−1]β = −1 1 2  −1 = −1,
0 1 0 −1 0 0
      
1 −1 0 2 1 −1
[T (u3 )]β = [−1]β = −1 1 2  −1 = −2.
0 1 0 −1 0 1
 
3 0 −1
α
Portanto [T ]β =  6 −1 −2  .
−1 0 1

Matriz da Composição.
Vamos determinar a matriz associada a uma composição de transformações. Para isto con-
sideremos espaços vetoriais U , V e W , com bases ordenadas α, β e γ, respectivamente e as
transformações lineares T : U → V e L : V → W . Nestas condições temos a composição:
L ◦ T : U → W.
Para todo u ∈ U , as coordenadas de (L ◦ T )(u) na base γ satisfazem:
[(L ◦ T )(u)]γ = [(L(T (u))]γ = [L]βγ [T (u)]β = [L]βγ [T ]αβ [u]α .
Pela unicidade da matriz de L ◦ T , temos:

[L ◦ T ]αγ = [L]βγ [T ]αβ .

Matriz da Soma e Multiplicação por escalar.


Consideremos as transformações lineares L, T : V → W e as bases α de V e β de W , notemos
que
[(L + T )(u)]β = [L(u)]β + [T (u)]β = [L]αβ [u]α + [T ]αβ [u]α = ([L]αβ + [T ]αβ )[u]α , ∀u ∈ V,
portanto
[L + T ]αβ = [L]αβ + [T ]αβ ,
de forma análoga obtemos,
[λL]αβ = λ[L]αβ .

Mudança de bases na matriz de uma TL.


Dados a transformação linear T : V → W , bases α, α0 de U e β, β 0 de W , temos uma relação
0
entre as matrizes [T ]αβ e [T ]αβ 0 . De fato, se IV e IW são as transformações identidades em V e
W respectivamente, temos:

110
T = IW ◦ T ◦ IV ,

nestas igualdades aplicando matrizes associadas, temos a relação:

0 0
[T ]αβ 0 = [IW ]ββ 0 [T ]αβ [IV ]αα

De forma geral estas equações permitem a troca de bases na matriz associada [T ]αβ .
Casos particulares:

• Relação entre [T ]αβ e [T ]αβ0 :


[T ]αβ0 = [I]ββ 0 [T ]αβ
0
• Relação entre [T ]αβ e [T ]αβ :
0 0
[T ]αβ = [T ]αβ [I]αα

• No caso de um operador linear T : V → V , se α e β são bases de V , a relação entre


[T ]α = [T ]αα e [T ]β = [T ]ββ é:
[T ]α = [I]βα [T ]β [I]αβ .
Note que as matrizes mudança de bases [I]αβ e [I]βα , são inversas uma da outra, logo
colocando P = [I]βα , temos
[T ]α = P [T ]β P −1 .

Definição 3.28. Quando duas matrizes quadradas A e B estão associadas pela relação

A = P BP −1 , onde P é uma matriz invertı́vel,

dizemos que A é semelhante ou similar a B, é simples notar que neste caso também B será
semelhante a A (verifique).

Pelas propriedades do traço e do determinante (vide exercı́cios 1.4-9h e 1.8-23e), temos:

Proposição 3.29. Se A e B são matrizes semelhantes, então:

1. tr(A) = tr(B).

2. det(A) = det(B).

Dizemos que traço e determinantes são “invariantes” por matrizes semelhantes.

Sobre as matrizes associadas a um operador em bases diferentes [T ]α e [T ]β podemos dizer que


são matrizes semelhantes e que portanto tem o mesmo traço e o mesmo determinante.

111
     
0 −1 1
Exemplo 3.30. Considere a base α = { 1 , 0 , 1} e a transformação linear T : R3 →
    
1 1 1
R3 , cuja matriz na base α é:  
−1 0 1
[T ]α =  1 −1 0  .
0 1 2

Calcule as matrizes [T ]C C 3
α e [T ]C , onde C é a base canônica de R .

• [T ]C α C
α = [T ]α [I]α .
 −1  
0 −1 1 −1 2 −1
α −1
Note que [I]C
α = ([I]C ) = 1 0 1 =  0 −1 1 , logo:
1 1 1 1 −1 1
    
−1 0 1 −1 2 −1 2 −3 2
C
[T ]α = 1 −1 0
   0 −1 1 = −1
  3 −2 .
0 1 2 1 −1 1 2 −3 3

• [T ]C α C
C = [I]C [T ]α .

Logo:     
0 −1 1 2 −3 2 3 −6 5
[T ]C
C = 1
 0 1 −1 3 −2 = 4 −6 5 .
1 1 1 2 −3 3 3 −3 3
   
x 3x − 6y + 5z
Portanto, T ( y ) = 4x − 6y + 5z .
  
z 3x − 3y + 3z

Verifica-se que tr([T ]α ) = tr([T ]C ) = 0 e que det([T ]α ) = det([T ]C ) = 3.

Matriz da inversa.
Consideremos espaços vetoriais V e W , com igual dimensão e com bases ordenadas α e β
respectivamente, se T : V → W é uma transformação linear, então:

• T : V → W é um isomorfismo, se e somente se, [T ]αβ é invertı́vel. A justificativa vem


do fato que o núcleo de T e o espaço nulo de [T ]αβ tem as mesmas dimensões.
Sendo T um isomorfismo, temos que:

• [T −1 ]βα = ([T ]αβ )−1 . A justificativa para esta relação é simplesmente ver que:
T −1 ◦ T = IV , também T ◦ T −1 = IW , tomando as matrizes temos [T ]αβ [T −1 ]βα = [IW ]β = I,
ou seja que as matrizes são inversas.

112
Exemplos 3.31.
       
2 1 −1 2 1
1. Sejam as bases de R , α = { , } e β = { , } e a transformação linear
1  0  0 1
3 1
T : R2 → R2 cuja matriz é: [T ]αβ =
1 2
3 −1
[T ]αβ é invertı́vel, pois = 5 6= 0, logo T é isomorfismo.
1 2
 −1  
3 −1 2 1
[T −1 ]βα = 1
=5 , transformando a base canônica:
1 2 −1 3
[T −1 ]C α
C = [I]C [T
−1 β
]α [I]C α
β = [I]C [T ]α ([I]βC )−1
−1 β
      
1 −1 2 1 2 1 6 1
[T −1 ]C
C = ·51
=5 1
, portanto
1 0 −1 3 0 1 4 3
   
−1 x 1 2x + y
T ( )= .
y 5 −x + 3y
     
1 0 0
3
2. Em R consideremos a base canônica C, a base α = { 0 , −1 , 0} e o operador
    
1 1 1
3 3
linear T : R → R , cuja matriz é:
 
−2 0 0
[T ]C
α =
 0 1 0 ,
−1 0 2
 
x
−1  
prove que T é um isomorfismo e calcule T ( y ).
z
De fato
−2 0 0
0 1 0 = −4 6= 0,
−1 0 2
logo T é isomorfismo. Usando os métodos estudados calculamos a matriz inversa:
 
−2 0 0
−1 α C −1 1
[T ]C = ([T ]α ) = 0 4 0 ,
4
−1 0 2
 
−2 0 0
logo, [T −1 ]αC = 14  0 4 0.
−1 0 2

113
Transformando à base C: [T −1 ]C = [T −1 ]αC [I]C
α = [T
−1 α
]C ([I]αC )−1
 −1  
1 0 0 1 0 0
Calculando a inversa temos, [I]αC = 0 −1 0 =  0 −1 0,
1 1 1 −1 1 1
daı́,
    
−2 0 0 1 0 0 −2 0 0
[T −1 ]C = 41  0 4 0  0 −1 0 = 14  0 −4 0,
−1 0 2 −1 1 1 −3 2 2
finalmente,

   
x −2x
1
T −1 (y ) =  −4y .
4
z −3x + 2y + 2z

3.6 Exercı́cios

1. Nas aplicações de (a) a (g) justifique que são transformações lineares. Encontre o núcleo
e a imagem de todas as transformações dadas.
   
x x+y+z
(a) T : R3 → R3 ; tal que T (y ) = x + y − z 
z x−y−z
   
x x+y+z
(b) T : R3 → R3 ; tal que T (y ) =  0 
z x−y−z
 
x  
y  x − 3y
(c) T : R4 → R3 ; tal que T ( z ) = 2x + z − w .
  
y + 2w
w
 
a  
4 2
 b a+b−d
(d) T : R → R , tal que T ( ) =
  .
c a−c+d
d
 
x1
  0
x1  
6 6  ..  x3 
(e) T : R → R , tal que T ( . ) =  x4 

x6  
x5 
0

114
 
x
3
(f) A aplicação T : R → R, T ( y  ) = 7x + 15y − 4z.

z
 
x
(g) A aplicação que leva o vetor v = y  ∈ R3 no produto vetorial com um vetor fixo
  z
1
v0 = 1, dada por f : R3 → R3 , f (v) = v × v0 .
2

2. Determine, se existir, uma transformação linear T : U → V que satisfaça:


           
1 0 1 2 0 1
3 3
(a) T : R → R ; T ( 1 ) = 0 , T ( 1 ) = 1
        e T ( −1 ) = 0 .
  
0 0 1 0 1 −1
     
1 0   0  
3 2 −2 −2
(b) T : R → R ; T ( 0 ) = T ( 0 ) =
    , T( 2 ) =
  .
3 4
−1 −1 −4
 
−1
(c) T : R2 → R3 com a propriedade, N uc(T ) gerado pelo vetor e tal que
  3
  7
0, 1
T( ) = −1.

−0, 2
2
 
x
(d) T : R3 → R3 tal que N uc(T ) = {y  / z + x − y = 0} e que Im(T ) seja gerado por
    z
1 2
{−1 , −1}.
0 −1

3. Sabendo que as aplicações geométricas, dadas em cada caso, são transformações lineares,
determine sua lei de formação.
(a) T : R2 → R2 ; onde T (u) é o vetor obtido pela reflexão de U através da reta y = x.

(b) T : R2 → R2 ; sendo T (u) o vetor obtido pela reflexão de u através da reta y = 3x.
(c) T : R2 → R2 , onde T (u) é a aplicação no√vetor u ∈ R2 de uma rotação com ângulo
θ = 3π
4
, seguida da dilatação com fator k = 4 2.
(d) T : R3 → R3 , onde T (u) é a rotação de um vetor em torno do eixo x no sentido
positivo, com ângulo 0 ≤ θ < 2π.
3 3
4. (a) Justifique
  a existência
  de
   que verifique, T : R → R , tal que
uma transformação
 
3 −3 2 1 2
T (1) = T (−2) = 1, T (1) = −1.
0 1 1 0 3

115
(b) Para a transformação dada em (a), determine N uc(T ) e Im(T ).
(c) Para a transformação
  dada em (a) determine o conjunto dos vetores v ∈ R3 tais que
2
T (v) = 1.

1
(d) Para a transformação
  dada em (a), determine o conjunto dos vetores v ∈ R3 tais
−1
que T (v) = 1 .

1
       
2 x x x x + 2y
5. Sejam S e T operadores lineares no R definidas por T ( )= e S( )= .
y 3y y y
Determine:

(a) S + T
(b) 2S + 4T
(c) S ◦ T
(d) T ◦ S

6. Dadas as transformações lineares S : R3 → R3 e T : R3 → R2 tais que,


     
x x+z x  
−2x + y − z
S(y ) = 2x + y + z  e T (y ) = ,
3x + y + 2z
z −y + z z

determine bases e as dimensões para núcleo e imagem de T ◦ S e S 2 = S ◦ S.

7. Marque Verdadeiro (V) ou Falso (F) nas sentencias abaixo, justificando suas respostas:

(a) T (x, y) = xy é uma transformação linear.

(b) T : Pn (R) → Pn (R), D(f (t)) = f 0 (t) é uma transformação sobrejetiva.


 
x
(c) A aplicação Px : R3 → R3 , Px (y ) = xe1 (projeção de forma perpendicular sobre o
z
eixo x), é um isomorfismo.

(d) Uma transformação linear não nula, T : R → V , sempre é injetiva.

(e) Se T : U → V , uma T. L. e dim U = dim V , então: Se T é sobrejetiva, então T é


injetiva.

116
(f) Se T : R2 → R3 uma T. L., então T não pode ser sobrejetiva.

8. Classifique as seguintes transformações lineares como injetoras, sobrejetoras e/ou isomor-


fismos
   
x x−y
(a) T : R3 → R3 , T (y ) =  y + z 
z x − 2y
   
x x + 2y
(b) T : R3 → R3 , T (y ) = y − 2z 
z y+z
   
x y
 y
z 
 
(c) T : R4 → R4 , T (
z  ) = x
w w
   
2 2 x 7x − y
(d) T : R → R , T ( )=
y 2x + 5y
(e) O operador de rotação Rθ : R2 → R2 , que leva o vetor v ∈ R2 no vetor T (v) obtido de
v pela rotação anti-horária com ângulo de rotação θ = 5π
6
. Existem ângulos de rotação
para os quais Rθ não seja isomorfismo?

9. Para os isomorfismos do exercı́cio 8, calcule T −1 (u) onde u é um vetor qualquer do domı́nio


de T .
 
x  
3 2 x + y
10. Seja T : R → R tal que T (y ) = . Indique:
x+z
z

(a) [T ]A 3 2
B considerando A e B bases canônicas do R e R , respectivamente.
     
1 0 0    
C 1 2
(b) [T ]D onde C = {0 , −1 , 0} e D = { , }.
2 1
0 0 2
 
1
(c) [T (v)]D onde v = 1.

0
       
2 −1     1 0 0
A 1 −1
11. Considere [T ]B = 1 0
  onde A = { , } e B = { 2 , −1 , 0}. Deter-
    
0 1
0 2 3 1 2
3
mine T (v) onde v = .
−1

117
12. Sejam A e B bases canônicas ordenadas
   de R2 e R3 , respectivamente; considere também
    1 0 1
0 1 0 0
A ={ , } e B = { 0 , 1 −1} bases ordenadas de R2 e R3 respectiva-
    
−1 2
−1 1 0
mente.  
  2y
x A0 A0
(a) Se S : R2 → R3 , é dada por S( ) = x − y , ache [S]A B , [S]B , [S]B 0 .
y
x
 
2 4 −2
(b) Se R é o operador sobre R , dado por: [R]A0 = , determine [R(u)]A0 e R(u),
  3 1
x
onde u = .
y
 
3 2 B0 1 1 0
(c) Se T : R → R , é a transformação linear dada por [T ]A0 = , determine
  1 1 −1
x
[T (u)]A e T (u), onde u = y .
0 
z
13. Considere os operadores lineares do plano, Tθ , rotação pelo ângulo θ; L, reflexão pelo eixo
x; S, reflexão pelo eixo y e R, contração com constante k = 52 . Determine [Tθ ]A , [L]A ,
[S]A , [R]A , [Tθ ◦ L]A , [R ◦ S]A , onde A é a base canônica de R2 .
14. Considere que A e B são as bases ordenadas canônicas de R2 e R3 , respectivamente.
Sejam T : R3 → R2 e L : R2 → R3 , transformações lineares, dadas por:
 
  −1 1
1 −1 0
[T ]B
A = e [L]AB =
 1 1 .
1 0 1
−1 2
Também considere as bases ordenadas de R2 e R3 :
     
    1 1 3
1 1
A0 = { , } e B 0 = {−1 , −2 ,  1 }.
−1 −2
2 1 −1
0 0
(a) Calcule [I]A A B B
A , [I]A0 , [I]B e [I]B 0
0 B0
(b) [T ]B B
A , [T ]A0 , [T ]A0
0 A0
(c) [L]A A
B , [L]B 0 , [L]B 0
(d) [L ◦ T ]BB e [T ◦ L]A
A

     
−2 1 0
3
15. Considere que A é a base ordenada canônica de R , que B = { 1 , 2 , 0} é uma
    
0 0 1
3 3
base ordenada de R e que T é o operador sobre R , determinado pela matriz:
 
2 1 0
[T ]A
B = 1 1
 1 .
0 1 −3

118
(a) Determine [I]A B A
B , [I]A e [T ]A
 
x
(b) Mostre que T é isomorfismo e determine T −1 (y )
z
 
cosθ −senθ
16. Lembre que a matriz de rotação com ângulo de rotação θ é dada por: .
senθ cosθ
Dados os vértices A = (2, 1), B = (5, 3) e C de um triângulo, determine o vértice C, de
todas as formas possı́veis, tais que 4ABC seja um triângulo isósceles, retângulo em A.

17. Seja f : P2 (R) → P2 (R) tal que f (p(t)) = p(t) + p0 (t).


(a) Determine a dimensão e uma base para N uc(f ) e Im(f )
(b) Determine a matriz [f ]A , onde A é a base usual do espaço P3 (R).

119
Capı́tulo 4

PRODUTO INTERNO

4.1 Produto Escalar em R3


   
x1 y1
O produto escalar de dois vetores u = x2  , v = y2  ∈ R3 , é definido como o número real,
x3 y3

u · v = x1 y1 + x2 y2 + x3 y3 .

   
−1 2
Por exemplo, −2 · 32  = −2 − 34 + 5 = 53 .
  
5 1
Em R3 o produto escalar esta relacionado a conceitos geométricos, como o comprimento de um
vetor, vetores perpendiculares, etc. De fato,
 
→ x
• Dado o vetor u =OP = y ,

z

o comprimento de u, denotado kuk, é dado por:


p √
kuk = d(O, P ) = x2 + y 2 + z 2 = u · u.

120
• Dados vetores não nulos u, v ∈ R3 e θ o ângulo entre eles, 0 ≤ θ ≤ π, é bem conhecida a
relação:
u · v = kuk kvk cosθ.

• Da relação anterior, tomando θ = π


2
obtemos: u e v são perpendiculares, se e somente, se
u · v = 0.

• Verifica-se o Teorema de Pitágoras. Se u e v sãp perpendiculares, temos:

kuk2 + kvk2 = ku + vk2 ,

Ou seja, o produto escalar tem relação direta com a geometria do espaço.

121
4.2 Produto Interno
O produto escalar de R3 pode ser generalizado para espaços vetoriais reais quaisquer.
Definição 4.1. Seja V um espaço vetorial sobre R, diremos que a aplicação, denotada h , i e
dada por:
V × V 7−→ R
(u, v) → hu, vi
é um produto interno sobre V , quando verifica as propriedades:

1. Aditividade: hu, v + wi = hu, vi + hu, wi, para todos u, v, w ∈ V


2. Homogeneidade: hαu, vi = α hu, vi, para todos u, v ∈ V e α ∈ R
3. Simetria: hu, vi = hv, ui, para todos u, v ∈ V
4. Positividade: Para todo u ∈ V, hu, ui ≥ 0 e hu, ui = 0 ⇔ u = 0V .

O espaço vetorial V munido de um produto interno h , i é dito espaço vetorial real com
produto interno.
Exemplos 4.2. 1. Produto escalar em Rn .
   
x1 y1
 ..   .. 
Dados u =  .  e v =  . , define-se o produto escalar de u e v como,
xn yn
i=n
X
u · v = x1 y1 + . . . + xn yn = xi y i .
i=1

O produto escalar também pode ser escrito como produto de matrizes,


u · v = ut v = v t u,
usando essa forma de escrever ficam claras a validade das propriedades de aditividade,
homogeneidade e simetria, para positividade note que,
u · u = x21 + . . . + x2n ≥ 0 e x21 + . . . + x2n = 0 ⇔ x1 = x2 = . . . = xn = 0.
Assim, o produto escalar é um produto interno, também chamado produto interno
euclideano, munido com este produto interno Rn é dito espaço vetorial euclideano.
2. Dados reais positivos p1 , . . . , pn podemos definir em Rn uma  operação
 entre
 vetores que
x1 y1
resulta em um novo produto interno em Rn que, para u =  ...  , v =  ...  ∈ Rn , é dado
   
xn yn
como:
i=n
X
hu, vi = p1 x1 y1 + . . . + pn xn yn = p i xi y i .
i=1

122
n
  que h, i é um produto interno, sejam u, v, w ∈ R , u, v como dados acima e
Verifiquemos
z1
 .. 
w =  . .
zn


     
* x1 y1 z1 +
 ..   ..   .. 
hu, v + wi =  . ,  .  +  . 
xn yn zn
= p1 x1 (y1 + z1 ) + . . . + pn xn (yn + zn )
= (p1 x1 y1 + . . . + pn xn yn ) + (p1 x1 z1 + . . . + pn xn zn )
= hu, vi + hu, wi

• hαu, vi = ni=1 pi (αxi )yi = α ni=1 pi xi yi = α hu, vi.


P P

• hu, vi = ni=1 pi xi yi = ni=1 pi yi xi = hv, ui.


P P

• hu, ui = ni=1 pi (xi )2 ≥ 0, e hu, ui = ni=1 pi x2i = 0 ⇔ xi = 0, ∀ i ⇔ u = 0.


P P

Este tipo de produto interno é chamado produto escalar com pesos ou produto in-
terno euclideano com pesos. Por exemplo em R3 podemos definir o produto interno,
   
x1 y1
hu, vi = x1 y1 + 2x2 y2 + 3x3 y3 , onde u = x2  , v = y2  ,
x3 y3
*−3  2 +
assim  1  , −1 = −6 + 2(−1) + 3(10) = 22.
2 5
3. Consideremos Rn e A uma matriz invertı́vel de ordem n. Dados u, v ∈ Rn , usando o
produto escalar definimos:

hu, vi = Au · Av, observe que Au e Av são colunas de Rn .

Verifiquemos que h, i é um produto interno:

• hu, v + wi = Au · A(v + w) = Au · (Av + Aw) = Au · Av + Au · Aw = hu, vi + hu, wi


• hαu, vi = A(αu) · Av = (αAu) · Av = α(Au · Av) = α hu, vi
• hu, vi = Au · Av = Av · Au = hv, ui ,
• hu, ui = Au · Au ≥ 0 e,

hu, ui = Au · Au = 0 ⇔ Au = 0 ⇔ u = 0, dado que a matriz é invertı́vel.

123
 
0 3
Por exemplo, A = é invertı́vel, logo temos em R2 o produto interno, dado para
    2 −1
x s
u= ev= , como
y t
   
x s
hu, vi = A ·A
y t
   
3y 3t
= ·
2x − y 2s − t
= 9yt + (2x − y)(2s − t)
= 4xs − 2xt − 2ys + 10yt.

4. No espaço C([a, b]) das funções contı́nuas no intervalo [a, b], define-se:
Z b
hf, gi = f (x)g(x)dx, f, g ∈ C([a, b]).
a

acima, logo h, i
Pelas propriedades da integral, é claro que são válidas as propriedades √
é um produto interno em C([a, b]). Por exemplo, se f (x) = x, g(x) = x ∈ C([0, 1]),
temos:
R1 √ R1
hf, gi = 0 x xdx = 0 x3/2 dx = 25 x5/2 |10 = 25 .

Propriedades 4.3. Dado um espaço vetorial V com produto interno h, i, valem as proprieda-
des:

1. h0V , vi = hv, 0V i = 0.

2. hα1 u1 + . . . + αk uk , vi = α1 hu1 , vi+. . .+αk huk , vi, onde u1 , . . . , uk , v ∈ V e α1 , . . . , αk ∈


R.

3. hu, β1 v1 + . . . + βk vn i = β1 hu, v1 i+. . .+βk hu, vk i, onde v1 , . . . , vk , u ∈ V e β1 , . . . , βk ∈ R.

4.3 Norma e Distância


Seja V um espaço com produto interno h, i, para cada u ∈ V a norma de u é definida como
o escalar: p
kuk = hu, ui.
Um vetor u ∈ V é dito unitário se kuk = 1.
A distância entre vetores u, v ∈ V é dada por:
p
d(u, v) = ku − vk = hu − v, u − vi.

124
2 3
Exemplos 4.4. 1. No caso do produto escalar em
 R e R , a norma de um vetor é exacta-
x
mente seu comprimento. Por exemplo, se u = , temos:
y
√ p
kuk = u·u= x2 + y 2 ,

A distânciaentre
 vetores
 coincide com o conceito
 geométrico: por exemplo para vetores
x x x − x
de R2 , u = , v = 1 , temos u − v = 1
e,
y y1 y − y1
p
d(u, v) = ku − vk = (u − v) · (u − v)
p
= (x − x1 )2 + (y − y1 )2 .

2. Considerando o produto escalar com pesos em R3 :


   
x1 y1
hu, vi = 3x1 y1 + x2 y2 + 2x3 y3 , onde u = x2  , v = y2  ,
x3 y3
 
−2
calculemos a norma de u =  5 .
3

kuk2 = hu, ui = 3 · (−2)2 + 52 + 2 · 32 = 55 ∴ kuk = 55.

Podemos calcular os produtos internos entre duas combinações lineares de vetores, se são co-
nhecidos os produtos internos dois a dois, para isso basta notar que
n
X
hα1 u1 + . . . + αn un , β1 v1 + . . . + βn vn i = αi βj hui , vj i , onde
i,j=1

ui , vj ∈ V e αi , βj ∈ R.

Exemplo 4.5. Se V é um espaço com produto interno com u, v ∈ V tais que hu, vi = −2, kuk =
4 e kvk = 3 então,

h2u + v, u − 3vi = 2 hu, ui − 6 hu, vi + hv, ui −3 hv, vi


| {z }
hu,vi

= 2 hu, ui − 5 hu, vi − 3 hv, vi


= 32 + 10 − 27 = 15.

Propriedades 4.6. Dado o espaço vetorial V , com produto interno h, i e dados u, v ∈ V são
válidas:

125
1. Homogeneidade: kαuk = |α| kuk, para todo escalar α ∈ R.
De fato,
kαuk2 = hαu, αui = α2 hu, ui = α2 kuk2 ⇒ kαuk = |α| kuk .

2. Desigualdade de Cauchy-Schwarz: |hu, vi| ≤ kuk kvk

3. Desigualdade triângular: ku + vk ≤ kuk + kvk.

De fato,

ku + vk2 = hu + v, u + vi
= hu, ui + hu, vi + hv, ui + hv, vi
= kuk2 + 2 hu, vi + kvk2
≤ kuk2 + 2 kuk kvk + kvk2 = (kuk + kvk)2

Da desigualdade de Cauchy-Schwarz, para vetores não nulos u, v ∈ V temos

hu, vi
−1 ≤ ≤ 1,
kuk kvk

como a função coseno é uma bijeção de [0, π] em [−1, 1] então existe um único θ ∈ [0, π] tal
que,
hu, vi
cos θ = ,
kuk kvk
θ é dito ângulo entre u e v.
A definição generalizada de ângulo entre vetores, no caso particular dos espaços euclideanos R2
e R3 , é exatamente o conceito geométrico.
 
1
3
Por exemplo, no espaço euclideano (com produto escalar) R o ângulo entre u = 0 e v = 
  1
1
−1 é tal que:
0
u·v 1 1 π
cos θ = =√ √ = , ∴ θ= .
kuk kvk 2 2 2 3

126
u
Observação 4.7. Se V é um espaço com p.i. e u ∈ V é não nulo, então o vetor é um
kuk
vetor unitário no espaço gerado por u, de fato, pela homogeneidade da norma temos:
u 1 1
= u = kuk = 1,
kuk kuk kuk
este processo é chamado normalização de u. Por exemplo, no espaço euclideano R3 ,
 
−2 √ √
u =  5 , usando o produto escalar temos kuk = 4 + 25 + 9 = 38, logo o vetor
  3  
−2 −2
√1  5  é unitário. No caso do produto com pesos do exemplo 2, o vetor u =  5  tem
38
3   3
√ −2
norma kuk = 55, normalizando u obtemos o vetor unitário √155  5 .
3

4.4 Ortogonalidade
No caso particular dos espaços euclideanos R2 e R3 , vimos que dois vetores são perpendiculares,
se e somente se, seu produto escalar é zero, esta caracterização motiva a definição de vetores
ortogonais.
Definição 4.8. Seja V um espaço com produto interno h, i, diremos que vetores u, v ∈ V são
ortogonais, simbolicamente u⊥v, quando,
hu, vi = 0.

É claro que, para vetores não nulos, ortogonalidade equivale ao ângulo entre os vetores ser de
π
2
, pois:
hu, vi π
cosθ = =0⇔θ= .
kuk kvk 2
   
2 a −b
Exemplos 4.9. 1. No espaço euclideano R os vetores u = ev =± são ortogonais
    b a
a −b
pois · = −ab + ab = 0.
b a
   
6 8
2. Os vetores u = −5 e v = 6  do espaço euclideano R3 são ortogonais, pois
  
2 −9
u · v = 48 − 30 − 18 = 0.
Os mesmos vetores u, v dados, não são ortogonais no espaço R3 com o produto escalar
com pesos 2, 1, 3, pois
hu, vi = 2(48) − 30 + 3(−18) = 12 6= 0.

127
Propriedades 4.10. Dados um espaço vetorial V com h, i e vetores u, v, w ∈ V , temos:

1. 0V ⊥u, ∀ u ∈ V

2. u⊥u ⇔ u = 0V

3. u⊥v ⇔ v⊥u

4. Se u⊥v e u⊥w, então u⊥(αv + βw), para todos α, β ∈ R

Propriedades 4.11 (Teorema de Pitágoras). Seja V , com produto interno h, i e sejam u, v ∈ V


vetores não nulos e ortogonais, então vale o Teorema de Pitágoras:

ku + vk2 = kuk2 + kvk2 .

Demonstração. Desenvolvendo ku + vk2 temos:

ku + vk2 = hu + v, u + vi = hu, ui + 2 hu, vi + hv, vi = kuk2 + kvk2 .


| {z }
0

Definição 4.12 (Complemento Ortogonal). Seja V um espaço, com produto interno h, i e W


um subespaço de V .
O conjunto de todos os vetores de V e ortogonais a todo vetor de W é chamado complemento
ortogonal de W e é denotado por W ⊥ , ou seja:

W ⊥ = {u ∈ V / u⊥w, ∀ w ∈ W }.

W ⊥ é um subespaço vetorial de V , basta usar as propriedades 4.10 para verificar.

A seguinte propriedade mostra que para construir W ⊥ é suficiente usar uma base de W .

Proposição 4.13. Se V é um espaço vetorial de dimensão finita e W é um subespaço de V ,


com geradores {w1 , . . . , wk }, então:

u ∈ W ⊥ ⇔ u⊥wi , para todo i = 1, . . . , k.

128
Para verificar a propriedade 4.14 basta ver que,
k
X
hu, α1 w1 + . . . + αk wk i = αi hu, wi i .
1
   
1 −2
3
Exemplo 4.14. Considere o espaço euclideano R e os vetores w1 = 2 e w2 = 1 .
  
1 −1
 
3
(a) u =  1  é ortogonal ou não ao subespaço W = [w1 , w2 ]?
−5

Calculando os produtos internos temos:


      
3 1 3 −2
u · w1 = 1 · 2 = 0,
   u · w2 = 1 · 1  = 0,
  
−5 1 −5 −1

portanto u ∈ W ⊥ .

(b) Mostre que W ⊥ é a reta que contém u.


Observe que          
x 1 x −2 x
v = y  ∈ W ⊥ ⇔ 2 · y  = 0,  1  · y  = 0,
z 1 z −1 z

x + 2y + z = 0
daı́ temos as equações: . Na forma matricial este sistema corres-
−2x + y − z = 0
ponde a    
  x 0
1 2 1    
y = 0 ,
−2 1 −1
z 0
     
1 2 1 1 2 1 1 0 3/5
escalonando → → cuja solução é,
−2 1 −1 0 5 1 0 1 1/5
 
3
x = 3t, y = t, z = −5t, onde t ∈ R ou seja v = t 1  = tu, portanto W ⊥ é a reta

−5
gerada por u.

Considerando o espaço euclideano R3 é simples ver que se W é um plano então W ⊥ é a reta


perpendicular que passa pela origem e as relações:

(W ⊥ )⊥ = W e W ⊕ W ⊥ = R3 .

129
Propriedades 4.15. Considere um subespaço vetorial W de um espaço V com produto interno
h, i.

1. (W ⊥ )⊥ = W

2. W ∩ W ⊥ = {0V }

3. W ⊕ W ⊥ = V , logo dimV = dimW + dimW ⊥

4. {0V }⊥ = V e V ⊥ = {0V }.

Observação 4.16. Note que no exemplo


 4.14, onde V é o espaço euclideano R3 , temos que W
1 −2
é o espaço coluna da matriz, A = 2 1 , temos

1 −1
         
x 1 x −2 x

u= y ∈W
  ⇔ 2 · y = 0,
     1 · y = 0
 
z 1 z −1 z
   
  x 0
1 2 1    
⇔ y = 0
−2 1 −1
z 0
⇔ u ∈ N ul(At ).

ou seja Col(A)⊥ = N ul(At ).

Em geral se A é uma matriz m × n, temos Col(A) ⊆ Rm e N ul(A) ⊆ Rn . Considerando Rm e


Rn como espaços euclideanos, é claro que,

Col(A)⊥ = N ul(At ), em Rm .

Tomando complementos, seguido de troca de A por At obtemos,

Col(A) = N ul(At )⊥ ⇒ N ul(A)⊥ = Col(At ), em Rn .

Propriedades 4.17. Se A de ordem m × n, temos

Col(A)⊥ = N ul(At ) e N ul(A)⊥ = Col(At ).


 
2 1
Exemplo 4.18. Seja A = 2 0 , calculemos bases para Col(A)⊥ , subespaço de R3 e
1 −1
⊥ 2
N ul(A) subespaço de R , considerando o produto escalar em cada espaço.

• Determinemos Col(A)⊥ . Devemos resolver o sistema homogêneo,

130

2x + 2y + z = 0
. Escalonando a matriz de coeficientes,
x − z = 0
       
2 2 1 2 2 1 2 0 −2 1 0 −1
→ → → ,
1 0 −1 0 2 3 0 2 3 0 2 3

asolução
 é x = z, y = −3z/2. Logo, uma base para o complemento de Col(A) é
2
{−3}.
2

• Para determinar N ul(A)⊥ basta ver que o sistema


 homogêneo com matriz de coeficientes
0
A, tem solução nula, ou seja N ul(A) = { }, logo N ul(A)⊥ = R2 .
0

Conjuntos Ortonormais e Ortogonais

Definição 4.19. Dado um espaço vetorial V , com produto interno h, i e dado um conjunto
S = {u1 , . . . , uk }.
(a) S é dito conjunto ortogonal quando, hui , uj i = 0, para todo i 6= j
(b) S é dito conjunto ortonormal, se é um conjunto ortonormal de vetores unitários.
(c) S é uma base ortogonal, se é uma base e conjunto ortogonal. S é uma base ortonormal,
se é uma base e conjunto ortonormal.
Note que α = {v1 , . . . , vm } ser uma base ortonormal de V significa que,

0, se i 6= j
hvi , vj i = .
1, se i = j

Proposição 4.20. Todo conjunto ortogonal de vetores não nulos β = {u1 , . . . , uk } é um con-
junto LI.

Demonstração. Dada uma combinação linear nula de vetores de β:

α1 u1 + . . . + αk uk = 0V ,

tomando os produtos internos com cada ui , 0 ≤ i ≤ k, temos:

0 = h0, ui i = hα1 u1 + . . . + αk uk , ui i
0 = α1 hu1 , ui i + . . . + αk huk , ui i
0 = αi hui , ui i ,

como ui 6= 0, temos αi = 0, ∀ i = 1, . . . , k. Portanto β é LI.

Da proposição anterior temos que, dado um conjunto β ortogonal de vetores não nulos de V ,
para determinar se β é uma base de V , basta que gere V ou que tenha tantos vetores quanto
a dimensão do espaço, pois β é LI.

131
Exemplos 4.21.
     
1 0 0
1. No espaço euclideano R3 a base canônica, α = {e1 = 0 , e2 = 1 , e3 = 0} é uma
0 0 1
base ortonormal já que:
e1 · e2 = e1 · e3 = e2 · e3 = 0 e ke1 k = ke2 k = ke3 k = 1.
     
1 1 1
O conjunto β = {u = 1 , v = −1 , w = 1 }, é ortogonal, pois:
    
1 0 −2
u · v = u · w = v · w = 0,
logo é uma base ortogonal de R3 , mas β não é ortonormal pois os vetores não são unitários.
Para normalizar β calculamos,
√ √ √
kuk = 3, kvk = 2 e kwk = 6,
obtemos a base ortonormal,
     
1 1 1
1   1   1  
β = { √ 1 , √ −1 , √ 1 }.
3 1 2 0 6 −2

2. Consideremos o espaço vetorial V = C([0,


√ 1]), com o produto interno dado pela integral
em [0, 1] e seu subespaço W = [ x, x] de dimensão 2 (gerado por dois vetores LI).
√ 4√
Vamos verificar que o subconjunto {f = x, g = x − x} de W é uma base ortogonal,
5
pois
Z 1
√ 4√
hf, gi = x(x − x)dx
0 5
Z 1
4
= (x3/2 − x)dx
0 5
2 5/2 1 2 2 1
= x |0 − x |0
5 5
= 0.
Para normalizar calculamos,
Z 1 √
Z 1
1
hf, f i = ( x)2 dx = x dx =
0 0 2
e
1 Z 1
4√ 2
Z
8 16 1
hg, gi = (x − x) dx = (x2 − x3/2 + x) dx = ,
0 5 0 5 25 75
p p
logo, kf k = 1/2 e kgk = 1/75, assim uma base ortonormal para W é
√ √ 4√
{ 2x, 75(x − x)}.
5
132
Coeficientes de Fourier. As bases ortogonais auxiliam, por exemplo, no cálculo das coorde-
nadas de um vetor.
Seja V um espaço de dimensão m, com produto interno h, i, com uma base ortogonal α =
{v1 , . . . , vm }. Dado u ∈ V , calculemos os escalares a1 , . . . , am tais que,
u = a1 v1 + . . . + am vm ,
fazendo o produto interno de u com vi e usando a ortogonalidade da base α, temos
hu, vi i = ha1 v1 + . . . + am vm , vi i = ai hvi , vi i ,
logo,
hu, vi i hu, v1 i hu, vm i
ai = , i = 1, . . . , m e u = v1 + . . . + vm .
hvi , vi i hv1 , v1 i hvm , vm i
Os escalares da proposição acima são chamados coeficientes de fourier de u na base α.
E se α é uma base ortonormal, então
ai = hu, vi i , i = 1, . . . , m e u = hu, v1 i v1 + . . . + hu, vm i vm .
Considerando a base α ortonormal e na ordem dada, podemos descrever as coordenadas de u
em α.  
hu, v1 i
[u]α =  ...  ∈ Rm .
 
hu, vm i
Exemplo 4.22. Considere o espaço euclideano V = R3 e as bases
     
1 1 1
α = {u = 1 , v = −1 , w =  1 }, ortogonal,
1 0 −2
1 1 1
α0 = {u0 = √ u, v 0 = √ v, w0 = √ w}, ortonormal.
3 2 6
Visto que α é uma base
 ortogonal,
 podemos calcular as coordenadas em α (coeficientes de
6
fourier) do vetor X = −2 , na forma:
5
X ·u 9 X ·v X ·w
a1 = = = 3, a2 = = 4, a3 = = −1,
u·u 3 v·v w·w
 
3
portanto, [X]α =  4  ou seja X = 3u + 4v − w.
−1
√ √
Da mesma√forma, podemos calcular [X]α0 , neste caso X · u0 = 3 3, X · v 0 = 4 2 e
X · w0 = − 6, logo:  √ 
3√3
∴ [X]α0 =  4 √2  .
− 6

133
Produto interno e norma em bases ortonormais. Consideremos o espaço euclideano Rm ,
se fixamos uma base ortonormal α de Rm temos uma estreita relação entre o produto escalar
de vetores e o produto escalar de suas coordenadas em α. Seja α = {v1 , . . . , vm } uma base
ordenada ortonormal.

• Dados vetores u, v ∈ Rm sabemos que, u = i=m e v = i=m


P P
i=1 ai vi i=1 bi vi , logo, é claro
que
i=m j=m
X X i=m
X
u·v = ai bj (vi · vj ) = ai bi = [u]α · [v]α .
i=1 j=1 i=1

• Também √ p
kuk = u·u= [u]α · [u]α = k[u]α k .

Exemplo 4.23. Consideremos o vetor X e a base ortonormal α0 do espaço euclideano R3 do


exemplo 4.22, verificamos que:
√ √ √
k[X]α0 k2 = (3 3)2 + (4 2)2 + (− 6)2 = 65

e
kXk2 = 62 + (−2)2 + (5)2 = 65.

Bases ortonormais e Matrizes ortogonais. Consideremos uma matriz A de ordem m com


colunas C1 , . . . , Cm ∈ Rm , calculemos At A,
 
C1t
At A =  ...  C1 · · · Cm = [Cit Cj ] = [Ci · Cj ],
  
t
Cm

de onde fica claro que, A é ortogonal (At A = Im ) se e somente, se as colunas de A são


ortonormais no espaço euclideano Rm . Daı́ é direto que, se α é uma base ortonormal de Rm ,
então a matriz mudança de base [I]αC é ortogonal, onde C é a base canônica do mesmo espaço.
A seguinte proposição completa estas propriedades.

Proposição 4.24.

(a) Uma matriz A de ordem m é ortogonal, se e somente se, suas colunas (ou linhas) formam
uma base ortonormal de Rm .

(b) As matrizes mudança de base entre bases ortonormais do espaço euclideano Rm são ma-
trizes ortogonais.

Exemplo 4.25. Sejam as bases ortonormais do espaço euclideano R2 ,


 √   √     
1/√2 1/ √2 −3/5 4/5
α = {u1 = , u2 = } e β = {v1 = , v2 = }
1/ 2 −1/ 2 4/5 3/5

134
Calculemos a matriz [I]αβ .

Sabemos que [I]αβ = ([I]βC )−1 [I]αC = ([I]βC )t [I]αC = [I]βC [I]αC , pois [I]βC é ortogonal e simétrica.
  √ √   √ √ 
α −3/5 4/5 1/√2 1/ √2 1/5√2 −7/5√ 2
[I]β = = .
4/5 3/5 1/ 2 −1/ 2 7/5 2 1/5 2

Verifica-se que [I]αβ é ortogonal, pois as colunas tem norma euclideana 1 e são ortogonais entre
si.

4.5 Projeção Ortogonal e Ortogonalização de Gram-Schmidt


Definição 4.26. Dados um espaço V com produto interno h, i, um subespaço W de dimensão
finita de V e um vetor v ∈ V , como V = W ⊕ W ⊥ , temos únicos w ∈ W e w0 ∈ W ⊥ tais que

v = w + w0 ,

ou seja temos um único w ∈ W com a propriedade:

v − w = w0 ∈ W ⊥ ,

o vetor w é chamado projeção ortogonal de v em W . A projeção ortogonal de v em W


será denotada por PW (v) e em caso W = [w1 , . . . , wk ] por Pw1 ,...,wk (v). Assim, PW (v) é o único
vetor em W tal que v − PW (v) ∈ W ⊥ .

Para determinar a projeção ortogonal de v ∈ V em W , suponhamos que dimW = m ≤ n e que


temos uma base ortonormal para W , β = {w1 , . . . , wm }, assim,

PW (v) = w = a1 w1 + . . . + am wm ∈ W,

como w deve verificar v − w ∈ W ⊥ , então,

hv − w, wi i = 0, ∀wi ∈ β,

135
equivalentemente,

hv, wi i = hw, wi i = ai hwi , wi i ,

hv, wi i
daı́ ai = . Portanto w = PW (v) é da forma:
hwi , wi i

hv, w1 i hv, wm i
PW (v) = w1 + . . . + wm .
hw1 , w1 i hwm , wm i

O vetor PW (v) é independente da base ortogonal utilizada, pois é único.


Da expressão acima, obtemos a projeção ortogonal no caso simples dim W = 1. Na seguinte
proposição enunciamos o resultado.

Teorema 4.27 (Cálculo da projeção ortogonal).

(a) Se W = [w1 ], então:


hv, w1 i
Pw1 (v) = w1 .
hw1 , w1 i

(b) Se β = {w1 , . . . , wm } é uma base ortogonal de W , então:


m
X hv, w1 i hv, wm i
PW (v) = Pwi (v) = w1 + . . . + wm .
i=1
hw1 , w1 i hwm , wm i

Observação 4.28 ( Casos particulares).

• v ∈ W ⇔ PW (v) = v. De fato, v = |{z}


v + 0V , logo PW (v) = v.
|{z}
∈W ∈W ⊥

• v ∈ W ⊥ ⇔ PW (v) = 0V . Pois, v = 0V + |{z}


v .
|{z}
∈W ∈W ⊥

Exemplo 4.29. Considere o espaço euclideano R4 e W o espaço cuja base é


     
1 −1 0
0 2 1
1 , w2 =  1  , w3 =  0 }.
{w1 =      

0 1 −2

136

1
−2
Calcule a projeção ortogonal de v = 
 2  em W . Como a base dada é ortonormal, então:

−3

v · w1 v · w2 v · w3
PW (v) = w1 + w2 + w3
w1 · w1 w2 · w2 w3 · w3
     
1 −1 0
30 +
 −6   4
 2 +  1 
 
=
2 1 7  1  2 0 
0 1 −2
 
33
1  4 

= .
14  9 
−68

Processo de Ortogonalização de Gram-Schmidt

Seja um espaço V com produto interno e dimensão finita n, utilizando a projeção ortogonal é
possı́vel construir bases ortogonais para V a partir de uma base dada qualquer de V , o método
é chamado processo de ortogonalização de Gram-Schmidt.

Seja dimV = n e seja β = {u1 , · · · , un } uma base de V , a partir de β vamos construir uma base
ortogonal de V . A construção é feita por recorrência a partir do primeiro vetor de β. Iniciamos
tomando v1 = u1 e construı́mos o k-ésimo vetor, vk , pertencente ao complemento ortogonal
do espaço gerado pelos vetores anteriores, para garantir a ortogonalidade do conjunto, fazemos
isso substraindo de uk a sua projeção ortogonal sobre [v1 , . . . , vk−1 ]. Como

huk , v1 i huk , vk−1 i


Pv1 ,...,vk−1 (uk ) = v1 + . . . + vk−1 ,
hv1 , v1 i hvk−1 , vk−1 i

então
huk , v1 i huk , vk−1 i
vk = uk − Pv1 ,...,vk−1 (uk ) = uk − v1 − . . . − vk−1 ,
hv1 , v1 i hvk−1 , vk−1 i

137
assim, temos:

v1 = u1 ,
hu2 , v1 i
v2 = u2 − v1 ,
hv1 , v1 i
hu3 , v1 i hu3 , v2 i
v3 = u3 − v1 − v2
hv1 , v1 i hv2 , v2 i
..
.
huk , v1 i huk , v2 i huk , vk−1 i
vk = uk − v1 − v2 − . . . − vk−1 ,
hv1 , v1 i hv2 , v2 i hvk−1 , vk−1 i
..
.
hun , v1 i hun , v2 i hun , vn−1 i
vn = un − v1 − v2 − . . . − vn−1 .
hv1 , v1 i hv2 , v2 i hvn−1 , vi−1 i

No fim do processo obtemos a base ortogonal de V , {v1 , v2 , . . . , vn }. Notemos que em cada


passo da construção da base, os conjuntos de vetores

{v1 , . . . , vi } e {u1 , . . . , ui },

geram os mesmos espaços.


A partir da base ortogonal obtida, normalizando temos uma base ortonormal com a propriedade
acima.

Observação 4.30. Todo espaço com produto interno e de dimensão finita possui uma base
ortogonal e ortonormal, para isso basta tomar uma base qualquer de V e pelo processo de
Gram-Schmidt obter uma base ortogonal.

Exemplos 4.31.

1. Consideremos o espaço euclideano V = R3 , e a base,


     
1 0 −1
β = {u1 = 1 , u2 = 1 , u3 = −1},
    
0 −1 1
que claramente não é ortogonal. Usando o processo de Gram-Schmidt:
 
1
• v1 = 1

0
• Para calcular v2 será necessário, u2 · v1 = 1 e v1 · v1 = 2, assim,
     
0 1 −1
u2 · v1
v2 = u2 − v1 =  1  − 12 1 = 21  1 .
v1 · v1
−1 0 −2

138
• Como u3 · v1 = −2, u3 · v2 = −1 e v2 · v2 = 32 , então:
     1  
−1 1 −2 −1
u3 · v1 u3 · v2 2  1  1
v3 = u3 − v1 − v2 = −1 − (−1) 1 − (− 3 ) 2 = 3 1 .
   
v1 · v1 v2 · v2
1 0 −1 1
     
1 −1 −1
Portanto, { 1 , 1 , 1 } é uma base ortogonal de R3 . Normalizando obtemos
    
0 −2 1
a base ortonormal:      
1 −1 −1
1   1   1  
{√ 1 , √ 1 ,√ 1 }.
2 0 6 −2 3 1

2. Determine uma base ortogonal para o subespaço de R4 :


 
x
y  4
W = {
 z  ∈ R / x + y − w = 0, x + z − w = 0}

Primeiro determinemos uma base de W . Tomando z, w como variáveis livres, temos:


   
−1 1
1 0
z = 1, w = 0 ⇒ u1 = 
 1  e tomando z = 0, w = 1 ⇒ u2 = 0.
  

0 1

 
−1
1
• v1 = u1 = 
 1 .

0
• Para calcular v2 será necessário, u2 · v1 = −1 e v1 · v1 = 3, assim,
     
1 −1 2
u2 · v1 0 1  1  1 1
v2 = u2 − v1 = 0 + 3  1  = 3 1.
    
v1 · v1
1 0 3
   
−1 2
 1  1 4
Portanto, {
 1  , 1} é uma base ortogonal de R . Normalizando obtemos a base
  

0 3
ortonormal:    
−1 2
1  1  1 1
 
{√  ,√   }.
3 1  15 1
0 3

139
Operador de projeção ortogonal. Consideremos a aplicação que leva um vetor na sua
projeção ortogonal em W ,
PW : V −→ V
.
v → PW (v)
Pelas propriedades de linearidade e homogeneidade do produto interno, PW é um operador
linear. De acordo com a observação 18,

N uc(PW ) = W ⊥ , e Im(PW ) = W.

No contexto dos espaços euclideanos Rm vamos determinar a matriz associada a PW na base


canônica de Rm .
Matriz do operador de projeção ortogonal. Consideremos o espaço euclideano Rm e W
um subespaço de dimensão n ≤ m de Rm . Sabemos que a projeção ortogonal sobre W é um
operador PW : Rm → Rm , vamos determinar a matriz associada a PW na base canônica de Rm .
O teorema seguinte será necessário.

Teorema 4.32. Se as colunas de uma matriz A são linearmente independentes então At A é


invertı́vel.

Tomando uma base qualquer para W , construı́mos a matriz A de ordem m×n, cujas colunas são
os vetores da base, logo W = Col(A). Claramente para todo v ∈ Rm , PW (v) ∈ W = Col(A),
logo existe X ∈ Rn tal que PW (v) = AX.
Sendo AX a projeção ortogonal sobre W de v, temos:

v − AX ∈ W ⊥ = N ul(At ) ⇒ At (v − AX) = 0Rn ⇒ At v = At AX.

De acordo com o teorema acima, a matriz At A é invertı́vel, logo obtemos,

AX = A(At A)−1 (At A)X = A(At A)−1 At v.

Logo,
PW (v) = AX = A(At A)−1 At v,
portanto a matriz de PW na base canônica é

[PW ] = A(At A)−1 At .

Observação 4.33. Caso a base de W seja ortonormal, é simples ver que At A = Im , assim
[PW ] = AAt .

Exemplo 4.34.
 Determine
 o operador de projeção ortogonal sobre o espaço W gerado pelos
1 0
vetores u = −1 e v = 1 .
0 2

140
   
1 0   1 0    
t 1 −1 0  2 −1 t −1 1 5 1
Temos, A = −1 1 , logo A A =
  −1 1 =
 e (A A) = ,
0 1 2 −1 5 9 1 2
0 2 0 2
assim,
   
1 0    5 −4 2
t −1 t 1 5 1 1 −1 0
[PW ]C = A(A A) A = −1 1 = −4 5 2 ,
9 1 2 0 1 2
0 2 2 2 8

portanto  
5x − 4y + 2z
1
PW (x, y, z) = −4x + 5y + 2z  .
9
2x + 2y + 8z

4.6 Exercı́cios
   
2 3
1. Considere os vetores de R3 , u = −1, v =  0 . Determine hu + 3v, u − vi, k2u − vk,
3 −3
d(u, v), d(u + v, u − v) nos seguintes casos:
(a) h, i é o produto escalar.
(b) h, i é o produto interno com pessos p1 = 1, p2 = 2, p3 = 1
     
2 −1 2 −1
2. Considere o espaço vetorial V = R e os vetores u = ,v= , w= ∈ R2 ,
3 5 2
calcule k2u − vk e d(u + v, v − w) nos seguintes casos :
a) h, i é o produto escalar.
   
x1 y
b) , 1 = 3x1 y1 + 2x2 y2
x2 y2

3. Suponha que u, v, w são vetores de um espaço vetorial com produto interno h, i, tais que:
hu, vi = 2, hv, wi = −3, hu, wi = 5, kuk = 1, kvk = 2 e kwk = 7. Calcule:
a) hu + v, v + wi
b) h2v − w, 3u + 2wi
c) hu − v − 2w, 4u + vi
d) ku + vk e) k2w − vk f) ku − 2v + 4wk .

4. Sejam V um espaço vetorial com produto interno e u, v ∈ V tais que kuk = 3 e kvk = 5.
Se existirem, determine os valores de k ∈ R de forma que os vetores u − kv e u + kv sejam
ortogonais.

5. Sejam V um√espaço vetorial com produto interno e u, v ∈ V tais que kuk = 3, kvk = 4 e
ku + vk = 2 5. Determine o ângulo entre u e v.

141
6. Sejam V um espaço vetorial com produto interno e u, v ∈ V vetores
√ unitários e ortogonais.
Determine, justificando, se é verdadeiro ou falso que ku − vk = 2.

7. Seja V um espacio vetorial com produto interno, mostre que para todos u, v ∈ V tem-se:
(a) hu + v, u − vi = kuk2 − kvk2
(b) ku + vk2 + ku − vk2 = 2 kuk2 + 2 kvk2 .

8. Determine se o ângulo entre os vetores u, v ∈ V é agudo, obtuso ou reto.


   
2 1
3
(a) V = R , espaço euclideano e u = −1 e v = −2
  
1 −1
   
1 −3
 2

1
 
(b) V = R4 , espaço euclideano e u = 
3 e v = 2
4 −2

9. Considere o triâgulo ABC, com vértices A = (1, 1, −1), B = (−3, 2, −2) e C = (2, 2, −4).
Mostre que ABC é um triângulo retângulo.

10. Seja ABCD o retângulo com vértices A = (1, 2, 3), B = (3, 6, −2) e C = (0, 5, −4),
determine o vértice D.

11. Considere espaços euclideanos Rn . Em cada caso determine a dimensão e uma base para
o espaço indicado.
 
x

(a) W , onde W = { y  / 2x − y + 3z = 0}

z
 
x
(b) W ⊥ , onde W = {y  / x + y = 0, 2x − 2y − z = 0}
z
 
1 −1 3
5 2 1
(c) (Col(A))⊥ e N ul(A)⊥ , para A =  
0 1 −2
−1 −1 1
 
1 0
−1 1 
(d) (Col(A))⊥ e N ul(A)⊥ , para A =  3 −2

−2 1

12. Dados, em R3 , o produto interno e o subespaço W , determine a dimensão e uma base


para W ⊥ .

142
 
1
a) O produto escalar com pesos: p1 = 2, p2 = p3 = 1 e W é gerado pelos vetores −1 e
  1
1
 2 .
−1
 
z
b) O produto escalar com pesos: p1 = 2, p2 = 3, p3 = 4 e W = { y  : y, z ∈ R}.

z

√1
   
2
a
13. Considere o espaço euclideano R3 e os vetores u =  0  e v =  √12 . Determine valores
√1 −b
2
para a, b tais que o conjunto {u, v} seja ortonormal.

14. Considere o espaço euclideano R3 . Verifique que


     
−1 2 0
β = { 1  , 1 ,  1 }
1 1 −1

é uma
 base ortogonal de R3 . Use os coeficientes de fourier para determinar [w]β , sendo
4
w = 0.

1

15. Considere o espaço euclideano R3 . Verifique que


     
0 2 1
1   1   1  
β = {√ 1 , √ 1 , √ −1 }
2 −1 6 1 3 −1

3
é uma
 base
 ortonormal de R . Use os coeficientes de fourier para determinar [w]β , sendo
3
w = −2.

1

16. Sejam V um espaço vetorial com produto interno h, i e β uma base de V , use o processo
de Gram-Schmidt para achar uma base ortonormal β 0 de V, nos seguintes casos.
   
1 2
a) V = R2 munido do produto escalar e β = { , }
2 1
     
1 −1 −4
b) V = R3 munido do produto escalar e β = {2 ,  2  , −4}
3 1 0

143
c) V = R3 
munido
 do produto escalar com pesos p1 = 1, p2 = 2, p3 = 1 e β =
1 1 0
{1 , 0 , 2}
0 1 0
 
1
17. (a) Para o espaço euclideano R3 encontre uma base ortogonal que contenha o vetor 3
5
(b)
 Para
 o espaço euclideano R4 encontre uma base ortogonal que contenha os vetores
1 1
 2  0
 e 
−1 1
0 3
18. Determine bases ortonormais em relação ao produto escalar em Rn , para o subespaço
W de V :
   
1 1
3
(a) V = R , W1 , gerado por { 0 , −1}
  
1 0
 
x
3
(b) V = R , W2 = { y  ∈ R3 / x − y + z = 0}

z
 
x
 y
(c) V = R4 , W3 = { 4
 z  ∈ R /x + y − 2z − 2w = 0}.

w
19. Em cada caso, encontre a projeção ortogonal de v ∈ V sobre W , w = PW (v) e verifique
que w0 = v − PW (v) ∈ W ⊥ .
 
1
(a) V e W = W1 dados no exercı́cio 18(a) e v = −1
2
 
−1
(b) V e W = W2 dados no exercı́cio 18(b) e v = −1
1
 
1
0
(c) V e W = W3 dados no exercı́cio 18(c) e v =  −1

0
 
x
20. Seja W o subespaço W = {y  ∈ R3 /5x − 3y + z = 0}. Determine a matriz do operador
z
de projeção ortogonal PW , na base canônica de R3 .

144
21. Considere o operador P sobre R2 de projeção ortogonal sobre a reta
 que passa pela origem

cos2 θ sen θcos θ
e de inclinação θ. Mostre que a matriz na base canônica de P é .
sen θcos θ sen θ

22. Em cada caso determine se a matriz A dada é ortogonal, nesse caso determine sua inversa.
 1  1 1 1 1

1  1 1
0 1 − √ √ √

√ 2 2 2 2
2
 2 − √62 √13  1 −5 1 1 
a) A = 1 0 0  b) A =  0
 c) A =  21 1 6 61 6 
5
6 3 −

1 1 1 1

0 0 √2 √ √ √ 2 6 6 6
1 1 5 1
2 6 3
2 6
− 6 6

23. Considere as bases ordenadas de R2 :


       
1 −1 1 3 1 2 1 1
α = {√ ,√ }, β = { √ ,√ }
10 3 10 1 5 −1 5 2

Mostre que as bases são ortonormais e calcule a matriz mudança de base de α para β.

24. Seja θ ∈ R e considere no espaço euclideano R3 a base


     
cos θsen θ −cos θ −sen2 θ
α = { cos2 θ  ,  sen θ  , −cos θsen θ}.
sen θ 0 cos θ

Sendo C a base canônica, determine a matriz [I]C


α . Esta matriz é ortogonal?

4.7 Solução em Mı́nimos Quadrados


Melhor Aproximação

No espaço euclideano R3 temos que a distância de um vetor v a um plano W que passa pelo
origem, é dada pelo comprimento do segmento perpendicular de v a W , ou seja v − PW , e
trata-se da menor distância de v a um vetor de W . Temos a mesma situação em um espaço V
com produto interno h, i.

145
Sejam W um subespaço de V e um vetor v ∈ V , verifiquemos que a menor distância de v
a vetores de W é kv − PW (v)k. Notemos que, para todo w ∈ W os vetores v − PW (v) e
PW (v) − w ∈ W são ortogonais, usando Pitágoras temos:

kv − wk2 = kv − PW (v)k2 + kPW (v) − wk2 ≥ kv − PW (v)k2 .

Logo, kv − PW (v)k é a menor das distâncias de v a vetores de W , ou seja,

kv − PW (v)k = minw∈W kv − wk ,

por isto o vetor PW (v) é dito melhor aproximação de v em W .


Definimos a distância de v a W : d(v, W ) = kv − PW (v)k.

Soluções em mı́nimos Quadrados (SMQ)

Consideremos o sistema linear AX = b, onde A é uma matriz m × n e b ∈ Rm . Se o sistema


/ Col(A), podemos determinar X ∈ Rn
linear AX = b não tiver solução, isto acontece quando b ∈
tal que, com relação ao produto escalar em Rm :

kAX − bk seja mı́nimo.

Seja W = Col(A), assim basta resolver AX = PW (b), pois a projeção ortogonal determine
a distância mı́nima desde b. A solução X ∈ Rn existe, pois agora PW (b) ∈ Col(A), e é dita
solução em mı́nimos quadrados (SMQ), o valor e = kAX − bk é chamado erro da SQM.

Determinação da SMQ.
Procuramos X tal que, AX = PW (b), como visto anteriormente:

AX = PW (b) ⇒ At (b − AX) = 0Rn ,

assim obtemos a equação,

At AX = At b,

chamada equação normal.


Se as colunas de A são LI, temos que At A é invertı́vel, logo a SMQ de AX = b é,

X = (At A)−1 At b.

Exemplo 4.35. Considere o sistema,


    
 x + y = 2 1 1   2
x + 2y = 2 ou 1 2 x = 2 .
y
x + 3y = 4 1 3 4

O sistema não tem solução, de fato,

146
     
1 1 2 1 1 2 1 1 2
 1 2 2  →  0 1 0  →  0 1 0 , mostra que o sistema é impossı́vel.
1 3 4 0 2 2 0 0 2
Para determinar
 a SMQ do sistema, consideremos a equação normal: At AX = t
 A b. Neste
1 1 2
caso, A =  1 2  tem colunas LI (ou seja que At A será invertı́vel) e b =  2 , logo a
1 3 4
equação normal é:
   
  1 1     2
1 1 1  x 1 1 1  
At AX = 1 2  = At b = 2
1 2 3 y 1 2 3
1 3 4
    
3 6 x 8
= ,
6 14 y 18
logo,    −1       
x 3 6 8 1 14 −6 8 1 4
X= = = = .
y 6 14 18 6 −6 3 18 6 6
Logo, x = 2/3 e y = 1. O erro cometido pela aproximação é dado por e = kAX − bk. Como
     
1 1   2 −1/3
2/3
AX − b =  1 2  −  2  =  2/3  ,
1
1 3 4 −1/3
q p
1
então, e = 9
+ 49 + 1
9
= 2/3 ≈ 0, 81.

147
Capı́tulo 5

AUTOVALORES, AUTOVETORES E
DIAGONALIZAÇÃO

5.1 Autovalores e Autovetores


Consideremos que V é um espaço vetorial real de dimensão finita.

Definições 5.1.

1. Autovalores e Autovetores para Operadores. Seja T : V → V um operador linear.


Um vetor v ∈ V não nulo, é dito autovetor , vetor próprio ou vetor caracterı́stico
do operador T , se existir λ ∈ R tal que T (v) = λv. E ainda, o escalar λ é dito
autovalor , valor próprio ou valor caracterı́stico do operador T associado ao
autovetor v.

2. Autovalores e Autovetores para Matrizes. Seja A uma matriz quadrada de ordem


n. Um vetor v ∈ Rn , v 6= 0 é dito autovetor , vetor próprio ou vetor caracterı́stico
da matriz A, se existir λ ∈ R tal que Av = λv. O escalar λ é dito autovalor , valor
próprio ou valor caracterı́stico da matriz A associado ao autovetor v.

Observação 5.2. Seja T um operador sobre Rn , ou seja, T : Rn → Rn , T (v) = Av, v ∈ Rn ,


onde A é a matriz de T na base canônica de Rn . É claro que neste caso,

λ autovalor de T ⇔ λ autovalor de A,

v autovetor de T associado a λ ⇔ v autovetor de A associado a λ.

148
Exemplos 5.3.

1. O operador identidade IV : V :→ V , tem autovalor 1, pois


T (v) = v = 1 · v, ∀ v ∈ V, v 6= 0V
logo, todo vetor v 6= 0V é autovetor de IV associado ao autovalor 1.
2. O operador nulo N sobre V tem autovalor 0, pois
N (v) = 0V = 0 · v, ∀ v ∈ V, v 6= 0V
todo vetor v 6= 0V é autovetor de N associado ao autovalor 0.
      
2 2 x −7x + 10y −7 10 x
3. O operador T : R → R , T ( )= = possui autovetores
    y −5x + 8y −5 8 y
2 1
u= ev= associados aos autovalores −2 e 3 respectivamente, pois
1 1
     
2 −4 2
T (u) = T ( )= = −2 = −2u
1 −2 1
e,      
1 3 1
T (v) = T ( )= =3 = 3v.
1 3 1
Também podemos dizer que a matriz,
 
−7 10
A=
−5 −8
possui autovetores u e v associados aos autovalores −2 e 3 respectivamente, pois
Au = −2u e Av = 3v.

4. Alguns operadores do plano.


   
x x
• Contração e Dilatação. O operador T : R → R , T (
2 2
) = c , onde c > 0,
y y
claramente tem autovalor c e todo vetor não nulo de R2 é autovetor associado ao
autovalor c.    
x x
• Reflexão pelo eixo x. Para o operador de reflexão T : R → R , T (
2 2
)= os
y −y
vetores no eixo x são autovetores de T associados ao autovalor 1, pois
   
x x
T( )= .
0 0
Vetores no eixo y são autovetores de T associados ao autovalor −1, pois
   
0 0
T( )=− .
y y

149
 
x
• Rotação. O operador de rotação pelo ângulo 0 ≤ θ ≤ 2π, Rθ : R → R , Rθ (
2 2
)=
   y
cos θ −sen θ x
não tem autovalores reais e portanto não tem autovetores no
sen θ cos θ y
plano, exceto nos casos θ = 0 e θ = π, com autovalores 1 e −1, respectivamente.
Definição 5.4. Seja λ um autovalor do operador linear T : V → V . O conjunto

Vλ = {v ∈ V | T (v) = λv}

composto por todos os autovetores associados a λ junto com o vetor nulo, é um subespaço de V
e é denominado autoespaço associado ao autovalor λ. Analogamente se A é uma matriz
com autovalor λ, temos que
Vλ = {v ∈ Rn | Av = λv},
é um subespaço vetorial de Rn .

Como calcular Autovalores e Autoespaços.

Seja A uma matriz quadrada de ordem n, então λ ∈ R é um autovalor de A, se e somente se,


existir um vetor v ∈ Rn , v 6= 0 tal que Av = λv, mas

Av = λv, v 6= 0 ⇔ Av − λv = 0, v 6= 0
⇔ Av − λIn v = 0, v 6= 0
⇔ (A − λIn )v = 0, v 6= 0
⇔ det(A − λIn ) = 0,

onde In é a matriz identidade de ordem n. Logo,

λ autovalor de A ⇔ det(A − λIn ) = 0

det(A − λIn ) = 0 é uma equação polinomial de grau n em λ e é denominada de equação


caracterı́stica e o polinômio,
pA (λ) = det(A − λIn )
é denominado de polinômio caracterı́stico de A.
Se considerarmos um operador linear T sobre um espaço vetorial V de dimensão n com base
α, então utilizando as coordenadas em α, obtemos,

λ autovalor de T ⇔ det([T ]α − λIn ) = 0,

da mesma forma, det([T ]α − λIn ) = 0 é a equação caracterı́stica de T e,

pT (λ) = det([T ]α − λIn )

é o polinômio caracterı́stico de T .
Considerando R como corpo de escalares, a importância do polinômio caracterı́stico de um
operador ou de uma matriz, está no fato de suas raı́zes reais serem exatamente os autovalores.

150
Observação 5.5. O polinômio caracterı́stico de um operador linear é independente da base
escolhida? Para responder a questão tomemos as bases α e β de V , sabemos que [T ]α e [T ]β
são matrizes semelhantes, ou seja,
[T ]α = P −1 [T ]β P,
logo,
[T ]α − λIn = P −1 [T ]β P − λIn = P −1 ([T ]β − λIn )P,
mas as matrizes semelhantes tem o mesmo determinante, logo

pT (λ) = det([T ]α − λIn ) = det([T ]β − λIn ).

Após obter os autovalores, os autoespaços podem ser determinados da seguinte forma.

• Para uma matriz A, dado um autovalor λ temos,


Vλ = {v ∈ Rn | (A − λIn )v = 0V } = N ul(A − λIn ).

• Para um operador T : V → V , se λ é um autovalor temos,


Vλ = {v ∈ V | (T − λIV )(v) = 0V },
considerando uma base α de V ,
Vλ = {v ∈ V | ([T ]α − λIn )[v]α = 0Rn },
no caso particular e usual T : Rn → Rn , tomamos C = α = base canônica de Rn , então
Vλ = {v ∈ Rn | ([T ]C − λIn )v = 0Rn } = N ul([T ]C − λIn ).
Exemplo 5.6. Para cada matriz ou operador linear abaixo, determine o polinômio carac-
terı́stico, os autovalores reais (se possı́vel) e os seus respectivos autoespaços.
 
1 −4
1. A = .
2 −5

Polinômio Caracterı́stico e autovalores. Temos que pA (λ) = |A − λI2 | e neste caso,


     
1 −4 1 0 1−λ −4
A − λI2 = −λ = .
2 −5 0 1 2 −5 − λ
Logo,
1−λ −4
pA (λ) = = λ2 + 4λ + 3.
2 −5 − λ
Fatoramos para obter as raizes,
pA (λ) = λ2 + 4λ + 3 = (λ + 1)(λ + 3)

logo, os autovalores de A são λ1 = −1 e λ2 = −3.

151
Autoespaços associados.
 
x
• Para λ = −1, os autovetores associados são as soluçẽs v = não nulas do sistema
y
homogêneo com matriz de coeficientes
   
2 −4 1 −2
A − (−1)I2 = A + I2 = → ,
2 −4 0 0
 
2y
logo x − 2y = 0 ⇒ x = 2y, portanto V−1 = { | y ∈ R}.
y
 
x
• Para λ = −3, os autovetores associados são as soluçẽs v = não nulas do sistema
y
homogêneo com matriz de coeficientes
   
4 −4 1 −1
A − (−3)I2 = A + 3I2 = → ,
2 −2 0 0
 
x
logo x − y = 0 ⇒ x = y, portanto V−3 = { | x ∈ R}.
x
2. Consideremos o operador de rotação no plano, com ângulo de θ = π2 , dado por
      
2 2 x 0 −1 x −y
R : R → R , R( )= = .
y 1 0 y x

Polinômio Caracterı́stico e autovalores. Seja [R] a matriz de R na base canônica de


R2 , temos que pR (λ) = |[R] − λI2 | e neste caso,
     
0 −1 1 0 −λ −1
[R] − λI2 = −λ = .
1 0 0 1 1 −λ
Logo,
−λ −1
pR (λ) = = λ2 + 1,
1 −λ
o polinômio caratcterı́stico não possui raı́zes reais, logo R não possui autovalores reais.
   
x y+z
3. T : R3 → R3 definida por T (y ) = x + z ;
z x+y

Polinômio Caracterı́stico e Autovalores.  Vamos considerar


 a matriz associada a T
0 1 1 1 0 0
relativa à base canônica de R3 , [T ] = 1 0 1 e I3 = 0 1 0,
1 1 0 0 0 1
assim,      
0 1 1 1 0 0 −λ 1 1
[T ] − λI3 = 1 0 1 − λ 0 1 0 =  1 −λ 1  .
1 1 0 0 0 1 1 1 −λ

152
Então,
−λ 1 1 2−λ 2−λ 2−λ
det([T ] − λI3 ) = 1 −λ 1 = 1 −λ 1
1 1 −λ 1 1 −λ
1 1 1
= (2 − λ) 1 −λ 1
1 1 −λ
1 1 1
= (2 − λ) 0 −1 − λ 0
0 0 −1 − λ
= (2 − λ)(−1 − λ)2 = (2 − λ)(1 + λ)2

Logo, os autovalores de T são λ1 = 2, λ2 = −1.


Autoespaços.
 
x
• Para λ = 2, os autovetores associados são as soluçẽs v = y  não nulas do sistema
z
homogêneo com matriz de coeficientes
     
−2 1 1 −2 1 1 −2 1 1
[T ] − 2I3 =  1 −2 1  →  0 −3 3  →  0 −1 1
1 1 −2 0 3 −3 0 0 0
   
−2 0 2 1 0 −1
→  0 −1 1 → 0 1 −1 ,
 
0 0 0 0 0 0

x−z = 0
o sistema homogêneo é com solução x = z, y = z, z ∈ R , portanto
  y − z = 0
z
V2 = { z  | z ∈ R}.

z
 
x
• Para λ = −1, os autovetores associados são as soluçẽs v = y  não nulas do sistema

z
homogêneo com matriz de coeficientes
   
1 1 1 1 1 1
[T ] + I3 = 1 1 1 → 0 0 0 ,
1 1 1 0 0 0
o sistema
 homogêneo
 é x + y + z = 0 com solução x = −y − z, y, z ∈ R , portanto
−y − z
V−1 = { y  | y, z ∈ R}.
z

153
Multiplicidade de Autovalores

Seja p(x) o polinômio caracterı́stico de uma matriz quadrada de ordem n ou de um operador


sobre um espaço de dimensão n. Se λ ∈ R é um autovalor, ou seja uma raiz de p(x), define-se,

• Multiplicidade algébrica de λ, como o inteiro m ≥ 1 tal que

p(x) = (x − λ)m q(x), onde q(λ) 6= 0,

ma (λ) denota a multiplicidade algébrica de λ, é claro que ma (λ) ≤ n = gr(p).

• Multiplicidade geométrica de λ, como a dimensão do espaço Vλ . A multiplicidade


geométrica de λ é denotada por mg (λ), é claro que 1 ≤ mg (λ) ≤ n.

Exemplo 5.7. 1. Para a matriz do exemplo 5.6(1), vimos que o polinômio caracterı́stico de
A é,
p(λ) = (λ + 1)(λ + 3),
e seus autovalores são −1 e −3, assim temos

ma (−1) = ma (−3) = 1.

Como os autoespaços associados são V−1 = {(2y, y)|y ∈ R} e


V−3 = {(y, y)|y ∈ R}, então
mg (−1) = mg (−3) = 1.

2. Para o operador do exemplo 5.6(3), vimos que o polinômio caracterı́stico de A é,

p(λ) = (2 − λ)(λ + 1)2 ,

e seus autovalores são 2 e −1, logo

ma (2) = 1 e ma (−1) = 2.

Sobre os autoespaços associados notemos que


   
1 z
{1} é uma base para V2 = {z  | z ∈ R}
1 z
e      
−1 −1 −y − z
{ 1  ,  0 } é uma base para V−1 = { y  | y, z ∈ R},
0 1 z
logo, mg (2) = dimV2 = 1 e mg (−1) = dimV−1 = 2.

154
5.2 Diagonalização de Operadores e Matrizes
Estaremos considerando V como espaço real de dimensão finita, todas as matrizes com elemen-
tos reais e os escalares também em R.

Exemplo 5.8. Seja T : R2 → R2 o operador dado no exemplo 5.3(3), vamos determinar uma
representação matricial especial de T .
   
2 1
Verificamos que T tem autovalores −2 e 3 com autovetores, u = associado a −2 e v =
1 1
associado a 3, ou seja T (u) = −2u e T (v) = 3v. Considerando que o conjunto de autovetores
α = {u, v} é uma base para R2 , podemos determinar [T ]α .
 
−2
T (u) = −2u + 0 · v ⇒ [T (u)]α = ,
0

e  
0
T (v) = 0 · u + 3v ⇒ [T (v)]α = ,
3
 
−2 0
logo [T ]α = , concluı́mos que a representação matricial de T na base de autovetores α
0 3
é uma matriz diagonal onde os elementos da diagonal são os autovalores.

Proposição 5.9. Dada uma base ordenada α de V , temos

[T ]α é uma matriz diagonal ⇔ α é uma base de autovetores de T.

Definição 5.10. Seja T um operador linear sobre o espaço vetorial V . Dizemos que T é
diagonalizável , se existe uma base α de V tal que [T ]α é uma matriz diagonal. Pela proposição
5.9, T é diagonalizável, se e somente se, existe uma base α de V , composta de autovetores de
T.

Observação 5.11. Se T é diagonalizável e α = {v1 , . . . , vn } é uma base de autovetores de V ,


temos que,

• Se vi é um autovetor associado ao autovalor λi , logo,

T (vi ) = λi vi = 0 · v1 + . . . + λi vi + . . . + 0 · vn , 1 ≤ i ≤ n

então a matriz diagonal D = [T ]α é uma matriz real da forma,


 
λ1 0 . . . 0
 0 λ2 . . . 0 
D =  .. ..  .
 
..
. . .
0 0 . . . λn

155
• Se β é uma base qualquer de V , então [T ]β e D são semelhantes, de fato:

[T ]β = P · D · P −1 , onde P = [I]αβ .

Como o traço é invariante por semelhança, temos que:

λ1 + . . . + λn = tr(D) = tr([T ]β ).

Definição 5.12. Dizemos que uma matriz quadrada A de ordem n é diagonalizável sobre
R, ou simplesmente diagonalizável, quando o operador T sobre Rn , dado por T (v) = Av é
diagonalizável, isto significa que deve existir uma base α de Rn composta de autovetores de A.
Se C é a base canônica de Rn e cada vetor vi de α é um autovetor associado ao autovalor λi ,
para 1 ≤ i ≤ n, então
 
λ1 0 . . . 0
 0 λ2 . . . 0 
−1 α
A = P · D · P , onde D =  .. ..  e P = [I]C .
 
..
. . .
0 0 . . . λn

Proposição 5.13. Sejam λ1 , λ2 , . . . , λr , r ≤ n os autovalores reais distintos de uma matriz


quadrada de ordem n ou de um operador sobre um espaço vetorial V de dimensão n, nestas
condições temos,

1. mg (λi ) = dim Vλi ≤ ma (λi ).

2. A reunião das bases dos espaços Vλi é um conjunto LI.

Teorema 5.14. Uma matriz real quadrada de ordem n ou um operador sobre um espaço
vetorial real V de dimensão n será diagonalizável sobre R, se e somente se,

1. Todos as raı́zes λi do polinômio caracterı́stico são reais.

2. mg (λi ) = ma (λi ).

Neste caso, a reunião das bases de cada Vλ é a base de autovetores procurada.

Observação 5.15. Se todos os autovalores são reais e diferentes, então 1 ≤ mg (λi ) ≤ ma (λi ) =
1, ou seja mg (λi ) = 1, logo o operador ou a matriz serão diagonalizáveis.

Exemplo 5.16.

1. O operador linear identidade sobre V , IV é diagonalizável, pois qualquer base α é com-


posta por autovetores, logo D = [IV ]α = In .
O operador nulo N sobre V é diagonalizável, pois qualquer base α de V será uma base
de autovetores e D = [N ]α = 0n×n .

156
O operador de rotação Rπ/2 sobre R2 não é diagonalizável, pois não possui autovetores
em R2 .
 
1 −4
A matriz A = do exemplo 5.6(1) é diagonalizável, pois R2 tem a base composta
2 −5    
2 1
de autovetores, α = {u = ,v = }, onde u está associado ao autovalor −1 e v está
1 1
associado ao autovalor −3. Portanto,
     
1 −4 −1 0 −1 2 1
A= =P P , onde P = .
1 −5 0 −3 1 1
 
x
3 3
2. Considere o operador linear do exemplo 5.6(3), T : R → R definida por T y  = 
  z
y+z
x + z . Vimos que as raizes de pT são reais, de fato λ = 2 e λ = −1 e que,
x+y

ma (−1) = mg (−1) = 2, ma (2) = mg (2) = 1,

assim o operador T é diagonalizável.


Reunindo as bases de V−1 e V2 temos a base de autovetores para R3 ,
     
−1 −1 1
α = { 1  ,  0  , 1},
0 1 1
   
−1 0 0 −1 −1 1
∴ [T ]C = P ·  0 −1 0 · P −1 , onde P = [I]αC =  1 0 1 .
0 0 2 0 1 1
 
0 1 0
3. A matriz A = 0 0 1, tem polinômio caracterı́stico,
0 0 2

−λ 1 0
pA (λ) = |A − λI3 | = 0 −λ 1 = λ2 (2 − λ),
0 0 2−λ

logo os autovalores são λ1 = 0 e λ2 = 2.

• Para λ1 = 0, a matriz de coeficientes do sistema homogêneo é


   
0 1 0 0 1 0 
y= 0
A − 0 · I3 = A = 0 0 1 → 0 0 1 ⇒ ,
z= 0
0 0 2 0 0 0

157
 
x
logo V0 = { 0  | x ∈ R} tem dimensão 1, então

0

mg (0) = 1 6= ma (0) = 2,

portanto A não é diagonalizável.


 
3 2 0 0
5 0 0 0
4. Seja a matriz A = 
0
. A tem polinômio caracterı́stico,
0 0 1
0 0 1 0

3−λ 2 0 0
5 −λ 0 0
pA (λ) = |A − λI4 | =
0 0 −λ 1
0 0 1 −λ
3 − λ 2 −λ 1
=
5 −λ 1 −λ
= (λ2 − 3λ − 10)(λ2 − 1)
= (λ − 5)(λ + 2)(λ − 1)(λ + 1)

logo os autovalores são,

λ1 = 5, λ2 = −2, λ3 = 1, λ4 = −1.

Como todos os autovalores são reais e diferentes, então A é diagonalizável. Calculando os


autovetores,
   
−2 2 0 0 1
 5 −5 0 0 1 ,
  
A − 5I4 =  ⇒ x = y; z = w = 0 ⇒ v 1 =
0 0 −5 1  0
0 0 1 −5 0
   
5 2 0 0 2
5 2 0 0 −5
A + 2I4 = 0 0 2 1 ⇒ 5x + 2y = 0; z = w = 0 ⇒ v2 =  0  ,
  

0 0 1 2 0
   
2 2 0 0 0
5 −1 0 0 0 ,
  
A − I4 = 0 0 −1 1  ⇒ x = y = 0; z = w ⇒ v3 = 1
0 0 1 −1 1
   
4 2 0 0 0
5 1 0 0 0
A + I4 = 0 0 1 1 ⇒ x = y = 0; z + w = 0 ⇒ v4 =  1  .
  

0 0 1 1 −1

158
Logo, com α = {v1 , v2 , v3 , v4 } temos,
   
5 0 0 0 1 2 0 0
0 −2 0 0  1 −5 0 0 
A = P · D · P −1 , com D =   α
0 0 1 0  , P = [I]C = 0 0 1 1  .
 

0 0 0 −1 0 0 1 −1

E verifica-se que o traço de A é a soma dos autovalores: tr(A) = 3 = 5 − 2 + 1 − 1.

5.3 Aplicações
Cálculo de Potências. Se A é uma matriz diagonalizável, podemos obter uma fórmula para
cálculo de Ak em função somente de k.
De fato, suponha que temos uma base α de autovetores de Rn tal que
 
λ1 0 . . . 0
 0 λ2 . . . 0
A = P · D · P −1 , onde D =  ..  e P = [I]αC .
 
.. ..
. . . 0
0 0 ... λn

Logo,
Ak = (P · D · P −1 )k = (P · D · P −1 ) · . . . · (P · D · P −1 ) = P · Dk · P −1 ,
para obter Dk basta efetuar as potências na diagonal,
 
λk1 0 ... 0
0 λk2 . . . 0 
 −1
Ak = P ·  .. ·P ,

.. ..
. . . 0
0 0 . . . λkn
 
1 −4
Exemplo 5.17. Vimos nos exemplos 5.6(1) e 5.16(1) e que a matriz A = é diagona-
2 −5
lizável e que,    
−1 0 −1 2 1
A=P P , onde P = ,
0 −3 1 1
logo,
 k
−1 0
A k
= P P −1
0 −3
   
2 1 (−1)k 0 1 −1
=
1 1 0 (−3)k −1 2
 
2(−1)k − (−3)k −2(−1)k + 2(−3)k
=
(−1)k − (−3)k −(−1)k + 2(−3)k .

159
Sistemas lineares de EDO’s. Do cálculo sabemos que uma função diferenciável x = x(t)
que satisfaz a equação diferencial da forma,

x0 = kx, onde k é uma constante,

tem a forma geral, x(t) = Cekt , onde C é uma constante. Dada a condição inicial, x(0) = x0 ,
substituindo na solução temos C = x0 , logo a única solução é da forma, x(t) = x0 ekt .
Suponhamos que temos n funções diferenciáveis de t, x1 , x2 , . . . , xn , que satisfazem o sistema
de equações diferenciais da forma,


 x01 = a11 x1 + a12 x2 + . . . + a1n xn
 x0 = a21 x1 + a22 x2 + . . . + a2n xn

2
.. .

 .
 x0 = a x + a x + . . . + a x

n n1 1 n2 2 nn n

Podemos escrever o sistema na forma


  
x1 x01
 x2   x0 
0 0  2
(∗) X = A · X, onde X =  ..  , X =  ..  e A = [aij ],
 
. .
xn x0n

e supor a condição inicial: X0 = X(0).


 
4 0
Notemos que, caso A for uma matriz diagonal, por exemplo A = , então o sistema é da
0 3
forma,  0
x1 = 4x1
,
x02 = 3x2
cada equação resolvida separadamente, resulta diretamente na solução,

x1 (t) = C1 e4t , x2 (t) = C2 e3t .

Isto leva a considerar casos onde A é uma matriz diagonalizável. Assim temos o sistema geral
dado em (∗):
X 0 = AX
,
X0 = X(0)
onde A é diagonalizável com base de autovetores α = {v1 , . . . , vn } associados aos autovalores
λ1 , . . . , λn ou seja que,
A = P DP −1 , onde P = [v1 · · · vn ].
Colocamos Y = P −1 X que implica em Y 0 = P −1 X 0 e substituı́mos em (∗):

X 0 = AX ⇒ X 0 = P DP −1 X ⇒ P −1 X 0 = DP −1 X = D(P −1 X),

assim,
Y 0 = DY

160
 
C1 eλ1 t
 C2 eλ2 t 
cuja solução é, Y =  .. , portanto a solução procurada é,
 
 . 
Cn eλn t

X = P Y = [v1 · · · vn ]Y = C1 eλ1 t v1 + C2 eλ2 t v1 + . . . + Cn eλn t vn ,

onde as constantes são determinadas fazendo t = 0 na igualdade acima, isto é:

X0 = C 1 v 1 + . . . + C n v n ,

ou na forma matricial:  
C1
 C2 
 ..  = [v1 · · · vn ]−1 X0 .
 
 . 
Cn

Exemplo 5.18. Uma população de esquilos e raposas habitam o mesmo ecosistema e compe-
tem por comida, água e espao̧. Sejam as populações de raposas e esquilos em t horas dadas
por r(t) e s(t), respectivamente. Em ausência de esquilos as raposas crescem a uma taxa de
r0 (t) = 2, 5r(t), mas quando os esquilos estão presentes a competição retarda o crescimento das
raposas para r0 (t) = 2, 5r(t)−s(t). Da mesma forma a população de esquilos é afetada pelas ra-
posas, assim em ausência das raposas os esquilos crescem a uma taxa de s0 (t) = 2, 5s(t) e quando
compartilham o ecosistema a taxa de crescimento dos esquilos é de, s0 (t) = −0, 25r(t) + 2, 5s(t).
Suponha que inicialmente existem 60 raposas e 60 esquilos no ecosistema. Determine o com-
portamento das populações.
Solução. O sistema é
r0 = 2, 5r − s

.
s0 = −0, 25r + 2, 5s
Na forma matricial,
X 0 = AX,
   
r(t) 2, 5 −1
onde X = X(t) = eA= .
s(t) −0, 25 2, 5
O polinômio caracterı́stico é,

2, 5 − λ −1
pA = = λ2 − 5λ + 6 = (λ − 2)(λ − 3) ⇒ λ1 = 2, λ2 = 3.
−0, 25 2, 5 − λ

• Para λ1 = 2, temos
     
0, 5 −1 1 −2 2
A − 2I2 = → ⇒ v1 =
−0, 25 0, 5 0 0 1

161
• Para λ1 = 3, temos
     
−0, 5 −1 1 2 −2
A − 3I2 = → ⇒ v2 = .
−0, 25 −0, 5 0 0 1

Portanto a solução é,


   
2t 3t 2t 2 3t −2
X(t) = C1 e v1 + C2 e v2 = C1 e + C2 e .
1 1
   
r(0) 60
A população inicial é X(0) = = , fazendo t = 0 na equação acima, temos
      s(0) 60
2 −2 60
C1 + C2 = ⇒ C1 = 45, C2 = 15, assim,
1 1 60
   
2t 2 3t −2
X(t) = 45e + 15e .
1 1

De onde, r(t) = 90e2t − 30e3t e s(t) = 45e2t + 15e3t .

5.4 Exercı́cios
1. Para cada caso, mostre que v é um autovetor de A e determine o autovalor correspondente.
       
4 0 1 1 2 −1 −1 1
(a) A = 2 3 2 e v = 2 (b) A = −1 2 −1 e v = 1
1 0 4 1 −1 −1 2 1

2. Para as seguintes matrizes no espaço de matrize reais Mn×n (R) respectivo, ache o po-
linômio caracterı́stico, todos os autovalores e uma base para cada autoespaço.
 
    2 −1 3
3 2 −2 −7
(a) A = (b) A = (c) A = 1 1 −1
−1 0 1 2
1 −2 4
 
  2 0 0 4
1 −3 3 0 2 0 0
(d) A = 3 −5 3 (e) A = 0 0 −2 0 

6 −6 4
0 0 0 −2
3. Para cada um dos seguintes operadores encontre todos os autovalores e uma base para
cada autoespaço.
   
2 2 x 3x + 3y
(a) T : R → R , T ( )=
y x + 5y
   
x x−y
(b) T : R3 → R3 , T (y ) = 2x + 3y 
z x + 5y

162
4. Por inspeção determine os autovalores de cada matriz.
 1 
 √
  −3 0 0 0
3 0 0
0 − 13

− 2 √ 6  0 0
(a) (b) 2 7 0 (c) 
 0

0 5 2 0 1 0
4 8 1
0 0 0 12

5. Justifique o seguinte fato: Os autovalores de uma matriz A são exatamente os autovalores


de At . E os autovetores de A e At ? Sugestão: Pense no polinômio caracterı́stico de A e
At .

6. Justifique as seguintes proposições válidas para um operador linear ou para matriz qua-
drada A de ordem n.
(a) A é invertı́vel se e somente se 0Rn não é autovalor de A.
(b) Se A é invertı́vel então os autovalores de A−1 são da forma λ1 , onde λ é autovalor de
A e os autovetores de A−1 são exatamente os autovetores de A associados a λ.

7. Para cada uma das matrizes dadas no exercı́cio 2:


(a) A é invertı́vel?
(b) Nos casos para os quais A é invertı́vel, determine os autovalores e autoespaços de A−1 .

8. Suponha que o polinômio caracterı́stico de uma matriz A é p(x) = (x − 1)(x − 3)2 (x − 4)3 ,
responda justificando:
(a) Qual a ordem de A?
(b) A é invertı́vel?
(c) Quantos autoespaços tem A?

9. Para as matrizes do exercı́cio 2 e os operadores do exercı́cio 3, determine quais são diago-


nalizáveis, em caso afirmativo determine a matriz invertı́vel P tal que P −1 AP é diagonal,
sendo A a matriz dada ou a representação do operador na base canônica dada.
3
10. Um operador linear
 sobre R, tem  as seguintes propriedades: tem  autovalores
 2 −1 e
3 1 0
autovetores v1 = 1, v2 = −1 ambos associados a 2 e v3 =  1  associado a −1.
2 0 −1  
x
Mostre que T é diagonalizável e usando a diagonalização determine T ( y ).

z

11. Seja T : R2 → R2 um operador linear cuja representação matricial na base canônica é:
 
0 a
[T ] = .
b 0

Para que valores de a e b T é diagonalizável?

163
3 3
 T : R →R 
12. Seja um operador linear
 cuja representação
 matricial na base de R3 , β =
1 1 −1 1 1 1
{ 0 , −1 , 1 } é: A = [T ]β = 1 1
       1. Mostre que T é diagonalizável e calcule
0 0 1 1 1 1
uma base formada por autovetores.
 
1 k 0
13. Determine os valores de k ∈ R de forma que seja diagonalizável a matriz, A = 0 2 0.
0 0 1

14. (a) Considere o operador sobre R2 de reflexão com relação a uma reta y = mx. Analice
em que casos é diagonalizável.
(b) Considere o operador sobre R2 de reflexão com relação ao origem (0, 0) do sistema
cartesiano. Determine se é diagonalizável ou não.
(c) Considere o operador sobre R2 de rotação no sentido anti-horário com ângulo θ.
Analice em que casos é diagonalizável.
(d) Considere o operador sobre R3 de rotação em torno do eixo x, no sentido positivo,
com ângulo θ. Analice em que casos é diagonalizável.

15. Considere as matrizes:


   
  1 −2 3 0 0 −2
−4 −3
A= B =  0 −1 3  e C = 1 2 1  .
10 7
0 0 1 1 0 3

Use diagonalização para calcular A10 , B 35 e C 13 .

16. Use diagonalização para determinar a solução do sistema de equações diferenciais dado.
 
 x0 = x−y  x0 = 5x − 8y
0 0
(a) y = −x + y (b) y = −2x + 5y
x0 = 3 e y0 = 1 x0 = 1 e y0 = 1
 


 x0 = 4x + z
y0 = −2x + y

(c) .

 z0 = −2x + z
x0 = −1, y0 = 1, z0 = 0

17. Determine, justificando se a afirmação é verdadeira ou falsa:


(a) Se A for uma matriz quadrada e Av = λv com λ 6= 0, então v é um autovetor de A.
(b) Se λ for um autovalor de uma matriz A, então o sistema linear (λI − A)X = 0 só tem
a solução trivial X = 0.
(c) Se o polinômio caracterı́stico de um operador linear T é p(x) = x2 + 1, então T é
invertı́vel.
(d) Os autovalores de uma matriz A são iguais aos autovalores da forma escalonada
reduzida obtida de A.

164
(e) Se A é uma matriz invertı́vel e diagonalizável, então A−1 também é diagonalizável.
(f) Se A é uma matriz diagonalizável, então At também é diagonalizável.
(g) Se todo autovalor de um operador ou matriz A tem multiplicidade geométrica 1, então
A é diagonalizável.

165
Capı́tulo 6

OPERADORES AUTOADJUNTOS,
ORTOGONAIS E SUAS
PROPRIEDADES

Vamos apresentar alguns operadores com propriedades que envolvem o produto interno do
espaço vetorial no qual estão definidos, neste caso por simplicidade vamos expor o caso fun-
damental e básico de operadores sobre um espaço euclideano V = Rm onde o produto interno
é o produto escalar, mas a teoria pode ser naturalmente estendida para operadores sobre um
espaço V de dimensão finita com produto interno qualquer.

6.1 Operadores Autoadjuntos e Ortogonais


Estaremos considerando um operador T : Rm → Rm , ou seja T (u) = Au, ∀ u ∈ Rm , onde A é
a matriz de T na base canônica.

Definições 6.1.

• T é dito operador autoadjunto ou simétrico, se,

Au · v = u · Av, ∀ u, v ∈ Rm . (6.1)

Notemos que,

Au · v = u · Av = ut Av = (At u)t v = At u · v, ∀ u, v ∈ Rm ⇔ A = At ,

portanto,
T autoadjunto ⇔ A é uma matriz simétrica.

• T é dito operador ortogonal, se

Au · Av = u · v, ∀ u, v ∈ Rm , (6.2)

166
por essa propriedade dissemos que o operador ortogonal preserva o produto escalar.
Notemos que,

u · v = Au · Av = ut At Av = u · (AAt )v, ∀ u, v ∈ Rm ⇔ AAt = Im ,

ou seja que,
T ortogonal ⇔ A é uma matriz ortogonal.

Observação 6.2. Note que nas definições acima usamos a matriz A que representa T na
base canônica, embora as mesmas equivalências acontecem se representarmos T em outra base
ortonormal. De fato, sejam β uma base ortonormal qualquer de Rm e Q a matriz mudança de
base, da base β para base canônica, notando que Q é ortogonal temos,

[T ]β = Q−1 AQ = Qt AQ,

daı́ obtemos facilmente que,

T autoadjunto ⇔ A simétrica ⇔ [T ]β é uma matriz simétrica,

T ortogonal ⇔ A ortogonal ⇔ [T ]β é uma matriz ortogonal.


 
x+y
Exemplo 6.3. Seja T um operador sobre R3 , dado por T (x, y, z) = x + 2y . T é autoad-
−z
junto? T é ortogonal?.  
1 1 0
É claro que a matriz de T na base canônica é A = 1 2 0 . A é uma matriz simétrica mas
0 0 −1
não ortogonal (suas colunas não são ortonormais), logo T é autoadjunto, mas não é ortogonal.

Exemplos 6.4.

1. O operador identidade é autoadjunto e ortogonal.

2. Os operadores de projeção ortogonal também são autoadjuntos, de fato lembremos que um


operador de projeção ortogonal sobre um subespaço W de Rm é da forma PW (u) = AAt u,
onde A é a matriz cujas colunas são uma base ortonormal de W . Entaõ, é claro que PW
é autoadjunto, pois AAt é simétrica.

3. Os operadores de rotação no plano (também no espaço em torno de um eixo) são opera-


dores ortogonais, basta ver que as matrizes de rotação no plano
 
cos θ −sen θ
,
sen θ cos θ

são ortogonais.

167
4. Os operadores do plano, de reflexão pelos eixos x e y são ortogonais (e autoadjuntos),
basta ver que as matrizes na base canônica são respectivamente, da forma,
   
1 0 −1 0
, ,
0 −1 0 1

que claramente são matrizes ortogonais (e simétricas).


Qual a matriz de uma reflexão no plano, em torno de uma reta da forma y = (tg θ)x?
Trata-se de um operador ortogonal e/ou autoadjunto?

Da propriedade 6.2 que define o operador ortogonal, obtemos as seguintes equivalências.

Propriedades 6.5. As seguintes propriedades são equivalentes.

1. T é ortogonal.

2. kAuk = kuk , ∀ u, v ∈ Rm , por essa razão dissemos que T preserva a norma.

3. Para todos u, v ∈ Rm o ângulo entre u e v é igual ao ângulo entre Au e Av, por essa
razão dissemos que T preserva ângulo.

4. T transforma bases ortonormais em bases ortonormais de Rm .

Note que as propriedades (2), (3) e (4) podem ser geometricamente verificadas para os opera-
dores de rotação e reflexão, tanto no plano quanto no espaço. Pelas suas propriedades podemos
notar que operadores ortogonais do plano ou espaço transformam figuras em figuras congruêntes,
como ilustrado no desenho 6.1.

168
Figura 6.1: Operador ortogonal no plano.

6.2 Diagonalização Ortogonal.


A propriedade mais importante dos operadores simétricos é que são operadores diagonalizáveis
através de uma base ortonormal de autovetores.

Exemplo 6.6. Examinemos


 a diagonalização do operador simétrico T : R2 → R2 : T (u) = Au,
1 2
onde A = .
2 −2
O polinômio caracterı́stico de T é,

1−λ 2
pT = = λ2 + λ − 6 = (λ + 3)(λ − 2) ⇒ λ1 = −3, λ2 = 2.
2 −2 − λ

1
• Para λ1 = −3, temos o autovetor v1 = .
−2
 
2
• Para λ1 = 2, temos o autovetor v2 = .
1

Portanto T é diagonalizável. Notemos que os autovetores v1 e v2 são ortogonais, pois v1 · v2 = 0,


ortonormalizando obtemos a base ortonormal de autovetores
  √   √ 
1/ √5 2/√5
u1 = , u2 = ,
−2/ 5 1/ 5

logo A é semelhante a uma matriz diagonal D e:


   √ √ 
−1 −3 0 1/ √5 2/√5
A = QDQ , onde D = e Q= .
0 2 −2/ 5 1/ 5

169
Mas a matriz Q é ortogonal, logo Q−1 = Qt , portanto neste caso a decomposição de A é da
forma,
A = QDQt ou D = Qt AQ.

No exemplo acima obtemos uma diagonalização especial, com base ortonormal de autovetores
de T , de forma que A = QDQt , onde Q é uma matriz ortogonal. No exemplo T é simétrico,
mas de fato veremos que esta propriedade acontece somente para operadores simétricos.

Definição 6.7. Dizemos que um operador T sobre Rn é ortogonalmente diagonalizável , se


existe uma base α ortonormal de Rn composta de autovetores de T . Neste caso, considerando
T (u) = Au e se C é a base canônica, então temos a decomposição,

A = QDQt , (ou D = Qt AQ),

onde Q = [I]αC é uma matriz ortogonal e D é a matriz diagonal, com diagonal composta pelos
autovalores de T .

Observação 6.8. Notemos que, um operador T (u) = Au, u ∈ Rn ortogonalmente diagona-


lizável verifica que A = QDQt , onde Q é uma matriz ortogonal, logo,

At = (QDQt )t = (Qt )t Dt Qt = QDQt = A,

ou seja que, um operador ortogonalmente diagonalizável é necessariamente simétrico.

Propriedades 6.9. Se T é simétrico, então

1. Todas as raı́zes do polinômio caracterı́stico pT são reais.

2. Autovetores associados a autovalores diferentes são ortogonais.

Demonstração. Dados os autovalores de T , λ1 6= λ2 e seus respectivos autovetores v1 e


v2 , temos

λ1 (v1 · v2 ) = (λ1 v1 ) · v2 = Av1 · v2 = (Av1 )t v2


= v1t At v2 = v1t Av2 = λ2 v1t v2
= λ2 (v1 · v2 ),

como os autovalores são diferentes, então v1 · v2 = 0.

Teorema 6.10 (Teorema Espectral Real). T é um operador simétrico, se e somente se, T é


ortogonalmente diagonalizável.

A implicação direta deste teorema não é trivial, já a recı́proca foi colocada na observação 6.8.
Na prática, para determinar a base ortonormal de autovetores de uma matriz simétrica A e,
consequentemente, a matriz ortogonal Q, procedemos da seguinte forma:

• Achamos o polinômio caracterı́stico e os autovalores de A.

170
• Determinamos bases ortogonais para cada espaço de autovetores, usando o processo de
Gram-Schmidt, se necessário.

• Reunindo as bases ortogonais e normalizando os autovetores obtemos a base ortonormal


de autovetores requerida.

Exemplo 6.11.Efetue adiagonalização ortogonal do operador T sobre R3 cuja matriz na base


2 1 1
canônica é A = 1 2 1.

1 1 2
A matriz é simétrica, logo T é ortogonal diagonalizável. T tem polinômio caracterı́stico,

2−λ 1 1
pT (λ) = |A − λI3 | = 1 2−λ 1
1 1 2−λ
4−λ 4−λ 4−λ
= 1 2−λ 1
1 1 2−λ
1 1 1
= (4 − λ) 1 2 − λ 1
1 1 2−λ
1 1 1
= (4 − λ) 1 2 − λ 1
0 0 1−λ
= (4 − λ)(1 − λ)2 ,

logo os autovalores são λ1 = 4 e λ2 = 1.

• Para λ1 = 4, a matriz de coeficientes do sistema homogêneo é


   
−2 1 1 1 0 −1 
x−z = 0
A − 4I3 = 1 −2 1 → 0 1 −1 ⇒
    ,
y−z = 0
1 1 −2 0 0 0
 
1
logo uma base para V4 é 1.

1

• Para λ2 = 1, a matriz de coeficientes do sistema homogêneo é


   
1 1 1 1 1 1
A − I3 = 1 1 1 → 0 0 0 ⇒ x + y + z = 0,
1 1 1 0 0 0

171
   
−1 −1
logo uma base para V1 é composta por v1 = 1   e v2 = 0 . Para ortogonalizar

0 1  
−1/2
1
{v1 , v2 } calculamos v1 · v2 = 1 e v1 · v1 = 2, trocamos v2 por v2 − v1 = −1/2 ou
2
      1
1 −1 1
 1 , logo uma base ortogonal para V1 é { 1  ,  1 }.
−2 0 −2

Após obter as bases ortogonais normalizamos e reunimos as bases, assim


     
1 −1 1
1 1 1
α = { √ 1 , √  1  , √  1 }.
3 1 2 0 6 −2

Portanto
   √ √ √ 
4 0 0 1/√3 −1/√ 2 1/√6
A = QDQt , onde D = 0 1 0 ; Q = 1/√3 1/ 2 1/ √6  .
0 0 1 1/ 3 0 −2/ 6
Exemplo 6.12. Seja T : R3 → R3 o operador projeção ortogonal sobre o plano W de equação
x − 2y + z = 0. Se existir, determine uma base ortonormal de autovetores β de forma que [T ]β
seja diagonal.
Como T é uma projeção ortogonal então T é simétrico e portanto é ortogonalmente diago-
nalizável, ou seja que existe uma base ortonormal de autovetores β. Podemos obter β, sem
necessidade de determinar a fórmula de T . De fato, escolhendo uma base ortonormal u, v de
W e um vetor unitário z ortogonal a W , temos a base ortonormal β = {u, v, z}, de fato pela
escolha verfica-se,
T (u) = u, T (v) = v, T (z) = 0,
assim β é a base procurada, pois
 
1 0 0
[T ]β = 0 1 0 , é diagonal.
0 0 0

Para o cálculo de u e v tomemos os vetores geradores de W ,


   
2 −1
u1 = 1 ; v1 = 0  ,
  
0 1
ortogonalizando obtemos,
         
2 −1 2 −1/5 −1
v1 · u1 2 1
u2 = 1 ; v2 = v1 − u1 =  0  + 1 =  2/5  =  2  ,
u1 · u1 5 5
0 1 0 1 5

172
logo uma base ortonormal para W é dada por,
   
2 −1
1   1  
u= √ 1 ; v= √ 2 .
5 0 30 5
 
1
A equação de W mostra que o vetor −2 , é ortogonal a W , assim escolhemos o terceiro vetor,
  1
1
1  
w = √ −2 . Portanto a base procurada é,
6 1
     
2 −1 1
1   1   1  
β = {√ 1 , √ 2 , √ −2 }.
5 0 30 5 6 1

Decomposição Espectral.
Os operadores simétricos podem ser representados em termos de operadores de projeção orto-
gonal, com este fim relembramos as matrizes associadas a esses operadores.
Da observação 4.33 sabemos que a matriz associada ao operador de projeção ortogonal sobre
um subespaço W do espaço euclideano Rn é da forma AAt , onde as colunas de A são uma base
ortonormal de W . No caso da projeção ortogonal de um vetor v ∈ Rn sobre o espaço gerado
por um vetor unitário w1 , a matriz da projeção ortogonal na base canônica C é:
[Pw1 ]C = w1 w1t ,
esta matriz é de ordem n × n e simétrica.

Vamos descrever a matriz simétrica, associada a um operador simétrico, em função de matrizes


de projeção ortogonal. Suponhamos que A é uma matriz simétrica de ordem 3 (por simplici-
dade) e que temos uma base ortonormal de autovetores α = {v1 , v2 , v3 } onde cada autovetor
está associado
 t aos autovalores λ1 , λ2 , λ3 respectivamente. Assim, sendo Q = [I]αC = [v1 v2 v3 ] e
v1
Qt = v2t , temos
v3t

173
 
λ1 0 0
A = QDQt = Q ·  0 λ2 0  · Qt
0 0 λ3
     
λ1 0 0 0 0 0 0 0 0
= Q  0 0 0 + 0 λ2 0 + 0 0 0  Qt
0 0 0 0 0 0 0 0 λ3
     
1 0 0 0 0 0 0 0 0
= λ1 Q 0 0 0 Qt + λ2 Q 0 1 0 Qt + λ3 Q 0 0 0 Qt
0 0 0 0 0 0 0 0 1
 t    
v1 0 0
t
= λ1 [v1 v2 v3 ] 0 + λ2 [v1 v2 v3 ] v2 + λ3 [v1 q2 v3 ] 0 
   
0 0 v3t
= λ1 v1 v1t + λ2 v2 v2t + λ3 v3 v3t ,

notando que v1 v1t , v2 v2t e v3 v3t são as matrizes das projeções ortogonais sobre v1 , v2 e v3 respec-
tivamente, temos representado A como combinação linear de projeções ortogonais.
Em termos dos operadores fica claro que, todo operador ortogonalmente diagonalizável, ou
seja simétrico, é combinação linear de operadores de projeção ortogonal sobre os espaços ge-
rados por cada autovetor da base ortonormal de autovetores. Esta representação chama-se
decomposição espectral .
Exemplo 6.13. Vamos construir a decomposição espectral do operador do exemplo 6.11.
A diagonalização ortogonal de A é,
   √ √ √ 
4 0 0 1/√3 −1/√ 2 1/√6
t
A = QDQ , onde D = 0 1 0 ; Q = 1/√3 1/ 2 1/ √6  .
0 0 1 1/ 3 0 −2/ 6
 √   √   √ 
1/√3 −1/√ 2 1/√6
Temos, v1 = 1/√3 , v2 =  1/ 2  , v3 = 1/ √6 , as projeções são,

1/ 3 0 −2/ 6
 √   
1/√3  √ √ √  1/3 1/3 1/3
• v1 v1t = 1/√3 1/ 3 1/ 3 1/ 3 = 1/3 1/3 1/3.
1/ 3 1/3 1/3 1/3
 √   
−1/√ 2  √ √ 1/2 −1/2 0
• v2 v2t =  1/ 2  −1/ 2 1/ 2 0 = −1/2 1/2 0.


0 0 0 0
 √   
1/√6  √ √ √  1/6 1/6 −1/3
• v3 v3t =  1/ √6  1/ 6 1/ 6 −2/ 6 =  1/6 1/6 −1/3.
−2/ 6 −1/3 −1/3 2/3

174
Portanto a decomposição espectral de A é,
     
1/3 1/3 1/3 1/2 −1/2 0 1/6 1/6 −1/3
A = 4 1/3 1/3 1/3 + −1/2 1/2 0 +  1/6 1/6 −1/3 .
1/3 1/3 1/3 0 0 0 −1/3 −1/3 2/3

6.3 Exercı́cios
3
1. Seja
 T operador
 sobre o espaço euclidiano R , dado na forma T (u) = Au, onde A =
1 2 2
1
2 −2 1.
3
−2 −1 2
a) Mostre que T é um operador ortogonal.
1
b) Verifique que, se u = √ (2, 1, −1) então T (u) é unitário.
6
c) Verifique que, se u = (−2, 3, 5) então ||T (u)|| = ||u||.
 
2 1 0
2. Seja A = 1 1 1. Verifique que A é ortogonalmente diagonalizável e exiba uma base
0 1 2
ortonormal de autovetores de A.
 
a 0 0
3. Dada a matriz A = 0 b c .
0 c b
Mostre que os autovalores são a, b + c, e b − c e verifique que A é ortogonalmente diago-
nalizável.

4. Para cada matriz dada, verifique que A é ortogonalmente diagonalizável e exiba matrizes
ortogonal Q e diagonal D tais que D = Qt AQ.
   
1 4 2 −2 0 −36
a) A = 4 −5 −4. b) A =  0 −3 0 .
2 −4 1 −36 0 −23
5. Para cada matriz simétrica A, mostre a decomposição espectral de A.
   
  −3 1 2 5 0 0
3 1
(a) A = (b) A =  1 −3 2 (c) A = 0 1 3
1 3
2 2 0 0 3 1
 
3
6. Mostre que toda matriz A quadrada de ordem 2 que possui autovetores v1 = e
  4
−4
v2 = deve ser simétrica. Determine A sabendo que os autovetores v1 e v2 estão
3
associados aos autovalores λ1 = 3, λ2 = −2, respectivamente.

175
7. a) Existe alguma matriz simétrica de ordem 3, com autovetores (0, 1, −1), (1, 0, 0), (0, 1, 1)
associados aos autovalores λ1 = −1, λ2 = 3 e λ3 = 7?
b) Existe alguma matriz simétrica de ordem 3, com autovetores (0, 1, −1), (1, 0, 0), (1, 1, 1)
associados aos autovalores λ1 = −1, λ2 = 3 e λ3 = 7?

176
Gabaritos dos exercı́cios

1. Seção 1.4
     
−2 0 2 0 1 e e2 e3 −5 −5 0 5
0 2 0 −2 1 e e2 e3  −5 0 5 6
1. (a)   (b)  (c)  
2 0 −2 0  1 e e2 e3  0 5 6 7
0 −2 0 2 1 e e2 e3 5 6 7 8
 
∗ ∗ 0 0 0
∗ ∗ ∗ 0 0
 
2. A = 0 ∗ ∗ ∗ 0
0 0 ∗ ∗ ∗
0 0 0 ∗ ∗
   
5 24 1 33
3. (a) X = 3(A + B) − 4I = (b) X = 5A − 2B =
18 23 2 24
   
4 5 2 −5
4. X = 12 (3A + 2B) = , Y = 21 (3A − 2B) = .
6 6 0 6
   
27 27   0 2 −1
1 15 −5 5
5. (a) 30 21  (b) (c) 10 −2 0 1
2 −3 7 2
24 51 1 −1 0 
  15 2 7
40 72
(d) Impossı́vel (e) (f) Impossı́vel (g) −15 −2 −7.
26 42
30 4 14
6. (a) Existe C e tr(C) = 2 (b) Existe C e tr(C) = −2 (c) Existe C e
tr(C) = −59/3 (d) Não existe.
   
1 0 0 −1
7. Por exemplo B = ,C=
0 0 2 2
8. (a) E32 F21 = E31 (b) Quando t 6= k (c) Quando t = k
9. (a) Falsa, ache exemplos (b) e (c) São falsas, basta determinar matrizes que não
comutem (d) e (e) São verdadeiras, justifique. (f) Falsa, basta achar matrizes
que não comutem. (g) Verdadeira, justifique. (h) Verdadeira, justifique.
10. (a) k = −1 (b) k = −2, k = −10
 
a b
11. As matrizes da forma , ∀a, b ∈ R.
b a

177
     
2 −1 1 3 −1 0 4 5 2 1 −1
12. (a) A = , A = = −I2 , A = −A, A = −A = , A6 =
−1 0 0 −1 1 0
−A3 = I2 . Notando
 que A
6k+r
= A6k Ar = Ar , temos 2015 = 6 × 335 + 5, logo
1 −1
A2015 = A5 = .
1 0
" # " #
− √1 − √1 − √1 √1
 
0 −1
13. (b) A2 = , A3 = √1
2
√1
2
, A4 = −I2 , A5 = −A = √1
2 2
√1
.
1 0 2
− 2
− 2
− 2
" #
√1 √1
Como A8 = I2 temos A2015 = A7 = −A3 = 2 2
.
− √12 √1
2

14. Denotemos por Ei a i-ésima estação e A = [aij ]. O elemento de posição (i, j) de A2


indica o número de estações Ek , diferentes de Ei e Ej e intermediárias na transmissão
de Ei para Ej , ou seja na situação:
a =1 akj =1
Ei ik→ Ek → Ej
Os elementos de A + A2 indicam o número de formas de transmissão de Ei para Ej ,
direta ou através de uma intermediária.
15. (a) X = A−1 B −1 C (b) X = B (c) X = A−1 C −1 A
(d) X = I − ((BA)−1 )t
   
1 −3 −20
16. (a) X = 3 (b) X =
1 390
 
1 −1 −9 8 14
17. (a) Basta obter BA = I (b) Basta obter AC = I (c) .
38 9 5 4 −12
1
18. a = 0, b = −c = ± √
2
19. Verdadeiro.
20. Falso.    
0.74 0.58 0.68 0 0.5 0.5
21. (a) 0.1 e 0.6 (b) T2 = 0.15 0.31 0.2  (c) T = 0.5 0 0.5
0.11 0.11 0.12 0.5 0.5 0
2. Seção 1.8
1. Matrizes da forma el (tem muitas inclusive as da forma erl):
   
1 2 1 −3 −1   1 2 3  
0 3 6 −4 1 1 2 9 1 0 −2
−9  0 1 1 
(a)  , (b) 0 2 −7 −17 , (c) 
   , (d) 0
 1 −3.
0 0 0 5 −6 0 0 1
0 0 1 3 0 0 0
0 0 0 0 0 0 0 0
Matrizes
 da forma erl:   
1 0 −3 0 5   1 0 0  
1 0 0 1 1 0 −2
0 1 2 0 −3   0 1 0 
(a) 
0 0 0 1 , (b) 0 1 0 2 , (c) 
   , (d) 0 1
 −3.
0 0 0 1
0 0 1 3 0 0 0
0 0 0 0 0 0 0 0

178
2. (a) posto=3, nulidade=2 (b) posto=3, nulidade=1 (c) posto=3, nulidade=0 (d)
posto=2, nulidade=1.
3. A e C são linha equivalentes, pois tem iguais formas erl; B não é linha-equivalente
a A nem a C pois tem forma erl diferente.
     
1 s 0 1 1 0
4. (a) 0 0, com s ∈ R e 0 0 (b) 0 1 (c) Não existem.
0 0 0 0 0 0
5. k = 2, para k 6= 2 o posto é 4.
6. pA = 3, se a 6= −1 e a 6= 2. pA = 2, se a = 2 e pA = 1, se a = −1.
 
  −11 6 3
7 1
7. (a) 18 (b)  4 −2 −1 
6 2
−2 1 1
8. (a) a 6= 1 (b) a 6= 0
 
3 3 3
9. A = (A−1 )−1 = 16 2 4 −2
1 5 −1
10. a 6= 0, b 6= 0 e c 6= 0.
 
3 2 1
11. M = 21 3 4 5 .
3 −2 −1
 
14 33 −29
12. (a) X = ((C 2 )−1 A−1 C)t (b) X = ((C −1 )t )2 = 25
1 
3 16 −8 
11 42 −21
13. (a) SPI, grau de liberdade 1, x = 17
3
− 73 t, y = − 35 + 43 t, z = t, qualquer.
(b) SPD, x = 0, y = 1, z = 0 (c) SI, pA = 3 6= p[A|b] = 4
(d) SPD, x = 1, y = −1, z = 2, w = −2.
 
21
−1
14. (b) A é invertı́vel e X = A b = −3.
3
15. (a) k = 2 (b) SPI, para todo valor de k, pois o posto da matriz de coeficientes é
sempre menor que 4.
16. (a) SI para α = 0 ou α = 1; SPD para α 6= 0, 1; nunca será SPI.
(b) SPD para β 6= 6; SPI para β = 6, γ = 5 e SI para β = 6, γ 6= 5.
(c) SPD para a 6= −3/4, SI para a = −3/4.
(d) SPD para b 6= 0, b 6= 1, SPI para b = 0 e SI para b = 1.
(e) SPD para c = 0 ou c = 5/2; SI para c 6= 0 e c 6= 5/2.
17. (a) 2a + b − c = 0. (b) 37a + 13b = 9c.
18. (a) Nunca será SPD (b) Para SPI: a1 + a2 + a3 + a4 = b1 + b2 + b3 + b4 (c) Para
SI: a1 + a2 + a3 + a4 6= b1 + b2 + b3 + b4 .

179
 
1 1 2
19. (b) A − I é linha equivalente a 0 1 6, logo é SPD com solução nula.
0 0 1
 
z
(c) SPI com solução X = 0, para z qualquer.
z
20. (a) f1 = −200 + s + t, f2 = 300 − s − t, f3 = s, f4 = 150 − t e f5 = t
(b) 200 ≤ f3 ≤ 300 (c) Se f3 = 0 então f5 ≥ 200, mas f5 ≤ 150 (d)
50 ≤ f3 ≤ 300.
x21 x1 1
21. x22 x2 1 = (x3 − x2 )(x3 − x1 )(x2 − x1 ) 6= 0.
x23 x3 1
22. (a) −12 (b) 20 (c) 55 (d) −65 (e) 400
23. (a) Verdadeiro, pois det(AB) = det A det B = det B det A = det(BA)
(b) Verdadeiro, pois det(AAt ) = (det A)2 = det I = 1 ⇒ det A = ±1
(c) Falso, pois det(2A) det(3B) = 6n det A det B
(d) Falso, pois det(−A) = (−1)n det A = det A, se n é par
(e) Verdadeiro. Aplique (a) para obter det(A−1 BA) = det B.
16 1
24. (a) −567 (b) − (c) − (d) −14.
7 112
25. A é invertı́vel para a 6= 0 e b 6= 6.
26. a + b + c + d = −1.

3. Seção 2.9
     
1 1 5
1  
1. (a) 8
 (b)  8  (c) 2 7
1 −4 4
2. (a) Não, não contém o vetor nulo.
(b) Sim, é solução de um sistema homogêneo
   
0 0
(c) Não, por exemplo 1 ∈ W , mas −1 ∈
   /W
2 −2
     
1 −1 0
(d) Não, por exemplo 1 , 1 ∈ W , mas a soma 2 ∈
     / W.
0 0 0
(e) Sim, é solução do sistema homogêneo y − z = 0; x − w = 0
   
1 −1
0 0
(f) Não, por exemplo  0 ∈ W mas  0  ∈
   / W.

0 0
(g) Sim, é solução de um sistema homogêneo

180
3. Não.
4. Somente w3 é combinação de u e v.
5. (a) x − y + z = 0 (b) 4x + 2y − z = 0 (c) x + y − z − 2w = 0
(d) 5x + 2y = 0 e 3x − 2z = 0 (e) 11x − 7y = 0.
6. Sim, w = 21 (3u − 5v).
7. Sim, o determinante da matriz cujas colunas são u, v, w é diferente de zero.
8. Não, pois as equações de W1 são 10x + 13z − 17w = 0, 15x + 13y + 7w = 0 e os
vetores de W2 não verificam as equações.
9. k = −15/2
10. (a) e (c) são LI, (b) É LD.
11. k 6= −3.
12. Não existe k.
13. a) (F) b) (F) c) (V) d) (V) e) (V) f ) (F) g) (F) h) (F) i) (V) j) (V) k) (F)
l) (F) m) (F).
14. k = 1 ou k = −3/2.
 
−2
15. (a) Base: { 3 }, dim W = 1

7
     
1 0 0
1 0 0
     
(b) Base: { 0 , 1 , 0}, dim W = 3
    
0 0 1
1 0 0
(c) Sejam u, v, w, t os vetores dados, pA = 3 onde A = [u v w t], logo W = R3 ,
dim W = 3 e serve qualquer base de R3 .
16. (a) Uma reta (b) Um plano.
 
−1      
1 1 1 1
17. (a) Base para N ul(A), { }, dim N ul(A) = 1. Base para Col(A): { 0 , 1 , 1 }
      
1
0 1 −1
0
e dim(Col(A)) = 3
       
−1 1 0 0
3 0 5 0
(b) Base para N ul(A): {  1 }, dim N ul(A) = 1. Base para Col(A): {0 , 0 , 5}
      

0 0 1 3
e dim(Col(A)) = 3.
   
1 1
1 0 2
(c) Base para N ul(A): { 0 , 1} dim N ul(A) = 2. Col(A) = R , dim Col(A) =
  

0 0
2
2, qquer base de R serve.

181
   
  2 5
7 −1 −1
(d) Base para N ul(A): {−4}, dim N ul(A) = 1. Base para Col(A): {
 2  ,  3 }
  
1
1 3
e dim(Col(A)) = 2.
     
1 0 1
−1 0 0
18. (a) Sim (b) {
 0  , 1 , 0}.
    

0 1 0
19. (b) Os espaços gerados são iguais.
20. (a) Sim (b) Não (c) Sim, W = {0}.
21. (a) Sim (b) Sim (c) Não.
 
−3y
22. (a) dim S1 = 2, dim S2 = 2, S1 ∩ S2 = { y  | y ∈ R}, base de S1 ∩ S2 pode ser
  5y
−3
dada por { 1 }, dim(S1 ∩ S2 ) = 1, S1 + S2 = R3 e dim(S1 + S2 ) = 3.
5
 
7z/2
(b) dim S1 = 2, dim S2 = 2, S1 ∩ S2 = { 0  | z ∈ R}, base de S1 ∩ S2 pode ser
  z
7
dada por { 0}, dim(S1 ∩ S2 ) = 1, S1 + S2 = R3 e dim(S1 + S2 ) = 3.

2
 
x
(c) dim S1 = 2, dim S2 = 2, S1 ∩ S2 = { x  | x ∈ R}, base de S1 ∩ S2 pode ser
  −2x
1
dada por { 1 }, dim(S1 ∩ S2 ) = 1, S1 + S2 = R3 e dim(S1 + S2 ) = 3.

−2
 
0
(d) dim S1 = 1, dim S2 = 2, S1 ∩ S2 = {0}, dim(S1 ∩ S2 ) = 0, S1 + S2 = R3 ,
0
dim(S1 + S2 ) = 3 e a soma é direta.
 
0
(e) dim S1 = 2, dim S2 = 1, S1 ∩ S2 = {0}, dim(S1 ∩ S2 ) = 0, S1 + S2 = R3 ,
0
dim(S1 + S2 ) = 3 e a soma é direta.
 
0
 0
23. (a) W = R4 , W1 ∩ W2 = { 1} (b) Não.

182
 
0
 0
24. (a) W = R4 , W1 ∩ W2 = { 0} (b) Sim.

0
   
  3 7
5/4 1
25. (a) [w]β = (b) [w]β = −2   (c) [w]β = 8 −2
−1/2
1 −3
 
−1/2
(d) [w]β = .
5/2
 
  7
−1
26. (a) w = (b) w = 1 
−4
1
   
2 1 4 0 0 −2
1 1
27. (a) [I]A B = 0 −1 0 e [I]B A = 0 −4 0 
2 2
−2 0 0 1 1 1
 
6
(b) [v]B = −1 
1
 
1
(c) [v]A =  2 .
−3/2
   
1 −8
28. (a) A = { , }
−2 4
   
1 −2/3
(b) B = { , }.
−1 1
 
−3
29. [v]B = .
1
 
  −2
2
30. (a) [p(x)]α = (b) [p(x)]β = −8 (c) p(x) = 4 − 2x − x2 .
−1
−5
   
1 0 −2 1 2 2
(d) [I]βγ =  1 −1 1  e [I]γβ = 1 2 3.
−1 1 0 0 1 1
4. Seção 3.6
 
0
1. (a) N uc(T ) = { 0}; Im(T ) = R3

0
   
0 x
(b) N uc(T ) = {c  1  / c ∈ R}; Im(T ) = { 0  / x, z ∈ R}
−1 z

183
 
6
−2 3
(c) N uc(T ) = {k 
 13  / k ∈ R}; Im(T ) = R

1
     
x 1 −1
y  −1  2 
(d) N uc(T ) = {
 z  / x−z+w = 0, y+z−2w = 0} = {c  1 +d  0  / c, d ∈ R};
    

w 0 1
2
Im(T ) = R
   
0 a
a 0
   
0 b
(e) N uc(T ) = {  / a, b ∈ R}; Im(T ) = {
 
 c  / a, b, c, d ∈ R}

0
   
0 d
b 0
 
x
(f) N uc(T ) = { y  | 7x + 15y − 4z = 0 ∈ R} e Im(T ) = R.

z
(g) É linear poisa imagem de um vetorv ∈ Ré o produto de uma matriz fixa e v.
y 2y
N uc(f ) = { y / y ∈ R}; Im(T ) = { −2x  / x, y ∈ R}.
  
2y x−y
   
x −x + y + 2z
2. (a) T ( y ) = −x + y + z 
  
z −x + y
 
x  
3y + 2z
(b) T (y ) =
−4y − 3z
z
 
  21x + 7y
x
(c) T ( ) = 10  −2x − y 
y
6x + 2y
(d) Não existe pois dim(N uc(T )) = 2, dim(Im(T )) = 2 a soma das dimensões
deveria ser 3.
√ √ 
3 3 1  
 2 ( 3 − ) x
         
x y x √ 2 x x+y
3. (a) T ( )= (b) T ( )= (c) T ( ) = −2
y x y 1 3 y y y−x

(1 − )
    2 6
x 1 0 0
(d) T (y ) = 0 cosθ −senθ
z 0 senθ cosθ
 
6
4. (a) São dados os valores de T em uma base (b) Base para Nuc(T): { 3 }; Base
−1

184
     
2 2 3 + 6k
para Im(T ): {1 , −1} (c) v = 1 + 3k  , k ∈ R (c) Não existem tais
1 3 −k
vetores.
       
x 2x + 2y x 6x + 4y
5. (a) (S + T )( )= (b) (2S + 4T )( )=
 y  −4y   y 14y
x x + 6y x x + 2y
(c) (S ◦ T )( )= (d) (T ◦ S)( )=
y 3y y 3y
 
−1
6. Base N uc(T ◦ S) é { 1 } e dim(N uc(T ◦ S)) = 1; dim(Im(T ◦ S)) = 2, logo

1
Im(T ◦ S) = R qualquer base de R2 serve.
2
 
−1
2
Base N uc(S ) é { 1 } e dim(N uc(T ◦ S)) = 1; dim(Im(S 2 )) = 2, base para

   1
1 1
Im(S 2 ) é { 4  , 0}.
−2 2
7. (a) F (b) V (c) F (d) V (e) V (f) V.
8. (a), (b), (c), (d) são isomorfismos pois as matrizes tem posto (o posto tb é a dimensão
de Im(T )) total, logo são invertı́veis. No caso (e) vemos geometricamente, que a
rotação é invertv́el, pois a composição das rotações de ângulo θ e 2π−θ é a identidade.
       
x 2x − z x 3x − 2y − 4z
9. (a) T −1 (y ) =  x − z  (b) T −1 (y ) = 31  y + 2z 
z −x + y + z z −y + z
   
x z        √ 
−1  y 
   x  −1 x 1 5x + y −1 x 1 − 3x√+ y
(c) T ( ) =   y  (d) T ( y ) = 37 −2x + 7y (e) T ( y ) = 2 −x − 3y .

z
w w
 
  " 1 1 4
# 1  
A 1 1 0 C 3 3 3 1)]D = 0
10. (a) [T ]B = (b) [T ]D = 1 (c) [T (
1 0 1 − 23 − 23 1
3 0
 
5
11. T (v) =  8 
13
     
0 2 −2 4 −1 2
A0 0 1
12. (a) [S]AB = 1 −1 , [S]B =
   2 −2, [S]A B0 = 2 1 2
1 0 1 0 −3 6
       
x 3x − y x 3x − y
(b) [R( ]A 0 = 1 , R( )=
y 2
(7x + y) y 4x + 2y

185
   
x   x  
1 2x + 2y x+y
(c) [T ( y )]A0 = 2
  , T( y ) =
  .
x + 3y − z 2y − z
z z
       
cosθ −senθ 1 0 −1 0 2 1 0
13 . [Tθ ]A = , [L]A = , [S]A = , [R]A = 5 ,
senθ cosθ 0 −1 0 1 0 1
   
cosθ senθ 2 −1 0
[Tθ ◦ L]A = e [R ◦ S]A = 5 .
senθ −cosθ 0 1
 
    1 1 3
0 1 1 2 1 0
14. (a) [I]AA = , [I]AA 0 = , [I]B
B = −1 −2
 1 ,
−1 −2 −1 −1
2 1 −1
 
1 4 7
B 1 
[I]B 0 = 11 1 −7 −4
3 1 −1
     
0 2 3 2 3 −2 1 0 7 8 6
(b) [T ]B
A = , [T ]BA0 = −2 e [T ]B A0 = −5 −5 −4
3 2 2 1 −1
     
−2 −3 −4 19 −23 −42
0 1  0 1 
(c) [L]AB =
 0 −1; [L]A B 0 = 11 −4 −14
 e [L]A B 0 = 11 10 24 
−3 −5 −1 2 −3 −5
 
0 1 1  
B A −2 0
(d) [L ◦ T ]B = 2 −1 1, [T ◦ L]A = .
−2 3
1 1 2
     
2 −1 0 −2 1 0 −3 −1 1
1 
15. (a) [I]AB = − 5 −1 −2 0 , [I]B A =
 1 2 0, [T ]A A =
4 3 2
0 0 −5 0 0 1 0 1 −3
 
11 2 5
−1 A 1 
(b) T é isomorfismo pois [T ]A A é invertı́vel e [T ]A = − 25 −12 −9 −10.
−4 −3 5
16. C = (0, 4) ou C = (4, −2)

5. Seção 4.6
√ √ √
1. (a) −46; 86; 38; 6 2
√ √ √
(b) −45, 3 10; 39; 6 2
√ √ √
(a) k2u − vk = 17; d(u+v, v −w) = 29
2. √ (b) k2u − vk = 5 2; d(u+v, v −w) =
62
√ √
3. (a) 8; (b) -113; (c) -40; (d) 3; (e) 212; (f) 881
4. k = ± 53
5
5. arccos(− 24 ).
6. V
8. (a) θ = π6 , agudo (b) cosθ = − √115 < 0, logo é obtuso.

186
9. Retângulo em A, pois (B − A) · (C − A) = 0
10. Ângulo reto em B, pois (A−B)·(C −B) = 0, logo D −A = C −B ⇒ D = (−2, 1, 1).
     
2 1 2
⊥ ⊥ ⊥
11. (a) Base para W : { −1 }, dim(W ) = 1 (b) Base para W : { 1 , −2},
    
3 0 −1
   
−1 1
 2  −1
 
dim(W ⊥ ) = 2 (d) Base para (Col(A))⊥ : { ⊥ ⊥
 1  ,  0 }, dim(W ) = 2; (N ul(A)) =

0 1
2
R.    
−1 2
⊥ ⊥ ⊥
12. a) W é gerado por { 4 }, dim(W ) = 1 b) W é gerado por { 0}
  
6 1
13. a = b = ± 21
 
−1
14. [w]β = 32 .

− 21
 3
−√
 √5 2 
15. [w]β =  6 .
√4
3
     
    1 −5 1
1 1 1 2 1 1 1
16. (a) { √5 , √5 } (b) { √14 2 , √42 4 , − √3 1 }
    
2 −1
3 −1 −1
     
1 2 −2
1   1  1 
(c) { 3 1 , 15 −1 , 10 1 }.
√  √
0 3 2
 
      1
1 −3 1  0
17. (a) {3 ,  1  ,  3 } (b) Completando uma base para R4 com v3 = 
−1 , v4 =

5 0 −2
0
         
1 1 1 1 3
0  2  0 −1  0 
  e ortogonalizando obtemos {  ,   ,   ,  }
0 −1 1 −1 −3
0 0 3 0 −2
       
1 1 1 1
18 (a) { √12 0 , √16 −2} (b) { √12 1 , √16 −1}
1 −1 0 −2
     
−1 1 1
 1  √1 1 √1  1 
   
(c) { √12 
 0  , 3 1 , 15 −2}

0 0 3

187
   
5 −2
1 0 1 
19. (a) w = PW (v) = 3 −1 , w = 3 −2

4 2
   
−2 1
2 0 1
(b) PW (v) = 3 −1 , w = 3 −1

1 1
   
7 1

1 −3 
 0 3  1 
 
(c) w = PW (v) = 10 −4, w = 10 −2.
6 −2
 
10 15 −5
1 
20. 35 15 26 3 
−5 3 34
 1 
− √2 0 √1
2
22 a) Não é b) A−1 =  √16 − √26 √16  c) Não é
 
√1 √1 √1
3 3 3
 
√1
−1 1
23. 2 1 1
 
cos θsen θ cos2 θ sen θ
24. [I]C α t
α = ([I]C ) =
 −cos θ sen θ 0 .
−sen2 θ −cos θsen θ cos θ

6. Seção 5.4

1. (a) 5 (b) 0.
2. (a)
 Polinômio
 p(λ) = λ2 −3λ + 2; Autovalores 1 e 2; Autoespaços: V1 com base
1 2
{ }, V2 com base { }.
−1 −1
(b) Polinômio p(λ) = λ2 + 3. Não existem autovalores reais.
  p(λ) = λ(λ − 
(c) Polinômio 2)(5 − λ); Autovalores  0, 2 e 5; Autoespaços: V0 com
−2 4 1
base { 5 }, V2 com base {3}, V5 com base {0}.
3 1 1
2
(d) Polinômio p(λ) = (4 − λ)(λ+  2) ; Autovalores:
 −2 e 4;  
1 −1 1
Autoespaços: V−2 com base { 1 , 0 }, V4 com base { 1}.
    
0 1 2
2 2
(e) Polinômio, p(λ) = (λ − 2)  +2) . Autovalores: 2 e−2.  
 (λ
1 0 −1 0
0 1  0  0
Autoespaços: V2 com base { 0 , 0}, V−2 com base { 0  , 1}.
      

0 0 1 0

188
   
3 1
3. (a) Autovalores: 2 e 6. Autoespaços: V2 com base { }, V6 com base { }.
−1 1
 
0
(b) Autovalor: 0. Autoespaço V0 com base {0}.
1
√ √
4. (a) − 2 e 5 2 (b) 3, 7 e 1 (c) − 13 , 12 e 1.
5. Os autoespaços de A e At associados ao mesmo autovalor nem sempre coincidem.
7. (7a) Somente (c) não é invertı́vel.
8. (a)6 (b) Sim (c) 3.
   
1 2 1 0
9. (2a) É diagonalizável. P = eD=
−1 −1 0 2
(2b) Não é diagonalizável em R
   
−2 4 1 0 0 0
(2c) É diagonalizável. P =  5 3 0 e D = 0 2 0
3 1 1 0 0 5
   
1 −1 1 −2 0 0
(2d) É diagonalizável. P = 1 0 1 e D =  0 −2 0
0 1 2 0 0 4
   
1 0 −1 0 2 0 0 0
0 1 0 0 0 2 0 0
(2f) É diagonalizável. P = 0 0 0 1 e D = 0
  
0 −2 0 
0 0 1 0 0 0 0 −2
   
3 1 2 0
(3a) É diagonalizável. P = eD=
−1 1 0 6
(3b) Não é diagonalizável em R.
   
x 2x
10. T (y ) = −x + y + 2z 
z x+y
11. Para a > 0 e b > 0 ou a < 0 e b < 0 ou a = b = 0.
pT (x) = x2 (3 − x), logo todas as raı́zes são reais. A matriz na base canônica é [T ]C =
12. 
1 0 2
0 0 0, dimV0 = 2 e dimV3 = 1, logo é diagonalizável. Base de autovetores:
1 0 2   
0 2 1
{1 , −1 , 0}.
0 −1 1
13. Todo valor k ∈ R.
14. (a) É diagonalizável para todo m ∈ R. (b) É diagonalizável (c) É diagonalizável
somente para θ = kπ, k ∈ Z.

189
 
 10
 10 2 − 213 0 2 − 214
6−5·2 3−3·2
15. A10 = ; B 35 = B; C 13 = 213 − 1 213 213 − 1
5 · 211 − 10 3 · 211 − 5
213 − 1 0 214 − 1
√ √ √ √ √ √ √ √
3 √ 3−1 (1+ 3)t 3 √3+1 (1− 3)t 1−3 3 (1+ 3)t 3 3+1 (1− 3)t
16. (a) x(t) = 2 3
e + 2 3
e ; y(t) = 2
e + 2
e
3 t
(b) x(t) = 2
e − 12 e9t ; y(t) = 43 et + 41 e9t .
(c) x(t) = e − 2e ; y(t) = e − 2e + 2e3t ; z(t) = −2e2t + 2e3t .
2t 3t t 2t

17. (a) F (b) F (c) V (d) F (e) V (f) V (g) F.

7. Seção 6.3

2. É ortogonalmente
   diagonalizável,
   pois é simétrica. Base ortonormal de autovetores:
1 −1 1
{ √16 −2 , √12  0  , √13 1}
1 1 1
2 
√ √1 − √16
 
3 0 0 5 30
3. a) D = 0 3 0 , Q =  √15 − √230 √26 
 
0 0 −9 0 √5 √1
30 6
4 3
   
−3 0 0 0 −5 5
b) D = 0 25 0 , Q = 1 0 0 
  
0 0 −50 0 35 54
1 1 1  1 1
  1 1 1

1 1  1 1
 − 0 −
− 6 6 3 2 2 3 3 3
5. a) A = 4 21 21 −2 2 1 1 2 b) A = 2  16 16 31 −4 − 21 12 0−4  13 1
− 31 
−2 2 1 1 2
3
2 2 0 0 0 − 13 − 31 13
    3 3 3 
0 0 0 0 0 0 1 0 0
1 1 1 1
c) A = 2 0 2 − 2 + 4 0 2 2 + 5 0 0 0
  
0 − 21 12 0 21 12 0 0 0
 1 12 

6. A = 125 56
5 5
7. a) Sim, pois o conjunto de autovetores é base ortogonal. b) Não, pois o conjunto de
autovetores não é base é ortogonal.

190
Bibliografia

[1] Anton, Howard e Rorres Chris. “Álgebra Linear com Aplicações”. Bookman Editora, 2012
(10ª edição).

[2] Boldrini, J.L. e outros. “Álgebra Linear” - Editora Harbra Ltda.

[3] Poole, David. “Linear Algebra, a Modern Introduction ”. CENGAGE Learning (4ª edição).

[4] Lay, David C. “Álgebra Linear e suas Aplicações”- Editora LTC.

191

Você também pode gostar