Você está na página 1de 150

ÁLGEBRA LINEAR VIII

Departamento de Estrutura Matemática - IME - UERJ


Prof. Jessica Gavia
Conteúdo

1 MATRIZES, SISTEMAS LINEARES E DETERMINANTES 3


1.1 Definições e Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Tipos de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Operações com Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.5 Escalonamento - Aplicações ao Cálculo da Inversa e a Fatoração LU . . . . . . . 23
1.6 Sistemas de Equações Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.7 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.8 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

2 ESPAÇOS VETORIAIS 57
2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.2 Definições e Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.3 Subespaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.4 Independência Linear e Geradores . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.5 Base e Dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.6 Espaços Associados a uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2.7 Soma e Interseção de subespaços . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
2.8 Coordenadas com relação a uma base . . . . . . . . . . . . . . . . . . . . . . . . 81
2.9 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

3 TRANSFORMAÇÕES LINEARES 94
3.1 Definição e Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.2 Núcleo e Imagem de uma Transformação Linear . . . . . . . . . . . . . . . . . . 98
3.3 Operações com TLs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3.4 Transformações Injetoras, Sobrejetoras e Isomorfismos . . . . . . . . . . . . . . . 106

1
3.5 Matriz Associada a uma Transformação Linear . . . . . . . . . . . . . . . . . . . 109
3.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116

4 PRODUTO INTERNO 122


4.1 Produto Escalar em R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
4.2 Produto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
4.3 Norma e Distância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
4.4 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
4.5 Projeção Ortogonal e Ortogonalização de Gram-Schmidt . . . . . . . . . . . . . 137
4.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
4.7 Solução em Mı́nimos Quadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . 147

2
Capı́tulo 1

MATRIZES, SISTEMAS LINEARES


E DETERMINANTES

1.1 Definições e Exemplos


Sejam m e n naturais não nulos. Uma matriz de ordem m × n ou simplesmente matriz é
um elemento representado na forma de arranjo retangular com m linhas e n colunas, composto
por números reais ou complexos.

 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A =  .. ..  .
 
..
 . ... . . 
am1 am2 . . . amn

Considerando 1 ≤ i ≤ n, 1 ≤ j ≤ m, o elemento aij é um número real ou complexo que


representa o elemento localizado na posição (i,j), isto é na i-ésima linha e j-ésima coluna,
esses elementos também são chamados entradas da matriz .
Estaremos sempre tratando com matrizes com entradas reais. Os números reais também serão
chamados escalares.
A matriz também é denotada como,

A = Am×n = [aij ]m×n .

Exemplo 1.1.
 
40 30 10 0
A3×4 =  0 50 30 10 .
5 20 40 5

Matrizes podem representar dados de diversos tipos de problemas concretos.

3
Exemplo 1.2. Consideremos duas ligas de aço A e B, com componentes adicionais: carbono
(C), Silı́cio (Si), Manganês (Mn), Cromo (Cr), Nı́quel (Ni), Molibdênio (Mo) que são dadas em
% na tabela abaixo:

Liga %C %Si %Mn %Ni %Cr %Mo


Liga A 0,85 1,50 1,50 0,50 1,30 0,30
Liga B 0,84 2,00 1,48 0,48 1,32 0,28

estes dados podem ser representados pela matriz,


 
0, 85 1, 50 1, 50 0, 50 1, 30 0, 30
.
0, 84 2, 00 1, 48 0, 48 1, 32 0, 28
Exemplo 1.3. Matrizes podem ser definidas através de regras para o cálculo de suas entradas,
por exemplo:

A = [aij ]2×4 , onde aij = (i − j) cos jπ, para todos i = 1, 2 e j = 1, 2, 3, 4;

daı́ obtemos:  
0 −1 2 −3
A= .
−1 0 1 −2
Definição 1.4. A = [aij ] e B = [bij ] são matrizes iguais, se são da mesma ordem e,

aij = bij , para todos i, j.

1.2 Tipos de Matrizes


1. Matriz nula: é uma matriz de ordem qualquer, cujas entradas são todas nulas, esta
matriz é denotada 0m×n ou simplesmente 0.
2. Matriz linha: matriz com uma única linha.
 
A1×n = a11 . . . a1n .

3. Matriz coluna: matriz com uma única coluna.


 
a11
Am×1 =  ...  .
 
am1

4. Matriz quadrada: é uma matriz de ordem m × m (número de linhas e colunas iguais a


m), chamada matriz quadrada de ordem m.
 
a11 . . . a1m
Am×m =  ... .. ..  .

. . 
am1 . . . amm

4
Consideremos uma matriz quadrada de ordem m, A = [aij ], chamamos de diagonal principal
a sequência de entradas:
a11 a22 . . . amm .
A diagonal secundária é a sequência de entradas:

a1m a2(m−1) . . . am1 .

Alguns tipos especiais de matrizes quadradas são:

5. Matriz diagonal: matriz quadrada A = [aij ], onde todas as entradas “fora” da diagonal
principal são nulas, isto é aij = 0, para todo i 6= j.

6. Matriz identidade: é uma matriz diagonal, onde as entradas na diagonal são todas
iguais a 1. A matriz identidade de ordem m é denotada por Im .

7. Matriz triangular superior: matriz quadrada A = [aij ], onde todos os elementos


“abaixo” da diagonal principal são nulos, isto é aij = 0, para todo i > j.

8. Matriz triangular inferior: matriz quadrada A = [aij ], onde todos os elementos


“acima” da diagonal principal são nulos, isto é aij = 0, para todo i < j.

9. Matriz simétrica: matriz quadrada A = [aij ], com a propriedade aij = aji , para todo
i, j (ou seja que as entradas simétricas com relação à diagonal principal, são iguais).

10. Matriz anti-simétrica: matriz quadrada A = [aij ], com a propriedade aij = −aji , para
todo i, j.

Observação 1.5. Os elementos aii da diagonal de uma matriz anti-simétrica são nulos, pois
aii = −aii ⇒ aii = 0.

Observação 1.6. Uma matriz de ordem 1 × 1 será considerada também como um escalar.

Notação 1.7. O conjunto das matrizes de ordem m×n e entradas reais será denotado Mm×n (R),
se tratando de matrizes quadradas de ordem m a notação é Mm (R).

1.3 Operações com Matrizes


Adição de Matrizes

Dadas matrizes A = [aij ] e B = [bij ], de ordem m × n, definimos a matriz soma de A e B,


denotada A + B, como sendo a matriz de ordem m × n dada por:

A + B = [aij + bij ].

5
Exemplo 1.8. Dadas as matrizes:
     
1 −1 0 3 1 2
A = 4 0  e B = −2 0  , temos A + B = 2 0  .
2 1 1 −3 3 −2

Propriedades 1.9. Sejam matrizes A, B e C, da mesma ordem. A soma de matrizes possui


as seguintes propriedades:
(a) Associativa: (A + B) + C = A + (B + C)
(b) Comutativa: A + B = B + A
(c) Matriz Nula: A + 0 = 0 + A, onde 0 é a matriz nula na ordem respectiva.
(d) Matriz Oposta: Para cada matriz A = [aij ] define-se a matriz oposta de A, denotada
por −A, e definida como −A = [−aij ]. A matriz −A é a única com a propriedade: A + (−A) =
0.

Para conferir as propriedades basta ver que os elementos de posição (i, j) do lado esquerdo e
direito das igualdades são iguais.
Definição 1.10. Dadas matrizes da mesma ordem A = [aij ] e B = [bij ], define-se a matriz
diferença de A e B na forma usual, A − B = A + (−B) = [aij − bij ].

Multiplicação por Escalar

Dados uma matriz A = [aij ] de ordem m×n e um escalar k, definimos a matriz multiplicação
por escalar de k e A como a matriz também de ordem m × n, dada por

k · A = [kaij ].

Exemplos 1.11.    
1 3 −1 −2 −6 2
−2 · = ,
−2 0 1/2 4 0 −1
   
0, 2 0, 4 1 2 4
= .
−0, 2 0, 5 10 −2 5

Propriedades 1.12. Sejam A e B matrizes da mesma ordem e k, k1 , k2 escalares. O produto


de matriz por escalar possui as seguintes propriedades:
(a) k · (A + B) = kA + kB
(b) (k1 + k2 ) · A = k1 A + k2 A
(c) k1 (k2 A) = (k1 k2 )A
(d) 0 · A = 0
(e) 1 · A = A e −1 · A = −A.

6
Novamente as demonstrações são simples e consistem em verificar que elementos das posições
(i, j) em ambos os lados das igualdades são iguais.

Multiplicação de Matrizes

Definiremos primeiro a multiplicação de uma matriz linha por uma matriz coluna, para isto
consideremos a matriz linha L, de ordem 1 × n e a matriz coluna C, de ordem n × 1:
 
b1
   .. 
L = a1 . . . an , C =  .  ,
bn

definimos o produto das matrizes L e C, como o escalar.


 
b
   .1  Xn
.
L · C = a1 . . . an ·  .  = a1 b1 + a2 b2 + . . . + an bn = ak b k .
bn k=1

Exemplo 1.13.

  −2 √ √
4 12 2 · √1  = (4)(−2) + (12)(1) + (2)( 2) = 4 + 2 2.
2

Consideremos uma matriz A = [aij ]m×n e usemos a notação:

• Li (A) para a matriz linha composta pela i-ésima linha de A


 
Li (A) = ai1 . . . ain .

• Cj (A) para a matriz coluna composta pela j-ésima coluna de A


 
a1j
Cj (A) =  ...  .
 
amj

Agora, definiremos de forma geral o produto de matrizes. Sejam A = [aij ], uma matriz de
ordem m × n e B = [bij ], uma matriz de ordem n × p, a matriz produto, A · B, é a matriz
de ordem m × p definida como:

k=n
X
A · B = [aij ]m×n [bij ]n×p = [cij ]m×p , onde cij = Li (A) · Cj (B) = aik bkj ,
k=1

ou seja que cij é o produto da i-ésima linha de A e a j-ésima coluna de B.

7
Exemplo 1.14. Dadas as matrizes:
 
1 −1 
2 1
A = 4 0  e B= ,
−1 0
2 1

temos:
c11 = (1)(2) + (−1)(−1) = 3; c12 = (1)(1) + (−1)(0) = 1
c21 = (4)(2) + (0)(−1) = 8; c22 = (4)(1) + (0)(0) = 4
c31 = (2)(2) + (1)(−1) = 3; c22 = (2)(1) + (1)(0) = 2
 
3 1
logo: A · B = 8 4.
3 2

Exemplo 1.15. Considere as matrizes A = [aij ]3×3 , onde aij = i + j − 2 e B = [bij ]3×4 , onde
bij = i2 − j. Vamos determinar a segunda linha da matriz A · B que é de ordem 3 × 4.
Seja A · B = [cij ]3×4 , assim temos
 
0 −1 −2 −3
c2j = L2 (A) · Cj (B), onde L2 (A) = [1 2 3] e B = 3 2 1 0 ,
8 7 6 5

logo
   
  0   −1
c21 = 1 2 3 · 3 = 30; c22 = 1 2 3 ·  2  = 24,
8 7
   
  −2   −3
c23 = 1 2 3 ·  1  = 18; c24 = 1 2 3 ·  0  = 12.
6 5
 
∴ L2 (A · B) = 30 24 18 12 .

Observação 1.16. Só tem sentido efetuar o produto A · B, quando o número de colunas de A
é igual ao número de linhas de B e neste caso a matriz C = AB terá mesmo número de linhas
que A e mesmo número de colunas que B.

A · |{z}
|{z} B = |{z}
C .
m×n n×p m×p

Exemplo 1.17 (Um produto importante). Sejam A uma matriz m × n e b uma matriz coluna
n × 1. O produto A · b é uma matriz m × 1 que pode ser escrita em função das colunas de A.
Sejam C1 , . . . , Cn as colunas de A; denotemos A = [C1 . . . Cn ]m×n e consideremos b = [bi ]n×1 ,
logo
A · b = b1 C 1 + . . . + b n C n .

8
   
2 6 −2 b1
No caso, A = 0 1 3
  e b = b2 , temos

1 2 4 b3
     
2 6 −2 b1 2b1 + 6b2 − 2b3
A · b = 0 1 3  · b2  =  0 + b2 + 3b3 
1 2 4 b3 b1 + 2b2 + 4b3
     
2b1 6b2 −2b3
=  0  +  b2  +  3b3 
b1 2b2 4b3
     
2 6 −2
= b1 0 + b2 1 + b3 3  .
    
1 2 4

De forma similar, o produto de uma matriz linha pela matriz A é uma matriz linha, que
escreve-se em função das linhas de A (exercı́cio).

Propriedades 1.18. Para matrizes A, B e C com ordens adequadas ás operações envolvidas,
valem as seguintes propriedades.

1. Associatividade. (A · B) · C = A · (B · C).

2. Distributividade.

A · (B + C) = A · B + A · C, Distributividade à esquerda ,

(B + C) · A = B · A + C · A, Distributividade à direita.

3. Im · A = A e A · In = A, onde Im e In são as matrizes identidades de ordem m e n


respectivamente.

4. A · 0 = 0 e 0 · A = 0, neste caso a ordem da matriz nula deve ter a ordem adequada.

5. (αA) · (βB) = (αβ)A · B, onde α e β são escalares.

Como nos casos anteriores, para as demonstrações o procedimento é verificar as igualdades das
entradas das matrizes em ambos os lados.
Mostraremos algumas propriedades do produto usuais nos números, mas que não são verdadei-
ras para matrizes.

1. O produto de matrizes não é comutativo, ou seja que para algumas matrizes, A·B 6=
B · A (mesmo que as ordens permitam efetuar os produtos). Por exemplo, se:
   
−1 2 3 −2
A= e B= ,
0 3 1 −1

9
   
−1 0 −3 0
temos, A · B = 6= = B · A.
3 −3 −1 −1
   
1 2 1 −1
Embora existem matrizes que comutam, como A = e B= .
−2 1 1 1
2. A · B = 0 não implica A = 0 ou B = 0.
   
−1 −1 1 0
Um exemplo é o par de matrizes A = e B= , pois A · B = 0, mas
0 0 −1 0
A 6= 0 e B 6= 0.
3. A · B = A · C, A 6= 0, não implica B = C.
     
1 0 1 2 1 2
Um exemplo é o caso A = , B = e C = , pois temos
  −1 0 1 1 −1 0
1 2
A·B =A·C = , mas B 6= C.
−1 −2

Matrizes em Blocos
As vezes é conveniente particionar uma matriz, para escreve-la como uma matriz cujos elementos
são submatrizes da própria. Dada uma matriz A, com a introdução de linhas divisórias entre
as linhas ou entre as colunas da matriz, podemos descrever A como a matriz cujos elementos
são os blocos determinados, neste caso A é dita matriz em blocos. Por exemplo,
 
1 0 2 −1  
 0 1 1 3  I B
A=   = .
0 0 1 7  0 C
0 0 7 2
Dadas duas matrizes A e B, o produto A · B pode-se descrever em função de seus blocos,
sempre que tanto as ordens em blocos de A e B, como as ordens dos blocos a multiplicar sejam
as adequadas ao produto. Por exemplo,
   
A11 A12 B11
A = ,B = , se as ordens para o produto Aik Bk1 são adequadas,
A21 A22 2×2 B21 2×1
temos:     
A11 A12 B11 A11 B11 + A12 B21
AB = = .
A21 A22 B21 A21 B11 + A22 B21
   
1 0 2 −1   1 0  
 0 1 1 3  A 11 A 12
 0 1  B11
Exemplos 1.19. 1. Sejam A =   0 0 1 7  = A21 A22 e B =  1 0  = B21 .
  

0 0 7 2 0 1
Os blocos de AB são:
 
    3 −1
3 −1 1 7  1 4 
A11 B11 + A12 B21 = , A21 B11 + A22 B21 = . Logo, AB = 
 1 7 .

1 4 7 2
7 2

10
2. O produto usual, pode ser entendido como um produto de matrizes em blocos de várias
formas. De fato, se A = [aij ]m×n e B = [bij ]n×p , podemos considerar A como um único
bloco e B com p blocos compostos por suas colunas, isto é B = [ C1 | . . . |Cp ]1×p , assim
obtemos:

A · B = A1×1 · B1×p = A · [ C1 | . . . |Cp ] = [ A · C1 | . . . |A · Cp ] ,

ou podemos considerar os blocos de A como suas linhas e B como um único bloco:


   
L1 L1 · B
A · B = Am×1 · B1×1 =  ...  · B1×1 =  ...  .
   
Lm Lm · B

Potenciação

Para matrizes quadradas podemos definir a potência de uma matriz , de forma análoga as
potências de números. De fato, dada a matriz quadrada A = [aij ] de ordem m, definimos as
potências de A como:

A0 = Im e An = A . . · A}, para n ≥ 1.
| · .{z
n vezes

Exemplo 1.20.
 
2 4 −2
1. Caculemos a expressão A − 3A, para A = . De fato,
0 1
    
2 4 −2 4 −2 16 −10
A = =
0 1 0 1 0 1
logo,
         
2 16 −10 4 −2 16 −10 −12 6 4 −4
A − 3A = −3 = + = .
0 1 0 1 0 1 0 −3 0 −2

2. Mostre que A2 − 3A = A(A − 3I), onde A é uma matriz quadrada qualquer e I é a matriz
identidade com a mesma ordem de A.
De fato, A(A − 3I) = A · A − A · (3I) = A2 − 3(A · I) = A2 − 3A.

São claras as seguintes propriedades da potenciação de matrizes.

Propriedades 1.21. Sejam A uma matriz quadrada, m, n números naturais não nulos e k um
escalar, então valem as propriedades:

1. Am+n = Am · An

2. (Am )n = Amn

11
3. (kA)m = k m Am .

Note que, da propriedade 1.21 temos que as potências da mesma matriz comutam.

Definição 1.22. Diremos que uma matriz quadrada é Idempotente quando A2 = A. A


será chamada Nilpotente, se existir um natural k, tal que Ak = 0. Exemplos:
 
  2 −1 1
1 0 
0, Im , , −3 4 −3 , são matrizes idempotentes.
1 0
−5 5 −4
 
  0 1 2
0 1 
0, , 0 0 −1 são matrizes nilpotentes.
0 0
0 0 0

Transposição

Consideremos uma matriz A = [aij ] de ordem m × n, chamamos matriz transposta de A à


matriz de ordem n × m, denotada At e dada por:

At = [bij ], onde bij = aji .


 t
1 2    t  
1 2 −1 3 −1 3 1
Exemplos 1.23.  2 4 = , = ,
2 4 5 1 −2 −1 −2
−1 5
 t
−1  
 0  = −1 0 6 .
6
Observações 1.24.

1. Seja A = [aij ]m×n uma matriz qualquer, então considerando as linhas de A e colunas de
At temos
 
ai1
 .. 
(Li (A)) =  .  = Ci (At ), (Cj (A))t = a1j · · · amj = Lj (At ).
t
 

ain

2. De acordo com as definições estudadas é simples ver que

• Uma matriz quadrada é simétrica, se e somente se At = A


• Uma matriz quadrada é antisimétrica, se e somente se At = −A.

12
Propriedades 1.25. Sejam A, B matrizes, então:

1. (At )t = A

2. (λA)t = λAt , onde λ é escalar.

3. (A + B)t = At + B t , se A, B são da mesma ordem

4. (A · B)t = B t · At , se as ordens de A e B são adequadas para o produto.

5. (Ak )t = (At )k , onde A é uma matriz quadrada e k é um natural.

No seguinte exemplo algumas matrizes simétricas e antisimétricas importantes.

Exemplo 1.26. 1. Se A é uma matriz de ordem m × n verifiquemos que AAt é simétrica


de ordem m e At A é simétrica de ordem n.
De fato, no primeiro caso, (AAt )t = (At )t At = AAt , analogamente para At A.

2. Se A é uma matriz quadrada de ordem m verifiquemos que A + At é simétrica e A − At


é antisimétrica.
De fato no primeiro caso, (A + At )t = At + (At )t = At + A = A + At , analogamente para
o segundo caso.

Exemplo 1.27. Muitos processos de diferente natureza podem envolver uma variável que muda
no tempo, de forma que em cada perı́odo de tempo esta variável assume um entre um número
finito de estados fixos E1 , . . . , En . Suponhamos que a probabilidade de passagem do estado Ej
ao estado Ei (“taxa” de passagem ou tranferência) só depende do estado inicial Ej e não da
quantidade de perı́odos transcorridos,

onde, pij é a probabilidade de passagem do estado Ej ao estado Ei , chamadas probabilidades


de transição. Suponha que queremos determinar a probabilidade de acontecer Ei no k-ésimo
perı́odo, pk (Ei ), de acordo com o diagrama:

13
temos,
 
n pk−1 (E1 )
pk (Ei ) =
X
pij pk−1 (Ej ) = pi1
  
. . . pin ·  ..
.

.
j=1 pk−1 (En )

A matriz T = [pij ]n×n é chamada matriz de transição de probabilidade. Nomeando por


Xk a matriz coluna das probabilidades no k-ésimo perı́odo, temos

Xk = T · Xk−1 .

Este tipo de processo é chamado cadeia de markov discreta.


Consideremos o seguinte caso: em uma determinada região, ao longo do tempo, o clima reveza-
se entre estados de chuva e seca. Observa-se que se chover bastante durante um perı́odo, a
probabilidade que chova no perı́odo seguinte é de 1/4 e que a probabilidade de que faça seca
é de 3/4. Ainda se houver seca em um perı́odo, no perı́odo seguinte a probabilidade de haver
seca ou chuva será a mesma e igual a 1/2.
Considerando a sequência de estados na ordem: 1o chuva e 2o seca, a matriz de transição de
probabilidades é,
C S
C 1/4 1/2 ,
T =
S 3/4 1/2
Usemos a notação:
p0s = probabilidade de seca inicial
p0c = probabilidade de chuva inicial
pns = probabilidade de seca no n-ésimo perı́odo
pnc = probabilidade de chuva no n-ésimo perı́odo
Vamos supor
 conhecidas as probabilidades iniciais p0c = 4/5 e p0s = 1/5. Considerando
pn
Xn = cn , pela propriedade da matriz de transição, temos:
ps

X1 = T X0
X2 = T X1 = T (T X0 ) = T 2 X0
X3 = T X2 = T (T 2 X0 ) = T 3 X0
.. .. ..
. . .
Xn = T Xn−1 = T (T n−1 X0 ) = T n X0

Portanto,
Xn = T n X0 , ∀n ≥ 1.

14
Dadas as condições iniciais, temos no quarto perı́odo:
 4       
4 1/4 1/2 4/5 0, 4 0, 4 4/5 0, 4
X4 = T X0 = ≈ ≈ .
3/4 1/2 1/5 0, 6 0, 6 1/5 0, 6
Portanto no quarto perı́odo a probabilidade de ter chuva é 0,4 e a de ter seca é de 0,6.
O comportamento do clima a longo prazo poderá ser previsto, caso os elementos da matriz
T n se aproximem dos elementos de uma matriz fixa P . Caso contrário não poderemos fazer
previsão a longo prazo, pois o processo modificará bastante a cada passo. Existem condições
sob as quais podemos saber se T terá esta propriedade ou não, mas não vamos abordar isso
neste exemplo.

O Traço
Definição 1.28. Seja A = [aij ] uma matriz quadrada de ordem n. O traço de A, denotado
tr(A), é o número real dado pela soma dos elementos da diagonal de A, ou seja:
tr(A) = a11 + . . . + ann .
 
4 5 4
1 
Por exemplo, se A = 5 6 5, então tr(A) = 1, 7.
10
7 8 7
Propriedades 1.29. Sejam A e B matrizes quadradas de ordem n e λ ∈ R, temos:

1. tr(λA) = λtr(A).
2. tr(A + B) = tr(A) + tr(B).
3. tr(AB) = tr(BA)
4. tr(AAt ) = ni=1,j=1 a2ij , onde A = [aij ].
P

Demonstração. Provemos (3), as outras propriedades são deixadas como exercı́cio:


n
X n X
X n
tr(AB) = Li (A) · Ci (B) = aik bki
i=1 i=1 k=1
Xn Xn n
XX n
= aik bki = bki aik
k=1 i=1 k=1 i=1
Xn
= Lk (B) · Ck (A) = tr(BA)
k=1

Observação 1.30. A propriedade 1.29-3 ainda é válida no caso A e B não quadradas, de


ordens m × n e n × m respectivamente. A demonstração segue da mesma forma, considerando
o número de parcelas adequado em cada somatório.

De forma geral, não é verdadeiro que tr(AB) = tr(A)tr(B). Determine matrizes A e B que
não verifiquem a igualdade.

15
Matriz Inversa

Seja A uma matriz de ordem m × n.

• A é dita invertı́vel à direita, se existir uma matriz B de ordem n×m, tal que AB = Im .
Neste caso a matriz B é chamada inversa à direita de A.
• A é dita invertı́vel à esquerda, se existir uma matriz C de ordem n × m, tal que
CA = In . Neste caso a matriz C é chamada inversa à esquerda de A.
• Se A é quadrada de ordem m, A é dita invertı́vel , quando existe uma matriz B de
mesma ordem, tal que AB = BA = Im . Para ser invertı́vel é suficiênte que AB = Im ou
BA = Im (a prova deste fato resulta do teorema 1.63). Neste caso B é dita inversa de A
e é denotada A−1 , assim
AA−1 = A−1 A = Im .
Exemplos 1.31.

1. A matriz identidade Im é invertı́vel pois Im Im = Im . A matriz quadrada nula não é


invertı́vel.
 
1 0 2
2. Verifique que a matriz A = 0 −1 1 é invertı́vel e sua inversa é a matriz B =
  0 0 1
1 0 −2
0 −1 1  . De fato,
0 0 1
       
1 0 2 1 0 −2 1 0 −2 1 0 2 1 0 0
AB = 0 −1 1 0 −1 1  = 0 −1 1  0 −1 1 = 0 1 0 .
0 0 1 0 0 1 0 0 1 0 0 1 0 0 1

Ou seja A é invertı́vel e A−1 = B.


 
2 1  
1 3 −3 0
3. Seja A = 1 1, a matriz B = 3 é uma inversa a esquerda de A, pois
−4 5 1
3 2
B · A = I2 .
 
  3 −4
2 1 3
Seja C = , a matriz D = 13 −3 5  é uma inversa a direita de C, pois
1 1 2
0 1
C · D = I2 .
 
a b
4. A = é invertı́vel, se e somente se, 4 = ad − bc 6= 0. Neste caso
c d
 
−1 1 d −b
A = .
4 −c a

16

x y
De fato se B = é a inversa de A, então
z w
      
a b x y ax + bz ay + bw 1 0
= = .
c d z w cx + dz cy + dw 0 1

Daı́ temos os sistemas,


 
ax + bz = 1 ay + bw = 0
e
cx + dz = 0 cy + dw = 1.

No primeiro sistema,
 
ax + bz = 1 acx + bcz = c
⇒ ⇒ (ad − bc)z = −c,
cx + dz = 0 acx + adz = 0
 
ax + bz = 1 adx + bdz = d
⇒ ⇒ (ad − bc)x = d.
cx + dz = 0 bcx + bdz = 0
Analogamente, do segundo sistema,

(ad − bc)y = −b e (ad − bc)z = a.

Logo, o sistema terá solução se e somente se 4 = ad − bc 6= 0 e:


d −c
x= , z= ,
4 4
analogamente
−b a
y= w= .
4 4
 
−1 1 d −b
Portanto A = .
4 −c a
 
2 −1
Por exemplo, se A = , então 4 = 2 − (−1) = 3 6= 0, portanto A é invertı́vel e
  1 1
1 1 1
A−1 = .
3 −1 2

Sabemos que em R  todo


 número não nulo é invertı́vel, nas matrizes isto não é verdade, por
1 0
exemplo a matriz 6= 02×2 e claramente não é invertı́vel.
0 0
Propriedade 1.32 (Lei do Corte). Se A é uma matriz invertı́vel e X, Y são matrizes tais que,
definidos os produtos, verificam AX = AY , então X = Y .

Para obter a Lei do corte, basta multiplicar por A−1 pelo lado esquerdo em ambos os lados da
igualdade AX = AY .

17
Propriedades 1.33. Dados A e B matrizes invertı́veis, k 6= 0 escalar e m inteiro positivo,
temos

1. A−1 também é invertı́vel e (A−1 )−1 = A

2. kA é invertı́vel e (kA)−1 = k1 A−1

3. AB é invertı́vel e (AB)−1 = B −1 A−1

4. Am é invertı́vel e (Am )−1 = (A−1 )m

5. At é invertı́vel e (At )−1 = (A−1 )t .

Demonstração. 1. Como AA−1 = A−1 A = I, então A é inversa de A−1 .

2. Segue de: (kA)( k1 A−1 ) = (k · k1 )(AA−1 ) = I

3. Segue de: (AB)(B −1 A−1 ) = A(BB −1 )A−1 = AA−1 = I

4. Segue da aplicação sucessiva da propriedade anterior, com A = B.

5. Segue de: At (A−1 )t = (A−1 A)t = I t = I.

 
3 1
Exemplo 1.34. Considere a matriz A = . Mostre que A é invertı́vel e resolva a
2 −1
equação: I + AX t = A2 .
A matriz A é invertı́vel pois 4 = (3)(−1) − (2)(1) = −5 6= 0
Aplicando as propriedades das matrizes na equação, temos:

I + AX t = A2 ⇔ AX t = A2 − I
⇔ A−1 AX t = A−1 (A2 − I)
⇔ X t = A − A−1
⇔ X = (A − A−1 )t .
 
−1 −1 −1
Sendo A−1 = , temos
5 −2 3
   −1 !t    t
3 1 3 1 3 1 1 −1 −1
X = − = +
2 −1 2 −1 2 −1 5 −2 3
 t  
1 14 4 1 14 8
= = .
5 8 −2 5 4 −2
Definição 1.35. Uma matriz A, quadrada de orden n é dita matriz ortogonal quando A é
invertı́vel e sua inversa é At , ou seja AAt = In = At A.

18
Exemplos 1.36. 1. A identidade In é uma matriz ortogonal, pois In Int = In . Outras
matrizes ortogonais são
 √ √ 
 √ √  1/√3 0√ 2/ √6
1/ √2 1/√2
A= , e B =  1/ √3 1/√2 −1/√ 6 ,
−1/ 2 1/ 2
−1/ 3 1/ 2 1/ 6

de fato, √ √  √
 √   
1/ √2 1/√2 1/√2 −1/√ 2
t 1 0
AA = = ,
−1/ 2 1/ 2 1/ 2 1/ 2 0 1
analogamente para B.
 
cos θ −sen θ
2. Verifique as matrizes da forma , são ortogonais para todo θ ∈ R.
sen θ cos θ
Propriedades 1.37. Se A e B são matrizes ortogonais, então também são ortogonais as ma-
trizes: AB, At e A−1 .

Demonstração. Usando propriedades da matriz inversa, temos que AB é invertı́vel e (AB)−1 =


B −1 A−1 = B t At = (AB)t , logo AB é ortogonal. É imediato mostrar que At = A−1 também é
ortogonal.

No capı́tulo 4 seção 4, caracterizamos as matrizes ortogonais.

1.4 Exercı́cios
1. Encontre a matriz [aij ]4×4 cujas componentes satisfazem a condição dada.

 −5, se i + j < 4
π(i+j) j−1
(a) aij = 2cos ( 2 ) (b) aij = e (c) aij = 0, se i + j = 4 .
i + j, se i + j > 4

2. Determine a forma geral de uma matriz A = [aij ]5×5 com a propriedade: aij = 0, para
todos i, j tais que |i − j| > 1.
   
1 7 2 1
3. Dadas A = , B= e I a matriz identidade de ordem 2.
2 6 4 3
(a) Se existir, determine a matriz X tal que: 12 (X − A − B) = 13 (X − 2I)
(b) Se existir a matriz X, tal que 2(A − B + X) = 3(X − A)

4. Se existir, determine a solução do sistema matricial:



X + Y = 3A
,
X − Y = 2B

19
   
2 0 1 5
onde A = eB= .
2 4 3 0

3 0    
4 −1 1 4 2
5. Considere as matrizes: A = −1 2, B = ,C= ,
0 2 3 1 5
1 1
   
1 6 1 3
D = −1 e E = −1 1 2.
2 4 1 3
Calcule quando possı́vel, as seguintes matrizes:
(a) 5(2A + C t ) − 4(A − C t ) (b) 21 (A · B)t + 21 At (c) (10E t − 10E)t
(d) 4B · C + 2B (e) B t (C · C t − At · A) (f) Dt · D · E (g) D · Dt · E
   
2 −1 3 1 −3 −5
6. Sejam as matrizes A =  0 4 5  eB= 0 1 2 
−2 1 4 4 3 6
Caso exista uma matriz C nas condições dadas, calcule seu traço:
(a) −C t = −A+B (b) (2A+C t )t = At +B t (c) (B 2 −3C)t = B t At (d) A+B +C = C t .
 
2 1
7. Seja A = , mostre duas matrizes B e C, tais que AB = AC e B 6= C.
6 3
8. Dados s = 1, 2, 3 ou 4 e t = 1, 2 ou 3, define-se a matriz,
(
1, se i = s, j = t
Est = [eij ]4×3 , onde eij = .
0, outro caso

Analogamente, para k = 1, 2, 3 e l = 1, 2, 3, define-se


(
1, se i = k, j = l
Fkl = [fij ]3×3 , onde fij = .
0, outro caso

Determine:
(a) E32 F21 (b) Em que casos Est Fkl = 0 ? (c) Em que casos Est Fkl 6= 0 ?

9. Sejam A, B e C matrizes quadradas de ordem n. Determine se as seguintes proposições


são V ou F, justificando se verdadeiras, dando exemplo de falsidade se falsas.
a) Se A e B são tais que AB = 0 então BA = 0.
b) A2 − B 2 = (A + B)(A − B)
c) (A + B)2 = A2 + 2AB + B 2
d) Se A e B são matrizes simétricas, então A + B é simétrica.
e) Se A e B são matrizes anti-simétricas, então A + B é anti-simétrica.

20
f) Se A e B são matrizes simétricas, então AB é simétrica.
g) Se tr(AAt ) = 0 então A é a matriz nula.
h) Se P é uma matriz invertı́vel, então tr(P AP −1 ) = tr(A).

10. Em cada caso, encontre os valores de k, se houverem, que satisfazem a equação.


  
  1 1 0 k
(a) k 1 1 1 0 2
   1 = 0
0 2 −3 1
  
  1 2 0 2
(b) 2 2 k 2 0 3 2 = 0.
0 3 1 k
 
1 2
11. Considere A = e determine todas as matrizes 2 × 2 que comutam com A.
2 1

12. Em cada caso calcule as potências A2 , A3 , A4 , A5 , A6 . É possı́vel calcular A2015 ?


   √ √ 
0 1 1/√2 −1/√ 2
(a) A = , (b) A =
−1 1 1/ 2 1/ 2
   
1 0 −2 2 3 0
13. Considere as matrizes A = −3 1 1  e B =  1 −1 1.
2 0 −1 −1 6 4
(a) Calcule as colunas de AB na forma ACi (B), i = 1, 2, 3 e verifique que cada coluna de
AB é uma combinação da forma rC1 (A) + sC2 (A) + tC3 (A), onde Ci (A) são as colunas
de A.
(b) Calcule as linhas de AB na forma Li (A)B, i = 1, 2, 3 e verifique que cada linha de
AB é uma combinação da forma rL1 (B) + sL2 (B) + tL3 (B), onde . Justifique que isto
sempre acontece assim.
Lembre que Li (A) e Cj (A) é a notação para as linhas e colunas de A respectivamente e
idem para B.

14. Uma rede de comunicação tem cinco locais com transmissores de potências distintas. Na
matriz A abaixo é definido aij = 1, quando a i-ésima estação pode transmitir diretamente
para a j-ésima estação, também temos aij = 0 quando a transmissão da i-ésima estação
não alcança a j-ésima estação. Considere que aii = 0.
 
0 1 1 1 1
 1 0 1 1 0 
 
A=  0 1 0 1 0 .

 0 0 1 0 1 
0 0 0 1 0
Calcule e dê o significado das matrizes A2 e A + A2 .

21
15. Sejam A, B, C e X matrices quadradas da mesma ordem e invertı́veis. Resolva as
equações. Dando X em função de A, B e C.
(a) ABX = C
(b) AX 2 C = AXBC
(c) AX −1 = CA
   
t 2 5 −1 1
(d) AX B = AB − I, calcule X, sendo A = ,B= .
2 4 −1 2

16. Se possı́vel, resolva a equação matricial: At X = AB, onde X é uma coluna 2 × 1 e:


       
−2 1 −1 40 120 160
(a) A = e B= (b) A = e B=
−3 3 −1 80 80 200

17. (a) Se A é uma matriz retângular, tal que At A é invertı́vel, verifique que a matriz B =
(At A)−1 At é uma inversa à esquerda de A.
(b) Se A é uma matriz retângular, tal que AAt é invertı́vel, verifique que a matriz C =
At (AAt )−1 é uma inversa à direita de A.
 
1 2
−1 0 
(c) Se possı́vel, determine uma matriz inversa à esquerda de A =  2
.
2
1 −1

18. Determine os parâmetros reais a, b, c, d de modo que a matriz abaixo seja ortogonal :
 
1 0 0
 0 √1 √1 
2 2
a b c

19. 
Determine, justificando,
 se é verdadeiro ou falso que, para todo θ ∈ R a matriz A =
cos θ −sen θ
é ortogonal.
sen θ cos θ

20. Determine, justificando, se é verdadeiro ou falso que, se A é uma matriz ortogonal e λ é


um escalar não nulo, então λA também é ortogonal.

21. Em uma pesquisa sobre consumo de refrigerantes, foram consideradas três marcas do
mercado: Gelato, Delı́cia e Suave. Após a aplicação da pesquisa foi constatado que em
um intervalo de tempo as pessoas mudam a marca do refrigerante consumido e foram
determinadas as seguintes probabilidades de mudança de uma marca para outra (taxas
de passagem) organizadas na matriz T = [aij ], onde
aij = probabilidade de escolha do refrigerante i, após consumo do refrigerante j. Considere
que os refrigerantes mencionados foram numerados na ordem dada.
 
0.8 0.4 0.6
(a) Considere T = 0.1 0.5 0.2. Determine :
0.1 0.1 0.2

22
• A probabilidade de que uma pessoa que consome o refrigerante Gelato passe a con-
sumir o refrigerante Suave.
• A probabilidade de que uma pessoa que consome o refrigerante Suave passe a con-
sumir o refrigerante Gelato.

(b) Considerando a matriz dada em (a) e que as taxas de passagem não mudam numa
segunda pesquisa, determine a matriz T2 que indica a probabilidade de se mudar de marca
após duas pesquisas e mostre que é T2 = T 2 .
(c) Considerando que as pesquisas mostram que, as pessoas sempre mudam de refrigerante
para alguma das outras duas marcas com a mesma probabilidade, construa a matriz T .
Verifique que a matriz T2 que indica a probabilidade de se mudar de marca após duas
pesquisas é T2 = T 2 , como em (b).

1.5 Escalonamento - Aplicações ao Cálculo da Inversa e


a Fatoração LU
Operações Elementares

Sejam A uma matriz de ordem m × n e Li sua i-ésima linha. São denominadas Operações
Elementares Linhas em A, as seguintes transformações da matriz A.

1. Permutação de linhas: Por Li ↔ Lj , representa-se a transformação de A pela


permutação da i-ésima com a j-ésima linha. Por exemplo:
   
1 2 4 1 2 6 −2 0
L1 →L3
A = 0 1 3 −1 −→ 0 1 3 −1 .
2 6 −2 0 1 2 4 1

2. Multiplicação de uma linha por um escalar: Seja k 6= 0, representamos por kLi → Li


a transformação de A pela multiplicação da i-ésima linha pelo escalar k.
   
1 2 4 1 1 L →L 1 2 4 1
3 3
A = 0 1 3 −1 2 −→ 0 1 3 −1 .
2 6 −2 0 1 3 −1 0

3. Substituição de uma linha por operação com linhas: Seja k um escalar qualquer,
representamos por Li + kLj → Li a transformação de A pela substutição da i-ésima linha
pela combinção Li + kLj .
   
1 2 4 1 1 2 4 1
L −2L3 →Li
A = 0 1 3 −1 3 −→ 0 1 3 −1 .
2 6 −2 0 0 2 −10 −2

23
Observação 1.38. Sejam q 6= 0 e k escalares, a aplicação seguidamente das operações qLi e
Li + kLj → Li resulta na operação de substituição da i-ésima linha pela combinação qLi + kLj ,
a aplicação destas duas operações elementares será denotada como qLi + kLj → Li .
Definição 1.39. Sejam A e B matrizes. Diremos que B é linha equivalente a A, se B
é obtida pela a partir de A pela aplicação de um número finito de operações elementares. A
notação usada é A → B.
Exemplo 1.40.
     
1 2 4 1 1 2 4 1 1 2 4 1
L −2L1 →L3
A = 0 1 3 −1 3 −→ 0 1 3 −1 −2L2−→+L3 →L3
0 1 3 −1 .
2 6 −2 0 0 2 −10 −2 0 0 −16 0
 
1 2 4 1
Portanto, B = 0 1 3 −1 é linha-equivalente a A.
0 0 −16 0
Propriedades 1.41. A relação “linha equivalência”entre matrizes da mesma ordem tem as
propriedades:

1. Reflexiva: A → A.

2. Simétrica: Se A → B então B → A, ou seja que as operações elementares podem ser


invertidas.

3. Transitiva: Se A → B e B → C, então A → C.

Escalonamento

Dada uma matriz A e uma linha não nula Li de A, chama-se pivô ou lı́der de Li ao primeiro
elemento não nulo dessa linha.
Diremos que uma matriz A = [aij ] está na forma escalonada linha (el) , quando:

1. Toda linha nula de A ocorre “abaixo”de todas as linhas não nulas.

2. Nas linhas não nulas o número de zeros anteriores ao pivô “aumenta linha após linha”.
Neste caso os elementos “abaixo”de um pivô serão todos nulos.

Diremos que uma matriz está na forma escalonada reduzida linha (erl ), quando:

1. A tem a forma escalonada

2. Os pivôs são iguais a 1.

3. Os pivôs são os únicos elementos não nulos de suas respectivas colunas.

24
Exemplos 1.42.

1. Matrizes escalonadas linha,


   
4 2 0 1 0 −2 1 5 0 2
0 −1 3 1 e 0 0 0 −4 7 −3
0 0 0 0 0 0 0 0 0 −1

2. Matrizes escalonadas reduzidas linha,


 
  1 0 −4 0 0
1 0 0 1
0 1 0 −1
0 1 −1 0 0
e 
0

0 0 1 0
0 0 1 −2
0 0 0 0 1

3. As matrizes erl de ordem 2 e 3 são de alguma das seguintes formas,


       
1 0 0 1 1 a 0 0
• Para ordem 2: , , e .
0 1 0 0 0 0 0 0
       
1 0 0 1 0 a 1 a 0 0 1 0
• Para ordem 3: 0 1 0 , 0 1 b  , 0 0 1 , 0 0 1 ,
   0 0 1  0 0 0  0 0 0 0 0 0
1 a b 0 1 a 0 0 1 0 0 0
0 0 0 , 0 0 0 , 0 0 0 e 0 0 0 .
   
0 0 0 0 0 0 0 0 0 0 0 0

Dada uma matriz A, vamos efetuar operações elementares para transformar A em uma matriz
escalonada ou escalonada reduzida. Com este objetivo, inicialmente vamos definir a seguinte
operação entre linhas.
Pivoteamento. Consideremos linhas não nulas Li e Lk de A com pivôs na mesma coluna,
digamos Cj de A, o pivoteamento de Li sobre Lk consiste usar operações elementares para
substituir Lk por uma linha L0k que tenha maior número de zeros antes do pivô.

Li : 0 . . . aij ∗ ∗ ...
Lk : 0 . . . akj ∗ ∗ ...
L0k : 0 . . . 0 ∗ ∗ ...

onde aij e akj são os pivôs de Li e Lk respectivamente. Como algoritmo, o pivoteamento é


realizado por meio da aplicação, em A, da operação elementar:
akj
−cLi + Lk → Lk , onde c = , é chamado multiplicador .
aij
Manualmente, também podemos usar operações elementares como:

±(−akj Li + aij Lk ) → Lk .

25
O escalonamento de uma matriz A é um processo organizado para transformar uma matriz
qualquer A em uma matriz escalonada e linha equivalente a A e consiste em aplicar em A a
seguinte sequência de operações elementares:

1°) Use permutação de linhas, se necessário, para levar as linhas nulas abaixo das não nulas.

2°) Use permutação de linhas, se necessário, de forma que a primeira linha tenha o menor
número de zeros antes do pivô do que às linhas abaixo. Se baixo o pivô da primeira
linha tem elementos não nulos, pivotear a linha sobre as linhas abaixo dela, assim após
os pivoteamentos necessários, os elementos baixo o pivô serão nulos.

3°) Se a matriz resultante está escalonada parar o processo, senão efetue as etapas 1°) e
2°) substituindo a primeira pela segunda linha de A, continue o processo sucessivamente
até a penúltima linha não nula, ao finalizar o processo obtem-se uma matriz el e linha
equivalente a A.

Para obter a forma escalonada reduzida (erl), continuar o processo pivotendo as linhas não
nulas para zerar todos os elementos acima de cada pivô. Finalmente usar a multiplicação por
escalar de linhas para obter pivôs iguais a 1.
Exemplos 1.43.
   
0 6 5 0 −1 1 0 2 −1 −3
L3 −2L1 →L3
1 0 2 −1 −3 1 ↔L2  0
 L−→
 6 5 0 −1 −→
1. A = 
 2 −3 1 −2 −7  2 −3 1 −2 −7

L4 +L1
−→
−1 2 −3 1 0 −1 2 −3 1 0
   
1 0 2 −1 −3 1 0 2 −1 −3
0 6 5 0 −1  2L3 +L 2 →L3 0
 6 5 0 −1 −3L4−→
+L2 →L4

0 −3 −3 0 −1 −→ 0 0 −1 0 −3
0 2 −1 0 −3 0 2 −1 0 −3
   
1 0 2 −1 −3 1 0 2 −1 −3
0 6 5 0 −1  L4 +8L3 →L4 0
 6 5 0 −1 

0 0 −1 0 −3 −→ 0 0 −1 0 −3  .

0 0 8 0 8 0 0 0 0 −16

A matriz obtida é uma matriz escalonada e linha equivalente a A. Vamos obter a matriz
escalonada reduzida linha:
   
1 0 2 −1 −3 1 0 2 −1 −3
0 6 5 0 −1   L2 +5L3 →L2 0
 6 0 0 −16  L1 +2L 3 →L1

0 0 −1 0 −3  −→ 0 0 −1 0 −3  −→
0 0 0 0 −16 0 0 0 0 −16
   
1 0 0 −1 −9 1 0 0 −1 −9 9L4 +L1 →L1
−→
−1
0 6 0 0 −16 16 4 0 6 0
 L  0 −16 16L4 +L2 →L2

0 0 −1 0 −3  −→ 0 0 −1 0 −3  −→

3L4 +L3 →L3
0 0 0 0 −16 0 0 0 0 1 −→

26
 
1 0 0 −1 0
0 6 0 0 0
 , finalmente realizando 1 L2 → L2 e −1L3 → L3 , temos que a
0 0 −1 0 0 6

0 0 0 0 1
 
1 0 0 −1 0
0 1 0 0 0
matriz erl, linha equivalente a A é, 
0 0 1 0 0 .

0 0 0 0 1
2. Determinemos a matriz erl da matriz A dada.
     
2 1 2 2 1 2 2 1 2
2 3 1   −L1−→+L2 →L2
2 −1
 L3 ↔L5 2 3 1  −2L +L →L
 0 −2L1 +L2 →L1
   −→
A= 0 0 0  −→ 4 2 3 
   1
−→3 3 0 0 −1 3L2 +2L4 →L3
−→
 
1 2 −1 1 2 −1 L1 −2L4 →L4 0 −3 4 
−→
4 2 3 0 0 0 0 0 0
     
−4 0 −5 L −5L →L −4 0 0 −1
L1 1 0 0
 0 2 −1 1 −→ 3 1
 0 2 0  −→ 4
0 1 0
 0 0 −1 L2 −L 3 →L2  0 0 −1 12 L2
     
0 0 1
  −→   −→  .
 0 0 5  L4 +5L3 →L3  0 0 0  −L3 0 0 0
−→ −→
0 0 0 0 0 0 0 0 0

Observações 1.44.

1. Dada uma matriz A, é claro que podemos obter diferentes formas escalonadas e equiva-
lentes a A. Ao contrário, a matriz escalonada reduzida, linha equivalente a A é única,
isto deve-se ao fato, que vamos admitir, que duas matrizes diferentes, da mesma ordem e
da forma erl não são linha equivalentes.

2. Duas matrizes serão linha-equivalentes, se e somente se, tem as mesmas formas erl. De
fato, por um lado é claro que se A é linha equivalente a B, então suas formas erl também
serão linha equivalentes e portanto serão iguais. Por outro lado, se A e B tem a mesma
forma erl R, temos

A → R e B → R ⇒ A → R → B ⇒ A → B.

3. Dada uma matriz A, as matrizes escalonadas linha equivalentes a A tem o mesmo número
de pivôs, ou seja o mesmo número de linhas não nulas, isto deve-se basicamente a que
a partir de linhas não nulas de matrizes escalonadas não é possı́vel obter novas linhas
nulas usando operações elementares (vide conceito de independência linear em espaços
vetoriais, colocado nos enunciados 2.18 e 2.19(3)).

Definição 1.45. Seja A uma matriz de ordem m × n, definimos posto de A como o número de
linhas não nulas (ou número de pivôs) de uma forma escalonada linha-equivalente a A, o posto
é denotado pA . E verifica-se pA ≤ min{m, n}. Define-se a nulidade A como: nA = n − pA .

27
Exemplos 1.46. Calcule o posto e a nulidade das matrizes dadas.
     
1 0 −1 1 0 −1 1 0 −1
2 1 −5 L2 −2L1 →L2 0 1 −3 L3 −2L2 →L3
−→ 0 1 −3
1. A = 
0 2 −6
 −→ 
0 2 −6

L4 +L2 →L4

0
,
−→ 0 0
0 −1 3 0 −1 3 0 0 0
logo pA = 2 e nA = 3 − 2 = 1.
     
2 2 0 1 −2L2 +L1 →L2 2 2 0 1 2 2 0 1
−→ L +L2 →L3
2. A = 1 0
 2 0 −2L3 +L1 →L3 0 2 −4 1  3 −→ 0 2 −4 1,
1 2 −2 1 −→ 0 −2 4 −1 0 0 0 0
logo pA = 2 e nA = 4 − 2 = 2.

O teorema a seguir relaciona a aplicação de uma operação elementar com o produto de matrizes.

Teorema 1.47. Seja A uma matriz quadrada de ordem m, se B é uma matriz linha equivalente
a A, obtida pela aplicação da operação elementar O, então B = EA, onde E é a matriz linha
equivalente a identidade Im obtida pela aplicação da operação elementar O, ou seja
O O
A → B e Im → E ⇒ B = EA.

Exemplo 1.48. Por exemplo,


   
1 2 4 1 2 4
L +L1 →L3
A = 0 1 3  3 −→ 0 1 3 = B,
2 1 −4 3 3 0
e
   
1 0 0 1 0 0
L +L1 →L3
I3 = 0 1 0 3 −→ 0 1 0 = E,
0 0 1 1 0 1

verificamos claramente que


    
1 0 0 1 2 4 1 2 4
EA = 0 1 0 0 1 3  = 0 1 3 = B.
1 0 1 2 1 −4 3 3 0

Observação 1.49. A matriz E obtida de Im pela aplicação de exatamente uma operação


elementar é chamada matriz elementar.
Por exemplo, as matrizes E1 , E2 e E3 a seguir são elementares:
   
1 0 0 0 0 1
L1 ↔L3
I3 = 0 1 0 −→ 0 1 0 = E1 ,
0 0 1 1 0 0

28
   
1 0 0 1 0 0
5L2 ↔L2
I3 = 0
 1 0 −→ 0 5
  0 = E2 e
0 0 1 0 0 1
   
1 0 0 1 3 0
L +3L2 →L1
I3 = 0 1 0 1 −→ 0 1 0 = E3 .
0 0 1 0 0 1

Corolário 1.50. Sejam O1 , . . . , Ok uma sequência de operações e E1 , . . . , Ek as matrizes ele-


mentares associadas.
1 O k O
1. Se F é a matriz quadrada tal que Im −→ . . . −→ F , então F = Ek · . . . · E1 .
1 O k O
2. Se A e B são matrizes de ordem m × n tais que A −→ . . . −→ B, então B = F A, onde
F é a matriz obtida dada em 1.

As matrizes elementares são invertı́veis e suas inversas são também matrizes elementares. De
fato, considerando as operações elementares “inversas”em cada caso, temos:

• Se E1 é obtida de Im por permutação de linhas, então E1−1 = E1 .

• Se E2 é obtida de Im pela aplicação de kLi , então E2−1 é obtida de Im pela aplicação de


1
L.
k i

• Se E3 é obtida de Im pela aplicação de kLj + Li → Li , então E3−1 é obtida de Im pela


aplicação de −kLj + Li.

Cálculo da inversa aplicando escalonamento

Se A é uma matriz quadrada de ordem m e R é a matriz erl, linha equivalente a A, pelo


corolário 1.50 temos que F A = R, onde F é um produto de matrizes elementares e portanto F
é invertı́vel. Desta igualdade obtemos que

A invertı́vel ⇔ R invertı́vel ⇔ R = Im ,

pois a única matriz erl de ordem m, invertı́vel é Im . Assim,

A é invertı́vel ⇔ A → Im .

Sendo A é invertı́vel obtemos,


F A = Im ⇒ A = F −1 ,
logo A é um produto de matrizes elementares e A−1 = F . O corolário 1.50 mostra que a
sequência de operações elementares que leva A em Im levará Im em F . Assim, podemos enunciar
o seguinte resultado.

29
Teorema 1.51. Seja A uma matriz quadrada de ordem m, então:

1. A é invertı́vel se e somente se é um produto de matrizes elementares.

2. A é invertı́vel, se e somente se, A é linha equivalente a Im . Neste caso, se S é a sequência


de operações elementares que leva A em Im , então a mesma sequência de operações
elementares levará Im em A−1 , ou seja
S S
A −→ Im ⇒ Im −→ A−1 .

Observação 1.52. De acordo com o teorema acima, se A é invertı́vel, temos o esquema:


S
A −→ Im
S ,
Im −→ A−1

por praticidade construı́mos uma matriz composta por A e Im , chamada matriz ampliada,
denotada por [A|Im ]. Assim, o processo de inversão consiste em “levar” [A|Im ] em [Im |A−1 ].

Exemplos 1.53.
 
1 −2 4
1. Seja A =  0 −1 4, veremos que A é invertı́vel e cacularemos sua inversa.
−1 0 2
   
1 −2 4 1 0 0 1 −2 4 1 0 0 L1 −2L2 →L1
L +L3 →L3 −→
[A|I] =  0 −1 4 0 1 0  1 −→  0 −1 4 0 1 0 
L3 −2L2 →L3
−1 0 2 0 0 1 0 −2 6 1 0 1 −→
   
1 0 −4 1 −2 0 L1 −2L3 →L1 1 0 0 −1 2 −2 −L2 →L2
−→
 0 −1 4 0 1 0  −→  0 −1 0
L2 −2L3 →L2 2 −3 2  1
− 2 L3 →L3
0 0 −2 1 −2 1 −→ 0 0 −2 1 −2 1 −→
 
1 0 0 −1 2 −2
 0 1 0 −2 3 −2  ,
0 0 1 −1/2 1 −1/2
 
−1 2 −2
∴ A−1 =  −2 3 −2  .
−1/2 1 −1/2
 
1 0 −1 1
 2 1 0 0
2. Seja A =  0 1 1 1. Determinemos se A é invertı́vel.

−1 0 0 2
     
1 0 −1 1 1 0 −1 1 1 0 −1 1
 2 1 0 0 L−→ 2 −2L1 
0 1 2 −2 L−→
 3 −L2 0 1 2 −2
   
 0 1 1 1 L−→ 4 +L1 0 1 1 1 0 0 −1 3 
−1 0 0 2 0 0 −1 3 0 0 −1 3

30
   
L1 −L3
−→ 1 0 0 −2 1 0 0 0
0 1 0 4 0 1 0 8
L2 +2L3
−→   −L−→
3 →L3  ,
L4 −L3
0 0 −1 3  0 0 1 −3
−→ 0 0 0 0 0 0 0 0
observamos que a matriz A não é linha equivalente a I4 e portanto não é invertı́vel.

Observando que entre as formas erl de uma matriz quadrada de ordem m, a identidade é a
única com posto m e em vista do teorema 1.51, obtemos o seguinte corolário.

Corolário 1.54. Uma matriz A, quadrada de ordem m é invertı́vel, se e somente se, pA = m.

Pelo Corolário acima, para determinar se A é invertı́vel ou não, é suficiente a forma escalonada
de A (não há necesidade da forma erl).
 
2 0 −2
Exemplo 1.55. Determine se a matriz A =  1 −2 0  é invertı́vel ou não.
−1 0 2
   
2 0 −2 L1 −2L2 2 0 −2
−→
A = 1 −2 0  L1 +2L3 0 4 −2 , logo pA = 3, portanto A é invertı́vel.

−1 0 2 −→ 0 0 2

Aplicação a Fatoração LU

Consideremos uma matriz A quadrada, com a condição que seu escalonamento possa ser rea-
lizado sem permutações de linhas, isto significa que o escalonamento poderá ser feito somente
com operações linha do tipo Li + kLj → Li . Com esta condição veremos que é possı́vel escrever
A como produto de uma matriz triangular inferior L e outra triangular superior U , isto é,

A = LU.

Do processo de escalonamento via operações de pivoteamento, obtemos A −→ U , onde U é


uma matriz na forma el, logo U será triangular superior, e

Ek · . . . · E1 · A = U,

onde cada matriz elementar Ei está associada a uma operação de pivoteamento. Daı́,

A = L · U, onde L = E1−1 · . . . · Ek−1 .

Suponha que a matriz elementar E está associada ao pivoteamento da linha Ls , sobre a linha
Li , i < s, com pivôs o na coluna j, podemos descrever a operação na forma,

−cLs + Li → Li .

31
Definimos cij = c, chamado multiplicador da posição (i, j), daı́ a matriz elementar E terá
1’s na diagonal, −cij na posição (i, j) (baixo a diagonal) e 0’s no resto. Logo a matriz inversa
E −1 terá 1’s na diagonal, cij na posição (i, j) e 0’s no resto. Notemos que cada matriz E −1 é
uma matriz triangular inferior.
Assim, o produto L = E1−1 · . . . · Ek−1 é uma matriz triangular inferior, é possı́vel verificar que L
está composta por 1’s na diagonal e cij em cada posição (i, j) baixo a diagonal e 0’s no resto,
pois trata-se de sucessivas operações elementares realizados na matriz I. Por exemplo, se A é
uma matriz 3 × 3, em cujo escalonamento obtem-se os multiplicadores c21 , c31 e c32 , então
     
1 0 0 1 0 0 1 0 0
E1 = −c21 1 0 , E2 =  0 1 0 e E3 = 0 1 0 ,
0 0 1 −c31 0 1 0 −c32 1

logo
     
1 0 0 1 0 0 1 0 0
E1−1 = c21 1 0 , E2−1 =  0 1 0 e E3−1 = 0 1 0 ,
0 0 1 c31 0 1 0 c32 1
portanto
     
1 0 0 1 0 0 1 0 0 1 0 0
L = E1−1 E2−1 E3−1 = c21 1 0  0 1 0 0 1 0 = c21 1 0 ,
0 0 1 c31 0 1 0 c32 1 c31 c32 1

em geral, desde que as operações elementares sejam realizadas seguindo o algoritmo de escalo-
namento, a matriz L terá a forma acima, ou seja que L é a matriz triangular inferior com 1’s
na diagonal e os respectivos multiplicadores baixo a diagonal. Assim,

A = LU, onde L é triangular inferior e U é triangular superior.



2 1 3
Exemplo 1.56. Faremos a fatoração LU da matriz A =  1 −1 1 .
−2 1 −1
Escalonando, obtendo em cada passo a matriz elementar e o multiplicador respectivo:
     
2 1 3 2 1 3 1 0 0
1 +L2 →L2
 1 −1 1  (−1/2)L−→  0 −3/2 −1/2, c21 = 1/2, E1−1 = 1/2 1 0
−2 1 −1 −2 1 −1 0 0 1
     
2 1 3 2 1 3 1 0 0
+L3 →L3
 0 −3/2 −1/2 1·L1−→ 0 −3/2 −1/2, c31 = −1, E2−1 =  0 1 0
−2 1 −1 0 2 2 −1 0 1
     
2 1 3 4
L +L3 →L3
2 1 3 1 0 0
0 −3/2 −1/2 3 2 −→ 0 −3/2 −1/2, c32 = − 4 , E3−1 = 0 1 0.
3
0 2 2 0 0 4/3 0 − 43 1

32
 
2 1 3
Logo, U = 0 −3/2 −1/2 é triangular superior. Para calcular L = E1−1 E2−1 E3−1 , basta
4
0 0 3
compor a matriz usando os multiplicadores:
 
1 0 0
L = 1/2 1 0 .
−1 −4/3 1

Portanto:   
1 0 0 2 1 3
A = LU = 1/2 1 0 0 −3/2 −1/2 .
−1 − 34 1 0 0 4
3

1.6 Sistemas de Equações Lineares


Um sistema de equações lineares, com m de equações lineares relativas a um grupo de n
incógnitas x1 , . . . , xn é da forma:


 a11 x1 + . . . + a1n xn = b1
 a21 x1 +

. . . + a2n xn = b2
(∗) .. .. .. ,


 . . .
 a x + . . . + amn xn = bm
m1 1

onde,

• aij : representa o coeficiente da incógnita xj na i-ésima equação;

• bi : denota o coeficiente independente da i-ésima equação.

Uma solução do sistema é uma sequência de n valores que atribuı́dos a cada x1 , · · · , xn sa-
tisfazem todas as equações do sistema. Pode-se verificar que um sistema somente pode ter
uma única solução, infinitas soluções ou nehuma solução. Logo, podemos classificar os sistemas
como:

1. Sistema Possı́vel Determinado, SPD : quando (*) possui uma única solução.

2. Sistema Possı́vel Indeterminado, SPI : quando (*) possui infinitas soluções.

3. Sistema Impossı́vel, SI: quando (*) não possui solução.

33
Escrevendo matricialmente o sistema (*), temos:
      
b1 a11 x1 + . . . + a1n xn a11 . . . a1n x1
 ..   .
.   .. .
. .
.   .. 
 . = . = . . .  . .
bm am1 x1 + . . . + amn xn am1 . . . amn xn

Logo o sistema (*) é representado pela equação matricial:

A · X = b,

onde
X = [xi ] : Matriz coluna das incógnitas,
A = [aij ] : Matriz dos coeficientes do sistema,
b = [bi ] : Matriz coluna dos termos independentes.
Outra matriz útil é a matriz da forma b: [A|b], chamada matriz ampliada de A com b.

Exemplo 1.57. As matrizes associadas ao sistema,



 x + y + 2z = 9
2x + 4y − 3z = 1 ,
3x + 6y − 5z = 0

são:
 
1 1 2
Matriz de coeficientes: A = 2 4 −3.
3 6 −5
 
9
Matriz de termos independentes: b = 1 .

0
 
1 1 2 9
Matriz ampliada: [A|b] =  2 4 −3 1  .
3 6 −5 0

Eliminação de Gauss e de Gauss-Jordan.

Um dos métodos básicos par determinar as soluções de um sistema é substituir-o por um sistema
equivalente (sistema com a mesma solução), que seja mais simples de resolver. É claro que as
seguintes operações com as equações do sistema, levam a um sistema equivalente ao inicial.

• Multiplicar uma equação por um escalar não nulo.

34
• Permutar duas equações

• Substituir uma equação pela soma dessa equação e um múltiplo de outra equação.

Consideremos o sistema S : A · X = b, notemos que realizar as operações, enunciadas acima,


com as equações de S equivale a aplicar operações elementares na matriz ampliada [A|b], daı́
podemos usar o escalonamento da matriz ampliada para obter um sistema S 0 de solução simples
ou direta e equivalente ao sistema original.

Chamamos Eliminação de Gauss ao método de solução de um sistema linear, que consiste


em:

• Escalonar a matriz ampliada levando a forma el.

• Obter o sistema linear associado a forma el, que será equivalente ao inicial.

• Resolver por substituição retroativa.

Se no primeiro passo usamos a forma escalonada reduzida de [A|b], o método é chamado de


Eliminação de Gauss-Jordan.

Exemplos 1.58.

1. Consideremos o sistema:

 x + y + 2z = 9
2x + 4y − 3z = 1 ,
3x + 6y − 5z = 0

 
1 1 2 9
A matriz ampliada do sistema é: [A|b] =  2 4 −3 1 . Escalonando [A|b] temos:
3 6 −5 0
   
1 1 2 9 L2 −2L1 →L2 1 1 2 9
−→ 3L −2L →L
 2 4 −3 1 
L3 −3L1 →L3
 0 2 −7 −17  2 −→3 3
3 6 −5 0 −→ 0 3 −11 −27
   
1 1 2 9 1
L
1 1 2 9
2 2
 0 2 −7 −17  −→  0 1 −7/2 −17/2 ,
0 0 1 3 0 0 1 3
Agora voltando ao sistema temos:

35

 x + y + 2z = 9
y − 7/2z = −17/2 ,
+ z = 3

. Logo o sitema é SPD e temos :


z = 3 ⇒ y = 2 ⇒ x = 1.

2. Resolvamos o sistema:


 x − y + 3z = 1
x + z − w = −1


 2y + w = 0
2x + y + 4z = 0

 
1 −1 3 0 1
 1 0 1 −1 −1 
A matriz ampliada do sistema é: [A|b] =  0 2 0 1
. Escalonando [A|b]
0 
2 1 4 0 0
temos:
   
1 −1 3 0 1 1 −1 3 0 1
 1 0 1 −1 −1  L2 −L 1 →L1
−→  0 1 −2 −1 −2  L3 −2L −→2 →L3
   
 0 2 0 1 0  L4 −2L
−→1 →L4  0 2 0 1 0  L4 −3L
−→2 →L4

2 1 4 0 0 0 3 −2 0 −2
   
1 −1 3 0 1 1 −1 3 0 1
 0 1 −2 −1 −2  −L3 +L4 →L4  0 1 −2 −1 −2 

 0 0
 −→  .
4 3 4   0 0 4 3 4 
0 0 4 3 4 0 0 0 0 0
Agora voltando ao sistema temos:

 x − y + 3z = 1
y − 2z − w = −2 ,
4z + 3w = 4

logo, por substituição temos :


3 1 7
z = 1 − w ⇒ y = − w ⇒ x = 1 − 3z + y = −2 + w.
4 2 4
Portanto, existem infinitas soluções obtidas determinando valores para w, ou seja o sis-
tema é SPI.
3. Resolvamos o sistema:


 x − y + 3z = 1
x + z − w = 0


 2y + w = −1
2x + y + 4z = 0

36
 
1 −1 3 0 1
 1 0 1 −1 0 
A matriz ampliada do sistema é: [A|b] =  0 2 0 1 −1 . Escalonando [A|b]

2 1 4 0 0
temos:
   
1 −1 3 0 1 1 −1 3 0 1
 1 0 1 −1 0  L2 −L 1 →L2
−→  0 1 −2 −1 −1  L3 −2L −→2 →L3
   
 0 2 0 1 −1  L4 −2L −→1 →L4  0 2 0 1 0  L4 −3L
−→2 →L4

2 1 4 0 0 0 3 −2 0 −2
   
1 −1 3 0 1 1 −1 3 0 1
 0 1 −2 −1 −1  −L3 +L4 →L4 →  0 1 −2 −1 −2 

 0 0
 −→  .
4 3 2   0 0 4 3 4 
0 0 4 3 1 0 0 0 0 1
Agora voltando ao sistema temos:


 x − y + 3z = 1
y − 2z − w = −2

,

 4z + 3w = 4
0 = 1

não tem valores que satisfazam simultaneamente todas as equações, logo temos um SI.

Observando os sistemas colocados nos exemplos, podemos concluir que:

1. O sistema (∗) admite uma única solução (SPD), se e somente se,

pA = p[A|b] = n.

2. O sistema (∗) admite infinitas soluções (SPI), se e somente se,

pA = p[A|b] < n.

As variáveis que ao assumir valores quaisquer determinam a solução do sistema são chama-
das de variáveis livres ou independentes, as variáveis restantes são ditas variáves
dependentes. Observemos que n − pA , representa o número de variáveis livres e pA
corresponde ao número de variáveis dependentes. n−p[A|b] é chamado grau de liberdade
do sistema.

3. O sistema (∗) não admite soluções (SI), se e somente se,

pA 6= p[A|b] ,

neste caso, pA < p[A|b] , pois é claro que pA ≤ p[A|b] .

37
Exemplos 1.59. 1. Consideremos o sistema:

 2x1 + 2x2 − x3 + x4 = −1
−x1 − x2 + 2x3 + x4 = −1 ,
x1 + 3x2 − x3 − x4 = 0

Usando eliminação de Gauss-Jordan, temos.


   
2 2 −1 1 −1 L1 +2L2 →L2 2 2 −1 1 3
−→
A =  −1 −1 2 1 −1  L1 −2L3 →L3  0 0 3 3 −3 
1 3 −1 −1 0 −→ 0 −4 1 3 −1
   
2 2 −1 1 3 2L1 +L2 →L1
−→ 4 0 −1 5 5
L2 ⇔L3
−→  0 −4 1 3 −1  1
L
 0 −4 1 3 −1 
3 3
0 0 3 3 −3 −→ 0 0 1 1 −1
  1  
L1 +L3 →L1 4 0 0 6 4 L
4 1 1 0 0 3/2 1
−→  0 −4 0 2 0  −1 −→ 
L2 −L3 →L2 L2
0 1 0 −1/2 0  ,
−→ 0 0 1 1 −1 −→4
0 0 1 1 −1
voltando ao sistema temos:

 x1 + 3/2x4 = 1
x2 − 1/2x4 = 0 .
x3 + x4 = −1

Como pA = 3 = p[A|b] < n = 4 o sistema é SPI, com grau de liberdade 1, variável


independente x4 e solução:
x1 = 1 − 6t, x2 = 2t e x3 = −1 − 4t e x4 = 4t, com t qualquer.

2. Discuta a solução do sistema, de acordo com os valores dos parâmetros a e b.



 x + y + az = 1
x + 2y + z = 2
2x + 5y − 3z = b

Escalonando o sistema temos:


     
1 1 a 1 1 1 a 1 1 1 a 1
[A|B] =  1 2 1 2  −→  0 1 1 − a 1  −→  0 1 1 − a 1 ,
2 5 −3 b 0 3 −3 − 2a b − 2 0 0 −6 + a b − 5
observando os valores de pA e p[A|B] , de acordo com os valores de a e b, vamos ter:

• SPD, para a 6= 6 e b qualquer.


• SPI, para a = 6 e b = 5. Com grau de liberdade 1.
• SI, para a = 6 e b 6= 5.

38
Sistemas Homogêneos

Um sistema cujos termos independentes são todos nulos (ou seja b = 0) é dito sistema
homogêneo (SH), a forma matricial de um sistema homogêneo é:

AX = 0,

onde A é a matriz de coeficientes e 0 é a matriz coluna de termos independentes.


Um sistema homogêneo sempre admite solução seja determinada ou indeterminada, pois a
coluna X = 0, é uma solução, de fato: A · 0 = 0.
Num sistema homogêneo a solução do sistema depende somente da matriz de coeficientes A,
assim temos:
(i) O sistema é SPD, com solução X = 0, se e somente se, pA = n.
(ii) O sistema é SPI, se e somente se, pA < n, para obter as soluções escalonamos somente
a matriz de coeficientes, já que a coluna de termos independentes será sempre 0, mesmo baixo
a ação de operações elementares.

Exemplo 1.60. Resolvamos o sistema homogêneo:



 2x1 + 2x2 − x3 + x4 = 0
−x1 − x2 + 2x3 + x4 = 0 ,
x1 + 3x2 − x3 − x4 = 0

Como, pA ≤ 3 < 4, claramente o sistema é SPI. Usando o exemplo 1.59 temos


   
2 2 −1 1 1 0 0 3/2
A = −1 −1 2 1  −→ 0 1 0 −1/2 ,
1 3 −1 −1 0 0 1 1

voltando ao sistema temos:


 3
 x1 + x
2 4
= 0
1
x2 − x
2 4
= 0 ,
x3 + x4 = 0

daı́, com x4 = 2t, t qualquer, temos x1 = −3t, x2 = t e x3 = −2t.

Solução por Inversão


Proposição 1.61. Consideremos um sistema com m equações e m incógnitas, na forma ma-
tricial A · X = b. Então, o sistema será SPD, se e somente se, a matriz quadrada, A, de
coeficientes é invertı́vel, neste caso a única solução é X = A−1 · b.

39
Esta proposição vem do fato que:

A invertı́vel ⇔ pA = m ⇔ o sistema é SPD.

Caso A não seja invertı́vel podemos ter sistemas SPI ou SI.


Exemplo 1.62. Consideremos os sistema:

2x + 4y = 6
3x + 5y = 7
 
2 4
Neste caso, A = é invertı́vel, pois ad − bc = −2 6= 0 e a inversa é:
3 5
 
−1 1 5 −4
A =− ,
2 −3 2
      
x 1 5 −4 6 −1
logo, X = = A−1 b = − = .
y 2 −3 2 7 2
Logo x = −1 e y = 2.

As seguintes equivalências caracterizam uma matriz invertı́vel.


Teorema 1.63. Dada uma matriz quadrada A de ordem m, as seguintes sentençãs são equi-
valentes.

a) A é invertı́vel.

b) pA = m

c) Para toda coluna b de ordem m × 1, o sistema matricial A · X = b tem pelo menos uma
solução.

d) O sistema homogêneo A · X = 0 tem solução única nula.

Sabemos que a) ⇔ b), completa-se a demonstração seguindo a sequência b) ⇔ c), a) ⇔ d).

Aplicação: Balanceamento de Reações Quı́micas.

Uma reação quı́mica acontece quando a combinação de substâncias quı́micas (reagentes) produz
novas substâncias (produtos). De acordo com a Lei de conservação da massa, a quantidade de
átomos de um elemento presentes nos reagentes deve ser igual a presente nos produtos.
A equação de uma reação quı́mica está balanceada quando apresenta quantidade necessária
de moléculas de cada substância, de forma que o número de átomos de cada lado seja preservado.
A equação não balanceada é aquela que contém somente as substâncias envolvidas.

40
Por exemplo, na queima de metano, o metano (CH4 ) e o oxigêneo (O2 ) reagem para formar
gás carbónico (CO2 ) e água (H2 O):

CH4 + O2 −→ CO2 + H2 O equação não balanceada;

CH4 + 4O2 −→ CO2 + 2H2 O equação balanceada.

Os coeficientes em cada substância são chamados coeficientes estequeométricos.. Caso


desconhecidos, os coeficientes estequeométricos podem ser encontrados como soluções inteiras
positivas de um sistema linear que resulta da igualdade de átomos de cada elemento em ambos
os lados da equação quı́mica.
Exemplo 1.64. A combustão de amônia (N H3 ) e oxı́geneo (O2 ) produz Nitrogêneo (N ) e água
(H2 O):
N H3 + O2 −→ N + H2 O.
Determine a equação balanceada.

xN H3 + yO2 −→ zN + wH2 O.
Nitrogêneo : x=z
Hidrogêneo : 3x = 2z
Oxigêneo : 2y = z

Usando a eliminação de Gauss-Jordan temos,


   
1 0 0 1 15 1 0 0 1 15
 1 −1 0 0 10   0 1 0 1 5 
 0 1 1 0 25  −→ 
   ,
0 0 1 −1 20 
0 0 1 −1 20 0 0 0 0 0
voltando ao sistema, 
 f1 + f4 = 15
f2 + f4 = 5 ,
f3 − f4 = 20

logo o sistema é SPI com grau de liberdade 1, tomando f4 = t, temos,

f3 = 20 + t; f2 = 25 − (20 + t) = 5 − t; f1 = 15 − t.

Note que os fluxos podem ser controlados pelo fluxo em AD, por exemplo, se f4 = 5l/seg então
f1 = 10 l/seg; f2 = 0; f3 = 25 l/seg. Também podemos obter os fluxos mı́nimos e máximos
em cada ramo, considerando que estes são positivos ou nulos.

10 ≤ f1 ≤ 15
0≤ f2 ≤5
20 ≤ f3 ≤ 25
0≤ f4 ≤5

41
Aplicação: Fluxo em redes.

Muitas situações práticas envolvem fluxos em redes, como por exemplo fluxo de veı́culos em
redes de transporte, fluxo de informações em redes de comunicações, fluxo de bens e servições
em redes econômicas, etc.. Vamos considerar que uma rede é composta por um número finito de
nós (também chamados de junções ou vértices) conectados por uma série de arestas direcionadas
conhecidas como ramificações ou arcos. Cada ramo será rotulado com um fluxo que representa a
quantidade de alguma mercadoria que pode fluir através dessa ramificação na direção indicada.
A regra fundamental que rege o fluxo através de uma rede é a conservação do fluxo.
Exemplo 1.65. Descreva os possı́veis fluxos através da rede de tubulações de água mostrada
na Figura 1.1, onde o fluxo é medido em litros por minuto.

Figura 1.1: Rede de tubulações

Escrevendo a equação que representa a conservação do fluxo em cada nó temos,



Nó A: 15 = f1 + f4 
 f1 + f4 = 15
Nó B: f1 = f2 + 10 f1 − f2 = 10

−→
Nó C: f2 + f3 + 5 = 30 
 f2 + f3 = 25
Nó D: f4 + 20 = f3 f3 − f4 = 20

Usando a eliminação de Gauss-Jordan temos,


   
1 0 0 1 15 1 0 0 1 15
 1 −1 0 0 10   0 1 0 1 5 
  −→  ,
 0 1 1 0 25   0 0 1 −1 20 
0 0 1 −1 20 0 0 0 0 0
voltando ao sistema, 
 f1 + f4 = 15
f2 + f4 = 5 ,
f3 − f4 = 20

42
logo o sistema é SPI com grau de liberdade 1, tomando f4 = t, temos,

f3 = 20 + t; f2 = 25 − (20 + t) = 5 − t; f1 = 15 − t.

Note que os fluxos podem ser controlados pelo fluxo em AD, por exemplo, se f4 = 5l/seg então
f1 = 10 l/seg; f2 = 0; f3 = 25 l/seg. Também podemos obter os fluxos mı́nimos e máximos
em cada ramo, considerando que estes são positivos ou nulos.

10 ≤ f1 ≤ 15
0≤ f2 ≤5
20 ≤ f3 ≤ 25
0≤ f4 ≤5

1.7 Determinantes
Dada uma matriz quadrada A, o determinante de A é um número real, denotado por det A
ou |A|, que define a inversibilidade da matriz. Vamos apresentar a forma geral que tem o
determinante de uma matriz quadrada de ordem qualquer embora não constitui uma definição
do conceito. O determinante de matrizes de ordem 1, 2 e 3 será dado explicitamente e para o
caso de ordem maior serão usadas propriedades e o desenvolvimento de Laplace.

Forma geral do Determinante. Dada uma matriz A = [aij ]n×n o determinante de A tem a
forma, X
det A = ±a1i1 · . . . · akik · . . . · anin ,

onde (i1 , . . . , in ) são permutações de 1, 2, . . . , n e o somátorio é sobre todas as n! permutações.


O sinal de cada parcela depende da permutação associada e não será definido nestas notas.
Para os cálculos usaremos os casos particulares, propriedades e o Teorema de Laplace.

Definição 1.66 (Casos particulares).

i) Ordem 1. |[a]| = a

a b
ii) Ordem 2. A = = ad − bc.
c d

a1 a2 a3
iii) Ordem 3. b1 b2 b3 = a1 b2 c3 + a2 b3 c1 + a3 b1 c2 − a1 b3 c2 − a2 b1 c2 − a3 b2 c1 .
c1 c2 c3
Neste caso o valor do determinante é obtido também pela Regra de Sarrus, mas esta regra
só se aplica a este caso e não para ordem maior.

43
Em geral, o determinante é calculado utilizando somente as propriedades, e não sua definição.
Primeiro enunciaremos quatro propriedades básicas das quais podem ser deduzidas todas as
outras.
Seja A uma matriz quadrada de ordem n. Além da notação usual, A também será denotada
na forma,
A = (L1 , . . . , Ln ),
onde L1 , . . . , Ln representam as linhas de A.

Proposição 1.67 (Propriedades básicas).

1. det(In ) = 1.

2. Se L1 , . . . , Ln , L são linhas 1 × n, então

a) det(L1 , . . . , Li + L, . . . , Ln ) = det(L1 , . . . , Li , . . . , Ln ) + det(L1 , . . . , L, . . . , Ln ).


b) det(L1 , . . . , kLi , . . . , Ln ) = k det(L1 , . . . , Li , . . . , Ln ), onde k 6= 0.

3. Se B é obtida de A pela permutação de duas linhas, então det B = − det A, ou seja

det(L1 , . . . , Li , . . . , Lj . . . , Ln ) = − det(L1 , . . . , Lj , . . . , Li . . . , Ln ).

A partir destas derivam-se as seguintes propriedades relacionadas a aplicação de operações


elementares, entre outras.

Propriedades 1.68. Seja A matriz quadrada de ordem n.

4. Se duas linhas de A são iguais, então det A = 0.

5. Se B é obtida de A pela aplicação da operação elementar Li + kLj → Li , então det(B) =


det(A).

6. O determinante de uma matriz triângular superior ou inferior é o produto dos elementos


da sua diagonal.

7. Se k é um escalar, então det(kA) = k n det A.

8. Teorema de Binet. Se A e B são matrizes quadradas de ordem n, então

det(AB) = det(A) det(B).

44
9. det A 6= 0 ⇔ pA = n ⇔ A invertı́vel.

10. det(A) = det(At ).

11. As propriedades de 2 a 5 são válidas também para colunas.


 
1 −4 2
Exemplos 1.69. 1. Calcule o determinante da matriz A = −2 8 −9.
1 3 0
Aplicando operações elementares temos,
1 −4 2 1 −4 2 1 −4 2
−2 8 −9 = 0 0 −5 = − 0 7 −2 = −(1)(7)(−5) = 35.
1 3 0 0 7 −2 0 0 −5
 
2 −8 6 8
 3 −9 5 10 
2. Calculemos o determinante da matriz 
−3 0 1 −2 .

1 −4 0 6
2 −8 6 8 1 −4 3 4 1 −4 3 4
3 −9 5 10 3 −9 5 10 0 3 −4 −2
=2 =2
−3 0 1 −2 −3 0 1 −2 0 −12 10 10
1 −4 0 6 1 −4 0 6 0 0 −3 2
1 −4 3 4 1 −4 3 4
0 3 −4 −2 0 3 −4 −2
=2 =2 = −36.
0 0 −6 2 0 0 −6 2
0 0 −3 2 0 0 0 1

3. Verifique que det(A) = det(At ), para a matriz do exercı́cio 1.


 
1 −2 1
Temos At = −4 8 3, logo
2 −9 0
1 −2 1 1 −2 1
t
det(A ) = 0 0 7 = − 0 −5 −2 = −(−5)(7) = 35 = det(A).
0 −5 −2 0 0 7

4. Por observação, dê o valor dos determinantes das matrizes:


 
  3 0 0 0
−2 1 4 0 0 −1 1
A = 1 −2 −2, B = 

0 2 3 3, e −2B

3 5 −6
0 0 0 1
Temos,

• det(A) = 0, pois a 3a coluna é múltiplo da 1a coluna.

45
• det(B) = −(3)(2)(−1)(1) = 6, pois permutando a 2a e 3a linhas a matriz é triangular
superior com as entradas 3, 2, -1 e 1 na diagonal.
• det(−2B) = (−2)4 det(B) = 16 × 6 = 96.
Observação 1.70. Considere o sistema linear AX = b, onde a matriz de coeficientes A é uma
matriz quadrada de ordem n, temos

AX = b é SPD ⇔ pA = n ⇔ A é invertı́vel ⇔ |A| =


6 0.

Caso |A| = 0 o sistema pode ser SPI ou SI.

Desenvolvimento de Laplace.

O determinante de uma matriz quadrada de ordem m ≥ 3, pode ser reduzido ao cálculo de


determinantes de matrizes de ordem m − 1, é o que estabelece o Teorema de Laplace, para isto
definamos os seguintes conceitos.
Definições 1.71. Dada uma matriz quadrada A = [aij ] de ordem m ≥ 2, denotemos por Mij ,
a submatriz, de ordem m − 1, obtida da matriz A pela retirada da i-ésima linha e da j-ésima
coluna, ou seja:
 
a11 ... a1(j−1) a1(j+1) ... a1m
 .. .. .. .. 
 . . . . 
a . . . a(i−1)(j−1) a(i−1)(j+1) . . . a(i−1)m 
 
Mij =  (i−1)1 .
a(i+1)1 . . . a(i+1)(j−1) a(i+1)(j+1) . . . a(i+1)m 
 . .. .. .. 
 .. . . . 
am1 . . . am(j−1) am(j+1) . . . amm

Definimos como cofator de aij ao número,

Cij = (−1)i+j det(Mij ).

Definimos como Matriz de cofatores de A a matriz dada por: Cof (A) = [Cij ]m×m .

Os sinais (−1)i+j no cofator do elemento aij , variam com a posição (i, j), como indicado:
 
+ − + ...
− + − . . .
.
.. .. ..

. . .
 
2 0 −3
Exemplo 1.72. Para a matriz A =  1 1 −1, temos:
−1 2 −1
1 −1 1 −1 1 1
C11 = = 1, C12 = − = 2, C13 = =3
2 −1 −1 −1 −1 2

46
0 −3 2 −3 2 0
C21 = − = −6, C22 = = −5, C23 = − = −4
2 −1 −1 −1 −1 2
0 −3 2 −3 2 0
C31 = = 3, C32 = − = −1, C33 = = 2.
1 −1 1 −1 1 1
 
1 2 3
∴ Cof (A) = −6 −5 −4 .
3 −1 2
Teorema 1.73 (Desenvolvimento de Laplace). Dada uma matriz quadrada A = [aij ], de
ordem n ≥ 2, temos

• Desenvolvimento através da i-ésima linha


n
X
det A = ai1 Ci1 + ai2 Ci2 + . . . + ain Cin = aik Cik .
k=1

• Desenvolvimento através da j-ésima coluna


n
X
det(A) = a1j C1j + a2j C2j + . . . + anj Cnj = akj Ckj .
k=1

Exemplo 1.74. Aproveitando os cálculos do exemplo 1.72, temos:


det A = 2C11 + 0 · C12 − 3C13 = 2 − 9 = −7.
Observação 1.75. Verifiquemos que, para ordem 3, o desenvolvimento de Laplace é exata-
mente a expressão dada pela regra de Sarrus.
a1 a2 a3
b2 b3 b b b b
det A = b1 b2 b3 = a1 − a2 1 3 + a3 1 2
c2 c3 c1 c3 c1 c2
c1 c2 c3
a2 a3 a a a a
= −b1 + b2 1 3 − b3 1 2
c2 c3 c1 c3 c1 c2
a2 a3 a a a a
= c1 − c2 1 3 + c3 1 2 ,
b2 b3 b2 b3 b1 b2
= a1 b 2 c 3 + a2 b 3 c 1 + a3 b 1 c 2 − a1 b 3 c 2 + a2 b 1 c 3 + a3 b 2 c 1 ,
o mesmo acontece com o desenvolvimento de Laplace por colunas.
Exemplos 1.76.
 
3 1 2
1. Calculemos o determinante da matriz A = −2 −4 5  .
5 4 −3
a
Desenvolvendo pela 3 coluna,
−2 −4 3 1 3 1
det A = (2) · − (5) · + (−3) ·
5 4 5 4 −2 −4
= (2)(12) − (5)(7) + (−3)(−10) = 19.

47
 
1 0 0 −1
−3 2 1 2
2. Calculemos o determinante da matriz A =  3 0 0
.
1
2 0 −2 1
Neste caso o é conveniente o desenvolvimento pela 2a coluna.
1 0 −1
det A = (2) 3 0 1 .
2 −2 1
Desenvolvendo novamente pela 2a coluna, temos:
1 −1
det A = (2)(−2)(−1) = (4)(1 + 3) = 16.
3 1

3. Neste exemplo vamos usar operações linha


 e desenvolvimento
 por linhas ou colunas para
3 5 −2 6
1 2 −1 1
calcular o determinante da matriz A =  2
.
4 1 5
3 7 5 3

3 5 −2 6 0 −1 1 3
−1 1 3
1 2 −1 1 1 2 −1 1
det(A) = = =− 0 3 3
2 4 1 5 0 0 3 3
1 8 0
3 7 5 3 0 1 8 0
−1 1 3
3 3
= − 0 3 3 = −(−1) = −18.
9 3
0 9 3

O Determinante da Matriz Invertı́vel


O valor do determinante permite dizer se a matriz é invertı́vel ou não.
Proposição 1.77. A matriz A será invertı́vel, se e somente se, det(A) 6= 0. Neste caso
1
det A−1 = .
det A
Demonstração. Por um lado, se A é invertı́vel, então AA−1 = I, tomando determinantes em
ambos os lados:

det(AA−1 ) = det(A) det(A−1 ) = det(I) = 1,


daı́ é claro que
1
det(A) 6= 0 e det A−1 = .
det A
Por outro lado, se det(A) 6= 0, então a matriz erl, B, obtida a partir de A, verifica det(B) =
k det(A), com k 6= 0, logo det B 6= 0. Como entre as formas erl, a única que não possui linhas
nulas é a identidade, então B = I e portanto A é invertı́vel.

48
 
−1 −2 0
Exemplo 1.78. Vamos usar o critério acima, para determinar se a matriz A =  1 4 1
5 0 1
é invertı́vel.

det(A) = (−1)C11 + (−2)C12 + (0)C13


4 1 1 1
= (−1) − (−2)
0 1 5 1
= (−1)(4) − (−2)(−4) = −12 6= 0.

Portanto A é invertı́vel.
Definição 1.79. Dada a matriz A, define-se matriz adjunta classica de A como a matriz:

adj(A) = (Cof (A))t = [Cij ]t .


 
−1 −2 0
Exemplo 1.80. Calculemos adj(A), para A = 1
 4 1. Temos:
5 0 1
4 1 1 1 1 4
C11 = = 4, C12 = − = 4, C13 = = −20
0 1 5 1 5 0

−2 0 −1 0 −1 −2
C21 = = 2, C22 = = −1, C23 = = −10
0 1 5 1 5 0

−2 0 −1 0 −1 −2
C31 = = −2, C32 = − = 1, C33 = = −2.
4 1 1 1 1 4
 
4 2 −2
Portanto: adj(A) =  4 −1 1 .
−20 −10 −2

Observemos o produto das matrizes quadradas A = [aij ] e adj(A) = [Cij ]t , de fato


X
A · adj(A) = [bij ], onde bij = aik Cjk .
k

Na diagonal, bii = ai1 Ci1 + · · · + ain Cjn = det A. Para i 6= j, ou seja, fora da diagonal, temos
bij = ai1 Cj1 + · · · + ain Cjn = 0. Portanto:

A · adj(A) = (det A)In .

Esta igualdade permite determinar a inversa caso det A 6= 0.


Proposição 1.81. Para toda matriz quadrada, A invertı́vel, temos:
1
A−1 = adj(A).
det(A)

49
 
−1 −2 0
Exemplo 1.82. Sabemos que a matriz A =  1 4 1 é invertı́vel, com
5 0 1
 
4 2 −2
det(A) = −12 e adj(A) =  4 −1 1  ,
−20 −10 −2

logo,  
4 2 −2
−1 
A−1 = 4 −1 1  .
12
−20 −10 −2

50
Interpretação Geométrica no Plano
 
x1 y 1
Considere a matriz A = , veremos que o valor absoluto do det(A) é exatamente a área
x2 y 2
do paralelogramo determinado pelos vetores u = (x1 , y1 ) e v = (x2 , y2 ), sendo u e v vetores não
paralelos.

• Consideremos o caso em que u e v são perpendiculares. Assim, se x1 6= 0 e x2 6= 0 é claro


que
y1 y2
· = −1 ⇒ x1 x2 + y1 y2 = 0,
x1 x2
como x1 = 0 ⇒ y2 = 0 e x2 = 0 ⇒ y1 = 0 ( pois u e v são perpendiculares), então:

x1 x2 + y1 y2 = 0, ∀ u, v.

Sejam a a área do paralelogramo determinado por u e v, l1 e l2 comprimentos de u e v

respectivamente, assim temos:

x21 + y12 0
a2 = l12 l22 = (x21 + y12 )(x22 + y22 ) = = det(AAt ) = (det(A))2 ,
0 x22 + y22

portanto a = |det(A)|.

• No caso geral, tomamos λ ∈ R tal que v − λu seja perpendicular a u, assim temos

portanto,    
u u
a = |det | = |det | = |det(A)|.
v − λu v

51
1.8 Exercı́cios
1. Em cada caso determine a matriz da forma el e da forma erl, linha-equivalente a matriz
dada.
   
0 −3 −6 4 9   1 2 3  
−1 1 1 2 9 3 −2 0
−2 −1 3 1  1 0 0
(a) 
−2
 (b) 2 4 −3 1 (c)   (d) 2 −1 −1.
−3 0 3 −1 0 1 1
3 6 −5 0 4 −3 1
0 −3 −6 4 9 2 4 5

2. Determine os postos e nulidades das matrizes dada no exercı́cio (1).

3. Quais pares de matrizes são linha equivalentes?


     
1 −4 9 −7 3 2 −8 −21 1 −6 14 −13
A = 5 −6
 10 7  e B = 1 0 −1 5 , C = 2 −2 3 4 
−1 2 −4 1 1 −6 14 −13 1 −2 4 −1

4. Se existirem, determine todas as formas das matrizes erl, 3 × 2 e tais que:


(a) Tem posto 1 (b) Tem posto 2 (c) Tem posto 3.
 
1 2 0 3
 0 1 −1 2 
5. Determine os valores de k para os quais o posto da matriz ; 
 1

0 1 k 
0 1 0 −1
é igual a 3. Qual o posto para outros valores de k?

6. Determine
 todos 
os valores possı́veis para pA , de acordo com os valores do parâmetro a.
1 2 a
A = −2
 4a 2
a −2 1

7. Se existir, determine a matriz inversa das seguintes matrizes:


 
  1 3 0
2 −1
(a) (b)  2 5 −1 
−6 7
0 1 2

8. Determine a de modo que as matrizes abaixo sejam invertı́veis :


   
1 1 1 a 0 0
(a) 2 1
 2 (b) 1 a 0
1 2 a 0 1 a
 
1 3 −3
9. Dada a matriz A−1 =  0 −1 2  , calcule a matriz A.
1 −2 1

52
10. Determine os valores de a, b e c para os quais a matriz :
 
1 1 1 1
 1 1+a 1 1 
  é invertı́vel.
 1 1 1+b 1 
1 1 1 1+c
 
1 3 −3
11. A matriz M é invertı́vel e verifica (3M −1 )t =  0 −1 2  , determine M .
1 −2 1

12. Considere a equação matricial AC 2 X t = C, onde A e C são matrizes invertı́veis


(a) Determine X em função de A e C.
 
1 0 1
(b) Calcule X, se A = C =  −6 2 3 .
−1 −1 −3

13. Resolva os seguintes sistemas pelo método de eliminação de Gauss ou de Gauss-Jordan,


dando quando for possı́vel seu grau de liberdade.

  5x + 5y = 5
x+ y+ z = 4
(a) (b) 2x + z = 0
2x+ 5y− 2z = 3
5x + y − z = 1

 

 2x + y + z = 1  x+y+z+w =
 0
x − y + z = 0 x+y+z−w = 4
 
(c) (d)

 3x + y + 3z = 2 
 x + y − z + w = −4
4x + y + 5z = −3 x−y+z+w = 2
 
 

 x1 − 2x3 = −1 
 x1 + 2x2 − x3 = 5
x 2 − x4 = 2 x1 + x2 + x3 = 1
 
(e) (f)

 −3x2 + 2x3 = 0 
 2x1 − 2x2 + x3 = 4
−4x1 + 7x4 = −5 5x1 + 3x2 = −15
 
 
 5x1 + 8x2 + 15x3 = −7  x + 4y − z + w = 2
(g) 3x1 + 5x2 + 9x3 = −2 (h) 3x + 2y + z + 2w = 5
x1 + 2x2 + 3x3 = 3 −2x − 8y + 2z − 2w = −4
 


 x + 2y + 3z = 24
14. Considere o sistema 2x + y + 3z = 48
3x + 2y + z = 60

(a) Escreva o sistema na forma matricial, AX = b


(b) Justifique que o sistema pode ser resolvido por inversão e determine a solução X por
esse método.

15. Considere os seguintes sistemas:

53
 
 2x − 5y + 2z = 0  x + 6y − kz + w = 0
S1 : x+y+z = 0 S2 : x+y−w = 0 .
2x + kz = 0 4x + y + 6z + kw = 0
 

(a) Para cada sistema, encontre os valores de k para os quais o sistema seja possı́vel e
indeterminado.
(b) Para cada sistema, considere k = −3 e determine a solução.
16. Em cada caso, determine o tipo de solução dos sistemas, de acordo com os valores dos
parâmetros α, β, γ, a, b e c.
 
 x+y+z = 0  x + y + βz = 1
(a) x − y + αz = 1 (b) x + 2y + z = 2 .
αx + 2y + z = −2 2x + 5y − 3z = γ
 
 
 x1 + ax2 + x3 = 1  x1 + 2x2 + (b + 1)x3 = 2
2
(c) 2x1 − ax2 + 3x3 = a (d) x2 + b x3 = b+1
−x1 + 3x2 = −2 x1 + (1 − b)x3 = 0
 


 x+y+z = 0
x + (c − 1)y = 1

(e)

 x + cz = −1
x+z = 2

17. Em cada caso, determine a relação entre os parâmetros a, b e c para que o sistema admita
solução.
 
 x − 2y − z = a  x+ 2y+ 3z− 3w = a
(a) 2x + y + 3z = b (b) 2x− 5y− 3z+ 12w = b
4x − 3y + z = c 7x+ y+ 8z+ 5w = c
 

18. Considere o seguinte sistema linear :




 x − y = b 1 − a1
y − z = b 2 − a2


 z − w = b3 − a3
x − w = a4 − b 4

onde a1 , a2 , a3 , a4 , b1 , b2 , b3 e b4 são parâmetros reais. Qual a relação entre os parâmetros


de forma que o sistema seja :
(a) SPD (b) SPI (c) SI
  

2 1 2 x
19. Considere as matrizes : A =  2 2 −2  e X =  y .
3 1 1 z
(a) Verifique que a equação AX = X pode ser reescrita como (A − I3 )X = 0, onde I3
é a matriz identidade de ordem 3.
(b) Use o item anterior para resolver a equação AX = X.
(c) Resolva AX = 4X.

54
20. Uma rede de valas de irrigação é mostrada na figura abaixo, com vazões medidas em
milhares de litros por dia.

(a) Configure e resolva um sistema de equações lineares para encontrar os possı́veis fluxos
f1 , . . . , f 5
(b) Suponha que DC esteja fechado. Que faixa de fluxo precisará para ser mantido através
do DB?
(c) A partir da figura, é claro que o DB não pode ser fechada, justifique esta afirmação.
Como sua solução, na parte (a) mostra isso?
(d) Da solução obtida em (a), determine os fluxos mı́nimo e máximo por DB.

21. Suponha que a curva y = ax2 + bx + c passa pelos três distintos pontos (x1 , y1 ), (x2 , y2 )
e (x3 , y3 ). Mostre que os coeficientes
 2 a, b e c são uma solução do sistema de equações
x1 x1 1 y1
lineares cuja matriz ampliada é  x22 x2 1 y2 .
x23 x3 1 y3
Use determinantes para concluir que os coeficientes a, b, c existem e são únicos.

22. Calcule os determinantes das matrizes:


   
  2 1 2 1 0 0 1 3
1 −2 4  3 0 1 1 0 1 3 1
(a) A = 2 −3 5  (b) B =  −1 2 −2 1 (c) C = 1 3
  
1 0
3 −4 −6
−3 2 3 1 3 1 0 0
 
5 3 0 0
−1 2 0 0
(d) D =   (e) det(BB t ), onde B é a matriz dada em (b).
0 0 4 1
0 0 −3 −2

23. Sejam A e B matrizes quadradas de ordem n ≥ 2. Determine se as seguintes proposições


são V ou F, justificando sua resposta.
(a) det AB = det BA
(b) Se A é ortogonal, isto é AAt = I então det A = ±1.
(c) det(−A) = − det A

55
(d) det(2A) det(3B) = 6 det A det B
(e) Se B é invertı́vel então det(B −1 AB) = det A

24. Suponha que A = [aij ] é uma matriz quadrada de ordem 4, tal que det A = −7 e calcule:
2a14 a34 a44 a24
−2a12 −a32 −a42 −a22
(a) det(3A) (b) det(2A−1 ) (c) det(2A)−1 (d) .
2a13 a33 a43 a23
2a11 a31 a41 a21
25. Use determinantes para achar todos os valores de a e b, tais que a matriz A seja invertı́vel
 
a −1 3
A = −1 −2 b  .
0 1 −3

26. Use determinantes para encontrar uma condição necessária e suficiente sobre a, b, c, d ∈ R
de forma que a matriz A não seja invertı́vel.
 
a+1 b c d
 a b+1 c d 
A=  a
.
b c+1 d 
a b c d+1

56
Capı́tulo 2

ESPAÇOS VETORIAIS

2.1 Introdução
O plano munido de um sistema de coordenadas cartesianas,

R2 = {(x, y) /x, y ∈ R},

é o exemplo mais tı́pico de espaço vetorial. R2 também representa o conjunto de vetores de


um plano, desde que todo vetor é considerado como idéntico a um com origem em (0, 0),
mas com mesmo comprimento, sentido e direção, assim vetores são entendidos como iguais
às coordenadas do seu extremo. O conjunto de vetores do plano, R2 , possui duas operações
conhecidas: adição de vetores e multiplicação de escalar por vetor,

• Adição de vetores: Se u = (a, b) e v = (c, d), então a soma de u e v é o vetor

u + v = w = (a + b, b + d) ∈ R2 ,

geometricamente a soma é efetuada pela regra do paralelogramo.

57
• Multiplicação de vetor por escalar: Se λ ∈ R e v = (a, b) ∈ R2 , então a multiplicação
de λ por v, é o vetor: λv = (λa, λb) ∈ R2 , geometricamente entendido como um vetor na
reta determinada por v, com comprimento e sentido determinado por λ.

Notemos que vetores de R2 podem ser entendidos também como matrizes coluna 2 × 1, visto
que a única diferença ao efetuar as operações é a notação.
Em resumo, R2 possui duas operações, uma interna (entre vetores resultando em vetor) que é
a soma de vetores e outra externa (de real por vetor resultando vetor), que é a multiplicação
por escalar, sendo que estas operações possuem uma série de propriedades algébricas. Um
espaço vetorial basicamente, é uma generalização deste conjunto geométrico de vetores, de suas
operações de soma e multiplicação por escalar e de suas propriedades. Nesta generalização,
no lugar de R2 considera-se um conjunto V e no lugar do conjunto com escalares R usamos
um conjunto com estrutura de corpo, de forma que seja possı́vel efetuar as operações interna e
externa com propriedades análogas às de R2 . Definiremos a estrutura de corpo e posteriormente
o conceito de espaço vetorial.

2.2 Definições e Propriedades


Definição 2.1. Um conjunto não vazio K, que possui duas operações internas: soma e multi-
plicação, ou seja,
u + v ∈ K, u · v ∈ K, ∀ u, v ∈ K,
é dito corpo, quando verifica:
A1) A adição é Associativa: (x + y) + z = x + (y + z), ∀x, y, z ∈ K.
A2) A adição é Comutativa: x + y = y + x, ∀x, y ∈ K.
A3) Existência do Neutro Aditivo: Existe 0 ∈ K, tal que: x + 0 = 0 + x = x, ∀x ∈ K.
A4) Existência dos Simétricos: Para todo x ∈ K, existe o elemento −x ∈ K, com a propriedade:
x + (−x) = (−x) + x = 0.

58
M1) A multiplição é Associativa: (x · y) · z = x · (y · z), ∀x, y, z ∈ K.
M2) A multiplição é Comutativa: x · y = y · x, ∀x, y ∈ K.
M3) Existência da Unidade: Existe 1 ∈ K, com a propriedade: x · 1 = 1 · x = x, ∀x ∈ K.
−1
M4) Existência dos Inversos: Para cada x 6= 0, x ∈ K, existe o elemento x ∈ K, que verifica,
x · x−1 = x−1 · x = 1, ∀ x ∈ K.
M5) Distributividade: Para todos x, y, z ∈ K, x · (y + z) = x · y + x · z.
Exemplo 2.2.

1. Q, R, C, são corpos munidos das operações usuais de adição e multiplicação.


2. Existem corpos com um número finito de elementos, um exemplo é o corpo com dois
elementos Z2 = {0, 1}, aqui os elementos 0 e 1 não são os números usuais, as operações
são realizadas de acordo com as seguintes tabelas.

+ 0 1 · 0 1
0 0 1 0 0 0
1 1 0 1 0 1
Definição 2.3. Consideremos um conjunto não vazio V e um corpo K, (normalmente será R),
onde existem as operações de adição e de multiplicação por escalar:

• Adição: Para todo u, v ∈ V , u + v ∈ V


• Multiplicação por escalar: Para todo λ ∈ K e u ∈ V , temos λ · u ∈ V .

Dizemos que V com as operações acima é um Espaço Vetorial sobre K, se são satisfeitas:
E1) Associatividade da Adição: Para todos u, v, w ∈ V , temos

(u + v) + w = u + (v + w).

E2) Comutatividade da Adição: Para todos u, v ∈ V , temos

u + v = v + u.

E3) Existência do Zero: Existe um elemento, denotado por 0V ∈ V (ou simplesmente 0),
com a propriedade
v + 0V = 0V + v = v.

E4) Existência do Simétrico: Para todos v ∈ V , existe −v tal que:

v + (−v) = (−v) + v = 0V .

E5) Para todos λ, β ∈ K e v ∈ V , temos

(λβ)v = λ(βv).

59
E6) Para todos λ, β ∈ K e v ∈ V ,

(λ + β) · v = λ · v + β · v.

E7) Para todos λ ∈ K e u, v ∈ V , então

λ · (u + v) = λ · u + λ · v.

E8) Para todo u ∈ V , temos 1 · u = u.

Os elementos de V são ditos vetores, o elemento zero é dito vetor nulo e os elementos de K
são ditos escalares.
V é dito Espaço Vetorial Real , caso K = R ou Espaço Vetorial Complexo, caso K = C.
Nestas notas estaremos trabalhando sempre com espaços vetoriais reais.

Dois espaços vetoriais reais importantes.

Exemplos 2.4. 1. Dado um natural n ≥ 1, consideremos o conjunto das n-uplas de números


reais
Rn = {(x1 , · · · , xn ) | x1 , . . . , xn ∈ R},
Rn é um espaço vetorial real munido com as operações:

(x1 , · · · , xn ) + (y1 , · · · , yn ) = (x1 + y1 , · · · , xn + yn )

λ · (x1 , · · · , xn ) = (λx1 , · · · , λxn ),


pois satisfaz as propriedades A1-A4 e M1-M4. Aqui o vetor nulo é 0Rn = (0, · · · , 0) e o
simétrico de u = (x1 , · · · , xn ) é −u = (−x1 , · · · , −xn ).
Trataremos as n-uplas como matrizes coluna, ou seja
 
x1
 .. 
(x1 , · · · , xn ) =  .  ,
xn

visto a identificação entre os elementos e suas operações.

2. Seja I um intervalo real e consideremos o conjunto das funções de I com valores em R que
denotaremos por F (I, R). F (I, R) é um espaço vetorial real, munido com as operações:

(f + g)(x) = f (x) + g(x), para todo x ∈ I,

(λf )(x) = λf (x), para todo x ∈ I e λ ∈ R,


neste caso o vetor nulo é a função nula de I em R e a função simétrica de f é −f , dada
por (−f )(x) = −f (x), ∀x ∈ I.

60
Proposição 2.5. Seja V um espaço vetorial, então para todo v ∈ V e λ ∈ R, temos:

1. 0 · v = 0V .

2. λ · 0V = 0V .

3. −1 · v = −v.

Demonstração. 1. 0 · v = (0 + 0) · v = 0 · v + 0 · v, substraindo 0 · v, em ambos os lados,


temos 0V = 0 · v.

2. λ · 0V = λ · (0V + 0V ) = λ · 0V + λ · 0V , substraindo de ambos os lados λ · 0V , temos,


0V = λ · 0V .

3. v + (−1) · v = 1 · v + (−1) · v = (1 + (−1)) · v = 0 · v = 0V , portanto (−1) · v = −v.

2.3 Subespaços Vetoriais


Definição 2.6. Consideremos um espaço vetorial real V e um subconjunto não vazio W ⊂ V .
W será dito Subespaço vetorial de V , se são satisfeitas:

1. As operações de V podem ser definidas em W , ou seja que a adição e multiplicação por


escalar de V verificam:

• Para todos u, v ∈ W , temos que u + v ∈ W


• Para todo u ∈ W e λ ∈ R, temos λ · u ∈ W .

2. W munido com as operações de V é um espaço vetorial.

Observação 2.7. Devido a que várias propriedades necessárias para W ser um espaço vetorial
munido das operações de V são transladadas de V para W , para verificar que W é um subespaço
de V é suficiente que,

1. Para todos u, v ∈ W , temos que u + v ∈ W

2. Para todo u ∈ W e λ ∈ R, temos λ · u ∈ W .

3. 0V ∈ W .

Exemplos 2.8.

1. Se V é um espaço vetorial, trivialmente {0V } e V serão subespaços de V .

61
 
2 x
2. Se V = R , a reta W = { ∈ R2 | y = 3x} é um subespaço vetorial real de V .
y    
x x
Para verificar este fato, reescrevemos W = { ∈ R2 | y = 3x} = { | x ∈ R} =
  y 3x
1
{x | x ∈ R} e testamos as condições da obervação 2.7.
3
   
1 1
• Se u = x ev=y ∈ W , temos
3 3
     
1 1 1
u+v =x +y = (x + y) ∈ W.
3 3 3
 
1
• Se u = x ∈ W e λ ∈ R, temos
3
   
1 1
λu = λ(x ) = (λx) ∈ W.
3 3
   
0 1
• =0· ∈ W.
0 3

Analogamente, toda reta de R2 que passa pela origem é um subespaço vetorial de R2 .


2
Enquanto que uma reta que não  passa pela origem não será um subespaço vetorial de R ,
0
já que não verfica a condição ∈ W.
0
3. Em V = R3 , as retas e planos que passam pela origem (0, 0, 0), são subespaços vetoriais.

4. Dada a matriz de coeficientes A, de ordem m×n e o vetor de incógnitas X = (x1 , . . . , xn ),


podemos considerar o conjunto das soluções do sistema homogêneo A · X = 0:
 
x1
W = {X =  ...  | A · X = 0}.
 
xn

62
W é um subespaço vetorial de Rn , pois:

• 0 ∈ W , já que A · 0 = 0
• Se X, Z ∈ W , então A · (X + Z) = A · X + A · Z = 0 + 0 = 0,
• Se X ∈ W e λ ∈ R, então
A · (λX) = λ(A · X) = λ0 = 0.

W é dito espaço nulo de A, usaremos a notação: N ul(A).


5. No espaço vetorial F (R, R), temos o subespaço de todas as funções polinomiais de grau
máximo n.
Pn (R) = {p(x) = a0 + a1 x + . . . + an xn | a0 , a1 , . . . , an ∈ R} .

6. No espaço vetorial F(I, R), onde I é um intervalo real, temos


• O subespaço das funções contı́nuas de I em R, denotado C(I).
• O subespaço das funções de I em R com derivada contı́nua até ordem m , denotado
C m (I).
• O subespaço das funções de I em R com derivadas contı́nuas de todas as ordens,
denotado C ∞ (I).
Esses sub-espaços verificam as inclusões,
C ∞ (I) ⊂ . . . ⊂ C m (I) ⊂ . . . ⊂ C 1 (I) ⊂ C(I).
Observação 2.9. Se 0V ∈
/ W , então W não será um subespaço.

Os seguintes subconjuntos de R2 não são subespaços vetoriais:


   
x 0
W1 = { | x + 5y = 2}, pois não contém o vetor ,
y 0
     
x 2 1 2
W2 = { | x = y }, pois por exemplo ∈ W2 , mas ∈
/ W2 .
y 1 2

2.4 Independência Linear e Geradores

Combinação Linear e Espaço gerado

Consideremos um espaço vetorial V . Sejam v1 , . . . , vn vetores de V e consideremos os vetores


da forma:
v = α1 v1 + . . . + αn vn ∈ V,
onde α1 , . . . , αn são escalares quaisquer. O vetor v ∈ V é chamado combinação linear de
v1 , . . . , vn .

63
   
−1 2
3
Exemplo 2.10. Consideremos em V = R , os vetores v1 = 1 , v2 = 0 . Vejamos que
  
2 −1
os seguintes vetores são combinações lineares de v1 e v2 :
     
4 1 1
u = 2v1 + 3v2 = 2 , w = v1 + v2 = 1 e z = −1 · v1 + 0 · v2 = −v1 = −1 .
    
1 1 −2

Geometricamente temos a seguinte situação:

Assim, para mostrar uma combinação linear dos vetores v1 e v2 , escolhemos escalares α e β e
3
calculamos αv1 + βv2 . Por outro lado, dado umvetor
 v de R , como determinar se v é uma
1
combinação linear de v1 e v2 ? Por exemplo v = 5 é uma combinação linear de v1 e v2 ? E o
  7
3
que dizer sobre v = 1 ?
0
   
1 1
• Para o caso v = 5 , procurando escalares α e β, tais que 5 = αv1 + βv2 , temos
  
7 7
          
−1 2 1 −1 2   1  −2α + 2β = 1
α
α 1 +β 0 = 5 ⇔ 1
       0  = 5 ⇔
  α = 5 .
β
2 −1 7 2 −1 7 2α − β = 7

O sistema obtido é SPI e a solução é evidente α = 5 e β = 3, logo v é combinação linear


de v1 e v2 .

64
 
3
• Já no caso v = 1, não é combinação linear de v1 e v2 , pois procurando escalares α e β

1
tais que:
       
3 −1 2 −α + 2β
1 = α  1  + β  0  =  α ,
1 2 −1 2α − β
   
−1 2   3
α
obtemos o sistema:  1 0 = 1 Este sistema é SI, logo v não é combinação
β
2 −1 1
linear de v1 e v2 .

Observação 2.11. De acordo com o exemplo, notamos que uma combinação linear dos vetores
v1 , . . . , vn em Rm é da forma:

α1 v1 + α2 v2 + . . . + αn vn = A · v,

onde A é a matriz cujas colunas são os vetores v1 , . . . , vn e v = [αi ]n×1 .

Sejam V um espaço vetorial e v1 , v2 , . . . , vn vetores de V . Consideremos o conjunto, W , de


todas as combinações lineares de v1 , v2 , . . . , vn .

W = {α1 v1 + α2 v2 + . . . , +αn vn | α1 , . . . , αn ∈ R} ⊆ V.

Vejamos que W é um subespaço vetorial de V :

• Dados u = α1 v1 + α2 v2 + . . . , +αn vn e v = β1 v1 + β2 v2 + . . . , +βn vn , vetores de W ,


claramente: u + v = α1 v1 + . . . , +βn vn ∈ W.

• Dados λ ∈ R e u = α1 v1 + α2 v2 + . . . , +αn vn ∈ W , claramente:

λu = λ (α1 v1 + . . . , +αn vn ) = (λα1 )v1 + . . . + (λαn )vn ∈ W.

• 0V = 0v1 + . . . + 0vn ∈ W.

W é um subespaço vetorial de V , chamado subespaço gerado pelos vetores v1 , . . . , vn este


subespaço vetorial será denotado da forma:

W = [v1 , . . . , vn ] ou W = [S],

onde S = {v1 , ..., vn }. Os vetores v1 , . . . , vn , são ditos geradores de W .

65
Exemplo 2.12.
 Determine
 a(s)
 equação(ões) que definem
 o subespaço de R3 , gerado pelos
2 −1 a
vetores u = 1 e v = −1 . Neste caso, w = b  ∈ [u, v], se e somente, se existem α e β,
    
−1 3 c
tais que:
         
a 2 −1 2 −1   a
 b  = α  1  + β −1 , ou seja  1 −1 α =  b  .
β
c −1 3 −1 3 c
A matriz ampliada do sistema é:
 
2 −1 a
[A|B] =  1 −1 b , escalonando, temos:
−1 3 c
     
2 −1 a 2 −1 a 2 −1 a
 1 −1 b  →  0 1 a − 2b  →  0 1 a − 2b 
−1 3 c 0 5 a + 2c 0 0 −4a + 10b + 2c
 
2 −1 a
→ 0 1
 a − 2b  ,
0 0 2a − 5b − c
assim, para que o sistema tenha solução é necessário que 2a − 5b − c = 0, portanto:
 
a
[u, v] = { b  ∈ R3 | 2a − 5b − c = 0}.

c
Exemplos 2.13 (Espaços gerados em R3 ). Consideremos V = R3 , temos:

1. Se v ∈ R3 , v 6= 0, então [v] é a reta que passa pela origem do sistema de coordenadas e


que tem a direção de v.

66
2. Se u, v são vetores não nulos de R3 e não paralelos. Então o subespaço [u, v] é o plano
determinado por u e v.

3. Se os vetores u e v estão nas condições acima e se w é um vetor de R3 , tal que w ∈


/ [u, v],
3
então o espaço gerado por [u, v] é todo R .

Exemplos 2.14.
 
4
1. Dado v = −2 ∈ R3 , W = [v] é a reta de R3 que passa pela origem e que contém o
2
vetor v, que podemos descrever como,
     
4 2 2λ
W = [v] = {λ −2 | λ ∈ R} = {λ −1 | λ ∈ R} = {−λ | λ ∈ R}.
2 1 λ

67
Notemos que a reta W pode ser gerada por,
         
4 2 −6 2 4
−2 ou −1 ou  3  ou por −1 e −2 .
2 1 −3 1 2
   
−1 0
2. Dados u = 2 e v = −1, notemos que u ∈
   / [v], pois u não é múltiplo de v. Assim,
1 0
concluı́mos que W = [u, v] é o plano de R3 , que passa pela origem e contém u e v.
Determinemos exatamente os vetores de W ,
       
x x −1 0
y  ∈ W ⇔ y  = α  2  + β −1 , α, β ∈ R
z z 1 0
   
−1 0   x
α
⇔  2 −1 = y  , α, β ∈ R
β
1 0 z

Considerando a matriz ampliada do sistema temos,


   
−1 0 x −1 0 x
 2 −1 y  →  0 −1 2x + y  ,
1 0 z 0 0 x+z

 
x
assim, y  ∈ W , se e somente se, o sistema tem solução ou seja, x + z = 0. Esta equação
z
é a que representa o plano [u, v].
Observação 2.15. O conjunto usual de geradores do espaço vetorial Rn é composto pelos
vetores:      
1 0 0
0 1 0
e1 =  ..  , e2 =  ..  , . . . , en =  ..  ,
     
. . .
0 0 1
pois, claramente:
       
x1 1 0 0
 x2  0 1 0
 ..  = x1  ..  + x2  ..  + . . . + xn  ..  = x1 e1 + x2 e2 + . . . + xn en .
       
. . . .
xn 0 0 1

A seguinte propriedade útil para determinar quando dois conjuntos geram o mesmo subespaço.

68
Proposição 2.16. Se S e T são conjuntos de vetores de um espaço vetorial V , então,

[S] = [T ] ⇔ S ⊆ [T ] e T ⊆ [S].

Exemplo 2.17. Se u e v são vetores de um espaço vetorial V , temos [u, v] = [−u, u + v], pois
u = −1 · (−u) + 0 · (u + v); v = 1 · (−u) + 1 · (u + v) ⇒ u, v ∈ [−u, u + v]
e
−u = −1 · u + 0 · v; u + v = 1 · u + 1 · v ⇒ −u, u + v ∈ [u, v].

Independência e Dependência Linear.

No espaço R3 consideremos vetores não nulos, u, v, que não são múltiplos um do outro, neste
caso é claro que,
[u, v, u + v] = [u, v] 6= [u],
este exemplo ilustra que em certos conjuntos de geradores de um espaço, podemos extrair
vetores preservando o espaço gerado, mas em outros conjuntos isto não é mais possı́vel.
Em geral, dado um conjunto de vetores geradores de V , v1 , v2 , . . . , vn , desejamos extrair um
subconjunto com um mı́nimo de vetores que ainda seja gerador de V , para isto definiremos os
conceitos de dependência e independência linear.

Definição 2.18. Consideremos o conjunto S = {v1 , . . . , vn }, de vetores de V . Diremos que S


é linearmente independente (LI), se a única solução da equação:

α1 v1 + α2 v2 + . . . + αn vn = 0V

é, α1 = α2 = . . . = αn = 0. Caso exista uma solução com alguns escalares não nulos, diremos
que S é linearmente dependente (LD).

Proposição 2.19. Seja V um espaço vetorial e S um subconjunto de vetores de V . Temos:

1. Se S = {0V } ou se S é um conjunto que conté 0V , então S é LD.

2. Se v 6= 0V , então S = {v} é um conjunto LI

3. Se n ≥ 2, o conjunto com n vetores S = {v1 , . . . , vn } será LD, se e somente se um dos


vetores é combinação linear de outros vetores de S. Consequentemente, S será LI, se
nehum vetor for combinação linear de outros vetores de S.

Nota 2.20. De 2.19(3), veja que um conjunto S com dois vetores não nulos verifica,

S = {u, v} é LI, se e somente se, u 6= kv qualquer que seja o escalar k.

E se existir k tal que u = kv, então S será LD.

69
Exemplos 2.21.
   
−2 4
1. {u =  3  , v = −6} é LD, pois v = −2u.
1 −2
   
1 1
{w =  0 ,z = −1 } é LI, pois w 6= kz, ∀k ∈ R.
2 2
     
−2 1 1
2. { 1 , −1 , −1} é LI. De fato, consideremos a equação:
    
1 1 −1
       
−2 1 1 0
α 1 + β −1 + γ −1 = 0 ,
      
1 1 −1 0
esta equação equivale ao sistema homogêneo,
    
−2 1 1 α 0
 1 −1 −1 β  = 0 .
1 1 −1 γ 0
Para determinar se a solução do sistema é única (portanto nula) ou não, podemos calcular
o posto.      
−2 1 1 −2 1 1 −2 1 1
 1 −1 −1 →  0 −1 −1 →  0 −1 −1 ,
1 1 −1 0 3 −1 0 0 −4
logo o posto é 3, assim a solução é única e nula, portanto S é LI.
Observação 2.22. No caso V = Rm e S = {v1 , . . . , vn } ⊆ V , para determinar se S é LI ou LD
considere a matriz A, de ordem m × n, cujas colunas são os vetores de S e observamos que o
posto de A determina o tipo de solução do sistema homogêneo AX = 0, logo:

• No caso m = n, temos
S é LI ⇔ pA = m ⇔ A invertı́vel ⇔ det A 6= 0
S é LD ⇔ pA < m ⇔ A não invertı́vel ⇔ det A = 0.

• No caso geral m, n quaisquer, temos:


S é LI ⇔ pA = n ≤ m
S é LD ⇔ pA < n,
No primeiro caso, ainda podemos usar o determinante de uma submatriz de A na seguinte
forma:
S é LI ⇔ pA = n ≤ m
⇔ alguma submatriz quadrada M de ordem n de A verifica detM 6= 0.

70
Exemplos 2.23. 1. Em R4 , consideremos o conjunto de vetores
     
1 0 2
−1  2  0
{ 0  ,  1  , 1}.
    

2 −1 3

Temos:      
1 0 2 1 0 2 1 0 2
 −1 2 0 
  0 2 2  0 1 1
A=
 0 → → ,
1 1   0 1 1  0 0 0
2 −1 3 0 −1 −1 0 0 0
o posto é 2 < 3, logo o conjunto de vetores é LD.

2. Em R4 , o conjunto de vetores      
1 −1 1
0  0  2
{
0 ,  2  , 0}
    

1 1 1
 
1 −1 1
0 0 2
Considerando A = 
0 2 0, temos o determinante de uma submatriz:

1 1 1

0 0 2
0 2 0 = −4 6= 0, ∴ o conjunto é LI.
1 1 1

2.5 Base e Dimensão


Definição 2.24. Um conjunto não vazio S de n vetores de V será uma Base para V , se

1. S é um conjunto LI

2. S gera V .

Exemplos 2.25.

1. Base usual ou canônica de R2 . É simples verificar que o conjunto:


   
1 0
{e1 = , e2 = },
0 1

é uma base de R2 , chamada base canônica de R2 .

71
Da mesma forma,      
1 0 0
{e1 = 0 , e2 = 1 , e3 = 0},
    
0 0 1
é uma base de R2 , chamada base canônica de R3 . Em geral, o conjunto
   
1 0
0 0
{e1 =  ..  , . . . , en =  .. },
   
. .
0 1

é uma base, chamada base canônica de Rn .


     
1 2 3
2. Verifiquemos que S = {2 , 9 , 3} é uma base para R3 .
1 0 4
 
1 2 3
Calculemos o determinante da matriz A = 2 9 3:
1 0 4

1 2 3 1 2 3 1 2 3
2 9 3 = 0 5 −3 = 0 5 −3 = −5 6= 0,
1 0 4 0 −2 1 0 0 −1

logo S é LI, também gera R3 , pois claramente o sistema AX = b terá solução para todo
b ∈ R3 . Portanto S é uma base para V .

3. No espaço vetorial Pn (R) = {a0 +a1 x+. . .+an xn | a0 , a1 , . . . , an ∈ R}, é simples notar que
o conjunto {1, x, x2 , . . . , xn } é gerador e LI, portanto é uma base para Pn (R), chamada
base usual.

Observação 2.26. Como colocado no exemplo 2.25(2), em Rn um conjunto com n vetores


{v1 , . . . , vn } será uma base, se e somente se, det A 6= 0, onde A é a matriz cujas colunas (ou
linhas) são os vetores v1 , . . . , vn .
     
1 1 3
3
Exemplo 2.27. Consideremos os vetores de R , u = 1 , v = 0 e w = 1.
    
0 −2 1
Como
1 1 3 1 1 0 1 1 0
1 0 1 = 0 −1 −2 = 0 −1 −2 = −5 6= 0,
0 −2 1 0 −2 1 0 0 5
logo o conjunto é uma base para R3 . Em casos deste tipo os vetores podem ser as linhas ou
colunas de A, pois det A = det At .

72
A seguinte proposição contém resultados que mostram que todas as bases de um espaço vetorial
tem o mesmo número de vetores.

Proposição 2.28. Seja V é um espaço vetorial, que possui uma base com exatamente n vetores,
então temos:

1. Todo conjunto de V com mais do que n vetores será LD.

2. Todo conjunto de V com menos do que n vetores não gera V .

3. Todas as bases de um espaço vetorial V , possuem o mesmo número de vetores.

Definição 2.29. Dizemos que um espaço vetorial V tem dimensão n, se suas bases possuem
n elementos, neste caso escrevemos
dimV = n.
Se V = {0V }, entenderemos que dim{0V } = 0.

Exemplos 2.30.

1. dimRn = n.

2. Seja W = [v] , com v 6= 0. Claramente {v} é LI e gera, logo é uma base de W , assim
dimW = 1. Em R2 ou R3 o espaço gerado por um vetor não nulo e tem dimensão 1.

3. Em R3 , um subespaço W gerado por quaisquer dois vetores LI u e v, é um plano passando


pela origem cuja base é {u, v}, logo dimW = 2.

4. Determine uma base e a dimensão do espaço dado por


 
x
W = { y  | 3x − 2y + 5z = 0}.

z

3x + 5z
De fato, y = logo,
2
   
x x
y  = (3x + 5z)/2
z z
   
x 0
= 3x/2 + 5z/2
0 z
   
1 0
= x 3/2 + z 5/2 , ∀x, z ∈ R.
0 1

73
Assim temos que W é gerado por:
       
1 0 2 0
{ 3/2 , 5/2} ou por
   { 3 , 5},
  
0 1 0 2
   
2 0
logo conjunto B = { 3 , 5} é gerador de W , B
   também é LI, pois os vetores não são
0 2
múltiplos, logo B é uma base para W , portanto W é um plano e dimW = 2.

5. dim(Pn (R)) = n + 1, pois sua base estândar tem n + 1 vetores.

As propriedades abaixo mostram a relação entre conjuntos LI ou geradores e bases.

Proposição 2.31. Seja V um espaço vetorial de dimensão n.

1. Se B = {v1 , . . . , vk } é um conjunto de vetores não nulos de V que geram V , então podemos


extrair um subconjunto de B, de forma que seja uma base para V .

2. Se B = {v1 , . . . , vk } é um conjunto de vetores LI de V , então podemos completar B para


obter uma base de V .

3. Se dim(V ) = n e B é um conjunto com n vetores, então:

• B é LI ⇔ base deV
• B geraV ⇔ B é base deV.

Sobre as dimensões de um espaço e um subespaço, das propriedades 2.31 conclui-se que:

Proposição 2.32. Se W é um sub-espaço de um espaço V de dimensão n, então

1. dimW ≤ dimV.

2. dimW = n ⇔ W = V.

A seguinte proposição providencia um processo para determinar bases para o espaço gerado
por um conjunto de vetores do espaço Rn .

Proposição 2.33. Sejam A uma matriz de ordem m × n e B sua forma escalonada linha,
considerando as linhas das matrizes como vetores de Rn , temos que as linhas não nulas de B
formam uma base para o espaço gerado pelas linhas de A.

Exemplo 2.34. Determine uma base para o subespaço W de R3 gerado pelos vetores
       
1 2 −2 −1
u =  2  , v =  7  , w = −1 , z =  1  .
−1 −1 3 2

74
     
1 2 −1 1 2 −1 1 2 −1
2 7 −1
0
 3 1  → 0 3 1  .
 
−2 −1 3  → 0

3 1 0 0 0 
−1 1 2 0 3 1 0 0 0
   
1 0
Portanto uma base para W é { 2 , 3} e dimW = 2. Neste caso qualquer par de vetores
  
−1 1
entre os dados é uma base, pois serão 2 vetores LI em um espaço com dimensão 2.

2.6 Espaços Associados a uma Matriz


Seja A uma matriz de ordem m × n. O espaço nulo de uma matriz A é o espaço das
soluções do sistema homogêneo com matriz de coeficientes A,

N ul(A) = {X ∈ Rn | A · X = 0}.
 
2 1 −1 1
Exemplo 2.35. Seja A =  1 1 −2 −1 , determinemos uma base para W = N ul(A).
1 2 −5 −4
Temos que W é o subespaço de R4 das soluções do sistema homogêneo,
 
  x  
2 1 −1 1   0
1 1 −2 −1  y  = 0 .
z 
1 2 −5 −4 0
w

Escalonando A temos,
       
2 1 −1 1 2 1 −1 1 2 0 2 4 1 0 1 2
A = 1 1 −2 −1 → 0 −1 3 3 → 0 1 −3 −3 → 0 1 −3 −3 .
1 2 −5 −4 0 −3 9 9 0 0 0 0 0 0 0 0

Temos pA = 2 e nA = 4−2 = 2, as variáveis livres são s = z e t = w e a solução é, x = −s−2t,


y = 3s + 3t, ou seja
         
−s − 2t −s −2t −1 −2
 3s + 3t   3s   3t  3 3
X=
 s  =  s  +  0  = s 1  + t 0 .
         (2.1)
t 0 t 0 1
   
−1 −2
3 3
Portanto dim W = 2 e uma base para W é {
 1  ,  0 }.
  

0 1

75
Sabemos que as soluções do sistema homogêneo A · X = 0 são determinadas pelas variáveis
livres, o número destas é exatamente o grau de liberdade do sistema, dado por nA = n − pA
que já foi definido (vide definição 1.45 do Cap. I) como nulidade de A.
O vetor solução X ∈ N ul(A) é determinado como combinação linear de nA vetores v1 , . . . , vnA
de Rn ,
X = s1 v1 + . . . + snA vnA ,
onde os escalares são as variáveis independentes, como em 2.1, logo o conjunto B = {v1 , . . . , vnA }
gera N ul(A). Por outro lado,
X = 0 ⇒ s1 = 0, . . . , snA = 0,
ou seja que o conjunto B é LI, portanto determinará uma base para N ul(A).
Os vetores da base B podem ser determinados atribuindo 1 a uma variável independente e 0
as restantes. Concluı́mos então que:
dim N ul(A) = nA = n − pA .

Definição 2.36. Se A é uma matriz m × n, definimos

• O subespaço de Rn gerado pelas linhas de A, chamado espaço linha de A, denotado


Lin(A).
• O subespaço de Rm gerado pelas colunas de A, dito espaço coluna e denotado Col(A).
Se C1 , . . . , Cn são as colunas de A, então os vetores de Col(A) são da forma:
 
x1
 .. 
x1 C 1 + . . . + xn C n = A  .  ,
xn
ou seja
Col(A) = {AX ∈ Rm / X ∈ Rn }.
Exemplo 2.37. Determine uma base e a dimensão de Col(A) ⊆ R3 , onde
 
1 2 −4
A =  2 9 −7 .
−1 3 5

Calculemos o determinante, para verificar se o conjunto é LI ou LD.


1 2 −4 1 2 −4
2 9 −7 = 0 5 1 = 0
−1 3 5 0 5 1
Logo, o conjunto é LD. Notando que tem no máximo 2 vetores LI, concluı́mos que dim(Col(A)) =
2 e uma base para Col(A) é    
1 2
{ 2  , 9}.
−1 3

76
Observações 2.38. 1. Col(A) = Lin(At ).

2. Diretamente da proposição 2.33, obtemos que a dimensão do espaço Lin(A) é exatamente


o posto de A (posto linha de A), e daı́ dim(Col(A)) = pAt (posto coluna de A). Ainda
podemos usar essa proposição para determinar uma base para Col(A) que será composta
pelas linhas não nulas da matriz escalonada obtida a partir de At .

O teorema abaixo estabelece que os postos linha e coluna são iguais e seu valor é pA .

Teorema 2.39. Se A é uma matriz m × n, então pA = pAt , portanto

dim Col(A) = dim Lin(A) = pA .

Usemos o teorema 2.39 para cálculo de dim(Col(A)).


 
1 −2 5 −1
Exemplo 2.40. Calculemos dim(Col(A)) onde A = 3 1 1 4 .
1 1 −1 2
     
1 −2 5 −1 1 −2 5 −1 1 −2 5 −1
3 1 1 4  → 0 7 −14 7  → 0 1 −2 1  .
1 1 −1 2 0 3 −6 3 0 0 0 0
Portanto dim(Col(A)) = pA = 2. Note que conseguimos a dimensão mas não uma base para
Col(A). Mas sendo um espaço de dimensão 2 uma base é qualquer conjunto de dois vetores
colunas distintos de A. Por exemplo:
   
1 −2
{ 3 , 1 }.
  
1 1

2.7 Soma e Interseção de subespaços


Proposição 2.41 (Interseção de Subespaços). Dados os subespaços U e W do espaço vetorial
V , temos que a interseção de U e W ,

U ∩ W = {u ∈ V | u ∈ U e u ∈ W } ,

também é um subespaço vetorial de V .


 
0
3
Exemplos 2.42. 1. Sejam V = R e U, W planos que contém 0V = 0. Caso U = W ,

0
temos que U ∩ W = U = W é um subespaço vetorial, caso U 6= W , temos que U ∩ W é
uma reta que contém 0V e portanto também é um subespaço vetorial de V .

77
2. Sejam V = R3 e U e W duas retas diferentes que passam pela origem, neste caso temos
o subespaço vetorial: U ∩ W = {0V } .

Definição 2.43. Sejam U e W sebespaços de um espaço vetorial V , define-se a soma de U


e W como
U + W = {u + w ∈ V | u ∈ U e w ∈ W } ⊂ V.

Proposição 2.44 (Subespaço soma). Se U e W são subespaços de V , então a soma U + W


também é um subespaço de V . U + W qual contém U e W .

Exemplos 2.45.

78
1. Consideremos V = R3 e U , W retas diferentes, como no Exemplo 2.42. Notemos que
U + W contém todas as somas de vetores nas retas dadas, então U + W é exatamente o
plano que contém as retas U e W .

2. Consideremos V = R3 e um plano U passando pela origem e uma reta W passando pela


origem. Temos:

• Se a reta está contida no plano, isto é W ⊂ U , então U + W será exatamente o plano


U.

• Se a reta não está contida no plano, então U + W será todo R3 .

79
Observação 2.46. Notemos que se temos bases: {u1 , . . . uk } e {w1 , . . . , wr }, para os espaços
U e W , respectivamente, então a união destas bases:

{u1 , . . . , wr } ,

será um conjunto gerador para U + W .

As dimensões dos espaços U , W , U ∩ W e U + W , estão relacionadas pelo seguinte teorema.


Teorema 2.47. Se U e W são subespaços de um espaço vetorial V de dimensão finita, então
verifica-se:
dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W ).
Exemplo 2.48. Determine U +W e verifique o teorema anterior, onde U e W são os subespaços
de R3 :    
x x
U = { y | x + y − z = 0} e W = { y  | x − y = 0}.
  
z z

Notemos que:        
1 0 1 0
U = [ 0 , 1 ] e W = [ 1 , 0].
      
1 1 0 1

Então,        
1 0 1 0
U + W = [0 , 1 , 1 , 0].
1 1 0 1
Notemos que dim(U + W ) = 3, pois temos 3 vetores LI, de fato:

0 1 0
1 1 0 = −1 6= 0.
1 0 1

Então, U + W = R3 .
Agora determinemos U ∩ W :
 
x
U ∩ W = {y  ∈ R3 | x + y − z = 0 e x − y = 0}
z
 
x
1
= {y  ∈ R3 | x = y = z}
2
z
 
1
= {λ 1 | λ ∈ R}.

2

80
Logo dim(U ∩ W ) = 1. Portanto verifica-se:

dim(V ) = dim(U ) + dim(W ) − dim(U ∩ W ) .


| {z } | {z } | {z } | {z }
3 2 2 1

Definição 2.49. No caso U ∩ W = {0V }, o espaço V = U + W é dito soma direta de U e


W e usamos a notação V = U ⊕ W

No caso de soma direta, temos dim(U ∩W ) = dim{0V } = 0, logo dim(U ⊕W ) = dimU +dimW .
Nesse caso, uma reunião de bases de U e de W , terá o número de vetores igual a dim(U ⊕ W ),
logo a reunião de bases é uma base para a soma direta.
No exemplo anterior, V não é soma direta de U e W .

Exemplo 2.50. Um exemplo de soma direta é o plano V , determinado por dois vetores LI
u e w, neste caso tomando os subespaços de V : U = [u] e W = [w], temos claramente que
V = U ⊕ W.

Observação 2.51. Da propria definição temos que todo vetor do espaço V = U +W é composto
por somas de dois vetores, um em U e o outro em W . Agora se a soma é direta, ou seja
V = U ⊕ W , além de cada vetor de V ser da forma: v = u + w, com u ∈ U e w ∈ W , as
componenetes de v em U e W são únicas, ou seja que:

v = u + w = u0 + w0 , com u, u0 ∈ U e w, w0 ∈ W ⇒ u − u0 = w0 − w ∈ U ∩ W
⇒ u − u0 = 0 e w − w 0 = 0
⇒ u = u0 e w = w0 .

2.8 Coordenadas com relação a uma base


Sejam V um espaço vetorial de dimensão finita sobre R e α = {v1 , . . . , vn } uma base de V .
Vejamos que, para todo v ∈ V existem únicos escalares x1 , . . . , xn ∈ R tais que:

v = x1 v1 + . . . + xn vn ,

81
de fato, se tivermos que:

v = x1 v1 + . . . + xn vn = y1 v1 + . . . + yn vn ⇒ 0V = (x1 − y1 )v1 + . . . + (xn − yn )vn ,

como os vetores são LI, então os escalares devem ser nulos, logo

x1 = y1 , . . . , xn = yn .

Consideremos uma ordem fixa nos vetores da base α, assim os escalares associados a um vetor
v ∈ V , ordenados de acordo com a ordem fixa da base, determinaram v de forma única.
Definição 2.52. Nas condições acima e dado v ∈ V , chamamos coordenadas de v com
relação a base α ao vetor coluna:
 
x1
 .. 
[v]α =  .  ∈ Rn .
xn

De forma que 
x1
v = x1 v1 + . . . + xn vn ⇔ [v]α =  ...  .
 
xn
Exemplos 2.53.
   
1 0
n  ..   .. 
1. Sejam V = R e a base canônica ordenada α = {e1 =  .  , . . . , en =  . }. Neste caso
0 1
n
para qualquer vetor de R , temos
     
x1 1 0
 ..   ..   .. 
v =  .  = x1  .  + . . . + xn  .  = x1 e1 + . . . + xn en , ou seja:
xn 0 1
 
x1
 .. 
[v]α =  .  = v, para todo v ∈ Rn .
xn
     
1 2 0
3
2. Seja V = R , afirmamos que β = {u1 = −1 , u2 = −1 , u3 = 1} é uma base para
    
0 −1 1
V (verifique!).
 
x
(a) Determinemos as coordenadas de um vetor v = y  ∈ V em relação a base ordenada

z
β, temos,

82
              
a 1 2 0 x 1 2 0 a x
[v]β = b ⇒ a −1 + b −1 + c 1 = y ⇔ −1 −1 1
             b = y .
 
c 0 −1 1 z 0 −1 1 c z

O sistema pode ser resolvido por inversão pois a solução é única, ou seja é SPD, logo
a matriz de coeficientes é invertı́vel. Usando qualquer processo de inversão de matrizes,
obtemos:
   −1     
a 1 2 0 x 0 −2 2 x
1
[v]β = b = −1 −1 1
     y =
 1 1 −1   y ,
2
c 0 −1 1 z 1 1 1 z
assim  
−2y + 2z
1
[v]β = x + y − z  .
2
x+y+z

(b) Dadas as coordenadas de um vetor, podemos obter o próprio vetor. De fato:


         
1 1 2 0 −1
• Se [u]β = −1 ⇒ u = u1 − u2 + 2u3 = −1 − −1 + 2 1 =  2  .
2 0 −1 1 3
   
0 2
• Se [v]β = 1 ⇒ v é o segundo vetor da base ⇒ v = −1 .
  
0 −1
Propriedades 2.54. Se V é um espaço de dimensão finita n, com base α e u, v ∈ V , então
valem as seguintes propriedades:

1. [u]α = 0Rn ⇔ u = 0V .
2. [u]α = [v]α ⇔ u = v
3. [u + v]α = [u]α + [v]α
4. [λu]α = λ[u]α
5. Se A e B são matrizes de ordem m × n, tais que A[u]α = B[u]α , ∀u ∈ V , então A = B.

Matriz Mudança de base.


Sejam α e β bases do espaço vetorial V , onde α = {u1 , · · · , un }. Dado u ∈ V , desejamos saber
a relação entre [u]α e [u]β .
Por exemplo, em R3 , dada uma base ordenada α = {u1 , u2 , u3 } e um vetor v ∈ R3 , representando
v como combinação linear dos vetores de α obtemos a igualdade:
 
u1 u2 u3 [v]α = v = [v]C , onde C é a base canônica,

83
que associa [v]α e [v]C , veremos que em geral temos uma relação similar entre coordenadas de
um mesmo vetor em duas bases do espaço.
 
a1
 .. 
Consideremos, [u]α =  . , escalares de u com relação à base α. Determinemos os escalares
an
[u]β . Temos,
u = a1 u1 + . . . + an un ,
logo,

[u]β = [a1 u1 + . . . + an un ]β
= a1 [u1 ]β + . . . + an [un ]β
 
a1
 .. 
= [ [u1 ]β | · · · | [un ]β ] ·  . 
an
= [ [u1 ]β | · · · | [un ]β ] · [u]α

A matriz acima cuja j-ésima coluna é o vetor [uj ]β , é chamada matriz mudança de base,
da base α para base β e é denotada por [I]αβ , ou seja

[I]αβ = [ [u1 ]β | · · · | [un ]β ] .

Esta matriz é uma matriz quadrada de ordem n, com a propriedade caracterı́stica:

[u]β = [I]αβ [u]α , ∀u ∈ V,

ou seja que, fixadas as bases α, β a matriz [I]αβ é a única que verifica a igualdade acima.
Resumindo em um diagrama,

de forma prática, conhecendo [u]α podemos determinar [u]β multiplicando pela matriz [I]αβ .
As seguintes propriedades auxiliam nos cálculos de matrizes mudança de base e coordenadas
de vetores.

1. [I]αα é a matriz identidade. Sim, pois [u]α = In · [u]α , ∀u ∈ V , logo [I]αα = In .

2. Inversa de uma matriz Mudança de base. A matriz [I]αβ é invertı́vel, pois notemos
que para todo u ∈ V ,
[u]β = [I]αβ [u]α e [u]α = [I]βα [u]β

84
logo,
[u]α = [I]βα ([I]αβ [u]α ) = ([I]βα [I]αβ )[u]α , ∀ u ∈ V ⇒ [I]αβ [I]βα = In ,

daı́ também concluimos que,


[I]αβ = ([I]βα )−1 .

3. Mudança entre 3 bases. Dadas as bases α, β e γ de V , mudando a base β para γ e


em seguida para α temos,
[u]γ = [I]βγ [u]β e [u]γ = [I]βγ [u]β = [I]βγ [I]αβ [u]α ,
o que mostra que [I]αγ = [I]βγ [I]αβ .
4. Mudança de bases em Rn . A matriz mudança de base, da base α = {u1 , . . . , un } para
a base canônica C de Rn é simplesmente, [I]αC = [u1 | · · · | un ]. Já a matriz mudança
de base entre bases quaisquer α e β de Rn pode ser calculada da forma,
β −1
[I]αβ = [I]C α α
β [I]C = ([I]C ) [I]C .

Exemplos 2.55.
       
2 1 1 −1
1. Sejam V = R2 e as bases de R2 : α = { , } e β = { , }. Determine as
1 1 1 0
matrizes mudança de bases [I]αβ , [I]βα .

Primeira forma. Para obter [I]αβ calcularemos as coordenadas, na base β, de um vetor


 
x
qualquer u = . Notemos que,
y
            
a 1 −1 x 1 −1 a x
[u]β = ⇒a +b = ⇔ =
b 1 0 y 1 0 b y
     
x a y
cuja solução é a = y e b = y − x, ou seja [ ] = = .
y β b y−x
       
2 1 1 1
Logo, [ ]β = e [ ]β = . Portanto,
1 −1 1 0
   
α 1 1 β α −1 0 −1
[I]β = e [I]α = ([I]β ) = .
−1 0 1 1

Segunda forma. Sabemos que [I]αβ = ([I]βC )−1 [I]αC , onde C é a base canônica de R2 ,
temos
     −1  
α 2 1 β 1 −1 β −1 1 −1 0 1
[I]C = , [I]C = e ([I]C ) = = .
1 1 1 0 1 0 −1 1
    
α 0 1 2 1 1 1
[I]β = = .
−1 1 1 1 −1 0

85
     
0 0 1
3 3
2. Considere V = R , C a base canônica de R e a base α = { 0 , −2 , 0 }. Calcule
    
1 1 −1
[I]αC e [I]C
α .
 
0 0 1
Claramente, [I]αC =  0 −2 0  .
1 1 −1
Fazendo o processo de inversão obtemos:

 −1  
0 0 1 1 1/2 1
[I]C
α =
 0 −2 0  =  0 −1/2 0  .
1 1 −1 1 0 0

           
−2 0 2 1 1 0
3. Considere as bases de R3 , α = { 0  , −1 , 1} e β = {1 , 0 , 0}, calcule
1 1 0 1 1 1
α β
[I]β e [I]α

Seja C a base canônica de R3 . Temos [I]αβ = ([I]βC )−1 [I]αC . É claro que,
   
−2 0 2 1 1 0
[I]αC =  0 −1 1 e [I]βC = 1 0 0 ,
1 1 0 1 1 1

logo:
 −1  
1 1 0 −2 0 2
[I]αβ = 1 0 0  0 −1 1
1 1 1 1 1 0
  
0 1 0 −2 0 2
=  1 −1 0  0 −1 1
−1 0 1 1 1 0
 
0 −1 1
= −2 1 1 .
3 1 −2

Calculamos a outra mudança de base por inversão:


 −1  
0 −1 1 3 1 2
1
[I]βα = ([I]αβ )−1 = −2 1 1  = 1 3 2 .
4
3 1 −2 5 3 2

86
2.9 Exercı́cios
     
1 2 3
3
1. Considere os vetores de R , u = 2 , v = 1 , w = 3 e calcule:
    
1 2 2
(a) −3(u + 2v) + 4(2u + v) = 5u − 2v (b) (2u − v + 3w) − 2(u + 3v − w)
(c) 21 (u + v + w) + 14 (u − v + w) + 14 (u − v − w).

2. Nos seguintes casos determine se o conjunto W de vetores é um sub-espaço vetorial do


espaço vetorial V , dando a justificativa correta.
 
x
3
(a) V = R , W = { y  ∈ R3 | z = 3}

z
 
x
3
(b) V = R , W = { y  ∈ R3 | x = z}

z
 
x
(c) V = R3 , W = {y  ∈ R3 | x ≤ y ≤ z}
z
 
a
(d) V = R , W = { b  ∈ R3 | |a| = |b|, onde a, b, c ∈ R}
3 
c
 
x
 y
(e) V = R4 , W = { 4
y  ∈ R | x, y ∈ R}

x
 
a
 b
(f) V = R4 , W = { 4
 c  ∈ R | a + b + c + d ≥ 0}

3. O conjunto dado (solução de um sistema linear de equações) dado por,


 
x
S = { y  ∈ R3 | x − y + z = 2, 2x + 4y − z = 0, x − 2y − z = 1}

z
é um subespaço vetorial de R3 ? Justifique.
   
1 3
3
4. Considere os vetores de R , u = 1  , v =
 0. Determine qual dos seguintes vetores
−2 4
é combinação linear de u e v:

87
     
4 3 11
(a) w1 = −5 (b) w2 =  1  (c) w3 =  5 .
9 −4 −2
5. Determine a equação(s) linear(s) que descrevem o sub-espaço W do espaço vetorial V
dado:
   
1 −1
3
(a) V = R , W gerado pelos vetores 1 e 2    
0 3
     
−1 0 −2
3
(b) V = R , W gerado pelos vetores 2 , 1 , 5 
    
0 2 2
     
−1 2 0
 1  1  0 
   
(c) V = R4 , W gerado pelos vetores   0  , 3 ,  2 

0 0 −1
 
2
3
(d) V = R , W gerado pelo vetor −5 
3
   
2 0 630
(e) V = R , W gerado pelos vetores , .
0 990
     
1 −1 4
3
6. Considere os vetores de R u = 5 , v = 1 , w = 5. Determine se algum vetor do
    
10 4 5
conjunto {u, v, w} é combinação dos restantes, nesse caso mostre essa combinação linear.
     
−5 3 4
7. Considere os vetores de R3 , u =  3 , v = −1 e u = −2. Determine se {u, v, w}
2 3 9
3
gera R .
   
1 3
 1  −4
 
8. Considere os subespaços vetoriais de V = R4 , W1 gerado por { −6 , −1} e W2 gerado

−4 1
   
5 −4
−5  9 
 0  ,  6 }. Determine se W1 = W2 ou não.
por {   

2 0
     
1 −1 4
3
9. Considere os vetores de R , u = 1 , v = 1 . Determine k ∈ R tal que o vetor 5
    
−2 3 k
pertença ao espaço gerado por u e v.

88
10. Verifique se os conjuntos abaixo são LI ou LD.
     
1 1 3
(a) { 0 , 3 , 2}
    
0 5 5
     
1 1 3
(b) { 2  , −2 , −2}
−1 3 5
       
1 1 1 1
0 1 1 1
(c) {
0 , 0 , 1 , 1}
      

0 0 0 1

11. Determine se possı́vel, os valores de k tais que o conjunto S seja LI em V = R3 .


     
−1 1 k
S = { 0 , 1 , −2}.
    
2 1 0

12. Determine se possı́vel, os valores de k tais que o conjunto S seja LD em V = R4 .


     
1 0 0
1  1   1 
S = {0 , −1 , −2}.
    

2 0 k

13. Complete com V(verdadeiro) ou F(falso), justificando sua resposta.


     
−1 0 −1
(a) O conjunto { 2 , 1 , 1 } gera o espaço R3 .
    
3 2 1
     
1 0 2
(b) O conjunto { 2 , 0 , 3} é LI em R3 .
    
3 0 3
(c) Se S = {v1 , v2 , . . . , vn } ⊂ V é LI então qualquer subconjunto não vazio de S também
é LI.
       
1 7 1 7
(d) {  0 , 8} é base do subespaço [  0 , 8 ] de R3 .

4 0 4 0
(e) Todo conjunto LI de vetores é uma base de seu subespaço gerado.
   
3 0
(f) { , } é base do espaço R2 .
5 0
(g) Se [v1 , v2 , v3 , v4 ] = R3 então quaisquer três vetores deste conjunto formam uma base
do R3 .

89
(h) Um conjunto com três vetores do R3 é base do R3 .
(i) Um conjunto com mais do que três vetores do R3 não será uma base do R3 .
       
2 x 2 x 2
(j) { , } é base do R quando ∈
/[ ].
3 y y 3
(k) Sejam V um espaço vetorial de dimensão n e {v1 , v2 , . . . , vn−1 } ⊂ V um conjunto LI.
Então {v1 , v2 , . . . , vn−1 , v} é base de V qualquer que seja o vetor v ∈ V .
(l) Todo conjunto gerador de um espaço vetorial V é uma base para V .
     
1 2 1
(m) dim([ 0 , 1 , 1 ]) = 3 .
    
−1 3 4
       
1 0 0 1
2 −1 2  0 
14. Para que valores de k os vetores 
0 ,  k  , 1 e  2  geram um espaço tridimensi-
      

k 1 0 3k
onal?

15. Determine uma base e a dimensão dos seguintes sub-espaçõs W do espaço V :


 
x
(a) V = R3 e W = {y  ∈ V /2x − y + z = 0 e x + 3y − z = 0}
z
 
x1
5  .. 
(b) V = R e W = { .  ∈ V /x1 = x2 = x5 }
x5
       
1 1 0 2
(c) V = R3 e W é o subespaço gerado por: {−1 , 2 , 1 , 1}
1 0 1 2
 
1 1 1
16. Dada a matriz A = 1 0 2, considere V = N ul(A) e W = Col(A).
2 3 1
(a) Determine se V é R3 , um plano, uma reta ou contém somente o vetor nulo.
(b) Idem Para W .

17. Para as seguintes matrizes, ache uma base e a dimensão para o espaço nulo de A e para
o espaço coluna de A.
 
  1 −2 7 0
1 1 0 1 1 −1 4 0
(a) A = 0 1 −1 1  (b) A = 

3 2 −3 5

0 1 −1 −1
2 1 −1 3

90
 
  2 5 6
1 −1 −1 2 −1 −1 3 
(c) A = (d) A =  
1 −1 −1 −2 2 3 −2
1 3 5
       
1 0 −2 1
−1      0
  0  2   
18. Seja W o subespaço, de R4 , gerado pelos vetores: {
 0  , 1 ,  1  , 0}
0 1 1 0
 
2
−3
 2  ∈ W ?. Justifique
(a)  

2
(b) Exiba uma base para W.

19. Considere os vetores u, v, w de um espaço vetorial V e mostre que:


(a) Se {u, v, w} é LI, então {u + v, u + w, v + w} também é LI
(b) [u, v, w] = [u + v, u + w, v + w] ?

20. Considere V = Pn (R), com n ≥ 1 e determine quais dos seguintes subconjuntos são
subespaços de V .
(a) W = {p ∈ V | p(0) = 0}
(b) W = {p ∈ V | p(1) = 1}
(c) W = {p ∈ V | p0 + 2p = 0V }

21. Em cada caso determine se o conjunto α é uma base do espaço V .


(a) α = {x, 1 + x} em V = P1 (R)
(b) α = {1 + x, x + x2 , 1 + x2 } em V = P2 (R)
(c) α = {1 + x + 2x2 , 2 + x + 2x2 , −1 + x + 2x2 } em V = P2 (R).

22. Para os subespaços S1 e S2 de R3 dados, determine S1 ∩ S2 , S1 + S2 e suas dimensões.


Indique se a soma é direta ou não.
   
x x
(a) S1 = { y ∈ R , x − 2y + z = 0} e S2 = { y  ∈ R3 , x + 3y = 0}
  3 
z z
     
x −1 3
3
(b) S1 = { y ∈ R , y = 0} e S2 = [ 2 , 1 ]
    
z 0 1
   
x x
(c) S1 = {y  ∈ R3 , x = y} e S2 = {y  ∈ R3 , x + y + z = 0}
z z

91
   
x x
  3
(d) S1 = { y ∈ R , x − 2y + z = 0 e 2x − z = 0} e S2 = { y  ∈ R3 , x + y = 0}

z z
   
x 1
(e) S1 = {y  ∈ R3 , x − y + z = 0} e S2 = [ 1 ]
z 1

23. Sejam os subespaços de R4 :


 
x
y  4
W1 = {
 z  ∈ R / x + y = 0 e z − w = 0} e

w
 
x
y  4
W2 = {
 z  ∈ R / x − y − z + w = 0}

w
a) Determine os espaços W = W1 + W2 e W1 ∩ W2 dando as respectivas bases e
dimensões.
L
b) W = W1 W2 ? Justifique sua resposta.

24. Considere os subespaços de R4 :


 
x
y  4
W1 = {
 z  ∈ R / x + y = z e y + w = 0} e

w
 
x
y  4
W2 = {
 z  ∈ R / x = w e y = z}

w
a) Determine os espaços W = W1 + W2 e W1 ∩ W2 dando as respectivas bases e
dimensões.
L
b) W = W1 W2 ? Justifique sua resposta.

25. Em cada caso considere o espaço vetorial V , a base β de V e w ∈ V e determine [w]β .


     
2 3 1
(a) V = R2 , β = { , }ew=
4 8 1
       
1 2 3 2
(b) V = R3 , β = {0 , 2 , 3} e w = −1
0 0 3 3
       
3 5 1 1
(c) V = R3 , β = { 2  , −1 , 0} e w =  2 
−1 3 1 −2

92
       
1 1 1 1
3
(d) V = [ u = 1 , v = 2 ] (subespaço de R gerado por u e v), β = { 1 , 2}
      
 −1 1 −1 1
2
e w = 9/2
3
 
1
26. (a) Considere a base dada em (25a) e determine w ∈ R2 , tal que [w]β =
−1
 
1
3
(b) Considere a base dada em (25c) e determine w ∈ R , tal que [w]β = 1 

−1
           
−1 0 0 0 0 1
27. Dadas as bases A = { 0  , 1 , 0} e B = {0 , −2 ,  0 } do R3 .
2 0 2 1 1 −1

(a) Determine [I]A B


B e [I]A .
 
−1
(b) Considere [v]A =  2 . Calcule [v]B .
3
 
3
(c) Considere [v]B = 1 . Calcule [v]A

−1

28. Em cada caso considere que A e B são bases de R2 .


     
1 −2 1 2
(a) Se [I]A
B = eB={ , }, determine A.
0 −3 −2 0
     
A 1 2 1 0
(b) Se [I]B = eA={ , }, determine B.
0 3 −1 1
 
2 −1
29. Sabendo que A = {u1 , u2 } e B = {w1 , w2 } são bases do R tais que [v]A = ,
0
w1 = u1 − u2 e w2 = 2u1 − 3u2 , determine [v]B .
30. (a) Sejam α = {1 + x, 1 − x} base de P1 (R) e p(x) = 1 + 3x ∈ P1 (R), determine [p(x)]α
(b) Sejam β = {1, x − 1, (x − 1)2 } base de P2 (R) e p(x) = 1 + 2x − 5x2 ∈ P2 (R),
determine [p(x)]β
(c) Seja γ = {x, 1 + x2 , x + x2 } base de P2 (R), determine p(x) ∈ P2 (R) tal que
3
[p(x)]γ = 4 .

−5
(d) Considere as bases β e γ de P2 (R), dadas acima e determine as matrizes [I]βγ e [I]γβ .

93
Capı́tulo 3

TRANSFORMAÇÕES LINEARES

3.1 Definição e Exemplos


Definição 3.1. Dados dois espaços vetoriais reais, V e W , diremos que a aplicação,

T : V → W,

é uma transformação linear (TL), se são satisfeitas as seguintes propriedades.

1. T (u + v) = T (u) + T (v), para todos u, v ∈ V

2. T (λu) = λT (u), para todos λ ∈ R, u ∈ V.

Exemplos 3.2.

1. Dado k ∈ R, temos que a aplicação T : R → R, dada por T (x) = kx, ∀ x ∈ R é uma


transformação linear, pois

T (x + y) = k(x + y) = kx + ky = T (x) + T (y),

T (λx) = k(λx) = λ(kx) = λT (x),


para todos x, y, λ ∈ R.

2. Seja A uma matriz de ordem m × n. A aplicação:

T : Rn → Rm , T (u) = Au, ∀ u ∈ Rn ,

é uma transformação linear, pois para todos u, v ∈ Rn e λ ∈ R,

• T (u + v) = A(u + v) = Au + Av = T (u) + T (v),


• T (λu) = A(λu) = λ(Au) = λT (u).

94


1 2
Por exemplo, com A = −1 3, temos
0 1
   
  1 2   x + 2y  
2 3 x x x
T : R → R , T( ) = −1 3 = −x + 3y  , ∀ ∈ R2 .
y y y
0 1 y

Nota: Toda transformação linear T : Rn → Rm é da forma dada neste exemplo, isto será
esclarecido na observação 3.26.

3. Nos espaços vetoriais V = C 1 (R) das funções reais, diferenciáveis com derivada contı́nua
e W = C(R), das funções contı́nuas, a aplicação de derivação é uma transformação linear,
pois é conhecido que,

(f + g)0 = f 0 + g 0 e que, (λf )0 = λf 0 .

4. Dados espaços vetoriais V e W , é simples verificar que as seguintes aplicações são trans-
formações lineares.

(a) Transformação Identidade. I : V → V, I(u) = u, para todo u ∈ V .


(b) Transformação Nula. T : V → W, T (u) = 0W ∈ W , para todo u ∈ V .

Propriedades 3.3. Dada uma transformação linear T : V → W valem as propriedades:

1. T (0V ) = 0W ,

2. T (−u) = −T (u), para todo u ∈ V ,

3. Dados u1 , . . . , un vetores de V e α1 , . . . , αn escalares, temos que:

T (α1 u1 + . . . + αn un ) = α1 T (u1 ) + . . . + αn T (un ).

Daı́, claramente uma aplicação entre espaços vetoriais que verifica T (0V ) 6= 0W não pode ser
transformação linear.
Dado um espaço vetorial V , uma transformação linear T de V em V é chamado operador
linear sobre V .

Operadores do Plano

1. Contração ou Dilatação uniforme. Consideremos o escalar c > 0 e a aplicação


     
2 2 x x x
T : R → R , tal que T ( )=c , para todo ∈ R2 .
y y y

95
T é uma transformação linear, pois
        
x x cx c 0 x
T =c = = .
y y cy 0 c y

Se c > 1, T é chamada Dilatação. Caso 0 < c < 1, T é dita Contração.

2. Reflexão em torno do eixo x. Considere a aplicação que leva um vetor do plano na


sua reflexão através do eixo x,
     
2 2 x x x
T : R → R , tal que T = , ∀ ∈ R2 .
y −y y

T é um operador linear, pois


      
x x 1 0 x
T( )= = .
y −y 0 −1 y

96
3. Reflexão em torno do eixo y. A aplicação
     
2 2 x −x x
T : R → R , tal que T = , para todo ∈ R2 ,
y y y

leva um vetor do plano na sua reflexão através do eixo y, analogamente ao caso anterior
é um operador linear, pois
      
x −x −1 0 x
T( )= = .
y y 0 1 y

4. Reflexão em torno da origem. A aplicação


     
2 2 x −x x
T : R → R , tal que T = , para todo ∈ R2 ,
y −y y

leva um vetor do plano na sua reflexão através da origem, é um operador linear, pois
      
x −x −1 0 x
T( )= = .
y −y 0 −1 y

97
5. Rotação com ângulo θ. Dado um ângulo θ, consideremos a aplicação de rotação pelo
ângulo θ,
Rθ : R2 → R2 ,
que leva um vetor do plano num novo vetor, que é a rotação, com ângulo θ, no sentido
 basta considerar 0 ≤ θ < 2π. Vamos descrever
anti-horário do vetor inicial, para o caso
x
exatamente o vetor Rθ (u), para u = . Escrevendo as componentes de u em função
y
de seu comprimento r e de seu ângulo de inclinação β, temos

x = rcos β, y = rsen β.

logo,
     
x rcos(β + θ) rcosβcosθ − rsenβsenθ
R = =
y rsen(β + θ) rsenβcosθ + rcosβsenθ
   
xcosθ − ysenθ xcosθ − ysenθ
= =
ycosθ + xsenθ xsenθ + ycosθ
     
cosθ −senθ x x
= · , ∀ ∈ R2 .
senθ cosθ y y

 
cosθ −senθ
A matriz é chamada matriz de rotação no plano, pelo ângulo θ.
senθ cosθ

3.2 Núcleo e Imagem de uma Transformação Linear

Definição 3.4. Seja T : V → W uma TL, definimos

1. Núcleo de T :
N uc(T ) = {u ∈ V | T (u) = 0W } .

98
2. Imagem de T :
Im(T ) = T (V ) = {T (u) ∈ W | ∀ u ∈ V } .

Qualquer que seja a transformação T , temos que N uc(T ) e Im(T ) são subespaços de V e W ,
respectivamente. De fato:

• Para todos u, v ∈ N uc(T ), temos

T (u + v) = T (u) + T (v) = 0W + 0W = 0W ⇒ u + v ∈ N uc(T ).

Para todo u ∈ N uc(T ) e λ ∈ R, temos

T (λu) = λT (u) = λ0W = 0W ⇒ λu ∈ N uc(T )

Também 0 ∈ N uc(T ), pois T (0V ) = 0W .

• Para todos u, v ∈ Im(T ), temos

u + v = T (u0 ) + T (v 0 ) = T (u0 + v 0 ) ⇒ u + v ∈ Im(T ).

Para todo v ∈ Im(T ) e λ ∈ R, temos

λv = λT (u) = T (λu) ⇒ λv ∈ Im(T )

Também 0W = T (0V ) ∈ Im(T ).

Relação do núcleo e imagem com os espaços N ul(A) e Col(A).

No caso, V = Rn , W = Rm , A uma matriz fixa de ordem m × n e T : Rn → Rm , dada por


T u = Am×n u, ∀ u ∈ Rn , temos

• N uc(T ) = {X ∈ Rn / T (X) = AX = 0} = N ul(A), logo

N uc(T ) = N ul(A) e dim N uc(T ) = nA = n − pA .



x1
• Im(T ) = {T (X) = AX ∈ Rm / X ∈ Rn }, sendo X =  ...  e C1 , . . . , Cn as colunas de
 
xn
A, temos
AX = x1 C1 + . . . + xn Cn ,
logo Im(T ) é o espaço gerado pelas colunas de A, ou seja

Im(T ) = Col(A) e dim Im(T ) = dim Col(A) = pA .

• Verifica-se que,
dim N uc(T ) + dim Im(T ) = n = dim V.

99
A observação sobre as dimensões, vale em geral para qualquer transformação linear.

Teorema 3.5 (Teorema da Dimensão Nucleo-Imagem). Sejam V , W espaços vetoriais de di-


mensão finita e T : V → W uma transformação linear, nestas condições temos:

dim(V ) = dim(N uc(T )) + dim(Im(T )).


   
x x + 3z
Exemplo 3.6. Determine N uc(T ) e Im(T ), onde T : R3 → R3 , T (y ) = x − y + 5z  .
z 2x + 3y
        
x x + 3z 1 0 3 x 1 0 3
Notemos que T ( y ) = x − y + 5z = 1 −1
     5 y  . seja A = 1 −1 5.
z 2x + 3y 2 3 0 z 2 3 0

• 
Sabemos que
 Nuc(T) = N ul(A), ou seja trata-se das soluções do sistema homogêneo,
1 0 3 x 0
1 −1 5 y  = 0.
2 3 0 z 0
Escalonando,      
1 0 3 1 0 3 1 0 3
A = 1 −1 5 → 0 −1 2  → 0 1 −2 ,
2 3 0 0 3 −6 0 0 0
 
−3
logo a solução é x = −3s, y = 2s e s ∈ R, ou seja X =  2  s, s ∈ R.
1
 
−3
∴ N uc(T ) = { 2  s / s ∈ R} e dim N uc(T ) = 1.

1

• Sabemos que Im(T ) = Col(A), de fato


         
x x + 3z 1 0 3
T (u) = T y  = x − y + 5z  = x 1 + y −1 + z 5 ,
z 2x + 3y 2 3 3

Do escalonamento de A obtemos, dimIm(T ) = dim Col(A) = pA = 2, logo quaisquer


dois vetores coluna de A formam uma base, por exemplo,
   
 1 0 
1 , −1 .
2 3
 

Determinemos as equações de Im(T ) sabendo que é gerado pelas colunas de A,

100
     
1 0 a 1 0 a 1 0 a
 1 −1 b  →  0 1 a − b  →  0 1 a−b 
2 3 c 0 3 c − 2a 0 0 −5a + 3b + c

Logo,  
a
Im(T ) = { b  / 5a − 3b − c = 0}

c

Neste exemplo, temos dim(V ) = dim(W ) = dim(R3 ) = 3, dim(N uc(T )) = 1 e dim(Im(T )) =


2, de forma que vale:
dim(V ) = dim(N uc(T )) + dim(Im(T )) .
| {z } | {z } | {z }
3 1 2

Exemplo 3.7. Determinemos


 bases e as dimensões de N uc(T ) e Im(T ), onde T : R2 → R3 ,
  x − 2y
x
T( ) =  x + y .
y
3x − 3y
       
  x − 2y 1 −2   1 −2
x x
Notemos que T ( )=  x+y  = 1 1
  = x 1 + y 1 , logo uma base para
  
y y
3x − 3y 3 −3 3 −3
Im(T ) é
   
1 −2
{1 ,  1 }, então dim Im(T ) = 2.
3 −3

Obtemos a dimensão de N uc(T ) diretamente


 
0
dimN uc(T ) + dimIm(T ) = 2 ⇒ dim N uc(T ) = 0 ⇒ N uc(T ) = { }.
| {z } 0
2

Propriedade 3.8. Para uma transformação linear T : V → W , Im(T ) é gerado pelas imagens
de uma base de V . Para verificarmos esta afirmação, suponha que {u1 , . . . , un } é uma base
qualquer de V , logo todo u ∈ V é uma combinação linear da forma:

u = a1 u1 + · · · + an un ⇒ T (u) = a1 T (u1 ) + · · · + an T (un ),

assim, Im(T ) é gerado por T (u1 ), · · · , T (un ).

Determinando Transformações Lineares.

O seguinte teorema mostra que podemos determinar uma transformação linear conhecendo as
imagens em uma base qualquer.

101
Teorema 3.9. Sejam V e W espaços vetoriais. Dados uma base α = {v1 , . . . , vn } de V
e um grupo de n vetores {w1 , . . . , wn }, de W , então existe uma única transformação linear
T : V → W , tal que:
T (v1 ) = w1 , . . . , T (vn ) = wn .

Demonstração. Dado que todo vetor de v ∈ V escreve-se como combinação linear de vetores
da base,

v = a1 v1 + . . . + an vn , onde a1 , . . . , an são as coordenadas de v em α,

assim podemos definir a aplicação T ,

T (v) = T (a1 v1 + . . . + an vn ) = a1 T (v1 ) + . . . + an T (vn ).

É simples verificar que a T definida assim é uma TL, que verifica T (vi ) = wi e que é única
com esta condição.
 
1  
3 2 1
Exemplo 3.10. Determine a transformação linear T : R → R , tal que T ( 1 ) =   ,
2
    1
1   1  
2 3
T( 1 ) =
  e T( 0 ) =
  . É direto verificar que
3 4
0 0
     
1 1 1
α = { 1 , 1 , 0}
    
1 0 0

é uma base para V = R3 , logo existe a transformação


  pedida e ela será única. Para determinar
x
esta TL, vamos escrever um vetor u = y  como combinação linear dos vetores da base α e
z
portanto devemos calcular as coordenadas de u em α. De fato,
            
x 1 1 1 x 1 1 1 a
u = y  = a 1 + a 1 + c 0 ⇒ y  = 1 1 0  b  ,
z 1 0 0 z 1 0 0 c
logo,    −1       
a 1 1 1 x 0 0 1 x z
[u]α =  b  = 1 1 0 y  = 0 1 −1 y  = y − z 
c 1 0 0 z 1 −1 0 z x−y
Com as coordenadas de u em α, obtemos
       
x 1 1 1
u = y  = z 1 + (y − z) 1 + (x − y) 0 ,
z 1 0 0

102
Aplicando T em ambos os lados da igualdade temos,
       
x 1 1 1
T (y ) = zT (1) + (y − z)T (1) + (x − y)T (0)
z 1 0 0
     
1 2 3
= z + (y − z) + (x − y)
2 3 4
 
3x − y − z
= .
4x − y − z
Exemplo
  3.11. Determine atransformação
  linear T : R3 → R3 , tal que N uc(T ) = [u], onde
1 −1 1
u = −1 e tal que e T ( 0 ) = 1.
    
0 4 1
       
1 0 −1 1
Neste caso T (−1) = 0, T ( 0 ) = 1, mas
0 0 4 1
   
1 −1
{ −1 , 0 } não é uma base para R3 , e sim um conjunto LI, logo pode ser completado
  
0 4
para obter uma base,
     
1 −1 0 1 −1 0
β = {−1 ,  0  , 0}, pois −1 0 0 = −1 6= 0
0 4 1 0 4 1
logo β é uma base para V = R3 .
 
0
Para determinar T será suficiente definir T ( 0), mas a transformação pedida não será única,

1
pois podemos completar a base de várias formas, assim como podemos
  definir
 a imagem do
0 −1
terceiro vetor de muitas formas. Neste caso vamos definir, T (0) =  0  . Para o cálculo
  1 1
x
das coordenadas de um vetor u = y  em β, usemos matriz mudança de base,

z
 −1       
1 −1 0 x 0 −1 0 x −y
β −1
[u]β = [I]C
β u = ([I]C ) u = −1
 0 0 y  = −1 −1 0 y  =  −x − y  ,
0 4 1 z 4 4 1 z 4x + 4u + z
assim temos,
       
x 1 −1 0
u = y  = −y −1 + (−x − y)  0  + (4x + 4y + z) 0 ,
z 0 4 1

103
Aplicando T em ambos os lados da igualdade temos,
       
x 1 −1 0
T ( y ) = −yT ( −1 ) + (−x − y)T ( 0 ) + (4x + 4y + z)T ( 0)
      
z 0 4 1
     
0 1 −1
= −y 0 + (−x − y) 1 + (4x + 4y + z) 0 
    
0 1 1
 
−5x − 5y − z
=  −x − y − z  .
3x + 3y + z

3.3 Operações com TLs


Soma e Multiplicação por Escalar.
Definição 3.12. Dados espaços vetoriais U e V e as transformações lineares, T : U → V e
L : U → V , de forma usual define-se,

1. Soma. A aplicação soma de T e L, denotada L + T , é dada por

L + T : U → V, onde (L + T )(u) = L(u) + T (u).

2. Multiplicação por Escalar. Dados α ∈ R e T : U → V uma TL, denotamos por αL a


aplicação,
αL : U → V, dada por (αL)(u) = αL(u).

Da forma padrão, prova-se que T + L e αL são transformações Lineares.

No caso usual L, T : Rn → Rm dadas por L(u) = Am×n u e T (u) = Bm×n u, temos,

(L + T )u = (A + B)u e (αL)u = αAu.


   
2y x
Exemplo 3.13. Sejam T : R2 → R3 , L(x, y) =  2x  e T : R2 → R3 , T (x, y) = x + 2y ,
x+y y
calculemos o operador −L + 3T .
     
2y x x
(−L + 3T )(x, y) = −L(x, y) + 3T (x, y) = −  2x  + 3 x + 2y  =  x + 6y  .
x+y y −x + 3y

104
Composição de Transformações.
Definição 3.14 (Composição). Dados espaços vetoriais U , V e W e as transformações lineares,
T : U → V e L : V → W , definimos a Aplicação composta de T e L, denotada L ◦ T , como:

L ◦ T : U → W, onde (L ◦ T )(u) = L(T (u)).

L ◦ T é uma transformação linear, pois para todos u, v ∈ U e λ ∈ R,


(L ◦ T )(u + v) = L(T u + T v) = L(T u) + L(T v) = (L ◦ T )u + (L ◦ T )v, e
(L ◦ T )(λu) = L(T (λu)) = L(λT u) = λL(T u) = λ(L ◦ T )u, ∀u ∈ U.

No caso usual T : Rn → Rm , T (u) = Am×n u e L : Rm → Rs , L(u) = Bs×m u, a composição é


da forma,
(L ◦ T )u = L(T u) = B · (A · u) = (B · A)u,
ou seja que L ◦ T é determinada pela matriz BA.
Exemplo 3.15. Calcule L ◦ T , para as transformações lineares:
   
2 2 x x−y
T : R → R ,T( )=
y x + 2y
e  
  −y
x
L : R2 → R3 , L( ) = x + y  .
y
x

Notemos que,
    
         −y 0 −1 x
x x−y 1 −1 x x
T( )= = e L( ) = x + y  = 1 1  y 
y x + 2y 1 2 y y
x 1 0 z
 
0 −1  
1 −1
Obtemos que L◦T : R2 → R3 , multiplicando as matrizes de L e T respectivamente: 1 1  =
1 2
  1 0
−1 −2
2 1 , logo:
1 −1    
  −1 −2   −x − 2y
x x
(L ◦ T )( )= 2 1 =  2x + y  .
y y
1 −1 x−y

Observe que não é possı́vel calcular T ◦ L, pois Im(L) não está contida no domı́nio de T .

Como nas matrizes, a composição não é comutativa, ainda que as ordens das matrizes sejam
adequadas.

105
Proposição 3.16. Valem as seguintes da composição:

1. Associatividade. Dadas transformações lineares T : U → V , L : V → W e S : W → Z,


temos:
(S ◦ L) ◦ T = S ◦ (L ◦ T ).

2. Se T : U → V é uma TL, então,

T ◦ IU = T e IV ◦ T = T,

onde IU , e IV são as identidades em U e V respectivamente.

3.4 Transformações Injetoras, Sobrejetoras e Isomorfis-


mos
Definições 3.17. Seja uma transformação linear entre espaços vetoriais: T : V → W . Diremos
que:

1. T é injetora, se para todos u, v ∈ V , T (u) = T (v) ⇒ u = v.

2. T é sobrejetora, se Im(T ) = T (V ) = W .

3. T é isomorfismo, se T é injetora e sobrejetora.

Dada a transformação T : V → W , temos:


T (u) = T (v) ⇔ T (u − v) = 0W ⇔ u − v ∈ N uc(T ), desprende-se daı́ que, T será uma
transformação injetora, se e somente se, N uc(T ) = {0V } ,
A próxima proposição estabelece este resultado.

Proposição 3.18. Dada uma tranformação T : V → W , temos:


(a) T é injetora ⇔ N uc(T ) = {0V } ⇔ dim(N uc(T )) = 0
(b) T é sobrejetora ⇔ Im(T ) = W ⇔ dim(Im(T )) = dimW
 
  x + 2y
x
Exemplo 3.19. Considere T : R2 → R3 , onde T ( ) =  x − y . Determine se T é injetora
y
y
e se é sobrejetora.
Notemos que:
   
x + 2y 1 2  
 x − y  = 1 −1 x .
y
y 0 1

106
Para determinar N uc(T ), resolvamos o sistema homogêneo com matriz de coeficientes:
     
1 2 1 2 1 2
1 −1 → 0 3 → 0 1
0 1 0 1 0 0
Claramente a única solução deste sistema é x = y = 0. Portanto, T é injetora.
Pelo teorema da dimensão núcleo-imagem, temos que

dim(R2 ) = dim(N (T )) +dim(Im(T )) ⇒ dim(Im(T )) = 2.


| {z } | {z }
2 0

Logo, Im(T ) 6= R3 , ou seja T não é sobrejetora.

Lembrando que para transformações T : Rn → Rm , da forma T (u) = Am×n u temos

N uc(T ) = N ul(A) e Im(T ) = Col(A),

sobre as dimensões temos

dim(N uc(T )) = nA = n − pA e dim(Im(T )) = pA .

Para isomorfismos (transformações lineares bijetoras), temos as seguintes propriedades.


Teorema 3.20. Seja T : V → W uma transformção linear, temos:

1. Todo isomorfismo transforma bases de V em bases de W

2. T : V → W é um isomorfismo ⇔ dimV = dimW e T injetora ou sobrejetora.


   
x x + 2y
Exemplo 3.21. Provemos que a transformação linear T : R3 → R3 , T (y ) = x + y − z 
z x+z
é um isomorfismo.
    
x 1 2 0 x
Temos, T ( y ) = 1 1 −1
     y .
z 1 0 1 z
Calculemos N uc(T ) = N ul(A).
     
1 2 0 1 2 0 1 2 0
A = 1 1 −1 → 0 −1 −1 → 0 1 1 .
1 0 1 0 −2 1 0 0 3
 
0
Assim, pA = 3 e nA = 0, logo N uc(T ) = { 0} e Im(T ) = R3 , ou seja que T é bijetora e

0
portanto, um isomorfismo.

107
Consideremos que T : V → W , é um isomorfismo, ou seja uma transformação bijetora, como
toda função bijetora, temos que T é invertı́vel, ou seja que existe uma aplicação denotada por
T −1 : W → V e que tem a propriedade:

T (u) = w ⇔ T −1 (w) = u.

Neste caso, T −1 : W → V , também é um isomorfismo. De fato:

• T −1 é bijetiva pois, T também é.


• T −1 é linear. Consideramos v, v1 , v2 ∈ W , como T é sobrejetiva temos v = T (u), v1 =
T (u1 ) e v2 = T (u2 ).

T −1 (v1 + v2 ) = T −1 (T (u1 ) + T (u2 ))


= T −1 (T (u1 + u2 ))
= u1 + u2
= T −1 (v1 ) + T −1 (v2 ).

T −1 (λv) = T −1 (λT (u))


= T −1 (T (λu))
= λu
= λT −1 (v).

• T ◦ T −1 = IW e T −1 ◦ T = IV .
Observação 3.22. Caso T : Rn → Rn , T u = Au veremos que:

T é isomorfismo, se e somente se, A é uma matriz invertı́vel,

isto acontece pois, sendo T um isomorfismo vale n = dim Im(T ) = dim Col(A) = pA , o que
mostra que A é invertı́vel. Da igualdade T u = Au = v obtemos:

T −1 (v) = A−1 v.

Exemplo 3.23. Considere o isomorfismo do Exemplo 8. A matriz de coeficientes de T tem


posto 3, logo é invertı́vel. Para achar T −1 , usamos

T u = Au = v ⇔ u = A−1 v ⇒ T −1 (v) = A−1 v.


 
1 2 0
logo basta calcular A−1 . Temos A = 1 1 −1, a matriz ampliada é,
1 0 1
   
1 2 0 1 0 0 1 2 0 1 0 0
[A|I] = 1 1 −1 0 1 0 −→ 0 −1 −1 −1 1 0 −→
1 0 1 0 0 1 0 −2 1 −1 0 1

108
   
1 0 −2 −1 2 0 1 0 0 −1/3 2/3 2/3
0 1 1 1 −1 0 −→ 0 1 0 2/3 −1/3 −1/3
0 0 3 1 −2 1 0 0 1 1/3 −2/3 1/3
     
−1 2 2 x −x + 2y + 2z
Logo, A−1 = 13  2 −1 −1 e portanto, T −1 (y ) = 31  2x − y − z  .
1 −2 1 z x − 2y + z

Propriedades 3.24. Considerando dois isomorfismos T : U → V e L : V → W , temos que:

1. A composição L ◦ T é um isomorfismo e (L ◦ T )−1 = T −1 ◦ L−1

2. (T −1 )−1 = T .

Exemplo 3.25. Sejam as transformações T : R2 → R2 e L : R2 → R2 , dadas por:


       
x −x + y x x + 2y
T( )= e L( )= .
y 3x + 2y y −y

Verifique que L e T são isomorfismos e calcule (L ◦ T )−1 .


    
x −1 1 x −1 1
• T( )= é invertı́vel pois = −5 6= 0.
y 3 2 y 3 2
    
x 1 2 x 1 2
L( )= é invertı́vel pois = −1 6= 0.
y 0 −1 y 0 −1

• Seja A a matriz que determina T e B a que determina L, então (L ◦ T )−1 u = (BA)−1 u.


Temos
      
1 2 −1 1 5 5 −1 1 −2 −5
BA = = ⇒ (BA) = 5 , portanto,
0 −1 3 2 −3 −2 3 5
     
−1 x 1 −2 5 1 −2x + 5y
(L ◦ T ) ( )= = .
y 5 3 5 5 3x + 5y

3.5 Matriz Associada a uma Transformação Linear


Seja T : V → W uma TL. Consideremos as bases ordenadas α = {u1 , . . . , un } e β =
{w1 , . . . , wm } de V e W respectivamente. Dado u ∈ V , desejamos saber a relação entre [u]α
(coordenadas de u na base α) e [T (u)]β (coordenadas de T (u) na base β).
 
k1
 .. 
Consideremos, [u]α =  . , escalares de u com relação à base α. Determinemos os escalares
kn
[T (u)]β . Temos:

109
T (u) = T (k1 u1 + . . . + kn un ) = k1 T (u1 ) + . . . + kn T (un ),
Logo,

[T (u)]β = k1 [T (u1 )]β + . . . + kn [T (un )]β


 
k1
 .. 
= [[T (u1 )]β · · · [T (un )]β ] ·  . 
kn
= [[T (u1 )]β · · · [T (un )]β ] · [u]α

A matriz acima, cuja j-ésima coluna coluna é o vetor coordenadas de T (uj ) em β, é chamada
matriz de T, da base α à base β e é denotada por [T ]αβ , ou seja

[T ]αβ = [[T (u1 )]β . . . [T (un )]β ] .

Esta matriz tem a propriedade caracterı́stica,

[T (u)]β = [T ]αβ [u]α , ∀u ∈ V.


Resumindo em um diagrama,

Fixadas T e as bases α, β, a matriz [T ]αβ é a única com a propriedade acima.


No caso que T : V → V é um operador linear e que α é uma base de V , a matriz associada
[T ]αα é uma matriz quadrada que será denotada simplesmente: [T ]α .

Observações 3.26. 1. No caso de transformações do tipo T : Rn → Rm , usando a matriz


associada a T , podemos conferir que T é dada pela multiplicação por uma matriz fixa.
De fato, se α e β são as bases canônicas, na ordem usual de Rn e Rm respectivamente,
temos
T (u) = [T (u)]β = [T ]αβ · [u]α = [T ]αβ · u.
Na prática, se T : Rn → Rm é dada na forma T (u) = A u, ∀u ∈ Rn , obtemos diretamente
que [T ]αβ = A, tanto pela unicidade, quanto pela própria definição de matriz associada.

2. Se α, β são bases de um espaço V , então a matriz associada ao operador identidade


IV : V → V da base α a base β, é exatamente a matriz mudança de base entre essas
bases. De fato:
[IV (v)]β = [v]β = [I]αβ [v]α , logo [IV ]αβ = [I]αβ .

110
Exemplos 3.27.
 
x  
3 2 2x − y + 3z
1. Dada T : R → R , T (y ) = , determine a matriz [T ]αC , onde α = {u1 =
−x + 2z
    z 
1 0 1
−1 , u2 =  2  , u3 = 0} é base de R3 e C é a base canônica de R2 .
1 −1 1
Sabemos que, [T ]αC = [ [T (u1 )]C [T (u2 )]C [T (u3 )]C ], calculando as colunas obtemos,
   
1   0  
6 −5
[T (u1 )]C = T (u1 ) = T ( −1 ) =
  , [T (u2 )]C = T (u2 ) = T ( 2 ) =
  e
1 −2
 1 −1
1  
5
[T (u3 )]C = T (u3 ) = T (0) = , portanto
1
1
 
α 6 −5 5
[T ]C = .
1 −2 1
   
x x+y
2. Seja T : R3 → R3 , dada por T (y ) =  x − 2z . Determine [T ]αβ , onde α e β são as
z x+y−z
3
bases de R :      
1 −1 1
α = {u1 = 0 , u2 = 1 , u3 = 0},
    
−1 0 1
     
1 0 2
β = {−1 , 1 , 0}.
1 0 1
Neste caso temos, [T ]αβ = [ [T (u1 )]β [T (u2 )]β [T (u3 )]β ], calculando as imagens resulta,
           
1 1 −1 0 1 1
T (u1 ) = T ( 0 ) = 3, T (u2 ) = T ( 1 ) = −1 e T (u3 ) = T (0) = −1 .
−1 2 0 0 1 0
Para obter as colunas de [T ]αβ devemos determinar as coordenadas em β dos vetores acima,
 
x
para isso calcularemos as coordenadas de um vetor qualquer v = y  na base β. Usando
z
C C
matrizes mudança de base temos, [v]β = [I]β [v]C = [I]β · v, onde C é a base canônica de
R3 . Por inversão de matriz obtemos,
 −1  
1 0 2 −1 0 2
β −1
[I]C
β = ([I]C ) = −1 1 0 = −1 1 2  .
1 0 1 1 0 −1

111
Então,
      
1 −1 0 2 1 3
[T (u1 )]β = [ 3 ]β = −1 1 2
     3 = 6 ,
 
2 1 0 −1 2 −1
      
0 −1 0 2 0 0
[T (u2 )]β = [−1]β = −1 1 2  −1 = −1,
0 1 0 −1 0 0
      
1 −1 0 2 1 −1
[T (u3 )]β = [−1]β = −1 1 2  −1 = −2.
0 1 0 −1 0 1
 
3 0 −1
α
Portanto [T ]β =  6 −1 −2  .
−1 0 1

Matriz da Composição.
Vamos determinar a matriz associada a uma composição de transformações. Para isto con-
sideremos espaços vetoriais U , V e W , com bases ordenadas α, β e γ, respectivamente e as
transformações lineares T : U → V e L : V → W . Nestas condições temos a composição:
L ◦ T : U → W.
Para todo u ∈ U , as coordenadas de (L ◦ T )(u) na base γ satisfazem:
[(L ◦ T )(u)]γ = [(L(T (u))]γ = [L]βγ [T (u)]β = [L]βγ [T ]αβ [u]α .
Pela unicidade da matriz de L ◦ T , temos:

[L ◦ T ]αγ = [L]βγ [T ]αβ .

Matriz da Soma e Multiplicação por escalar.


Consideremos as transformações lineares L, T : V → W e as bases α de V e β de W , notemos
que
[(L + T )(u)]β = [L(u)]β + [T (u)]β = [L]αβ [u]α + [T ]αβ [u]α = ([L]αβ + [T ]αβ )[u]α , ∀u ∈ V,
portanto
[L + T ]αβ = [L]αβ + [T ]αβ ,
de forma análoga obtemos,
[λL]αβ = λ[L]αβ .

Mudança de bases na matriz de uma TL.


Dados a transformação linear T : V → W , bases α, α0 de U e β, β 0 de W , temos uma relação
0
entre as matrizes [T ]αβ e [T ]αβ 0 . De fato, se IV e IW são as transformações identidades em V e
W respectivamente, temos:

112
T = IW ◦ T ◦ IV ,

nestas igualdades aplicando matrizes associadas, temos a relação:

0 0
[T ]αβ 0 = [IW ]ββ 0 [T ]αβ [IV ]αα

De forma geral estas equações permitem a troca de bases na matriz associada [T ]αβ .
Casos particulares:

• Relação entre [T ]αβ e [T ]αβ0 :


[T ]αβ0 = [I]ββ 0 [T ]αβ
0
• Relação entre [T ]αβ e [T ]αβ :
0 0
[T ]αβ = [T ]αβ [I]αα

• No caso de um operador linear T : V → V , se α e β são bases de V , a relação entre


[T ]α = [T ]αα e [T ]β = [T ]ββ é:
[T ]α = [I]βα [T ]β [I]αβ .
Note que as matrizes mudança de bases [I]αβ e [I]βα , são inversas uma da outra, logo
colocando P = [I]βα , temos
[T ]α = P [T ]β P −1 .

Definição 3.28. Quando duas matrizes quadradas A e B estão associadas pela relação

A = P BP −1 , onde P é uma matriz invertı́vel,

dizemos que A é semelhante ou similar a B, é simples notar que neste caso também B será
semelhante a A (verifique).

Pelas propriedades do traço e do determinante (vide exercı́cios 1.4-9h e 1.8-23e), temos:

Proposição 3.29. Se A e B são matrizes semelhantes, então:

1. tr(A) = tr(B).

2. det(A) = det(B).

Dizemos que traço e determinantes são “invariantes” por matrizes semelhantes.

Sobre as matrizes associadas a um operador em bases diferentes [T ]α e [T ]β podemos dizer que


são matrizes semelhantes e que portanto tem o mesmo traço e o mesmo determinante.

113
     
0 −1 1
Exemplo 3.30. Considere a base α = { 1 , 0 , 1} e a transformação linear T : R3 →
    
1 1 1
R3 , cuja matriz na base α é:  
−1 0 1
[T ]α =  1 −1 0  .
0 1 2

Calcule as matrizes [T ]C C 3
α e [T ]C , onde C é a base canônica de R .

• [T ]C α C
α = [T ]α [I]α .
 −1  
0 −1 1 −1 2 −1
α −1
Note que [I]C
α = ([I]C ) = 1 0 1 =  0 −1 1 , logo:
1 1 1 1 −1 1
    
−1 0 1 −1 2 −1 2 −3 2
C
[T ]α = 1 −1 0
   0 −1 1 = −1
  3 −2 .
0 1 2 1 −1 1 2 −3 3

• [T ]C α C
C = [I]C [T ]α .

Logo:     
0 −1 1 2 −3 2 3 −6 5
[T ]C
C = 1
 0 1 −1 3 −2 = 4 −6 5 .
1 1 1 2 −3 3 3 −3 3
   
x 3x − 6y + 5z
Portanto, T ( y ) = 4x − 6y + 5z .
  
z 3x − 3y + 3z

Verifica-se que tr([T ]α ) = tr([T ]C ) = 0 e que det([T ]α ) = det([T ]C ) = 3.

Matriz da inversa.
Consideremos espaços vetoriais V e W , com igual dimensão e com bases ordenadas α e β
respectivamente, se T : V → W é uma transformação linear, então:

• T : V → W é um isomorfismo, se e somente se, [T ]αβ é invertı́vel. A justificativa vem


do fato que o núcleo de T e o espaço nulo de [T ]αβ tem as mesmas dimensões.
Sendo T um isomorfismo, temos que:

• [T −1 ]βα = ([T ]αβ )−1 . A justificativa para esta relação é simplesmente ver que:
T −1 ◦ T = IV , também T ◦ T −1 = IW , tomando as matrizes temos [T ]αβ [T −1 ]βα = [IW ]β = I,
ou seja que as matrizes são inversas.

114
Exemplos 3.31.
       
2 1 −1 2 1
1. Sejam as bases de R , α = { , } e β = { , } e a transformação linear
1  0  0 1
3 1
T : R2 → R2 cuja matriz é: [T ]αβ =
1 2
3 −1
[T ]αβ é invertı́vel, pois = 5 6= 0, logo T é isomorfismo.
1 2
 −1  
3 −1 2 1
[T −1 ]βα = 1
=5 , transformando a base canônica:
1 2 −1 3
[T −1 ]C α
C = [I]C [T
−1 β
]α [I]C α
β = [I]C [T ]α ([I]βC )−1
−1 β
      
1 −1 2 1 2 1 6 1
[T −1 ]C
C = ·51
=5 1
, portanto
1 0 −1 3 0 1 4 3
   
−1 x 1 2x + y
T ( )= .
y 5 −x + 3y
     
1 0 0
3
2. Em R consideremos a base canônica C, a base α = { 0 , −1 , 0} e o operador
    
1 1 1
3 3
linear T : R → R , cuja matriz é:
 
−2 0 0
[T ]C
α =
 0 1 0 ,
−1 0 2
 
x
−1  
prove que T é um isomorfismo e calcule T ( y ).
z
De fato
−2 0 0
0 1 0 = −4 6= 0,
−1 0 2
logo T é isomorfismo. Usando os métodos estudados calculamos a matriz inversa:
 
−2 0 0
−1 α C −1 1
[T ]C = ([T ]α ) = 0 4 0 ,
4
−1 0 2
 
−2 0 0
logo, [T −1 ]αC = 14  0 4 0.
−1 0 2

115
Transformando à base C: [T −1 ]C = [T −1 ]αC [I]C
α = [T
−1 α
]C ([I]αC )−1
 −1  
1 0 0 1 0 0
Calculando a inversa temos, [I]αC = 0 −1 0 =  0 −1 0,
1 1 1 −1 1 1
daı́,
    
−2 0 0 1 0 0 −2 0 0
[T −1 ]C = 41  0 4 0  0 −1 0 = 14  0 −4 0,
−1 0 2 −1 1 1 −3 2 2
finalmente,

   
x −2x
1
T −1 (y ) =  −4y .
4
z −3x + 2y + 2z

3.6 Exercı́cios

1. Nas aplicações de (a) a (g) justifique que são transformações lineares. Encontre o núcleo
e a imagem de todas as transformações dadas.
   
x x+y+z
(a) T : R3 → R3 ; tal que T (y ) = x + y − z 
z x−y−z
   
x x+y+z
(b) T : R3 → R3 ; tal que T (y ) =  0 
z x−y−z
 
x  
y  x − 3y
(c) T : R4 → R3 ; tal que T ( z ) = 2x + z − w .
  
y + 2w
w
 
a  
4 2
 b a+b−d
(d) T : R → R , tal que T ( ) =
  .
c a−c+d
d
 
x1
  0
x1  
6 6  ..  x3 
(e) T : R → R , tal que T ( . ) =  x4 

x6  
x5 
0

116
 
x
3
(f) A aplicação T : R → R, T ( y  ) = 7x + 15y − 4z.

z
 
x
(g) A aplicação que leva o vetor v = y  ∈ R3 no produto vetorial com um vetor fixo
  z
1
v0 = 1, dada por f : R3 → R3 , f (v) = v × v0 .
2

2. Determine, se existir, uma transformação linear T : U → V que satisfaça:


           
1 0 1 2 0 1
3 3
(a) T : R → R ; T ( 1 ) = 0 , T ( 1 ) = 1
        e T ( −1 ) = 0 .
  
0 0 1 0 1 −1
     
1 0   0  
3 2 −2 −2
(b) T : R → R ; T ( 0 ) = T ( 0 ) =
    , T( 2 ) =
  .
3 4
−1 −1 −4
 
−1
(c) T : R2 → R3 com a propriedade, N uc(T ) gerado pelo vetor e tal que
  3
  7
0, 1
T( ) = −1.

−0, 2
2
 
x
(d) T : R3 → R3 tal que N uc(T ) = {y  / z + x − y = 0} e que Im(T ) seja gerado por
    z
1 2
{−1 , −1}.
0 −1

3. Sabendo que as aplicações geométricas, dadas em cada caso, são transformações lineares,
determine sua lei de formação.
(a) T : R2 → R2 ; onde T (u) é o vetor obtido pela reflexão de U através da reta y = x.

(b) T : R2 → R2 ; sendo T (u) o vetor obtido pela reflexão de u através da reta y = 3x.
(c) T : R2 → R2 , onde T (u) é a aplicação no√vetor u ∈ R2 de uma rotação com ângulo
θ = 3π
4
, seguida da dilatação com fator k = 4 2.
(d) T : R3 → R3 , onde T (u) é a rotação de um vetor em torno do eixo x no sentido
positivo, com ângulo 0 ≤ θ < 2π.
3 3
4. (a) Justifique
  a existência
  de
   que verifique, T : R → R , tal que
uma transformação
 
3 −3 2 1 2
T (1) = T (−2) = 1, T (1) = −1.
0 1 1 0 3

117
(b) Para a transformação dada em (a), determine N uc(T ) e Im(T ).
(c) Para a transformação
  dada em (a) determine o conjunto dos vetores v ∈ R3 tais que
2
T (v) = 1.

1
(d) Para a transformação
  dada em (a), determine o conjunto dos vetores v ∈ R3 tais
−1
que T (v) = 1 .

1
       
2 x x x x + 2y
5. Sejam S e T operadores lineares no R definidas por T ( )= e S( )= .
y 3y y y
Determine:

(a) S + T
(b) 2S + 4T
(c) S ◦ T
(d) T ◦ S

6. Dadas as transformações lineares S : R3 → R3 e T : R3 → R2 tais que,


     
x x+z x  
−2x + y − z
S(y ) = 2x + y + z  e T (y ) = ,
3x + y + 2z
z −y + z z

determine bases e as dimensões para núcleo e imagem de T ◦ S e S 2 = S ◦ S.

7. Marque Verdadeiro (V) ou Falso (F) nas sentencias abaixo, justificando suas respostas:

(a) T (x, y) = xy é uma transformação linear.

(b) T : Pn (R) → Pn (R), D(f (t)) = f 0 (t) é uma transformação sobrejetiva.


 
x
(c) A aplicação Px : R3 → R3 , Px (y ) = xe1 (projeção de forma perpendicular sobre o
z
eixo x), é um isomorfismo.

(d) Uma transformação linear não nula, T : R → V , sempre é injetiva.

(e) Se T : U → V , uma T. L. e dim U = dim V , então: Se T é sobrejetiva, então T é


injetiva.

118
(f) Se T : R2 → R3 uma T. L., então T não pode ser sobrejetiva.

8. Classifique as seguintes transformações lineares como injetoras, sobrejetoras e/ou isomor-


fismos
   
x x−y
(a) T : R3 → R3 , T (y ) =  y + z 
z x − 2y
   
x x + 2y
(b) T : R3 → R3 , T (y ) = y − 2z 
z y+z
   
x y
 y
z 
 
(c) T : R4 → R4 , T (
z  ) = x
w w
   
2 2 x 7x − y
(d) T : R → R , T ( )=
y 2x + 5y
(e) O operador de rotação Rθ : R2 → R2 , que leva o vetor v ∈ R2 no vetor T (v) obtido de
v pela rotação anti-horária com ângulo de rotação θ = 5π
6
. Existem ângulos de rotação
para os quais Rθ não seja isomorfismo?

9. Para os isomorfismos do exercı́cio 8, calcule T −1 (u) onde u é um vetor qualquer do domı́nio


de T .
 
x  
3 2 x + y
10. Seja T : R → R tal que T (y ) = . Indique:
x+z
z

(a) [T ]A 3 2
B considerando A e B bases canônicas do R e R , respectivamente.
     
1 0 0    
C 1 2
(b) [T ]D onde C = {0 , −1 , 0} e D = { , }.
2 1
0 0 2
 
1
(c) [T (v)]D onde v = 1.

0
       
2 −1     1 0 0
A 1 −1
11. Considere [T ]B = 1 0
  onde A = { , } e B = { 2 , −1 , 0}. Deter-
    
0 1
0 2 3 1 2
3
mine T (v) onde v = .
−1

119
12. Sejam A e B bases canônicas ordenadas
   de R2 e R3 , respectivamente; considere também
    1 0 1
0 1 0 0
A ={ , } e B = { 0 , 1 −1} bases ordenadas de R2 e R3 respectiva-
    
−1 2
−1 1 0
mente.  
  2y
x A0 A0
(a) Se S : R2 → R3 , é dada por S( ) = x − y , ache [S]A B , [S]B , [S]B 0 .
y
x
 
2 4 −2
(b) Se R é o operador sobre R , dado por: [R]A0 = , determine [R(u)]A0 e R(u),
  3 1
x
onde u = .
y
 
3 2 B0 1 1 0
(c) Se T : R → R , é a transformação linear dada por [T ]A0 = , determine
  1 1 −1
x
[T (u)]A e T (u), onde u = y .
0 
z
13. Considere os operadores lineares do plano, Tθ , rotação pelo ângulo θ; L, reflexão pelo eixo
x; S, reflexão pelo eixo y e R, contração com constante k = 52 . Determine [Tθ ]A , [L]A ,
[S]A , [R]A , [Tθ ◦ L]A , [R ◦ S]A , onde A é a base canônica de R2 .
14. Considere que A e B são as bases ordenadas canônicas de R2 e R3 , respectivamente.
Sejam T : R3 → R2 e L : R2 → R3 , transformações lineares, dadas por:
 
  −1 1
1 −1 0
[T ]B
A = e [L]AB =
 1 1 .
1 0 1
−1 2
Também considere as bases ordenadas de R2 e R3 :
     
    1 1 3
1 1
A0 = { , } e B 0 = {−1 , −2 ,  1 }.
−1 −2
2 1 −1
0 0
(a) Calcule [I]A A B B
A , [I]A0 , [I]B e [I]B 0
0 B0
(b) [T ]B B
A , [T ]A0 , [T ]A0
0 A0
(c) [L]A A
B , [L]B 0 , [L]B 0
(d) [L ◦ T ]BB e [T ◦ L]A
A

     
−2 1 0
3
15. Considere que A é a base ordenada canônica de R , que B = { 1 , 2 , 0} é uma
    
0 0 1
3 3
base ordenada de R e que T é o operador sobre R , determinado pela matriz:
 
2 1 0
[T ]A
B = 1 1
 1 .
0 1 −3

120
(a) Determine [I]A B A
B , [I]A e [T ]A
 
x
(b) Mostre que T é isomorfismo e determine T −1 (y )
z
 
cosθ −senθ
16. Lembre que a matriz de rotação com ângulo de rotação θ é dada por: .
senθ cosθ
Dados os vértices A = (2, 1), B = (5, 3) e C de um triângulo, determine o vértice C, de
todas as formas possı́veis, tais que 4ABC seja um triângulo isósceles, retângulo em A.

17. Seja f : P2 (R) → P2 (R) tal que f (p(t)) = p(t) + p0 (t).


(a) Determine a dimensão e uma base para N uc(f ) e Im(f )
(b) Determine a matriz [f ]A , onde A é a base usual do espaço P3 (R).

121
Capı́tulo 4

PRODUTO INTERNO

4.1 Produto Escalar em R3


   
x1 y1
O produto escalar de dois vetores u = x2  , v = y2  ∈ R3 , é definido como o número real,
x3 y3

u · v = x1 y1 + x2 y2 + x3 y3 .

   
−1 2
Por exemplo, −2 · 32  = −2 − 34 + 5 = 53 .
  
5 1
Em R3 o produto escalar esta relacionado a conceitos geométricos, como o comprimento de um
vetor, vetores perpendiculares, etc. De fato,
 
→ x
• Dado o vetor u =OP = y ,

z

o comprimento de u, denotado kuk, é dado por:


p √
kuk = d(O, P ) = x2 + y 2 + z 2 = u · u.

122
• Dados vetores não nulos u, v ∈ R3 e θ o ângulo entre eles, 0 ≤ θ ≤ π, é bem conhecida a
relação:
u · v = kuk kvk cosθ.

• Da relação anterior, tomando θ = π


2
obtemos: u e v são perpendiculares, se e somente, se
u · v = 0.

• Verifica-se o Teorema de Pitágoras. Se u e v sãp perpendiculares, temos:

kuk2 + kvk2 = ku + vk2 ,

Ou seja, o produto escalar tem relação direta com a geometria do espaço.

123
4.2 Produto Interno
O produto escalar de R3 pode ser generalizado para espaços vetoriais reais quaisquer.
Definição 4.1. Seja V um espaço vetorial sobre R, diremos que a aplicação, denotada h , i e
dada por:
V × V 7−→ R
(u, v) → hu, vi
é um produto interno sobre V , quando verifica as propriedades:

1. Aditividade: hu, v + wi = hu, vi + hu, wi, para todos u, v, w ∈ V


2. Homogeneidade: hαu, vi = α hu, vi, para todos u, v ∈ V e α ∈ R
3. Simetria: hu, vi = hv, ui, para todos u, v ∈ V
4. Positividade: Para todo u ∈ V, hu, ui ≥ 0 e hu, ui = 0 ⇔ u = 0V .

O espaço vetorial V munido de um produto interno h , i é dito espaço vetorial real com
produto interno.
Exemplos 4.2. 1. Produto escalar em Rn .
   
x1 y1
 ..   .. 
Dados u =  .  e v =  . , define-se o produto escalar de u e v como,
xn yn
i=n
X
u · v = x1 y1 + . . . + xn yn = xi y i .
i=1

O produto escalar também pode ser escrito como produto de matrizes,


u · v = ut v = v t u,
usando essa forma de escrever ficam claras a validade das propriedades de aditividade,
homogeneidade e simetria, para positividade note que,
u · u = x21 + . . . + x2n ≥ 0 e x21 + . . . + x2n = 0 ⇔ x1 = x2 = . . . = xn = 0.
Assim, o produto escalar é um produto interno, também chamado produto interno
euclideano, munido com este produto interno Rn é dito espaço vetorial euclideano.
2. Dados reais positivos p1 , . . . , pn podemos definir em Rn uma  operação
 entre
 vetores que
x1 y1
resulta em um novo produto interno em Rn que, para u =  ...  , v =  ...  ∈ Rn , é dado
   
xn yn
como:
i=n
X
hu, vi = p1 x1 y1 + . . . + pn xn yn = p i xi y i .
i=1

124
n
  que h, i é um produto interno, sejam u, v, w ∈ R , u, v como dados acima e
Verifiquemos
z1
 .. 
w =  . .
zn


     
* x1 y1 z1 +
 ..   ..   .. 
hu, v + wi =  . ,  .  +  . 
xn yn zn
= p1 x1 (y1 + z1 ) + . . . + pn xn (yn + zn )
= (p1 x1 y1 + . . . + pn xn yn ) + (p1 x1 z1 + . . . + pn xn zn )
= hu, vi + hu, wi

• hαu, vi = ni=1 pi (αxi )yi = α ni=1 pi xi yi = α hu, vi.


P P

• hu, vi = ni=1 pi xi yi = ni=1 pi yi xi = hv, ui.


P P

• hu, ui = ni=1 pi (xi )2 ≥ 0, e hu, ui = ni=1 pi x2i = 0 ⇔ xi = 0, ∀ i ⇔ u = 0.


P P

Este tipo de produto interno é chamado produto escalar com pesos ou produto in-
terno euclideano com pesos. Por exemplo em R3 podemos definir o produto interno,
   
x1 y1
hu, vi = x1 y1 + 2x2 y2 + 3x3 y3 , onde u = x2  , v = y2  ,
x3 y3
*−3  2 +
assim  1  , −1 = −6 + 2(−1) + 3(10) = 22.
2 5
3. Consideremos Rn e A uma matriz invertı́vel de ordem n. Dados u, v ∈ Rn , usando o
produto escalar definimos:

hu, vi = Au · Av, observe que Au e Av são colunas de Rn .

Verifiquemos que h, i é um produto interno:

• hu, v + wi = Au · A(v + w) = Au · (Av + Aw) = Au · Av + Au · Aw = hu, vi + hu, wi


• hαu, vi = A(αu) · Av = (αAu) · Av = α(Au · Av) = α hu, vi
• hu, vi = Au · Av = Av · Au = hv, ui ,
• hu, ui = Au · Au ≥ 0 e,

hu, ui = Au · Au = 0 ⇔ Au = 0 ⇔ u = 0, dado que a matriz é invertı́vel.

125
 
0 3
Por exemplo, A = é invertı́vel, logo temos em R2 o produto interno, dado para
    2 −1
x s
u= ev= , como
y t
   
x s
hu, vi = A ·A
y t
   
3y 3t
= ·
2x − y 2s − t
= 9yt + (2x − y)(2s − t)
= 4xs − 2xt − 2ys + 10yt.

4. No espaço C([a, b]) das funções contı́nuas no intervalo [a, b], define-se:
Z b
hf, gi = f (x)g(x)dx, f, g ∈ C([a, b]).
a

acima, logo h, i
Pelas propriedades da integral, é claro que são válidas as propriedades √
é um produto interno em C([a, b]). Por exemplo, se f (x) = x, g(x) = x ∈ C([0, 1]),
temos:
R1 √ R1
hf, gi = 0 x xdx = 0 x3/2 dx = 25 x5/2 |10 = 25 .

Propriedades 4.3. Dado um espaço vetorial V com produto interno h, i, valem as proprieda-
des:

1. h0V , vi = hv, 0V i = 0.

2. hα1 u1 + . . . + αk uk , vi = α1 hu1 , vi+. . .+αk huk , vi, onde u1 , . . . , uk , v ∈ V e α1 , . . . , αk ∈


R.

3. hu, β1 v1 + . . . + βk vn i = β1 hu, v1 i+. . .+βk hu, vk i, onde v1 , . . . , vk , u ∈ V e β1 , . . . , βk ∈ R.

4.3 Norma e Distância


Seja V um espaço com produto interno h, i, para cada u ∈ V a norma de u é definida como
o escalar: p
kuk = hu, ui.
Um vetor u ∈ V é dito unitário se kuk = 1.
A distância entre vetores u, v ∈ V é dada por:
p
d(u, v) = ku − vk = hu − v, u − vi.

126
2 3
Exemplos 4.4. 1. No caso do produto escalar em
 R e R , a norma de um vetor é exacta-
x
mente seu comprimento. Por exemplo, se u = , temos:
y
√ p
kuk = u·u= x2 + y 2 ,

A distânciaentre
 vetores
 coincide com o conceito
 geométrico: por exemplo para vetores
x x x − x
de R2 , u = , v = 1 , temos u − v = 1
e,
y y1 y − y1
p
d(u, v) = ku − vk = (u − v) · (u − v)
p
= (x − x1 )2 + (y − y1 )2 .

2. Considerando o produto escalar com pesos em R3 :


   
x1 y1
hu, vi = 3x1 y1 + x2 y2 + 2x3 y3 , onde u = x2  , v = y2  ,
x3 y3
 
−2
calculemos a norma de u =  5 .
3

kuk2 = hu, ui = 3 · (−2)2 + 52 + 2 · 32 = 55 ∴ kuk = 55.

Podemos calcular os produtos internos entre duas combinações lineares de vetores, se são co-
nhecidos os produtos internos dois a dois, para isso basta notar que
n
X
hα1 u1 + . . . + αn un , β1 v1 + . . . + βn vn i = αi βj hui , vj i , onde
i,j=1

ui , vj ∈ V e αi , βj ∈ R.

Exemplo 4.5. Se V é um espaço com produto interno com u, v ∈ V tais que hu, vi = −2, kuk =
4 e kvk = 3 então,

h2u + v, u − 3vi = 2 hu, ui − 6 hu, vi + hv, ui −3 hv, vi


| {z }
hu,vi

= 2 hu, ui − 5 hu, vi − 3 hv, vi


= 32 + 10 − 27 = 15.

Propriedades 4.6. Dado o espaço vetorial V , com produto interno h, i e dados u, v ∈ V são
válidas:

127
1. Homogeneidade: kαuk = |α| kuk, para todo escalar α ∈ R.
De fato,
kαuk2 = hαu, αui = α2 hu, ui = α2 kuk2 ⇒ kαuk = |α| kuk .

2. Desigualdade de Cauchy-Schwarz: |hu, vi| ≤ kuk kvk

3. Desigualdade triângular: ku + vk ≤ kuk + kvk.

De fato,

ku + vk2 = hu + v, u + vi
= hu, ui + hu, vi + hv, ui + hv, vi
= kuk2 + 2 hu, vi + kvk2
≤ kuk2 + 2 kuk kvk + kvk2 = (kuk + kvk)2

Da desigualdade de Cauchy-Schwarz, para vetores não nulos u, v ∈ V temos

hu, vi
−1 ≤ ≤ 1,
kuk kvk

como a função coseno é uma bijeção de [0, π] em [−1, 1] então existe um único θ ∈ [0, π] tal
que,
hu, vi
cos θ = ,
kuk kvk
θ é dito ângulo entre u e v.
A definição generalizada de ângulo entre vetores, no caso particular dos espaços euclideanos R2
e R3 , é exatamente o conceito geométrico.
 
1
3
Por exemplo, no espaço euclideano (com produto escalar) R o ângulo entre u = 0 e v = 
  1
1
−1 é tal que:
0
u·v 1 1 π
cos θ = =√ √ = , ∴ θ= .
kuk kvk 2 2 2 3

128
u
Observação 4.7. Se V é um espaço com p.i. e u ∈ V é não nulo, então o vetor é um
kuk
vetor unitário no espaço gerado por u, de fato, pela homogeneidade da norma temos:
u 1 1
= u = kuk = 1,
kuk kuk kuk
este processo é chamado normalização de u. Por exemplo, no espaço euclideano R3 ,
 
−2 √ √
u =  5 , usando o produto escalar temos kuk = 4 + 25 + 9 = 38, logo o vetor
  3  
−2 −2
√1  5  é unitário. No caso do produto com pesos do exemplo 2, o vetor u =  5  tem
38
3   3
√ −2
norma kuk = 55, normalizando u obtemos o vetor unitário √155  5 .
3

4.4 Ortogonalidade
No caso particular dos espaços euclideanos R2 e R3 , é conhecido que dois vetores são perpen-
diculares, se e somente se, seu produto escalar é nulo, esta caracterização motiva a introdução
desse conceito em qualquer espaço vetorial com produto interno.
Definição 4.8. Seja V um espaço com produto interno h, i, diremos que vetores u, v ∈ V são
ortogonais, simbolicamente u⊥v, quando,
hu, vi = 0.

É claro que, para vetores não nulos, ortogonalidade equivale ao ângulo entre os vetores ser de
π
2
, pois:
hu, vi π
cosθ = = 0, 0 ≤ θ ≤ π ⇔ θ = .
kuk kvk 2
   
2 a −b
Exemplos 4.9. 1. No espaço euclideano R os vetores u = ev =± são ortogonais
    b a
a −b
pois · = −ab + ab = 0.
b a
   
6 8
2. Os vetores u = −5 e v = 6  do espaço euclideano R3 são ortogonais, pois
  
2 −9
u · v = 48 − 30 − 18 = 0.
Os mesmos vetores u, v dados, não são ortogonais no espaço R3 com o produto escalar
com pesos 2, 1, 3, pois
hu, vi = 2(48) − 30 + 3(−18) = 12 6= 0.

129
Propriedades 4.10. Dados um espaço vetorial V com h, i e vetores u, v, w ∈ V , temos:

1. 0V ⊥u, ∀ u ∈ V

2. u⊥u ⇔ u = 0V

3. u⊥v ⇔ v⊥u

4. Se u⊥v e u⊥w, então u⊥(αv + βw), para todos α, β ∈ R

Propriedades 4.11 (Teorema de Pitágoras). Seja V um espaço vetorial com produto interno
h, i e sejam u, v ∈ V vetores não nulos e ortogonais, então:

ku + vk2 = kuk2 + kvk2 .

Demonstração. Desenvolvendo ku + vk2 temos:

ku + vk2 = hu + v, u + vi = hu, ui + 2 hu, vi + hv, vi = kuk2 + kvk2 .


| {z }
0

Definição 4.12 (Complemento Ortogonal). Seja V um espaço, com produto interno h, i e W


um subespaço de V .
O conjunto de todos os vetores de V e ortogonais a todo vetor de W é chamado complemento
ortogonal de W e é denotado por W ⊥ , ou seja:

W ⊥ = {u ∈ V / u⊥w, ∀ w ∈ W }.

W ⊥ é um subespaço vetorial de V , basta usar as propriedades 4.10 para verificar o fato.

A seguinte propriedade mostra que para construir W ⊥ é suficiente usar uma base de W .

Proposição 4.13. Seja V um espaço com produto interno h, i, se W é um subespaço de


dimensão finita de V , com geradores {w1 , . . . , wk }, então:

u ∈ W ⊥ ⇔ u⊥wi , para todo i = 1, . . . , k.

130
Para verificar a propriedade 4.14 basta ver que,
k
X
hu, α1 w1 + . . . + αk wk i = αi hu, wi i , ∀ αi ∈ R.
1
   
1 −2
3
Exemplo 4.14. Considere o espaço euclideano R e os vetores w1 = 2 e w2 = 1 .
  
1 −1
 
3
(a) u =  1  é ortogonal ou não ao subespaço W = [w1 , w2 ]?
−5

Calculando os produtos internos temos:


       
3 1 3 −2
u · w1 = 1 · 2 = 0,
   u · w2 = 1 · 1  = 0,
  
−5 1 −5 −1

portanto u ∈ W ⊥ .

(b) Geometricamente é evidente que W ⊥ é a reta que contém u, vejamos que algebricamente
temos a mesma conclusão.
Observe que          
x 1 x −2 x

v = y ∈ W ⇔ 2 · y = 0,
       1 · y  = 0,
 
z 1 z −1 z

x + 2y + z = 0
daı́ temos as equações: . Na forma matricial este sistema corres-
−2x + y − z = 0
ponde a    
  x 0
1 2 1    
y = 0 ,
−2 1 −1
z 0
     
1 2 1 1 2 1 1 0 3/5
escalonando → → cuja solução é,
−2 1 −1 0 5 1 0 1 1/5
 
3
x = 3t, y = t, z = −5t, onde t ∈ R ou seja v = t 1  = tu, portanto W ⊥ é a reta

−5
gerada por u.

Considerando o espaço euclideano R3 é simples ver que se W é um plano então W ⊥ é a reta


perpendicular que passa pela origem e as relações:

(W ⊥ )⊥ = W e W ⊕ W ⊥ = R3 .

131
Propriedades 4.15. Considere um subespaço vetorial W de um espaço V com produto interno
h, i.

1. (W ⊥ )⊥ = W

2. W ∩ W ⊥ = {0V }

3. W ⊕ W ⊥ = V , logo dimW + dimW ⊥ = dimV

4. {0V }⊥ = V e V ⊥ = {0V }.

Note que, se dimV = n da propriedade 4.15(3) obtemos dimW ⊥ = n − dimW .

exemplo4.14, onde V é o espaço euclideano R3 , temos que W é o espaço


Observação 4.16. No 
1 −2
coluna da matriz, A = 2 1 , temos

1 −1
         
x 1 x −2 x

u= y ∈W
  ⇔  2 · y =0 e
    1 · y = 0
 
z 1 z −1 z
   
  x 0
1 2 1    
⇔ y = 0
−2 1 −1
z 0
⇔ u ∈ N ul(At ).

ou seja Col(A)⊥ = N ul(At ).

Em geral se A é uma matriz m × n, temos Col(A) ⊆ Rm e N ul(A) ⊆ Rn . Considerando Rm e


Rn como espaços euclideanos, é claro que,

Col(A)⊥ = N ul(At ), em Rm .

Tomando complementos, seguido de troca de A por At obtemos as relações:

Col(A) = N ul(At )⊥ ⇒ N ul(A)⊥ = Col(At ), em Rn .

Propriedades 4.17. Sejam Rm e Rn espaços euclideanos. Se A de ordem m × n, temos

Col(A)⊥ = N ul(At ) e N ul(A)⊥ = Col(At ).


 
2 1
2 0  ⊥ 4
Exemplo 4.18. Seja A =  1 −1, calculemos bases para Col(A) , subespaço de R e

1 3
⊥ 2
N ul(A) subespaço de R , considerando o produto escalar em cada espaço.

132
• Determinemos Col(A)⊥ . Usando a igualdade (Col(A))⊥ = N ul(At ) ou impondo direta-
mente as condições de ortogonalidade chegamos ao sistema homogêneo,

2x + 2y + z + w = 0
. Escalonando a matriz de coeficientes,
x − z + 3w = 0
       
2 2 1 1 2 2 1 1 2 0 −2 6 1 0 −1 3
→ → → ,
1 0 −1 3 0 2 3 −5 0 2 3 −5 0 1 3/2 −5/2
   
2 6
 −3 5
  
a solução é x = z+3w, y = −3z/2+5w/2. Logo, uma base para Col(A)⊥ é {  2  , 0}.
0 2
 
0
• Para obter N ul(A) ⊆ R podemos notar que N ul(A) = {
⊥ 2
}, logo N ul(A)⊥ = R2 ,
0
ou pela igualdade N ul(A)⊥ = Col(At ) = R2 .

Conjuntos Ortonormais e Ortogonais

Definição 4.19. Dado um espaço vetorial V , com produto interno h, i e dado um conjunto
S = {u1 , . . . , uk }.
(a) S é dito conjunto ortogonal quando, hui , uj i = 0, para todo i 6= j
(b) S é dito conjunto ortonormal, se é um conjunto ortonormal de vetores unitários.
(c) S é uma base ortogonal, se é uma base e conjunto ortogonal. S é uma base ortonormal,
se é uma base e conjunto ortonormal.
Note que α = {v1 , . . . , vm } ser uma base ortonormal de V significa que,

0, se i 6= j
hvi , vj i = .
1, se i = j

Proposição 4.20. Todo conjunto ortogonal de vetores não nulos β = {u1 , . . . , uk } é um con-
junto LI.

Demonstração. Dada uma combinação linear nula de vetores de β:

α1 u1 + . . . + αk uk = 0V ,

tomando os produtos internos com cada ui , 0 ≤ i ≤ k, temos:

0 = h0, ui i = hα1 u1 + . . . + αk uk , ui i
0 = α1 hu1 , ui i + . . . + αk huk , ui i
0 = αi hui , ui i ,

como ui 6= 0, temos αi = 0, ∀ i = 1, . . . , k. Portanto β é LI.

133
Da proposição anterior temos que, dado um conjunto β ortogonal de vetores não nulos de V ,
para determinar se β é uma base de V , basta que gere V ou que tenha tantos vetores quanto
a dimensão do espaço, pois β é LI.
Exemplos 4.21.
     
1 0 0
1. No espaço euclideano R3 a base canônica, α = {e1 = 0 , e2 = 1 , e3 = 0} é uma
0 0 1
base ortonormal já que:

e1 · e2 = e1 · e3 = e2 · e3 = 0 e ke1 k = ke2 k = ke3 k = 1.


     
1 1 1
O conjunto β = {u = 1 , v = −1 , w = 1 }, é ortogonal, pois:
    
1 0 −2
u · v = u · w = v · w = 0,

logo é uma base ortogonal de R3 , mas β não é ortonormal pois os vetores não são unitários.
Para normalizar β calculamos,
√ √ √
kuk = 3, kvk = 2 e kwk = 6,

obtemos a base ortonormal,


     
1 1 1
1 1 1
β = { √ 1 , √ −1 , √  1 }.
3 1 2 0 6 −2

2. Consideremos o espaço vetorial V = C([0,


√ 1]), com o produto interno dado pela integral
em [0, 1] e seu subespaço W = [ x, x] de dimensão 2 (gerado por dois vetores LI).
√ 4√
Vamos verificar que o subconjunto {f = x, g = x − x} de W é uma base ortogonal,
5
pois
Z 1
√ 4√
hf, gi = x(x − x)dx
0 5
Z 1
4
= (x3/2 − x)dx
0 5
2 5/2 1 2 2 1
= x |0 − x |0
5 5
= 0.

Para normalizar calculamos,


Z 1 √
Z 1
1
hf, f i = ( x)2 dx = x dx =
0 0 2

134
e
1 Z 1
4√ 2
Z
8 16 1
hg, gi = (x − x) dx = (x2 − x3/2 + x) dx = ,
0 5 0 5 25 75
p p
logo, kf k = 1/2 e kgk = 1/75, assim uma base ortonormal para W é
√ √ 4√
{ 2x, 75(x − x)}.
5
Coeficientes de Fourier. As bases ortogonais auxiliam, por exemplo, no cálculo das coorde-
nadas de um vetor.
Seja V um espaço de dimensão m, com produto interno h, i, com uma base ortogonal α =
{v1 , . . . , vm }. Dado u ∈ V , calculemos os escalares a1 , . . . , am tais que,
u = a1 v1 + . . . + am vm ,
fazendo o produto interno de u com vi e usando a ortogonalidade da base α, temos
hu, vi i = ha1 v1 + . . . + am vm , vi i = ai hvi , vi i ,
logo,
hu, vi i hu, v1 i hu, vm i
ai = , i = 1, . . . , m e u = v1 + . . . + vm .
hvi , vi i hv1 , v1 i hvm , vm i
Os escalares da proposição acima são chamados coeficientes de fourier de u na base α.
E se α é uma base ortonormal, então
ai = hu, vi i , i = 1, . . . , m e u = hu, v1 i v1 + . . . + hu, vm i vm .
Considerando a base α ortonormal e na ordem dada, podemos descrever as coordenadas de u
em α.  
hu, v1 i
[u]α =  ...  ∈ Rm .
 
hu, vm i
Exemplo 4.22. Considere o espaço euclideano V = R3 e as bases
     
1 1 1
α = {u = 1 , v = −1 , w = 1 }, ortogonal,
    
1 0 −2
1 1 1
α0 = {u0 = √ u, v 0 = √ v, w0 = √ w}, ortonormal.
3 2 6
Visto que α é uma base
 ortogonal,
 podemos calcular as coordenadas em α (coeficientes de
6
fourier) do vetor X = −2 , na forma:
5
X ·u 9 X ·v X ·w
a1 = = = 3, a2 = = 4, a3 = = −1,
u·u 3 v·v w·w
135


3
portanto, [X]α =  4  ou seja X = 3u + 4v − w.
−1
√ √
Da mesma√forma, podemos calcular [X]α0 , neste caso X · u0 = 3 3, X · v0 = 4 2 e
X · w0 = − 6, logo:  √ 
3√3
∴ [X]α0 = 4 √2  .

− 6

Produto interno e norma em bases ortonormais. Consideremos o espaço euclideano Rm ,


se fixamos uma base ortonormal α de Rm temos uma estreita relação entre o produto escalar
de vetores e o produto escalar de suas coordenadas em α. Seja α = {v1 , . . . , vm } uma base
ordenada ortonormal.

• Dados vetores u, v ∈ Rm sabemos que, u = i=m e v = i=m


P P
i=1 ai vi i=1 bi vi , logo, é claro
que
i=m j=m
X X i=m
X
u·v = ai bj (vi · vj ) = ai bi = [u]α · [v]α .
i=1 j=1 i=1

• Também √ p
kuk = u·u= [u]α · [u]α = k[u]α k .
Exemplo 4.23. Consideremos o vetor X e a base ortonormal α0 do espaço euclideano R3 do
exemplo 4.22, verificamos que:
√ √ √
k[X]α0 k2 = (3 3)2 + (4 2)2 + (− 6)2 = 65

e
kXk2 = 62 + (−2)2 + (5)2 = 65.

Bases ortonormais e Matrizes ortogonais. Consideremos uma matriz A de ordem m com


colunas C1 , . . . , Cm ∈ Rm , calculemos At A,
 
C1t
At A =  ...  C1 · · · Cm = [Cit Cj ] = [Ci · Cj ],
  
t
Cm

de onde fica claro que, A é ortogonal (At A = Im ) se e somente, se as colunas de A são


ortonormais no espaço euclideano Rm . Daı́ é direto que, se α é uma base ortonormal de Rm ,
então a matriz mudança de base [I]αC é ortogonal, onde C é a base canônica do mesmo espaço.
A seguinte proposição completa estas propriedades.
Proposição 4.24.

(a) Uma matriz A de ordem m é ortogonal, se e somente se, suas colunas (ou linhas) formam
uma base ortonormal de Rm .

136
(b) As matrizes mudança de base entre bases ortonormais do espaço euclideano Rm são ma-
trizes ortogonais.

Exemplo 4.25. Sejam as bases ortonormais do espaço euclideano R2 ,


 √   √     
1/√2 1/ √2 −3/5 4/5
α = {u1 = , u2 = } e β = {v1 = , v2 = }
1/ 2 −1/ 2 4/5 3/5

Calculemos a matriz [I]αβ .

Sabemos que [I]αβ = ([I]βC )−1 [I]αC = ([I]βC )t [I]αC = [I]βC [I]αC , pois [I]βC é ortogonal e simétrica.
  √ √   √ √ 
−3/5 4/5 1/√2 1/ √2 1/5√2 −7/5√ 2
[I]αβ = = .
4/5 3/5 1/ 2 −1/ 2 7/5 2 1/5 2

Verifica-se que [I]αβ é ortogonal, pois as colunas tem norma euclideana 1 e são ortogonais entre
si.

O seguinte teorema garante a existência de bases ortogonais em espaços com produto interno
e dimensão finita.

Teorema 4.26. Todo espaço vetorial V , de dimensão finita m, com produto interno h, i possui
uma base ortogonal.

A demonstração do teorema pode ser formalizada por indução matemática sobre m = dimV ,
usando que para m ≥ 2 podemos escrever V = W ⊕W ⊥ , com W = [u], u 6= 0V , assim a hipótese
de indução é aplicada a W ⊥ . A base ortogonal para V é obtida reunindo u e a base ortogonal
de W ⊥ .

4.5 Projeção Ortogonal e Ortogonalização de Gram-Schmidt


Definição 4.27. Dados um espaço V com produto interno h, i, um subespaço W de dimensão
finita de V e um vetor v ∈ V , como V = W ⊕ W ⊥ , temos únicos w ∈ W e w0 ∈ W ⊥ tais que

v = w + w0 ,

ou seja temos um único w ∈ W com a propriedade:

v − w = w0 ∈ W ⊥ ,

o vetor w é chamado projeção ortogonal de v em W . A projeção ortogonal de v em W


será denotada por PW (v) e em caso W = [w1 , . . . , wk ] por Pw1 ,...,wk (v). Assim, PW (v) é o único
vetor em W tal que v − PW (v) ∈ W ⊥ .

137
Para determinar a projeção ortogonal de v ∈ V em W , suponhamos que dimW = m ≤ n e que
β = {w1 , . . . , wm } é uma base ortonormal para W , assim,

PW (v) = w = a1 w1 + . . . + am wm ∈ W,

como w deve verificar v − w ∈ W ⊥ , então,

hv − w, wi i = 0, ∀wi ∈ β,

equivalentemente,

hv, wi i = hw, wi i = ai hwi , wi i ,

hv, wi i
daı́ ai = . Portanto w = PW (v) é da forma:
hwi , wi i

hv, w1 i hv, wm i
PW (v) = w1 + . . . + wm .
hw1 , w1 i hwm , wm i

O vetor PW (v) é independente da base ortogonal utilizada, pois é único.


Da expressão acima, obtemos a projeção ortogonal no caso simples dim W = 1. Na seguinte
proposição enunciamos o resultado.
Teorema 4.28 (Cálculo da projeção ortogonal).

(a) Se W = [w1 ], então:


hv, w1 i
Pw1 (v) = w1 .
hw1 , w1 i

(b) Se β = {w1 , . . . , wm } é uma base ortogonal de W , então:


m
X hv, w1 i hv, wm i
PW (v) = Pwi (v) = w1 + . . . + wm .
i=1
hw1 , w1 i hwm , wm i

138
Observação 4.29.

• v ∈ W ⇔ PW (v) = v. Pois, v = |{z}


v + 0V .
|{z}
∈W ∈W ⊥

• v ∈ W ⊥ ⇔ PW (v) = 0V . Pois, v = 0V + |{z}


v .
|{z}
∈W ∈W ⊥

Exemplo 4.30. Considere o espaço euclideano R4 e W o subespaço cuja base é


     
1 −1 0
0 2 1
{w1 = 1 , w2 =  1  , w3 =  0 }.
    

0 1 −2
 
1
−2
Calcule a projeção ortogonal de v = 
 2  em W . Como a base dada é ortonormal, então:

−3
v · w1 v · w2 v · w3
PW (v) = w1 + w2 + w3
w1 · w1 w2 · w2 w3 · w3
     
1 −1 0
3 0 −6  2  4  1 
    
= + + 
2 1 7  1  2 0 
0 1 −2
 
33
1   4 .

=
14  9 
−68

Processo de Ortogonalização de Gram-Schmidt

Seja um espaço V com produto interno e dimensão finita. Uma forma prática de construir
bases ortogonais para V , cuja existência foi estabelecida pelo teorema 4.26, é o método é
chamado processo de ortogonalização de Gram-Schmidt, onde a partir de uma base
dada qualquer de V obtemos uma base ortonormal associada a inicial.

Seja dimV = n e seja β = {u1 , · · · , un } uma base de V , a partir de β vamos construir uma base
ortogonal de V . A construção é feita por recorrência a partir do primeiro vetor de β. Iniciamos
tomando v1 = u1 e construı́mos o k-ésimo vetor, vk , pertencente ao complemento ortogonal

139
do espaço gerado pelos vetores anteriores, para garantir a ortogonalidade do conjunto, fazemos
isso substraindo de uk a sua projeção ortogonal sobre [v1 , . . . , vk−1 ]. Como

huk , v1 i huk , vk−1 i


Pv1 ,...,vk−1 (uk ) = v1 + . . . + vk−1 ,
hv1 , v1 i hvk−1 , vk−1 i

então
huk , v1 i huk , vk−1 i
vk = uk − Pv1 ,...,vk−1 (uk ) = uk − v1 − . . . − vk−1 ,
hv1 , v1 i hvk−1 , vk−1 i
assim, temos:

v1 = u1 ,
hu2 , v1 i
v2 = u2 − v1 ,
hv1 , v1 i
hu3 , v1 i hu3 , v2 i
v3 = u3 − v1 − v2
hv1 , v1 i hv2 , v2 i
..
.
huk , v1 i huk , v2 i huk , vk−1 i
vk = uk − v1 − v2 − . . . − vk−1 ,
hv1 , v1 i hv2 , v2 i hvk−1 , vk−1 i
..
.
hun , v1 i hun , v2 i hun , vn−1 i
vn = un − v1 − v2 − . . . − vn−1 .
hv1 , v1 i hv2 , v2 i hvn−1 , vi−1 i

No fim do processo obtemos a base ortogonal de V , {v1 , v2 , . . . , vn }. Notemos que em cada


passo da construção da base, os conjuntos de vetores

{v1 , . . . , vi } e {u1 , . . . , ui },

geram os mesmos espaços.


A partir da base ortogonal obtida, normalizando temos uma base ortonormal com a propriedade
acima.

Exemplos 4.31.

1. Consideremos o espaço euclideano V = R3 , e a base,


     
1 0 −1
β = {u1 = 1 , u2 = 1 , u3 = −1},
    
0 −1 1
que claramente não é ortogonal. Usando o processo de Gram-Schmidt:
 
1
• v1 = 1
0

140
• Para calcular v2 será necessário, u2 · v1 = 1 e v1 · v1 = 2, assim,
     
0 1 −1
u2 · v1 1  1
v2 = u2 − v1 = 1 − 2 1 = 2 1 .
 
v1 · v1
−1 0 −2
• Como u3 · v1 = −2, u3 · v2 = −1 e v2 · v2 = 23 , então:
     1  
−1 1 −2 −1
u3 · v1 u3 · v2 2  1  1
v3 = u3 − v1 − v2 = −1 − (−1) 1 − (− 3 ) 2 = 3 1 .
   
v1 · v1 v2 · v2
1 0 −1 1
     
1 −1 −1
Portanto, { 1 , 1 , 1 } é uma base ortogonal de R3 . Normalizando obtemos
    
0 −2 1
a base ortonormal:      
1 −1 −1
1   1   1  
{√ 1 , √ 1 ,√ 1 }.
2 0 6 −2 3 1

2. Determine uma base ortogonal para o subespaço de R4 :


 
x
y  4
W = {
 z  ∈ R / x + y − w = 0, x + z − w = 0}

Primeiro determinemos uma base de W . Tomando z, w como variáveis livres, temos:


   
−1 1
1 0
z = 1, w = 0 ⇒ u1 = 
 1  e tomando z = 0, w = 1 ⇒ u2 = 0.
  

0 1

 
−1
1
• v1 = u1 = 
 1 .

0
• Para calcular v2 será necessário, u2 · v1 = −1 e v1 · v1 = 3, assim,
     
1 −1 2
u2 · v1 0 1  1  1 1
v2 = u2 − v1 = 0 + 3  1  = 3 1.
    
v1 · v1
1 0 3
   
−1 2
 1  1 4
 1  , 1} é uma base ortogonal de R . Normalizando obtemos a base
Portanto, {   

0 3

141
ortonormal:    
−1 2
1  1  1 1
{√   , √  }.
3  1  15 1
0 3

Operador de projeção ortogonal. Consideremos a aplicação que leva um vetor na sua


projeção ortogonal em W ,
PW : V −→ V
.
v → PW (v)
Pelas propriedades de linearidade e homogeneidade do produto interno, PW é um operador
linear. De acordo com a observação 4.29,

N uc(PW ) = W ⊥ , e Im(PW ) = W.

No contexto dos espaços euclideanos Rm vamos determinar a matriz associada a PW na base


canônica de Rm .
Matriz do operador de projeção ortogonal. Consideremos o espaço euclideano Rm e W
um subespaço de dimensão n ≤ m de Rm . Sabemos que a projeção ortogonal sobre W é um
operador PW : Rm → Rm , vamos determinar a matriz associada a PW na base canônica de Rm .
O teorema seguinte será necessário.

Teorema 4.32. Se as colunas de uma matriz A são linearmente independentes então At A é


invertı́vel.

Tomando uma base qualquer para W , construı́mos a matriz A de ordem m×n, cujas colunas são
os vetores da base, logo W = Col(A). Claramente para todo v ∈ Rm , PW (v) ∈ W = Col(A),
logo existe X ∈ Rn tal que PW (v) = AX.
Sendo AX a projeção ortogonal sobre W de v, temos:

v − AX ∈ W ⊥ = N ul(At ) ⇒ At (v − AX) = 0Rn ⇒ At v = At AX.

De acordo com o teorema acima, a matriz At A é invertı́vel, logo obtemos,

AX = A(At A)−1 (At A)X = A(At A)−1 At v.

Logo,
PW (v) = AX = A(At A)−1 At v,
portanto a matriz de PW na base canônica é

[PW ] = A(At A)−1 At .

Observação 4.33. Caso a base de W seja ortonormal, é simples ver que At A = Im , assim
[PW ] = AAt .

142
Exemplo 4.34.
 Determine
 o operador de projeção ortogonal sobre o espaço W gerado pelos
1 0
vetores u = −1 e v = 1 .
  
0 2
   
1 0   1 0    
t 1 −1 0  2 −1 t −1 1 5 1
Temos, A = −1 1 , logo A A =
  −1 1 =  e (A A) = ,
0 1 2 −1 5 9 1 2
0 2 0 2
assim,
   
1 0    5 −4 2
1 5 1 1 −1 0
[PW ]C = A(At A)−1 At = −1 1 = −4 5 2 ,
9 1 2 0 1 2
0 2 2 2 8

portanto
 
5x − 4y + 2z
1
PW (x, y, z) = −4x + 5y + 2z  .
9
2x + 2y + 8z

4.6 Exercı́cios
   
2 3
3
1. Considere os vetores de R , u = −1 , v = 0 . Determine hu + 3v, u − vi, k2u − vk,
  
3 −3
d(u, v), d(u + v, u − v) nos seguintes casos:
(a) h, i é o produto escalar.
(b) h, i é o produto interno com pessos p1 = 1, p2 = 2, p3 = 1
    
2 −1 2 −1
2. Considere o espaço vetorial V = R e os vetores u = ,v= , w= ∈ R2 ,
3 5 2
calcule k2u − vk e d(u + v, v − w) nos seguintes casos :
a) h, i é o produto escalar.
   
x1 y
b) , 1 = 3x1 y1 + 2x2 y2
x2 y2

3. Suponha que u, v, w são vetores de um espaço vetorial com produto interno h, i, tais que:
hu, vi = 2, hv, wi = −3, hu, wi = 5, kuk = 1, kvk = 2 e kwk = 7. Calcule:
a) hu + v, v + wi
b) h2v − w, 3u + 2wi
c) hu − v − 2w, 4u + vi
d) ku + vk e) k2w − vk f) ku − 2v + 4wk .

143
4. Sejam V um espaço vetorial com produto interno e u, v ∈ V tais que kuk = 3 e kvk = 5.
Se existirem, determine os valores de k ∈ R de forma que os vetores u − kv e u + kv sejam
ortogonais.
5. Sejam V um√espaço vetorial com produto interno e u, v ∈ V tais que kuk = 3, kvk = 4 e
ku + vk = 2 5. Determine o ângulo entre u e v.
6. Sejam V um espaço vetorial com produto interno e u, v ∈ V vetores
√ unitários e ortogonais.
Determine, justificando, se é verdadeiro ou falso que ku − vk = 2.
7. Seja V um espacio vetorial com produto interno, mostre que para todos u, v ∈ V tem-se:
(a) hu + v, u − vi = kuk2 − kvk2
(b) ku + vk2 + ku − vk2 = 2 kuk2 + 2 kvk2 .
8. Determine se o ângulo entre os vetores u, v ∈ V é agudo, obtuso ou reto.
   
2 1
3
(a) V = R , espaço euclideano e u = −1 e v = −2
  
1 −1
   
1 −3
 2ev= 1 
  
(b) V = R4 , espaço euclideano e u = 
3 2
4 −2
9. Considere o triâgulo ABC, com vértices A = (1, 1, −1), B = (−3, 2, −2) e C = (2, 2, −4).
Mostre que ABC é um triângulo retângulo.
10. Seja ABCD o retângulo com vértices A = (1, 2, 3), B = (3, 6, −2) e C = (0, 5, −4),
determine o vértice D.
11. Considere espaços euclideanos Rn . Em cada caso determine a dimensão e uma base para
o espaço indicado.
 
x

(a) W , onde W = { y  / 2x − y + 3z = 0}

z
 
x

(b) W , onde W = { y  / x + y = 0, 2x − 2y − z = 0}

z
 
1 −1 3
5 2 1
(c) (Col(A))⊥ e N ul(A)⊥ , para A =  
0 1 −2
−1 −1 1
 
1 0
−1 1 
(d) (Col(A))⊥ e N ul(A)⊥ , para A =  3 −2

−2 1

144
12. Dados, em R3 , o produto interno e o subespaço W , determine a dimensão e uma base
para W ⊥ .
 
1
a) O produto escalar com pesos: p1 = 2, p2 = p3 = 1 e W é gerado pelos vetores −1 e
  1
1
 2 .
−1
 
z
b) O produto escalar com pesos: p1 = 2, p2 = 3, p3 = 4 e W = { y  : y, z ∈ R}.

z
1  
√ a
2
13. Considere o espaço euclideano R e os vetores u = 0 e v = 12 . Determine valores
3    √
√1 −b
2
para a, b tais que o conjunto {u, v} seja ortonormal.
14. Considere o espaço euclideano R3 . Verifique que
     
−1 2 0
β = { 1 , 1 , 1 }
    
1 1 −1

é uma
 base ortogonal de R3 . Use os coeficientes de fourier para determinar [w]β , sendo
4
w = 0.

1

15. Considere o espaço euclideano R3 . Verifique que


     
0 2 1
1   1   1  
β = {√ 1 , √ 1 , √ −1 }
2 −1 6 1 3 −1

3
é uma
 base
 ortonormal de R . Use os coeficientes de fourier para determinar [w]β , sendo
3
w = −2.

1
16. Sejam V um espaço vetorial com produto interno h, i e β uma base de V , use o processo
de Gram-Schmidt para achar uma base ortonormal β 0 de V, nos seguintes casos.
   
2 1 2
a) V = R munido do produto escalar e β = { , }
2 1
     
1 −1 −4
b) V = R3 munido do produto escalar e β = {2 ,  2  , −4}
3 1 0

145
c) V = R3 
munido
 do produto escalar com pesos p1 = 1, p2 = 2, p3 = 1 e β =
1 1 0
{1 , 0 , 2}
0 1 0
 
1
17. (a) Para o espaço euclideano R3 encontre uma base ortogonal que contenha o vetor 3
5
(b)
 Para
 o espaço euclideano R4 encontre uma base ortogonal que contenha os vetores
1 1
 2  0
 e 
−1 1
0 3
18. Determine bases ortonormais em relação ao produto escalar em Rn , para o subespaço
W de V :
   
1 1
3
(a) V = R , W1 , gerado por { 0 , −1}
  
1 0
 
x
3
(b) V = R , W2 = { y  ∈ R3 / x − y + z = 0}

z
 
x
 y
(c) V = R4 , W3 = { 4
 z  ∈ R /x + y − 2z − 2w = 0}.

w
19. Em cada caso, encontre a projeção ortogonal de v ∈ V sobre W , w = PW (v) e verifique
que w0 = v − PW (v) ∈ W ⊥ .
 
1
(a) V e W = W1 dados no exercı́cio 18(a) e v = −1
2
 
−1
(b) V e W = W2 dados no exercı́cio 18(b) e v = −1
1
 
1
0
(c) V e W = W3 dados no exercı́cio 18(c) e v =  −1

0
 
x
20. Seja W o subespaço W = {y  ∈ R3 /5x − 3y + z = 0}. Determine a matriz do operador
z
de projeção ortogonal PW , na base canônica de R3 .

146
21. Considere o operador P sobre R2 de projeção ortogonal sobre a reta
 que passa pela origem

cos2 θ sen θcos θ
e de inclinação θ. Mostre que a matriz na base canônica de P é .
sen θcos θ sen θ

22. Em cada caso determine se a matriz A dada é ortogonal, nesse caso determine sua inversa.
 1  1 1 1 1

1  1 1
0 1 − √ √ √

√ 2 2 2 2
2
 2 − √62 √13  1 −5 1 1 
a) A = 1 0 0  b) A =  0
 c) A =  21 1 6 61 6 
5
6 3 −

1 1 1 1

0 0 √2 √ √ √ 2 6 6 6
1 1 5 1
2 6 3
2 6
− 6 6

23. Considere as bases ordenadas de R2 :


       
1 −1 1 3 1 2 1 1
α = {√ ,√ }, β = { √ ,√ }
10 3 10 1 5 −1 5 2

Mostre que as bases são ortonormais e calcule a matriz mudança de base de α para β.

24. Seja θ ∈ R e considere no espaço euclideano R3 a base


     
cos θsen θ −cos θ −sen2 θ
α = { cos2 θ  ,  sen θ  , −cos θsen θ}.
sen θ 0 cos θ

Sendo C a base canônica, determine a matriz [I]C


α . Esta matriz é ortogonal?

4.7 Solução em Mı́nimos Quadrados


Melhor Aproximação

No espaço euclideano R3 temos que a distância de um vetor v a um plano W que passa pelo
origem, é dada pelo comprimento do segmento perpendicular de v a W , ou seja v − PW , e
trata-se da menor distância de v a um vetor de W . Temos a mesma situação em um espaço V
com produto interno h, i.

147
Sejam W um subespaço de V e um vetor v ∈ V , verifiquemos que a menor distância de v
a vetores de W é kv − PW (v)k. Notemos que, para todo w ∈ W os vetores v − PW (v) e
PW (v) − w ∈ W são ortogonais, usando Pitágoras temos:

kv − wk2 = kv − PW (v)k2 + kPW (v) − wk2 ≥ kv − PW (v)k2 .

Logo, kv − PW (v)k é a menor das distâncias de v a vetores de W , ou seja,

kv − PW (v)k = minw∈W kv − wk ,

por isto o vetor PW (v) é dito melhor aproximação de v em W .


Definimos a distância de v a W : d(v, W ) = kv − PW (v)k.

Soluções em mı́nimos Quadrados (SMQ)

Consideremos o sistema linear AX = b, onde A é uma matriz m × n e b ∈ Rm . Se o sistema


/ Col(A), podemos determinar X ∈ Rn
linear AX = b não tiver solução, isto acontece quando b ∈
tal que, com relação ao produto escalar em Rm :

kAX − bk seja mı́nimo.

Seja W = Col(A), assim basta resolver AX = PW (b), pois a projeção ortogonal determine
a distância mı́nima desde b. A solução X ∈ Rn existe, pois agora PW (b) ∈ Col(A), e é dita
solução em mı́nimos quadrados (SMQ), o valor e = kAX − bk é chamado erro da SQM.

Determinação da SMQ.
Procuramos X tal que, AX = PW (b), como visto anteriormente:

AX = PW (b) ⇒ At (b − AX) = 0Rn ,

assim obtemos a equação,

At AX = At b,

chamada equação normal .


Se as colunas de A são LI, temos que At A é invertı́vel, logo a SMQ de AX = b é,

X = (At A)−1 At b.

Exemplo 4.35. Considere o sistema,


    
 x + y = 2 1 1   2
x + 2y = 2 ou 1 2 x = 2 .
y
x + 3y = 4 1 3 4

O sistema não tem solução, de fato,

148
     
1 1 2 1 1 2 1 1 2
 1 2 2  →  0 1 0  →  0 1 0 , mostra que o sistema é impossı́vel.
1 3 4 0 2 2 0 0 2
Para determinar
 a SMQ do sistema, consideremos a equação normal: At AX = t
 A b. Neste
1 1 2
caso, A =  1 2  tem colunas LI (ou seja que At A será invertı́vel) e b =  2 , logo a
1 3 4
equação normal é:
   
  1 1     2
1 1 1  x 1 1 1  
At AX = 1 2  = At b = 2
1 2 3 y 1 2 3
1 3 4
    
3 6 x 8
= ,
6 14 y 18
logo,    −1       
x 3 6 8 1 14 −6 8 1 4
X= = = = .
y 6 14 18 6 −6 3 18 6 6
Logo, x = 2/3 e y = 1. O erro cometido pela aproximação é dado por e = kAX − bk. Como
     
1 1   2 −1/3
2/3
AX − b =  1 2  −  2  =  2/3  ,
1
1 3 4 −1/3
q p
1
então, e = 9
+ 49 + 1
9
= 2/3 ≈ 0, 81.

149

Você também pode gostar