Escolar Documentos
Profissional Documentos
Cultura Documentos
2 ESPAÇOS VETORIAIS 50
1
2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.2 Definições e Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.3 Subespaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.4 Combinação Linear e Espaço gerado . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.5 Independência e Dependência Linear . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.6 Base e Dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
2.7 Espaços Associados a uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2.8 Soma e Interseção de subespaços . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
2.9 Coordenadas com relação a uma base . . . . . . . . . . . . . . . . . . . . . . . . . 76
3 TRANSFORMAÇÕES LINEARES 82
3.1 Definição e Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.2 Núcleo e Imagem de uma Transformação Linear . . . . . . . . . . . . . . . . . . . . 86
3.3 Operações com TLs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.4 Transformações Injetoras, Sobrejetoras e Isomorfismos . . . . . . . . . . . . . . . . 94
3.5 Matriz Associada a uma Transformação Linear . . . . . . . . . . . . . . . . . . . . 98
2
Capı́tulo 1
A representação dada acima é útil e suficiente para a manipulação com matrizes, embora não é uma
definição. A definição do elemento matriz, apresentada abaixo, tem importância pela rigorosidade
com que os conceitos matemáticos devem ser introduzidos, mas não é utilizada na manipulação com
matrizes.
D EFINIÇ ÃO 1.1. Dados inteiros m ≥ 1 e n ≥ 1, definimos uma matriz A de ordem m × n sobre R
3
como a funçõ da forma:
{1, · · · , m} × {1, · · · , n} → R
.
(i, j) → aij
E XEMPLO 1.2.
40 30 10 0
A3×4 = 0 50 30 10 .
5 20 40 5
Matrizes podem representar dados de diversos tipos de problemas concretos como: produção de di-
ferentes itens em diferentes anos, preços de diferentes itens em certas lojas, composição de materiais
com relação certos elementos quı́micos, etc. Em geral, usamos matrizes para registrar certos dados
apresentados por diferentes objetos.
E XEMPLO 1.3. Consideremos duas ligas de aço A e B, com componentes adicionais: carbono (C),
Silı́cio (Si), Manganês (Mn), Cromo (Cr), Nı́quel (Ni), Molibdênio (Mo) que são dadas em % na
tabela abaixo:
Alunos T1 T2 T3 T4
1 7,5 5,0 6,0 7,5
2 6,5 8,0 7,5 8,0
3 4,5 4,5 6,5 7,0
4 7,0 8,5 7,0 7,0
5 8,0 8,0 7,5 8,0
T1 T2 T3 T4
,
0,2 0,2 0,2 0,4
4
Alunos M
1 6,7
2 7,6
3 5,9
4 7,3
5 7,9
Neste caso os dados dos alunos nos diferentes testes e o peso dos testes podem ser representados pelas
matrizes N , P e M :
7, 5 5, 0 6, 0 7, 5 6, 7
6, 5 8, 0 7, 5 8, 0 0, 2 7, 6
0, 2
N = 4, 5 4, 5 6, 5 7, 0 P =
0, 2
e M = 5, 9
7, 0 8, 5 7, 0 7, 0 7, 3
0, 4
8, 0 8, 0 7, 5 8, 0 7, 9
E XEMPLO 1.5. Matrizes podem ser definidas através de regras para o cálculo de suas entradas, por
exemplo:
daı́ obtemos:
0 −1 2 −3
A= .
−1 0 1 −2
D EFINIÇ ÃO 1.6. A = [aij ] e B = [bij ] são matrizes iguais, se são da mesma ordem e,
5
4. Matriz quadrada: é uma matriz de ordem m × m (número de linhas e colunas iguais a m),
chamada matriz quadrada de ordem m.
a11 . . . a1m
.. .. .. .
Am×m = . . .
am1 . . . amm
5. Matriz diagonal: matriz quadrada A = [aij ], onde todas as entradas “fora” da diagonal princi-
pal são nulas, isto é aij = 0, para todo i 6= j.
6. Matriz identidade: é uma matriz diagonal, onde as entradas na diagonal são todas iguais a 1.
A matriz identidade de ordem m é denotada por Im .
7. Matriz triangular superior: matriz quadrada A = [aij ], onde todos os elementos “abaixo” da
diagonal principal são nulos, isto é aij = 0, para todo i > j.
8. Matriz triangular inferior: matriz quadrada A = [aij ], onde todos os elementos “acima” da
diagonal principal são nulos, isto é aij = 0, para todo i < j.
9. Matriz simétrica: matriz quadrada A = [aij ], com a propriedade aij = aji , para todo i, j (ou
seja que as entradas simétricas com relação à diagonal principal, são iguais).
10. Matriz anti-simétrica: matriz quadrada A = [aij ], com a propriedade aij = −aji , para todo
i, j.
O BSERVAÇ ÃO 1.7. Os elementos aii da diagonal de uma matriz anti-simétrica são nulos, pois aii =
−aii ⇒ aii = 0.
O BSERVAÇ ÃO 1.8. Uma matriz de ordem 1 × 1 será considerada também como um escalar.
N OTAÇ ÃO 1.9. O conjunto das matrizes de ordem m × n e entradas reais será denotado Mm×n (R),
se tratando de matrizes quadradas de ordem m a notação é Mm (R).
6
1.3 Operações com Matrizes
A + B = [aij + bij ].
Para conferir as propriedades basta ver que os elementos de posição (i, j) do lado esquerdo e direito
das igualdades são iguais.
D EFINIÇ ÃO 1.12. Dadas matrizes da mesma ordem A = [aij ] e B = [bij ], define-se a matriz
diferença de A e B na forma usual, A − B = A + (−B) = [aij − bij ].
Dados uma matriz A = [aij ] de ordem m × n e um número real k, definimos a matriz multiplicação
por escalar de k e A como a matriz também de ordem m × n, dada por
kA = [kaij ].
E XEMPLOS 1.13.
1 3 −1 −2 −6 2
−2 = ,
−2 0 1/2 4 0 −1
0, 2 0, 4 1 2 4
= .
−0, 2 0, 5 10 −2 5
7
P ROPRIEDADES 1.14. Sejam A e B matrizes da mesma ordem e k, k1 , k2 escalares. O produto de
matriz por escalar possui as seguintes propriedades:
(a) k(A + B) = kA + kB
(b) (k1 + k2 )A = k1 A + k2 A
(c) k1 (k2 A) = (k1 k2 )A
(d) 0A = 0
(e) 1A = A e −1A = −A.
Novamente as demonstrações são simples e consistem em verificar que elementos das posições (i, j)
em ambos os lados das igualdades são iguais.
E XEMPLO 1.15. Se A e B são matrizes da mesma ordem, pelas propriedades enunciadas temos:
Multiplicação de Matrizes
Definiremos primeiro a multiplicação de uma matriz linha por uma matriz coluna, para isto conside-
remos a matriz linha L, de ordem 1 × n e a matriz coluna C, de ordem n × 1:
b1
..
L = a1 . . . an , C = . ,
bn
E XEMPLO 1.16.
−2 √ √
4 12 2 · √1 = (4)(−2) + (12)(1) + (2)( 2) = 4 + 2 2.
2
8
• Cj (A) para a matriz coluna composta pela j-ésima coluna de A
a1j
Cj (A) = ... .
amj
Agora, definiremos de forma geral o produto de matrizes. Sejam A = [aij ], uma matriz de ordem
m × n e B = [bij ], uma matriz de ordem n × p, a matriz produto, A · B, é a matriz de ordem m × p
definida como:
k=n
X
A · B = [aij ]m×n [bij ]n×p = [cij ]m×p , onde cij = Li (A) · Cj (B) = aik bkj ,
k=1
temos:
c11 = (1)(2) + (−1)(−1) = 3; c12 = (1)(1) + (−1)(0) = 1
c21 = (4)(2) + (0)(−1) = 8; c22 = (4)(1) + (0)(0) = 4
c31 = (2)(2) + (1)(−1) = 3; c22 = (2)(1) + (1)(0) = 2
3 1
logo: A · B = 8 4 .
3 2 3×2
2. Considere as matrizes A = [aij ]3×3 , onde aij = i + j − 2 e B = [bij ]3×4 , onde bij = i2 − j.
Vamos determinar a segunda linha da matriz A · B que é de ordem 3 × 4.
Seja A · B = [cij ]3×4 , assim temos
0 −1 −2 −3
c2j = L2 (A) · Cj (B), onde L2 (A) = [1 2 3] e B = 3 2 1 0 ,
8 7 6 5
logo
0 −1
c21 = 1 2 3 · 3 = 30; c22 = 1 2 3 · 2 = 24,
8 7
−2 −3
c23 = 1 2 3 · 1 = 18; c24 = 1 2 3 · 0 = 12.
6 5
∴ L2 (A · B) = 30 24 18 12 .
9
3. No exemplo 1.4 temos M = N · P .
O BSERVAÇ ÃO 1.18. Só tem sentido efetuar o produto A · B, quando o número de colunas de A é
igual ao número de linhas de B e neste caso a matriz C = AB terá mesmo número de linhas que A e
mesmo número de colunas que B.
A · |{z}
|{z} B = |{z}C .
m×n n×p m×p
E XEMPLO 1.19 (Um produto importante). Sejam A uma matriz m×n e b uma matriz coluna n×1. O
produto A · b é uma matriz m × 1 que pode ser escrita em função das colunas de A. Sejam C1 , . . . , Cn
as colunas de A; denotemos A = [C1 . . . Cn ]m×n e consideremos b = [bi ]n×1 , logo
A · b = b1 C 1 + . . . + bn C n .
2 6 −2 b1
No caso, A = 0 1 3 e b = b2 , temos
1 2 4 b3
2 6 −2 b1 2b1 + 6b2 − 2b3
A · b = 0 1 3 · b2 = 0 + b2 + 3b3
1 2 4 b3 b1 + 2b2 + 4b3
2b1 6b2 −2b3
= 0 + b2 + 3b3
b1 2b2 4b3
2 6 −2
= b1 0 + b2 1 + b3 3 .
1 2 4
De forma similar, o produto de uma matriz linha pela matriz A é uma matriz linha, que escreve-se em
função das linhas de A (exercı́cio).
P ROPRIEDADES 1.20. Para matrizes A, B e C com ordens adequadas ás operações envolvidas, valem
as seguintes propriedades.
1. Associatividade. (A · B) · C = A · (B · C).
2. Distributividade.
A · (B + C) = A · B + A · C, Distributividade à esquerda ,
(B + C) · A = B · A + C · A, Distributividade à direita.
10
Demonstração. provaremos a associatividade do produto, nas propriedades restantes é simples veri-
ficar que as entradas das matrizes em ambos os lados são iguais. Sejam A = [aij ]m×n , B = [bij ]n×p e
C = [cij ]p×r , claramente as matrizes A(BC) e (AB)C tem a mesma ordem m×r, logo basta verificar
a igualdade dos elementos (i, j) de A(BC) e (AB)C, de fato:
p p
n
! n X
X X X
Li (A) · Cj (BC) = aik bkl clj = aik bkl clj
k=1 l=1 k=1 l=1
p n
!
X X
= aik bkl clj = Li (AB) · Cj (C)
l=1 k=1
Mostraremos algumas propriedades do produto usuais nos números, mas que não são verdadeiras para
matrizes.
2. A · B = 0 não implica A = 0 ou B = 0.
−1 −1 1 0
Um exemplo é o par de matrizes A = e B = , pois A · B = 0, mas
0 0 −1 0
A 6= 0 e B 6= 0.
3. A · B = A · C, A 6= 0, não implica B = C.
1 0 1 2 1 2
Um exemplo é o caso A = , B = e C = , pois temos A · B =
−1 0 1 1 −1 0
1 2
A·C = , mas B 6= C.
−1 −2
Matrizes em Blocos
As vezes é conveniente particionar uma matriz, para escreve-la como uma matriz cujos elementos são
submatrizes da própria. Dada uma matriz A, dizemos que A é uma matriz em blocos r×s quando, pela
11
introdução de linhas divisórias entre as linhas ou entre as colunas da matriz, representamos A como a
matriz r × s, cujos elementos são as submatrizes determinadas, chamadas blocos. Por exemplo,
1 0 2 −1 1 0 2 −1 1 0 2 −1
0 1 1 3 0 1 1 3 0 1 1 3
A= 0 0 1 7
= 0 0 1 7
= 0 0 1 7 .
Com blocos de ordens adequadas podemos verificar de forma simples que o produto de duas matrizes
pode-se descrever em função de seus blocos.
E XEMPLOS 1.21. 1. O produto na forma usual, pode ser entendido como um produto de matrizes
em blocos de várias formas. Sejam A = [aij ]m×n e B = [bij ]n×p .
A0 = Im e An = A
| · .{z
. . · A}, para n ≥ 1.
n vezes
12
E XEMPLO 1.22.
2 4 −2
1. Caculemos a expressão A − 3A, para A = . De fato,
0 1
4 −2 4 −2 16 −10
A2 = =
0 1 0 1 0 1
logo,
2 16 −10 4 −2 16 −10 −12 6 4 −4
A − 3A = −3 = + = .
0 1 0 1 0 1 0 −3 0 −2
2. Mostre que A2 − 3A = A(A − 3I), onde A é uma matriz quadrada qualquer e I é a matriz
identidade com a mesma ordem de A.
De fato, A(A − 3I) = A · A − A · (3I) = A2 − 3(A · I) = A2 − 3A.
P ROPRIEDADES 1.23. Sejam A uma matriz quadrada, m, n números naturais e k um escalar, então
valem as propriedades:
1. Am+n = Am · An
2. (Am )n = Amn
3. (kA)m = k m Am .
Note que, da propriedade 1.23 temos que as potências da mesma matriz comutam.
(A · B)2 = A2 · B 2 ,
D EFINIÇ ÃO 1.25. Dizemos que uma matriz quadrada A é Idempotente quando A2 = A. Dizemos
que A é Nilpotente, se existir um natural k, tal que Ak = 0. Exemplos:
2 −1 1
1 0
0, Im , , −3 4 −3 , são matrizes idempotentes.
1 0
−5 5 −4
0 1 2
0 1
0, , 0 0 −1 são matrizes nilpotentes.
0 0
0 0 0
13
Transposição
1. Seja A = [aij ]m×n uma matriz qualquer, então considerando as linhas de A e colunas de At
temos
ai1
..
(Li (A)) = . = Ci (At ), (Cj (A))t = a1j · · · amj = Lj (At ).
t
ain
1. (At )t = A
Demonstração. Provemos a propriedade (4), as outras são deixadas como exercı́cio. Considerando
A = [aij ] e B = [bij ] temos que a igualdade abaixo prova que as entradas ij de (A · B)t são iguais as
entradas ij de B t · At :
14
No seguinte exemplo algumas matrizes simétricas e anti-simétricas importantes.
E XEMPLO 1.30. Muitos processos de diferente natureza podem envolver uma variável que muda no
tempo, de forma que em cada perı́odo de tempo esta variável assume um entre um número finito de
estados fixos E1 , . . . , En . Suponhamos que a probabilidade de passagem do estado Ej ao estado Ei
(“taxa” de passagem ou tranferência) só depende do estado inicial Ej e não da quantidade de perı́odos
transcorridos,
temos,
n pk−1 (E1 )
pk (Ei ) =
X
pij pk−1 (Ej ) = pi1
. . . pin · ..
.
.
j=1 k−1
p (En )
A matriz T = [pij ]n×n é chamada matriz de transição de probabilidade. Nomeando por Xk a matriz
coluna das probabilidades no k-ésimo perı́odo, temos
Xk = T · Xk−1 , k ≥ 1.
15
Este tipo de processo é chamado cadeia de markov discreta.
Consideremos o seguinte caso: em uma determinada região, ao longo do tempo, o clima reveza-se
entre estados de chuva e seca. Observa-se que se chover bastante durante um perı́odo, a probabilidade
que chova no perı́odo seguinte é de 1/4 e que a probabilidade de que faça seca é de 3/4. Ainda se
houver seca em um perı́odo, no perı́odo seguinte a probabilidade de haver seca ou chuva será a mesma
e igual a 1/2.
Considerando a sequência de estados na ordem: 1o chuva e 2o seca, a matriz de transição de probabi-
lidades é,
C S
C 1/4 1/2 ,
T =
S 3/4 1/2
Usemos a notação:
p0s = probabilidade de seca inicial
p0c = probabilidade de chuva inicial
pns = probabilidade de seca no n-ésimo perı́odo
pnc = probabilidade de chuva no n-ésimo perı́odo
n
p
Vamos supor conhecidas as probabilidades iniciais p0c = 4/5 e p0s = 1/5. Considerando Xn = cn ,
ps
pela propriedade da matriz de transição, temos:
X1 = T X0
X2 = T X1 = T (T X0 ) = T 2 X0
X3 = T X2 = T (T 2 X0 ) = T 3 X0
.. .. ..
. . .
Xn = T Xn−1 = T (T n−1 X0 ) = T n X0
Portanto,
Xn = T n X0 , ∀n ≥ 1.
Dadas as condições iniciais, temos no quarto perı́odo:
4
4 1/4 1/2 4/5 0, 4 0, 4 4/5 0, 4
X4 = T X0 = ≈ ≈ .
3/4 1/2 1/5 0, 6 0, 6 1/5 0, 6
Portanto no quarto perı́odo a probabilidade de ter chuva é 0,4 e a de ter seca é de 0,6.
O comportamento do clima a longo prazo poderá ser previsto, caso os elementos da matriz T n se
aproximem dos elementos de uma matriz fixa P . Caso contrário não poderemos fazer previsão a
longo prazo, pois o processo modificará bastante a cada passo. Existem condições sob as quais
podemos saber se T terá esta propriedade ou não, mas não vamos abordar isso neste exemplo.
16
O Traço
D EFINIÇ ÃO 1.31. Seja A = [aij ] uma matriz quadrada de ordem n. O traço de A, denotado tr(A),
é o número real dado pela soma dos elementos da diagonal de A, ou seja:
1. tr(λA) = λtr(A).
3. tr(AB) = tr(BA)
Observamos o mesmo resultado também é válido para matrizes não quadradas sendo AB e BA qua-
dradas.
De forma geral, não é verdadeiro que tr(AB) = tr(A)tr(B). Determine matrizes A e B que não
verifiquem a igualdade.
• Se B é uma matriz de ordem n × m, tal que Am×n Bn×m = Im , diremos que A é invertı́vel à
direita, neste caso a matriz B é chamada inversa à direita de A. Com relação a B diremos que
B é invertı́vel à esquerda e que a matriz A é sua inversa à esquerda.
17
• Se A é quadrada de ordem m, A é dita invertı́vel, quando existe uma matriz B de mesma ordem,
tal que AB = BA = Im . Para ser invertı́vel é suficiênte que AB = Im ou BA = Im (a prova
deste fato é parte do teorema 1.92). Neste caso B é dita inversa de A e é denotada A−1 , assim
AA−1 = A−1 A = Im .
O BSERVAÇ ÃO 1.33. Se A é uma matriz invertı́vel, então sua inversa é única, de fato dadas duas
matrizes B 0 e B 00 inversas de A, temos B 0 = B 0 In = B 0 (AB 00 ) = (B 0 A)B 00 = In B 00 = B 00 .
E XEMPLOS 1.34.
18
No primeiro sistema,
ax + bz = 1 acx + bcz = c
⇒ ⇒ (ad − bc)z = −c,
cx + dz = 0 acx + adz = 0
ax + bz = 1 adx + bdz = d
⇒ ⇒ (ad − bc)x = d.
cx + dz = 0 bcx + bdz = 0
Analogamente, do segundo sistema,
Sabemosque em
R todo número não nulo é invertı́vel, nas matrizes isto não é verdade, por exemplo
1 0
a matriz 6= 02×2 e claramente não é invertı́vel.
0 0
P ROPRIEDADE 1.35 (Lei do Corte). Seja A uma matriz invertı́vel. Se X, Y são matrizes nas ordens
adequadas, tais que AX = AY , então X = Y .
Para provar a Lei do corte, basta multiplicar por A−1 pelo lado esquerdo em ambos os lados da
igualdade AX = AY .
P ROPRIEDADES 1.36. Dados A e B matrizes invertı́veis, k 6= 0 escalar e m inteiro positivo, temos
19
Demonstração. 1. Como AA−1 = A−1 A = I, então A é inversa de A−1 .
3 1
E XEMPLO 1.37. Considere a matriz A = . Mostre que A é invertı́vel e resolva a equação:
2 −1
I + AX t = A2 .
A matriz A é invertı́vel pois 4 = (3)(−1) − (2)(1) = −5 6= 0
Aplicando as propriedades das matrizes na equação, temos:
I + AX t = A2 ⇔ AX t = A2 − I
⇔ A−1 AX t = A−1 (A2 − I)
⇔ X t = A − A−1
⇔ X = (A − A−1 )t .
−1 −1 −1
Sendo A−1 = , temos
5 −2 3
−1 !t t
3 1 3 1 3 1 1 −1 −1
X = − = +
2 −1 2 −1 2 −1 5 −2 3
t
1 14 4 1 14 8
= = .
5 8 −2 5 4 −2
D EFINIÇ ÃO 1.38. Uma matriz A, quadrada de orden n é dita matriz ortogonal quando A é invertı́vel
e sua inversa é At , ou seja AAt = In = At A.
E XEMPLOS 1.39. 1. A identidade In é uma matriz ortogonal, pois In Int = In . Outras matrizes
ortogonais são
√ √
√ √ 1/√3 0√ 2/ √6
1/ √2 1/√2
A= , e B = 1/ √3 1/√2 −1/√ 6 ,
−1/ 2 1/ 2
−1/ 3 1/ 2 1/ 6
de fato, √ √ √ √
t1/ √2 1/√2 1/√2 −1/√ 2 1 0
AA = = ,
−1/ 2 1/ 2 1/ 2 1/ 2 0 1
analogamente para B.
20
cos θ −sen θ
2. Verifique que as matrizes da forma , são ortogonais para todo θ ∈ R.
sen θ cos θ
P ROPRIEDADES 1.40. Se A e B são matrizes ortogonais, então também são ortogonais as matrizes:
AB, At e A−1 .
1.4 Escalonamento
3. Substituição de uma linha por operação com linhas: Seja k um escalar qualquer, representa-
mos por Li + kLj → Li a transformação de A pela substutição da i-ésima linha pela combinção
Li + kLj .
1 2 4 1 1 2 4 1
L −2L3 →Li
A = 0 1 3 −1 3 −→ 0 1 3 −1 .
2 6 −2 0 0 2 −10 −2
O BSERVAÇ ÃO 1.41. Sejam q 6= 0 e k escalares, a aplicação seguidamente das operações qLi e
Li + kLj → Li resulta na operação de substituição da i-ésima linha pela combinação qLi + kLj , a
aplicação destas duas operações elementares será denotada como qLi + kLj → Li .
D EFINIÇ ÃO 1.42. Sejam A e B matrizes. Diremos que B é linha equivalente a A, se B é obtida
pela a partir de A pela aplicação de um número finito de operações elementares. A notação usada é
A → B.
21
E XEMPLO 1.43.
1 2 4 1 1 2 4 1 1 2 4 1
L −2L1 →L3
A = 0 1 3 −1 3 −→ 0 1 3 −1 −2L2−→ +L3 →L3
0 1 3 −1 .
2 6 −2 0 0 2 −10 −2 0 0 −16 0
1 2 4 1
Portanto, B = 0 1 3 −1 é linha-equivalente a A.
0 0 −16 0
P ROPRIEDADES 1.44. A relação “linha equivalência”entre matrizes da mesma ordem tem as propri-
edades:
1. Reflexiva: A → A.
2. Simétrica: Se A → B então B → A, ou seja que as operações elementares podem ser
invertidas.
3. Transitiva: Se A → B e B → C, então A → C.
Diremos que uma matriz está na forma escalonada reduzida linha (erl), quando:
22
2. Matrizes escalonadas reduzidas linha,
1 0 −4 0 0
1 0 0 1
0 1 0 −1
0 1 −1 0 0
e
0
0 0 1 0
0 0 1 −2
0 0 0 0 1
3. As matrizes erl de ordem 2 e 3 são de alguma das seguintes formas,
1 0 0 1 1 a 0 0
• Para ordem 2: , , e .
0 1 0 0 0 0 0 0
1 0 0 1 0 a 1 a 0 0 1 0
• Para ordem 3: 0 1 0 , 0 1 b , 0 0 1 , 0 0 1 ,
0 0 1 0 0 0 0 0 0 0 0 0
1 a b 0 1 a 0 0 1 0 0 0
0 0 0 , 0 0 0 , 0 0 0 e 0 0 0 .
0 0 0 0 0 0 0 0 0 0 0 0
Dada uma matriz A, vamos efetuar operações elementares para transformar A em uma matriz esca-
lonada ou escalonada reduzida. Com este objetivo, inicialmente vamos definir a seguinte operação
entre linhas.
Pivoteamento. Sejam Li uma linha não nula com pivô aij e Lk uma linha tal que akj 6= 0, o pivotea-
mento de Li sobre Lk consiste usar operações elementares para substituir Lk por uma linha L0k onde
o elemento da coluna j seja nulo:
Li : 0 . . . aij ∗ ∗ ...
Lk : ∗ . . . akj ∗ ∗ ...
L0k : ∗ . . . 0 ∗ ∗ ...
O escalonamento de uma matriz A é um processo organizado para transformar uma matriz qualquer
A em uma matriz escalonada e linha equivalente a A e consiste em aplicar em A a seguinte sequência
de operações elementares:
1°) Use permutação de linhas, se necessário, para levar as linhas nulas abaixo das não nulas.
2°) Use permutação de linhas, se necessário, de forma que a primeira linha tenha o menor número
de zeros antes do pivô do que às linhas abaixo. Se baixo o pivô da primeira linha tem elementos
não nulos, pivotear a linha sobre as linhas abaixo dela, assim após os pivoteamentos necessários,
os elementos baixo o pivô serão nulos.
23
3°) Se a matriz resultante está escalonada parar o processo, senão efetue as etapas 1°) e 2°) partindo
da segunda linha de A, continue o processo sucessivamente até a penúltima linha não nula, ao
finalizar o processo obtem-se uma matriz el e linha equivalente a A.
Para obter a forma escalonada reduzida (erl), continuar o processo pivotendo as linhas não nulas para
zerar todos os elementos acima de cada pivô. Finalmente usar a multiplicação por escalar de linhas
para obter pivôs iguais a 1.
E XEMPLOS 1.46.
0 6 5 0 −1 1 0 2 −1 −3
L3 −2L1 →L3
1 0 2 −1 −3 L1 ↔L2 0 6 5 0 −1 −→
1. A =
−→
L4 +L1
2 −3 1 −2 −7 2 −3 1 −2 −7 −→
−1 2 −3 1 0 −1 2 −3 1 0
1 0 2 −1 −3 1 0 2 −1 −3
0 6 5 0 −1 2L3 +L 2 →L3 0
6 5 0 −1 −3L4−→
+L2 →L4
0 −3 −3 0 −1 −→ 0 0 −1 0 −3
0 2 −1 0 −3 0 2 −1 0 −3
1 0 2 −1 −3 1 0 2 −1 −3
0 6 5 0 −1 L4 +8L3 →L4 0
6 5 0 −1
0 0 −1 0 −3 −→ 0 0 −1 0 −3 .
0 0 8 0 8 0 0 0 0 −16
A matriz obtida é uma matriz escalonada e linha equivalente a A. Vamos obter a matriz escalo-
nada reduzida linha:
1 0 2 −1 −3 1 0 2 −1 −3
0 6 5 0 −1 L2 +5L 3 →L2 0
6 0 0 −16 L1 +2L 3 →L1
0 0 −1 0 −3 −→ 0 0 −1 0 −3 −→
0 0 0 0 −16 0 0 0 0 −16
1 0 0 −1 −9 1 0 0 −1 −9 9L4 +L1 →L1
−→
−1
0 6 0 0 −16 16 L4 0 6 0
0 −16 16L4 +L2 →L2
0 0 −1 0 −3 −→ 0 0 −1 0 −3 −→
3L4 +L3 →L3
0 0 0 0 −16 0 0 0 0 1 −→
1 0 0 −1 0
0 6 0 0 0 1
0 0 −1 0 0, finalmente realizando 6 L2 → L2 e −1L3 → L3 , temos que a
0 0 0 0 1
1 0 0 −1 0
0 1 0 0 0
matriz erl, linha equivalente a A é,
0 0 1 0 0 .
0 0 0 0 1
24
2 1 2 2 1 2 2 1 2
2 3 1 2 3 1 −L1−→ +L2 →L2
0 2 −1 −2L1 +L2 →L1
L3 ↔L5 −2L +L →L −→
0 0 0 −→ 4 2 3
A= 1
−→3 3 0 0 −1 3L2 +2L4 →L3
−→
1 2 −1 1 2 −1 L1 −2L4 →L4 0 −3 4
−→
4 2 3 0 0 0 0 0 0
−4 0 −5 −4 0 0 −1
L1 1 0 0
0 2 −1 L1 −5L
−→ 3 →L1 4
−→ 0
0 2 0 1 1 0
0 0 −1 L2 −L 3 →L2
−→
0 0 −1 L
−→ 0
2 2 0 1
.
0 0 5 L4 +5L3 →L3 0 0 0 −L3 0 0 0
−→ −→ 0
0 0 0 0 0 0 0 0
1. Dada uma matriz A, é claro que podemos obter diferentes formas escalonadas e equivalentes a
A.
2. Dada uma matriz A, as matrizes escalonadas linha equivalentes a A tem o mesmo número de
pivôs, ou seja o mesmo número de linhas não nulas, isto deve-se aos resultados envolvendo os
conceitos de base e dimensão em espaços vetoriais, tratados no capı́tulo 2.
Demonstração. Por um lado, se A é linha equivalente a B, então a forma erl de B também é uma
forma erl para A, pelo teorema anterior, as formas erl’s de A e B serão iguais. Por outro lado, se A e
B tem a mesma forma erl R, temos
A → R e B → R ⇒ A → R → B ⇒ A → B.
D EFINIÇ ÃO 1.50. Seja A uma matriz de ordem m × n, definimos posto de A como o número de
linhas não nulas (ou número de pivôs) de uma forma escalonada linha-equivalente a A, o posto será
denotado pA . E verifica-se pA ≤ min{m, n}. Define-se a nulidade A como: nA = n − pA .
E XEMPLOS 1.51. Calcule o posto e a nulidade das matrizes dadas.
1 0 −1 1 0 −1 1 0 −1
2 1 −5 L2 −2L1 →L2 0 1 −3 L3 −2L −→ 2 →L3
1 −3
1. A = −→ 0 ,
0 2 −6 0 2 −6 L4 +L 2 →L4 0 0 0
−→
0 −1 3 0 −1 3 0 0 0
logo pA = 2 e nA = 3 − 2 = 1.
25
2 2 0 1 −2L2 +L1 →L2 2 2 0 1 2 2 0 1
−→ 0 2 −4 1 L3 +L2 →L3
0 2 −4 1,
2. A = 1 0 2 0 −2L3 +L1 →L3 −→
1 2 −2 1 −→ 0 −2 4 −1 0 0 0 0
logo pA = 2 e nA = 4 − 2 = 2.
D EFINIÇ ÃO 1.54. A matriz E obtida de Im pela aplicação de exatamente uma operação elementar é
chamada matriz elementar.
Por exemplo, as matrizes E1 , E2 e E3 a seguir são elementares:
1 0 0 0 0 1
L1 ↔L3
I3 = 0 1 0 −→ 0 1 0 = E1 ,
0 0 1 1 0 0
1 0 0 1 0 0
5L2 ↔L2
I3 = 0 1 0 −→ 0 5 0 = E2 e
0 0 1 0 0 1
1 0 0 1 3 0
L +3L2 →L1
I3 = 0 1 0 1 −→ 0 1 0 = E3 .
0 0 1 0 0 1
26
C OROL ÁRIO 1.55. Sejam O1 , . . . , Ok uma sequência de operações e E1 , . . . , Ek as matrizes elemen-
tares associadas.
1 O k O
1. Se F é a matriz quadrada tal que Im −→ . . . −→ F , então F = Ek · . . . · E1 .
1 Ok O
2. Se A e B são matrizes de ordem m × n tais que A −→ . . . −→ B, então B = F A, onde F é a
matriz obtida em 1.
As matrizes elementares são invertı́veis e suas inversas são também matrizes elementares. De fato,
considerando as operações elementares “inversas”em cada caso, temos:
R = Im ⇒ A = F −1 é invertı́vel.
Reciprocamente,
A invertı́vel ⇒ R invertı́vel ⇒ R = Im ,
pois Im é a única matriz erl de ordem m, invertı́vel. Sendo A → Im ⇔ R = Im , concluı́mos
A → Im ⇔ A é invertı́vel.
Mais uma caracterização para uma matriz invertı́vel obtemos notando que:
27
O BSERVAÇ ÃO 1.57. De acordo com o teorema acima, se A é invertı́vel, temos o esquema:
S
A −→ Im
S ,
Im −→ A−1
por praticidade construı́mos uma matriz composta por A e Im , chamada matriz ampliada, denotada
por [A|Im ]. Assim, o processo de inversão consiste em “levar” [A|Im ] em [Im |A−1 ].
1 −2 4
E XEMPLOS 1.58. 1. Seja A = 0 −1 4, veremos que A é invertı́vel e cacularemos sua
−1 0 2
inversa.
1 −2 4 1 0 0 1 −2 4 1 0 0 L1 −2L2 →L1
L1 +L3 →L3 −→
[A|I] = 0 −1 4 0 1 0 −→ 0 −1 4 0 1 0
L3 −2L2 →L3
−1 0 2 0 0 1 0 −2 6 1 0 1 −→
1 0 −4 1 −2 0 L1 −2L3 →L1 1 0 0 −1 2 −2 −L2 →L2
−→
0 −1 4 0 1 0 −→ 0 −1 0
L2 −2L3 →L2 2 −3 2
− 12 L3 →L3
0 0 −2 1 −2 1 −→ 0 0 −2 1 −2 1 −→
1 0 0 −1 2 −2
0 1 0 −2 3 −2 ,
0 0 1 −1/2 1 −1/2
−1 2 −2
∴ A−1 = −2 3 −2 , verifique!
−1/2 1 −1/2
1 0 −1 1
2 1 0 0
2. Seja A = 0 1 1 1. Determinemos se A é invertı́vel.
−1 0 0 2
1 0 −1 1 1 0 −1 1 1 0 −1 1
2 1 0 0 L−→ 2 −2L1
0 1 2 −2 L−→
3 −L2 0 1 2 −2
0 1 1 1 L−→ 4 +L1 0 1 1 1 0 0 −1 3
−1 0 0 2 0 0 −1 3 0 0 −1 3
L1 −L3
−→ 1 0 0 −2 1 0 0 0
L2 +2L3 0 1 0 4 −L3 →L3 0 1 0 8
−→ 0 0 −1 3 −→ 0 0 1 −3 ,
L4 −L3
−→ 0 0 0 0 0 0 0 0
observamos que a matriz A não é linha equivalente a I4 e portanto não é invertı́vel.
Observando que entre as formas erl de uma matriz quadrada de ordem m, a identidade é a única com
posto m e em vista do teorema 1.56, obtemos o seguinte corolário.
C OROL ÁRIO 1.59. Uma matriz A, quadrada de ordem m é invertı́vel, se e somente se, pA = m.
28
Pelo Corolário acima, para determinar se A é invertı́vel ou não, é suficiente obter a forma escalonada
de A (não há necessidade da forma erl).
2 0 −2
E XEMPLO 1.60. Determine se a matriz A = 1 −2 0 é invertı́vel ou não.
−1 0 2
2 0 −2 L1 −2L2 2 0 −2
−→
A = 1 −2 0 L1 +2L3 0 4 −2 , logo pA = 3, portanto A é invertı́vel.
−1 0 2 −→ 0 0 2
1.5 Determinantes
Dada uma matriz quadrada A, o determinante de A é um número real, denotado por det A ou |A|,
que define a invertibilidade da matriz. Iniciamos com o determinante de matrizes de ordem n ≤ 3 e
seguimos com a definição no caso geral.
i) Ordem 1. |[a]| = a
a b
ii) Ordem 2. A = = ad − bc.
c d
a1 a2 a3
iii) Ordem 3. b1 b2 b3 = a1 b2 c3 + a2 b3 c1 + a3 b1 c2 − a1 b3 c2 − a2 b1 c2 − a3 b2 c1 .
c1 c2 c3
Neste caso o valor do determinante é obtido também pela Regra de Sarrus, mas esta regra só se
aplica a este caso e não para ordem maior.
29
D EFINIÇ ÃO 1.62. Uma permutação σ de 1, 2, . . . , n é uma função bijetiva: σ : {1, 2, . . . , n} →
{1, 2, . . . , n}. Uma permutação σ é denotada pelas imagens, na forma (σ(1) . . . σ(n)). Por exemplo,
D EFINIÇ ÃO 1.63. Uma permutação (σ(1) . . . σ(n)) tem uma inversão quando para i < j tem-se que
σ(i) > σ(j), ou seja que o i-ésimo elemento é maior que o j-ésimo elemento. Uma permutação σ é
dita par se o número total de inversões é par, σ é dita ı́mpar, se o número de inversões é ı́mpar.
E XEMPLOS 1.64. Para contar as inversões de uma permutação comparamos cada elemento de (σ(1) . . . σ(n))
com aqueles que estão a sua direita.
e
sgn(132) = sgn(123) = sgn(312) = −1,
Note que, no determinante da matriz de ordem 3, o sinalP± de cada parcela corresponde exatamente
ao signal da permutação envolvida, ou seja: det A = sgn(ijk)ai bj ck . A definição geral é uma
extensão deste caso.
30
D EFINIÇ ÃO 1.66. Seja A = [aij ] uma matriz quadrada de ordem n, definimos o determinante de A
como o número real: X
det A = sgn(σ)a1σ(1) a2σ(2) . . . anσ(n) ,
σ
onde o somatório é sobre todas as permutações de σ de 1, . . . , n. Note que, o elemento a1σ(1) a2σ(2) . . .
anσ(n) representa o produto de n elementos de A, tomados um em cada linha, na ordem usual, e em
colunas diferentes e ordenadas de acordo com a permutação σ.
E XEMPLO 1.67.
3 0 0 2
0 0 −1 0
1. Seja A =
0
.
4 3 0
−2 0 0 −1
Calculemos det(A). Considerando os produtos não nulos de elementos, um em cada linha e em
colunas diferentes, temos:
0 0 0 4
Calculemos det(A). Observe que as parcelas do determinante são nulas, exceto a relativa a
diagonal, então:
det A = sgn(1234) · −3 · 2 · −1 · 4 = 24.
1.5.2 Propriedades
O determinante possui várias propriedades que facilitam os cálculos.
Nos enunciados abaixo, além da notação usual das matrizes, também usamos: A = (L1 , . . . , Ln ),
onde L1 , . . . , Ln representam as linhas de A.
P ROPRIEDADES 1.68.
31
3. Se duas linhas de A são iguais, então det A = 0.
4. Se uma linha de A é nula, então det A = 0.
5. Se B é obtida de A pela aplicação da operação elementar kLi → Li , então det(B) = k det(A)
6. Se B é obtida de A pela aplicação da operação elementar Li + kLj → Li , então det(B) =
det(A).
7. det(A) = det(At ).
8. As propriedades de 1 a 6 são válidas também para colunas.
9. O determinante de uma matriz triângular superior ou inferior é o produto dos elementos da sua
diagonal.
10. Se k é um escalar, então det(kA) = k n det A.
11. A é uma matriz invertı́vel, se e somente se, det(A) 6= 0.
12. Teorema de Binet. Se A e B são matrizes quadradas de ordem n, então
a1σ(1) . . . anσ(n) = aσ−1 (1)1 . . . aσ−1 (n)n = b1σ−1 (1) . . . bnσ−1 (n) .
Observemos que cada inversão em σ: i < j e σ(i) > σ(j) produz uma inversão em σ −1 , pois
colocando i0 = σ(i), j 0 = σ(j) obtemos j 0 < i0 e σ −1 (j 0 ) > σ −1 (i0 ), substituindo σ por σ −1 obtemos
a recı́proca da observação. Daı́ sgn(σ) = sgn(σ −1 ) e portanto,
X X
det A = sgn(σ)a1σ(1) a2σ(2) . . . anσ(n) = sgn(σ −1 )b1σ−1 (1) . . . bnσ−1 (n) = det(At ).
σ σ −1
11) Seja R a matriz erl linha-equivalente a A, sendo que R é obtida pela aplicação de operações
elementares e em vista das propriedades 2, 5 e 6 obtemos det(R) = k · det(A), onde k 6= 0. Ou
seja det(A) 6= 0 ⇔ det(R) 6= 0, considerando que a matriz identidade é a única matriz erl com
determinante não nulo obtemos:
32
1 −4 2
E XEMPLOS 1.69. 1. Calcule o determinante da matriz A = −2 8 −9.
1 3 0
Aplicando operações elementares temos,
1 −4 2 1 −4 2 1 −4 2
−2 8 −9 = 0 0 −5 = − 0 7 −2 = −(1)(7)(−5) = 35.
1 3 0 0 7 −2 0 0 −5
2 −8 6 8
3 −9 5 10
−3 0 1 −2 .
2. Calculemos o determinante da matriz
1 −4 0 6
2 −8 6 8 1 −4 3 4 1 −4 3 4
3 −9 5 10 3 −9 5 10 0 3 −4 −2
=2 =2
−3 0 1 −2 −3 0 1 −2 0 −12 10 10
1 −4 0 6 1 −4 0 6 0 0 −3 2
1 −4 3 4 1 −4 3 4
0 3 −4 −2 0 3 −4 −2
=2 =2 = −36.
0 0 −6 2 0 0 −6 2
0 0 −3 2 0 0 0 1
33
1
P ROPOSIÇ ÃO 1.70. A matriz A é invertı́vel, então det A−1 = .
det A
Demonstração. Sendo A invertı́vel temos o AA−1 = I, calculando o determinante em ambos os
lados:
det(AA−1 ) = det(A) det(A−1 ) = det(I) = 1,
sendo det(A) 6= 0, resulta
1
det A−1 = .
det A
−1 −2 0
E XEMPLO 1.71. Vamos usar o critério acima para determinar se a matriz A = 1 4 1 é
5 0 1
invertı́vel.
−1 −2 0 −1 −2 0 −1 −2 0
det(A) = 1 4 1 = 0 2 1 = 0 2 1 = −12 6= 0.
5 0 1 0 −10 1 0 0 6
Portanto A é invertı́vel.
C OROL ÁRIO 1.72. Seja A uma matriz quadrada de ordem n, temos
A é invertı́vel ⇔ |A| =
6 0 ⇔ pA = n.
Definimos como Matriz de cofatores de A a matriz dada por: Cof (A) = [Cij ]m×m .
34
Os sinais (−1)i+j no cofator do elemento aij , variam com a posição (i, j), como indicado:
+ − + ...
− + − . . .
.
.. .. ..
. . .
2 0 −3
E XEMPLO 1.74. Para a matriz A = 1 1 −1, temos:
−1 2 −1
1 −1 1 −1 1 1
C11 = = 1, C12 = − = 2, C13 = =3
2 −1 −1 −1 −1 2
0 −3 2 −3 2 0
C21 = − = −6, C22 = = −5, C23 = − = −4
2 −1 −1 −1 −1 2
0 −3 2 −3 2 0
C31 = = 3, C32 = − = −1, C33 = = 2.
1 −1 1 −1 1 1
1 2 3
∴ Cof (A) = −6 −5 −4 .
3 −1 2
Teorema 1.75 (Desenvolvimento de Laplace). Dada uma matriz quadrada A = [aij ], de ordem
n ≥ 2, temos
35
o mesmo acontece com o desenvolvimento de Laplace por colunas.
E XEMPLOS 1.78.
3 1 2
1. Calculemos o determinante da matriz A = −2 −4 5 .
5 4 −3
Desenvolvendo pela 3a coluna,
−2 −4 3 1 3 1
det A = (2) · − (5) · + (−3) ·
5 4 5 4 −2 −4
= (2)(12) − (5)(7) + (−3)(−10) = 19.
1 0 0 −1
−3 2 1 2
2. Calculemos o determinante da matriz A = 3 0 0
.
1
2 0 −2 1
Neste caso o é conveniente o desenvolvimento pela 2a coluna.
1 0 −1
det A = (2) 3 0 1 .
2 −2 1
Desenvolvendo novamente pela 2a coluna, temos:
1 −1
det A = (2)(−2)(−1) = (4)(1 + 3) = 16.
3 1
3 7 5 3
3 5 −2 6 0 −1 1 3
−1 1 3
1 2 −1 1 1 2 −1 1
det(A) = = =− 0 3 3
2 4 1 5 0 0 3 3
1 8 0
3 7 5 3 0 1 8 0
−1 1 3
3 3
= − 0 3 3 = −(−1) = −18.
9 3
0 9 3
P ROPOSIÇ ÃO 1.79. Sejam A = [aij ]n×n e Cij seus cofatores. Dados n inteiros b1 , . . . bn , temos que
para todo k = 1, 2, . . . n:
1. b1 Ck1 + . . . + bn Ckn = det(S) e b1 C1k + . . . + bn Cnk = det(T ), onde S é a matriz que resulta
de substituir, em A, a k-ésima linha por [b1 . . . bn ] e T é a matriz que resulta de substituir, em
A, a k-ésima coluna por [b1 . . . bn ]t .
36
2. Em particular, se i 6= k:
Demonstração. 1) Basta calcular det(S) e det(T ) usando Laplace, escolhendo a k-ésima linha de
S e a k-ésima coluna de T respectivamente. 2) Trata-se de determinantes com duas linhas ou duas
colunas iguais.
−2 0 −1 0 −1 −2
C21 = = 2, C22 = = −1, C23 = = −10
0 1 5 1 5 0
−2 0 −1 0 −1 −2
C31 = = −2, C32 = − = 1, C33 = = −2.
4 1 1 1 1 4
4 2 −2
Portanto: adj(A) = 4 −1 1 .
−20 −10 −2
adj(A) · A = [bij ],
Na diagonal, bii = a1i C1i +· · ·+ani Cni = det A. Para i 6= j, ou seja fora da diagonal, pela proposição
1.79, temos bij = a1j C1i + · · · + anj Cni = 0. Portanto:
37
−1 −2 0
E XEMPLO 1.83. Sabemos que a matriz A = 1 4 1 é invertı́vel, com
5 0 1
4 2 −2
det(A) = −12 e adj(A) = 4 −1 1 ,
−20 −10 −2
logo,
4 2 −2
−1
A−1 = 4 −1 1 .
12
−20 −10 −2
38
• No caso geral, tomamos λ ∈ R tal que o vetor v − λu seja perpendicular a u:
Aplicando o caso anterior aos vetores u e u − λv e entendendo vetores de R2 como linhas 1 × 2,
resulta:
u u
a = |det | = |det | = |det(A)|.
v − λu v
onde,
Uma solução do sistema é uma sequência de n valores que atribuı́dos a cada x1 , · · · , xn satisfazem
todas as equações do sistema. Pode-se verificar que um sistema somente pode ter uma única solução,
infinitas soluções ou nehuma solução. Logo, podemos classificar os sistemas como:
1. Sistema Possı́vel Determinado, SPD : quando 1.1 possui uma única solução.
2. Sistema Possı́vel Indeterminado, SPI : quando 1.1 possui infinitas soluções.
3. Sistema Impossı́vel, SI: quando 1.1 não possui solução.
39
Logo o sistema 1.1 é representado pela equação matricial:
A · X = b, (1.2)
onde
X = [xi ] : Matriz coluna das incógnitas,
A = [aij ] : Matriz dos coeficientes do sistema,
b = [bi ] : Matriz coluna dos termos independentes.
Outra matriz útil é a matriz da forma: [A|b], chamada matriz ampliada de A com b.
As soluções do sistema matricial 1.2 são representadas como colunas n × 1 que verificam a igualdade
matricial.
são:
1 1 2
Matriz de coeficientes: A = 2 4 −3.
3 6 −5
9
Matriz de termos independentes: b = 1 .
0
1 1 2 9
Matriz ampliada: [A|b] = 2 4 −3 1 .
3 6 −5 0
• Substituir uma equação pela soma dessa equação e um múltiplo de outra equação.
40
Consideremos o sistema S : A·X = b, notemos que para realizar as operações enunciadas acima com
as equações de S basta aplicar as correspondentes operações elementares na matriz ampliada [A|b],
portanto podemos usar o escalonamento da matriz ampliada para obter um sistema S 0 de solução
simples ou direta e equivalente ao sistema original.
Chamamos Eliminação de Gauss ao método de solução de um sistema linear, que consiste em:
Se no primeiro passo usamos a forma escalonada reduzida de [A|b], o método é chamado de Eliminação
de Gauss-Jordan.
E XEMPLOS 1.85.
1. Consideremos o sistema:
x + y + 2z = 9
2x + 4y − 3z = 1 ,
3x + 6y − 5z = 0
1 1 2 9
A matriz ampliada do sistema é: [A|b] = 2 4 −3 1 . Escalonando [A|b] temos:
3 6 −5 0
1 1 2 9 L2 −2L1 →L2 1 1 2 9
−→ 0 2 −7 −17 3L2 −2L →L
2 4 −3 1
L3 −3L1 →L3 −→3 3
3 6 −5 0 −→ 0 3 −11 −27
1 1 2 9 1
L
1 1 2 9
2 2
0 2 −7 −17 −→ 0 1 −7/2 −17/2 ,
0 0 1 3 0 0 1 3
Agora voltando ao sistema temos:
x + y + 2z = 9
y − 7z/2 = −17/2 ,
z = 3
z = 3 ⇒ y = 2 ⇒ x = 1.
41
2. Resolvamos o sistema:
x − y + 3z = 1
x + z − w = −1
2y + w = 0
2x + y + 4z = 0
1 −1 3 0 1
1 0 1 −1 −1
A matriz ampliada do sistema é: [A|b] =
0 2 0 1
. Escalonando [A|b] temos:
0
2 1 4 0 0
1 −1 3 0 1 1 −1 3 0 1
1 0 1 −1 −1 L2 −L −→ 1 →L1 0 1 −2 −1 −2 L3 −2L −→ 2 →L3
0 2 0 1 0 L4 −2L−→ 1 →L4 0 2 0 1 0 L4 −3L−→ 2 →L4
2 1 4 0 0 0 3 −2 0 −2
1 −1 3 0 1 1 −1 3 0 1
0 1 −2 −1 −2 −L3 +L4 →L4 0 1 −2 −1 −2
0 0
−→ .
4 3 4 0 0 4 3 4
0 0 4 3 4 0 0 0 0 0
Agora voltando ao sistema temos:
x − y + 3z = 1
y − 2z − w = −2 ,
4z + 3w = 4
3 1 7
z = 1 − w ⇒ y = − w ⇒ x = 1 − 3z + y = −2 + w.
4 2 4
Portanto, existem infinitas soluções obtidas determinando valores para w, ou seja o sistema é
SPI.
3. Resolvamos o sistema:
x − y + 3z = 1
x + z − w = −1
2y + w = 0
2x + y + 4z = 1
1 −1 3 0 1
1 0 1 −1 −1
A matriz ampliada do sistema é: [A|b] =
0 2 0 1
. Escalonando [A|b] temos:
0
2 1 4 0 1
42
1 −1 3 0 1 1 −1 3 0 1
1 0 1 −1 −1 L2 −L−→1 →L2
1 −2 −1 −2
L3 −2L2 →L3
−→
0
0 2 0 1 0 L4 −2L
−→ 1 →L4 0 2 0 1 0 L4 −3L2 →L4
−→
2 1 4 0 1 0 3 −2 0 −1
1 −1 3 0 1 1 −1 3 0 1
0 1 −2 −1 −1 −L3 +L4 →L4 → 0 1 −2 −1 −2
0 0
−→ .
4 3 4 0 0 4 3 4
0 0 4 3 5 0 0 0 0 1
Agora voltando ao sistema temos:
x − y + 3z = 1
y − 2z − w = −2
,
4z + 3w = 4
0 = 1
não tem valores que satisfazam simultaneamente todas as equações, logo temos um SI.
pA = p[A|b] = n.
pA = p[A|b] < n.
As variáveis que ao assumir valores quaisquer determinam a solução do sistema são chamadas
de variáveis livres ou independentes, as variáveis restantes são ditas variáves dependentes.
Observemos que n − pA , representa o número de variáveis livres e pA corresponde ao número
de variáveis dependentes. n − p[A|b] é chamado grau de liberdade do sistema.
pA 6= p[A|b] ,
43
2 2 −1 1 −1 L1 +2L2 →L2 2 2 −1 1 3
−→
A = −1 −1 2 1 −1 L1 −2L3 →L3 0 0 3 3 −3
1 3 −1 −1 0 −→ 0 −4 1 3 −1
2 2 −1 1 3 2L1 +L2 →L1
−→ 4 0 −1 5 5
L2 ⇔L3
−→ 0 −4 1 3 −1 1
L
0 −4 1 3 −1
3 3
0 0 3 3 −3 −→ 0 0 1 1 −1
1
L1 +L3 →L1 4 0 0 6 4 L
4 1 1 0 0 3/2 1
−→ 0 −4 0 2 0 −1−→
L2 −L3 →L2 L2
0 1 0 −1/2 0 ,
−→ 0 0 1 1 −1 −→4
0 0 1 1 −1
voltando ao sistema temos:
x1 + 3x4 /2 = 1
x2 − x4 /2 = 0 .
x3 + x4 = −1
Como pA = 3 = p[A|b] < n = 4 o sistema é SPI, com grau de liberdade 1, variável indepen-
dente x4 e solução:
x1 = 1 − 6t, x2 = 2t e x3 = −1 − 4t e x4 = 4t, com t qualquer.
2. Discuta a solução do sistema, de acordo com os valores dos parâmetros a e b.
x + y + az = 1
x + 2y + z = 2
2x + 5y − 3z = b
A · X = 0, (1.3)
44
P ROPRIEDADES 1.87. Seja A · X = 0 um SLH.
1. SLH sempre admite solução seja determinada ou indeterminada, pois a coluna X = 0n×1 , é
uma solução, de fato: A · 0n×1 = 0m×1 .
2. SLH sistema é SPD, com solução X = 0n×1 , se e somente se, pA = n, pois a condição
p[A|0] = pA é automaticamente verificada.
3. SLH é SPI, se e somente se, pA < n. Neste caso, para obter as soluções escalonamos somente
a matriz de coeficientes, já que a coluna de termos independentes nulos não muda pela ação de
operações elementares.
E XEMPLO 1.88. Resolvamos o sistema homogêneo:
2x1 + 2x2 − x3 + x4 = 0
−x1 − x2 + 2x3 + x4 = 0 ,
x1 + 3x2 − x3 − x4 = 0
Como, pA ≤ 3 < 4, claramente o sistema é SPI com grau de liberdade nA = 1. Usando o exemplo
1.86 temos:
2 2 −1 1 1 0 0 3/2
A = −1 −1 2 1 −→ 0 1 0 −1/2 ,
1 3 −1 −1 0 0 1 1
voltando ao sistema temos:
3
x1 + x
2 4
= 0
1
x2 − x
2 4
= 0 ,
x3 + x4 = 0
As soluções do sistema não homogêneo (SNH) A · Y = b (quando existem) e do homogêneo 1.3 estão
associadas.
P ROPOSIÇ ÃO 1.89. Se existirem, toda solução do sistema não homogêneo (SNH) A · Y = b é da
forma:
Y = X0 + XH ,
onde X0 é uma solução particular do sistema (SNH) e XH é solução do sistema homogêneo 1.3.
45
1.6.3 Solução por Inversão
P ROPOSIÇ ÃO 1.90. Consideremos um sistema com m equações e m incógnitas, na forma matricial
A · X = b. Então, o sistema será SPD, se e somente se, a matriz quadrada, A, de coeficientes é
invertı́vel, neste caso a única solução é X = A−1 · b.
1 −2 4
Neste caso, A = 0 −1 4 de acordo com o exemplo 1.58(1), A é invertı́vel e
−1 0 2
−1 2 −2
A−1 = −2 3 −2 ,
− 21 1 − 12
x −1 2 −2 6 −4
−1
logo, X = y = A b = −2 3 −2
7 = −3 .
1 1
z −2 1 −2 6 1
Logo x = −4, y = −3 e z = 1.
Teorema 1.92. Dada uma matriz quadrada A de ordem m, as seguintes sentençãs são equivalentes.
(a) A é invertı́vel.
(b) det(A) 6= 0.
(c) pA = m
(d) Para toda coluna b de ordem m × 1, o sistema matricial A · X = b tem pelo menos uma solução.
46
(g) Existe uma matriz C tal que C · A = Im .
Demonstração. Sabemos que (a) ⇔ (b) ⇔ (c). Para as restantes equivalências seguir na ordem:
A · (Bb) = (A · B)b = Im · b = b.
1
X = A−1 · b = adj(A) · b,
det(A)
notemos o produto:
C11 C21 C31 b1 b1 C11 + b2 C21 + b3 C31
adj(A) · b = Cof (A)t · b = C12 C22 C32 · b2 = b1 C12 + b2 C22 + b3 C32
C13 C23 C33 b3 b1 C13 + b2 C23 + b3 C33
47
b1 C11 + b2 C21 + b3 C31
1
portanto X = b1 C12 + b2 C22 + b3 C32 , ou seja
det(A)
b1 C13 + b2 C23 + b3 C33
b1 C11 + b2 C21 + b3 C31 b1 C12 + b2 C22 + b3 C32 b1 C13 + b2 C23 + b3 C33
x1 = , x2 = e x3 = ,
det(A) det(A) det(A)
mas pela proposição 1.79 podemos escrever os numeradores como determinantes, obtemos:
b1 a12 a13 a11 b1 a13 a11 a12 b1
b2 a22 a23 a21 b2 a23 a21 a22 b2
b3 a32 a33 a31 b3 a33 a31 a32 b3
x1 = , x2 = e x3 = .
det(A) det(A) det(A)
P ROPOSIÇ ÃO 1.93 (Regra de Crammer). Se A é uma matriz quadrada invertı́vel, de ordem
m e b é
x1
..
uma coluna de ordem m × 1, então o sistema linear A · X = b tem solução única X = . dada
xm
por:
det(A(1, b)) det(A(2, b)) det(A(m, b))
x1 = , x2 = , . . . , xm = ,
det(A) det(A) det(A)
onde A(j, b) é a matriz que resulta de substituir em A a j-ésima coluna pela coluna b.
N H3 + O2 −→ N + H2 O .
| {z } | {z }
reagentes produto
xN H3 + yO2 −→ zN + wH2 O.
Determine a equação balanceada.
De acordo com a Lei de conservação da massa, a quantidade de átomos de um elemento presentes
nos reagentes deve ser igual a presente nos produtos.
Coeficientes estequeométricos: x, y, z, w soluções inteiras positivas do sistema linear.
Nitrogêneo : x=z x−z = 0
Hidrogêneo : 3x = 2w ⇒ 3x − 2w = 0
Oxigêneo : 2y = w 2y − w = 0
48
1 0 0 −2/3
−→ 0 1 0 −1/2 ⇒ x = 2w/3, y = w/2, z = 2w/3, w natural.
0 0 1 −2/3
Com w = 6 obtemos x = 4; y = 3; z = 4.
∴ 4N H3 + 3O2 −→ 4N + 6H2 O.
49
Capı́tulo 2
ESPAÇOS VETORIAIS
2.1 Introdução
O plano munido de um sistema de coordenadas cartesianas,
é o exemplo mais tı́pico de espaço vetorial. R2 também representa o conjunto de vetores de um plano,
desde que todo vetor é considerado como idéntico a um com origem em O = (0, 0), com mesmo
comprimento, sentido e direção, assim vetores são entendidos como iguais às coordenadas do seu
extremo. O conjunto de vetores do plano, R2 , possui duas operações conhecidas: adição de vetores e
multiplicação de escalar por vetor,
u + v = w = (a + b, b + d) ∈ R2 ,
50
• Multiplicação de vetor por escalar: Se λ ∈ R e v = (a, b) ∈ R2 , então a multiplicação de
λ por v, é o vetor: λv = (λa, λb) ∈ R2 , geometricamente entendido como um vetor na reta
determinada por v, com comprimento e sentido determinado por λ.
Notemos que vetores de R2 podem ser entendidos também como matrizes coluna 2 × 1, visto que a
única diferença ao efetuar as operações é a notação.
Em resumo, R2 possui duas operações, uma entre vetores resultando em vetor que é a adição de
vetores e outra de real por vetor resultando vetor, que é a multiplicação por escalar, sendo que estas
operações possuem uma série de propriedades algébricas. Um espaço vetorial basicamente, é uma
generalização deste conjunto geométrico de vetores, de suas operações de soma e multiplicação por
escalar e de suas propriedades. Nesta generalização, no lugar de R2 considera-se um conjunto não
vazio V e no lugar de escalares em R usamos elementos de um conjunto com estrutura de corpo,
de forma que seja possı́vel efetuar as operações com propriedades análogas às de R2 . Definiremos a
estrutura de corpo e posteriormente o conceito de espaço vetorial.
51
M1) A multiplição é Associativa: (x · y) · z = x · (y · z), ∀x, y, z ∈ K.
M2) A multiplição é Comutativa: x · y = y · x, ∀x, y ∈ K.
M3) Existência da Unidade: Existe 1 ∈ K, com a propriedade: x · 1 = 1 · x = x, ∀x ∈ K.
M4) Existência dos Inversos: Para cada x 6= 0, x ∈ K, existe o elemento x−1 ∈ K, que verifica,
x · x−1 = x−1 · x = 1, ∀ x ∈ K.
M5) Distributividade: Para todos x, y, z ∈ K, x · (y + z) = x · y + x · z.
E XEMPLO 2.2.
+ 0 1 · 0 1
0 0 1 0 0 0
1 1 0 1 0 1
D EFINIÇ ÃO 2.3. Consideremos um conjunto não vazio V e um corpo K, (normalmente será R),
onde existem as operações de adição e de multiplicação por escalar:
Dizemos que V com as operações acima é um Espaço Vetorial sobre K, se são satisfeitas:
E1) Associatividade da Adição: Para todos u, v, w ∈ V , temos
(u + v) + w = u + (v + w).
u + v = v + u.
E3) Existência do Zero: Existe um elemento, denotado por 0V ∈ V (ou simplesmente 0), com a
propriedade
v + 0V = 0V + v = v.
v + (−v) = (−v) + v = 0V .
(λβ)v = λ(βv).
52
E6) Para todos λ, β ∈ K e v ∈ V ,
(λ + β)v = λv + βv.
Os elementos de V são ditos vetores, o elemento zero é dito vetor nulo e os elementos de K são ditos
escalares.
V é dito Espaço Vetorial Real, caso K = R ou Espaço Vetorial Complexo, caso K = C. Nestas
notas estaremos trabalhando principalmente com espaços vetoriais reais.
53
P ROPOSIÇ ÃO 2.5. Seja V um espaço vetorial, então para todo v ∈ V e λ ∈ R, temos:
1. 0v = 0V .
2. λ0V = 0V .
3. −1v = −v.
2. λ0V = λ(0V + 0V ) = λ0V + λ0V , substraindo de ambos os lados λ0V , temos, λ0V = 0V .
O BSERVAÇ ÃO 2.6. Um espaço vetorial real, V , também é um espaço vetorial sobre o corpo Q, pois
λv ∈ V, ∀ λ ∈ R ⇒ λv ∈ V, ∀ λ ∈ Q.
D EFINIÇ ÃO 2.7. Consideremos um espaço vetorial real V e um conjunto não vazio W ⊂ V . W será
dito Subespaço vetorial de V , se são satisfeitas:
1. As operações de V podem ser definidas em W , ou seja que adição e multiplicação por escalar
de V verificam:
• Para todos u, v ∈ W , u + v ∈ W
• Para todo u ∈ W e λ ∈ R, λu ∈ W .
O BSERVAÇ ÃO 2.8. Devido a que várias propriedades necessárias para W ser um espaço vetorial
munido das operações de V são transladadas de V para W , para verificar que W é um subespaço de
V é suficiente que,
SV3. 0V ∈ W .
E XEMPLOS 2.9.
54
1. Se V é um espaço vetorial, trivialmente {0V } e V serão subespaços de V .
2 x
2. Se V = R , a reta W = { ∈ R2 | y = 3x} é um subespaço vetorial real de V . Para verificar
y
x 2 x 1
este fato, reescrevemos W = { ∈ R | y = 3x} = { | x ∈ R} = {x | x ∈ R} e
y 3x 3
testamos as condições da obervação 2.8.
1 1
• Se u = x ev=y ∈ W , temos
3 3
1 1 1
u+v =x +y = (x + y) ∈ W.
3 3 3
1
• Se u = x ∈ W e λ ∈ R, temos
3
1 1
λu = λ(x ) = (λx) ∈ W.
3 3
0 1
• =0· ∈ W.
0 3
Analogamente, toda reta de R2 que passa pela origem é um subespaço vetorial de R2 . Enquanto
que uma reta que não passa pela origem não será um subespaço vetorial de R2 , por não conter
o vetor nulo.
3. Em V = R3 , as retas e planos que passam pela origem (0, 0, 0), são subespaços vetoriais.
W = {X = (x1 , . . . , xn ) | A · X = 0}.
W é um subespaço vetorial de Rn , pois:
55
• 0 ∈ W , já que A · 0 = 0
• Se X, Z ∈ W , então A · (X + Z) = A · X + A · Z = 0 + 0 = 0,
• Se X ∈ W e λ ∈ R, então
A · (λX) = λ(A · X) = λ0 = 0.
5. No espaço vetorial das matrizes V = Mm×m (R), temos os seguintes subespaços vetoriais:
W1 = {A ∈ V | A é diagonal}
W2 = {A ∈ V | A é simétrica} = {A ∈ V | At = A}.
De fato, no caso de W2 , de acordo com o exemplo 1.29, temos que as operações de soma de
matrizes simétricas e multiplicação por escalar de uma matriz simétrica são ambas simétricas.
É claro também que 0V ∈ W2 pois 0V é simétrica.
P(R) = {p(x) = a0 + a1 x + . . . + an xn | a0 , a1 , . . . , an ∈ R, n ≥ 0} ,
Pn (R) = {p(x) = a0 + a1 x + . . . + an xn | a0 , a1 , . . . , an ∈ R} .
Pn (R) ⊂ P(R).
7. No espaço vetorial F(I, R), onde I é um intervalo real, temos o subespaço das funções contı́nuas
de I em R, denotado C(I).
x 2 1 2
W2 = { | x = y }, pois por exemplo ∈ W2 , mas ∈
/ W2 .
y 1 2
56
2.4 Combinação Linear e Espaço gerado
Consideremos um espaço vetorial V . Sejam v1 , . . . , vn vetores de V e consideremos os vetores da
forma:
v = α1 v1 + . . . + αn vn ∈ V,
Assim, para mostrar uma combinação linear dos vetores v1 e v2 , escolhemos escalares α e β e calcu-
lamos αv1 + βv2 . Por outro lado, dado
um vetor v de R3 , como determinar se v é uma combinação
1
linear de v1 e v2 ? Por exemplo v = 5 é uma combinação linear de v1 e v2 ? E o que dizer sobre
7
3
v = 1 ?
0
57
1 1
• Para o caso v = 5 , procurando escalares α e β, tais que 5 = αv1 + βv2 , temos
7 7
−1 2 1 −1 2 1 −α + 2β = 1
α
α 1 + β 0 = 5 ⇔ 1 0 = 5 ⇔ α = 5 .
β
2 −1 7 2 −1 7 2α − β = 7
α1 v1 + α2 v2 + . . . + αn vn = A · w,
onde A é a matriz m × n, dada por blocos na forma A = v1 | . . . |vn e w = [αi ]n×1 . Logo, um vetor
v ∈ Rm será c. l. de v1 , . . . , vn se, e somente se, o sistema linear Aw = v tem solução w ∈ Rn , do
tipo SPD ou SPI.
W = {α1 v1 + α2 v2 + . . . , +αn vn | α1 , . . . , αn ∈ R} ⊆ V.
58
SV3. 0V = 0v1 + . . . + 0vn ∈ W.
W = ger{v1 , . . . , vn } ou W = [S].
E XEMPLO
2.13. Determine
a(s) equação(ões)
que definem o subespaço de R3 , gerado pelos vetores
2 −1 a
u = 1 e v = −1 . Neste caso, b ∈ ger{u, v} se, e somente, se existem α, β ∈ R, tais que:
−1 3 c
2 −1 a 2 −1 a
α
α 1 + β −1 = b , ou seja
1 −1 = b .
β
−1 3 c −1 3 c
59
2. Se u, v são vetores não nulos de R3 e não paralelos (u 6= kv, ∀k ∈ R). Então o subespaço
ger{u, v} é o plano determinado por u e v.
60
E XEMPLOS 2.15.
1. Dado v = (4, −2, 2) ∈ R3 , W = ger{v} é a reta de R3 que passa pela origem e que contém o
vetor v, que podemos descrever como,
61
x
assim, y ∈ W , se e somente se, o sistema tem solução ou seja, x + z = 0. Esta equação é a
z
que representa o plano ger{u, v}.
−2 0
2 3
3. Determine as equações que definem o espaço W gerado pelos vetores de R4 : { 2 , 2 }.
−2 1
−1 0
1 3
Notemos que W também é gerado por {u = 1 , v = 2}. Vamos determinar as
−1 1
condições sobre x, y, z, w ∈ R de forma que a equação αu + βv = (x, y, z, w) tenha solução.
Assim, temos o sistema:
−1 0 x −1 0 x
1 3 y 1 3 α y
α 1 + β 2 = z , ou seja 1 2 β = z .
−1 1 w −1 1 w
A matriz ampliada do sistema é:
−1 0 x
1 3 y
[A|B] = 1 2 z , escalonando, temos:
−1 1 w
−1 0 x −1 0 x −1 0 x
0 3 x+y 0 1 x+w 0 1 x+w
0 2 x+z → 0 2 x+z →
,
0 0 −x + z − 2w
0 1 x+w 0 3 x+y 0 0 −2x + y − 3w
assim, o sistema tem solução se, e somente se, x − z + 2w = 0 e 2x − y + 3w = 0, portanto:
W = {(x, y, z, w) ∈ R4 | x − z + 2w = 0 e 2x − y + 3w = 0}.
62
Rn é um espaço finitamente gerado, P(R) e F (I, R) não tem essa propriedade.
2. O conjunto usual de geradores do espaço vetorial M (m × n, R) é o conjunto de mn matrizes:
(
1, se i = s e j = t
{E11 , E12 , . . . , Est , . . . , Emn }, onde Est = [aij ], aij = ,
0, o. c.
A seguinte propriedade mostra que o espaço gerado por um conjunto finito S é “o menor subespaço
que contém S”e é útil para determinar quando dois conjuntos geram o mesmo subespaço.
P ROPOSIÇ ÃO 2.17. 1. Se W é um subespaço e S um conjunto finito de vetores de W , então:
S ⊂ W ⇒ ger{S} ⊂ W.
63
D EFINIÇ ÃO 2.19. Consideremos o conjunto S = {v1 , . . . , vn }, de vetores de V . Diremos que S é
linearmente independente (LI), se a única solução da equação:
α1 v1 + α2 v2 + . . . + αn vn = 0V
é, α1 = α2 = . . . = αn = 0. Caso exista uma solução com alguns escalares não nulos, diremos que
S é linearmente dependente (LD).
N OTA 2.21. De 2.20(3), veja que um conjunto S com dois vetores não nulos verifica,
E XEMPLOS 2.22.
−2 4
1. {u = 3 , v = −6} é LD, pois v = −2u.
1 −2
1 1
{w = 0 , z = −1} é LI, pois w 6= kz, ∀k ∈ R.
2 2
−2 1 1
2. { 1 , −1 , −1} é LI. De fato, consideremos a equação:
1 1 −1
−2 1 1 0
α 1 + β −1 + γ −1 = 0 ,
1 1 −1 0
64
Para determinar se a solução do sistema é única (portanto nula) ou não, podemos calcular o
posto.
−2 1 1 −2 1 1 −2 1 1
1 −1 −1 → 0 −1 −1 → 0 −1 −1 ,
1 1 −1 0 3 −1 0 0 −4
logo o posto é 3, assim a solução é única e nula, portanto S é LI.
O BSERVAÇ ÃO 2.23. No caso V = Rm e S = {v1 , . . . , vn } ⊆ V , para determinar se S é LI ou LD
considere a matriz A, de ordem m × n, cujas colunas são os vetores de S e observamos que o posto
de A determina o tipo de solução do sistema homogêneo AX = 0, logo:
• No caso m = n, temos
pA = m ⇔ A invertı́vel ⇔ det A 6= 0 ⇔ S é LI
pA < m ⇔ A não invertı́vel ⇔ det A = 0 ⇔ S é LD.
2 −1 3
Temos:
1 0 2 1 0 2 1 0 2
−1 2 0
0 2 2 0 1 1
A=
0 → → ,
1 1 0 1 1 0 0 0
2 −1 3 0 −1 −1 0 0 0
o posto é 2 < 3, logo o conjunto de vetores é LD.
2. Em R4 , o conjunto de vetores
1 −1 1
0 0 2
0 , 2 , 0}
{
1 1 1
65
1 −1 1
0 0 2
Considerando A =
0 2 0, temos o determinante de uma submatriz:
1 1 1
0 0 2
0 2 0 = −4 6= 0, ∴ o conjunto é LI.
1 1 1
1. S é um conjunto LI
2. S gera V .
E XEMPLOS 2.26.
66
logo S é LI, também gera R3 , pois claramente o sistema AX = b terá solução para todo b ∈ R3 .
Portanto S é uma base para V .
O BSERVAÇ ÃO 2.27. Como colocado no exemplo 2.26(2), em Rn um conjunto com n vetores {v1 , . . . , vn }
será uma base, se e somente se, det A 6= 0, onde A é a matriz cujas colunas (ou linhas) são os vetores
v1 , . . . , vn .
1 1 3
3
E XEMPLO 2.28. Consideremos os vetores de R , u = 1 , v = 0 e w = 1.
0 −2 1
Como
1 1 3 1 1 0 1 1 0
1 0 1 = 0 −1 −2 = 0 −1 −2 = −5 6= 0,
0 −2 1 0 −2 1 0 0 5
logo o conjunto é uma base para R3 . Em casos deste tipo os vetores podem ser as linhas ou colunas
de A, pois det A = det At .
A seguinte proposição contém resultados que mostram que todas as bases de um espaço vetorial tem
o mesmo número de vetores.
P ROPOSIÇ ÃO 2.29. Seja V é um espaço vetorial, que possui uma base com exatamente n vetores,
então temos:
67
sendo B LI, temos:
m
X
aij xj = 0, ∀ i = 1, . . . , n,
j=1
3. Decorre de (1) e (2) que uma base, isto um conjunto gerador e LI, dever ter exatamente n
vetores.
D EFINIÇ ÃO 2.30. Dizemos que um espaço vetorial V tem dimensão finita quando tem uma base
composta por um número finito de vetores. Neste caso, dizemos que V tem dimensão n se suas bases
possuem n elementos, neste caso escrevemos
dimV = n.
E XEMPLOS 2.31.
1. dimRn = n.
2. Seja W = ger{v} , com v 6= 0. Claramente {v} é LI e gera, logo é uma base de W , assim
dimW = 1. Em R2 ou R3 o espaço gerado por um vetor não nulo e tem dimensão 1.
W = {(x, y, z) ∈ R3 | 3x − 2y + 5z = 0}.
3x + 5z
De fato, y = logo,
2
x x
y = (3x + 5z)/2
z z
x 0
= 3x/2 + 5z/2
0 z
1 0
= x 3/2 + z 5/2 , ∀x, z ∈ R.
0 1
68
Assim temos que W é gerado por:
1 0 2 0
{ 3/2 , 5/2} ou por
{ 3 , 5},
0 1 0 2
2 0
logo conjunto B = {3 , 5} é gerador de W , B também é LI, pois os vetores não são
0 2
múltiplos, logo B é uma base para W , portanto W é um plano e dimW = 2.
5. dim(Pn (R)) = n + 1, pois de acordo com o exemplo 2.26 sua base usual tem n + 1 vetores.
6. dim(M (m × n, R)) = mn, pois no exemplo 2.26 temos uma base com mn matrizes.
As propriedades abaixo mostram a existência de bases em espaços finitamente gerados e também são
úteis para construição bases a partir de conjuntos LI ou geradores.
• B é LI ⇔ B é base de V
• B gera V ⇔ B é base de V.
1. dimW ≤ dimV.
2. dimW = n ⇔ W = V.
A seguinte proposição providencia um processo para determinar bases para o espaço gerado por um
conjunto de vetores do espaço Rn .
P ROPOSIÇ ÃO 2.34. Sejam A uma matriz de ordem m × n e B sua forma escalonada linha, conside-
rando as linhas das matrizes como vetores de Rn , temos que as linhas não nulas de B formam uma
base para o espaço gerado pelas linhas de A.
69
E XEMPLO 2.35. Determine uma base para o subespaço W de R3 gerado pelos vetores
1 2 −2 −1
u = 2 , v = 7 , w = −1 , z = 1 .
−1 −1 3 2
1 2 −1 1 2 −1 1 2 −1
2
7 −1 → 0 3 1 → 0 3 1 .
−2 −1 3 0 3 1 0 0 0
−1 1 2 0 3 1 0 0 0
1 0
Portanto uma base para W é { 2 , 3} e dimW = 2. Neste caso qualquer par de vetores entre
−1 1
os dados é uma base, pois serão 2 vetores LI em um espaço com dimensão 2.
N ul(A) = {X ∈ Rn | A · X = 0}.
2 1 −1 1
E XEMPLO 2.36. Seja A = 1 1 −2 −1 , determinemos uma base para W = N ul(A).
1 2 −5 −4
Temos que W é o subespaço de R4 das soluções do sistema homogêneo,
x
2 1 −1 1 0
1 1 −2 −1 y = 0 .
z
1 2 −5 −4 0
w
Escalonando A temos,
2 1 −1 1 2 1 −1 1 2 0 2 4 1 0 1 2
A = 1 1 −2 −1 → 0 −1 3 3 → 0 1 −3 −3 → 0 1 −3 −3 .
1 2 −5 −4 0 −3 9 9 0 0 0 0 0 0 0 0
70
−1 −2
3 3
Portanto dim W = 2 e uma base para W é {
1 , 0 }.
0 1
Sabemos que as soluções do sistema homogêneo A · X = 0 são determinadas pelas variáveis livres, o
número destas é exatamente o grau de liberdade do sistema, dado por nA = n − pA que já foi definido
(vide definição 1.50 do Cap. I) como nulidade de A.
O vetor solução X ∈ N ul(A) é determinado como combinação linear de nA vetores v1 , . . . , vnA de
Rn ,
X = s1 v1 + . . . + snA vnA ,
onde os escalares são as variáveis independentes, como em 2.1, logo o conjunto B = {v1 , . . . , vnA }
gera N ul(A). Por outro lado,
X = 0 ⇒ s1 = 0, . . . , snA = 0,
ou seja que o conjunto B é LI, portanto determinará uma base para N ul(A).
Os vetores da base B podem ser determinados atribuindo 1 a uma variável independente e 0 as res-
tantes. Concluı́mos então que:
dim N ul(A) = nA = n − pA .
71
Logo, o conjunto é LD. Notando que tem no máximo 2 vetores LI, concluı́mos que dim(Col(A)) = 2
e uma base para Col(A) é
1 2
{ 2 , 9}.
−1 3
O teorema abaixo estabelece que os postos linha e coluna são iguais e seu valor é pA .
U ∩ W = {u ∈ V | u ∈ U e u ∈ W } ,
72
E XEMPLOS 2.43. 1. Sejam V = R3 e U, W planos que contém 0V = (0, 0, 0). Caso U = W ,
temos que U ∩ W = U = W é um subespaço vetorial, caso U 6= W , temos que U ∩ W é uma
reta que contém 0V e portanto também é um subespaço vetorial de V .
2. Sejam V = R3 e U e W duas retas diferentes que passam pela origem, neste caso temos o
subespaço vetorial: U ∩ W = {0V } .
P ROPOSIÇ ÃO 2.45 (Subespaço soma). Se U e W são subespaços de V , então a soma U +W também
é um subespaço de V . U + W qual contém U e W .
73
E XEMPLOS 2.46.
74
O BSERVAÇ ÃO 2.47. Notemos que se temos bases: {u1 , . . . uk } e {w1 , . . . , wr }, para os espaços
U e W , respectivamente, então a união destas bases:
{u1 , . . . , wr } ,
será um conjunto gerador para U + W .
Notemos que:
1 0 1 0
U = ger{0 , 1} e W = ger{1 , 0}.
1 1 0 1
Então,
1 0 1 0
U + W = ger{ 0 , 1 , 1 , 0}.
1 1 0 1
Notemos que dim(U + W ) = 3, pois temos 3 vetores LI, de fato:
0 1 0
1 1 0 = −1 6= 0.
1 0 1
Então, U + W = R3 .
Determinemos uma base para U ∩ W .
x
y ∈ U ∩ W ⇔ x + y − z = 0 ⇔ x = y = 1 z, z ∈ R,
x−y = 0 2
z
tomando z = 2λ obtemos:
x λ 1
y ∈ U ∩ W ⇔ λ = λ 1 , λ ∈ R.
z 2λ 2
Logo dim(U ∩ W ) = 1. Portanto verifica-se:
75
D EFINIÇ ÃO 2.50. No caso U ∩ W = {0V }, o espaço V = U + W é dito soma direta de U e W e
usamos a notação V = U ⊕ W
No caso de soma direta, temos dim(U ∩ W ) = dim{0V } = 0, logo dim(U ⊕ W ) = dimU + dimW .
Nesse caso, uma reunião de bases de U e de W , terá o número de vetores igual a dim(U ⊕ W ), logo
a reunião de bases é uma base para a soma direta.
No exemplo anterior, V não é soma direta de U e W .
E XEMPLO 2.51. Um exemplo de soma direta é o plano V , determinado por dois vetores LI u e
w, neste caso tomando os subespaços de V : U = ger{u} e W = ger{w}, temos claramente que
V = U ⊕ W.
O BSERVAÇ ÃO 2.52. Da propria definição temos que todo vetor do espaço V = U + W é composto
por somas de dois vetores, um em U e o outro em W . Agora se a soma é direta, ou seja V = U ⊕ W ,
além de cada vetor de V ser da forma: v = u + w, com u ∈ U e w ∈ W , as componenetes de v em
U e W são únicas, ou seja que:
v = u + w = u0 + w0 , com u, u0 ∈ U e w, w0 ∈ W ⇒ u − u0 = w0 − w ∈ U ∩ W
⇒ u − u0 = 0 e w − w 0 = 0
⇒ u = u0 e w = w0 .
76
D EFINIÇ ÃO 2.53. Nas condições acima e dado v ∈ V , chamamos coordenadas de v com relação a
base α ao vetor coluna:
x1
..
[v]α = . ∈ Rn .
xn
De forma que
x1
v = x1 v1 + . . . + xn vn ⇔ [v]α = ... .
xn
E XEMPLOS 2.54.
1 0
n .. ..
1. Sejam V = R e a base canônica ordenada α = {e1 = . , . . . , en = . }. Neste caso para
0 1
n
qualquer vetor de R , temos
x1 1 0
.. .. ..
v = . = x1 . + . . . + xn . = x1 e1 + . . . + xn en , ou seja:
xn 0 1
x1
..
[v]α = . = v, para todo v ∈ Rn .
xn
1 2 0
3
2. Seja V = R , afirmamos que β = {u1 = −1 , u2 = −1 , u3 = 1} é uma base para V
0 −1 1
(verifique!).
x
(a) Determinemos as coordenadas de um vetor v = y ∈ V em relação a base ordenada β,
z
temos,
a 1 2 0 x 1 2 0 a x
[v]β = b ⇒ a −1 + b −1 + c 1 = y ⇔ −1 −1 1
b = y .
c 0 −1 1 z 0 −1 1 c z
O sistema pode ser resolvido por inversão pois a solução é única, ou seja é SPD, logo a matriz
de coeficientes é invertı́vel. Usando qualquer processo de inversão de matrizes, obtemos:
−1
a 1 2 0 x 0 −2 2 x
1
[v]β = b = −1 −1 1 y = 1 1 −1 y ,
2
c 0 −1 1 z 1 1 1 z
77
assim
−2y + 2z
1
[v]β = x + y − z .
2
x+y+z
1. [u]α = 0Rn ⇔ u = 0V .
2. [u]α = [v]α ⇔ u = v
4. [λu]α = λ[u]α
que associa [v]α e [v]C , veremos que em geral temos uma relação similar entre coordenadas de um
mesmo vetor em duas bases do espaço.
a1
..
Consideremos, [u]α = . , escalares de u com relação à base α. Determinemos os escalares [u]β .
an
Temos,
u = a1 u1 + . . . + an un ,
logo,
78
[u]β = [a1 u1 + . . . + an un ]β
= a1 [u1 ]β + . . . + an [un ]β
a
.1
= [u1 ]β | . . . | [un ]β · ..
an
= [u1 ]β | . . . | [un ]β · [u]α
A matriz acima cuja j-ésima coluna é o vetor [uj ]β , é chamada matriz mudança de base, da base α
para base β e é denotada por [I]αβ , ou seja
ou seja que, fixadas as bases α, β a matriz [I]αβ é a única que verifica a igualdade acima.
Resumindo em um diagrama,
de forma prática, conhecendo [u]α podemos determinar [u]β multiplicando pela matriz [I]αβ .
As seguintes propriedades auxiliam nos cálculos de matrizes mudança de base e coordenadas de
vetores.
1. Inversa de uma matriz Mudança de base. A matriz [I]αβ é invertı́vel, pois notemos que para
todo u ∈ V ,
[u]β = [I]αβ [u]α e [u]α = [I]βα [u]β
logo,
[u]α = [I]βα ([I]αβ [u]α ) = ([I]βα [I]αβ )[u]α , ∀ u ∈ V ⇒ [I]αβ [I]βα = In ,
79
4. Mudança de bases em Rn . A matriz mudança de base, da base α = {u1 , . . . , un } para a base
canônica C de Rn é simplesmente, [I]αC = [u1 · · · un ]. Já a matriz mudança de base entre
bases quaisquer α e β de Rn pode ser calculada da forma,
β −1
[I]αβ = [I]C α α
β [I]C = ([I]C ) [I]C .
E XEMPLOS 2.56.
2 1 1 −1
1. Sejam V = R2 e as bases de R2 : α = { , }eβ ={ , }. Determine as matrizes
1 1 1 0
mudança de bases [I]αβ , [I]βα .
Primeira forma. Para obter [I]αβ calcularemos as coordenadas, na base β, de um vetor qualquer
x
u= . Notemos que,
y
a 1 −1 x 1 −1 a x
[u]β = ⇒a +b = ⇔ =
b 1 0 y 1 1 b y
x a y
cuja solução é a = y e b = y − x, ou seja [ ] = = .
y β b y−x
2 1 1 1
Logo, [ ] = e [ ] = . Portanto,
1 β −1 1 β 0
α 1 1 β α −1 0 −1
[I]β = e [I]α = ([I]β ) = .
−1 0 1 1
Segunda forma. Sabemos que [I]αβ = ([I]βC )−1 [I]αC , onde C é a base canônica de R2 , temos
−1
α 2 1 β 1 −1 β −1 1 −1 0 1
[I]C = , [I]C = e ([I]C ) = = .
1 1 1 0 1 0 −1 1
α 0 1 2 1 1 1
[I]β = = .
−1 1 1 1 −1 0
0 0 1
3 3
2. Considere V = R , α a base canônica de R e a base β = { 0 , −2 , 0 }. Calcule [I]βα
1 1 −1
α
e [I]β .
0 0 1
Claramente, [I]βα = 0 −2 0 .
1 1 −1
Fazendo o processo de inversão obtemos:
−1
0 0 1 1 1/2 1
[I]αβ = 0 −2 0 = 0 −1/2 0 .
1 1 −1 1 0 0
80
−2 0 2 1 1 0
3
3. Considere as bases de R , α = { 0 , −1 , 1 } e β = { 1 , 0 , 0}, calcule [I]αβ
1 1 0 1 1 1
β
e [I]α
Seja C a base canônica de R3 . Temos [I]αβ = ([I]βC )−1 [I]αC . É claro que,
−2 0 2 1 1 0
[I]αC = 0 −1 1 e [I]βC = 1 0 0 ,
1 1 0 1 1 1
logo:
−1
1 1 0 −2 0 2
[I]αβ = 1 0 0 0 −1 1
1 1 1 1 1 0
0 1 0 −2 0 2
= 1 −1 0 0 −1 1
−1 0 1 1 1 0
0 −1 1
= −2 1 1 .
3 1 −2
81
Capı́tulo 3
TRANSFORMAÇÕES LINEARES
T : V → W,
E XEMPLOS 3.2.
T : Rn → Rm , T (u) = Au, ∀ u ∈ Rn ,
82
1 2
Por exemplo, com A = −1 3, temos
0 1
1 2 x + 2y
2 3 x x x
T : R → R , T( ) = −1 3
= −x + 3y , ∀
∈ R2 .
y y y
0 1 y
Nota: Toda transformação linear T : Rn → Rm é da forma dada neste exemplo, isto será
esclarecido na observação 3.27.
3. Nos espaços vetoriais V = C 1 (R) das funções reais, diferenciáveis com derivada contı́nua e
W = C(R), das funções contı́nuas, a aplicação de derivação é uma transformação linear, pois
é conhecido que,
4. Dados espaços vetoriais V e W , é simples verificar que as seguintes aplicações são transformações
lineares.
1. T (0V ) = 0W ,
Daı́, claramente uma aplicação entre espaços vetoriais que verifica T (0V ) 6= 0W não pode ser transformação
linear.
Dado um espaço vetorial V , uma transformação linear T de V em V é chamado operador linear
sobre V . As transformações lineares de V em R são chamadas funcionais lineares sobre V .
Operadores do Plano
83
T é uma transformação linear, pois
x x cx c 0 x
T =c = = .
y y cy 0 c y
2. Reflexão em torno do eixo x. Considere a aplicação que leva um vetor do plano na sua reflexão
através do eixo x,
2 2 x x x
T : R → R , tal que T = , ∀ ∈ R2 .
y −y y
84
3. Reflexão em torno do eixo y. A aplicação
2 2 x −x x
T : R → R , tal que T = , para todo ∈ R2 ,
y y y
leva um vetor do plano na sua reflexão através do eixo y, analogamente ao caso anterior é um
operador linear, pois
x −x −1 0 x
T( )= = .
y y 0 1 y
5. Rotação com ângulo θ. Dado um ângulo θ, consideremos a aplicação de rotação pelo ângulo
θ,
Rθ : R2 → R2 ,
85
que leva um vetor do plano num novo vetor, que é a rotação, com ângulo θ, no sentido anti-
o caso basta considerar 0 ≤ θ < 2π. Vamos descrever exatamente
horário do vetor inicial, para
x
o vetor Rθ (u), para u = . Escrevendo as componentes de u em função de seu comprimento
y
r e de seu ângulo de inclinação β, temos
x = rcos β, y = rsen β.
logo,
x rcos(β + θ) rcosβcosθ − rsenβsenθ
R = =
y rsen(β + θ) rsenβcosθ + rcosβsenθ
xcosθ − ysenθ xcosθ − ysenθ
= =
ycosθ + xsenθ xsenθ + ycosθ
cosθ −senθ x x
= · , ∀ ∈ R2 .
senθ cosθ y y
cosθ −senθ
A matriz é chamada matriz de rotação no plano, pelo ângulo θ.
senθ cosθ
1. Núcleo de T :
N uc(T ) = {u ∈ V | T (u) = 0W } .
2. Imagem de T :
Im(T ) = T (V ) = {T (u) ∈ W | ∀ u ∈ V } .
86
Qualquer que seja a transformação T , temos que N uc(T ) e Im(T ) são subespaços de V e W , res-
pectivamente. De fato:
• Verifica-se que,
dim N uc(T ) + dim Im(T ) = n = dim V.
87
Teorema 3.5 (Teorema da Dimensão Nucleo-Imagem). Sejam V , W espaços vetoriais de dimensão
finita e T : V → W uma transformação linear, nestas condições temos:
• Sabemos que N uc(T ) = N ul(A), ou seja trata-se das soluções do sistema homogêneo,
1 0 3 x 0
1 −1 5 y = 0 .
2 3 0 z 0
Escalonando,
1 0 3 1 0 3 1 0 3
A = 1 −1 5 → 0 −1 2 → 0 1 −2 ,
2 3 0 0 3 −6 0 0 0
−3
logo a solução é x = −3s, y = 2s e s ∈ R, ou seja X = 2 s, s ∈ R.
1
−3
∴ N uc(T ) = { 2 s / s ∈ R} e dim N uc(T ) = 1.
1
88
1 0 a 1 0 a 1 0 a
1 −1 b → 0 1 a − b → 0 1 a−b
2 3 c 0 3 c − 2a 0 0 −5a + 3b + c
Logo,
a
Im(T ) = { b / 5a − 3b − c = 0}
c
E XEMPLO3.7. Determinemos
bases e as dimensões de N uc(T ) e Im(T ), onde T : R2 → R3 ,
x − 2y
x
T( ) = x + y .
y
3x − 3y
x − 2y 1 −2 1 −2
x x
Notemos que T ( ) = x + y = 1 1 = x 1 + y 1 , logo uma base para
y y
3x − 3y 3 −3 3 −3
Im(T ) é
1 −2
{ 1 , 1 }, então dim Im(T ) = 2.
3 −3
P ROPRIEDADE 3.8. Para uma transformação linear T : V → W , Im(T ) é gerado pelas imagens de
uma base de V . Para verificarmos esta afirmação, suponha que {u1 , . . . , un } é uma base qualquer de
V , logo todo u ∈ V é uma combinação linear da forma:
O seguinte teorema mostra que podemos determinar uma transformação linear conhecendo as ima-
gens em uma base qualquer.
89
Teorema 3.9. Sejam V e W espaços vetoriais. Dados uma base α = {v1 , . . . , vn } de V e um grupo
de n vetores {w1 , . . . , wn }, de W , então existe uma única transformação linear T : V → W , tal que:
T (v1 ) = w1 , . . . , T (vn ) = wn .
Demonstração. Dado que todo vetor de v ∈ V escreve-se como combinação linear de vetores da
base,
v = a1 v1 + . . . + an vn , onde a1 , . . . , an são as coordenadas de v em α,
assim podemos definir a aplicação T ,
É simples verificar que a T definida assim é uma TL, que verifica T (vi ) = wi e que é única com esta
condição.
1 1
1
E XEMPLO 3.10. Determine a transformação linear T : R3 → R2 , tal que T (1) = , T (1) =
2
1 0
1
2 3
e T ( 0) =
. É direto verificar que
3 4
0
1 1 1
α = { 1 , 1 , 0}
1 0 0
90
Aplicando T em ambos os lados da igualdade temos,
x 1 1 1
T ( y ) = zT ( 1 ) + (y − z)T ( 1 ) + (x − y)T ( 0)
z 1 0 0
1 2 3
= z + (y − z) + (x − y)
2 3 4
3x − y − z
= .
4x − y − z
E XEMPLO
3.11. Determine
atransformação
linear T : R3 → R3 , tal que N uc(T ) = [u], onde
1 −1 1
u = −1 e tal que e T ( 0 ) = 1.
0 4 1
1 0 −1 1
Neste caso T (−1) = 0, T ( 0 ) = 1, mas
0 0 4 1
1 −1
{ −1 , 0 } não é uma base para R3 , e sim um conjunto LI, logo pode ser completado para obter
0 4
uma base,
1 −1 0 1 −1 0
β = {−1 , 0 , 0}, pois −1 0 0 = −1 6= 0
0 4 1 0 4 1
logo β é uma base para V = R3 .
0
Para determinar T será suficiente definir T (0), mas a transformação pedida não será única, pois
1
podemos completar a base de várias formas, assim como
podemos
definir a imagem do terceiro vetor
0 −1
de muitas formas. Neste caso vamos definir, T (0) = 0 . Para o cálculo das coordenadas de
1 1
x
um vetor u = y em β, usemos matriz mudança de base,
z
−1
1 −1 0 x 0 −1 0 x −y
β −1
[u]β = [I]C
β u = ([I]C ) u = −1
0 0 y = −1 −1 0 y = −x − y ,
0 4 1 z 4 4 1 z 4x + 4u + z
assim temos,
x 1 −1 0
u = y = −y −1 + (−x − y) 0 + (4x + 4y + z) 0 ,
z 0 4 1
91
Aplicando T em ambos os lados da igualdade temos,
x 1 −1 0
T ( y ) = −yT ( −1 ) + (−x − y)T ( 0 ) + (4x + 4y + z)T ( 0)
z 0 4 1
0 1 −1
= −y 0 + (−x − y) 1 + (4x + 4y + z) 0
0 1 1
−5x − 5y − z
= −x − y − z .
3x + 3y + z
92
Composição de Transformações.
D EFINIÇ ÃO 3.14 (Composição). Dados espaços vetoriais U , V e W e as transformações lineares,
T : U → V e L : V → W , definimos a Aplicação composta de T e L, denotada L ◦ T , como:
Notemos que,
−y 0 −1 x
x x−y 1 −1 x x
T( )= = e L( ) = x + y = 1 1 y
y x + 2y 1 2 y y
x 1 0 z
0 −1
2 3 1 −1
Obtemos que L◦T : R → R , multiplicando as matrizes de L e T respectivamente: 1 1 =
1 2
1 0
−1 −2
2 1 , logo:
1 −1
−1 −2 −x − 2y
x x
(L ◦ T )( )= 2 1 = 2x + y .
y y
1 −1 x−y
Observe que não é possı́vel calcular T ◦ L, pois Im(L) não está contida no domı́nio de T .
Como nas matrizes, a composição não é comutativa, ainda que as ordens das matrizes sejam adequa-
das.
93
P ROPOSIÇ ÃO 3.16. Valem as seguintes da composição:
T ◦ IU = T e IV ◦ T = T,
2. T é sobrejetora, se Im(T ) = T (V ) = W .
94
1 2 1 2 1 2
1 −1 → 0 3 → 0 1
0 1 0 1 0 0
Claramente a única solução deste sistema é x = y = 0. Portanto, T é injetora.
Pelo teorema da dimensão núcleo-imagem, temos que
0
Assim, pA = 3 e nA = 0, logo N uc(T ) = {0} e Im(T ) = R3 , ou seja que T é bijetora e portanto,
0
um isomorfismo.
95
Consideremos que T : V → W , é um isomorfismo, ou seja uma transformação bijetora, como toda
função bijetora, temos que T é invertı́vel, ou seja que existe uma aplicação denotada por T −1 : W →
V e que tem a propriedade:
T (u) = w ⇔ T −1 (w) = u.
• T ◦ T −1 = IW e T −1 ◦ T = IV .
O BSERVAÇ ÃO 3.22. Caso T : Rn → Rn , T u = Au veremos que:
isto acontece pois, sendo T um isomorfismo vale n = dim Im(T ) = dim Col(A) = pA , o que
mostra que A é invertı́vel. Da igualdade T u = Au = v obtemos:
T −1 (v) = A−1 v.
E XEMPLO 3.23. Considere o isomorfismo do Exemplo 3.21. A matriz de coeficientes de T tem posto
3, logo é invertı́vel. Para achar T −1 , usamos
96
1 0 −2 −1 2 0 1 0 0 −1/3 2/3 2/3
0 1 1 1 −1 0 −→ 0 1 0
2/3 −1/3 −1/3
0 0 3 1 −2 1 0 0 1 1/3 −2/3 1/3
−1 2 2 x −x + 2y + 2z
Logo, A−1 1
=3 2 −1
−1 −1 e portanto, T ( y ) =
1
3
2x − y − z .
1 −2 1 z x − 2y + z
2. (T −1 )−1 = T .
E XEMPLO 3.25. Sejam as transformações T : R2 → R2 e L : R2 → R2 , dadas por:
x −x + y x x + 2y
T( )= e L( )= .
y 3x + 2y y −y
• Seja A a matriz que determina T e B a que determina L, então (L ◦ T )−1 u = (BA)−1 u. Temos
1 2 −1 1 5 5 −1 1 −2 −5
BA = = ⇒ (BA) = 5 , portanto,
0 −1 3 2 −3 −2 3 5
−1 x 1 −2 5 1 −2x + 5y
(L ◦ T ) ( )= = .
y 5 3 5 5 3x + 5y
E XEMPLO 3.26. Se V é um espaço de dimensão n e α uma base ordenada de V , então a aplicação:
u ∈ V → [u]α ∈ Rn ,
é um isomorfismo. De fato,
[u]α = 0Rn ⇔ u = 0V .
97
3.5 Matriz Associada a uma Transformação Linear
Seja T : V → W uma TL. Consideremos as bases ordenadas α = {u1 , . . . , un } e β = {w1 , . . . , wm }
de V e W respectivamente. Dado u ∈ V , desejamos saber a relação entre [u]α (coordenadas de u na
base α) e [T (u)]β (coordenadas de T (u) na base β).
k1
..
Consideremos, [u]α = . , escalares de u com relação à base α. Determinemos os escalares
kn
[T (u)]β . Temos:
A matriz acima, cuja j-ésima coluna coluna é o vetor coordenadas de T (uj ) em β, é chamada matriz
de T, da base α à base β e é denotada por [T ]αβ , ou seja
[T ]αβ = [[T (u1 )]β . . . [T (un )]β ] .
Esta matriz tem a propriedade caracterı́stica,
98
Na prática, se T : Rn → Rm é dada na forma T (u) = A u, ∀u ∈ Rn , obtemos diretamente que
[T ]αβ = A, tanto pela unicidade, quanto pela própria definição de matriz associada.
E XEMPLOS 3.28.
x
3 2 2x − y + 3z
1. Dada T : R → R , T (y ) = , determine a matriz [T ]αC , onde α = {u1 =
−x + 2z
z
1 0 1
−1 , u2 = 2 , u3 = 0} é base de R3 e C é a base canônica de R2 .
1 −1 1
Sabemos que, [T ]αC = [ [T (u1 )]C [T (u2 )]C [T (u3 )]C ], calculando as colunas obtemos,
1 0
6 −5
[T (u1 )]C = T (u1 ) = T (−1) = , [T (u2 )]C = T (u2 ) = T ( 2 ) = e
1 −2
1 −1
1
5
[T (u3 )]C = T (u3 ) = T ( 0 ) =
, portanto
1
1
6 −5 5
[T ]αC = .
1 −2 1
x x+y
2. Seja T : R3 → R3 , dada por T (y ) = x − 2z . Determine [T ]αβ , onde α e β são as
z x+y−z
bases de R3 :
1 −1 1
α = {u1 = 0 , u2 = 1 , u3 = 0},
−1 0 1
1 0 2
β = {−1 , 1 , 0}.
1 0 1
Neste caso temos, [T ]αβ = [ [T (u1 )]β [T (u2 )]β [T (u3 )]β ], calculando as imagens resulta,
1 1 −1 0 1 1
T (u1 ) = T ( 0 ) = 3, T (u2 ) = T ( 1 ) = −1 e T (u3 ) = T (0) = −1 .
−1 2 0 0 1 0
99
Para obter as colunas de [T ]αβ devemos determinar as coordenadas em β dos vetores acima, para
x
isso calcularemos as coordenadas de um vetor qualquer v = y na base β. Usando matrizes
z
mudança de base temos, [v]β = [I]C β [v]C = [I] C
β · v, onde C é a base canônica de R3 . Por
inversão de matriz obtemos,
−1
1 0 2 −1 0 2
β −1
[I]C
β = ([I]C ) = −1 1 0 = −1 1 2 .
1 0 1 1 0 −1
Então,
1 −1 0 2 1 3
[T (u1 )]β = [ 3 ]β = −1 1 2
3 = 6 ,
2 1 0 −1 2 −1
0 −1 0 2 0 0
[T (u2 )]β = [ −1 ]β = −1 1 2
−1 = −1,
0 1 0 −1 0 0
1 −1 0 2 1 −1
[T (u3 )]β = [−1]β = −1 1 2 −1 = −2.
0 1 0 −1 0 1
3 0 −1
Portanto [T ]αβ = 6 −1 −2 .
−1 0 1
Matriz da Composição.
Vamos determinar a matriz associada a uma composição de transformações. Para isto consideremos
espaços vetoriais U , V e W , com bases ordenadas α, β e γ, respectivamente e as transformações
lineares T : U → V e L : V → W . Nestas condições temos a composição:
L ◦ T : U → W.
[(L + T )(u)]β = [L(u)]β + [T (u)]β = [L]αβ [u]α + [T ]αβ [u]α = ([L]αβ + [T ]αβ )[u]α , ∀u ∈ V,
100
portanto
[L + T ]αβ = [L]αβ + [T ]αβ ,
de forma análoga obtemos,
[λL]αβ = λ[L]αβ .
T = IW ◦ T ◦ IV ,
0 0
[T ]αβ 0 = [IW ]ββ 0 [T ]αβ [IV ]αα
De forma geral estas equações permitem a troca de bases na matriz associada [T ]αβ .
Casos particulares:
D EFINIÇ ÃO 3.29. Quando duas matrizes quadradas A e B estão associadas pela relação
dizemos que A é semelhante ou similar a B, é simples notar que neste caso também B será seme-
lhante a A (verifique).
1. tr(A) = tr(B).
101
2. det(A) = det(B).
Sobre as matrizes associadas a um operador em bases diferentes [T ]α e [T ]β podemos dizer que são
matrizes semelhantes e que portanto tem o mesmo traço e o mesmo determinante.
0 −1 1
E XEMPLO 3.31. Considere a base α = {1 , 0 , 1} e a transformação linear T : R3 → R3 ,
1 1 1
cuja matriz na base α é:
−1 0 1
[T ]α = 1 −1 0 .
0 1 2
Calcule as matrizes [T ]C C 3
α e [T ]C , onde C é a base canônica de R .
• [T ]C α C
α = [T ]α [I]α .
−1
0 −1 1 −1 2 −1
α −1
Note que [I]C
α = ([I]C ) = 1 0 1 = 0 −1 1 , logo:
1 1 1 1 −1 1
−1 0 1 −1 2 −1 2 −3 2
[T ]C
α =
1 −1 0 0 −1 1 = −1 3 −2 .
0 1 2 1 −1 1 2 −3 3
• [T ]C α C
C = [I]C [T ]α .
Logo:
0 −1 1 2 −3 2 3 −6 5
[T ]C
C = 1
0 1 −1 3 −2 = 4 −6 5 .
1 1 1 2 −3 3 3 −3 3
x 3x − 6y + 5z
Portanto, T (y ) = 4x − 6y + 5z .
z 3x − 3y + 3z
Matriz da inversa.
Consideremos espaços vetoriais V e W , com igual dimensão e com bases ordenadas α e β respecti-
vamente, se T : V → W é uma transformação linear, então:
102
• [T −1 ]βα = ([T ]αβ )−1 . A justificativa para esta relação é simplesmente ver que:
T −1 ◦ T = IV , também T ◦ T −1 = IW , tomando as matrizes temos [T ]αβ [T −1 ]βα = [IW ]β = I,
ou seja que as matrizes são inversas.
103
E XEMPLOS 3.32.
2 1 −1 2 1
1. Sejam as bases de R , α = { , }eβ ={ , } e a transformação linear T : R2 →
1 0 0 1
2 α 3 1
R cuja matriz é: [T ]β =
1 2
3 −1
[T ]αβ é invertı́vel, pois = 5 6= 0, logo T é isomorfismo.
1 2
−1
3 −1 2 1
[T −1 ]βα = =51
, transformando a base canônica:
1 2 −1 3
[T −1 ]C α
C = [I]C [T
−1 β
]α [I]C α
β = [I]C [T ]α ([I]βC )−1
−1 β
1 −1 2 1 2 1 6 1
[T −1 ]C
C = ·51
=5 1
, portanto
1 0 −1 3 0 1 4 3
−1 x 1 2x + y
T ( )= .
y 5 −x + 3y
1 0 0
3
2. Em R consideremos a base canônica C, a base α = { 0 , −1 , 0} e o operador linear
1 1 1
3 3
T : R → R , cuja matriz é:
−2 0 0
[T ]C
α =
0 1 0 ,
−1 0 2
x
−1
prove que T é um isomorfismo e calcule T ( y ).
z
De fato
−2 0 0
0 1 0 = −4 6= 0,
−1 0 2
logo T é isomorfismo. Usando os métodos estudados calculamos a matriz inversa:
−2 0 0
1
[T −1 ]αC = ([T ]C
α)
−1
= 0 4 0 ,
4
−1 0 2
−2 0 0
logo, [T −1 ]αC = 14 0 4 0.
−1 0 2
Transformando à base C: [T −1 ]C = [T −1 ]αC [I]C
α = [T
−1 α
]C ([I]αC )−1
104
−1
1 0 0 1 0 0
Calculando a inversa temos, [I]αC = 0 −1 0 = 0 −1 0,
1 1 1 −1 1 1
daı́,
−2 0 0 1 0 0 −2 0 0
[T −1 ]C = 41 0 4 0 0 −1 0 = 14 0 −4 0,
−1 0 2 −1 1 1 −3 2 2
finalmente,
x −2x
1
T −1 (y ) = −4y .
4
z −3x + 2y + 2z
105
Bibliografia
[1] Anton, Howard e Rorres Chris. “Álgebra Linear com Aplicações”. Bookman Editora, 2012 (10ª
edição).
[3] Poole, David. “Linear Algebra, a Modern Introduction ”. CENGAGE Learning (4ª edição).
[5] Yuster, Thomas. “The Reduced Row Echelon Form of a Matrix Is Unique: A Simple Proof”.
Mathematics Magazine, vol. 57, no. 2, pp. 93-94, 1984.
106