Escolar Documentos
Profissional Documentos
Cultura Documentos
2 ESPAÇOS VETORIAIS 55
2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.2 Definições e Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.3 Subespaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.4 Independência Linear e Geradores . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.5 Base e Dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.6 Espaços Associados a uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 73
2.7 Soma e Interseção de subespaços . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2.8 Coordenadas com relação a uma base . . . . . . . . . . . . . . . . . . . . . . . . 79
2.9 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3 TRANSFORMAÇÕES LINEARES 92
3.1 Definição e Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.2 Núcleo e Imagem de uma Transformação Linear . . . . . . . . . . . . . . . . . . 96
3.3 Operações com TLs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3.4 Transformações Injetoras, Sobrejetoras e Isomorfismos . . . . . . . . . . . . . . . 104
1
3.5 Matriz Associada a uma Transformação Linear . . . . . . . . . . . . . . . . . . . 107
3.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
2
Capı́tulo 1
a11 a12 . . . a1n
a21 a22 . . . a2n
A = .. .. .
..
. ... . .
am1 am2 . . . amn
Exemplo 1.1.
40 30 10 0
A3×4 = 0 50 30 10 .
5 20 40 5
3
Exemplo 1.2. Consideremos duas ligas de aço A e B, com componentes adicionais: carbono
(C), Silı́cio (Si), Manganês (Mn), Cromo (Cr), Nı́quel (Ni), Molibdênio (Mo) que são dadas em
% na tabela abaixo:
daı́ obtemos:
0 −1 2 −3
A= .
−1 0 1 −2
Definição 1.4. A = [aij ] e B = [bij ] são matrizes iguais, se são da mesma ordem e,
4
Consideremos uma matriz quadrada de ordem m, A = [aij ], chamamos de diagonal principal
a sequência de entradas:
a11 a22 . . . amm .
A diagonal secundária é a sequência de entradas:
5. Matriz diagonal: matriz quadrada A = [aij ], onde todas as entradas “fora” da diagonal
principal são nulas, isto é aij = 0, para todo i 6= j.
6. Matriz identidade: é uma matriz diagonal, onde as entradas na diagonal são todas
iguais a 1. A matriz identidade de ordem m é denotada por Im .
9. Matriz simétrica: matriz quadrada A = [aij ], com a propriedade aij = aji , para todo
i, j (ou seja que as entradas simétricas com relação à diagonal principal, são iguais).
10. Matriz anti-simétrica: matriz quadrada A = [aij ], com a propriedade aij = −aji , para
todo i, j.
Observação 1.5. Os elementos aii da diagonal de uma matriz anti-simétrica são nulos, pois
aii = −aii ⇒ aii = 0.
Observação 1.6. Uma matriz de ordem 1 × 1 será considerada também como um escalar.
Notação 1.7. O conjunto das matrizes de ordem m×n e entradas reais será denotado Mm×n (R),
se tratando de matrizes quadradas de ordem m a notação é Mm (R).
A + B = [aij + bij ].
5
Exemplo 1.8. Dadas as matrizes:
1 −1 0 3 1 2
A = 4 0 e B = −2 0 , temos A + B = 2 0 .
2 1 1 −3 3 −2
Para conferir as propriedades basta ver que os elementos de posição (i, j) do lado esquerdo e
direito das igualdades são iguais.
Definição 1.10. Dadas matrizes da mesma ordem A = [aij ] e B = [bij ], define-se a matriz
diferença de A e B na forma usual, A − B = A + (−B) = [aij − bij ].
Dados uma matriz A = [aij ] de ordem m×n e um escalar k, definimos a matriz multiplicação
por escalar de k e A como a matriz também de ordem m × n, dada por
k · A = [kaij ].
Exemplos 1.11.
1 3 −1 −2 −6 2
−2 · = ,
−2 0 1/2 4 0 −1
0, 2 0, 4 1 2 4
= .
−0, 2 0, 5 10 −2 5
6
Novamente as demonstrações são simples e consistem em verificar que elementos das posições
(i, j) em ambos os lados das igualdades são iguais.
Multiplicação de Matrizes
Definiremos primeiro a multiplicação de uma matriz linha por uma matriz coluna, para isto
consideremos a matriz linha L, de ordem 1 × n e a matriz coluna C, de ordem n × 1:
b1
..
L = a1 . . . an , C = . ,
bn
Exemplo 1.13.
−2 √ √
4 12 2 · √1 = (4)(−2) + (12)(1) + (2)( 2) = 4 + 2 2.
2
Agora, definiremos de forma geral o produto de matrizes. Sejam A = [aij ], uma matriz de
ordem m × n e B = [bij ], uma matriz de ordem n × p, a matriz produto, A · B, é a matriz
de ordem m × p definida como:
k=n
X
A · B = [aij ]m×n [bij ]n×p = [cij ]m×p , onde cij = Li (A) · Cj (B) = aik bkj ,
k=1
7
Exemplo 1.14. Dadas as matrizes:
1 −1
2 1
A = 4 0 e B= ,
−1 0
2 1
temos:
c11 = (1)(2) + (−1)(−1) = 3; c12 = (1)(1) + (−1)(0) = 1
c21 = (4)(2) + (0)(−1) = 8; c22 = (4)(1) + (0)(0) = 4
c31 = (2)(2) + (1)(−1) = 3; c22 = (2)(1) + (1)(0) = 2
3 1
logo: A · B = 8 4.
3 2
Exemplo 1.15. Considere as matrizes A = [aij ]3×3 , onde aij = i + j − 2 e B = [bij ]3×4 , onde
bij = i2 − j. Vamos determinar a segunda linha da matriz A · B que é de ordem 3 × 4.
Seja A · B = [cij ]3×4 , assim temos
0 −1 −2 −3
c2j = L2 (A) · Cj (B), onde L2 (A) = [1 2 3] e B = 3 2 1 0 ,
8 7 6 5
logo
0 −1
c21 = 1 2 3 · 3 = 30; c22 = 1 2 3 · 2 = 24,
8 7
−2 −3
c23 = 1 2 3 · 1 = 18; c24 = 1 2 3 · 0 = 12.
6 5
∴ L2 (A · B) = 30 24 18 12 .
Observação 1.16. Só tem sentido efetuar o produto A · B, quando o número de colunas de A
é igual ao número de linhas de B e neste caso a matriz C = AB terá mesmo número de linhas
que A e mesmo número de colunas que B.
A · |{z}
|{z} B = |{z}
C .
m×n n×p m×p
Exemplo 1.17 (Um produto importante). Sejam A uma matriz m × n e b uma matriz coluna
n × 1. O produto A · b é uma matriz m × 1 que pode ser escrita em função das colunas de A.
Sejam C1 , . . . , Cn as colunas de A; denotemos A = [C1 . . . Cn ]m×n e consideremos b = [bi ]n×1 ,
logo
A · b = b1 C 1 + . . . + b n C n .
8
2 6 −2 b1
No caso, A = 0 1 3
e b = b2 , temos
1 2 4 b3
2 6 −2 b1 2b1 + 6b2 − 2b3
A · b = 0 1 3 · b2 = 0 + b2 + 3b3
1 2 4 b3 b1 + 2b2 + 4b3
2b1 6b2 −2b3
= 0 + b2 + 3b3
b1 2b2 4b3
2 6 −2
= b1 0 + b2 1 + b3 3 .
1 2 4
De forma similar, o produto de uma matriz linha pela matriz A é uma matriz linha, que
escreve-se em função das linhas de A (exercı́cio).
Propriedades 1.18. Para matrizes A, B e C com ordens adequadas ás operações envolvidas,
valem as seguintes propriedades.
1. Associatividade. (A · B) · C = A · (B · C).
2. Distributividade.
A · (B + C) = A · B + A · C, Distributividade à esquerda ,
(B + C) · A = B · A + C · A, Distributividade à direita.
Como nos casos anteriores, para as demonstrações o procedimento é verificar as igualdades das
entradas das matrizes em ambos os lados.
Mostraremos algumas propriedades do produto usuais nos números, mas que não são verdadei-
ras para matrizes.
1. O produto de matrizes não é comutativo, ou seja que para algumas matrizes, A·B 6=
B · A (mesmo que as ordens permitam efetuar os produtos). Por exemplo, se:
−1 2 3 −2
A= e B= ,
0 3 1 −1
9
−1 0 −3 0
temos, A · B = 6= = B · A.
3 −3 −1 −1
1 2 1 −1
Embora existem matrizes que comutam, como A = e B= .
−2 1 1 1
2. A · B = 0 não implica A = 0 ou B = 0.
−1 −1 1 0
Um exemplo é o par de matrizes A = e B= , pois A · B = 0, mas
0 0 −1 0
A 6= 0 e B 6= 0.
3. A · B = A · C, A 6= 0, não implica B = C.
1 0 1 2 1 2
Um exemplo é o caso A = , B = e C = , pois temos
−1 0 1 1 −1 0
1 2
A·B =A·C = , mas B 6= C.
−1 −2
Matrizes em Blocos
As vezes é conveniente particionar uma matriz, para escreve-la como uma matriz cujos elementos
são submatrizes da própria. Dada uma matriz A, com a introdução de linhas divisórias entre
as linhas ou entre as colunas da matriz, podemos descrever A como a matriz cujos elementos
são os blocos determinados, neste caso A é dita matriz em blocos. Por exemplo,
1 0 2 −1
0 1 1 3 I B
A= 0 0 1 7 = 0 C .
0 0 7 2
Com blocos de ordens adequadas podemos verificar de forma simples que o produto de duas
matrizes pode-se descrever em função de seus blocos. Por exemplo, se
A11 A12 B11 B12 B13
A= ,B = , temos:
A21 A22 B21 B22 B23
A11 A12 B11 B12 B13
AB =
A21 A22 B21 B22 B23
A11 B11 + A12 B21 A11 B12 + A12 B22 A11 B13 + A12 B23
=
A21 B11 + A22 B21 A21 B12 + A22 B22 A21 B13 + A22 B23
1 0 2 −1 1 0
0 1 1 3 A11 A12 0 1
= B11 .
Exemplos 1.19. 1. Sejam A = = e B=
0 0 1 7 A21 A22 1 0 B21
0 0 7 2 0 1
Os blocos de AB são:
10
3 −1
3 −1 1 7 1 4
A11 B11 + A12 B21 = , A21 B11 + A22 B21 = . Logo, AB =
1 7 .
1 4 7 2
7 2
2. O produto na forma usual, pode ser entendido como um produto de matrizes em blocos.
De fato, se A = [aij ]m×n e B = [bij ]n×p , consideramos A como um único bloco e B com p
blocos compostos por suas colunas, isto é B = [ C1 | . . . |Cp ], assim obtemos:
A · B = A · [ C1 | . . . |Cp ] = [ A · C1 | . . . |A · Cp ].
Potenciação
Para matrizes quadradas podemos definir a potência de uma matriz , de forma análoga as
potências de números. De fato, dada a matriz quadrada A = [aij ] de ordem m, definimos as
potências de A como:
A0 = Im e An = A . . · A}, para n ≥ 1.
| · .{z
n vezes
Exemplo 1.20.
4 −2
1. Caculemos a expressão A2 − 3A, para A = . De fato,
0 1
2 4 −2 4 −2 16 −10
A = =
0 1 0 1 0 1
logo,
2 16 −10 4 −2 16 −10 −12 6 4 −4
A − 3A = −3 = + = .
0 1 0 1 0 1 0 −3 0 −2
2. Mostre que A2 − 3A = A(A − 3I), onde A é uma matriz quadrada qualquer e I é a matriz
identidade com a mesma ordem de A.
De fato, A(A − 3I) = A · A − A · (3I) = A2 − 3(A · I) = A2 − 3A.
1. Am+n = Am · An
2. (Am )n = Amn
3. (kA)m = k m Am .
Note que, da propriedade 1.21 temos que as potências da mesma matriz comutam.
11
Definição 1.22. Diremos que uma matriz quadrada é Idempotente quando A2 = A. A
será chamada Nilpotente, se existir um natural k, tal que Ak = 0. Exemplos:
2 −1 1
1 0
0, Im , , −3 4 −3 , são matrizes idempotentes.
1 0
−5 5 −4
0 1 2
0 1
0, , 0 0 −1 são matrizes nilpotentes.
0 0
0 0 0
Transposição
Observações 1.24.
1. Seja A = [aij ]m×n uma matriz qualquer, então considerando as linhas de A e colunas de
At temos
ai1
..
(Li (A)) = . = Ci (At ), (Cj (A))t = a1j · · · amj = Lj (At ).
t
ain
1. (At )t = A
12
3. (A + B)t = At + B t , se A, B são da mesma ordem
Exemplo 1.27. Muitos processos de diferente natureza podem envolver uma variável que muda
no tempo, de forma que em cada perı́odo de tempo esta variável assume um entre um número
finito de estados fixos E1 , . . . , En . Suponhamos que a probabilidade de passagem do estado Ej
ao estado Ei (“taxa” de passagem ou tranferência) só depende do estado inicial Ej e não da
quantidade de perı́odos transcorridos,
temos,
n pk−1 (E1 )
pk (Ei ) =
X
pij pk−1 (Ej ) = pi1
. . . pin · ..
.
.
j=1 k−1
p (En )
13
A matriz T = [pij ]n×n é chamada matriz de transição de probabilidade. Nomeando por
Xk a matriz coluna das probabilidades no k-ésimo perı́odo, temos
Xk = T · Xk−1 .
Portanto,
Xn = T n X0 , ∀n ≥ 1.
Dadas as condições iniciais, temos no quarto perı́odo:
4
4 1/4 1/2 4/5 0, 4 0, 4 4/5 0, 4
X4 = T X0 = ≈ ≈ .
3/4 1/2 1/5 0, 6 0, 6 1/5 0, 6
Portanto no quarto perı́odo a probabilidade de ter chuva é 0,4 e a de ter seca é de 0,6.
O comportamento do clima a longo prazo poderá ser previsto, caso os elementos da matriz
T n se aproximem dos elementos de uma matriz fixa P . Caso contrário não poderemos fazer
14
previsão a longo prazo, pois o processo modificará bastante a cada passo. Existem condições
sob as quais podemos saber se T terá esta propriedade ou não, mas não vamos abordar isso
neste exemplo.
O Traço
Definição 1.28. Seja A = [aij ] uma matriz quadrada de ordem n. O traço de A, denotado
tr(A), é o número real dado pela soma dos elementos da diagonal de A, ou seja:
1. tr(λA) = λtr(A).
3. tr(AB) = tr(BA)
De forma geral, não é verdadeiro que tr(AB) = tr(A)tr(B). Determine matrizes A e B que
não verifiquem a igualdade.
Matriz Inversa
• A é dita invertı́vel à direita, se existir uma matriz B de ordem n×m, tal que AB = Im .
Neste caso a matriz B é chamada inversa à direita de A.
15
• A é dita invertı́vel à esquerda, se existir uma matriz C de ordem n × m, tal que
CA = In . Neste caso a matriz C é chamada inversa à esquerda de A.
16
Daı́ temos os sistemas,
ax + bz = 1 ay + bw = 0
e
cx + dz = 0 cy + dw = 1.
No primeiro sistema,
ax + bz = 1 acx + bcz = c
⇒ ⇒ (ad − bc)z = −c,
cx + dz = 0 acx + adz = 0
ax + bz = 1 adx + bdz = d
⇒ ⇒ (ad − bc)x = d.
cx + dz = 0 bcx + bdz = 0
Analogamente, do segundo sistema,
Propriedade 1.31 (Lei do Corte). Se A é uma matriz invertı́vel e X, Y são matrizes tais que,
definidos os produtos, verificam AX = AY , então X = Y .
Para obter a Lei do corte, basta multiplicar por A−1 pelo lado esquerdo em ambos os lados da
igualdade AX = AY .
17
2. kA é invertı́vel e (kA)−1 = k1 A−1
3. AB é invertı́vel e (AB)−1 = B −1 A−1
4. Am é invertı́vel e (Am )−1 = (A−1 )m
5. At é invertı́vel e (At )−1 = (A−1 )t .
3 1
Exemplo 1.33. Considere a matriz A = . Mostre que A é invertı́vel e resolva a
2 −1
equação: I + AX t = A2 .
A matriz A é invertı́vel pois 4 = (3)(−1) − (2)(1) = −5 6= 0
Aplicando as propriedades das matrizes na equação, temos:
I + AX t = A2 ⇔ AX t = A2 − I
⇔ A−1 AX t = A−1 (A2 − I)
⇔ X t = A − A−1
⇔ X = (A − A−1 )t .
−1 −1 −1 −1
Sendo A = , temos
5 −2 3
−1 !t t
3 1 3 1 3 1 1 −1 −1
X = − = +
2 −1 2 −1 2 −1 5 −2 3
t
1 14 4 1 14 8
= = .
5 8 −2 5 4 −2
Definição 1.34. Uma matriz A, quadrada de orden n é dita matriz ortogonal quando A é
invertı́vel e sua inversa é At , ou seja AAt = In = At A.
18
de fato, √ √ √ √
1/ √2 1/√2 1/√2 −1/√ 2
t 1 0
AA = = ,
−1/ 2 1/ 2 1/ 2 1/ 2 0 1
analogamente para B.
cos θ −sen θ
2. Verifique as matrizes da forma , são ortogonais para todo θ ∈ R.
sen θ cos θ
Propriedades 1.36. Se A e B são matrizes ortogonais, então também são ortogonais as ma-
trizes: AB, At e A−1 .
1.4 Exercı́cios
1. Encontre a matriz [aij ]4×4 cujas componentes satisfazem a condição dada.
−5, se i + j < 4
(a) aij = 2cos ( π(i+j)
2
) (b) aij = e j−1
(c) a ij = 0, se i + j = 4 .
i + j, se i + j > 4
2. Determine a forma geral de uma matriz A = [aij ]5×5 com a propriedade: aij = 0, para
todos i, j tais que |i − j| > 1.
1 7 2 1
3. Dadas A = , B= e I a matriz identidade de ordem 2.
2 6 4 3
(a) Se existir, determine a matriz X tal que: 12 (X − A − B) = 13 (X − 2I)
(b) Se existir a matriz X, tal que 2(A − B + X) = 3(X − A)
19
3 0
4 −1 1 4 2
5. Considere as matrizes: A = −1 2 , B =
,C= ,
0 2 3 1 5
1 1
1 6 1 3
D = −1 e E = −1 1 2.
2 4 1 3
Calcule quando possı́vel, as seguintes matrizes:
(a) 5(2A + C t ) − 4(A − C t ) (b) 21 (A · B)t + 21 At (c) (10E t − 10E)t
(d) 4B · C + 2B (e) B t (C · C t − At · A) (f) Dt · D · E (g) D · Dt · E
2 −1 3 1 −3 −5
6. Sejam as matrizes A = 0 4 5 eB= 0 1 2
−2 1 4 4 3 6
Caso exista uma matriz C nas condições dadas, calcule seu traço:
(a) −C t = −A+B (b) (2A+C t )t = At +B t (c) (B 2 −3C)t = B t At (d) A+B +C = C t .
2 1
7. Seja A = , mostre duas matrizes B e C, tais que AB = AC e B 6= C.
6 3
8. Dados s = 1, 2, 3 ou 4 e t = 1, 2 ou 3, define-se a matriz,
(
1, se i = s, j = t
Est = [eij ]4×3 , onde eij = .
0, outro caso
Determine:
(a) E32 F21 (b) Em que casos Est Fkl = 0 ? (c) Em que casos Est Fkl 6= 0 ?
9. Sejam A, B e C matrizes quadradas de ordem n. Determine se as seguintes proposições
são V ou F, justificando se verdadeiras, dando exemplo de falsidade se falsas.
a) Se A e B são tais que AB = 0 então BA = 0.
b) A2 − B 2 = (A + B)(A − B)
c) (A + B)2 = A2 + 2AB + B 2
d) Se A e B são matrizes simétricas, então A + B é simétrica.
e) Se A e B são matrizes anti-simétricas, então A + B é anti-simétrica.
f) Se A e B são matrizes simétricas, então AB é simétrica.
g) Se tr(AAt ) = 0 então A é a matriz nula.
h) Se P é uma matriz invertı́vel, então tr(P AP −1 ) = tr(A).
20
10. Em cada caso, encontre os valores de k, se houverem, que satisfazem a equação.
1 1 0 k
(a) k 1 1 1 0 2 1 = 0
0 2 −3 1
1 2 0 2
(b) 2 2 k 2 0 3 2 = 0.
0 3 1 k
1 2
11. Considere A = e determine todas as matrizes 2 × 2 que comutam com A.
2 1
14. Uma rede de comunicação tem cinco locais com transmissores de potências distintas. Na
matriz A abaixo é definido aij = 1, quando a i-ésima estação pode transmitir diretamente
para a j-ésima estação, também temos aij = 0 quando a transmissão da i-ésima estação
não alcança a j-ésima estação. Considere que aii = 0.
0 1 1 1 1
1 0 1 1 0
A= 0 1 0 1 0 .
0 0 1 0 1
0 0 0 1 0
Calcule e dê o significado das matrizes A2 e A + A2 .
21
(c) AX −1 = CA
t 2 5 −1 1
(d) AX B = AB − I, calcule X, sendo A = ,B= .
2 4 −1 2
17. (a) Se A é uma matriz retângular, tal que At A é invertı́vel, verifique que a matriz B =
(At A)−1 At é uma inversa à esquerda de A.
(b) Se A é uma matriz retângular, tal que AAt é invertı́vel, verifique que a matriz C =
At (AAt )−1 é uma inversa à direita de A.
1 2
−1 0
(c) Se possı́vel, determine uma matriz inversa à esquerda de A = 2
.
2
1 −1
18. Determine os parâmetros reais a, b, c, d de modo que a matriz abaixo seja ortogonal :
1 0 0
0 √1 √1
2 2
a b c
19.
Determine, justificando,
se é verdadeiro ou falso que, para todo θ ∈ R a matriz A =
cos θ −sen θ
é ortogonal.
sen θ cos θ
21. Em uma pesquisa sobre consumo de refrigerantes, foram consideradas três marcas do
mercado: Gelato, Delı́cia e Suave. Após a aplicação da pesquisa foi constatado que em
um intervalo de tempo as pessoas mudam a marca do refrigerante consumido e foram
determinadas as seguintes probabilidades de mudança de uma marca para outra (taxas
de passagem) organizadas na matriz T = [aij ], onde
aij = probabilidade de escolha do refrigerante i, após consumo do refrigerante j. Considere
que os refrigerantes mencionados foram numerados na ordem dada.
0.8 0.4 0.6
(a) Considere T = 0.1 0.5 0.2. Determine :
0.1 0.1 0.2
• A probabilidade de que uma pessoa que consome o refrigerante Gelato passe a con-
sumir o refrigerante Suave.
• A probabilidade de que uma pessoa que consome o refrigerante Suave passe a con-
sumir o refrigerante Gelato.
22
(b) Considerando a matriz dada em (a) e que as taxas de passagem não mudam numa
segunda pesquisa, determine a matriz T2 que indica a probabilidade de se mudar de marca
após duas pesquisas e mostre que é T2 = T 2 .
(c) Considerando que as pesquisas mostram que, as pessoas sempre mudam de refrigerante
para alguma das outras duas marcas com a mesma probabilidade, construa a matriz T .
Verifique que a matriz T2 que indica a probabilidade de se mudar de marca após duas
pesquisas é T2 = T 2 , como em (b).
Sejam A uma matriz de ordem m × n e Li sua i-ésima linha. São denominadas Operações
Elementares Linhas em A, as seguintes transformações da matriz A.
3. Substituição de uma linha por operação com linhas: Seja k um escalar qualquer,
representamos por Li + kLj → Li a transformação de A pela substutição da i-ésima linha
pela combinção Li + kLj .
1 2 4 1 1 2 4 1
L −2L3 →Li
A = 0 1 3 −1 3 −→ 0 1 3 −1 .
2 6 −2 0 0 2 −10 −2
23
Definição 1.38. Sejam A e B matrizes. Diremos que B é linha equivalente a A, se B
é obtida pela a partir de A pela aplicação de um número finito de operações elementares. A
notação usada é A → B.
Exemplo 1.39.
1 2 4 1 1 2 4 1 1 2 4 1
L −2L1 →L3
A= 0 1 3
−1 3 −→ 0 1 3 −1 −2L2−→+L3 →L3
0 1 3 −1 .
2 6 −2 0 0 2 −10 −2 0 0 −16 0
1 2 4 1
Portanto, B = 0 1 3 −1 é linha-equivalente a A.
0 0 −16 0
Propriedades 1.40. A relação “linha equivalência”entre matrizes da mesma ordem tem as
propriedades:
1. Reflexiva: A → A.
3. Transitiva: Se A → B e B → C, então A → C.
Escalonamento
Dada uma matriz A e uma linha não nula Li de A, chama-se pivô ou lı́der de Li ao primeiro
elemento não nulo dessa linha.
Diremos que uma matriz A = [aij ] está na forma escalonada linha (el) , quando:
2. Nas linhas não nulas o número de zeros anteriores ao pivô “aumenta linha após linha”.
Neste caso os elementos “abaixo”de um pivô serão todos nulos.
Diremos que uma matriz está na forma escalonada reduzida linha (erl ), quando:
24
Exemplos 1.41.
Dada uma matriz A, vamos efetuar operações elementares para transformar A em uma matriz
escalonada ou escalonada reduzida. Com este objetivo, inicialmente vamos definir a seguinte
operação entre linhas.
Pivoteamento. Consideremos linhas não nulas Li e Lk de A com pivôs na mesma coluna,
digamos Cj de A, o pivoteamento de Li sobre Lk consiste usar operações elementares para
substituir Lk por uma linha L0k que tenha maior número de zeros antes do pivô.
Li : 0 . . . aij ∗ ∗ ...
Lk : 0 . . . akj ∗ ∗ ...
L0k : 0 . . . 0 ∗ ∗ ...
±(−akj Li + aij Lk ) → Lk .
25
O escalonamento de uma matriz A é um processo organizado para transformar uma matriz
qualquer A em uma matriz escalonada e linha equivalente a A e consiste em aplicar em A a
seguinte sequência de operações elementares:
1°) Use permutação de linhas, se necessário, para levar as linhas nulas abaixo das não nulas.
2°) Use permutação de linhas, se necessário, de forma que a primeira linha tenha o menor
número de zeros antes do pivô do que às linhas abaixo. Se baixo o pivô da primeira
linha tem elementos não nulos, pivotear a linha sobre as linhas abaixo dela, assim após
os pivoteamentos necessários, os elementos baixo o pivô serão nulos.
3°) Se a matriz resultante está escalonada parar o processo, senão efetue as etapas 1°) e
2°) substituindo a primeira pela segunda linha de A, continue o processo sucessivamente
até a penúltima linha não nula, ao finalizar o processo obtem-se uma matriz el e linha
equivalente a A.
Para obter a forma escalonada reduzida (erl), continuar o processo pivotendo as linhas não
nulas para zerar todos os elementos acima de cada pivô. Finalmente usar a multiplicação por
escalar de linhas para obter pivôs iguais a 1.
Exemplos 1.42.
0 6 5 0 −1 1 0 2 −1 −3
L3 −2L1 →L3
1 0 2 −1 −3 1 ↔L2 0
L−→
6 5 0 −1 −→
1. A =
2 −3 1 −2 −7 2 −3 1 −2 −7
L4 +L1
−→
−1 2 −3 1 0 −1 2 −3 1 0
1 0 2 −1 −3 1 0 2 −1 −3
0 6 5 0 −1 2L3 +L 2 →L3 0
6 5 0 −1 −3L4−→
+L2 →L4
0 −3 −3 0 −1 −→ 0 0 −1 0 −3
0 2 −1 0 −3 0 2 −1 0 −3
1 0 2 −1 −3 1 0 2 −1 −3
0 6 5 0 −1 L4 +8L3 →L4 0
6 5 0 −1
0 0 −1 0 −3 −→ 0 0 −1 0 −3 .
0 0 8 0 8 0 0 0 0 −16
A matriz obtida é uma matriz escalonada e linha equivalente a A. Vamos obter a matriz
escalonada reduzida linha:
1 0 2 −1 −3 1 0 2 −1 −3
0 6 5 0 −1 L2 +5L3 →L2 0
6 0 0 −16 L1 +2L 3 →L1
0 0 −1 0 −3 −→ 0 0 −1 0 −3 −→
0 0 0 0 −16 0 0 0 0 −16
1 0 0 −1 −9 1 0 0 −1 −9 9L4 +L1 →L1
−→
−1
0 6 0 0 −16 16 4 0 6 0
L 0 −16 16L4 +L2 →L2
0 0 −1 0 −3 −→ 0 0 −1 0 −3 −→
3L4 +L3 →L3
0 0 0 0 −16 0 0 0 0 1 −→
26
1 0 0 −1 0
0 6 0 0 0
, finalmente realizando 1 L2 → L2 e −1L3 → L3 , temos que a
0 0 −1 0 0 6
0 0 0 0 1
1 0 0 −1 0
0 1 0 0 0
matriz erl, linha equivalente a A é,
0 0 1 0 0 .
0 0 0 0 1
2. Determinemos a matriz erl da matriz A dada.
2 1 2 2 1 2 2 1 2
2 3 1 −L1−→+L2 →L2
2 −1
L3 ↔L5 2 3 1 −2L +L →L
0 −2L1 +L2 →L1
−→
A= 0 0 0 −→ 4 2 3
1
−→3 3 0 0 −1 3L2 +2L4 →L3
−→
1 2 −1 1 2 −1 L1 −2L4 →L4 0 −3 4
−→
4 2 3 0 0 0 0 0 0
−4 0 −5 L −5L →L −4 0 0 −1
L1 1 0 0
0 2 −1 1 −→ 3 1
0 2 0 −→ 4
0 1 0
0 0 −1 L2 −L 3 →L2 0 0 −1 12 L2
0 0 1
−→ −→ .
0 0 5 L4 +5L3 →L3 0 0 0 −L3 0 0 0
−→ −→
0 0 0 0 0 0 0 0 0
Observações 1.43.
1. Dada uma matriz A, é claro que podemos obter diferentes formas escalonadas e equi-
valentes a A. Agora a matriz escalonada reduzida, linha equivalente a A é única, isto
deve-se ao fato, que vamos admitir, que matrizes da mesma ordem, diferentes e da forma
erl não são linha equivalentes.
2. Duas matrizes serão linha-equivalentes, se e somente se, tem as mesmas formas erl. De
fato, por um lado é claro que se A é linha equivalente a B, então suas formas erl também
serão linha equivalentes e portanto serão iguais. Por outro lado, se A e B tem a mesma
forma erl R, temos
A → R e B → R ⇒ A → R → B ⇒ A → B.
3. Dada uma matriz A, as matrizes escalonadas linha equivalentes a A tem o mesmo número
de pivôs, ou seja o mesmo número de linhas não nulas, isto deve-se basicamente a que
a partir de linhas não nulas de matrizes escalonadas não é possı́vel obter novas linhas
nulas usando operações elementares (vide conceito de independência linear em espaços
vetoriais, colocado nos enunciados 2.18 e 2.19(3)).
Definição 1.44. Seja A uma matriz de ordem m × n, definimos posto de A como o número de
linhas não nulas (ou número de pivôs) de uma forma escalonada linha-equivalente a A, o posto
é denotado pA . E verifica-se pA ≤ min{m, n}. Define-se a nulidade A como: nA = n − pA .
27
Exemplos 1.45. Calcule o posto e a nulidade das matrizes dadas.
1 0 −1 1 0 −1 1 0 −1
2 1 −5 L2 −2L1 →L2 0 1 −3 L3 −2L2 →L3
−→ 0 1 −3
1. A =
0 2 −6
−→
0 2 −6
L4 +L2 →L4
0
,
−→ 0 0
0 −1 3 0 −1 3 0 0 0
logo pA = 2 e nA = 3 − 2 = 1.
2 2 0 1 −2L2 +L1 →L2 2 2 0 1 2 2 0 1
−→ L +L2 →L3
2. A = 1 0
2 0 −2L3 +L1 →L3 0 2 −4 1 3 −→ 0 2 −4 1,
1 2 −2 1 −→ 0 −2 4 −1 0 0 0 0
logo pA = 2 e nA = 4 − 2 = 2.
O teorema a seguir relaciona a aplicação de uma operação elementar com o produto de matrizes.
Teorema 1.46. Seja A uma matriz quadrada de ordem m, se B é uma matriz linha equivalente
a A, obtida pela aplicação da operação elementar O, então B = EA, onde E é a matriz linha
equivalente a identidade Im obtida pela aplicação da operação elementar O, ou seja
O O
A → B e Im → E ⇒ B = EA.
28
1 0 0 1 0 0
5L2 ↔L2
I3 = 0
1 0 −→ 0 5
0 = E2 e
0 0 1 0 0 1
1 0 0 1 3 0
L +3L2 →L1
I3 = 0 1 0 1 −→ 0 1 0 = E3 .
0 0 1 0 0 1
As matrizes elementares são invertı́veis e suas inversas são também matrizes elementares. De
fato, considerando as operações elementares “inversas”em cada caso, temos:
A invertı́vel ⇔ R invertı́vel ⇔ R = Im ,
A é invertı́vel ⇔ A → Im .
29
Teorema 1.50. Seja A uma matriz quadrada de ordem m, então:
por praticidade construı́mos uma matriz composta por A e Im , chamada matriz ampliada,
denotada por [A|Im ]. Assim, o processo de inversão consiste em “levar” [A|Im ] em [Im |A−1 ].
Exemplos 1.52.
1 −2 4
1. Seja A = 0 −1 4, veremos que A é invertı́vel e cacularemos sua inversa.
−1 0 2
1 −2 4 1 0 0 1 −2 4 1 0 0 L1 −2L2 →L1
L +L3 →L3 −→
[A|I] = 0 −1 4 0 1 0 1 −→ 0 −1 4 0 1 0
L3 −2L2 →L3
−1 0 2 0 0 1 0 −2 6 1 0 1 −→
1 0 −4 1 −2 0 L1 −2L3 →L1 1 0 0 −1 2 −2 −L2 →L2
−→
0 −1 4 0 1 0 −→ 0 −1 0
L2 −2L3 →L2 2 −3 2 1
− 2 L3 →L3
0 0 −2 1 −2 1 −→ 0 0 −2 1 −2 1 −→
1 0 0 −1 2 −2
0 1 0 −2 3 −2 ,
0 0 1 −1/2 1 −1/2
−1 2 −2
∴ A−1 = −2 3 −2 .
−1/2 1 −1/2
1 0 −1 1
2 1 0 0
2. Seja A = 0 1 1 1. Determinemos se A é invertı́vel.
−1 0 0 2
1 0 −1 1 1 0 −1 1 1 0 −1 1
2 1 0 0 L−→ 2 −2L1
0 1 2 −2 L−→
3 −L2 0 1 2 −2
0 1 1 1 L−→ 4 +L1 0 1 1 1 0 0 −1 3
−1 0 0 2 0 0 −1 3 0 0 −1 3
30
L1 −L3
−→ 1 0 0 −2 1 0 0 0
0 1 0 4 0 1 0 8
L2 +2L3
−→ −L−→
3 →L3 ,
L4 −L3
0 0 −1 3 0 0 1 −3
−→ 0 0 0 0 0 0 0 0
observamos que a matriz A não é linha equivalente a I4 e portanto não é invertı́vel.
Observando que entre as formas erl de uma matriz quadrada de ordem m, a identidade é a
única com posto m e em vista do teorema 1.50, obtemos o seguinte corolário.
Pelo Corolário acima, para determinar se A é invertı́vel ou não, é suficiente a forma escalonada
de A (não há necesidade da forma erl).
2 0 −2
Exemplo 1.54. Determine se a matriz A = 1 −2 0 é invertı́vel ou não.
−1 0 2
2 0 −2 L1 −2L2 2 0 −2
−→
A = 1 −2 0 L1 +2L3 0 4 −2 , logo pA = 3, portanto A é invertı́vel.
−1 0 2 −→ 0 0 2
Aplicação a Fatoração LU
Consideremos uma matriz A quadrada, com a condição que seu escalonamento possa ser rea-
lizado sem permutações de linhas, isto significa que o escalonamento poderá ser feito somente
com operações linha do tipo Li + kLj → Li . Com esta condição veremos que é possı́vel escrever
A como produto de uma matriz triangular inferior L e outra triangular superior U , isto é,
A = LU.
Ek · . . . · E1 · A = U,
onde cada matriz elementar Ei está associada a uma operação de pivoteamento. Daı́,
Suponha que a matriz elementar E está associada ao pivoteamento da linha Ls , sobre a linha
Li , i < s, com pivôs o na coluna j, podemos descrever a operação na forma,
−cLs + Li → Li .
31
Definimos cij = c, chamado multiplicador da posição (i, j), daı́ a matriz elementar E terá
1’s na diagonal, −cij na posição (i, j) (baixo a diagonal) e 0’s no resto. Logo a matriz inversa
E −1 terá 1’s na diagonal, cij na posição (i, j) e 0’s no resto. Notemos que cada matriz E −1 é
uma matriz triangular inferior.
Assim, o produto L = E1−1 · . . . · Ek−1 é uma matriz triangular inferior, é possı́vel verificar que L
está composta por 1’s na diagonal e cij em cada posição (i, j) baixo a diagonal e 0’s no resto,
pois trata-se de sucessivas operações elementares realizados na matriz I. Por exemplo, se A é
uma matriz 3 × 3, em cujo escalonamento obtem-se os multiplicadores c21 , c31 e c32 , então
1 0 0 1 0 0 1 0 0
E1 = −c21 1 0 , E2 = 0 1 0 e E3 = 0 1 0 ,
0 0 1 −c31 0 1 0 −c32 1
logo
1 0 0 1 0 0 1 0 0
E1−1 = c21 1 0 , E2−1 = 0 1 0 e E3−1 = 0 1 0 ,
0 0 1 c31 0 1 0 c32 1
portanto
1 0 0 1 0 0 1 0 0 1 0 0
L = E1−1 E2−1 E3−1 = c21 1 0 0 1 0 0 1 0 = c21 1 0 ,
0 0 1 c31 0 1 0 c32 1 c31 c32 1
em geral, desde que as operações elementares sejam realizadas seguindo o algoritmo de escalo-
namento, a matriz L terá a forma acima, ou seja que L é a matriz triangular inferior com 1’s
na diagonal e os respectivos multiplicadores baixo a diagonal. Assim,
32
2 1 3
Logo, U = 0 −3/2 −1/2 é triangular superior. Para calcular L = E1−1 E2−1 E3−1 , basta
4
0 0 3
compor a matriz usando os multiplicadores:
1 0 0
L = 1/2 1 0 .
−1 −4/3 1
Portanto:
1 0 0 2 1 3
A = LU = 1/2 1 0 0 −3/2 −1/2 .
−1 − 34 1 0 0 4
3
onde,
Uma solução do sistema é uma sequência de n valores que atribuı́dos a cada x1 , · · · , xn sa-
tisfazem todas as equações do sistema. Pode-se verificar que um sistema somente pode ter
uma única solução, infinitas soluções ou nehuma solução. Logo, podemos classificar os sistemas
como:
1. Sistema Possı́vel Determinado, SPD : quando (*) possui uma única solução.
33
Escrevendo matricialmente o sistema (*), temos:
b1 a11 x1 + . . . + a1n xn a11 . . . a1n x1
.. .
. .. .
. .
. ..
. = . = . . . . .
bm am1 x1 + . . . + amn xn am1 . . . amn xn
A · X = b,
onde
X = [xi ] : Matriz coluna das incógnitas,
A = [aij ] : Matriz dos coeficientes do sistema,
b = [bi ] : Matriz coluna dos termos independentes.
Outra matriz útil é a matriz da forma b: [A|b], chamada matriz ampliada de A com b.
são:
1 1 2
Matriz de coeficientes: A = 2 4 −3.
3 6 −5
9
Matriz de termos independentes: b = 1 .
0
1 1 2 9
Matriz ampliada: [A|b] = 2 4 −3 1 .
3 6 −5 0
Um dos métodos básicos par determinar as soluções de um sistema é substituir-o por um sistema
equivalente (sistema com a mesma solução), que seja mais simples de resolver. É claro que as
seguintes operações com as equações do sistema, levam a um sistema equivalente ao inicial.
34
• Permutar duas equações
• Substituir uma equação pela soma dessa equação e um múltiplo de outra equação.
• Obter o sistema linear associado a forma el, que será equivalente ao inicial.
Exemplos 1.57.
1. Consideremos o sistema:
x + y + 2z = 9
2x + 4y − 3z = 1 ,
3x + 6y − 5z = 0
1 1 2 9
A matriz ampliada do sistema é: [A|b] = 2 4 −3 1 . Escalonando [A|b] temos:
3 6 −5 0
1 1 2 9 L2 −2L1 →L2 1 1 2 9
−→ 3L −2L →L
2 4 −3 1
L3 −3L1 →L3
0 2 −7 −17 2 −→3 3
3 6 −5 0 −→ 0 3 −11 −27
1 1 2 9 1
L
1 1 2 9
2 2
0 2 −7 −17 −→ 0 1 −7/2 −17/2 ,
0 0 1 3 0 0 1 3
Agora voltando ao sistema temos:
35
x + y + 2z = 9
y − 7/2z = −17/2 ,
+ z = 3
2. Resolvamos o sistema:
x − y + 3z = 1
x + z − w = −1
2y + w = 0
2x + y + 4z = 0
1 −1 3 0 1
1 0 1 −1 −1
A matriz ampliada do sistema é: [A|b] = 0 2 0 1
. Escalonando [A|b]
0
2 1 4 0 0
temos:
1 −1 3 0 1 1 −1 3 0 1
1 0 1 −1 −1 L2 −L 1 →L1
−→ 0 1 −2 −1 −2 L3 −2L −→2 →L3
0 2 0 1 0 L4 −2L
−→1 →L4 0 2 0 1 0 L4 −3L
−→2 →L4
2 1 4 0 0 0 3 −2 0 −2
1 −1 3 0 1 1 −1 3 0 1
0 1 −2 −1 −2 −L3 +L4 →L4 0 1 −2 −1 −2
0 0
−→ .
4 3 4 0 0 4 3 4
0 0 4 3 4 0 0 0 0 0
Agora voltando ao sistema temos:
x − y + 3z = 1
y − 2z − w = −2 ,
4z + 3w = 4
36
1 −1 3 0 1
1 0 1 −1 0
A matriz ampliada do sistema é: [A|b] = 0 2 0 1 −1 . Escalonando [A|b]
2 1 4 0 0
temos:
1 −1 3 0 1 1 −1 3 0 1
1 0 1 −1 0 L2 −L 1 →L2
−→ 0 1 −2 −1 −1 L3 −2L −→2 →L3
0 2 0 1 −1 L4 −2L −→1 →L4 0 2 0 1 0 L4 −3L
−→2 →L4
2 1 4 0 0 0 3 −2 0 −2
1 −1 3 0 1 1 −1 3 0 1
0 1 −2 −1 −1 −L3 +L4 →L4 → 0 1 −2 −1 −2
0 0
−→ .
4 3 2 0 0 4 3 4
0 0 4 3 1 0 0 0 0 1
Agora voltando ao sistema temos:
x − y + 3z = 1
y − 2z − w = −2
,
4z + 3w = 4
0 = 1
não tem valores que satisfazam simultaneamente todas as equações, logo temos um SI.
pA = p[A|b] = n.
pA = p[A|b] < n.
As variáveis que ao assumir valores quaisquer determinam a solução do sistema são chama-
das de variáveis livres ou independentes, as variáveis restantes são ditas variáves
dependentes. Observemos que n − pA , representa o número de variáveis livres e pA
corresponde ao número de variáveis dependentes. n−p[A|b] é chamado grau de liberdade
do sistema.
pA 6= p[A|b] ,
37
Exemplos 1.58. 1. Consideremos o sistema:
2x1 + 2x2 − x3 + x4 = −1
−x1 − x2 + 2x3 + x4 = −1 ,
x1 + 3x2 − x3 − x4 = 0
38
Sistemas Homogêneos
Um sistema cujos termos independentes são todos nulos (ou seja b = 0) é dito sistema
homogêneo (SH), a forma matricial de um sistema homogêneo é:
AX = 0,
39
Esta proposição vem do fato que:
A invertı́vel ⇔ pA = m ⇔ o sistema é SPD.
a) A é invertı́vel.
b) pA = m
c) Para toda coluna b de ordem m × 1, o sistema matricial A · X = b tem pelo menos uma
solução.
d) O sistema homogêneo A · X = 0 tem solução única nula.
40
Figura 1.1: Rede de tubulações
41
1.7 Determinantes
Dada uma matriz quadrada A, o determinante de A é um número real, denotado por det A
ou |A|, que define a inversibilidade da matriz. Vamos apresentar a forma geral que tem o
determinante de uma matriz quadrada de ordem qualquer embora não constitui uma definição
do conceito. O determinante de matrizes de ordem 1, 2 e 3 será dado explicitamente e para o
caso de ordem maior serão usadas propriedades e o desenvolvimento de Laplace.
Forma geral do Determinante. Dada uma matriz A = [aij ]n×n o determinante de A tem a
forma, X
det A = ±a1i1 · . . . · akik · . . . · anin ,
onde (i1 , . . . , in ) são permutações de 1, 2, . . . , n e o somátorio é sobre todas as n! permutações.
O sinal de cada parcela depende da permutação associada e não será definido nestas notas.
Para os cálculos usaremos os casos particulares, propriedades e o Teorema de Laplace.
i) Ordem 1. |[a]| = a
a b
ii) Ordem 2. A = = ad − bc.
c d
a1 a2 a3
iii) Ordem 3. b1 b2 b3 = a1 b2 c3 + a2 b3 c1 + a3 b1 c2 − a1 b3 c2 − a2 b1 c2 − a3 b2 c1 .
c1 c2 c3
Neste caso o valor do determinante é obtido também pela Regra de Sarrus, mas esta regra
só se aplica a este caso e não para ordem maior.
42
Proposição 1.65 (Propriedades básicas).
1. det(In ) = 1.
det(L1 , . . . , Li , . . . , Lj . . . , Ln ) = − det(L1 , . . . , Lj , . . . , Li . . . , Ln ).
9. det A 6= 0 ⇔ pA = n ⇔ A invertı́vel.
43
2 −8 6 8
3 −9 5 10
2. Calculemos o determinante da matriz
−3 0 1 −2 .
1 −4 0 6
2 −8 6 8 1 −4 3 4 1 −4 3 4
3 −9 5 10 3 −9 5 10 0 3 −4 −2
=2 =2
−3 0 1 −2 −3 0 1 −2 0 −12 10 10
1 −4 0 6 1 −4 0 6 0 0 −3 2
1 −4 3 4 1 −4 3 4
0 3 −4 −2 0 3 −4 −2
=2 =2 = −36.
0 0 −6 2 0 0 −6 2
0 0 −3 2 0 0 0 1
3. Verifique que det(A) = det(At ), para a matriz do exercı́cio 1.
1 −2 1
Temos At = −4 8 3, logo
2 −9 0
1 −2 1 1 −2 1
det(At ) = 0 0 7 = − 0 −5 −2 = −(−5)(7) = 35 = det(A).
0 −5 −2 0 0 7
4. Por observação, dê o valor dos determinantes das matrizes:
3 0 0 0
−2 1 4 0 0 −1 1
A = 1 −2 −2, B =
0 2 3 3, e −2B
3 5 −6
0 0 0 1
Temos,
• det(A) = 0, pois a 3a coluna é múltiplo da 1a coluna.
• det(B) = −(3)(2)(−1)(1) = 6, pois permutando a 2a e 3a linhas a matriz é triangular
superior com as entradas 3, 2, -1 e 1 na diagonal.
• det(−2B) = (−2)4 det(B) = 16 × 6 = 96.
Observação 1.68. Considere o sistema linear AX = b, onde a matriz de coeficientes A é uma
matriz quadrada de ordem n, temos
AX = b é SPD ⇔ pA = n ⇔ A é invertı́vel ⇔ |A| =
6 0.
Caso |A| = 0 o sistema pode ser SPI ou SI.
Desenvolvimento de Laplace.
O determinante de uma matriz quadrada de ordem m ≥ 3, pode ser reduzido ao cálculo de
determinantes de matrizes de ordem m − 1, é o que estabelece o Teorema de Laplace, para isto
definamos os seguintes conceitos.
44
Definições 1.69. Dada uma matriz quadrada A = [aij ] de ordem m ≥ 2, denotemos por Mij ,
a submatriz, de ordem m − 1, obtida da matriz A pela retirada da i-ésima linha e da j-ésima
coluna, ou seja:
a11 ... a1(j−1) a1(j+1) ... a1m
.. .. .. ..
. . . .
a . . . a a . . . a
Mij = (i−1)1 (i−1)(j−1) (i−1)(j+1) (i−1)m
.
a(i+1)1 . . . a(i+1)(j−1) a(i+1)(j+1) . . . a(i+1)m
. .. .. ..
.. . . .
am1 . . . am(j−1) am(j+1) . . . amm
Definimos como Matriz de cofatores de A a matriz dada por: Cof (A) = [Cij ]m×m .
Os sinais (−1)i+j no cofator do elemento aij , variam com a posição (i, j), como indicado:
+ − + ...
− + − . . .
.
.. .. ..
. . .
2 0 −3
Exemplo 1.70. Para a matriz A = 1 1 −1, temos:
−1 2 −1
1 −1 1 −1 1 1
C11 = = 1, C12 = − = 2, C13 = =3
2 −1 −1 −1 −1 2
0 −3 2 −3 2 0
C21 = − = −6, C22 = = −5, C23 = − = −4
2 −1 −1 −1 −1 2
0 −3 2 −3 2 0
C31 = = 3, C32 = − = −1, C33 = = 2.
1 −1 1 −1 1 1
1 2 3
∴ Cof (A) = −6 −5 −4 .
3 −1 2
45
• Desenvolvimento através da j-ésima coluna
n
X
det(A) = a1j C1j + a2j C2j + . . . + anj Cnj = akj Ckj .
k=1
46
3. Neste exemplo vamos usar operações linha
e desenvolvimento
por linhas ou colunas para
3 5 −2 6
1 2 −1 1
calcular o determinante da matriz A = 2
.
4 1 5
3 7 5 3
3 5 −2 6 0 −1 1 3
−1 1 3
1 2 −1 1 1 2 −1 1
det(A) = = =− 0 3 3
2 4 1 5 0 0 3 3
1 8 0
3 7 5 3 0 1 8 0
−1 1 3
3 3
= − 0 3 3 = −(−1) = −18.
9 3
0 9 3
Portanto A é invertı́vel.
47
Definição 1.77. Dada a matriz A, define-se matriz adjunta classica de A como a matriz:
adj(A) = (Cof (A))t = [Cij ]t .
−1 −2 0
Exemplo 1.78. Calculemos adj(A), para A = 1
4 1. Temos:
5 0 1
4 1 1 1 1 4
C11 = = 4, C12 = − = 4, C13 = = −20
0 1 5 1 5 0
−2 0 −1 0 −1 −2
C21 = = 2, C22 = = −1, C23 = = −10
0 1 5 1 5 0
−2 0 −1 0 −1 −2
C31 = = −2, C32 = − = 1, C33 = = −2.
4 1 1 1 1 4
4 2 −2
Portanto: adj(A) = 4 −1 1 .
−20 −10 −2
Na diagonal, bii = ai1 Ci1 + · · · + ain Cjn = det A. Para i 6= j, ou seja, fora da diagonal, temos
bij = ai1 Cj1 + · · · + ain Cjn = 0. Portanto:
A · adj(A) = (det A)In .
Esta igualdade permite determinar a inversa caso det A 6= 0.
Proposição 1.79. Para toda matriz quadrada, A invertı́vel, temos:
1
A−1 =adj(A).
det(A)
−1 −2 0
Exemplo 1.80. Sabemos que a matriz A = 1 4 1 é invertı́vel, com
5 0 1
4 2 −2
det(A) = −12 e adj(A) = 4 −1 1 ,
−20 −10 −2
logo,
4 2 −2
−1
A−1 = 4 −1 1 .
12
−20 −10 −2
48
Interpretação Geométrica no Plano
x1 y 1
Considere a matriz A = , veremos que o valor absoluto do det(A) é exatamente a área
x2 y 2
do paralelogramo determinado pelos vetores u = (x1 , y1 ) e v = (x2 , y2 ), sendo u e v vetores não
paralelos.
x1 x2 + y1 y2 = 0, ∀ u, v.
x21 + y12 0
a2 = l12 l22 = (x21 + y12 )(x22 + y22 ) = = det(AAt ) = (det(A))2 ,
0 x22 + y22
portanto a = |det(A)|.
portanto,
u u
a = |det | = |det | = |det(A)|.
v − λu v
49
1.8 Exercı́cios
1. Em cada caso determine a matriz da forma el e da forma erl, linha-equivalente a matriz
dada.
0 −3 −6 4 9 1 2 3
−1 1 1 2 9 3 −2 0
−2 −1 3 1 1 0 0
(a)
−2
(b) 2 4 −3 1 (c) (d) 2 −1 −1.
−3 0 3 −1 0 1 1
3 6 −5 0 4 −3 1
0 −3 −6 4 9 2 4 5
6. Determine
todos
os valores possı́veis para pA , de acordo com os valores do parâmetro a.
1 2 a
A = −2
4a 2
a −2 1
50
10. Determine os valores de a, b e c para os quais a matriz :
1 1 1 1
1 1+a 1 1
é invertı́vel.
1 1 1+b 1
1 1 1 1+c
1 3 −3
11. A matriz M é invertı́vel e verifica (3M −1 )t = 0 −1 2 , determine M .
1 −2 1
x + 2y + 3z = 24
14. Considere o sistema 2x + y + 3z = 48
3x + 2y + z = 60
51
2x − 5y + 2z = 0 x + 6y − kz + w = 0
S1 : x+y+z = 0 S2 : x+y−w = 0 .
2x + kz = 0 4x + y + 6z + kw = 0
(a) Para cada sistema, encontre os valores de k para os quais o sistema seja possı́vel e
indeterminado.
(b) Para cada sistema, considere k = −3 e determine a solução.
16. Em cada caso, determine o tipo de solução dos sistemas, de acordo com os valores dos
parâmetros α, β, γ, a, b e c.
x+y+z = 0 x + y + βz = 1
(a) x − y + αz = 1 (b) x + 2y + z = 2 .
αx + 2y + z = −2 2x + 5y − 3z = γ
x1 + ax2 + x3 = 1 x1 + 2x2 + (b + 1)x3 = 2
2
(c) 2x1 − ax2 + 3x3 = a (d) x2 + b x3 = b+1
−x1 + 3x2 = −2 x1 + (1 − b)x3 = 0
x+y+z = 0
x + (c − 1)y = 1
(e)
x + cz = −1
x+z = 2
17. Em cada caso, determine a relação entre os parâmetros a, b e c para que o sistema admita
solução.
x − 2y − z = a x+ 2y+ 3z− 3w = a
(a) 2x + y + 3z = b (b) 2x− 5y− 3z+ 12w = b
4x − 3y + z = c 7x+ y+ 8z+ 5w = c
52
20. Uma rede de valas de irrigação é mostrada na figura abaixo, com vazões medidas em
milhares de litros por dia.
(a) Configure e resolva um sistema de equações lineares para encontrar os possı́veis fluxos
f1 , . . . , f 5
(b) Suponha que DC esteja fechado. Que faixa de fluxo precisará para ser mantido através
do DB?
(c) A partir da figura, é claro que o DB não pode ser fechada, justifique esta afirmação.
Como sua solução, na parte (a) mostra isso?
(d) Da solução obtida em (a), determine os fluxos mı́nimo e máximo por DB.
21. Suponha que a curva y = ax2 + bx + c passa pelos três distintos pontos (x1 , y1 ), (x2 , y2 )
e (x3 , y3 ). Mostre que os coeficientes
2 a, b e c são uma solução do sistema de equações
x1 x1 1 y1
lineares cuja matriz ampliada é x22 x2 1 y2 .
x23 x3 1 y3
Use determinantes para concluir que os coeficientes a, b, c existem e são únicos.
53
(d) det(2A) det(3B) = 6 det A det B
(e) Se B é invertı́vel então det(B −1 AB) = det A
24. Suponha que A = [aij ] é uma matriz quadrada de ordem 4, tal que det A = −7 e calcule:
2a14 a34 a44 a24
−2a12 −a32 −a42 −a22
(a) det(3A) (b) det(2A−1 ) (c) det(2A)−1 (d) .
2a13 a33 a43 a23
2a11 a31 a41 a21
25. Use determinantes para achar todos os valores de a e b, tais que a matriz A seja invertı́vel
a −1 3
A = −1 −2 b .
0 1 −3
26. Use determinantes para encontrar uma condição necessária e suficiente sobre a, b, c, d ∈ R
de forma que a matriz A não seja invertı́vel.
a+1 b c d
a b+1 c d
A= a
.
b c+1 d
a b c d+1
54
Capı́tulo 2
ESPAÇOS VETORIAIS
2.1 Introdução
O plano munido de um sistema de coordenadas cartesianas,
u + v = w = (a + b, b + d) ∈ R2 ,
55
• Multiplicação de vetor por escalar: Se λ ∈ R e v = (a, b) ∈ R2 , então a multiplicação
de λ por v, é o vetor: λv = (λa, λb) ∈ R2 , geometricamente entendido como um vetor na
reta determinada por v, com comprimento e sentido determinado por λ.
Notemos que vetores de R2 podem ser entendidos também como matrizes coluna 2 × 1, visto
que a única diferença ao efetuar as operações é a notação.
Em resumo, R2 possui duas operações, uma interna (entre vetores resultando em vetor) que é
a soma de vetores e outra externa (de real por vetor resultando vetor), que é a multiplicação
por escalar, sendo que estas operações possuem uma série de propriedades algébricas. Um
espaço vetorial basicamente, é uma generalização deste conjunto geométrico de vetores, de suas
operações de soma e multiplicação por escalar e de suas propriedades. Nesta generalização,
no lugar de R2 considera-se um conjunto V e no lugar do conjunto com escalares R usamos
um conjunto com estrutura de corpo, de forma que seja possı́vel efetuar as operações interna e
externa com propriedades análogas às de R2 . Definiremos a estrutura de corpo e posteriormente
o conceito de espaço vetorial.
56
M1) A multiplição é Associativa: (x · y) · z = x · (y · z), ∀x, y, z ∈ K.
M2) A multiplição é Comutativa: x · y = y · x, ∀x, y ∈ K.
M3) Existência da Unidade: Existe 1 ∈ K, com a propriedade: x · 1 = 1 · x = x, ∀x ∈ K.
−1
M4) Existência dos Inversos: Para cada x 6= 0, x ∈ K, existe o elemento x ∈ K, que verifica,
x · x−1 = x−1 · x = 1, ∀ x ∈ K.
M5) Distributividade: Para todos x, y, z ∈ K, x · (y + z) = x · y + x · z.
Exemplo 2.2.
+ 0 1 · 0 1
0 0 1 0 0 0
1 1 0 1 0 1
Definição 2.3. Consideremos um conjunto não vazio V e um corpo K, (normalmente será R),
onde existem as operações de adição e de multiplicação por escalar:
Dizemos que V com as operações acima é um Espaço Vetorial sobre K, se são satisfeitas:
E1) Associatividade da Adição: Para todos u, v, w ∈ V , temos
(u + v) + w = u + (v + w).
u + v = v + u.
E3) Existência do Zero: Existe um elemento, denotado por 0V ∈ V (ou simplesmente 0),
com a propriedade
v + 0V = 0V + v = v.
v + (−v) = (−v) + v = 0V .
(λβ)v = λ(βv).
57
E6) Para todos λ, β ∈ K e v ∈ V ,
(λ + β) · v = λ · v + β · v.
λ · (u + v) = λ · u + λ · v.
Os elementos de V são ditos vetores, o elemento zero é dito vetor nulo e os elementos de K
são ditos escalares.
V é dito Espaço Vetorial Real , caso K = R ou Espaço Vetorial Complexo, caso K = C.
Nestas notas estaremos trabalhando sempre com espaços vetoriais reais.
2. Seja I um intervalo real e consideremos o conjunto das funções de I com valores em R que
denotaremos por F (I, R). F (I, R) é um espaço vetorial real, munido com as operações:
58
Proposição 2.5. Seja V um espaço vetorial, então para todo v ∈ V e λ ∈ R, temos:
1. 0 · v = 0V .
2. λ · 0V = 0V .
3. −1 · v = −v.
Observação 2.7. Devido a que várias propriedades necessárias para W ser um espaço vetorial
munido das operações de V são transladadas de V para W , para verificar que W é um subespaço
de V é suficiente que,
3. 0V ∈ W .
Exemplos 2.8.
59
2 x
2. Se V = R , a reta W = { ∈ R2 | y = 3x} é um subespaço vetorial real de V .
y
x x
Para verificar este fato, reescrevemos W = { ∈ R2 | y = 3x} = { | x ∈ R} =
y 3x
1
{x | x ∈ R} e testamos as condições da obervação 2.7.
3
1 1
• Se u = x ev=y ∈ W , temos
3 3
1 1 1
u+v =x +y = (x + y) ∈ W.
3 3 3
1
• Se u = x ∈ W e λ ∈ R, temos
3
1 1
λu = λ(x ) = (λx) ∈ W.
3 3
0 1
• =0· ∈ W.
0 3
60
W é um subespaço vetorial de Rn , pois:
• 0 ∈ W , já que A · 0 = 0
• Se X, Z ∈ W , então A · (X + Z) = A · X + A · Z = 0 + 0 = 0,
• Se X ∈ W e λ ∈ R, então
A · (λX) = λ(A · X) = λ0 = 0.
61
−1 2
3
Exemplo 2.10. Consideremos em V = R , os vetores v1 = 1 , v2 = 0 . Vejamos que
2 −1
os seguintes vetores são combinações lineares de v1 e v2 :
4 1 1
u = 2v1 + 3v2 = 2 , w = v1 + v2 = 1 e z = −1 · v1 + 0 · v2 = −v1 = −1 .
1 1 −2
Assim, para mostrar uma combinação linear dos vetores v1 e v2 , escolhemos escalares α e β e
3
calculamos αv1 + βv2 . Por outro lado, dado umvetor
v de R , como determinar se v é uma
1
combinação linear de v1 e v2 ? Por exemplo v = 5 é uma combinação linear de v1 e v2 ? E o
7
3
que dizer sobre v = 1 ?
0
1 1
• Para o caso v = 5 , procurando escalares α e β, tais que 5 = αv1 + βv2 , temos
7 7
−1 2 1 −1 2 1 −2α + 2β = 1
α
α 1 +β 0 = 5 ⇔ 1
0 = 5 ⇔
α = 5 .
β
2 −1 7 2 −1 7 2α − β = 7
62
3
• Já no caso v = 1, não é combinação linear de v1 e v2 , pois procurando escalares α e β
1
tais que:
3 −1 2 −α + 2β
1 = α 1 + β 0 = α ,
1 2 −1 2α − β
−1 2 3
α
obtemos o sistema: 1 0 = 1 Este sistema é SI, logo v não é combinação
β
2 −1 1
linear de v1 e v2 .
Observação 2.11. De acordo com o exemplo, notamos que uma combinação linear dos vetores
v1 , . . . , vn em Rm é da forma:
α1 v1 + α2 v2 + . . . + αn vn = A · v,
W = {α1 v1 + α2 v2 + . . . , +αn vn | α1 , . . . , αn ∈ R} ⊆ V.
• 0V = 0v1 + . . . + 0vn ∈ W.
W = [v1 , . . . , vn ] ou W = [S],
63
Exemplo 2.12.
Determine
a(s)
equação(ões) que definem
o subespaço de R3 , gerado pelos
2 −1 a
vetores u = 1 e v = −1 . Neste caso, w = b ∈ [u, v], se e somente, se existem α e β,
−1 3 c
tais que:
a 2 −1 2 −1 a
b = α 1 + β −1 , ou seja 1 −1 α = b .
β
c −1 3 −1 3 c
A matriz ampliada do sistema é:
2 −1 a
[A|B] = 1 −1 b , escalonando, temos:
−1 3 c
2 −1 a 2 −1 a 2 −1 a
1 −1 b → 0 1 a − 2b → 0 1 a − 2b
−1 3 c 0 5 a + 2c 0 0 −4a + 10b + 2c
2 −1 a
→ 0 1
a − 2b ,
0 0 2a − 5b − c
assim, para que o sistema tenha solução é necessário que 2a − 5b − c = 0, portanto:
a
[u, v] = { b ∈ R3 | 2a − 5b − c = 0}.
c
Exemplos 2.13 (Espaços gerados em R3 ). Consideremos V = R3 , temos:
64
2. Se u, v são vetores não nulos de R3 e não paralelos. Então o subespaço [u, v] é o plano
determinado por u e v.
Exemplos 2.14.
4
1. Dado v = −2 ∈ R3 , W = [v] é a reta de R3 que passa pela origem e que contém o
2
vetor v, que podemos descrever como,
4 2 2λ
W = [v] = {λ −2 | λ ∈ R} = {λ −1 | λ ∈ R} = {−λ | λ ∈ R}.
2 1 λ
65
Notemos que a reta W pode ser gerada por,
4 2 −6 2 4
−2 ou −1 ou 3 ou por −1 e −2 .
2 1 −3 1 2
−1 0
2. Dados u = 2 e v = −1, notemos que u ∈
/ [v], pois u não é múltiplo de v. Assim,
1 0
concluı́mos que W = [u, v] é o plano de R3 , que passa pela origem e contém u e v.
Determinemos exatamente os vetores de W ,
x x −1 0
y ∈ W ⇔ y = α 2 + β −1 , α, β ∈ R
z z 1 0
−1 0 x
α
⇔ 2 −1 = y , α, β ∈ R
β
1 0 z
x
assim, y ∈ W , se e somente se, o sistema tem solução ou seja, x + z = 0. Esta equação
z
é a que representa o plano [u, v].
Observação 2.15. O conjunto usual de geradores do espaço vetorial Rn é composto pelos
vetores:
1 0 0
0 1 0
e1 = .. , e2 = .. , . . . , en = .. ,
. . .
0 0 1
pois, claramente:
x1 1 0 0
x2 0 1 0
.. = x1 .. + x2 .. + . . . + xn .. = x1 e1 + x2 e2 + . . . + xn en .
. . . .
xn 0 0 1
A seguinte propriedade útil para determinar quando dois conjuntos geram o mesmo subespaço.
66
Proposição 2.16. Se S e T são conjuntos de vetores de um espaço vetorial V , então,
[S] = [T ] ⇔ S ⊆ [T ] e T ⊆ [S].
Exemplo 2.17. Se u e v são vetores de um espaço vetorial V , temos [u, v] = [−u, u + v], pois
u = −1 · (−u) + 0 · (u + v); v = 1 · (−u) + 1 · (u + v) ⇒ u, v ∈ [−u, u + v]
e
−u = −1 · u + 0 · v; u + v = 1 · u + 1 · v ⇒ −u, u + v ∈ [u, v].
No espaço R3 consideremos vetores não nulos, u, v, que não são múltiplos um do outro, neste
caso é claro que,
[u, v, u + v] = [u, v] 6= [u],
este exemplo ilustra que em certos conjuntos de geradores de um espaço, podemos extrair
vetores preservando o espaço gerado, mas em outros conjuntos isto não é mais possı́vel.
Em geral, dado um conjunto de vetores geradores de V , v1 , v2 , . . . , vn , desejamos extrair um
subconjunto com um mı́nimo de vetores que ainda seja gerador de V , para isto definiremos os
conceitos de dependência e independência linear.
α1 v1 + α2 v2 + . . . + αn vn = 0V
é, α1 = α2 = . . . = αn = 0. Caso exista uma solução com alguns escalares não nulos, diremos
que S é linearmente dependente (LD).
Nota 2.20. De 2.19(3), veja que um conjunto S com dois vetores não nulos verifica,
67
Exemplos 2.21.
−2 4
1. {u = 3 , v = −6} é LD, pois v = −2u.
1 −2
1 1
{w = 0 , z = −1} é LI, pois w 6= kz, ∀k ∈ R.
2 2
−2 1 1
2. { 1 , −1 , −1} é LI. De fato, consideremos a equação:
1 1 −1
−2 1 1 0
α 1 + β −1 + γ −1 = 0 ,
1 1 −1 0
esta equação equivale ao sistema homogêneo,
−2 1 1 α 0
1 −1 −1 β = 0 .
1 1 −1 γ 0
Para determinar se a solução do sistema é única (portanto nula) ou não, podemos calcular
o posto.
−2 1 1 −2 1 1 −2 1 1
1 −1 −1 → 0 −1 −1 → 0 −1 −1 ,
1 1 −1 0 3 −1 0 0 −4
logo o posto é 3, assim a solução é única e nula, portanto S é LI.
Observação 2.22. No caso V = Rm e S = {v1 , . . . , vn } ⊆ V , para determinar se S é LI ou LD
considere a matriz A, de ordem m × n, cujas colunas são os vetores de S e observamos que o
posto de A determina o tipo de solução do sistema homogêneo AX = 0, logo:
• No caso m = n, temos
S é LI ⇔ pA = m ⇔ A invertı́vel ⇔ det A 6= 0
S é LD ⇔ pA < m ⇔ A não invertı́vel ⇔ det A = 0.
S é LI ⇔ pA = n
S é LD ⇔ pA < n,
Neste caso ainda podemos usar o determinante de uma submatriz de A na seguinte forma:
68
Exemplos 2.23. 1. Em R4 , consideremos o conjunto de vetores
1 0 2
−1 2 0
{ 0 , 1 , 1}.
2 −1 3
Temos:
1 0 2 1 0 2 1 0 2
−1 2 0
0 2 2 0 1 1
0 → → ,
1 1 0 1 1 0 0 0
2 −1 3 0 −1 −1 0 0 0
o posto é 2 < 3, logo o conjunto de vetores é LD.
2. Em R4 , o conjunto de vetores
1 −1 1
0 0 2
{
0 , 2 , 0}
1 1 1
é LI, pois:
0 0 2
0 2 0 = −4 6= 0.
1 1 1
1. S é um conjunto LI
2. S gera V .
Exemplos 2.25.
69
é uma base de R2 , chamada base canônica de R3 . Em geral, o conjunto
1 0
0 0
{e1 = .. , . . . , en = .. },
. .
0 1
1 2 3 1 2 3 1 2 3
2 9 3 = 0 5 −3 = 0 5 −3 = −5 6= 0,
1 0 4 0 −2 1 0 0 −1
logo S é LI, também gera R3 , pois claramente o sistema AX = b terá solução para todo
b ∈ R3 . Portanto S é uma base para V .
3. No espaço vetorial Pn (R) = {a0 +a1 x+. . .+an xn | a0 , a1 , . . . , an ∈ R}, é simples notar que
o conjunto {1, x, x2 , . . . , xn } é gerador e LI, portanto é uma base para Pn (R), chamada
base usual.
A seguinte proposição contém resultados que mostram que todas as bases de um espaço vetorial
tem o mesmo número de vetores.
Proposição 2.28. Seja V é um espaço vetorial, que possui uma base com exatamente n vetores,
então temos:
70
1. Todo conjunto de V com mais do que n vetores será LD.
2. Todo conjunto de V com menos do que n vetores não gera V .
3. Todas as bases de um espaço vetorial V , possuem o mesmo número de vetores.
Definição 2.29. Dizemos que um espaço vetorial V tem dimensão n, se suas bases possuem
n elementos, neste caso escrevemos
dimV = n.
Se V = {0V }, entenderemos que dim{0V } = 0.
Exemplos 2.30.
1. dimRn = n.
2. Seja W = [v] , com v 6= 0. Claramente {v} é LI e gera, logo é uma base de W , assim
dimW = 1. Em R2 ou R3 o espaço gerado por um vetor não nulo e tem dimensão 1.
3. Em R3 , um subespaço W gerado por quaisquer dois vetores LI u e v, é um plano passando
pela origem cuja base é {u, v}, logo dimW = 2.
4. Determine uma base e a dimensão do espaço dado por
x
W = { y | 3x − 2y + 5z = 0}.
z
3x + 5z
De fato, y = logo,
2
x x
y = (3x + 5z)/2
z z
x 0
= 3x/2 + 5z/2
0 z
1 0
= x 3/2 + z 5/2 , ∀x, z ∈ R.
0 1
71
5. dim(Pn (R)) = n + 1, pois sua base estândar tem n + 1 vetores.
• B é LI ⇔ base deV
• B geraV ⇔ B é base deV.
1. dimW ≤ dimV.
2. dimW = n ⇔ W = V.
A seguinte proposição providencia um processo para determinar bases para o espaço gerado
por um conjunto de vetores do espaço Rn .
Proposição 2.33. Sejam A uma matriz de ordem m × n e B sua forma escalonada linha,
considerando as linhas das matrizes como vetores de Rn , temos que as linhas não nulas de B
formam uma base para o espaço gerado pelas linhas de A.
Exemplo 2.34. Determine uma base para o subespaço W de R3 gerado pelos vetores
1 2 −2 −1
u = 2 , v = 7 , w = −1 , z = 1 .
−1 −1 3 2
1 2 −1 1 2 −1 1 2 −1
2 7 −1
0
3 1 → 0 3 1 .
−2 −1 3 → 0
3 1 0 0 0
−1 1 2 0 3 1 0 0 0
1 0
Portanto uma base para W é { 2 , 3} e dimW = 2. Neste caso qualquer par de vetores
−1 1
entre os dados é uma base, pois serão 2 vetores LI em um espaço com dimensão 2.
72
2.6 Espaços Associados a uma Matriz
Seja A uma matriz de ordem m × n. O espaço nulo de uma matriz A é o espaço das
soluções do sistema homogêneo com matriz de coeficientes A,
N ul(A) = {X ∈ Rn | A · X = 0}.
2 1 −1 1
Exemplo 2.35. Seja A = 1 1 −2 −1 , determinemos uma base para W = N ul(A).
1 2 −5 −4
Temos que W é o subespaço de R4 das soluções do sistema homogêneo,
x
2 1 −1 1 0
1 1 −2 −1 y = 0 .
z
1 2 −5 −4 0
w
Escalonando A temos,
2 1 −1 1 2 1 −1 1 2 0 2 4 1 0 1 2
A = 1 1 −2 −1 → 0 −1 3 3 → 0 1 −3 −3 → 0 1 −3 −3 .
1 2 −5 −4 0 −3 9 9 0 0 0 0 0 0 0 0
0 1
X = 0 ⇒ s1 = 0, . . . , snA = 0,
73
ou seja que o conjunto B é LI, portanto determinará uma base para N ul(A).
Os vetores da base B podem ser determinados atribuindo 1 a uma variável independente e 0
as restantes. Concluı́mos então que:
dim N ul(A) = nA = n − pA .
ou seja
Col(A) = {AX ∈ Rm / X ∈ Rn }.
Nota 2.37. Podemos obter uma base e a dimensão de Col(A), usando a propriedade 2.33, ou
seja tomando as linhas não nulas da matriz escalonada obtida a partir de At .
Em geral, como no exercı́cio anterior, a dimensão do espaço Col(A) é igual ao posto de At , mas
o teorema abaixo esclarece que os postos de At e A são iguais, assim temos uma forma prática
de calcular dimCol(A).
74
Teorema 2.39. Se A é uma matriz m × n, então pA = pAt , portanto
dim Col(A) = dim Lin(A) = pA .
75
2. Sejam V = R3 e U e W duas retas diferentes que passam pela origem, neste caso temos
o subespaço vetorial: U ∩ W = {0V } .
Exemplos 2.45.
76
2. Consideremos V = R3 e um plano U passando pela origem e uma reta W passando pela
origem. Temos:
Observação 2.46. Notemos que se temos bases: {u1 , . . . uk } e {w1 , . . . , wr }, para os espaços
U e W , respectivamente, então a união destas bases:
{u1 , . . . , wr } ,
77
Exemplo 2.48. Determine U +W e verifique o teorema anterior, onde U e W são os subespaços
de R3 :
x x
U = { y | x + y − z = 0} e W = { y | x − y = 0}.
z z
Notemos que:
1 0 1 0
U = [ 0 , 1 ] e W = [ 1 , 0].
1 1 0 1
Então,
1 0 1 0
U + W = [0 , 1 , 1 , 0].
1 1 0 1
Notemos que dim(U + W ) = 3, pois temos 3 vetores LI, de fato:
0 1 0
1 1 0 = −1 6= 0.
1 0 1
Então, U + W = R3 .
Agora determinemos U ∩ W :
x
U ∩ W = {y ∈ R3 | x + y − z = 0 e x − y = 0}
z
x
1
= {y ∈ R3 | x = y = z}
2
z
1
= {λ 1 | λ ∈ R}.
2
No caso de soma direta, temos dim(U ∩W ) = dim{0V } = 0, logo dim(U ⊕W ) = dimU +dimW .
Nesse caso, uma reunião de bases de U e de W , terá o número de vetores igual a dim(U ⊕ W ),
logo a reunião de bases é uma base para a soma direta.
No exemplo anterior, V não é soma direta de U e W .
78
Exemplo 2.50. Um exemplo de soma direta é o plano V , determinado por dois vetores LI
u e w, neste caso tomando os subespaços de V : U = [u] e W = [w], temos claramente que
V = U ⊕ W.
Observação 2.51. Da propria definição temos que todo vetor do espaço V = U +W é composto
por somas de dois vetores, um em U e o outro em W . Agora se a soma é direta, ou seja
V = U ⊕ W , além de cada vetor de V ser da forma: v = u + w, com u ∈ U e w ∈ W , as
componenetes de v em U e W são únicas, ou seja que:
v = u + w = u0 + w0 , com u, u0 ∈ U e w, w0 ∈ W ⇒ u − u0 = w0 − w ∈ U ∩ W
⇒ u − u0 = 0 e w − w 0 = 0
⇒ u = u0 e w = w0 .
79
De forma que
x1
v = x1 v1 + . . . + xn vn ⇔ [v]α = ... .
xn
Exemplos 2.53.
1 0
n .. ..
1. Sejam V = R e a base canônica ordenada α = {e1 = . , . . . , en = . }. Neste caso
0 1
n
para qualquer vetor de R , temos
x1 1 0
.. .. ..
v = . = x1 . + . . . + xn . = x1 e1 + . . . + xn en , ou seja:
xn 0 1
x1
..
[v]α = . = v, para todo v ∈ Rn .
xn
1 2 0
3
2. Seja V = R , afirmamos que β = {u1 = −1 , u2 = −1 , u3 = 1} é uma base para
0 −1 1
V (verifique!).
x
(a) Determinemos as coordenadas de um vetor v = y ∈ V em relação a base ordenada
z
β, temos,
a 1 2 0 x 1 2 0 a x
[v]β = b ⇒ a −1 + b −1 + c 1 = y ⇔ −1 −1 1
b = y .
c 0 −1 1 z 0 −1 1 c z
O sistema pode ser resolvido por inversão pois a solução é única, ou seja é SPD, logo
a matriz de coeficientes é invertı́vel. Usando qualquer processo de inversão de matrizes,
obtemos:
−1
a 1 2 0 x 0 −2 2 x
1
[v]β = b = −1 −1 1
y =
1 1 −1 y ,
2
c 0 −1 1 z 1 1 1 z
assim
−2y + 2z
1
[v]β = x + y − z .
2
x+y+z
80
(b) Dadas as coordenadas de um vetor, podemos obter o próprio vetor. De fato:
1 1 2 0 −1
• Se [u]β = −1 ⇒ u = u1 − u2 + 2u3 = −1 − −1 + 2 1 = 2 .
2 0 −1 1 3
0 2
• Se [v]β = 1 ⇒ v é o segundo vetor da base ⇒ v = −1 .
0 −1
Propriedades 2.54. Se V é um espaço de dimensão finita n, com base α e u, v ∈ V , então
valem as seguintes propriedades:
1. [u]α = 0Rn ⇔ u = 0V .
2. [u]α = [v]α ⇔ u = v
3. [u + v]α = [u]α + [v]α
4. [λu]α = λ[u]α
5. Se A e B são matrizes de ordem m × n, tais que A[u]α = B[u]α , ∀u ∈ V , então A = B.
[u]β = [a1 u1 + . . . + an un ]β
= a1 [u1 ]β + . . . + an [un ]β
a1
..
= [ [u1 ]β . . . [un ]β ] · .
an
= [ [u1 ]β . . . [un ]β ] · [u]α
81
A matriz acima cuja j-ésima coluna é o vetor [uj ]β , é chamada matriz mudança de base,
da base α para base β e é denotada por [I]αβ , ou seja
ou seja que, fixadas as bases α, β a matriz [I]αβ é a única que verifica a igualdade acima.
Resumindo em um diagrama,
de forma prática, conhecendo [u]α podemos determinar [u]β multiplicando pela matriz [I]αβ .
As seguintes propriedades auxiliam nos cálculos de matrizes mudança de base e coordenadas
de vetores.
1. Inversa de uma matriz Mudança de base. A matriz [I]αβ é invertı́vel, pois notemos
que para todo u ∈ V ,
[u]β = [I]αβ [u]α e [u]α = [I]βα [u]β
logo,
[u]α = [I]βα ([I]αβ [u]α ) = ([I]βα [I]αβ )[u]α , ∀ u ∈ V ⇒ [I]αβ [I]βα = In ,
82
Exemplos 2.55.
2 2 2 1 1 −1
1. Sejam V = R e as bases de R : α = { , } e β = { , }. Determine as
1 1 1 0
matrizes mudança de bases [I]αβ , [I]βα .
Segunda forma. Sabemos que [I]αβ = ([I]βC )−1 [I]αC , onde C é a base canônica de R2 ,
temos
−1
α 2 1 β 1 −1 β −1 1 −1 0 1
[I]C = , [I]C = e ([I]C ) = = .
1 1 1 0 1 0 −1 1
0 1 2 1 1 1
[I]αβ = = .
−1 1 1 1 −1 0
0 0 1
3 3
2. Considere V = R , α a base canônica de R e a base β = { 0 , −2 , 0 }. Calcule
1 1 −1
β α
[I]α e [I]β .
0 0 1
Claramente, [I]βα = 0 −2 0 .
1 1 −1
Fazendo o processo de inversão obtemos:
−1
0 0 1 1 1/2 1
[I]αβ = 0 −2 0 = 0 −1/2 0 .
1 1 −1 1 0 0
83
−2 0 2 1 1 0
3
3. Considere as bases de R , α = { 0 , −1 , 1 } e β = { 1 , 0 , 0}, calcule
1 1 0 1 1 1
[I]αβ e [I]βα
Seja C a base canônica de R3 . Temos [I]αβ = ([I]βC )−1 [I]αC . É claro que,
−2 0 2 1 1 0
[I]αC = 0 −1 1 e [I]βC = 1 0 0 ,
1 1 0 1 1 1
logo:
−1
1 1 0 −2 0 2
[I]αβ = 1 0 0 0 −1 1
1 1 1 1 1 0
0 1 0 −2 0 2
= 1 −1 0 0 −1 1
−1 0 1 1 1 0
0 −1 1
= −2 1 1 .
3 1 −2
2.9 Exercı́cios
1 2 3
3
1. Considere os vetores de R , u = 2 , v = 1 , w = 3 e calcule:
1 2 2
(a) −3(u + 2v) + 4(2u + v) = 5u − 2v (b) (2u − v + 3w) − 2(u + 3v − w)
(c) 21 (u + v + w) + 14 (u − v + w) + 14 (u − v − w).
2. Nos seguintes casos determine se o conjunto W de vetores é um sub-espaço vetorial do
espaço vetorial V , dando a justificativa correta.
x
(a) V = R3 , W = {y ∈ R3 | z = 3}
z
x
(b) V = R3 , W = {y ∈ R3 | x = z}
z
84
x
(c) V = R3 , W = { y ∈ R3 | x ≤ y ≤ z}
z
a
(d) V = R3 , W = { b ∈ R3 | |a| = |b|, onde a, b, c ∈ R}
c
x
y
(e) V = R4 , W = { 4
y ∈ R | x, y ∈ R}
x
a
b
(f) V = R4 , W = { 4
c ∈ R | a + b + c + d ≥ 0}
0 0 −1
85
2
(d) V = R3 , W gerado pelo vetor −5
3
2 0 630
(e) V = R , W gerado pelos vetores , .
0 990
1 −1 4
6. Considere os vetores de R3 u = 5 , v = 1 , w = 5. Determine se algum vetor do
10 4 5
conjunto {u, v, w} é combinação dos restantes, nesse caso mostre essa combinação linear.
−5 3 4
3
7. Considere os vetores de R , u = 3 , v = −1 e u = −2. Determine se {u, v, w}
2 3 9
3
gera R .
1 3
1 −4
8. Considere os subespaços vetoriais de V = R4 , W1 gerado por { −6 , −1} e W2 gerado
−4 1
5 −4
−5 9
por {
0 , 6 }. Determine se W1 = W2 ou não.
2 0
1 −1 4
9. Considere os vetores de R3 , u = 1 , v = 1 . Determine k ∈ R tal que o vetor 5
−2 3 k
pertença ao espaço gerado por u e v.
10. Verifique se os conjuntos abaixo são LI ou LD.
1 1 3
(a) { 0 , 3 , 2}
0 5 5
1 1 3
(b) { 2 , −2 , −2}
−1 3 5
1 1 1 1
0 1 1 1
(c) {
0 , 0 , 1 , 1}
0 0 0 1
11. Determine se possı́vel, os valores de k tais que o conjunto S seja LI em V = R3 .
−1 1 k
S = { 0 , 1 , −2}.
2 1 0
86
12. Determine se possı́vel, os valores de k tais que o conjunto S seja LD em V = R4 .
1 0 0
1 1 1
S = {0 , −1 , −2}.
2 0 k
87
15. Determine uma base e a dimensão dos seguintes sub-espaçõs W do espaço V :
x
3
(a) V = R e W = { y ∈ V /2x − y + z = 0 e x + 3y − z = 0}
z
x1
5 ..
(b) V = R e W = { . ∈ V /x1 = x2 = x5 }
x5
1 1 0 2
3
(c) V = R e W é o subespaço gerado por: { −1 , 2 , 1 , 1}
1 0 1 2
1 1 1
16. Dada a matriz A = 1 0 2, considere V = N ul(A) e W = Col(A).
2 3 1
(a) Determine se V é R3 , um plano, uma reta ou contém somente o vetor nulo.
(b) Idem Para W .
17. Para as seguintes matrizes, ache uma base e a dimensão para o espaço nulo de A e para
o espaço coluna de A.
1 −2 7 0
1 1 0 1 1 −1 4 0
(a) A = 0 1 −1 1 (b) A =
3 2 −3 5
0 1 −1 −1
2 1 −1 3
2 5 6
1 −1 −1 2 −1 −1 3
(c) A = (d) A =
1 −1 −1 −2 2 3 −2
1 3 5
1 0 −2 1
−1 0 2
0
18. Seja W o subespaço, de R4 , gerado pelos vetores: {
0 , 1 , 1 , 0}
0 1 1 0
2
−3
2 ∈ W ?. Justifique
(a)
2
(b) Exiba uma base para W.
88
20. Considere V = Pn (R), com n ≥ 1 e determine quais dos seguintes subconjuntos são
subespaços de V .
(a) W = {p ∈ V | p(0) = 0}
(b) W = {p ∈ V | p(1) = 1}
(c) W = {p ∈ V | p0 + 2p = 0V }
21. Em cada caso determine se o conjunto α é uma base do espaço V .
(a) α = {x, 1 + x} em V = P1 (R)
(b) α = {1 + x, x + x2 , 1 + x2 } em V = P2 (R)
(c) α = {1 + x + 2x2 , 2 + x + 2x2 , −1 + x + 2x2 } em V = P2 (R).
22. Para os subespaços S1 e S2 de R3 dados, determine S1 ∩ S2 , S1 + S2 e suas dimensões.
Indique se a soma é direta ou não.
x x
(a) S1 = { y 3
∈ R , x − 2y + z = 0} e S2 = { y ∈ R3 , x + 3y = 0}
z z
x −1 3
3
(b) S1 = { y ∈ R , y = 0} e S2 = [ 2 , 1 ]
z 0 1
x x
3
(c) S1 = { y ∈ R , x = y} e S2 = { y ∈ R3 , x + y + z = 0}
z z
x x
3
(d) S1 = { y ∈ R , x − 2y + z = 0 e 2x − z = 0} e S2 = { y ∈ R3 , x + y = 0}
z z
x 1
3
(e) S1 = { y ∈ R , x − y + z = 0} e S2 = [ 1 ]
z 1
23. Sejam os subespaços de R4 :
x
y 4
W1 = {
z ∈ R / x + y = 0 e z − w = 0} e
w
x
y 4
z ∈ R / x − y − z + w = 0}
W2 = {
w
a) Determine os espaços W = W1 + W2 e W1 ∩ W2 dando as respectivas bases e
dimensões.
L
b) W = W1 W2 ? Justifique sua resposta.
89
24. Considere os subespaços de R4 :
x
y 4
W1 = {
z ∈ R / x + y = z e y + w = 0} e
w
x
y 4
W2 = {
z ∈ R / x = w e y = z}
w
a) Determine os espaços W = W1 + W2 e W1 ∩ W2 dando as respectivas bases e
dimensões.
L
b) W = W1 W2 ? Justifique sua resposta.
25. Em cada caso considere o espaço vetorial V , a base β de V e w ∈ V e determine [w]β .
2 2 3 1
(a) V = R , β = { , }ew=
4 8 1
1 2 3 2
(b) V = R3 , β = {0 , 2 , 3} e w = −1
0 0 3 3
3 5 1 1
3
(c) V = R , β = { 2 , −1 , 0 } e w = 2
−1 3 1 −2
1 1 1 1
3
(d) V = [ u = 1 , v = 2 ] (subespaço de R gerado por u e v), β = { 1 , 2}
−1 1 −1 1
2
e w = 9/2
3
2 1
26. (a) Considere a base dada em (25a) e determine w ∈ R , tal que [w]β =
−1
1
(b) Considere a base dada em (25c) e determine w ∈ R3 , tal que [w]β = 1
−1
−1 0 0 0 0 1
27. Dadas as bases A = { 0 , 1 , 0 } e B = { 0 , −2 , 0 } do R3 .
2 0 2 1 1 −1
90
3
(c) Considere [v]B = 1 . Calcule [v]A
−1
91
Capı́tulo 3
TRANSFORMAÇÕES LINEARES
T : V → W,
Exemplos 3.2.
T : Rn → Rm , T (u) = Au, ∀ u ∈ Rn ,
92
1 2
Por exemplo, com A = −1 3, temos
0 1
1 2 x + 2y
2 3 x x x
T : R → R , T( ) = −1 3 = −x + 3y , ∀ ∈ R2 .
y y y
0 1 y
Nota: Toda transformação linear T : Rn → Rm é da forma dada neste exemplo, isto será
esclarecido na observação 3.26.
3. Nos espaços vetoriais V = C 1 (R) das funções reais, diferenciáveis com derivada contı́nua
e W = C(R), das funções contı́nuas, a aplicação de derivação é uma transformação linear,
pois é conhecido que,
4. Dados espaços vetoriais V e W , é simples verificar que as seguintes aplicações são trans-
formações lineares.
1. T (0V ) = 0W ,
Daı́, claramente uma aplicação entre espaços vetoriais que verifica T (0V ) 6= 0W não pode ser
transformação linear.
Dado um espaço vetorial V , uma transformação linear T de V em V é chamado operador
linear sobre V .
Operadores do Plano
93
T é uma transformação linear, pois
x x cx c 0 x
T =c = = .
y y cy 0 c y
94
3. Reflexão em torno do eixo y. A aplicação
2 2 x −x x
T : R → R , tal que T = , para todo ∈ R2 ,
y y y
leva um vetor do plano na sua reflexão através do eixo y, analogamente ao caso anterior
é um operador linear, pois
x −x −1 0 x
T( )= = .
y y 0 1 y
leva um vetor do plano na sua reflexão através da origem, é um operador linear, pois
x −x −1 0 x
T( )= = .
y −y 0 −1 y
95
5. Rotação com ângulo θ. Dado um ângulo θ, consideremos a aplicação de rotação pelo
ângulo θ,
Rθ : R2 → R2 ,
que leva um vetor do plano num novo vetor, que é a rotação, com ângulo θ, no sentido
basta considerar 0 ≤ θ < 2π. Vamos descrever
anti-horário do vetor inicial, para o caso
x
exatamente o vetor Rθ (u), para u = . Escrevendo as componentes de u em função
y
de seu comprimento r e de seu ângulo de inclinação β, temos
x = rcos β, y = rsen β.
logo,
x rcos(β + θ) rcosβcosθ − rsenβsenθ
R = =
y rsen(β + θ) rsenβcosθ + rcosβsenθ
xcosθ − ysenθ xcosθ − ysenθ
= =
ycosθ + xsenθ xsenθ + ycosθ
cosθ −senθ x x
= · , ∀ ∈ R2 .
senθ cosθ y y
cosθ −senθ
A matriz é chamada matriz de rotação no plano, pelo ângulo θ.
senθ cosθ
1. Núcleo de T :
N uc(T ) = {u ∈ V | T (u) = 0W } .
96
2. Imagem de T :
Im(T ) = T (V ) = {T (u) ∈ W | ∀ u ∈ V } .
Qualquer que seja a transformação T , temos que N uc(T ) e Im(T ) são subespaços de V e W ,
respectivamente. De fato:
• Verifica-se que,
dim N uc(T ) + dim Im(T ) = n = dim V.
97
A observação sobre as dimensões, vale em geral para qualquer transformação linear.
•
Sabemos que
Nuc(T) = N ul(A), ou seja trata-se das soluções do sistema homogêneo,
1 0 3 x 0
1 −1 5 y = 0.
2 3 0 z 0
Escalonando,
1 0 3 1 0 3 1 0 3
A = 1 −1 5 → 0 −1 2 → 0 1 −2 ,
2 3 0 0 3 −6 0 0 0
−3
logo a solução é x = −3s, y = 2s e s ∈ R, ou seja X = 2 s, s ∈ R.
1
−3
∴ N uc(T ) = { 2 s / s ∈ R} e dim N uc(T ) = 1.
1
98
1 0 a 1 0 a 1 0 a
1 −1 b → 0 1 a − b → 0 1 a−b
2 3 c 0 3 c − 2a 0 0 −5a + 3b + c
Logo,
a
Im(T ) = { b / 5a − 3b − c = 0}
c
Propriedade 3.8. Para uma transformação linear T : V → W , Im(T ) é gerado pelas imagens
de uma base de V . Para verificarmos esta afirmação, suponha que {u1 , . . . , un } é uma base
qualquer de V , logo todo u ∈ V é uma combinação linear da forma:
O seguinte teorema mostra que podemos determinar uma transformação linear conhecendo as
imagens em uma base qualquer.
99
Teorema 3.9. Sejam V e W espaços vetoriais. Dados uma base α = {v1 , . . . , vn } de V
e um grupo de n vetores {w1 , . . . , wn }, de W , então existe uma única transformação linear
T : V → W , tal que:
T (v1 ) = w1 , . . . , T (vn ) = wn .
Demonstração. Dado que todo vetor de v ∈ V escreve-se como combinação linear de vetores
da base,
É simples verificar que a T definida assim é uma TL, que verifica T (vi ) = wi e que é única
com esta condição.
1
3 2 1
Exemplo 3.10. Determine a transformação linear T : R → R , tal que T ( 1 ) = ,
2
1
1 1
2 3
T( 1 ) =
e T( 0 ) =
. É direto verificar que
3 4
0 0
1 1 1
α = { 1 , 1 , 0}
1 0 0
100
Aplicando T em ambos os lados da igualdade temos,
x 1 1 1
T (y ) = zT (1) + (y − z)T (1) + (x − y)T (0)
z 1 0 0
1 2 3
= z + (y − z) + (x − y)
2 3 4
3x − y − z
= .
4x − y − z
Exemplo
3.11. Determine atransformação
linear T : R3 → R3 , tal que N uc(T ) = [u], onde
1 −1 1
u = −1 e tal que e T ( 0 ) = 1.
0 4 1
1 0 −1 1
Neste caso T (−1) = 0, T ( 0 ) = 1, mas
0 0 4 1
1 −1
{ −1 , 0 } não é uma base para R3 , e sim um conjunto LI, logo pode ser completado
0 4
para obter uma base,
1 −1 0 1 −1 0
β = {−1 , 0 , 0}, pois −1 0 0 = −1 6= 0
0 4 1 0 4 1
logo β é uma base para V = R3 .
0
Para determinar T será suficiente definir T ( 0), mas a transformação pedida não será única,
1
pois podemos completar a base de várias formas, assim como podemos
definir
a imagem do
0 −1
terceiro vetor de muitas formas. Neste caso vamos definir, T (0) = 0 . Para o cálculo
1 1
x
das coordenadas de um vetor u = y em β, usemos matriz mudança de base,
z
−1
1 −1 0 x 0 −1 0 x −y
β −1
[u]β = [I]C
β u = ([I]C ) u = −1
0 0 y = −1 −1 0 y = −x − y ,
0 4 1 z 4 4 1 z 4x + 4u + z
assim temos,
x 1 −1 0
u = y = −y −1 + (−x − y) 0 + (4x + 4y + z) 0 ,
z 0 4 1
101
Aplicando T em ambos os lados da igualdade temos,
x 1 −1 0
T ( y ) = −yT ( −1 ) + (−x − y)T ( 0 ) + (4x + 4y + z)T ( 0)
z 0 4 1
0 1 −1
= −y 0 + (−x − y) 1 + (4x + 4y + z) 0
0 1 1
−5x − 5y − z
= −x − y − z .
3x + 3y + z
102
Composição de Transformações.
Definição 3.14 (Composição). Dados espaços vetoriais U , V e W e as transformações lineares,
T : U → V e L : V → W , definimos a Aplicação composta de T e L, denotada L ◦ T , como:
Notemos que,
−y 0 −1 x
x x−y 1 −1 x x
T( )= = e L( ) = x + y = 1 1 y
y x + 2y 1 2 y y
x 1 0 z
0 −1
1 −1
Obtemos que L◦T : R2 → R3 , multiplicando as matrizes de L e T respectivamente: 1 1 =
1 2
1 0
−1 −2
2 1 , logo:
1 −1
−1 −2 −x − 2y
x x
(L ◦ T )( )= 2 1 = 2x + y .
y y
1 −1 x−y
Observe que não é possı́vel calcular T ◦ L, pois Im(L) não está contida no domı́nio de T .
Como nas matrizes, a composição não é comutativa, ainda que as ordens das matrizes sejam
adequadas.
103
Proposição 3.16. Valem as seguintes da composição:
T ◦ IU = T e IV ◦ T = T,
2. T é sobrejetora, se Im(T ) = T (V ) = W .
104
Para determinar N uc(T ), resolvamos o sistema homogêneo com matriz de coeficientes:
1 2 1 2 1 2
1 −1 → 0 3 → 0 1
0 1 0 1 0 0
Claramente a única solução deste sistema é x = y = 0. Portanto, T é injetora.
Pelo teorema da dimensão núcleo-imagem, temos que
105
Consideremos que T : V → W , é um isomorfismo, ou seja uma transformação bijetora, como
toda função bijetora, temos que T é invertı́vel, ou seja que existe uma aplicação denotada por
T −1 : W → V e que tem a propriedade:
T (u) = w ⇔ T −1 (w) = u.
• T ◦ T −1 = IW e T −1 ◦ T = IV .
Observação 3.22. Caso T : Rn → Rn , T u = Au veremos que:
isto acontece pois, sendo T um isomorfismo vale n = dim Im(T ) = dim Col(A) = pA , o que
mostra que A é invertı́vel. Da igualdade T u = Au = v obtemos:
T −1 (v) = A−1 v.
106
1 0 −2 −1 2 0 1 0 0 −1/3 2/3 2/3
0 1 1 1 −1 0 −→ 0 1 0 2/3 −1/3 −1/3
0 0 3 1 −2 1 0 0 1 1/3 −2/3 1/3
−1 2 2 x −x + 2y + 2z
Logo, A−1 = 13 2 −1 −1 e portanto, T −1 (y ) = 31 2x − y − z .
1 −2 1 z x − 2y + z
2. (T −1 )−1 = T .
107
T (u) = T (k1 u1 + . . . + kn un ) = k1 T (u1 ) + . . . + kn T (un ),
Logo,
A matriz acima, cuja j-ésima coluna coluna é o vetor coordenadas de T (uj ) em β, é chamada
matriz de T, da base α à base β e é denotada por [T ]αβ , ou seja
108
Exemplos 3.27.
x
3 2 2x − y + 3z
1. Dada T : R → R , T (y ) = , determine a matriz [T ]αC , onde α = {u1 =
−x + 2z
z
1 0 1
−1 , u2 = 2 , u3 = 0} é base de R3 e C é a base canônica de R2 .
1 −1 1
Sabemos que, [T ]αC = [ [T (u1 )]C [T (u2 )]C [T (u3 )]C ], calculando as colunas obtemos,
1 0
6 −5
[T (u1 )]C = T (u1 ) = T ( −1 ) =
, [T (u2 )]C = T (u2 ) = T ( 2 ) =
e
1 −2
1 −1
1
5
[T (u3 )]C = T (u3 ) = T (0) = , portanto
1
1
α 6 −5 5
[T ]C = .
1 −2 1
x x+y
2. Seja T : R3 → R3 , dada por T (y ) = x − 2z . Determine [T ]αβ , onde α e β são as
z x+y−z
3
bases de R :
1 −1 1
α = {u1 = 0 , u2 = 1 , u3 = 0},
−1 0 1
1 0 2
β = {−1 , 1 , 0}.
1 0 1
Neste caso temos, [T ]αβ = [ [T (u1 )]β [T (u2 )]β [T (u3 )]β ], calculando as imagens resulta,
1 1 −1 0 1 1
T (u1 ) = T ( 0 ) = 3, T (u2 ) = T ( 1 ) = −1 e T (u3 ) = T (0) = −1 .
−1 2 0 0 1 0
Para obter as colunas de [T ]αβ devemos determinar as coordenadas em β dos vetores acima,
x
para isso calcularemos as coordenadas de um vetor qualquer v = y na base β. Usando
z
C C
matrizes mudança de base temos, [v]β = [I]β [v]C = [I]β · v, onde C é a base canônica de
R3 . Por inversão de matriz obtemos,
−1
1 0 2 −1 0 2
β −1
[I]C
β = ([I]C ) = −1 1 0 = −1 1 2 .
1 0 1 1 0 −1
109
Então,
1 −1 0 2 1 3
[T (u1 )]β = [ 3 ]β = −1 1 2
3 = 6 ,
2 1 0 −1 2 −1
0 −1 0 2 0 0
[T (u2 )]β = [−1]β = −1 1 2 −1 = −1,
0 1 0 −1 0 0
1 −1 0 2 1 −1
[T (u3 )]β = [−1]β = −1 1 2 −1 = −2.
0 1 0 −1 0 1
3 0 −1
α
Portanto [T ]β = 6 −1 −2 .
−1 0 1
Matriz da Composição.
Vamos determinar a matriz associada a uma composição de transformações. Para isto con-
sideremos espaços vetoriais U , V e W , com bases ordenadas α, β e γ, respectivamente e as
transformações lineares T : U → V e L : V → W . Nestas condições temos a composição:
L ◦ T : U → W.
Para todo u ∈ U , as coordenadas de (L ◦ T )(u) na base γ satisfazem:
[(L ◦ T )(u)]γ = [(L(T (u))]γ = [L]βγ [T (u)]β = [L]βγ [T ]αβ [u]α .
Pela unicidade da matriz de L ◦ T , temos:
110
T = IW ◦ T ◦ IV ,
0 0
[T ]αβ 0 = [IW ]ββ 0 [T ]αβ [IV ]αα
De forma geral estas equações permitem a troca de bases na matriz associada [T ]αβ .
Casos particulares:
Definição 3.28. Quando duas matrizes quadradas A e B estão associadas pela relação
dizemos que A é semelhante ou similar a B, é simples notar que neste caso também B será
semelhante a A (verifique).
1. tr(A) = tr(B).
2. det(A) = det(B).
111
0 −1 1
Exemplo 3.30. Considere a base α = { 1 , 0 , 1} e a transformação linear T : R3 →
1 1 1
R3 , cuja matriz na base α é:
−1 0 1
[T ]α = 1 −1 0 .
0 1 2
Calcule as matrizes [T ]C C 3
α e [T ]C , onde C é a base canônica de R .
• [T ]C α C
α = [T ]α [I]α .
−1
0 −1 1 −1 2 −1
α −1
Note que [I]C
α = ([I]C ) = 1 0 1 = 0 −1 1 , logo:
1 1 1 1 −1 1
−1 0 1 −1 2 −1 2 −3 2
C
[T ]α = 1 −1 0
0 −1 1 = −1
3 −2 .
0 1 2 1 −1 1 2 −3 3
• [T ]C α C
C = [I]C [T ]α .
Logo:
0 −1 1 2 −3 2 3 −6 5
[T ]C
C = 1
0 1 −1 3 −2 = 4 −6 5 .
1 1 1 2 −3 3 3 −3 3
x 3x − 6y + 5z
Portanto, T ( y ) = 4x − 6y + 5z .
z 3x − 3y + 3z
Matriz da inversa.
Consideremos espaços vetoriais V e W , com igual dimensão e com bases ordenadas α e β
respectivamente, se T : V → W é uma transformação linear, então:
• [T −1 ]βα = ([T ]αβ )−1 . A justificativa para esta relação é simplesmente ver que:
T −1 ◦ T = IV , também T ◦ T −1 = IW , tomando as matrizes temos [T ]αβ [T −1 ]βα = [IW ]β = I,
ou seja que as matrizes são inversas.
112
Exemplos 3.31.
2 1 −1 2 1
1. Sejam as bases de R , α = { , } e β = { , } e a transformação linear
1 0 0 1
3 1
T : R2 → R2 cuja matriz é: [T ]αβ =
1 2
3 −1
[T ]αβ é invertı́vel, pois = 5 6= 0, logo T é isomorfismo.
1 2
−1
3 −1 2 1
[T −1 ]βα = 1
=5 , transformando a base canônica:
1 2 −1 3
[T −1 ]C α
C = [I]C [T
−1 β
]α [I]C α
β = [I]C [T ]α ([I]βC )−1
−1 β
1 −1 2 1 2 1 6 1
[T −1 ]C
C = ·51
=5 1
, portanto
1 0 −1 3 0 1 4 3
−1 x 1 2x + y
T ( )= .
y 5 −x + 3y
1 0 0
3
2. Em R consideremos a base canônica C, a base α = { 0 , −1 , 0} e o operador
1 1 1
3 3
linear T : R → R , cuja matriz é:
−2 0 0
[T ]C
α =
0 1 0 ,
−1 0 2
x
−1
prove que T é um isomorfismo e calcule T ( y ).
z
De fato
−2 0 0
0 1 0 = −4 6= 0,
−1 0 2
logo T é isomorfismo. Usando os métodos estudados calculamos a matriz inversa:
−2 0 0
−1 α C −1 1
[T ]C = ([T ]α ) = 0 4 0 ,
4
−1 0 2
−2 0 0
logo, [T −1 ]αC = 14 0 4 0.
−1 0 2
113
Transformando à base C: [T −1 ]C = [T −1 ]αC [I]C
α = [T
−1 α
]C ([I]αC )−1
−1
1 0 0 1 0 0
Calculando a inversa temos, [I]αC = 0 −1 0 = 0 −1 0,
1 1 1 −1 1 1
daı́,
−2 0 0 1 0 0 −2 0 0
[T −1 ]C = 41 0 4 0 0 −1 0 = 14 0 −4 0,
−1 0 2 −1 1 1 −3 2 2
finalmente,
x −2x
1
T −1 (y ) = −4y .
4
z −3x + 2y + 2z
3.6 Exercı́cios
1. Nas aplicações de (a) a (g) justifique que são transformações lineares. Encontre o núcleo
e a imagem de todas as transformações dadas.
x x+y+z
(a) T : R3 → R3 ; tal que T (y ) = x + y − z
z x−y−z
x x+y+z
(b) T : R3 → R3 ; tal que T (y ) = 0
z x−y−z
x
y x − 3y
(c) T : R4 → R3 ; tal que T ( z ) = 2x + z − w .
y + 2w
w
a
4 2
b a+b−d
(d) T : R → R , tal que T ( ) =
.
c a−c+d
d
x1
0
x1
6 6 .. x3
(e) T : R → R , tal que T ( . ) = x4
x6
x5
0
114
x
3
(f) A aplicação T : R → R, T ( y ) = 7x + 15y − 4z.
z
x
(g) A aplicação que leva o vetor v = y ∈ R3 no produto vetorial com um vetor fixo
z
1
v0 = 1, dada por f : R3 → R3 , f (v) = v × v0 .
2
3. Sabendo que as aplicações geométricas, dadas em cada caso, são transformações lineares,
determine sua lei de formação.
(a) T : R2 → R2 ; onde T (u) é o vetor obtido pela reflexão de U através da reta y = x.
√
(b) T : R2 → R2 ; sendo T (u) o vetor obtido pela reflexão de u através da reta y = 3x.
(c) T : R2 → R2 , onde T (u) é a aplicação no√vetor u ∈ R2 de uma rotação com ângulo
θ = 3π
4
, seguida da dilatação com fator k = 4 2.
(d) T : R3 → R3 , onde T (u) é a rotação de um vetor em torno do eixo x no sentido
positivo, com ângulo 0 ≤ θ < 2π.
3 3
4. (a) Justifique
a existência
de
que verifique, T : R → R , tal que
uma transformação
3 −3 2 1 2
T (1) = T (−2) = 1, T (1) = −1.
0 1 1 0 3
115
(b) Para a transformação dada em (a), determine N uc(T ) e Im(T ).
(c) Para a transformação
dada em (a) determine o conjunto dos vetores v ∈ R3 tais que
2
T (v) = 1.
1
(d) Para a transformação
dada em (a), determine o conjunto dos vetores v ∈ R3 tais
−1
que T (v) = 1 .
1
2 x x x x + 2y
5. Sejam S e T operadores lineares no R definidas por T ( )= e S( )= .
y 3y y y
Determine:
(a) S + T
(b) 2S + 4T
(c) S ◦ T
(d) T ◦ S
7. Marque Verdadeiro (V) ou Falso (F) nas sentencias abaixo, justificando suas respostas:
116
(f) Se T : R2 → R3 uma T. L., então T não pode ser sobrejetiva.
(a) [T ]A 3 2
B considerando A e B bases canônicas do R e R , respectivamente.
1 0 0
C 1 2
(b) [T ]D onde C = {0 , −1 , 0} e D = { , }.
2 1
0 0 2
1
(c) [T (v)]D onde v = 1.
0
2 −1 1 0 0
A 1 −1
11. Considere [T ]B = 1 0
onde A = { , } e B = { 2 , −1 , 0}. Deter-
0 1
0 2 3 1 2
3
mine T (v) onde v = .
−1
117
12. Sejam A e B bases canônicas ordenadas
de R2 e R3 , respectivamente; considere também
1 0 1
0 1 0 0
A ={ , } e B = { 0 , 1 −1} bases ordenadas de R2 e R3 respectiva-
−1 2
−1 1 0
mente.
2y
x A0 A0
(a) Se S : R2 → R3 , é dada por S( ) = x − y , ache [S]A B , [S]B , [S]B 0 .
y
x
2 4 −2
(b) Se R é o operador sobre R , dado por: [R]A0 = , determine [R(u)]A0 e R(u),
3 1
x
onde u = .
y
3 2 B0 1 1 0
(c) Se T : R → R , é a transformação linear dada por [T ]A0 = , determine
1 1 −1
x
[T (u)]A e T (u), onde u = y .
0
z
13. Considere os operadores lineares do plano, Tθ , rotação pelo ângulo θ; L, reflexão pelo eixo
x; S, reflexão pelo eixo y e R, contração com constante k = 52 . Determine [Tθ ]A , [L]A ,
[S]A , [R]A , [Tθ ◦ L]A , [R ◦ S]A , onde A é a base canônica de R2 .
14. Considere que A e B são as bases ordenadas canônicas de R2 e R3 , respectivamente.
Sejam T : R3 → R2 e L : R2 → R3 , transformações lineares, dadas por:
−1 1
1 −1 0
[T ]B
A = e [L]AB =
1 1 .
1 0 1
−1 2
Também considere as bases ordenadas de R2 e R3 :
1 1 3
1 1
A0 = { , } e B 0 = {−1 , −2 , 1 }.
−1 −2
2 1 −1
0 0
(a) Calcule [I]A A B B
A , [I]A0 , [I]B e [I]B 0
0 B0
(b) [T ]B B
A , [T ]A0 , [T ]A0
0 A0
(c) [L]A A
B , [L]B 0 , [L]B 0
(d) [L ◦ T ]BB e [T ◦ L]A
A
−2 1 0
3
15. Considere que A é a base ordenada canônica de R , que B = { 1 , 2 , 0} é uma
0 0 1
3 3
base ordenada de R e que T é o operador sobre R , determinado pela matriz:
2 1 0
[T ]A
B = 1 1
1 .
0 1 −3
118
(a) Determine [I]A B A
B , [I]A e [T ]A
x
(b) Mostre que T é isomorfismo e determine T −1 (y )
z
cosθ −senθ
16. Lembre que a matriz de rotação com ângulo de rotação θ é dada por: .
senθ cosθ
Dados os vértices A = (2, 1), B = (5, 3) e C de um triângulo, determine o vértice C, de
todas as formas possı́veis, tais que 4ABC seja um triângulo isósceles, retângulo em A.
119
Capı́tulo 4
PRODUTO INTERNO
u · v = x1 y1 + x2 y2 + x3 y3 .
−1 2
Por exemplo, −2 · 32 = −2 − 34 + 5 = 53 .
5 1
Em R3 o produto escalar esta relacionado a conceitos geométricos, como o comprimento de um
vetor, vetores perpendiculares, etc. De fato,
→ x
• Dado o vetor u =OP = y ,
z
120
• Dados vetores não nulos u, v ∈ R3 e θ o ângulo entre eles, 0 ≤ θ ≤ π, é bem conhecida a
relação:
u · v = kuk kvk cosθ.
121
4.2 Produto Interno
O produto escalar de R3 pode ser generalizado para espaços vetoriais reais quaisquer.
Definição 4.1. Seja V um espaço vetorial sobre R, diremos que a aplicação, denotada h , i e
dada por:
V × V 7−→ R
(u, v) → hu, vi
é um produto interno sobre V , quando verifica as propriedades:
O espaço vetorial V munido de um produto interno h , i é dito espaço vetorial real com
produto interno.
Exemplos 4.2. 1. Produto escalar em Rn .
x1 y1
.. ..
Dados u = . e v = . , define-se o produto escalar de u e v como,
xn yn
i=n
X
u · v = x1 y1 + . . . + xn yn = xi y i .
i=1
122
n
que h, i é um produto interno, sejam u, v, w ∈ R , u, v como dados acima e
Verifiquemos
z1
..
w = . .
zn
•
* x1 y1 z1 +
.. .. ..
hu, v + wi = . , . + .
xn yn zn
= p1 x1 (y1 + z1 ) + . . . + pn xn (yn + zn )
= (p1 x1 y1 + . . . + pn xn yn ) + (p1 x1 z1 + . . . + pn xn zn )
= hu, vi + hu, wi
Este tipo de produto interno é chamado produto escalar com pesos ou produto in-
terno euclideano com pesos. Por exemplo em R3 podemos definir o produto interno,
x1 y1
hu, vi = x1 y1 + 2x2 y2 + 3x3 y3 , onde u = x2 , v = y2 ,
x3 y3
*−3 2 +
assim 1 , −1 = −6 + 2(−1) + 3(10) = 22.
2 5
3. Consideremos Rn e A uma matriz invertı́vel de ordem n. Dados u, v ∈ Rn , usando o
produto escalar definimos:
123
0 3
Por exemplo, A = é invertı́vel, logo temos em R2 o produto interno, dado para
2 −1
x s
u= ev= , como
y t
x s
hu, vi = A ·A
y t
3y 3t
= ·
2x − y 2s − t
= 9yt + (2x − y)(2s − t)
= 4xs − 2xt − 2ys + 10yt.
4. No espaço C([a, b]) das funções contı́nuas no intervalo [a, b], define-se:
Z b
hf, gi = f (x)g(x)dx, f, g ∈ C([a, b]).
a
acima, logo h, i
Pelas propriedades da integral, é claro que são válidas as propriedades √
é um produto interno em C([a, b]). Por exemplo, se f (x) = x, g(x) = x ∈ C([0, 1]),
temos:
R1 √ R1
hf, gi = 0 x xdx = 0 x3/2 dx = 25 x5/2 |10 = 25 .
Propriedades 4.3. Dado um espaço vetorial V com produto interno h, i, valem as proprieda-
des:
1. h0V , vi = hv, 0V i = 0.
124
2 3
Exemplos 4.4. 1. No caso do produto escalar em
R e R , a norma de um vetor é exacta-
x
mente seu comprimento. Por exemplo, se u = , temos:
y
√ p
kuk = u·u= x2 + y 2 ,
A distânciaentre
vetores
coincide com o conceito
geométrico: por exemplo para vetores
x x x − x
de R2 , u = , v = 1 , temos u − v = 1
e,
y y1 y − y1
p
d(u, v) = ku − vk = (u − v) · (u − v)
p
= (x − x1 )2 + (y − y1 )2 .
Podemos calcular os produtos internos entre duas combinações lineares de vetores, se são co-
nhecidos os produtos internos dois a dois, para isso basta notar que
n
X
hα1 u1 + . . . + αn un , β1 v1 + . . . + βn vn i = αi βj hui , vj i , onde
i,j=1
ui , vj ∈ V e αi , βj ∈ R.
Exemplo 4.5. Se V é um espaço com produto interno com u, v ∈ V tais que hu, vi = −2, kuk =
4 e kvk = 3 então,
Propriedades 4.6. Dado o espaço vetorial V , com produto interno h, i e dados u, v ∈ V são
válidas:
125
1. Homogeneidade: kαuk = |α| kuk, para todo escalar α ∈ R.
De fato,
kαuk2 = hαu, αui = α2 hu, ui = α2 kuk2 ⇒ kαuk = |α| kuk .
De fato,
ku + vk2 = hu + v, u + vi
= hu, ui + hu, vi + hv, ui + hv, vi
= kuk2 + 2 hu, vi + kvk2
≤ kuk2 + 2 kuk kvk + kvk2 = (kuk + kvk)2
hu, vi
−1 ≤ ≤ 1,
kuk kvk
como a função coseno é uma bijeção de [0, π] em [−1, 1] então existe um único θ ∈ [0, π] tal
que,
hu, vi
cos θ = ,
kuk kvk
θ é dito ângulo entre u e v.
A definição generalizada de ângulo entre vetores, no caso particular dos espaços euclideanos R2
e R3 , é exatamente o conceito geométrico.
1
3
Por exemplo, no espaço euclideano (com produto escalar) R o ângulo entre u = 0 e v =
1
1
−1 é tal que:
0
u·v 1 1 π
cos θ = =√ √ = , ∴ θ= .
kuk kvk 2 2 2 3
126
u
Observação 4.7. Se V é um espaço com p.i. e u ∈ V é não nulo, então o vetor é um
kuk
vetor unitário no espaço gerado por u, de fato, pela homogeneidade da norma temos:
u 1 1
= u = kuk = 1,
kuk kuk kuk
este processo é chamado normalização de u. Por exemplo, no espaço euclideano R3 ,
−2 √ √
u = 5 , usando o produto escalar temos kuk = 4 + 25 + 9 = 38, logo o vetor
3
−2 −2
√1 5 é unitário. No caso do produto com pesos do exemplo 2, o vetor u = 5 tem
38
3 3
√ −2
norma kuk = 55, normalizando u obtemos o vetor unitário √155 5 .
3
4.4 Ortogonalidade
No caso particular dos espaços euclideanos R2 e R3 , vimos que dois vetores são perpendiculares,
se e somente se, seu produto escalar é zero, esta caracterização motiva a definição de vetores
ortogonais.
Definição 4.8. Seja V um espaço com produto interno h, i, diremos que vetores u, v ∈ V são
ortogonais, simbolicamente u⊥v, quando,
hu, vi = 0.
É claro que, para vetores não nulos, ortogonalidade equivale ao ângulo entre os vetores ser de
π
2
, pois:
hu, vi π
cosθ = =0⇔θ= .
kuk kvk 2
2 a −b
Exemplos 4.9. 1. No espaço euclideano R os vetores u = ev =± são ortogonais
b a
a −b
pois · = −ab + ab = 0.
b a
6 8
2. Os vetores u = −5 e v = 6 do espaço euclideano R3 são ortogonais, pois
2 −9
u · v = 48 − 30 − 18 = 0.
Os mesmos vetores u, v dados, não são ortogonais no espaço R3 com o produto escalar
com pesos 2, 1, 3, pois
hu, vi = 2(48) − 30 + 3(−18) = 12 6= 0.
127
Propriedades 4.10. Dados um espaço vetorial V com h, i e vetores u, v, w ∈ V , temos:
1. 0V ⊥u, ∀ u ∈ V
2. u⊥u ⇔ u = 0V
3. u⊥v ⇔ v⊥u
W ⊥ = {u ∈ V / u⊥w, ∀ w ∈ W }.
A seguinte propriedade mostra que para construir W ⊥ é suficiente usar uma base de W .
128
Para verificar a propriedade 4.14 basta ver que,
k
X
hu, α1 w1 + . . . + αk wk i = αi hu, wi i .
1
1 −2
3
Exemplo 4.14. Considere o espaço euclideano R e os vetores w1 = 2 e w2 = 1 .
1 −1
3
(a) u = 1 é ortogonal ou não ao subespaço W = [w1 , w2 ]?
−5
portanto u ∈ W ⊥ .
(W ⊥ )⊥ = W e W ⊕ W ⊥ = R3 .
129
Propriedades 4.15. Considere um subespaço vetorial W de um espaço V com produto interno
h, i.
1. (W ⊥ )⊥ = W
2. W ∩ W ⊥ = {0V }
4. {0V }⊥ = V e V ⊥ = {0V }.
Col(A)⊥ = N ul(At ), em Rm .
130
2x + 2y + z = 0
. Escalonando a matriz de coeficientes,
x − z = 0
2 2 1 2 2 1 2 0 −2 1 0 −1
→ → → ,
1 0 −1 0 2 3 0 2 3 0 2 3
asolução
é x = z, y = −3z/2. Logo, uma base para o complemento de Col(A) é
2
{−3}.
2
Definição 4.19. Dado um espaço vetorial V , com produto interno h, i e dado um conjunto
S = {u1 , . . . , uk }.
(a) S é dito conjunto ortogonal quando, hui , uj i = 0, para todo i 6= j
(b) S é dito conjunto ortonormal, se é um conjunto ortonormal de vetores unitários.
(c) S é uma base ortogonal, se é uma base e conjunto ortogonal. S é uma base ortonormal,
se é uma base e conjunto ortonormal.
Note que α = {v1 , . . . , vm } ser uma base ortonormal de V significa que,
0, se i 6= j
hvi , vj i = .
1, se i = j
Proposição 4.20. Todo conjunto ortogonal de vetores não nulos β = {u1 , . . . , uk } é um con-
junto LI.
α1 u1 + . . . + αk uk = 0V ,
0 = h0, ui i = hα1 u1 + . . . + αk uk , ui i
0 = α1 hu1 , ui i + . . . + αk huk , ui i
0 = αi hui , ui i ,
Da proposição anterior temos que, dado um conjunto β ortogonal de vetores não nulos de V ,
para determinar se β é uma base de V , basta que gere V ou que tenha tantos vetores quanto
a dimensão do espaço, pois β é LI.
131
Exemplos 4.21.
1 0 0
1. No espaço euclideano R3 a base canônica, α = {e1 = 0 , e2 = 1 , e3 = 0} é uma
0 0 1
base ortonormal já que:
e1 · e2 = e1 · e3 = e2 · e3 = 0 e ke1 k = ke2 k = ke3 k = 1.
1 1 1
O conjunto β = {u = 1 , v = −1 , w = 1 }, é ortogonal, pois:
1 0 −2
u · v = u · w = v · w = 0,
logo é uma base ortogonal de R3 , mas β não é ortonormal pois os vetores não são unitários.
Para normalizar β calculamos,
√ √ √
kuk = 3, kvk = 2 e kwk = 6,
obtemos a base ortonormal,
1 1 1
1 1 1
β = { √ 1 , √ −1 , √ 1 }.
3 1 2 0 6 −2
133
Produto interno e norma em bases ortonormais. Consideremos o espaço euclideano Rm ,
se fixamos uma base ortonormal α de Rm temos uma estreita relação entre o produto escalar
de vetores e o produto escalar de suas coordenadas em α. Seja α = {v1 , . . . , vm } uma base
ordenada ortonormal.
• Também √ p
kuk = u·u= [u]α · [u]α = k[u]α k .
e
kXk2 = 62 + (−2)2 + (5)2 = 65.
Proposição 4.24.
(a) Uma matriz A de ordem m é ortogonal, se e somente se, suas colunas (ou linhas) formam
uma base ortonormal de Rm .
(b) As matrizes mudança de base entre bases ortonormais do espaço euclideano Rm são ma-
trizes ortogonais.
134
Calculemos a matriz [I]αβ .
Sabemos que [I]αβ = ([I]βC )−1 [I]αC = ([I]βC )t [I]αC = [I]βC [I]αC , pois [I]βC é ortogonal e simétrica.
√ √ √ √
α −3/5 4/5 1/√2 1/ √2 1/5√2 −7/5√ 2
[I]β = = .
4/5 3/5 1/ 2 −1/ 2 7/5 2 1/5 2
Verifica-se que [I]αβ é ortogonal, pois as colunas tem norma euclideana 1 e são ortogonais entre
si.
v = w + w0 ,
v − w = w0 ∈ W ⊥ ,
PW (v) = w = a1 w1 + . . . + am wm ∈ W,
hv − w, wi i = 0, ∀wi ∈ β,
135
equivalentemente,
hv, wi i
daı́ ai = . Portanto w = PW (v) é da forma:
hwi , wi i
hv, w1 i hv, wm i
PW (v) = w1 + . . . + wm .
hw1 , w1 i hwm , wm i
0 1 −2
136
1
−2
Calcule a projeção ortogonal de v =
2 em W . Como a base dada é ortonormal, então:
−3
v · w1 v · w2 v · w3
PW (v) = w1 + w2 + w3
w1 · w1 w2 · w2 w3 · w3
1 −1 0
30 +
−6 4
2 + 1
=
2 1 7 1 2 0
0 1 −2
33
1 4
= .
14 9
−68
Seja um espaço V com produto interno e dimensão finita n, utilizando a projeção ortogonal é
possı́vel construir bases ortogonais para V a partir de uma base dada qualquer de V , o método
é chamado processo de ortogonalização de Gram-Schmidt.
Seja dimV = n e seja β = {u1 , · · · , un } uma base de V , a partir de β vamos construir uma base
ortogonal de V . A construção é feita por recorrência a partir do primeiro vetor de β. Iniciamos
tomando v1 = u1 e construı́mos o k-ésimo vetor, vk , pertencente ao complemento ortogonal
do espaço gerado pelos vetores anteriores, para garantir a ortogonalidade do conjunto, fazemos
isso substraindo de uk a sua projeção ortogonal sobre [v1 , . . . , vk−1 ]. Como
então
huk , v1 i huk , vk−1 i
vk = uk − Pv1 ,...,vk−1 (uk ) = uk − v1 − . . . − vk−1 ,
hv1 , v1 i hvk−1 , vk−1 i
137
assim, temos:
v1 = u1 ,
hu2 , v1 i
v2 = u2 − v1 ,
hv1 , v1 i
hu3 , v1 i hu3 , v2 i
v3 = u3 − v1 − v2
hv1 , v1 i hv2 , v2 i
..
.
huk , v1 i huk , v2 i huk , vk−1 i
vk = uk − v1 − v2 − . . . − vk−1 ,
hv1 , v1 i hv2 , v2 i hvk−1 , vk−1 i
..
.
hun , v1 i hun , v2 i hun , vn−1 i
vn = un − v1 − v2 − . . . − vn−1 .
hv1 , v1 i hv2 , v2 i hvn−1 , vi−1 i
{v1 , . . . , vi } e {u1 , . . . , ui },
Observação 4.30. Todo espaço com produto interno e de dimensão finita possui uma base
ortogonal e ortonormal, para isso basta tomar uma base qualquer de V e pelo processo de
Gram-Schmidt obter uma base ortogonal.
Exemplos 4.31.
138
• Como u3 · v1 = −2, u3 · v2 = −1 e v2 · v2 = 32 , então:
1
−1 1 −2 −1
u3 · v1 u3 · v2 2 1 1
v3 = u3 − v1 − v2 = −1 − (−1) 1 − (− 3 ) 2 = 3 1 .
v1 · v1 v2 · v2
1 0 −1 1
1 −1 −1
Portanto, { 1 , 1 , 1 } é uma base ortogonal de R3 . Normalizando obtemos
0 −2 1
a base ortonormal:
1 −1 −1
1 1 1
{√ 1 , √ 1 ,√ 1 }.
2 0 6 −2 3 1
0 1
−1
1
• v1 = u1 =
1 .
0
• Para calcular v2 será necessário, u2 · v1 = −1 e v1 · v1 = 3, assim,
1 −1 2
u2 · v1 0 1 1 1 1
v2 = u2 − v1 = 0 + 3 1 = 3 1.
v1 · v1
1 0 3
−1 2
1 1 4
Portanto, {
1 , 1} é uma base ortogonal de R . Normalizando obtemos a base
0 3
ortonormal:
−1 2
1 1 1 1
{√ ,√ }.
3 1 15 1
0 3
139
Operador de projeção ortogonal. Consideremos a aplicação que leva um vetor na sua
projeção ortogonal em W ,
PW : V −→ V
.
v → PW (v)
Pelas propriedades de linearidade e homogeneidade do produto interno, PW é um operador
linear. De acordo com a observação 18,
N uc(PW ) = W ⊥ , e Im(PW ) = W.
Tomando uma base qualquer para W , construı́mos a matriz A de ordem m×n, cujas colunas são
os vetores da base, logo W = Col(A). Claramente para todo v ∈ Rm , PW (v) ∈ W = Col(A),
logo existe X ∈ Rn tal que PW (v) = AX.
Sendo AX a projeção ortogonal sobre W de v, temos:
Logo,
PW (v) = AX = A(At A)−1 At v,
portanto a matriz de PW na base canônica é
Observação 4.33. Caso a base de W seja ortonormal, é simples ver que At A = Im , assim
[PW ] = AAt .
Exemplo 4.34.
Determine
o operador de projeção ortogonal sobre o espaço W gerado pelos
1 0
vetores u = −1 e v = 1 .
0 2
140
1 0 1 0
t 1 −1 0 2 −1 t −1 1 5 1
Temos, A = −1 1 , logo A A =
−1 1 =
e (A A) = ,
0 1 2 −1 5 9 1 2
0 2 0 2
assim,
1 0 5 −4 2
t −1 t 1 5 1 1 −1 0
[PW ]C = A(A A) A = −1 1 = −4 5 2 ,
9 1 2 0 1 2
0 2 2 2 8
portanto
5x − 4y + 2z
1
PW (x, y, z) = −4x + 5y + 2z .
9
2x + 2y + 8z
4.6 Exercı́cios
2 3
1. Considere os vetores de R3 , u = −1, v = 0 . Determine hu + 3v, u − vi, k2u − vk,
3 −3
d(u, v), d(u + v, u − v) nos seguintes casos:
(a) h, i é o produto escalar.
(b) h, i é o produto interno com pessos p1 = 1, p2 = 2, p3 = 1
2 −1 2 −1
2. Considere o espaço vetorial V = R e os vetores u = ,v= , w= ∈ R2 ,
3 5 2
calcule k2u − vk e d(u + v, v − w) nos seguintes casos :
a) h, i é o produto escalar.
x1 y
b) , 1 = 3x1 y1 + 2x2 y2
x2 y2
3. Suponha que u, v, w são vetores de um espaço vetorial com produto interno h, i, tais que:
hu, vi = 2, hv, wi = −3, hu, wi = 5, kuk = 1, kvk = 2 e kwk = 7. Calcule:
a) hu + v, v + wi
b) h2v − w, 3u + 2wi
c) hu − v − 2w, 4u + vi
d) ku + vk e) k2w − vk f) ku − 2v + 4wk .
4. Sejam V um espaço vetorial com produto interno e u, v ∈ V tais que kuk = 3 e kvk = 5.
Se existirem, determine os valores de k ∈ R de forma que os vetores u − kv e u + kv sejam
ortogonais.
5. Sejam V um√espaço vetorial com produto interno e u, v ∈ V tais que kuk = 3, kvk = 4 e
ku + vk = 2 5. Determine o ângulo entre u e v.
141
6. Sejam V um espaço vetorial com produto interno e u, v ∈ V vetores
√ unitários e ortogonais.
Determine, justificando, se é verdadeiro ou falso que ku − vk = 2.
7. Seja V um espacio vetorial com produto interno, mostre que para todos u, v ∈ V tem-se:
(a) hu + v, u − vi = kuk2 − kvk2
(b) ku + vk2 + ku − vk2 = 2 kuk2 + 2 kvk2 .
9. Considere o triâgulo ABC, com vértices A = (1, 1, −1), B = (−3, 2, −2) e C = (2, 2, −4).
Mostre que ABC é um triângulo retângulo.
10. Seja ABCD o retângulo com vértices A = (1, 2, 3), B = (3, 6, −2) e C = (0, 5, −4),
determine o vértice D.
11. Considere espaços euclideanos Rn . Em cada caso determine a dimensão e uma base para
o espaço indicado.
x
⊥
(a) W , onde W = { y / 2x − y + 3z = 0}
z
x
(b) W ⊥ , onde W = {y / x + y = 0, 2x − 2y − z = 0}
z
1 −1 3
5 2 1
(c) (Col(A))⊥ e N ul(A)⊥ , para A =
0 1 −2
−1 −1 1
1 0
−1 1
(d) (Col(A))⊥ e N ul(A)⊥ , para A = 3 −2
−2 1
142
1
a) O produto escalar com pesos: p1 = 2, p2 = p3 = 1 e W é gerado pelos vetores −1 e
1
1
2 .
−1
z
b) O produto escalar com pesos: p1 = 2, p2 = 3, p3 = 4 e W = { y : y, z ∈ R}.
z
√1
2
a
13. Considere o espaço euclideano R3 e os vetores u = 0 e v = √12 . Determine valores
√1 −b
2
para a, b tais que o conjunto {u, v} seja ortonormal.
é uma
base ortogonal de R3 . Use os coeficientes de fourier para determinar [w]β , sendo
4
w = 0.
1
3
é uma
base
ortonormal de R . Use os coeficientes de fourier para determinar [w]β , sendo
3
w = −2.
1
16. Sejam V um espaço vetorial com produto interno h, i e β uma base de V , use o processo
de Gram-Schmidt para achar uma base ortonormal β 0 de V, nos seguintes casos.
1 2
a) V = R2 munido do produto escalar e β = { , }
2 1
1 −1 −4
b) V = R3 munido do produto escalar e β = {2 , 2 , −4}
3 1 0
143
c) V = R3
munido
do produto escalar com pesos p1 = 1, p2 = 2, p3 = 1 e β =
1 1 0
{1 , 0 , 2}
0 1 0
1
17. (a) Para o espaço euclideano R3 encontre uma base ortogonal que contenha o vetor 3
5
(b)
Para
o espaço euclideano R4 encontre uma base ortogonal que contenha os vetores
1 1
2 0
e
−1 1
0 3
18. Determine bases ortonormais em relação ao produto escalar em Rn , para o subespaço
W de V :
1 1
3
(a) V = R , W1 , gerado por { 0 , −1}
1 0
x
3
(b) V = R , W2 = { y ∈ R3 / x − y + z = 0}
z
x
y
(c) V = R4 , W3 = { 4
z ∈ R /x + y − 2z − 2w = 0}.
w
19. Em cada caso, encontre a projeção ortogonal de v ∈ V sobre W , w = PW (v) e verifique
que w0 = v − PW (v) ∈ W ⊥ .
1
(a) V e W = W1 dados no exercı́cio 18(a) e v = −1
2
−1
(b) V e W = W2 dados no exercı́cio 18(b) e v = −1
1
1
0
(c) V e W = W3 dados no exercı́cio 18(c) e v = −1
0
x
20. Seja W o subespaço W = {y ∈ R3 /5x − 3y + z = 0}. Determine a matriz do operador
z
de projeção ortogonal PW , na base canônica de R3 .
144
21. Considere o operador P sobre R2 de projeção ortogonal sobre a reta
que passa pela origem
cos2 θ sen θcos θ
e de inclinação θ. Mostre que a matriz na base canônica de P é .
sen θcos θ sen θ
22. Em cada caso determine se a matriz A dada é ortogonal, nesse caso determine sua inversa.
1 1 1 1 1
1 1 1
0 1 − √ √ √
√ 2 2 2 2
2
2 − √62 √13 1 −5 1 1
a) A = 1 0 0 b) A = 0
c) A = 21 1 6 61 6
5
6 3 −
1 1 1 1
0 0 √2 √ √ √ 2 6 6 6
1 1 5 1
2 6 3
2 6
− 6 6
Mostre que as bases são ortonormais e calcule a matriz mudança de base de α para β.
No espaço euclideano R3 temos que a distância de um vetor v a um plano W que passa pelo
origem, é dada pelo comprimento do segmento perpendicular de v a W , ou seja v − PW , e
trata-se da menor distância de v a um vetor de W . Temos a mesma situação em um espaço V
com produto interno h, i.
145
Sejam W um subespaço de V e um vetor v ∈ V , verifiquemos que a menor distância de v
a vetores de W é kv − PW (v)k. Notemos que, para todo w ∈ W os vetores v − PW (v) e
PW (v) − w ∈ W são ortogonais, usando Pitágoras temos:
kv − PW (v)k = minw∈W kv − wk ,
Seja W = Col(A), assim basta resolver AX = PW (b), pois a projeção ortogonal determine
a distância mı́nima desde b. A solução X ∈ Rn existe, pois agora PW (b) ∈ Col(A), e é dita
solução em mı́nimos quadrados (SMQ), o valor e = kAX − bk é chamado erro da SQM.
Determinação da SMQ.
Procuramos X tal que, AX = PW (b), como visto anteriormente:
At AX = At b,
X = (At A)−1 At b.
146
1 1 2 1 1 2 1 1 2
1 2 2 → 0 1 0 → 0 1 0 , mostra que o sistema é impossı́vel.
1 3 4 0 2 2 0 0 2
Para determinar
a SMQ do sistema, consideremos a equação normal: At AX = t
A b. Neste
1 1 2
caso, A = 1 2 tem colunas LI (ou seja que At A será invertı́vel) e b = 2 , logo a
1 3 4
equação normal é:
1 1 2
1 1 1 x 1 1 1
At AX = 1 2 = At b = 2
1 2 3 y 1 2 3
1 3 4
3 6 x 8
= ,
6 14 y 18
logo, −1
x 3 6 8 1 14 −6 8 1 4
X= = = = .
y 6 14 18 6 −6 3 18 6 6
Logo, x = 2/3 e y = 1. O erro cometido pela aproximação é dado por e = kAX − bk. Como
1 1 2 −1/3
2/3
AX − b = 1 2 − 2 = 2/3 ,
1
1 3 4 −1/3
q p
1
então, e = 9
+ 49 + 1
9
= 2/3 ≈ 0, 81.
147
Capı́tulo 5
AUTOVALORES, AUTOVETORES E
DIAGONALIZAÇÃO
Definições 5.1.
λ autovalor de T ⇔ λ autovalor de A,
148
Exemplos 5.3.
149
x
• Rotação. O operador de rotação pelo ângulo 0 ≤ θ ≤ 2π, Rθ : R → R , Rθ (
2 2
)=
y
cos θ −sen θ x
não tem autovalores reais e portanto não tem autovetores no
sen θ cos θ y
plano, exceto nos casos θ = 0 e θ = π, com autovalores 1 e −1, respectivamente.
Definição 5.4. Seja λ um autovalor do operador linear T : V → V . O conjunto
Vλ = {v ∈ V | T (v) = λv}
composto por todos os autovetores associados a λ junto com o vetor nulo, é um subespaço de V
e é denominado autoespaço associado ao autovalor λ. Analogamente se A é uma matriz
com autovalor λ, temos que
Vλ = {v ∈ Rn | Av = λv},
é um subespaço vetorial de Rn .
Av = λv, v 6= 0 ⇔ Av − λv = 0, v 6= 0
⇔ Av − λIn v = 0, v 6= 0
⇔ (A − λIn )v = 0, v 6= 0
⇔ det(A − λIn ) = 0,
é o polinômio caracterı́stico de T .
Considerando R como corpo de escalares, a importância do polinômio caracterı́stico de um
operador ou de uma matriz, está no fato de suas raı́zes reais serem exatamente os autovalores.
150
Observação 5.5. O polinômio caracterı́stico de um operador linear é independente da base
escolhida? Para responder a questão tomemos as bases α e β de V , sabemos que [T ]α e [T ]β
são matrizes semelhantes, ou seja,
[T ]α = P −1 [T ]β P,
logo,
[T ]α − λIn = P −1 [T ]β P − λIn = P −1 ([T ]β − λIn )P,
mas as matrizes semelhantes tem o mesmo determinante, logo
151
Autoespaços associados.
x
• Para λ = −1, os autovetores associados são as soluçẽs v = não nulas do sistema
y
homogêneo com matriz de coeficientes
2 −4 1 −2
A − (−1)I2 = A + I2 = → ,
2 −4 0 0
2y
logo x − 2y = 0 ⇒ x = 2y, portanto V−1 = { | y ∈ R}.
y
x
• Para λ = −3, os autovetores associados são as soluçẽs v = não nulas do sistema
y
homogêneo com matriz de coeficientes
4 −4 1 −1
A − (−3)I2 = A + 3I2 = → ,
2 −2 0 0
x
logo x − y = 0 ⇒ x = y, portanto V−3 = { | x ∈ R}.
x
2. Consideremos o operador de rotação no plano, com ângulo de θ = π2 , dado por
2 2 x 0 −1 x −y
R : R → R , R( )= = .
y 1 0 y x
152
Então,
−λ 1 1 2−λ 2−λ 2−λ
det([T ] − λI3 ) = 1 −λ 1 = 1 −λ 1
1 1 −λ 1 1 −λ
1 1 1
= (2 − λ) 1 −λ 1
1 1 −λ
1 1 1
= (2 − λ) 0 −1 − λ 0
0 0 −1 − λ
= (2 − λ)(−1 − λ)2 = (2 − λ)(1 + λ)2
153
Multiplicidade de Autovalores
Exemplo 5.7. 1. Para a matriz do exemplo 5.6(1), vimos que o polinômio caracterı́stico de
A é,
p(λ) = (λ + 1)(λ + 3),
e seus autovalores são −1 e −3, assim temos
ma (−1) = ma (−3) = 1.
ma (2) = 1 e ma (−1) = 2.
154
5.2 Diagonalização de Operadores e Matrizes
Estaremos considerando V como espaço real de dimensão finita, todas as matrizes com elemen-
tos reais e os escalares também em R.
Exemplo 5.8. Seja T : R2 → R2 o operador dado no exemplo 5.3(3), vamos determinar uma
representação matricial especial de T .
2 1
Verificamos que T tem autovalores −2 e 3 com autovetores, u = associado a −2 e v =
1 1
associado a 3, ou seja T (u) = −2u e T (v) = 3v. Considerando que o conjunto de autovetores
α = {u, v} é uma base para R2 , podemos determinar [T ]α .
−2
T (u) = −2u + 0 · v ⇒ [T (u)]α = ,
0
e
0
T (v) = 0 · u + 3v ⇒ [T (v)]α = ,
3
−2 0
logo [T ]α = , concluı́mos que a representação matricial de T na base de autovetores α
0 3
é uma matriz diagonal onde os elementos da diagonal são os autovalores.
Definição 5.10. Seja T um operador linear sobre o espaço vetorial V . Dizemos que T é
diagonalizável , se existe uma base α de V tal que [T ]α é uma matriz diagonal. Pela proposição
5.9, T é diagonalizável, se e somente se, existe uma base α de V , composta de autovetores de
T.
T (vi ) = λi vi = 0 · v1 + . . . + λi vi + . . . + 0 · vn , 1 ≤ i ≤ n
155
• Se β é uma base qualquer de V , então [T ]β e D são semelhantes, de fato:
[T ]β = P · D · P −1 , onde P = [I]αβ .
λ1 + . . . + λn = tr(D) = tr([T ]β ).
Definição 5.12. Dizemos que uma matriz quadrada A de ordem n é diagonalizável sobre
R, ou simplesmente diagonalizável, quando o operador T sobre Rn , dado por T (v) = Av é
diagonalizável, isto significa que deve existir uma base α de Rn composta de autovetores de A.
Se C é a base canônica de Rn e cada vetor vi de α é um autovetor associado ao autovalor λi ,
para 1 ≤ i ≤ n, então
λ1 0 . . . 0
0 λ2 . . . 0
−1 α
A = P · D · P , onde D = .. .. e P = [I]C .
..
. . .
0 0 . . . λn
Teorema 5.14. Uma matriz real quadrada de ordem n ou um operador sobre um espaço
vetorial real V de dimensão n será diagonalizável sobre R, se e somente se,
2. mg (λi ) = ma (λi ).
Observação 5.15. Se todos os autovalores são reais e diferentes, então 1 ≤ mg (λi ) ≤ ma (λi ) =
1, ou seja mg (λi ) = 1, logo o operador ou a matriz serão diagonalizáveis.
Exemplo 5.16.
156
O operador de rotação Rπ/2 sobre R2 não é diagonalizável, pois não possui autovetores
em R2 .
1 −4
A matriz A = do exemplo 5.6(1) é diagonalizável, pois R2 tem a base composta
2 −5
2 1
de autovetores, α = {u = ,v = }, onde u está associado ao autovalor −1 e v está
1 1
associado ao autovalor −3. Portanto,
1 −4 −1 0 −1 2 1
A= =P P , onde P = .
1 −5 0 −3 1 1
x
3 3
2. Considere o operador linear do exemplo 5.6(3), T : R → R definida por T y =
z
y+z
x + z . Vimos que as raizes de pT são reais, de fato λ = 2 e λ = −1 e que,
x+y
−λ 1 0
pA (λ) = |A − λI3 | = 0 −λ 1 = λ2 (2 − λ),
0 0 2−λ
157
x
logo V0 = { 0 | x ∈ R} tem dimensão 1, então
0
mg (0) = 1 6= ma (0) = 2,
3−λ 2 0 0
5 −λ 0 0
pA (λ) = |A − λI4 | =
0 0 −λ 1
0 0 1 −λ
3 − λ 2 −λ 1
=
5 −λ 1 −λ
= (λ2 − 3λ − 10)(λ2 − 1)
= (λ − 5)(λ + 2)(λ − 1)(λ + 1)
λ1 = 5, λ2 = −2, λ3 = 1, λ4 = −1.
0 0 1 2 0
2 2 0 0 0
5 −1 0 0 0 ,
A − I4 = 0 0 −1 1 ⇒ x = y = 0; z = w ⇒ v3 = 1
0 0 1 −1 1
4 2 0 0 0
5 1 0 0 0
A + I4 = 0 0 1 1 ⇒ x = y = 0; z + w = 0 ⇒ v4 = 1 .
0 0 1 1 −1
158
Logo, com α = {v1 , v2 , v3 , v4 } temos,
5 0 0 0 1 2 0 0
0 −2 0 0 1 −5 0 0
A = P · D · P −1 , com D = α
0 0 1 0 , P = [I]C = 0 0 1 1 .
0 0 0 −1 0 0 1 −1
5.3 Aplicações
Cálculo de Potências. Se A é uma matriz diagonalizável, podemos obter uma fórmula para
cálculo de Ak em função somente de k.
De fato, suponha que temos uma base α de autovetores de Rn tal que
λ1 0 . . . 0
0 λ2 . . . 0
A = P · D · P −1 , onde D = .. e P = [I]αC .
.. ..
. . . 0
0 0 ... λn
Logo,
Ak = (P · D · P −1 )k = (P · D · P −1 ) · . . . · (P · D · P −1 ) = P · Dk · P −1 ,
para obter Dk basta efetuar as potências na diagonal,
λk1 0 ... 0
0 λk2 . . . 0
−1
Ak = P · .. ·P ,
.. ..
. . . 0
0 0 . . . λkn
1 −4
Exemplo 5.17. Vimos nos exemplos 5.6(1) e 5.16(1) e que a matriz A = é diagona-
2 −5
lizável e que,
−1 0 −1 2 1
A=P P , onde P = ,
0 −3 1 1
logo,
k
−1 0
A k
= P P −1
0 −3
2 1 (−1)k 0 1 −1
=
1 1 0 (−3)k −1 2
2(−1)k − (−3)k −2(−1)k + 2(−3)k
=
(−1)k − (−3)k −(−1)k + 2(−3)k .
159
Sistemas lineares de EDO’s. Do cálculo sabemos que uma função diferenciável x = x(t)
que satisfaz a equação diferencial da forma,
tem a forma geral, x(t) = Cekt , onde C é uma constante. Dada a condição inicial, x(0) = x0 ,
substituindo na solução temos C = x0 , logo a única solução é da forma, x(t) = x0 ekt .
Suponhamos que temos n funções diferenciáveis de t, x1 , x2 , . . . , xn , que satisfazem o sistema
de equações diferenciais da forma,
x01 = a11 x1 + a12 x2 + . . . + a1n xn
x0 = a21 x1 + a22 x2 + . . . + a2n xn
2
.. .
.
x0 = a x + a x + . . . + a x
n n1 1 n2 2 nn n
Isto leva a considerar casos onde A é uma matriz diagonalizável. Assim temos o sistema geral
dado em (∗):
X 0 = AX
,
X0 = X(0)
onde A é diagonalizável com base de autovetores α = {v1 , . . . , vn } associados aos autovalores
λ1 , . . . , λn ou seja que,
A = P DP −1 , onde P = [v1 · · · vn ].
Colocamos Y = P −1 X que implica em Y 0 = P −1 X 0 e substituı́mos em (∗):
X 0 = AX ⇒ X 0 = P DP −1 X ⇒ P −1 X 0 = DP −1 X = D(P −1 X),
assim,
Y 0 = DY
160
C1 eλ1 t
C2 eλ2 t
cuja solução é, Y = .. , portanto a solução procurada é,
.
Cn eλn t
X0 = C 1 v 1 + . . . + C n v n ,
ou na forma matricial:
C1
C2
.. = [v1 · · · vn ]−1 X0 .
.
Cn
Exemplo 5.18. Uma população de esquilos e raposas habitam o mesmo ecosistema e compe-
tem por comida, água e espao̧. Sejam as populações de raposas e esquilos em t horas dadas
por r(t) e s(t), respectivamente. Em ausência de esquilos as raposas crescem a uma taxa de
r0 (t) = 2, 5r(t), mas quando os esquilos estão presentes a competição retarda o crescimento das
raposas para r0 (t) = 2, 5r(t)−s(t). Da mesma forma a população de esquilos é afetada pelas ra-
posas, assim em ausência das raposas os esquilos crescem a uma taxa de s0 (t) = 2, 5s(t) e quando
compartilham o ecosistema a taxa de crescimento dos esquilos é de, s0 (t) = −0, 25r(t) + 2, 5s(t).
Suponha que inicialmente existem 60 raposas e 60 esquilos no ecosistema. Determine o com-
portamento das populações.
Solução. O sistema é
r0 = 2, 5r − s
.
s0 = −0, 25r + 2, 5s
Na forma matricial,
X 0 = AX,
r(t) 2, 5 −1
onde X = X(t) = eA= .
s(t) −0, 25 2, 5
O polinômio caracterı́stico é,
2, 5 − λ −1
pA = = λ2 − 5λ + 6 = (λ − 2)(λ − 3) ⇒ λ1 = 2, λ2 = 3.
−0, 25 2, 5 − λ
• Para λ1 = 2, temos
0, 5 −1 1 −2 2
A − 2I2 = → ⇒ v1 =
−0, 25 0, 5 0 0 1
161
• Para λ1 = 3, temos
−0, 5 −1 1 2 −2
A − 3I2 = → ⇒ v2 = .
−0, 25 −0, 5 0 0 1
5.4 Exercı́cios
1. Para cada caso, mostre que v é um autovetor de A e determine o autovalor correspondente.
4 0 1 1 2 −1 −1 1
(a) A = 2 3 2 e v = 2 (b) A = −1 2 −1 e v = 1
1 0 4 1 −1 −1 2 1
2. Para as seguintes matrizes no espaço de matrize reais Mn×n (R) respectivo, ache o po-
linômio caracterı́stico, todos os autovalores e uma base para cada autoespaço.
2 −1 3
3 2 −2 −7
(a) A = (b) A = (c) A = 1 1 −1
−1 0 1 2
1 −2 4
2 0 0 4
1 −3 3 0 2 0 0
(d) A = 3 −5 3 (e) A = 0 0 −2 0
6 −6 4
0 0 0 −2
3. Para cada um dos seguintes operadores encontre todos os autovalores e uma base para
cada autoespaço.
2 2 x 3x + 3y
(a) T : R → R , T ( )=
y x + 5y
x x−y
(b) T : R3 → R3 , T (y ) = 2x + 3y
z x + 5y
162
4. Por inspeção determine os autovalores de cada matriz.
1
√
−3 0 0 0
3 0 0
0 − 13
− 2 √ 6 0 0
(a) (b) 2 7 0 (c)
0
0 5 2 0 1 0
4 8 1
0 0 0 12
6. Justifique as seguintes proposições válidas para um operador linear ou para matriz qua-
drada A de ordem n.
(a) A é invertı́vel se e somente se 0Rn não é autovalor de A.
(b) Se A é invertı́vel então os autovalores de A−1 são da forma λ1 , onde λ é autovalor de
A e os autovetores de A−1 são exatamente os autovetores de A associados a λ.
8. Suponha que o polinômio caracterı́stico de uma matriz A é p(x) = (x − 1)(x − 3)2 (x − 4)3 ,
responda justificando:
(a) Qual a ordem de A?
(b) A é invertı́vel?
(c) Quantos autoespaços tem A?
11. Seja T : R2 → R2 um operador linear cuja representação matricial na base canônica é:
0 a
[T ] = .
b 0
163
3 3
T : R →R
12. Seja um operador linear
cuja representação
matricial na base de R3 , β =
1 1 −1 1 1 1
{ 0 , −1 , 1 } é: A = [T ]β = 1 1
1. Mostre que T é diagonalizável e calcule
0 0 1 1 1 1
uma base formada por autovetores.
1 k 0
13. Determine os valores de k ∈ R de forma que seja diagonalizável a matriz, A = 0 2 0.
0 0 1
14. (a) Considere o operador sobre R2 de reflexão com relação a uma reta y = mx. Analice
em que casos é diagonalizável.
(b) Considere o operador sobre R2 de reflexão com relação ao origem (0, 0) do sistema
cartesiano. Determine se é diagonalizável ou não.
(c) Considere o operador sobre R2 de rotação no sentido anti-horário com ângulo θ.
Analice em que casos é diagonalizável.
(d) Considere o operador sobre R3 de rotação em torno do eixo x, no sentido positivo,
com ângulo θ. Analice em que casos é diagonalizável.
16. Use diagonalização para determinar a solução do sistema de equações diferenciais dado.
x0 = x−y x0 = 5x − 8y
0 0
(a) y = −x + y (b) y = −2x + 5y
x0 = 3 e y0 = 1 x0 = 1 e y0 = 1
x0 = 4x + z
y0 = −2x + y
(c) .
z0 = −2x + z
x0 = −1, y0 = 1, z0 = 0
164
(e) Se A é uma matriz invertı́vel e diagonalizável, então A−1 também é diagonalizável.
(f) Se A é uma matriz diagonalizável, então At também é diagonalizável.
(g) Se todo autovalor de um operador ou matriz A tem multiplicidade geométrica 1, então
A é diagonalizável.
165
Capı́tulo 6
OPERADORES AUTOADJUNTOS,
ORTOGONAIS E SUAS
PROPRIEDADES
Vamos apresentar alguns operadores com propriedades que envolvem o produto interno do
espaço vetorial no qual estão definidos, neste caso por simplicidade vamos expor o caso fun-
damental e básico de operadores sobre um espaço euclideano V = Rm onde o produto interno
é o produto escalar, mas a teoria pode ser naturalmente estendida para operadores sobre um
espaço V de dimensão finita com produto interno qualquer.
Definições 6.1.
Au · v = u · Av, ∀ u, v ∈ Rm . (6.1)
Notemos que,
Au · v = u · Av = ut Av = (At u)t v = At u · v, ∀ u, v ∈ Rm ⇔ A = At ,
portanto,
T autoadjunto ⇔ A é uma matriz simétrica.
Au · Av = u · v, ∀ u, v ∈ Rm , (6.2)
166
por essa propriedade dissemos que o operador ortogonal preserva o produto escalar.
Notemos que,
ou seja que,
T ortogonal ⇔ A é uma matriz ortogonal.
Observação 6.2. Note que nas definições acima usamos a matriz A que representa T na
base canônica, embora as mesmas equivalências acontecem se representarmos T em outra base
ortonormal. De fato, sejam β uma base ortonormal qualquer de Rm e Q a matriz mudança de
base, da base β para base canônica, notando que Q é ortogonal temos,
[T ]β = Q−1 AQ = Qt AQ,
Exemplos 6.4.
são ortogonais.
167
4. Os operadores do plano, de reflexão pelos eixos x e y são ortogonais (e autoadjuntos),
basta ver que as matrizes na base canônica são respectivamente, da forma,
1 0 −1 0
, ,
0 −1 0 1
1. T é ortogonal.
3. Para todos u, v ∈ Rm o ângulo entre u e v é igual ao ângulo entre Au e Av, por essa
razão dissemos que T preserva ângulo.
Note que as propriedades (2), (3) e (4) podem ser geometricamente verificadas para os opera-
dores de rotação e reflexão, tanto no plano quanto no espaço. Pelas suas propriedades podemos
notar que operadores ortogonais do plano ou espaço transformam figuras em figuras congruêntes,
como ilustrado no desenho 6.1.
168
Figura 6.1: Operador ortogonal no plano.
1−λ 2
pT = = λ2 + λ − 6 = (λ + 3)(λ − 2) ⇒ λ1 = −3, λ2 = 2.
2 −2 − λ
1
• Para λ1 = −3, temos o autovetor v1 = .
−2
2
• Para λ1 = 2, temos o autovetor v2 = .
1
169
Mas a matriz Q é ortogonal, logo Q−1 = Qt , portanto neste caso a decomposição de A é da
forma,
A = QDQt ou D = Qt AQ.
No exemplo acima obtemos uma diagonalização especial, com base ortonormal de autovetores
de T , de forma que A = QDQt , onde Q é uma matriz ortogonal. No exemplo T é simétrico,
mas de fato veremos que esta propriedade acontece somente para operadores simétricos.
onde Q = [I]αC é uma matriz ortogonal e D é a matriz diagonal, com diagonal composta pelos
autovalores de T .
A implicação direta deste teorema não é trivial, já a recı́proca foi colocada na observação 6.8.
Na prática, para determinar a base ortonormal de autovetores de uma matriz simétrica A e,
consequentemente, a matriz ortogonal Q, procedemos da seguinte forma:
170
• Determinamos bases ortogonais para cada espaço de autovetores, usando o processo de
Gram-Schmidt, se necessário.
2−λ 1 1
pT (λ) = |A − λI3 | = 1 2−λ 1
1 1 2−λ
4−λ 4−λ 4−λ
= 1 2−λ 1
1 1 2−λ
1 1 1
= (4 − λ) 1 2 − λ 1
1 1 2−λ
1 1 1
= (4 − λ) 1 2 − λ 1
0 0 1−λ
= (4 − λ)(1 − λ)2 ,
171
−1 −1
logo uma base para V1 é composta por v1 = 1 e v2 = 0 . Para ortogonalizar
0 1
−1/2
1
{v1 , v2 } calculamos v1 · v2 = 1 e v1 · v1 = 2, trocamos v2 por v2 − v1 = −1/2 ou
2
1
1 −1 1
1 , logo uma base ortogonal para V1 é { 1 , 1 }.
−2 0 −2
Portanto
√ √ √
4 0 0 1/√3 −1/√ 2 1/√6
A = QDQt , onde D = 0 1 0 ; Q = 1/√3 1/ 2 1/ √6 .
0 0 1 1/ 3 0 −2/ 6
Exemplo 6.12. Seja T : R3 → R3 o operador projeção ortogonal sobre o plano W de equação
x − 2y + z = 0. Se existir, determine uma base ortonormal de autovetores β de forma que [T ]β
seja diagonal.
Como T é uma projeção ortogonal então T é simétrico e portanto é ortogonalmente diago-
nalizável, ou seja que existe uma base ortonormal de autovetores β. Podemos obter β, sem
necessidade de determinar a fórmula de T . De fato, escolhendo uma base ortonormal u, v de
W e um vetor unitário z ortogonal a W , temos a base ortonormal β = {u, v, z}, de fato pela
escolha verfica-se,
T (u) = u, T (v) = v, T (z) = 0,
assim β é a base procurada, pois
1 0 0
[T ]β = 0 1 0 , é diagonal.
0 0 0
172
logo uma base ortonormal para W é dada por,
2 −1
1 1
u= √ 1 ; v= √ 2 .
5 0 30 5
1
A equação de W mostra que o vetor −2 , é ortogonal a W , assim escolhemos o terceiro vetor,
1
1
1
w = √ −2 . Portanto a base procurada é,
6 1
2 −1 1
1 1 1
β = {√ 1 , √ 2 , √ −2 }.
5 0 30 5 6 1
Decomposição Espectral.
Os operadores simétricos podem ser representados em termos de operadores de projeção orto-
gonal, com este fim relembramos as matrizes associadas a esses operadores.
Da observação 4.33 sabemos que a matriz associada ao operador de projeção ortogonal sobre
um subespaço W do espaço euclideano Rn é da forma AAt , onde as colunas de A são uma base
ortonormal de W . No caso da projeção ortogonal de um vetor v ∈ Rn sobre o espaço gerado
por um vetor unitário w1 , a matriz da projeção ortogonal na base canônica C é:
[Pw1 ]C = w1 w1t ,
esta matriz é de ordem n × n e simétrica.
173
λ1 0 0
A = QDQt = Q · 0 λ2 0 · Qt
0 0 λ3
λ1 0 0 0 0 0 0 0 0
= Q 0 0 0 + 0 λ2 0 + 0 0 0 Qt
0 0 0 0 0 0 0 0 λ3
1 0 0 0 0 0 0 0 0
= λ1 Q 0 0 0 Qt + λ2 Q 0 1 0 Qt + λ3 Q 0 0 0 Qt
0 0 0 0 0 0 0 0 1
t
v1 0 0
t
= λ1 [v1 v2 v3 ] 0 + λ2 [v1 v2 v3 ] v2 + λ3 [v1 q2 v3 ] 0
0 0 v3t
= λ1 v1 v1t + λ2 v2 v2t + λ3 v3 v3t ,
notando que v1 v1t , v2 v2t e v3 v3t são as matrizes das projeções ortogonais sobre v1 , v2 e v3 respec-
tivamente, temos representado A como combinação linear de projeções ortogonais.
Em termos dos operadores fica claro que, todo operador ortogonalmente diagonalizável, ou
seja simétrico, é combinação linear de operadores de projeção ortogonal sobre os espaços ge-
rados por cada autovetor da base ortonormal de autovetores. Esta representação chama-se
decomposição espectral .
Exemplo 6.13. Vamos construir a decomposição espectral do operador do exemplo 6.11.
A diagonalização ortogonal de A é,
√ √ √
4 0 0 1/√3 −1/√ 2 1/√6
t
A = QDQ , onde D = 0 1 0 ; Q = 1/√3 1/ 2 1/ √6 .
0 0 1 1/ 3 0 −2/ 6
√ √ √
1/√3 −1/√ 2 1/√6
Temos, v1 = 1/√3 , v2 = 1/ 2 , v3 = 1/ √6 , as projeções são,
1/ 3 0 −2/ 6
√
1/√3 √ √ √ 1/3 1/3 1/3
• v1 v1t = 1/√3 1/ 3 1/ 3 1/ 3 = 1/3 1/3 1/3.
1/ 3 1/3 1/3 1/3
√
−1/√ 2 √ √ 1/2 −1/2 0
• v2 v2t = 1/ 2 −1/ 2 1/ 2 0 = −1/2 1/2 0.
0 0 0 0
√
1/√6 √ √ √ 1/6 1/6 −1/3
• v3 v3t = 1/ √6 1/ 6 1/ 6 −2/ 6 = 1/6 1/6 −1/3.
−2/ 6 −1/3 −1/3 2/3
174
Portanto a decomposição espectral de A é,
1/3 1/3 1/3 1/2 −1/2 0 1/6 1/6 −1/3
A = 4 1/3 1/3 1/3 + −1/2 1/2 0 + 1/6 1/6 −1/3 .
1/3 1/3 1/3 0 0 0 −1/3 −1/3 2/3
6.3 Exercı́cios
3
1. Seja
T operador
sobre o espaço euclidiano R , dado na forma T (u) = Au, onde A =
1 2 2
1
2 −2 1.
3
−2 −1 2
a) Mostre que T é um operador ortogonal.
1
b) Verifique que, se u = √ (2, 1, −1) então T (u) é unitário.
6
c) Verifique que, se u = (−2, 3, 5) então ||T (u)|| = ||u||.
2 1 0
2. Seja A = 1 1 1. Verifique que A é ortogonalmente diagonalizável e exiba uma base
0 1 2
ortonormal de autovetores de A.
a 0 0
3. Dada a matriz A = 0 b c .
0 c b
Mostre que os autovalores são a, b + c, e b − c e verifique que A é ortogonalmente diago-
nalizável.
4. Para cada matriz dada, verifique que A é ortogonalmente diagonalizável e exiba matrizes
ortogonal Q e diagonal D tais que D = Qt AQ.
1 4 2 −2 0 −36
a) A = 4 −5 −4. b) A = 0 −3 0 .
2 −4 1 −36 0 −23
5. Para cada matriz simétrica A, mostre a decomposição espectral de A.
−3 1 2 5 0 0
3 1
(a) A = (b) A = 1 −3 2 (c) A = 0 1 3
1 3
2 2 0 0 3 1
3
6. Mostre que toda matriz A quadrada de ordem 2 que possui autovetores v1 = e
4
−4
v2 = deve ser simétrica. Determine A sabendo que os autovetores v1 e v2 estão
3
associados aos autovalores λ1 = 3, λ2 = −2, respectivamente.
175
7. a) Existe alguma matriz simétrica de ordem 3, com autovetores (0, 1, −1), (1, 0, 0), (0, 1, 1)
associados aos autovalores λ1 = −1, λ2 = 3 e λ3 = 7?
b) Existe alguma matriz simétrica de ordem 3, com autovetores (0, 1, −1), (1, 0, 0), (1, 1, 1)
associados aos autovalores λ1 = −1, λ2 = 3 e λ3 = 7?
176
Gabaritos dos exercı́cios
1. Seção 1.4
−2 0 2 0 1 e e2 e3 −5 −5 0 5
0 2 0 −2 1 e e2 e3 −5 0 5 6
1. (a) (b) (c)
2 0 −2 0 1 e e2 e3 0 5 6 7
0 −2 0 2 1 e e2 e3 5 6 7 8
∗ ∗ 0 0 0
∗ ∗ ∗ 0 0
2. A = 0 ∗ ∗ ∗ 0
0 0 ∗ ∗ ∗
0 0 0 ∗ ∗
5 24 1 33
3. (a) X = 3(A + B) − 4I = (b) X = 5A − 2B =
18 23 2 24
4 5 2 −5
4. X = 12 (3A + 2B) = , Y = 21 (3A − 2B) = .
6 6 0 6
27 27 0 2 −1
1 15 −5 5
5. (a) 30 21 (b) (c) 10 −2 0 1
2 −3 7 2
24 51 1 −1 0
15 2 7
40 72
(d) Impossı́vel (e) (f) Impossı́vel (g) −15 −2 −7.
26 42
30 4 14
6. (a) Existe C e tr(C) = 2 (b) Existe C e tr(C) = −2 (c) Existe C e
tr(C) = −59/3 (d) Não existe.
1 0 0 −1
7. Por exemplo B = ,C=
0 0 2 2
8. (a) E32 F21 = E31 (b) Quando t 6= k (c) Quando t = k
9. (a) Falsa, ache exemplos (b) e (c) São falsas, basta determinar matrizes que não
comutem (d) e (e) São verdadeiras, justifique. (f) Falsa, basta achar matrizes
que não comutem. (g) Verdadeira, justifique. (h) Verdadeira, justifique.
10. (a) k = −1 (b) k = −2, k = −10
a b
11. As matrizes da forma , ∀a, b ∈ R.
b a
177
2 −1 1 3 −1 0 4 5 2 1 −1
12. (a) A = , A = = −I2 , A = −A, A = −A = , A6 =
−1 0 0 −1 1 0
−A3 = I2 . Notando
que A
6k+r
= A6k Ar = Ar , temos 2015 = 6 × 335 + 5, logo
1 −1
A2015 = A5 = .
1 0
" # " #
− √1 − √1 − √1 √1
0 −1
13. (b) A2 = , A3 = √1
2
√1
2
, A4 = −I2 , A5 = −A = √1
2 2
√1
.
1 0 2
− 2
− 2
− 2
" #
√1 √1
Como A8 = I2 temos A2015 = A7 = −A3 = 2 2
.
− √12 √1
2
178
2. (a) posto=3, nulidade=2 (b) posto=3, nulidade=1 (c) posto=3, nulidade=0 (d)
posto=2, nulidade=1.
3. A e C são linha equivalentes, pois tem iguais formas erl; B não é linha-equivalente
a A nem a C pois tem forma erl diferente.
1 s 0 1 1 0
4. (a) 0 0, com s ∈ R e 0 0 (b) 0 1 (c) Não existem.
0 0 0 0 0 0
5. k = 2, para k 6= 2 o posto é 4.
6. pA = 3, se a 6= −1 e a 6= 2. pA = 2, se a = 2 e pA = 1, se a = −1.
−11 6 3
7 1
7. (a) 18 (b) 4 −2 −1
6 2
−2 1 1
8. (a) a 6= 1 (b) a 6= 0
3 3 3
9. A = (A−1 )−1 = 16 2 4 −2
1 5 −1
10. a 6= 0, b 6= 0 e c 6= 0.
3 2 1
11. M = 21 3 4 5 .
3 −2 −1
14 33 −29
12. (a) X = ((C 2 )−1 A−1 C)t (b) X = ((C −1 )t )2 = 25
1
3 16 −8
11 42 −21
13. (a) SPI, grau de liberdade 1, x = 17
3
− 73 t, y = − 35 + 43 t, z = t, qualquer.
(b) SPD, x = 0, y = 1, z = 0 (c) SI, pA = 3 6= p[A|b] = 4
(d) SPD, x = 1, y = −1, z = 2, w = −2.
21
−1
14. (b) A é invertı́vel e X = A b = −3.
3
15. (a) k = 2 (b) SPI, para todo valor de k, pois o posto da matriz de coeficientes é
sempre menor que 4.
16. (a) SI para α = 0 ou α = 1; SPD para α 6= 0, 1; nunca será SPI.
(b) SPD para β 6= 6; SPI para β = 6, γ = 5 e SI para β = 6, γ 6= 5.
(c) SPD para a 6= −3/4, SI para a = −3/4.
(d) SPD para b 6= 0, b 6= 1, SPI para b = 0 e SI para b = 1.
(e) SPD para c = 0 ou c = 5/2; SI para c 6= 0 e c 6= 5/2.
17. (a) 2a + b − c = 0. (b) 37a + 13b = 9c.
18. (a) Nunca será SPD (b) Para SPI: a1 + a2 + a3 + a4 = b1 + b2 + b3 + b4 (c) Para
SI: a1 + a2 + a3 + a4 6= b1 + b2 + b3 + b4 .
179
1 1 2
19. (b) A − I é linha equivalente a 0 1 6, logo é SPD com solução nula.
0 0 1
z
(c) SPI com solução X = 0, para z qualquer.
z
20. (a) f1 = −200 + s + t, f2 = 300 − s − t, f3 = s, f4 = 150 − t e f5 = t
(b) 200 ≤ f3 ≤ 300 (c) Se f3 = 0 então f5 ≥ 200, mas f5 ≤ 150 (d)
50 ≤ f3 ≤ 300.
x21 x1 1
21. x22 x2 1 = (x3 − x2 )(x3 − x1 )(x2 − x1 ) 6= 0.
x23 x3 1
22. (a) −12 (b) 20 (c) 55 (d) −65 (e) 400
23. (a) Verdadeiro, pois det(AB) = det A det B = det B det A = det(BA)
(b) Verdadeiro, pois det(AAt ) = (det A)2 = det I = 1 ⇒ det A = ±1
(c) Falso, pois det(2A) det(3B) = 6n det A det B
(d) Falso, pois det(−A) = (−1)n det A = det A, se n é par
(e) Verdadeiro. Aplique (a) para obter det(A−1 BA) = det B.
16 1
24. (a) −567 (b) − (c) − (d) −14.
7 112
25. A é invertı́vel para a 6= 0 e b 6= 6.
26. a + b + c + d = −1.
3. Seção 2.9
1 1 5
1
1. (a) 8
(b) 8 (c) 2 7
1 −4 4
2. (a) Não, não contém o vetor nulo.
(b) Sim, é solução de um sistema homogêneo
0 0
(c) Não, por exemplo 1 ∈ W , mas −1 ∈
/W
2 −2
1 −1 0
(d) Não, por exemplo 1 , 1 ∈ W , mas a soma 2 ∈
/ W.
0 0 0
(e) Sim, é solução do sistema homogêneo y − z = 0; x − w = 0
1 −1
0 0
(f) Não, por exemplo 0 ∈ W mas 0 ∈
/ W.
0 0
(g) Sim, é solução de um sistema homogêneo
180
3. Não.
4. Somente w3 é combinação de u e v.
5. (a) x − y + z = 0 (b) 4x + 2y − z = 0 (c) x + y − z − 2w = 0
(d) 5x + 2y = 0 e 3x − 2z = 0 (e) 11x − 7y = 0.
6. Sim, w = 21 (3u − 5v).
7. Sim, o determinante da matriz cujas colunas são u, v, w é diferente de zero.
8. Não, pois as equações de W1 são 10x + 13z − 17w = 0, 15x + 13y + 7w = 0 e os
vetores de W2 não verificam as equações.
9. k = −15/2
10. (a) e (c) são LI, (b) É LD.
11. k 6= −3.
12. Não existe k.
13. a) (F) b) (F) c) (V) d) (V) e) (V) f ) (F) g) (F) h) (F) i) (V) j) (V) k) (F)
l) (F) m) (F).
14. k = 1 ou k = −3/2.
−2
15. (a) Base: { 3 }, dim W = 1
7
1 0 0
1 0 0
(b) Base: { 0 , 1 , 0}, dim W = 3
0 0 1
1 0 0
(c) Sejam u, v, w, t os vetores dados, pA = 3 onde A = [u v w t], logo W = R3 ,
dim W = 3 e serve qualquer base de R3 .
16. (a) Uma reta (b) Um plano.
−1
1 1 1 1
17. (a) Base para N ul(A), { }, dim N ul(A) = 1. Base para Col(A): { 0 , 1 , 1 }
1
0 1 −1
0
e dim(Col(A)) = 3
−1 1 0 0
3 0 5 0
(b) Base para N ul(A): { 1 }, dim N ul(A) = 1. Base para Col(A): {0 , 0 , 5}
0 0 1 3
e dim(Col(A)) = 3.
1 1
1 0 2
(c) Base para N ul(A): { 0 , 1} dim N ul(A) = 2. Col(A) = R , dim Col(A) =
0 0
2
2, qquer base de R serve.
181
2 5
7 −1 −1
(d) Base para N ul(A): {−4}, dim N ul(A) = 1. Base para Col(A): {
2 , 3 }
1
1 3
e dim(Col(A)) = 2.
1 0 1
−1 0 0
18. (a) Sim (b) {
0 , 1 , 0}.
0 1 0
19. (b) Os espaços gerados são iguais.
20. (a) Sim (b) Não (c) Sim, W = {0}.
21. (a) Sim (b) Sim (c) Não.
−3y
22. (a) dim S1 = 2, dim S2 = 2, S1 ∩ S2 = { y | y ∈ R}, base de S1 ∩ S2 pode ser
5y
−3
dada por { 1 }, dim(S1 ∩ S2 ) = 1, S1 + S2 = R3 e dim(S1 + S2 ) = 3.
5
7z/2
(b) dim S1 = 2, dim S2 = 2, S1 ∩ S2 = { 0 | z ∈ R}, base de S1 ∩ S2 pode ser
z
7
dada por { 0}, dim(S1 ∩ S2 ) = 1, S1 + S2 = R3 e dim(S1 + S2 ) = 3.
2
x
(c) dim S1 = 2, dim S2 = 2, S1 ∩ S2 = { x | x ∈ R}, base de S1 ∩ S2 pode ser
−2x
1
dada por { 1 }, dim(S1 ∩ S2 ) = 1, S1 + S2 = R3 e dim(S1 + S2 ) = 3.
−2
0
(d) dim S1 = 1, dim S2 = 2, S1 ∩ S2 = {0}, dim(S1 ∩ S2 ) = 0, S1 + S2 = R3 ,
0
dim(S1 + S2 ) = 3 e a soma é direta.
0
(e) dim S1 = 2, dim S2 = 1, S1 ∩ S2 = {0}, dim(S1 ∩ S2 ) = 0, S1 + S2 = R3 ,
0
dim(S1 + S2 ) = 3 e a soma é direta.
0
0
23. (a) W = R4 , W1 ∩ W2 = { 1} (b) Não.
182
0
0
24. (a) W = R4 , W1 ∩ W2 = { 0} (b) Sim.
0
3 7
5/4 1
25. (a) [w]β = (b) [w]β = −2 (c) [w]β = 8 −2
−1/2
1 −3
−1/2
(d) [w]β = .
5/2
7
−1
26. (a) w = (b) w = 1
−4
1
2 1 4 0 0 −2
1 1
27. (a) [I]A B = 0 −1 0 e [I]B A = 0 −4 0
2 2
−2 0 0 1 1 1
6
(b) [v]B = −1
1
1
(c) [v]A = 2 .
−3/2
1 −8
28. (a) A = { , }
−2 4
1 −2/3
(b) B = { , }.
−1 1
−3
29. [v]B = .
1
−2
2
30. (a) [p(x)]α = (b) [p(x)]β = −8 (c) p(x) = 4 − 2x − x2 .
−1
−5
1 0 −2 1 2 2
(d) [I]βγ = 1 −1 1 e [I]γβ = 1 2 3.
−1 1 0 0 1 1
4. Seção 3.6
0
1. (a) N uc(T ) = { 0}; Im(T ) = R3
0
0 x
(b) N uc(T ) = {c 1 / c ∈ R}; Im(T ) = { 0 / x, z ∈ R}
−1 z
183
6
−2 3
(c) N uc(T ) = {k
13 / k ∈ R}; Im(T ) = R
1
x 1 −1
y −1 2
(d) N uc(T ) = {
z / x−z+w = 0, y+z−2w = 0} = {c 1 +d 0 / c, d ∈ R};
w 0 1
2
Im(T ) = R
0 a
a 0
0 b
(e) N uc(T ) = { / a, b ∈ R}; Im(T ) = {
c / a, b, c, d ∈ R}
0
0 d
b 0
x
(f) N uc(T ) = { y | 7x + 15y − 4z = 0 ∈ R} e Im(T ) = R.
z
(g) É linear poisa imagem de um vetorv ∈ Ré o produto de uma matriz fixa e v.
y 2y
N uc(f ) = { y / y ∈ R}; Im(T ) = { −2x / x, y ∈ R}.
2y x−y
x −x + y + 2z
2. (a) T ( y ) = −x + y + z
z −x + y
x
3y + 2z
(b) T (y ) =
−4y − 3z
z
21x + 7y
x
(c) T ( ) = 10 −2x − y
y
6x + 2y
(d) Não existe pois dim(N uc(T )) = 2, dim(Im(T )) = 2 a soma das dimensões
deveria ser 3.
√ √
3 3 1
2 ( 3 − ) x
x y x √ 2 x x+y
3. (a) T ( )= (b) T ( )= (c) T ( ) = −2
y x y 1 3 y y y−x
(1 − )
2 6
x 1 0 0
(d) T (y ) = 0 cosθ −senθ
z 0 senθ cosθ
6
4. (a) São dados os valores de T em uma base (b) Base para Nuc(T): { 3 }; Base
−1
184
2 2 3 + 6k
para Im(T ): {1 , −1} (c) v = 1 + 3k , k ∈ R (c) Não existem tais
1 3 −k
vetores.
x 2x + 2y x 6x + 4y
5. (a) (S + T )( )= (b) (2S + 4T )( )=
y −4y y 14y
x x + 6y x x + 2y
(c) (S ◦ T )( )= (d) (T ◦ S)( )=
y 3y y 3y
−1
6. Base N uc(T ◦ S) é { 1 } e dim(N uc(T ◦ S)) = 1; dim(Im(T ◦ S)) = 2, logo
1
Im(T ◦ S) = R qualquer base de R2 serve.
2
−1
2
Base N uc(S ) é { 1 } e dim(N uc(T ◦ S)) = 1; dim(Im(S 2 )) = 2, base para
1
1 1
Im(S 2 ) é { 4 , 0}.
−2 2
7. (a) F (b) V (c) F (d) V (e) V (f) V.
8. (a), (b), (c), (d) são isomorfismos pois as matrizes tem posto (o posto tb é a dimensão
de Im(T )) total, logo são invertı́veis. No caso (e) vemos geometricamente, que a
rotação é invertv́el, pois a composição das rotações de ângulo θ e 2π−θ é a identidade.
x 2x − z x 3x − 2y − 4z
9. (a) T −1 (y ) = x − z (b) T −1 (y ) = 31 y + 2z
z −x + y + z z −y + z
x z √
−1 y
x −1 x 1 5x + y −1 x 1 − 3x√+ y
(c) T ( ) = y (d) T ( y ) = 37 −2x + 7y (e) T ( y ) = 2 −x − 3y .
z
w w
" 1 1 4
# 1
A 1 1 0 C 3 3 3 1)]D = 0
10. (a) [T ]B = (b) [T ]D = 1 (c) [T (
1 0 1 − 23 − 23 1
3 0
5
11. T (v) = 8
13
0 2 −2 4 −1 2
A0 0 1
12. (a) [S]AB = 1 −1 , [S]B =
2 −2, [S]A B0 = 2 1 2
1 0 1 0 −3 6
x 3x − y x 3x − y
(b) [R( ]A 0 = 1 , R( )=
y 2
(7x + y) y 4x + 2y
185
x x
1 2x + 2y x+y
(c) [T ( y )]A0 = 2
, T( y ) =
.
x + 3y − z 2y − z
z z
cosθ −senθ 1 0 −1 0 2 1 0
13 . [Tθ ]A = , [L]A = , [S]A = , [R]A = 5 ,
senθ cosθ 0 −1 0 1 0 1
cosθ senθ 2 −1 0
[Tθ ◦ L]A = e [R ◦ S]A = 5 .
senθ −cosθ 0 1
1 1 3
0 1 1 2 1 0
14. (a) [I]AA = , [I]AA 0 = , [I]B
B = −1 −2
1 ,
−1 −2 −1 −1
2 1 −1
1 4 7
B 1
[I]B 0 = 11 1 −7 −4
3 1 −1
0 2 3 2 3 −2 1 0 7 8 6
(b) [T ]B
A = , [T ]BA0 = −2 e [T ]B A0 = −5 −5 −4
3 2 2 1 −1
−2 −3 −4 19 −23 −42
0 1 0 1
(c) [L]AB =
0 −1; [L]A B 0 = 11 −4 −14
e [L]A B 0 = 11 10 24
−3 −5 −1 2 −3 −5
0 1 1
B A −2 0
(d) [L ◦ T ]B = 2 −1 1, [T ◦ L]A = .
−2 3
1 1 2
2 −1 0 −2 1 0 −3 −1 1
1
15. (a) [I]AB = − 5 −1 −2 0 , [I]B A =
1 2 0, [T ]A A =
4 3 2
0 0 −5 0 0 1 0 1 −3
11 2 5
−1 A 1
(b) T é isomorfismo pois [T ]A A é invertı́vel e [T ]A = − 25 −12 −9 −10.
−4 −3 5
16. C = (0, 4) ou C = (4, −2)
5. Seção 4.6
√ √ √
1. (a) −46; 86; 38; 6 2
√ √ √
(b) −45, 3 10; 39; 6 2
√ √ √
(a) k2u − vk = 17; d(u+v, v −w) = 29
2. √ (b) k2u − vk = 5 2; d(u+v, v −w) =
62
√ √
3. (a) 8; (b) -113; (c) -40; (d) 3; (e) 212; (f) 881
4. k = ± 53
5
5. arccos(− 24 ).
6. V
8. (a) θ = π6 , agudo (b) cosθ = − √115 < 0, logo é obtuso.
186
9. Retângulo em A, pois (B − A) · (C − A) = 0
10. Ângulo reto em B, pois (A−B)·(C −B) = 0, logo D −A = C −B ⇒ D = (−2, 1, 1).
2 1 2
⊥ ⊥ ⊥
11. (a) Base para W : { −1 }, dim(W ) = 1 (b) Base para W : { 1 , −2},
3 0 −1
−1 1
2 −1
dim(W ⊥ ) = 2 (d) Base para (Col(A))⊥ : { ⊥ ⊥
1 , 0 }, dim(W ) = 2; (N ul(A)) =
0 1
2
R.
−1 2
⊥ ⊥ ⊥
12. a) W é gerado por { 4 }, dim(W ) = 1 b) W é gerado por { 0}
6 1
13. a = b = ± 21
−1
14. [w]β = 32 .
− 21
3
−√
√5 2
15. [w]β = 6 .
√4
3
1 −5 1
1 1 1 2 1 1 1
16. (a) { √5 , √5 } (b) { √14 2 , √42 4 , − √3 1 }
2 −1
3 −1 −1
1 2 −2
1 1 1
(c) { 3 1 , 15 −1 , 10 1 }.
√ √
0 3 2
1
1 −3 1 0
17. (a) {3 , 1 , 3 } (b) Completando uma base para R4 com v3 =
−1 , v4 =
5 0 −2
0
1 1 1 1 3
0 2 0 −1 0
e ortogonalizando obtemos { , , , }
0 −1 1 −1 −3
0 0 3 0 −2
1 1 1 1
18 (a) { √12 0 , √16 −2} (b) { √12 1 , √16 −1}
1 −1 0 −2
−1 1 1
1 √1 1 √1 1
(c) { √12
0 , 3 1 , 15 −2}
0 0 3
187
5 −2
1 0 1
19. (a) w = PW (v) = 3 −1 , w = 3 −2
4 2
−2 1
2 0 1
(b) PW (v) = 3 −1 , w = 3 −1
1 1
7 1
1 −3
0 3 1
(c) w = PW (v) = 10 −4, w = 10 −2.
6 −2
10 15 −5
1
20. 35 15 26 3
−5 3 34
1
− √2 0 √1
2
22 a) Não é b) A−1 = √16 − √26 √16 c) Não é
√1 √1 √1
3 3 3
√1
−1 1
23. 2 1 1
cos θsen θ cos2 θ sen θ
24. [I]C α t
α = ([I]C ) =
−cos θ sen θ 0 .
−sen2 θ −cos θsen θ cos θ
6. Seção 5.4
1. (a) 5 (b) 0.
2. (a)
Polinômio
p(λ) = λ2 −3λ + 2; Autovalores 1 e 2; Autoespaços: V1 com base
1 2
{ }, V2 com base { }.
−1 −1
(b) Polinômio p(λ) = λ2 + 3. Não existem autovalores reais.
p(λ) = λ(λ −
(c) Polinômio 2)(5 − λ); Autovalores 0, 2 e 5; Autoespaços: V0 com
−2 4 1
base { 5 }, V2 com base {3}, V5 com base {0}.
3 1 1
2
(d) Polinômio p(λ) = (4 − λ)(λ+ 2) ; Autovalores:
−2 e 4;
1 −1 1
Autoespaços: V−2 com base { 1 , 0 }, V4 com base { 1}.
0 1 2
2 2
(e) Polinômio, p(λ) = (λ − 2) +2) . Autovalores: 2 e−2.
(λ
1 0 −1 0
0 1 0 0
Autoespaços: V2 com base { 0 , 0}, V−2 com base { 0 , 1}.
0 0 1 0
188
3 1
3. (a) Autovalores: 2 e 6. Autoespaços: V2 com base { }, V6 com base { }.
−1 1
0
(b) Autovalor: 0. Autoespaço V0 com base {0}.
1
√ √
4. (a) − 2 e 5 2 (b) 3, 7 e 1 (c) − 13 , 12 e 1.
5. Os autoespaços de A e At associados ao mesmo autovalor nem sempre coincidem.
7. (7a) Somente (c) não é invertı́vel.
8. (a)6 (b) Sim (c) 3.
1 2 1 0
9. (2a) É diagonalizável. P = eD=
−1 −1 0 2
(2b) Não é diagonalizável em R
−2 4 1 0 0 0
(2c) É diagonalizável. P = 5 3 0 e D = 0 2 0
3 1 1 0 0 5
1 −1 1 −2 0 0
(2d) É diagonalizável. P = 1 0 1 e D = 0 −2 0
0 1 2 0 0 4
1 0 −1 0 2 0 0 0
0 1 0 0 0 2 0 0
(2f) É diagonalizável. P = 0 0 0 1 e D = 0
0 −2 0
0 0 1 0 0 0 0 −2
3 1 2 0
(3a) É diagonalizável. P = eD=
−1 1 0 6
(3b) Não é diagonalizável em R.
x 2x
10. T (y ) = −x + y + 2z
z x+y
11. Para a > 0 e b > 0 ou a < 0 e b < 0 ou a = b = 0.
pT (x) = x2 (3 − x), logo todas as raı́zes são reais. A matriz na base canônica é [T ]C =
12.
1 0 2
0 0 0, dimV0 = 2 e dimV3 = 1, logo é diagonalizável. Base de autovetores:
1 0 2
0 2 1
{1 , −1 , 0}.
0 −1 1
13. Todo valor k ∈ R.
14. (a) É diagonalizável para todo m ∈ R. (b) É diagonalizável (c) É diagonalizável
somente para θ = kπ, k ∈ Z.
189
10
10 2 − 213 0 2 − 214
6−5·2 3−3·2
15. A10 = ; B 35 = B; C 13 = 213 − 1 213 213 − 1
5 · 211 − 10 3 · 211 − 5
213 − 1 0 214 − 1
√ √ √ √ √ √ √ √
3 √ 3−1 (1+ 3)t 3 √3+1 (1− 3)t 1−3 3 (1+ 3)t 3 3+1 (1− 3)t
16. (a) x(t) = 2 3
e + 2 3
e ; y(t) = 2
e + 2
e
3 t
(b) x(t) = 2
e − 12 e9t ; y(t) = 43 et + 41 e9t .
(c) x(t) = e − 2e ; y(t) = e − 2e + 2e3t ; z(t) = −2e2t + 2e3t .
2t 3t t 2t
7. Seção 6.3
2. É ortogonalmente
diagonalizável,
pois é simétrica. Base ortonormal de autovetores:
1 −1 1
{ √16 −2 , √12 0 , √13 1}
1 1 1
2
√ √1 − √16
3 0 0 5 30
3. a) D = 0 3 0 , Q = √15 − √230 √26
0 0 −9 0 √5 √1
30 6
4 3
−3 0 0 0 −5 5
b) D = 0 25 0 , Q = 1 0 0
0 0 −50 0 35 54
1 1 1 1 1
1 1 1
1 1 1 1
− 0 −
− 6 6 3 2 2 3 3 3
5. a) A = 4 21 21 −2 2 1 1 2 b) A = 2 16 16 31 −4 − 21 12 0−4 13 1
− 31
−2 2 1 1 2
3
2 2 0 0 0 − 13 − 31 13
3 3 3
0 0 0 0 0 0 1 0 0
1 1 1 1
c) A = 2 0 2 − 2 + 4 0 2 2 + 5 0 0 0
0 − 21 12 0 21 12 0 0 0
1 12
−
6. A = 125 56
5 5
7. a) Sim, pois o conjunto de autovetores é base ortogonal. b) Não, pois o conjunto de
autovetores não é base é ortogonal.
190
Bibliografia
[1] Anton, Howard e Rorres Chris. “Álgebra Linear com Aplicações”. Bookman Editora, 2012
(10ª edição).
[3] Poole, David. “Linear Algebra, a Modern Introduction ”. CENGAGE Learning (4ª edição).
191