Escolar Documentos
Profissional Documentos
Cultura Documentos
2 ESPAÇOS VETORIAIS 57
2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.2 Definições e Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.3 Subespaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.4 Independência Linear e Geradores . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.5 Base e Dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.6 Espaços Associados a uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2.7 Soma e Interseção de subespaços . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
2.8 Coordenadas com relação a uma base . . . . . . . . . . . . . . . . . . . . . . . . 81
2.9 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3 TRANSFORMAÇÕES LINEARES 94
3.1 Definição e Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.2 Núcleo e Imagem de uma Transformação Linear . . . . . . . . . . . . . . . . . . 98
3.3 Operações com TLs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3.4 Transformações Injetoras, Sobrejetoras e Isomorfismos . . . . . . . . . . . . . . . 106
1
3.5 Matriz Associada a uma Transformação Linear . . . . . . . . . . . . . . . . . . . 109
3.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
2
Capı́tulo 1
a11 a12 . . . a1n
a21 a22 . . . a2n
A = .. .. .
..
. ... . .
am1 am2 . . . amn
Exemplo 1.1.
40 30 10 0
A3×4 = 0 50 30 10 .
5 20 40 5
3
Exemplo 1.2. Consideremos duas ligas de aço A e B, com componentes adicionais: carbono
(C), Silı́cio (Si), Manganês (Mn), Cromo (Cr), Nı́quel (Ni), Molibdênio (Mo) que são dadas em
% na tabela abaixo:
daı́ obtemos:
0 −1 2 −3
A= .
−1 0 1 −2
Definição 1.4. A = [aij ] e B = [bij ] são matrizes iguais, se são da mesma ordem e,
4
Consideremos uma matriz quadrada de ordem m, A = [aij ], chamamos de diagonal principal
a sequência de entradas:
a11 a22 . . . amm .
A diagonal secundária é a sequência de entradas:
5. Matriz diagonal: matriz quadrada A = [aij ], onde todas as entradas “fora” da diagonal
principal são nulas, isto é aij = 0, para todo i 6= j.
6. Matriz identidade: é uma matriz diagonal, onde as entradas na diagonal são todas
iguais a 1. A matriz identidade de ordem m é denotada por Im .
9. Matriz simétrica: matriz quadrada A = [aij ], com a propriedade aij = aji , para todo
i, j (ou seja que as entradas simétricas com relação à diagonal principal, são iguais).
10. Matriz anti-simétrica: matriz quadrada A = [aij ], com a propriedade aij = −aji , para
todo i, j.
Observação 1.5. Os elementos aii da diagonal de uma matriz anti-simétrica são nulos, pois
aii = −aii ⇒ aii = 0.
Observação 1.6. Uma matriz de ordem 1 × 1 será considerada também como um escalar.
Notação 1.7. O conjunto das matrizes de ordem m×n e entradas reais será denotado Mm×n (R),
se tratando de matrizes quadradas de ordem m a notação é Mm (R).
A + B = [aij + bij ].
5
Exemplo 1.8. Dadas as matrizes:
1 −1 0 3 1 2
A = 4 0 e B = −2 0 , temos A + B = 2 0 .
2 1 1 −3 3 −2
Para conferir as propriedades basta ver que os elementos de posição (i, j) do lado esquerdo e
direito das igualdades são iguais.
Definição 1.10. Dadas matrizes da mesma ordem A = [aij ] e B = [bij ], define-se a matriz
diferença de A e B na forma usual, A − B = A + (−B) = [aij − bij ].
Dados uma matriz A = [aij ] de ordem m×n e um escalar k, definimos a matriz multiplicação
por escalar de k e A como a matriz também de ordem m × n, dada por
k · A = [kaij ].
Exemplos 1.11.
1 3 −1 −2 −6 2
−2 · = ,
−2 0 1/2 4 0 −1
0, 2 0, 4 1 2 4
= .
−0, 2 0, 5 10 −2 5
6
Novamente as demonstrações são simples e consistem em verificar que elementos das posições
(i, j) em ambos os lados das igualdades são iguais.
Multiplicação de Matrizes
Definiremos primeiro a multiplicação de uma matriz linha por uma matriz coluna, para isto
consideremos a matriz linha L, de ordem 1 × n e a matriz coluna C, de ordem n × 1:
b1
..
L = a1 . . . an , C = . ,
bn
Exemplo 1.13.
−2 √ √
4 12 2 · √1 = (4)(−2) + (12)(1) + (2)( 2) = 4 + 2 2.
2
Agora, definiremos de forma geral o produto de matrizes. Sejam A = [aij ], uma matriz de
ordem m × n e B = [bij ], uma matriz de ordem n × p, a matriz produto, A · B, é a matriz
de ordem m × p definida como:
k=n
X
A · B = [aij ]m×n [bij ]n×p = [cij ]m×p , onde cij = Li (A) · Cj (B) = aik bkj ,
k=1
7
Exemplo 1.14. Dadas as matrizes:
1 −1
2 1
A = 4 0 e B= ,
−1 0
2 1
temos:
c11 = (1)(2) + (−1)(−1) = 3; c12 = (1)(1) + (−1)(0) = 1
c21 = (4)(2) + (0)(−1) = 8; c22 = (4)(1) + (0)(0) = 4
c31 = (2)(2) + (1)(−1) = 3; c22 = (2)(1) + (1)(0) = 2
3 1
logo: A · B = 8 4.
3 2
Exemplo 1.15. Considere as matrizes A = [aij ]3×3 , onde aij = i + j − 2 e B = [bij ]3×4 , onde
bij = i2 − j. Vamos determinar a segunda linha da matriz A · B que é de ordem 3 × 4.
Seja A · B = [cij ]3×4 , assim temos
0 −1 −2 −3
c2j = L2 (A) · Cj (B), onde L2 (A) = [1 2 3] e B = 3 2 1 0 ,
8 7 6 5
logo
0 −1
c21 = 1 2 3 · 3 = 30; c22 = 1 2 3 · 2 = 24,
8 7
−2 −3
c23 = 1 2 3 · 1 = 18; c24 = 1 2 3 · 0 = 12.
6 5
∴ L2 (A · B) = 30 24 18 12 .
Observação 1.16. Só tem sentido efetuar o produto A · B, quando o número de colunas de A
é igual ao número de linhas de B e neste caso a matriz C = AB terá mesmo número de linhas
que A e mesmo número de colunas que B.
A · |{z}
|{z} B = |{z}
C .
m×n n×p m×p
Exemplo 1.17 (Um produto importante). Sejam A uma matriz m × n e b uma matriz coluna
n × 1. O produto A · b é uma matriz m × 1 que pode ser escrita em função das colunas de A.
Sejam C1 , . . . , Cn as colunas de A; denotemos A = [C1 . . . Cn ]m×n e consideremos b = [bi ]n×1 ,
logo
A · b = b1 C 1 + . . . + b n C n .
8
2 6 −2 b1
No caso, A = 0 1 3
e b = b2 , temos
1 2 4 b3
2 6 −2 b1 2b1 + 6b2 − 2b3
A · b = 0 1 3 · b2 = 0 + b2 + 3b3
1 2 4 b3 b1 + 2b2 + 4b3
2b1 6b2 −2b3
= 0 + b2 + 3b3
b1 2b2 4b3
2 6 −2
= b1 0 + b2 1 + b3 3 .
1 2 4
De forma similar, o produto de uma matriz linha pela matriz A é uma matriz linha, que
escreve-se em função das linhas de A (exercı́cio).
Propriedades 1.18. Para matrizes A, B e C com ordens adequadas ás operações envolvidas,
valem as seguintes propriedades.
1. Associatividade. (A · B) · C = A · (B · C).
2. Distributividade.
A · (B + C) = A · B + A · C, Distributividade à esquerda ,
(B + C) · A = B · A + C · A, Distributividade à direita.
Como nos casos anteriores, para as demonstrações o procedimento é verificar as igualdades das
entradas das matrizes em ambos os lados.
Mostraremos algumas propriedades do produto usuais nos números, mas que não são verdadei-
ras para matrizes.
1. O produto de matrizes não é comutativo, ou seja que para algumas matrizes, A·B 6=
B · A (mesmo que as ordens permitam efetuar os produtos). Por exemplo, se:
−1 2 3 −2
A= e B= ,
0 3 1 −1
9
−1 0 −3 0
temos, A · B = 6= = B · A.
3 −3 −1 −1
1 2 1 −1
Embora existem matrizes que comutam, como A = e B= .
−2 1 1 1
2. A · B = 0 não implica A = 0 ou B = 0.
−1 −1 1 0
Um exemplo é o par de matrizes A = e B= , pois A · B = 0, mas
0 0 −1 0
A 6= 0 e B 6= 0.
3. A · B = A · C, A 6= 0, não implica B = C.
1 0 1 2 1 2
Um exemplo é o caso A = , B = e C = , pois temos
−1 0 1 1 −1 0
1 2
A·B =A·C = , mas B 6= C.
−1 −2
Matrizes em Blocos
As vezes é conveniente particionar uma matriz, para escreve-la como uma matriz cujos elementos
são submatrizes da própria. Dada uma matriz A, com a introdução de linhas divisórias entre
as linhas ou entre as colunas da matriz, podemos descrever A como a matriz cujos elementos
são os blocos determinados, neste caso A é dita matriz em blocos. Por exemplo,
1 0 2 −1
0 1 1 3 I B
A= = .
0 0 1 7 0 C
0 0 7 2
Dadas duas matrizes A e B, o produto A · B pode-se descrever em função de seus blocos,
sempre que tanto as ordens em blocos de A e B, como as ordens dos blocos a multiplicar sejam
as adequadas ao produto. Por exemplo,
A11 A12 B11
A = ,B = , se as ordens para o produto Aik Bk1 são adequadas,
A21 A22 2×2 B21 2×1
temos:
A11 A12 B11 A11 B11 + A12 B21
AB = = .
A21 A22 B21 A21 B11 + A22 B21
1 0 2 −1 1 0
0 1 1 3 A 11 A 12
0 1 B11
Exemplos 1.19. 1. Sejam A = 0 0 1 7 = A21 A22 e B = 1 0 = B21 .
0 0 7 2 0 1
Os blocos de AB são:
3 −1
3 −1 1 7 1 4
A11 B11 + A12 B21 = , A21 B11 + A22 B21 = . Logo, AB =
1 7 .
1 4 7 2
7 2
10
2. O produto usual, pode ser entendido como um produto de matrizes em blocos de várias
formas. De fato, se A = [aij ]m×n e B = [bij ]n×p , podemos considerar A como um único
bloco e B com p blocos compostos por suas colunas, isto é B = [ C1 | . . . |Cp ]1×p , assim
obtemos:
Potenciação
Para matrizes quadradas podemos definir a potência de uma matriz , de forma análoga as
potências de números. De fato, dada a matriz quadrada A = [aij ] de ordem m, definimos as
potências de A como:
A0 = Im e An = A . . · A}, para n ≥ 1.
| · .{z
n vezes
Exemplo 1.20.
2 4 −2
1. Caculemos a expressão A − 3A, para A = . De fato,
0 1
2 4 −2 4 −2 16 −10
A = =
0 1 0 1 0 1
logo,
2 16 −10 4 −2 16 −10 −12 6 4 −4
A − 3A = −3 = + = .
0 1 0 1 0 1 0 −3 0 −2
2. Mostre que A2 − 3A = A(A − 3I), onde A é uma matriz quadrada qualquer e I é a matriz
identidade com a mesma ordem de A.
De fato, A(A − 3I) = A · A − A · (3I) = A2 − 3(A · I) = A2 − 3A.
Propriedades 1.21. Sejam A uma matriz quadrada, m, n números naturais não nulos e k um
escalar, então valem as propriedades:
1. Am+n = Am · An
2. (Am )n = Amn
11
3. (kA)m = k m Am .
Note que, da propriedade 1.21 temos que as potências da mesma matriz comutam.
Transposição
1. Seja A = [aij ]m×n uma matriz qualquer, então considerando as linhas de A e colunas de
At temos
ai1
..
(Li (A)) = . = Ci (At ), (Cj (A))t = a1j · · · amj = Lj (At ).
t
ain
12
Propriedades 1.25. Sejam A, B matrizes, então:
1. (At )t = A
Exemplo 1.27. Muitos processos de diferente natureza podem envolver uma variável que muda
no tempo, de forma que em cada perı́odo de tempo esta variável assume um entre um número
finito de estados fixos E1 , . . . , En . Suponhamos que a probabilidade de passagem do estado Ej
ao estado Ei (“taxa” de passagem ou tranferência) só depende do estado inicial Ej e não da
quantidade de perı́odos transcorridos,
13
temos,
n pk−1 (E1 )
pk (Ei ) =
X
pij pk−1 (Ej ) = pi1
. . . pin · ..
.
.
j=1 pk−1 (En )
Xk = T · Xk−1 .
X1 = T X0
X2 = T X1 = T (T X0 ) = T 2 X0
X3 = T X2 = T (T 2 X0 ) = T 3 X0
.. .. ..
. . .
Xn = T Xn−1 = T (T n−1 X0 ) = T n X0
Portanto,
Xn = T n X0 , ∀n ≥ 1.
14
Dadas as condições iniciais, temos no quarto perı́odo:
4
4 1/4 1/2 4/5 0, 4 0, 4 4/5 0, 4
X4 = T X0 = ≈ ≈ .
3/4 1/2 1/5 0, 6 0, 6 1/5 0, 6
Portanto no quarto perı́odo a probabilidade de ter chuva é 0,4 e a de ter seca é de 0,6.
O comportamento do clima a longo prazo poderá ser previsto, caso os elementos da matriz
T n se aproximem dos elementos de uma matriz fixa P . Caso contrário não poderemos fazer
previsão a longo prazo, pois o processo modificará bastante a cada passo. Existem condições
sob as quais podemos saber se T terá esta propriedade ou não, mas não vamos abordar isso
neste exemplo.
O Traço
Definição 1.28. Seja A = [aij ] uma matriz quadrada de ordem n. O traço de A, denotado
tr(A), é o número real dado pela soma dos elementos da diagonal de A, ou seja:
tr(A) = a11 + . . . + ann .
4 5 4
1
Por exemplo, se A = 5 6 5, então tr(A) = 1, 7.
10
7 8 7
Propriedades 1.29. Sejam A e B matrizes quadradas de ordem n e λ ∈ R, temos:
1. tr(λA) = λtr(A).
2. tr(A + B) = tr(A) + tr(B).
3. tr(AB) = tr(BA)
4. tr(AAt ) = ni=1,j=1 a2ij , onde A = [aij ].
P
De forma geral, não é verdadeiro que tr(AB) = tr(A)tr(B). Determine matrizes A e B que
não verifiquem a igualdade.
15
Matriz Inversa
• A é dita invertı́vel à direita, se existir uma matriz B de ordem n×m, tal que AB = Im .
Neste caso a matriz B é chamada inversa à direita de A.
• A é dita invertı́vel à esquerda, se existir uma matriz C de ordem n × m, tal que
CA = In . Neste caso a matriz C é chamada inversa à esquerda de A.
• Se A é quadrada de ordem m, A é dita invertı́vel , quando existe uma matriz B de
mesma ordem, tal que AB = BA = Im . Para ser invertı́vel é suficiênte que AB = Im ou
BA = Im (a prova deste fato resulta do teorema 1.63). Neste caso B é dita inversa de A
e é denotada A−1 , assim
AA−1 = A−1 A = Im .
Exemplos 1.31.
16
x y
De fato se B = é a inversa de A, então
z w
a b x y ax + bz ay + bw 1 0
= = .
c d z w cx + dz cy + dw 0 1
No primeiro sistema,
ax + bz = 1 acx + bcz = c
⇒ ⇒ (ad − bc)z = −c,
cx + dz = 0 acx + adz = 0
ax + bz = 1 adx + bdz = d
⇒ ⇒ (ad − bc)x = d.
cx + dz = 0 bcx + bdz = 0
Analogamente, do segundo sistema,
Para obter a Lei do corte, basta multiplicar por A−1 pelo lado esquerdo em ambos os lados da
igualdade AX = AY .
17
Propriedades 1.33. Dados A e B matrizes invertı́veis, k 6= 0 escalar e m inteiro positivo,
temos
3 1
Exemplo 1.34. Considere a matriz A = . Mostre que A é invertı́vel e resolva a
2 −1
equação: I + AX t = A2 .
A matriz A é invertı́vel pois 4 = (3)(−1) − (2)(1) = −5 6= 0
Aplicando as propriedades das matrizes na equação, temos:
I + AX t = A2 ⇔ AX t = A2 − I
⇔ A−1 AX t = A−1 (A2 − I)
⇔ X t = A − A−1
⇔ X = (A − A−1 )t .
−1 −1 −1
Sendo A−1 = , temos
5 −2 3
−1 !t t
3 1 3 1 3 1 1 −1 −1
X = − = +
2 −1 2 −1 2 −1 5 −2 3
t
1 14 4 1 14 8
= = .
5 8 −2 5 4 −2
Definição 1.35. Uma matriz A, quadrada de orden n é dita matriz ortogonal quando A é
invertı́vel e sua inversa é At , ou seja AAt = In = At A.
18
Exemplos 1.36. 1. A identidade In é uma matriz ortogonal, pois In Int = In . Outras
matrizes ortogonais são
√ √
√ √ 1/√3 0√ 2/ √6
1/ √2 1/√2
A= , e B = 1/ √3 1/√2 −1/√ 6 ,
−1/ 2 1/ 2
−1/ 3 1/ 2 1/ 6
de fato, √ √ √
√
1/ √2 1/√2 1/√2 −1/√ 2
t 1 0
AA = = ,
−1/ 2 1/ 2 1/ 2 1/ 2 0 1
analogamente para B.
cos θ −sen θ
2. Verifique as matrizes da forma , são ortogonais para todo θ ∈ R.
sen θ cos θ
Propriedades 1.37. Se A e B são matrizes ortogonais, então também são ortogonais as ma-
trizes: AB, At e A−1 .
1.4 Exercı́cios
1. Encontre a matriz [aij ]4×4 cujas componentes satisfazem a condição dada.
−5, se i + j < 4
π(i+j) j−1
(a) aij = 2cos ( 2 ) (b) aij = e (c) aij = 0, se i + j = 4 .
i + j, se i + j > 4
2. Determine a forma geral de uma matriz A = [aij ]5×5 com a propriedade: aij = 0, para
todos i, j tais que |i − j| > 1.
1 7 2 1
3. Dadas A = , B= e I a matriz identidade de ordem 2.
2 6 4 3
(a) Se existir, determine a matriz X tal que: 12 (X − A − B) = 13 (X − 2I)
(b) Se existir a matriz X, tal que 2(A − B + X) = 3(X − A)
19
2 0 1 5
onde A = eB= .
2 4 3 0
3 0
4 −1 1 4 2
5. Considere as matrizes: A = −1 2, B = ,C= ,
0 2 3 1 5
1 1
1 6 1 3
D = −1 e E = −1 1 2.
2 4 1 3
Calcule quando possı́vel, as seguintes matrizes:
(a) 5(2A + C t ) − 4(A − C t ) (b) 21 (A · B)t + 21 At (c) (10E t − 10E)t
(d) 4B · C + 2B (e) B t (C · C t − At · A) (f) Dt · D · E (g) D · Dt · E
2 −1 3 1 −3 −5
6. Sejam as matrizes A = 0 4 5 eB= 0 1 2
−2 1 4 4 3 6
Caso exista uma matriz C nas condições dadas, calcule seu traço:
(a) −C t = −A+B (b) (2A+C t )t = At +B t (c) (B 2 −3C)t = B t At (d) A+B +C = C t .
2 1
7. Seja A = , mostre duas matrizes B e C, tais que AB = AC e B 6= C.
6 3
8. Dados s = 1, 2, 3 ou 4 e t = 1, 2 ou 3, define-se a matriz,
(
1, se i = s, j = t
Est = [eij ]4×3 , onde eij = .
0, outro caso
Determine:
(a) E32 F21 (b) Em que casos Est Fkl = 0 ? (c) Em que casos Est Fkl 6= 0 ?
20
f) Se A e B são matrizes simétricas, então AB é simétrica.
g) Se tr(AAt ) = 0 então A é a matriz nula.
h) Se P é uma matriz invertı́vel, então tr(P AP −1 ) = tr(A).
14. Uma rede de comunicação tem cinco locais com transmissores de potências distintas. Na
matriz A abaixo é definido aij = 1, quando a i-ésima estação pode transmitir diretamente
para a j-ésima estação, também temos aij = 0 quando a transmissão da i-ésima estação
não alcança a j-ésima estação. Considere que aii = 0.
0 1 1 1 1
1 0 1 1 0
A= 0 1 0 1 0 .
0 0 1 0 1
0 0 0 1 0
Calcule e dê o significado das matrizes A2 e A + A2 .
21
15. Sejam A, B, C e X matrices quadradas da mesma ordem e invertı́veis. Resolva as
equações. Dando X em função de A, B e C.
(a) ABX = C
(b) AX 2 C = AXBC
(c) AX −1 = CA
t 2 5 −1 1
(d) AX B = AB − I, calcule X, sendo A = ,B= .
2 4 −1 2
17. (a) Se A é uma matriz retângular, tal que At A é invertı́vel, verifique que a matriz B =
(At A)−1 At é uma inversa à esquerda de A.
(b) Se A é uma matriz retângular, tal que AAt é invertı́vel, verifique que a matriz C =
At (AAt )−1 é uma inversa à direita de A.
1 2
−1 0
(c) Se possı́vel, determine uma matriz inversa à esquerda de A = 2
.
2
1 −1
18. Determine os parâmetros reais a, b, c, d de modo que a matriz abaixo seja ortogonal :
1 0 0
0 √1 √1
2 2
a b c
19.
Determine, justificando,
se é verdadeiro ou falso que, para todo θ ∈ R a matriz A =
cos θ −sen θ
é ortogonal.
sen θ cos θ
21. Em uma pesquisa sobre consumo de refrigerantes, foram consideradas três marcas do
mercado: Gelato, Delı́cia e Suave. Após a aplicação da pesquisa foi constatado que em
um intervalo de tempo as pessoas mudam a marca do refrigerante consumido e foram
determinadas as seguintes probabilidades de mudança de uma marca para outra (taxas
de passagem) organizadas na matriz T = [aij ], onde
aij = probabilidade de escolha do refrigerante i, após consumo do refrigerante j. Considere
que os refrigerantes mencionados foram numerados na ordem dada.
0.8 0.4 0.6
(a) Considere T = 0.1 0.5 0.2. Determine :
0.1 0.1 0.2
22
• A probabilidade de que uma pessoa que consome o refrigerante Gelato passe a con-
sumir o refrigerante Suave.
• A probabilidade de que uma pessoa que consome o refrigerante Suave passe a con-
sumir o refrigerante Gelato.
(b) Considerando a matriz dada em (a) e que as taxas de passagem não mudam numa
segunda pesquisa, determine a matriz T2 que indica a probabilidade de se mudar de marca
após duas pesquisas e mostre que é T2 = T 2 .
(c) Considerando que as pesquisas mostram que, as pessoas sempre mudam de refrigerante
para alguma das outras duas marcas com a mesma probabilidade, construa a matriz T .
Verifique que a matriz T2 que indica a probabilidade de se mudar de marca após duas
pesquisas é T2 = T 2 , como em (b).
Sejam A uma matriz de ordem m × n e Li sua i-ésima linha. São denominadas Operações
Elementares Linhas em A, as seguintes transformações da matriz A.
3. Substituição de uma linha por operação com linhas: Seja k um escalar qualquer,
representamos por Li + kLj → Li a transformação de A pela substutição da i-ésima linha
pela combinção Li + kLj .
1 2 4 1 1 2 4 1
L −2L3 →Li
A = 0 1 3 −1 3 −→ 0 1 3 −1 .
2 6 −2 0 0 2 −10 −2
23
Observação 1.38. Sejam q 6= 0 e k escalares, a aplicação seguidamente das operações qLi e
Li + kLj → Li resulta na operação de substituição da i-ésima linha pela combinação qLi + kLj ,
a aplicação destas duas operações elementares será denotada como qLi + kLj → Li .
Definição 1.39. Sejam A e B matrizes. Diremos que B é linha equivalente a A, se B
é obtida pela a partir de A pela aplicação de um número finito de operações elementares. A
notação usada é A → B.
Exemplo 1.40.
1 2 4 1 1 2 4 1 1 2 4 1
L −2L1 →L3
A = 0 1 3 −1 3 −→ 0 1 3 −1 −2L2−→+L3 →L3
0 1 3 −1 .
2 6 −2 0 0 2 −10 −2 0 0 −16 0
1 2 4 1
Portanto, B = 0 1 3 −1 é linha-equivalente a A.
0 0 −16 0
Propriedades 1.41. A relação “linha equivalência”entre matrizes da mesma ordem tem as
propriedades:
1. Reflexiva: A → A.
3. Transitiva: Se A → B e B → C, então A → C.
Escalonamento
Dada uma matriz A e uma linha não nula Li de A, chama-se pivô ou lı́der de Li ao primeiro
elemento não nulo dessa linha.
Diremos que uma matriz A = [aij ] está na forma escalonada linha (el) , quando:
2. Nas linhas não nulas o número de zeros anteriores ao pivô “aumenta linha após linha”.
Neste caso os elementos “abaixo”de um pivô serão todos nulos.
Diremos que uma matriz está na forma escalonada reduzida linha (erl ), quando:
24
Exemplos 1.42.
Dada uma matriz A, vamos efetuar operações elementares para transformar A em uma matriz
escalonada ou escalonada reduzida. Com este objetivo, inicialmente vamos definir a seguinte
operação entre linhas.
Pivoteamento. Consideremos linhas não nulas Li e Lk de A com pivôs na mesma coluna,
digamos Cj de A, o pivoteamento de Li sobre Lk consiste usar operações elementares para
substituir Lk por uma linha L0k que tenha maior número de zeros antes do pivô.
Li : 0 . . . aij ∗ ∗ ...
Lk : 0 . . . akj ∗ ∗ ...
L0k : 0 . . . 0 ∗ ∗ ...
±(−akj Li + aij Lk ) → Lk .
25
O escalonamento de uma matriz A é um processo organizado para transformar uma matriz
qualquer A em uma matriz escalonada e linha equivalente a A e consiste em aplicar em A a
seguinte sequência de operações elementares:
1°) Use permutação de linhas, se necessário, para levar as linhas nulas abaixo das não nulas.
2°) Use permutação de linhas, se necessário, de forma que a primeira linha tenha o menor
número de zeros antes do pivô do que às linhas abaixo. Se baixo o pivô da primeira
linha tem elementos não nulos, pivotear a linha sobre as linhas abaixo dela, assim após
os pivoteamentos necessários, os elementos baixo o pivô serão nulos.
3°) Se a matriz resultante está escalonada parar o processo, senão efetue as etapas 1°) e
2°) substituindo a primeira pela segunda linha de A, continue o processo sucessivamente
até a penúltima linha não nula, ao finalizar o processo obtem-se uma matriz el e linha
equivalente a A.
Para obter a forma escalonada reduzida (erl), continuar o processo pivotendo as linhas não
nulas para zerar todos os elementos acima de cada pivô. Finalmente usar a multiplicação por
escalar de linhas para obter pivôs iguais a 1.
Exemplos 1.43.
0 6 5 0 −1 1 0 2 −1 −3
L3 −2L1 →L3
1 0 2 −1 −3 1 ↔L2 0
L−→
6 5 0 −1 −→
1. A =
2 −3 1 −2 −7 2 −3 1 −2 −7
L4 +L1
−→
−1 2 −3 1 0 −1 2 −3 1 0
1 0 2 −1 −3 1 0 2 −1 −3
0 6 5 0 −1 2L3 +L 2 →L3 0
6 5 0 −1 −3L4−→
+L2 →L4
0 −3 −3 0 −1 −→ 0 0 −1 0 −3
0 2 −1 0 −3 0 2 −1 0 −3
1 0 2 −1 −3 1 0 2 −1 −3
0 6 5 0 −1 L4 +8L3 →L4 0
6 5 0 −1
0 0 −1 0 −3 −→ 0 0 −1 0 −3 .
0 0 8 0 8 0 0 0 0 −16
A matriz obtida é uma matriz escalonada e linha equivalente a A. Vamos obter a matriz
escalonada reduzida linha:
1 0 2 −1 −3 1 0 2 −1 −3
0 6 5 0 −1 L2 +5L3 →L2 0
6 0 0 −16 L1 +2L 3 →L1
0 0 −1 0 −3 −→ 0 0 −1 0 −3 −→
0 0 0 0 −16 0 0 0 0 −16
1 0 0 −1 −9 1 0 0 −1 −9 9L4 +L1 →L1
−→
−1
0 6 0 0 −16 16 4 0 6 0
L 0 −16 16L4 +L2 →L2
0 0 −1 0 −3 −→ 0 0 −1 0 −3 −→
3L4 +L3 →L3
0 0 0 0 −16 0 0 0 0 1 −→
26
1 0 0 −1 0
0 6 0 0 0
, finalmente realizando 1 L2 → L2 e −1L3 → L3 , temos que a
0 0 −1 0 0 6
0 0 0 0 1
1 0 0 −1 0
0 1 0 0 0
matriz erl, linha equivalente a A é,
0 0 1 0 0 .
0 0 0 0 1
2. Determinemos a matriz erl da matriz A dada.
2 1 2 2 1 2 2 1 2
2 3 1 −L1−→+L2 →L2
2 −1
L3 ↔L5 2 3 1 −2L +L →L
0 −2L1 +L2 →L1
−→
A= 0 0 0 −→ 4 2 3
1
−→3 3 0 0 −1 3L2 +2L4 →L3
−→
1 2 −1 1 2 −1 L1 −2L4 →L4 0 −3 4
−→
4 2 3 0 0 0 0 0 0
−4 0 −5 L −5L →L −4 0 0 −1
L1 1 0 0
0 2 −1 1 −→ 3 1
0 2 0 −→ 4
0 1 0
0 0 −1 L2 −L 3 →L2 0 0 −1 12 L2
0 0 1
−→ −→ .
0 0 5 L4 +5L3 →L3 0 0 0 −L3 0 0 0
−→ −→
0 0 0 0 0 0 0 0 0
Observações 1.44.
1. Dada uma matriz A, é claro que podemos obter diferentes formas escalonadas e equiva-
lentes a A. Ao contrário, a matriz escalonada reduzida, linha equivalente a A é única,
isto deve-se ao fato, que vamos admitir, que duas matrizes diferentes, da mesma ordem e
da forma erl não são linha equivalentes.
2. Duas matrizes serão linha-equivalentes, se e somente se, tem as mesmas formas erl. De
fato, por um lado é claro que se A é linha equivalente a B, então suas formas erl também
serão linha equivalentes e portanto serão iguais. Por outro lado, se A e B tem a mesma
forma erl R, temos
A → R e B → R ⇒ A → R → B ⇒ A → B.
3. Dada uma matriz A, as matrizes escalonadas linha equivalentes a A tem o mesmo número
de pivôs, ou seja o mesmo número de linhas não nulas, isto deve-se basicamente a que
a partir de linhas não nulas de matrizes escalonadas não é possı́vel obter novas linhas
nulas usando operações elementares (vide conceito de independência linear em espaços
vetoriais, colocado nos enunciados 2.18 e 2.19(3)).
Definição 1.45. Seja A uma matriz de ordem m × n, definimos posto de A como o número de
linhas não nulas (ou número de pivôs) de uma forma escalonada linha-equivalente a A, o posto
é denotado pA . E verifica-se pA ≤ min{m, n}. Define-se a nulidade A como: nA = n − pA .
27
Exemplos 1.46. Calcule o posto e a nulidade das matrizes dadas.
1 0 −1 1 0 −1 1 0 −1
2 1 −5 L2 −2L1 →L2 0 1 −3 L3 −2L2 →L3
−→ 0 1 −3
1. A =
0 2 −6
−→
0 2 −6
L4 +L2 →L4
0
,
−→ 0 0
0 −1 3 0 −1 3 0 0 0
logo pA = 2 e nA = 3 − 2 = 1.
2 2 0 1 −2L2 +L1 →L2 2 2 0 1 2 2 0 1
−→ L +L2 →L3
2. A = 1 0
2 0 −2L3 +L1 →L3 0 2 −4 1 3 −→ 0 2 −4 1,
1 2 −2 1 −→ 0 −2 4 −1 0 0 0 0
logo pA = 2 e nA = 4 − 2 = 2.
O teorema a seguir relaciona a aplicação de uma operação elementar com o produto de matrizes.
Teorema 1.47. Seja A uma matriz quadrada de ordem m, se B é uma matriz linha equivalente
a A, obtida pela aplicação da operação elementar O, então B = EA, onde E é a matriz linha
equivalente a identidade Im obtida pela aplicação da operação elementar O, ou seja
O O
A → B e Im → E ⇒ B = EA.
28
1 0 0 1 0 0
5L2 ↔L2
I3 = 0
1 0 −→ 0 5
0 = E2 e
0 0 1 0 0 1
1 0 0 1 3 0
L +3L2 →L1
I3 = 0 1 0 1 −→ 0 1 0 = E3 .
0 0 1 0 0 1
As matrizes elementares são invertı́veis e suas inversas são também matrizes elementares. De
fato, considerando as operações elementares “inversas”em cada caso, temos:
A invertı́vel ⇔ R invertı́vel ⇔ R = Im ,
A é invertı́vel ⇔ A → Im .
29
Teorema 1.51. Seja A uma matriz quadrada de ordem m, então:
por praticidade construı́mos uma matriz composta por A e Im , chamada matriz ampliada,
denotada por [A|Im ]. Assim, o processo de inversão consiste em “levar” [A|Im ] em [Im |A−1 ].
Exemplos 1.53.
1 −2 4
1. Seja A = 0 −1 4, veremos que A é invertı́vel e cacularemos sua inversa.
−1 0 2
1 −2 4 1 0 0 1 −2 4 1 0 0 L1 −2L2 →L1
L +L3 →L3 −→
[A|I] = 0 −1 4 0 1 0 1 −→ 0 −1 4 0 1 0
L3 −2L2 →L3
−1 0 2 0 0 1 0 −2 6 1 0 1 −→
1 0 −4 1 −2 0 L1 −2L3 →L1 1 0 0 −1 2 −2 −L2 →L2
−→
0 −1 4 0 1 0 −→ 0 −1 0
L2 −2L3 →L2 2 −3 2 1
− 2 L3 →L3
0 0 −2 1 −2 1 −→ 0 0 −2 1 −2 1 −→
1 0 0 −1 2 −2
0 1 0 −2 3 −2 ,
0 0 1 −1/2 1 −1/2
−1 2 −2
∴ A−1 = −2 3 −2 .
−1/2 1 −1/2
1 0 −1 1
2 1 0 0
2. Seja A = 0 1 1 1. Determinemos se A é invertı́vel.
−1 0 0 2
1 0 −1 1 1 0 −1 1 1 0 −1 1
2 1 0 0 L−→ 2 −2L1
0 1 2 −2 L−→
3 −L2 0 1 2 −2
0 1 1 1 L−→ 4 +L1 0 1 1 1 0 0 −1 3
−1 0 0 2 0 0 −1 3 0 0 −1 3
30
L1 −L3
−→ 1 0 0 −2 1 0 0 0
0 1 0 4 0 1 0 8
L2 +2L3
−→ −L−→
3 →L3 ,
L4 −L3
0 0 −1 3 0 0 1 −3
−→ 0 0 0 0 0 0 0 0
observamos que a matriz A não é linha equivalente a I4 e portanto não é invertı́vel.
Observando que entre as formas erl de uma matriz quadrada de ordem m, a identidade é a
única com posto m e em vista do teorema 1.51, obtemos o seguinte corolário.
Pelo Corolário acima, para determinar se A é invertı́vel ou não, é suficiente a forma escalonada
de A (não há necesidade da forma erl).
2 0 −2
Exemplo 1.55. Determine se a matriz A = 1 −2 0 é invertı́vel ou não.
−1 0 2
2 0 −2 L1 −2L2 2 0 −2
−→
A = 1 −2 0 L1 +2L3 0 4 −2 , logo pA = 3, portanto A é invertı́vel.
−1 0 2 −→ 0 0 2
Aplicação a Fatoração LU
Consideremos uma matriz A quadrada, com a condição que seu escalonamento possa ser rea-
lizado sem permutações de linhas, isto significa que o escalonamento poderá ser feito somente
com operações linha do tipo Li + kLj → Li . Com esta condição veremos que é possı́vel escrever
A como produto de uma matriz triangular inferior L e outra triangular superior U , isto é,
A = LU.
Ek · . . . · E1 · A = U,
onde cada matriz elementar Ei está associada a uma operação de pivoteamento. Daı́,
Suponha que a matriz elementar E está associada ao pivoteamento da linha Ls , sobre a linha
Li , i < s, com pivôs o na coluna j, podemos descrever a operação na forma,
−cLs + Li → Li .
31
Definimos cij = c, chamado multiplicador da posição (i, j), daı́ a matriz elementar E terá
1’s na diagonal, −cij na posição (i, j) (baixo a diagonal) e 0’s no resto. Logo a matriz inversa
E −1 terá 1’s na diagonal, cij na posição (i, j) e 0’s no resto. Notemos que cada matriz E −1 é
uma matriz triangular inferior.
Assim, o produto L = E1−1 · . . . · Ek−1 é uma matriz triangular inferior, é possı́vel verificar que L
está composta por 1’s na diagonal e cij em cada posição (i, j) baixo a diagonal e 0’s no resto,
pois trata-se de sucessivas operações elementares realizados na matriz I. Por exemplo, se A é
uma matriz 3 × 3, em cujo escalonamento obtem-se os multiplicadores c21 , c31 e c32 , então
1 0 0 1 0 0 1 0 0
E1 = −c21 1 0 , E2 = 0 1 0 e E3 = 0 1 0 ,
0 0 1 −c31 0 1 0 −c32 1
logo
1 0 0 1 0 0 1 0 0
E1−1 = c21 1 0 , E2−1 = 0 1 0 e E3−1 = 0 1 0 ,
0 0 1 c31 0 1 0 c32 1
portanto
1 0 0 1 0 0 1 0 0 1 0 0
L = E1−1 E2−1 E3−1 = c21 1 0 0 1 0 0 1 0 = c21 1 0 ,
0 0 1 c31 0 1 0 c32 1 c31 c32 1
em geral, desde que as operações elementares sejam realizadas seguindo o algoritmo de escalo-
namento, a matriz L terá a forma acima, ou seja que L é a matriz triangular inferior com 1’s
na diagonal e os respectivos multiplicadores baixo a diagonal. Assim,
32
2 1 3
Logo, U = 0 −3/2 −1/2 é triangular superior. Para calcular L = E1−1 E2−1 E3−1 , basta
4
0 0 3
compor a matriz usando os multiplicadores:
1 0 0
L = 1/2 1 0 .
−1 −4/3 1
Portanto:
1 0 0 2 1 3
A = LU = 1/2 1 0 0 −3/2 −1/2 .
−1 − 34 1 0 0 4
3
onde,
Uma solução do sistema é uma sequência de n valores que atribuı́dos a cada x1 , · · · , xn sa-
tisfazem todas as equações do sistema. Pode-se verificar que um sistema somente pode ter
uma única solução, infinitas soluções ou nehuma solução. Logo, podemos classificar os sistemas
como:
1. Sistema Possı́vel Determinado, SPD : quando (*) possui uma única solução.
33
Escrevendo matricialmente o sistema (*), temos:
b1 a11 x1 + . . . + a1n xn a11 . . . a1n x1
.. .
. .. .
. .
. ..
. = . = . . . . .
bm am1 x1 + . . . + amn xn am1 . . . amn xn
A · X = b,
onde
X = [xi ] : Matriz coluna das incógnitas,
A = [aij ] : Matriz dos coeficientes do sistema,
b = [bi ] : Matriz coluna dos termos independentes.
Outra matriz útil é a matriz da forma b: [A|b], chamada matriz ampliada de A com b.
são:
1 1 2
Matriz de coeficientes: A = 2 4 −3.
3 6 −5
9
Matriz de termos independentes: b = 1 .
0
1 1 2 9
Matriz ampliada: [A|b] = 2 4 −3 1 .
3 6 −5 0
Um dos métodos básicos par determinar as soluções de um sistema é substituir-o por um sistema
equivalente (sistema com a mesma solução), que seja mais simples de resolver. É claro que as
seguintes operações com as equações do sistema, levam a um sistema equivalente ao inicial.
34
• Permutar duas equações
• Substituir uma equação pela soma dessa equação e um múltiplo de outra equação.
• Obter o sistema linear associado a forma el, que será equivalente ao inicial.
Exemplos 1.58.
1. Consideremos o sistema:
x + y + 2z = 9
2x + 4y − 3z = 1 ,
3x + 6y − 5z = 0
1 1 2 9
A matriz ampliada do sistema é: [A|b] = 2 4 −3 1 . Escalonando [A|b] temos:
3 6 −5 0
1 1 2 9 L2 −2L1 →L2 1 1 2 9
−→ 3L −2L →L
2 4 −3 1
L3 −3L1 →L3
0 2 −7 −17 2 −→3 3
3 6 −5 0 −→ 0 3 −11 −27
1 1 2 9 1
L
1 1 2 9
2 2
0 2 −7 −17 −→ 0 1 −7/2 −17/2 ,
0 0 1 3 0 0 1 3
Agora voltando ao sistema temos:
35
x + y + 2z = 9
y − 7/2z = −17/2 ,
+ z = 3
2. Resolvamos o sistema:
x − y + 3z = 1
x + z − w = −1
2y + w = 0
2x + y + 4z = 0
1 −1 3 0 1
1 0 1 −1 −1
A matriz ampliada do sistema é: [A|b] = 0 2 0 1
. Escalonando [A|b]
0
2 1 4 0 0
temos:
1 −1 3 0 1 1 −1 3 0 1
1 0 1 −1 −1 L2 −L 1 →L1
−→ 0 1 −2 −1 −2 L3 −2L −→2 →L3
0 2 0 1 0 L4 −2L
−→1 →L4 0 2 0 1 0 L4 −3L
−→2 →L4
2 1 4 0 0 0 3 −2 0 −2
1 −1 3 0 1 1 −1 3 0 1
0 1 −2 −1 −2 −L3 +L4 →L4 0 1 −2 −1 −2
0 0
−→ .
4 3 4 0 0 4 3 4
0 0 4 3 4 0 0 0 0 0
Agora voltando ao sistema temos:
x − y + 3z = 1
y − 2z − w = −2 ,
4z + 3w = 4
36
1 −1 3 0 1
1 0 1 −1 0
A matriz ampliada do sistema é: [A|b] = 0 2 0 1 −1 . Escalonando [A|b]
2 1 4 0 0
temos:
1 −1 3 0 1 1 −1 3 0 1
1 0 1 −1 0 L2 −L 1 →L2
−→ 0 1 −2 −1 −1 L3 −2L −→2 →L3
0 2 0 1 −1 L4 −2L −→1 →L4 0 2 0 1 0 L4 −3L
−→2 →L4
2 1 4 0 0 0 3 −2 0 −2
1 −1 3 0 1 1 −1 3 0 1
0 1 −2 −1 −1 −L3 +L4 →L4 → 0 1 −2 −1 −2
0 0
−→ .
4 3 2 0 0 4 3 4
0 0 4 3 1 0 0 0 0 1
Agora voltando ao sistema temos:
x − y + 3z = 1
y − 2z − w = −2
,
4z + 3w = 4
0 = 1
não tem valores que satisfazam simultaneamente todas as equações, logo temos um SI.
pA = p[A|b] = n.
pA = p[A|b] < n.
As variáveis que ao assumir valores quaisquer determinam a solução do sistema são chama-
das de variáveis livres ou independentes, as variáveis restantes são ditas variáves
dependentes. Observemos que n − pA , representa o número de variáveis livres e pA
corresponde ao número de variáveis dependentes. n−p[A|b] é chamado grau de liberdade
do sistema.
pA 6= p[A|b] ,
37
Exemplos 1.59. 1. Consideremos o sistema:
2x1 + 2x2 − x3 + x4 = −1
−x1 − x2 + 2x3 + x4 = −1 ,
x1 + 3x2 − x3 − x4 = 0
38
Sistemas Homogêneos
Um sistema cujos termos independentes são todos nulos (ou seja b = 0) é dito sistema
homogêneo (SH), a forma matricial de um sistema homogêneo é:
AX = 0,
39
Esta proposição vem do fato que:
a) A é invertı́vel.
b) pA = m
c) Para toda coluna b de ordem m × 1, o sistema matricial A · X = b tem pelo menos uma
solução.
Uma reação quı́mica acontece quando a combinação de substâncias quı́micas (reagentes) produz
novas substâncias (produtos). De acordo com a Lei de conservação da massa, a quantidade de
átomos de um elemento presentes nos reagentes deve ser igual a presente nos produtos.
A equação de uma reação quı́mica está balanceada quando apresenta quantidade necessária
de moléculas de cada substância, de forma que o número de átomos de cada lado seja preservado.
A equação não balanceada é aquela que contém somente as substâncias envolvidas.
40
Por exemplo, na queima de metano, o metano (CH4 ) e o oxigêneo (O2 ) reagem para formar
gás carbónico (CO2 ) e água (H2 O):
xN H3 + yO2 −→ zN + wH2 O.
Nitrogêneo : x=z
Hidrogêneo : 3x = 2z
Oxigêneo : 2y = z
f3 = 20 + t; f2 = 25 − (20 + t) = 5 − t; f1 = 15 − t.
Note que os fluxos podem ser controlados pelo fluxo em AD, por exemplo, se f4 = 5l/seg então
f1 = 10 l/seg; f2 = 0; f3 = 25 l/seg. Também podemos obter os fluxos mı́nimos e máximos
em cada ramo, considerando que estes são positivos ou nulos.
10 ≤ f1 ≤ 15
0≤ f2 ≤5
20 ≤ f3 ≤ 25
0≤ f4 ≤5
41
Aplicação: Fluxo em redes.
Muitas situações práticas envolvem fluxos em redes, como por exemplo fluxo de veı́culos em
redes de transporte, fluxo de informações em redes de comunicações, fluxo de bens e servições
em redes econômicas, etc.. Vamos considerar que uma rede é composta por um número finito de
nós (também chamados de junções ou vértices) conectados por uma série de arestas direcionadas
conhecidas como ramificações ou arcos. Cada ramo será rotulado com um fluxo que representa a
quantidade de alguma mercadoria que pode fluir através dessa ramificação na direção indicada.
A regra fundamental que rege o fluxo através de uma rede é a conservação do fluxo.
Exemplo 1.65. Descreva os possı́veis fluxos através da rede de tubulações de água mostrada
na Figura 1.1, onde o fluxo é medido em litros por minuto.
42
logo o sistema é SPI com grau de liberdade 1, tomando f4 = t, temos,
f3 = 20 + t; f2 = 25 − (20 + t) = 5 − t; f1 = 15 − t.
Note que os fluxos podem ser controlados pelo fluxo em AD, por exemplo, se f4 = 5l/seg então
f1 = 10 l/seg; f2 = 0; f3 = 25 l/seg. Também podemos obter os fluxos mı́nimos e máximos
em cada ramo, considerando que estes são positivos ou nulos.
10 ≤ f1 ≤ 15
0≤ f2 ≤5
20 ≤ f3 ≤ 25
0≤ f4 ≤5
1.7 Determinantes
Dada uma matriz quadrada A, o determinante de A é um número real, denotado por det A
ou |A|, que define a inversibilidade da matriz. Vamos apresentar a forma geral que tem o
determinante de uma matriz quadrada de ordem qualquer embora não constitui uma definição
do conceito. O determinante de matrizes de ordem 1, 2 e 3 será dado explicitamente e para o
caso de ordem maior serão usadas propriedades e o desenvolvimento de Laplace.
Forma geral do Determinante. Dada uma matriz A = [aij ]n×n o determinante de A tem a
forma, X
det A = ±a1i1 · . . . · akik · . . . · anin ,
i) Ordem 1. |[a]| = a
a b
ii) Ordem 2. A = = ad − bc.
c d
a1 a2 a3
iii) Ordem 3. b1 b2 b3 = a1 b2 c3 + a2 b3 c1 + a3 b1 c2 − a1 b3 c2 − a2 b1 c2 − a3 b2 c1 .
c1 c2 c3
Neste caso o valor do determinante é obtido também pela Regra de Sarrus, mas esta regra
só se aplica a este caso e não para ordem maior.
43
Em geral, o determinante é calculado utilizando somente as propriedades, e não sua definição.
Primeiro enunciaremos quatro propriedades básicas das quais podem ser deduzidas todas as
outras.
Seja A uma matriz quadrada de ordem n. Além da notação usual, A também será denotada
na forma,
A = (L1 , . . . , Ln ),
onde L1 , . . . , Ln representam as linhas de A.
1. det(In ) = 1.
det(L1 , . . . , Li , . . . , Lj . . . , Ln ) = − det(L1 , . . . , Lj , . . . , Li . . . , Ln ).
44
9. det A 6= 0 ⇔ pA = n ⇔ A invertı́vel.
1 −4 0 6
2 −8 6 8 1 −4 3 4 1 −4 3 4
3 −9 5 10 3 −9 5 10 0 3 −4 −2
=2 =2
−3 0 1 −2 −3 0 1 −2 0 −12 10 10
1 −4 0 6 1 −4 0 6 0 0 −3 2
1 −4 3 4 1 −4 3 4
0 3 −4 −2 0 3 −4 −2
=2 =2 = −36.
0 0 −6 2 0 0 −6 2
0 0 −3 2 0 0 0 1
45
• det(B) = −(3)(2)(−1)(1) = 6, pois permutando a 2a e 3a linhas a matriz é triangular
superior com as entradas 3, 2, -1 e 1 na diagonal.
• det(−2B) = (−2)4 det(B) = 16 × 6 = 96.
Observação 1.70. Considere o sistema linear AX = b, onde a matriz de coeficientes A é uma
matriz quadrada de ordem n, temos
Desenvolvimento de Laplace.
Definimos como Matriz de cofatores de A a matriz dada por: Cof (A) = [Cij ]m×m .
Os sinais (−1)i+j no cofator do elemento aij , variam com a posição (i, j), como indicado:
+ − + ...
− + − . . .
.
.. .. ..
. . .
2 0 −3
Exemplo 1.72. Para a matriz A = 1 1 −1, temos:
−1 2 −1
1 −1 1 −1 1 1
C11 = = 1, C12 = − = 2, C13 = =3
2 −1 −1 −1 −1 2
46
0 −3 2 −3 2 0
C21 = − = −6, C22 = = −5, C23 = − = −4
2 −1 −1 −1 −1 2
0 −3 2 −3 2 0
C31 = = 3, C32 = − = −1, C33 = = 2.
1 −1 1 −1 1 1
1 2 3
∴ Cof (A) = −6 −5 −4 .
3 −1 2
Teorema 1.73 (Desenvolvimento de Laplace). Dada uma matriz quadrada A = [aij ], de
ordem n ≥ 2, temos
47
1 0 0 −1
−3 2 1 2
2. Calculemos o determinante da matriz A = 3 0 0
.
1
2 0 −2 1
Neste caso o é conveniente o desenvolvimento pela 2a coluna.
1 0 −1
det A = (2) 3 0 1 .
2 −2 1
Desenvolvendo novamente pela 2a coluna, temos:
1 −1
det A = (2)(−2)(−1) = (4)(1 + 3) = 16.
3 1
3 5 −2 6 0 −1 1 3
−1 1 3
1 2 −1 1 1 2 −1 1
det(A) = = =− 0 3 3
2 4 1 5 0 0 3 3
1 8 0
3 7 5 3 0 1 8 0
−1 1 3
3 3
= − 0 3 3 = −(−1) = −18.
9 3
0 9 3
48
−1 −2 0
Exemplo 1.78. Vamos usar o critério acima, para determinar se a matriz A = 1 4 1
5 0 1
é invertı́vel.
Portanto A é invertı́vel.
Definição 1.79. Dada a matriz A, define-se matriz adjunta classica de A como a matriz:
−2 0 −1 0 −1 −2
C21 = = 2, C22 = = −1, C23 = = −10
0 1 5 1 5 0
−2 0 −1 0 −1 −2
C31 = = −2, C32 = − = 1, C33 = = −2.
4 1 1 1 1 4
4 2 −2
Portanto: adj(A) = 4 −1 1 .
−20 −10 −2
Na diagonal, bii = ai1 Ci1 + · · · + ain Cjn = det A. Para i 6= j, ou seja, fora da diagonal, temos
bij = ai1 Cj1 + · · · + ain Cjn = 0. Portanto:
49
−1 −2 0
Exemplo 1.82. Sabemos que a matriz A = 1 4 1 é invertı́vel, com
5 0 1
4 2 −2
det(A) = −12 e adj(A) = 4 −1 1 ,
−20 −10 −2
logo,
4 2 −2
−1
A−1 = 4 −1 1 .
12
−20 −10 −2
50
Interpretação Geométrica no Plano
x1 y 1
Considere a matriz A = , veremos que o valor absoluto do det(A) é exatamente a área
x2 y 2
do paralelogramo determinado pelos vetores u = (x1 , y1 ) e v = (x2 , y2 ), sendo u e v vetores não
paralelos.
x1 x2 + y1 y2 = 0, ∀ u, v.
x21 + y12 0
a2 = l12 l22 = (x21 + y12 )(x22 + y22 ) = = det(AAt ) = (det(A))2 ,
0 x22 + y22
portanto a = |det(A)|.
portanto,
u u
a = |det | = |det | = |det(A)|.
v − λu v
51
1.8 Exercı́cios
1. Em cada caso determine a matriz da forma el e da forma erl, linha-equivalente a matriz
dada.
0 −3 −6 4 9 1 2 3
−1 1 1 2 9 3 −2 0
−2 −1 3 1 1 0 0
(a)
−2
(b) 2 4 −3 1 (c) (d) 2 −1 −1.
−3 0 3 −1 0 1 1
3 6 −5 0 4 −3 1
0 −3 −6 4 9 2 4 5
6. Determine
todos
os valores possı́veis para pA , de acordo com os valores do parâmetro a.
1 2 a
A = −2
4a 2
a −2 1
52
10. Determine os valores de a, b e c para os quais a matriz :
1 1 1 1
1 1+a 1 1
é invertı́vel.
1 1 1+b 1
1 1 1 1+c
1 3 −3
11. A matriz M é invertı́vel e verifica (3M −1 )t = 0 −1 2 , determine M .
1 −2 1
x + 2y + 3z = 24
14. Considere o sistema 2x + y + 3z = 48
3x + 2y + z = 60
53
2x − 5y + 2z = 0 x + 6y − kz + w = 0
S1 : x+y+z = 0 S2 : x+y−w = 0 .
2x + kz = 0 4x + y + 6z + kw = 0
(a) Para cada sistema, encontre os valores de k para os quais o sistema seja possı́vel e
indeterminado.
(b) Para cada sistema, considere k = −3 e determine a solução.
16. Em cada caso, determine o tipo de solução dos sistemas, de acordo com os valores dos
parâmetros α, β, γ, a, b e c.
x+y+z = 0 x + y + βz = 1
(a) x − y + αz = 1 (b) x + 2y + z = 2 .
αx + 2y + z = −2 2x + 5y − 3z = γ
x1 + ax2 + x3 = 1 x1 + 2x2 + (b + 1)x3 = 2
2
(c) 2x1 − ax2 + 3x3 = a (d) x2 + b x3 = b+1
−x1 + 3x2 = −2 x1 + (1 − b)x3 = 0
x+y+z = 0
x + (c − 1)y = 1
(e)
x + cz = −1
x+z = 2
17. Em cada caso, determine a relação entre os parâmetros a, b e c para que o sistema admita
solução.
x − 2y − z = a x+ 2y+ 3z− 3w = a
(a) 2x + y + 3z = b (b) 2x− 5y− 3z+ 12w = b
4x − 3y + z = c 7x+ y+ 8z+ 5w = c
54
20. Uma rede de valas de irrigação é mostrada na figura abaixo, com vazões medidas em
milhares de litros por dia.
(a) Configure e resolva um sistema de equações lineares para encontrar os possı́veis fluxos
f1 , . . . , f 5
(b) Suponha que DC esteja fechado. Que faixa de fluxo precisará para ser mantido através
do DB?
(c) A partir da figura, é claro que o DB não pode ser fechada, justifique esta afirmação.
Como sua solução, na parte (a) mostra isso?
(d) Da solução obtida em (a), determine os fluxos mı́nimo e máximo por DB.
21. Suponha que a curva y = ax2 + bx + c passa pelos três distintos pontos (x1 , y1 ), (x2 , y2 )
e (x3 , y3 ). Mostre que os coeficientes
2 a, b e c são uma solução do sistema de equações
x1 x1 1 y1
lineares cuja matriz ampliada é x22 x2 1 y2 .
x23 x3 1 y3
Use determinantes para concluir que os coeficientes a, b, c existem e são únicos.
55
(d) det(2A) det(3B) = 6 det A det B
(e) Se B é invertı́vel então det(B −1 AB) = det A
24. Suponha que A = [aij ] é uma matriz quadrada de ordem 4, tal que det A = −7 e calcule:
2a14 a34 a44 a24
−2a12 −a32 −a42 −a22
(a) det(3A) (b) det(2A−1 ) (c) det(2A)−1 (d) .
2a13 a33 a43 a23
2a11 a31 a41 a21
25. Use determinantes para achar todos os valores de a e b, tais que a matriz A seja invertı́vel
a −1 3
A = −1 −2 b .
0 1 −3
26. Use determinantes para encontrar uma condição necessária e suficiente sobre a, b, c, d ∈ R
de forma que a matriz A não seja invertı́vel.
a+1 b c d
a b+1 c d
A= a
.
b c+1 d
a b c d+1
56
Capı́tulo 2
ESPAÇOS VETORIAIS
2.1 Introdução
O plano munido de um sistema de coordenadas cartesianas,
u + v = w = (a + b, b + d) ∈ R2 ,
57
• Multiplicação de vetor por escalar: Se λ ∈ R e v = (a, b) ∈ R2 , então a multiplicação
de λ por v, é o vetor: λv = (λa, λb) ∈ R2 , geometricamente entendido como um vetor na
reta determinada por v, com comprimento e sentido determinado por λ.
Notemos que vetores de R2 podem ser entendidos também como matrizes coluna 2 × 1, visto
que a única diferença ao efetuar as operações é a notação.
Em resumo, R2 possui duas operações, uma interna (entre vetores resultando em vetor) que é
a soma de vetores e outra externa (de real por vetor resultando vetor), que é a multiplicação
por escalar, sendo que estas operações possuem uma série de propriedades algébricas. Um
espaço vetorial basicamente, é uma generalização deste conjunto geométrico de vetores, de suas
operações de soma e multiplicação por escalar e de suas propriedades. Nesta generalização,
no lugar de R2 considera-se um conjunto V e no lugar do conjunto com escalares R usamos
um conjunto com estrutura de corpo, de forma que seja possı́vel efetuar as operações interna e
externa com propriedades análogas às de R2 . Definiremos a estrutura de corpo e posteriormente
o conceito de espaço vetorial.
58
M1) A multiplição é Associativa: (x · y) · z = x · (y · z), ∀x, y, z ∈ K.
M2) A multiplição é Comutativa: x · y = y · x, ∀x, y ∈ K.
M3) Existência da Unidade: Existe 1 ∈ K, com a propriedade: x · 1 = 1 · x = x, ∀x ∈ K.
−1
M4) Existência dos Inversos: Para cada x 6= 0, x ∈ K, existe o elemento x ∈ K, que verifica,
x · x−1 = x−1 · x = 1, ∀ x ∈ K.
M5) Distributividade: Para todos x, y, z ∈ K, x · (y + z) = x · y + x · z.
Exemplo 2.2.
+ 0 1 · 0 1
0 0 1 0 0 0
1 1 0 1 0 1
Definição 2.3. Consideremos um conjunto não vazio V e um corpo K, (normalmente será R),
onde existem as operações de adição e de multiplicação por escalar:
Dizemos que V com as operações acima é um Espaço Vetorial sobre K, se são satisfeitas:
E1) Associatividade da Adição: Para todos u, v, w ∈ V , temos
(u + v) + w = u + (v + w).
u + v = v + u.
E3) Existência do Zero: Existe um elemento, denotado por 0V ∈ V (ou simplesmente 0),
com a propriedade
v + 0V = 0V + v = v.
v + (−v) = (−v) + v = 0V .
(λβ)v = λ(βv).
59
E6) Para todos λ, β ∈ K e v ∈ V ,
(λ + β) · v = λ · v + β · v.
λ · (u + v) = λ · u + λ · v.
Os elementos de V são ditos vetores, o elemento zero é dito vetor nulo e os elementos de K
são ditos escalares.
V é dito Espaço Vetorial Real , caso K = R ou Espaço Vetorial Complexo, caso K = C.
Nestas notas estaremos trabalhando sempre com espaços vetoriais reais.
2. Seja I um intervalo real e consideremos o conjunto das funções de I com valores em R que
denotaremos por F (I, R). F (I, R) é um espaço vetorial real, munido com as operações:
60
Proposição 2.5. Seja V um espaço vetorial, então para todo v ∈ V e λ ∈ R, temos:
1. 0 · v = 0V .
2. λ · 0V = 0V .
3. −1 · v = −v.
Observação 2.7. Devido a que várias propriedades necessárias para W ser um espaço vetorial
munido das operações de V são transladadas de V para W , para verificar que W é um subespaço
de V é suficiente que,
3. 0V ∈ W .
Exemplos 2.8.
61
2 x
2. Se V = R , a reta W = { ∈ R2 | y = 3x} é um subespaço vetorial real de V .
y
x x
Para verificar este fato, reescrevemos W = { ∈ R2 | y = 3x} = { | x ∈ R} =
y 3x
1
{x | x ∈ R} e testamos as condições da obervação 2.7.
3
1 1
• Se u = x ev=y ∈ W , temos
3 3
1 1 1
u+v =x +y = (x + y) ∈ W.
3 3 3
1
• Se u = x ∈ W e λ ∈ R, temos
3
1 1
λu = λ(x ) = (λx) ∈ W.
3 3
0 1
• =0· ∈ W.
0 3
62
W é um subespaço vetorial de Rn , pois:
• 0 ∈ W , já que A · 0 = 0
• Se X, Z ∈ W , então A · (X + Z) = A · X + A · Z = 0 + 0 = 0,
• Se X ∈ W e λ ∈ R, então
A · (λX) = λ(A · X) = λ0 = 0.
63
−1 2
3
Exemplo 2.10. Consideremos em V = R , os vetores v1 = 1 , v2 = 0 . Vejamos que
2 −1
os seguintes vetores são combinações lineares de v1 e v2 :
4 1 1
u = 2v1 + 3v2 = 2 , w = v1 + v2 = 1 e z = −1 · v1 + 0 · v2 = −v1 = −1 .
1 1 −2
Assim, para mostrar uma combinação linear dos vetores v1 e v2 , escolhemos escalares α e β e
3
calculamos αv1 + βv2 . Por outro lado, dado umvetor
v de R , como determinar se v é uma
1
combinação linear de v1 e v2 ? Por exemplo v = 5 é uma combinação linear de v1 e v2 ? E o
7
3
que dizer sobre v = 1 ?
0
1 1
• Para o caso v = 5 , procurando escalares α e β, tais que 5 = αv1 + βv2 , temos
7 7
−1 2 1 −1 2 1 −2α + 2β = 1
α
α 1 +β 0 = 5 ⇔ 1
0 = 5 ⇔
α = 5 .
β
2 −1 7 2 −1 7 2α − β = 7
64
3
• Já no caso v = 1, não é combinação linear de v1 e v2 , pois procurando escalares α e β
1
tais que:
3 −1 2 −α + 2β
1 = α 1 + β 0 = α ,
1 2 −1 2α − β
−1 2 3
α
obtemos o sistema: 1 0 = 1 Este sistema é SI, logo v não é combinação
β
2 −1 1
linear de v1 e v2 .
Observação 2.11. De acordo com o exemplo, notamos que uma combinação linear dos vetores
v1 , . . . , vn em Rm é da forma:
α1 v1 + α2 v2 + . . . + αn vn = A · v,
W = {α1 v1 + α2 v2 + . . . , +αn vn | α1 , . . . , αn ∈ R} ⊆ V.
• 0V = 0v1 + . . . + 0vn ∈ W.
W = [v1 , . . . , vn ] ou W = [S],
65
Exemplo 2.12.
Determine
a(s)
equação(ões) que definem
o subespaço de R3 , gerado pelos
2 −1 a
vetores u = 1 e v = −1 . Neste caso, w = b ∈ [u, v], se e somente, se existem α e β,
−1 3 c
tais que:
a 2 −1 2 −1 a
b = α 1 + β −1 , ou seja 1 −1 α = b .
β
c −1 3 −1 3 c
A matriz ampliada do sistema é:
2 −1 a
[A|B] = 1 −1 b , escalonando, temos:
−1 3 c
2 −1 a 2 −1 a 2 −1 a
1 −1 b → 0 1 a − 2b → 0 1 a − 2b
−1 3 c 0 5 a + 2c 0 0 −4a + 10b + 2c
2 −1 a
→ 0 1
a − 2b ,
0 0 2a − 5b − c
assim, para que o sistema tenha solução é necessário que 2a − 5b − c = 0, portanto:
a
[u, v] = { b ∈ R3 | 2a − 5b − c = 0}.
c
Exemplos 2.13 (Espaços gerados em R3 ). Consideremos V = R3 , temos:
66
2. Se u, v são vetores não nulos de R3 e não paralelos. Então o subespaço [u, v] é o plano
determinado por u e v.
Exemplos 2.14.
4
1. Dado v = −2 ∈ R3 , W = [v] é a reta de R3 que passa pela origem e que contém o
2
vetor v, que podemos descrever como,
4 2 2λ
W = [v] = {λ −2 | λ ∈ R} = {λ −1 | λ ∈ R} = {−λ | λ ∈ R}.
2 1 λ
67
Notemos que a reta W pode ser gerada por,
4 2 −6 2 4
−2 ou −1 ou 3 ou por −1 e −2 .
2 1 −3 1 2
−1 0
2. Dados u = 2 e v = −1, notemos que u ∈
/ [v], pois u não é múltiplo de v. Assim,
1 0
concluı́mos que W = [u, v] é o plano de R3 , que passa pela origem e contém u e v.
Determinemos exatamente os vetores de W ,
x x −1 0
y ∈ W ⇔ y = α 2 + β −1 , α, β ∈ R
z z 1 0
−1 0 x
α
⇔ 2 −1 = y , α, β ∈ R
β
1 0 z
x
assim, y ∈ W , se e somente se, o sistema tem solução ou seja, x + z = 0. Esta equação
z
é a que representa o plano [u, v].
Observação 2.15. O conjunto usual de geradores do espaço vetorial Rn é composto pelos
vetores:
1 0 0
0 1 0
e1 = .. , e2 = .. , . . . , en = .. ,
. . .
0 0 1
pois, claramente:
x1 1 0 0
x2 0 1 0
.. = x1 .. + x2 .. + . . . + xn .. = x1 e1 + x2 e2 + . . . + xn en .
. . . .
xn 0 0 1
A seguinte propriedade útil para determinar quando dois conjuntos geram o mesmo subespaço.
68
Proposição 2.16. Se S e T são conjuntos de vetores de um espaço vetorial V , então,
[S] = [T ] ⇔ S ⊆ [T ] e T ⊆ [S].
Exemplo 2.17. Se u e v são vetores de um espaço vetorial V , temos [u, v] = [−u, u + v], pois
u = −1 · (−u) + 0 · (u + v); v = 1 · (−u) + 1 · (u + v) ⇒ u, v ∈ [−u, u + v]
e
−u = −1 · u + 0 · v; u + v = 1 · u + 1 · v ⇒ −u, u + v ∈ [u, v].
No espaço R3 consideremos vetores não nulos, u, v, que não são múltiplos um do outro, neste
caso é claro que,
[u, v, u + v] = [u, v] 6= [u],
este exemplo ilustra que em certos conjuntos de geradores de um espaço, podemos extrair
vetores preservando o espaço gerado, mas em outros conjuntos isto não é mais possı́vel.
Em geral, dado um conjunto de vetores geradores de V , v1 , v2 , . . . , vn , desejamos extrair um
subconjunto com um mı́nimo de vetores que ainda seja gerador de V , para isto definiremos os
conceitos de dependência e independência linear.
α1 v1 + α2 v2 + . . . + αn vn = 0V
é, α1 = α2 = . . . = αn = 0. Caso exista uma solução com alguns escalares não nulos, diremos
que S é linearmente dependente (LD).
Nota 2.20. De 2.19(3), veja que um conjunto S com dois vetores não nulos verifica,
69
Exemplos 2.21.
−2 4
1. {u = 3 , v = −6} é LD, pois v = −2u.
1 −2
1 1
{w = 0 ,z = −1 } é LI, pois w 6= kz, ∀k ∈ R.
2 2
−2 1 1
2. { 1 , −1 , −1} é LI. De fato, consideremos a equação:
1 1 −1
−2 1 1 0
α 1 + β −1 + γ −1 = 0 ,
1 1 −1 0
esta equação equivale ao sistema homogêneo,
−2 1 1 α 0
1 −1 −1 β = 0 .
1 1 −1 γ 0
Para determinar se a solução do sistema é única (portanto nula) ou não, podemos calcular
o posto.
−2 1 1 −2 1 1 −2 1 1
1 −1 −1 → 0 −1 −1 → 0 −1 −1 ,
1 1 −1 0 3 −1 0 0 −4
logo o posto é 3, assim a solução é única e nula, portanto S é LI.
Observação 2.22. No caso V = Rm e S = {v1 , . . . , vn } ⊆ V , para determinar se S é LI ou LD
considere a matriz A, de ordem m × n, cujas colunas são os vetores de S e observamos que o
posto de A determina o tipo de solução do sistema homogêneo AX = 0, logo:
• No caso m = n, temos
S é LI ⇔ pA = m ⇔ A invertı́vel ⇔ det A 6= 0
S é LD ⇔ pA < m ⇔ A não invertı́vel ⇔ det A = 0.
70
Exemplos 2.23. 1. Em R4 , consideremos o conjunto de vetores
1 0 2
−1 2 0
{ 0 , 1 , 1}.
2 −1 3
Temos:
1 0 2 1 0 2 1 0 2
−1 2 0
0 2 2 0 1 1
A=
0 → → ,
1 1 0 1 1 0 0 0
2 −1 3 0 −1 −1 0 0 0
o posto é 2 < 3, logo o conjunto de vetores é LD.
2. Em R4 , o conjunto de vetores
1 −1 1
0 0 2
{
0 , 2 , 0}
1 1 1
1 −1 1
0 0 2
Considerando A =
0 2 0, temos o determinante de uma submatriz:
1 1 1
0 0 2
0 2 0 = −4 6= 0, ∴ o conjunto é LI.
1 1 1
1. S é um conjunto LI
2. S gera V .
Exemplos 2.25.
71
Da mesma forma,
1 0 0
{e1 = 0 , e2 = 1 , e3 = 0},
0 0 1
é uma base de R2 , chamada base canônica de R3 . Em geral, o conjunto
1 0
0 0
{e1 = .. , . . . , en = .. },
. .
0 1
1 2 3 1 2 3 1 2 3
2 9 3 = 0 5 −3 = 0 5 −3 = −5 6= 0,
1 0 4 0 −2 1 0 0 −1
logo S é LI, também gera R3 , pois claramente o sistema AX = b terá solução para todo
b ∈ R3 . Portanto S é uma base para V .
3. No espaço vetorial Pn (R) = {a0 +a1 x+. . .+an xn | a0 , a1 , . . . , an ∈ R}, é simples notar que
o conjunto {1, x, x2 , . . . , xn } é gerador e LI, portanto é uma base para Pn (R), chamada
base usual.
72
A seguinte proposição contém resultados que mostram que todas as bases de um espaço vetorial
tem o mesmo número de vetores.
Proposição 2.28. Seja V é um espaço vetorial, que possui uma base com exatamente n vetores,
então temos:
Definição 2.29. Dizemos que um espaço vetorial V tem dimensão n, se suas bases possuem
n elementos, neste caso escrevemos
dimV = n.
Se V = {0V }, entenderemos que dim{0V } = 0.
Exemplos 2.30.
1. dimRn = n.
2. Seja W = [v] , com v 6= 0. Claramente {v} é LI e gera, logo é uma base de W , assim
dimW = 1. Em R2 ou R3 o espaço gerado por um vetor não nulo e tem dimensão 1.
3x + 5z
De fato, y = logo,
2
x x
y = (3x + 5z)/2
z z
x 0
= 3x/2 + 5z/2
0 z
1 0
= x 3/2 + z 5/2 , ∀x, z ∈ R.
0 1
73
Assim temos que W é gerado por:
1 0 2 0
{ 3/2 , 5/2} ou por
{ 3 , 5},
0 1 0 2
2 0
logo conjunto B = { 3 , 5} é gerador de W , B
também é LI, pois os vetores não são
0 2
múltiplos, logo B é uma base para W , portanto W é um plano e dimW = 2.
• B é LI ⇔ base deV
• B geraV ⇔ B é base deV.
1. dimW ≤ dimV.
2. dimW = n ⇔ W = V.
A seguinte proposição providencia um processo para determinar bases para o espaço gerado
por um conjunto de vetores do espaço Rn .
Proposição 2.33. Sejam A uma matriz de ordem m × n e B sua forma escalonada linha,
considerando as linhas das matrizes como vetores de Rn , temos que as linhas não nulas de B
formam uma base para o espaço gerado pelas linhas de A.
Exemplo 2.34. Determine uma base para o subespaço W de R3 gerado pelos vetores
1 2 −2 −1
u = 2 , v = 7 , w = −1 , z = 1 .
−1 −1 3 2
74
1 2 −1 1 2 −1 1 2 −1
2 7 −1
0
3 1 → 0 3 1 .
−2 −1 3 → 0
3 1 0 0 0
−1 1 2 0 3 1 0 0 0
1 0
Portanto uma base para W é { 2 , 3} e dimW = 2. Neste caso qualquer par de vetores
−1 1
entre os dados é uma base, pois serão 2 vetores LI em um espaço com dimensão 2.
N ul(A) = {X ∈ Rn | A · X = 0}.
2 1 −1 1
Exemplo 2.35. Seja A = 1 1 −2 −1 , determinemos uma base para W = N ul(A).
1 2 −5 −4
Temos que W é o subespaço de R4 das soluções do sistema homogêneo,
x
2 1 −1 1 0
1 1 −2 −1 y = 0 .
z
1 2 −5 −4 0
w
Escalonando A temos,
2 1 −1 1 2 1 −1 1 2 0 2 4 1 0 1 2
A = 1 1 −2 −1 → 0 −1 3 3 → 0 1 −3 −3 → 0 1 −3 −3 .
1 2 −5 −4 0 −3 9 9 0 0 0 0 0 0 0 0
0 1
75
Sabemos que as soluções do sistema homogêneo A · X = 0 são determinadas pelas variáveis
livres, o número destas é exatamente o grau de liberdade do sistema, dado por nA = n − pA
que já foi definido (vide definição 1.45 do Cap. I) como nulidade de A.
O vetor solução X ∈ N ul(A) é determinado como combinação linear de nA vetores v1 , . . . , vnA
de Rn ,
X = s1 v1 + . . . + snA vnA ,
onde os escalares são as variáveis independentes, como em 2.1, logo o conjunto B = {v1 , . . . , vnA }
gera N ul(A). Por outro lado,
X = 0 ⇒ s1 = 0, . . . , snA = 0,
ou seja que o conjunto B é LI, portanto determinará uma base para N ul(A).
Os vetores da base B podem ser determinados atribuindo 1 a uma variável independente e 0
as restantes. Concluı́mos então que:
dim N ul(A) = nA = n − pA .
76
Observações 2.38. 1. Col(A) = Lin(At ).
O teorema abaixo estabelece que os postos linha e coluna são iguais e seu valor é pA .
U ∩ W = {u ∈ V | u ∈ U e u ∈ W } ,
77
2. Sejam V = R3 e U e W duas retas diferentes que passam pela origem, neste caso temos
o subespaço vetorial: U ∩ W = {0V } .
Exemplos 2.45.
78
1. Consideremos V = R3 e U , W retas diferentes, como no Exemplo 2.42. Notemos que
U + W contém todas as somas de vetores nas retas dadas, então U + W é exatamente o
plano que contém as retas U e W .
79
Observação 2.46. Notemos que se temos bases: {u1 , . . . uk } e {w1 , . . . , wr }, para os espaços
U e W , respectivamente, então a união destas bases:
{u1 , . . . , wr } ,
Notemos que:
1 0 1 0
U = [ 0 , 1 ] e W = [ 1 , 0].
1 1 0 1
Então,
1 0 1 0
U + W = [0 , 1 , 1 , 0].
1 1 0 1
Notemos que dim(U + W ) = 3, pois temos 3 vetores LI, de fato:
0 1 0
1 1 0 = −1 6= 0.
1 0 1
Então, U + W = R3 .
Agora determinemos U ∩ W :
x
U ∩ W = {y ∈ R3 | x + y − z = 0 e x − y = 0}
z
x
1
= {y ∈ R3 | x = y = z}
2
z
1
= {λ 1 | λ ∈ R}.
2
80
Logo dim(U ∩ W ) = 1. Portanto verifica-se:
No caso de soma direta, temos dim(U ∩W ) = dim{0V } = 0, logo dim(U ⊕W ) = dimU +dimW .
Nesse caso, uma reunião de bases de U e de W , terá o número de vetores igual a dim(U ⊕ W ),
logo a reunião de bases é uma base para a soma direta.
No exemplo anterior, V não é soma direta de U e W .
Exemplo 2.50. Um exemplo de soma direta é o plano V , determinado por dois vetores LI
u e w, neste caso tomando os subespaços de V : U = [u] e W = [w], temos claramente que
V = U ⊕ W.
Observação 2.51. Da propria definição temos que todo vetor do espaço V = U +W é composto
por somas de dois vetores, um em U e o outro em W . Agora se a soma é direta, ou seja
V = U ⊕ W , além de cada vetor de V ser da forma: v = u + w, com u ∈ U e w ∈ W , as
componenetes de v em U e W são únicas, ou seja que:
v = u + w = u0 + w0 , com u, u0 ∈ U e w, w0 ∈ W ⇒ u − u0 = w0 − w ∈ U ∩ W
⇒ u − u0 = 0 e w − w 0 = 0
⇒ u = u0 e w = w0 .
v = x1 v1 + . . . + xn vn ,
81
de fato, se tivermos que:
como os vetores são LI, então os escalares devem ser nulos, logo
x1 = y1 , . . . , xn = yn .
Consideremos uma ordem fixa nos vetores da base α, assim os escalares associados a um vetor
v ∈ V , ordenados de acordo com a ordem fixa da base, determinaram v de forma única.
Definição 2.52. Nas condições acima e dado v ∈ V , chamamos coordenadas de v com
relação a base α ao vetor coluna:
x1
..
[v]α = . ∈ Rn .
xn
De forma que
x1
v = x1 v1 + . . . + xn vn ⇔ [v]α = ... .
xn
Exemplos 2.53.
1 0
n .. ..
1. Sejam V = R e a base canônica ordenada α = {e1 = . , . . . , en = . }. Neste caso
0 1
n
para qualquer vetor de R , temos
x1 1 0
.. .. ..
v = . = x1 . + . . . + xn . = x1 e1 + . . . + xn en , ou seja:
xn 0 1
x1
..
[v]α = . = v, para todo v ∈ Rn .
xn
1 2 0
3
2. Seja V = R , afirmamos que β = {u1 = −1 , u2 = −1 , u3 = 1} é uma base para
0 −1 1
V (verifique!).
x
(a) Determinemos as coordenadas de um vetor v = y ∈ V em relação a base ordenada
z
β, temos,
82
a 1 2 0 x 1 2 0 a x
[v]β = b ⇒ a −1 + b −1 + c 1 = y ⇔ −1 −1 1
b = y .
c 0 −1 1 z 0 −1 1 c z
O sistema pode ser resolvido por inversão pois a solução é única, ou seja é SPD, logo
a matriz de coeficientes é invertı́vel. Usando qualquer processo de inversão de matrizes,
obtemos:
−1
a 1 2 0 x 0 −2 2 x
1
[v]β = b = −1 −1 1
y =
1 1 −1 y ,
2
c 0 −1 1 z 1 1 1 z
assim
−2y + 2z
1
[v]β = x + y − z .
2
x+y+z
1. [u]α = 0Rn ⇔ u = 0V .
2. [u]α = [v]α ⇔ u = v
3. [u + v]α = [u]α + [v]α
4. [λu]α = λ[u]α
5. Se A e B são matrizes de ordem m × n, tais que A[u]α = B[u]α , ∀u ∈ V , então A = B.
83
que associa [v]α e [v]C , veremos que em geral temos uma relação similar entre coordenadas de
um mesmo vetor em duas bases do espaço.
a1
..
Consideremos, [u]α = . , escalares de u com relação à base α. Determinemos os escalares
an
[u]β . Temos,
u = a1 u1 + . . . + an un ,
logo,
[u]β = [a1 u1 + . . . + an un ]β
= a1 [u1 ]β + . . . + an [un ]β
a1
..
= [ [u1 ]β | · · · | [un ]β ] · .
an
= [ [u1 ]β | · · · | [un ]β ] · [u]α
A matriz acima cuja j-ésima coluna é o vetor [uj ]β , é chamada matriz mudança de base,
da base α para base β e é denotada por [I]αβ , ou seja
ou seja que, fixadas as bases α, β a matriz [I]αβ é a única que verifica a igualdade acima.
Resumindo em um diagrama,
de forma prática, conhecendo [u]α podemos determinar [u]β multiplicando pela matriz [I]αβ .
As seguintes propriedades auxiliam nos cálculos de matrizes mudança de base e coordenadas
de vetores.
2. Inversa de uma matriz Mudança de base. A matriz [I]αβ é invertı́vel, pois notemos
que para todo u ∈ V ,
[u]β = [I]αβ [u]α e [u]α = [I]βα [u]β
84
logo,
[u]α = [I]βα ([I]αβ [u]α ) = ([I]βα [I]αβ )[u]α , ∀ u ∈ V ⇒ [I]αβ [I]βα = In ,
Exemplos 2.55.
2 1 1 −1
1. Sejam V = R2 e as bases de R2 : α = { , } e β = { , }. Determine as
1 1 1 0
matrizes mudança de bases [I]αβ , [I]βα .
Segunda forma. Sabemos que [I]αβ = ([I]βC )−1 [I]αC , onde C é a base canônica de R2 ,
temos
−1
α 2 1 β 1 −1 β −1 1 −1 0 1
[I]C = , [I]C = e ([I]C ) = = .
1 1 1 0 1 0 −1 1
α 0 1 2 1 1 1
[I]β = = .
−1 1 1 1 −1 0
85
0 0 1
3 3
2. Considere V = R , C a base canônica de R e a base α = { 0 , −2 , 0 }. Calcule
1 1 −1
[I]αC e [I]C
α .
0 0 1
Claramente, [I]αC = 0 −2 0 .
1 1 −1
Fazendo o processo de inversão obtemos:
−1
0 0 1 1 1/2 1
[I]C
α =
0 −2 0 = 0 −1/2 0 .
1 1 −1 1 0 0
−2 0 2 1 1 0
3. Considere as bases de R3 , α = { 0 , −1 , 1} e β = {1 , 0 , 0}, calcule
1 1 0 1 1 1
α β
[I]β e [I]α
Seja C a base canônica de R3 . Temos [I]αβ = ([I]βC )−1 [I]αC . É claro que,
−2 0 2 1 1 0
[I]αC = 0 −1 1 e [I]βC = 1 0 0 ,
1 1 0 1 1 1
logo:
−1
1 1 0 −2 0 2
[I]αβ = 1 0 0 0 −1 1
1 1 1 1 1 0
0 1 0 −2 0 2
= 1 −1 0 0 −1 1
−1 0 1 1 1 0
0 −1 1
= −2 1 1 .
3 1 −2
86
2.9 Exercı́cios
1 2 3
3
1. Considere os vetores de R , u = 2 , v = 1 , w = 3 e calcule:
1 2 2
(a) −3(u + 2v) + 4(2u + v) = 5u − 2v (b) (2u − v + 3w) − 2(u + 3v − w)
(c) 21 (u + v + w) + 14 (u − v + w) + 14 (u − v − w).
x
a
b
(f) V = R4 , W = { 4
c ∈ R | a + b + c + d ≥ 0}
87
4 3 11
(a) w1 = −5 (b) w2 = 1 (c) w3 = 5 .
9 −4 −2
5. Determine a equação(s) linear(s) que descrevem o sub-espaço W do espaço vetorial V
dado:
1 −1
3
(a) V = R , W gerado pelos vetores 1 e 2
0 3
−1 0 −2
3
(b) V = R , W gerado pelos vetores 2 , 1 , 5
0 2 2
−1 2 0
1 1 0
(c) V = R4 , W gerado pelos vetores 0 , 3 , 2
0 0 −1
2
3
(d) V = R , W gerado pelo vetor −5
3
2 0 630
(e) V = R , W gerado pelos vetores , .
0 990
1 −1 4
3
6. Considere os vetores de R u = 5 , v = 1 , w = 5. Determine se algum vetor do
10 4 5
conjunto {u, v, w} é combinação dos restantes, nesse caso mostre essa combinação linear.
−5 3 4
7. Considere os vetores de R3 , u = 3 , v = −1 e u = −2. Determine se {u, v, w}
2 3 9
3
gera R .
1 3
1 −4
8. Considere os subespaços vetoriais de V = R4 , W1 gerado por { −6 , −1} e W2 gerado
−4 1
5 −4
−5 9
0 , 6 }. Determine se W1 = W2 ou não.
por {
2 0
1 −1 4
3
9. Considere os vetores de R , u = 1 , v = 1 . Determine k ∈ R tal que o vetor 5
−2 3 k
pertença ao espaço gerado por u e v.
88
10. Verifique se os conjuntos abaixo são LI ou LD.
1 1 3
(a) { 0 , 3 , 2}
0 5 5
1 1 3
(b) { 2 , −2 , −2}
−1 3 5
1 1 1 1
0 1 1 1
(c) {
0 , 0 , 1 , 1}
0 0 0 1
2 0 k
89
(h) Um conjunto com três vetores do R3 é base do R3 .
(i) Um conjunto com mais do que três vetores do R3 não será uma base do R3 .
2 x 2 x 2
(j) { , } é base do R quando ∈
/[ ].
3 y y 3
(k) Sejam V um espaço vetorial de dimensão n e {v1 , v2 , . . . , vn−1 } ⊂ V um conjunto LI.
Então {v1 , v2 , . . . , vn−1 , v} é base de V qualquer que seja o vetor v ∈ V .
(l) Todo conjunto gerador de um espaço vetorial V é uma base para V .
1 2 1
(m) dim([ 0 , 1 , 1 ]) = 3 .
−1 3 4
1 0 0 1
2 −1 2 0
14. Para que valores de k os vetores
0 , k , 1 e 2 geram um espaço tridimensi-
k 1 0 3k
onal?
17. Para as seguintes matrizes, ache uma base e a dimensão para o espaço nulo de A e para
o espaço coluna de A.
1 −2 7 0
1 1 0 1 1 −1 4 0
(a) A = 0 1 −1 1 (b) A =
3 2 −3 5
0 1 −1 −1
2 1 −1 3
90
2 5 6
1 −1 −1 2 −1 −1 3
(c) A = (d) A =
1 −1 −1 −2 2 3 −2
1 3 5
1 0 −2 1
−1 0
0 2
18. Seja W o subespaço, de R4 , gerado pelos vetores: {
0 , 1 , 1 , 0}
0 1 1 0
2
−3
2 ∈ W ?. Justifique
(a)
2
(b) Exiba uma base para W.
20. Considere V = Pn (R), com n ≥ 1 e determine quais dos seguintes subconjuntos são
subespaços de V .
(a) W = {p ∈ V | p(0) = 0}
(b) W = {p ∈ V | p(1) = 1}
(c) W = {p ∈ V | p0 + 2p = 0V }
91
x x
3
(d) S1 = { y ∈ R , x − 2y + z = 0 e 2x − z = 0} e S2 = { y ∈ R3 , x + y = 0}
z z
x 1
(e) S1 = {y ∈ R3 , x − y + z = 0} e S2 = [ 1 ]
z 1
w
x
y 4
W2 = {
z ∈ R / x − y − z + w = 0}
w
a) Determine os espaços W = W1 + W2 e W1 ∩ W2 dando as respectivas bases e
dimensões.
L
b) W = W1 W2 ? Justifique sua resposta.
w
x
y 4
W2 = {
z ∈ R / x = w e y = z}
w
a) Determine os espaços W = W1 + W2 e W1 ∩ W2 dando as respectivas bases e
dimensões.
L
b) W = W1 W2 ? Justifique sua resposta.
92
1 1 1 1
3
(d) V = [ u = 1 , v = 2 ] (subespaço de R gerado por u e v), β = { 1 , 2}
−1 1 −1 1
2
e w = 9/2
3
1
26. (a) Considere a base dada em (25a) e determine w ∈ R2 , tal que [w]β =
−1
1
3
(b) Considere a base dada em (25c) e determine w ∈ R , tal que [w]β = 1
−1
−1 0 0 0 0 1
27. Dadas as bases A = { 0 , 1 , 0} e B = {0 , −2 , 0 } do R3 .
2 0 2 1 1 −1
93
Capı́tulo 3
TRANSFORMAÇÕES LINEARES
T : V → W,
Exemplos 3.2.
T : Rn → Rm , T (u) = Au, ∀ u ∈ Rn ,
94
1 2
Por exemplo, com A = −1 3, temos
0 1
1 2 x + 2y
2 3 x x x
T : R → R , T( ) = −1 3 = −x + 3y , ∀ ∈ R2 .
y y y
0 1 y
Nota: Toda transformação linear T : Rn → Rm é da forma dada neste exemplo, isto será
esclarecido na observação 3.26.
3. Nos espaços vetoriais V = C 1 (R) das funções reais, diferenciáveis com derivada contı́nua
e W = C(R), das funções contı́nuas, a aplicação de derivação é uma transformação linear,
pois é conhecido que,
4. Dados espaços vetoriais V e W , é simples verificar que as seguintes aplicações são trans-
formações lineares.
1. T (0V ) = 0W ,
Daı́, claramente uma aplicação entre espaços vetoriais que verifica T (0V ) 6= 0W não pode ser
transformação linear.
Dado um espaço vetorial V , uma transformação linear T de V em V é chamado operador
linear sobre V .
Operadores do Plano
95
T é uma transformação linear, pois
x x cx c 0 x
T =c = = .
y y cy 0 c y
96
3. Reflexão em torno do eixo y. A aplicação
2 2 x −x x
T : R → R , tal que T = , para todo ∈ R2 ,
y y y
leva um vetor do plano na sua reflexão através do eixo y, analogamente ao caso anterior
é um operador linear, pois
x −x −1 0 x
T( )= = .
y y 0 1 y
leva um vetor do plano na sua reflexão através da origem, é um operador linear, pois
x −x −1 0 x
T( )= = .
y −y 0 −1 y
97
5. Rotação com ângulo θ. Dado um ângulo θ, consideremos a aplicação de rotação pelo
ângulo θ,
Rθ : R2 → R2 ,
que leva um vetor do plano num novo vetor, que é a rotação, com ângulo θ, no sentido
basta considerar 0 ≤ θ < 2π. Vamos descrever
anti-horário do vetor inicial, para o caso
x
exatamente o vetor Rθ (u), para u = . Escrevendo as componentes de u em função
y
de seu comprimento r e de seu ângulo de inclinação β, temos
x = rcos β, y = rsen β.
logo,
x rcos(β + θ) rcosβcosθ − rsenβsenθ
R = =
y rsen(β + θ) rsenβcosθ + rcosβsenθ
xcosθ − ysenθ xcosθ − ysenθ
= =
ycosθ + xsenθ xsenθ + ycosθ
cosθ −senθ x x
= · , ∀ ∈ R2 .
senθ cosθ y y
cosθ −senθ
A matriz é chamada matriz de rotação no plano, pelo ângulo θ.
senθ cosθ
1. Núcleo de T :
N uc(T ) = {u ∈ V | T (u) = 0W } .
98
2. Imagem de T :
Im(T ) = T (V ) = {T (u) ∈ W | ∀ u ∈ V } .
Qualquer que seja a transformação T , temos que N uc(T ) e Im(T ) são subespaços de V e W ,
respectivamente. De fato:
• Verifica-se que,
dim N uc(T ) + dim Im(T ) = n = dim V.
99
A observação sobre as dimensões, vale em geral para qualquer transformação linear.
•
Sabemos que
Nuc(T) = N ul(A), ou seja trata-se das soluções do sistema homogêneo,
1 0 3 x 0
1 −1 5 y = 0.
2 3 0 z 0
Escalonando,
1 0 3 1 0 3 1 0 3
A = 1 −1 5 → 0 −1 2 → 0 1 −2 ,
2 3 0 0 3 −6 0 0 0
−3
logo a solução é x = −3s, y = 2s e s ∈ R, ou seja X = 2 s, s ∈ R.
1
−3
∴ N uc(T ) = { 2 s / s ∈ R} e dim N uc(T ) = 1.
1
100
1 0 a 1 0 a 1 0 a
1 −1 b → 0 1 a − b → 0 1 a−b
2 3 c 0 3 c − 2a 0 0 −5a + 3b + c
Logo,
a
Im(T ) = { b / 5a − 3b − c = 0}
c
Propriedade 3.8. Para uma transformação linear T : V → W , Im(T ) é gerado pelas imagens
de uma base de V . Para verificarmos esta afirmação, suponha que {u1 , . . . , un } é uma base
qualquer de V , logo todo u ∈ V é uma combinação linear da forma:
O seguinte teorema mostra que podemos determinar uma transformação linear conhecendo as
imagens em uma base qualquer.
101
Teorema 3.9. Sejam V e W espaços vetoriais. Dados uma base α = {v1 , . . . , vn } de V
e um grupo de n vetores {w1 , . . . , wn }, de W , então existe uma única transformação linear
T : V → W , tal que:
T (v1 ) = w1 , . . . , T (vn ) = wn .
Demonstração. Dado que todo vetor de v ∈ V escreve-se como combinação linear de vetores
da base,
É simples verificar que a T definida assim é uma TL, que verifica T (vi ) = wi e que é única
com esta condição.
1
3 2 1
Exemplo 3.10. Determine a transformação linear T : R → R , tal que T ( 1 ) = ,
2
1
1 1
2 3
T( 1 ) =
e T( 0 ) =
. É direto verificar que
3 4
0 0
1 1 1
α = { 1 , 1 , 0}
1 0 0
102
Aplicando T em ambos os lados da igualdade temos,
x 1 1 1
T (y ) = zT (1) + (y − z)T (1) + (x − y)T (0)
z 1 0 0
1 2 3
= z + (y − z) + (x − y)
2 3 4
3x − y − z
= .
4x − y − z
Exemplo
3.11. Determine atransformação
linear T : R3 → R3 , tal que N uc(T ) = [u], onde
1 −1 1
u = −1 e tal que e T ( 0 ) = 1.
0 4 1
1 0 −1 1
Neste caso T (−1) = 0, T ( 0 ) = 1, mas
0 0 4 1
1 −1
{ −1 , 0 } não é uma base para R3 , e sim um conjunto LI, logo pode ser completado
0 4
para obter uma base,
1 −1 0 1 −1 0
β = {−1 , 0 , 0}, pois −1 0 0 = −1 6= 0
0 4 1 0 4 1
logo β é uma base para V = R3 .
0
Para determinar T será suficiente definir T ( 0), mas a transformação pedida não será única,
1
pois podemos completar a base de várias formas, assim como podemos
definir
a imagem do
0 −1
terceiro vetor de muitas formas. Neste caso vamos definir, T (0) = 0 . Para o cálculo
1 1
x
das coordenadas de um vetor u = y em β, usemos matriz mudança de base,
z
−1
1 −1 0 x 0 −1 0 x −y
β −1
[u]β = [I]C
β u = ([I]C ) u = −1
0 0 y = −1 −1 0 y = −x − y ,
0 4 1 z 4 4 1 z 4x + 4u + z
assim temos,
x 1 −1 0
u = y = −y −1 + (−x − y) 0 + (4x + 4y + z) 0 ,
z 0 4 1
103
Aplicando T em ambos os lados da igualdade temos,
x 1 −1 0
T ( y ) = −yT ( −1 ) + (−x − y)T ( 0 ) + (4x + 4y + z)T ( 0)
z 0 4 1
0 1 −1
= −y 0 + (−x − y) 1 + (4x + 4y + z) 0
0 1 1
−5x − 5y − z
= −x − y − z .
3x + 3y + z
104
Composição de Transformações.
Definição 3.14 (Composição). Dados espaços vetoriais U , V e W e as transformações lineares,
T : U → V e L : V → W , definimos a Aplicação composta de T e L, denotada L ◦ T , como:
Notemos que,
−y 0 −1 x
x x−y 1 −1 x x
T( )= = e L( ) = x + y = 1 1 y
y x + 2y 1 2 y y
x 1 0 z
0 −1
1 −1
Obtemos que L◦T : R2 → R3 , multiplicando as matrizes de L e T respectivamente: 1 1 =
1 2
1 0
−1 −2
2 1 , logo:
1 −1
−1 −2 −x − 2y
x x
(L ◦ T )( )= 2 1 = 2x + y .
y y
1 −1 x−y
Observe que não é possı́vel calcular T ◦ L, pois Im(L) não está contida no domı́nio de T .
Como nas matrizes, a composição não é comutativa, ainda que as ordens das matrizes sejam
adequadas.
105
Proposição 3.16. Valem as seguintes da composição:
T ◦ IU = T e IV ◦ T = T,
2. T é sobrejetora, se Im(T ) = T (V ) = W .
106
Para determinar N uc(T ), resolvamos o sistema homogêneo com matriz de coeficientes:
1 2 1 2 1 2
1 −1 → 0 3 → 0 1
0 1 0 1 0 0
Claramente a única solução deste sistema é x = y = 0. Portanto, T é injetora.
Pelo teorema da dimensão núcleo-imagem, temos que
107
Consideremos que T : V → W , é um isomorfismo, ou seja uma transformação bijetora, como
toda função bijetora, temos que T é invertı́vel, ou seja que existe uma aplicação denotada por
T −1 : W → V e que tem a propriedade:
T (u) = w ⇔ T −1 (w) = u.
• T ◦ T −1 = IW e T −1 ◦ T = IV .
Observação 3.22. Caso T : Rn → Rn , T u = Au veremos que:
isto acontece pois, sendo T um isomorfismo vale n = dim Im(T ) = dim Col(A) = pA , o que
mostra que A é invertı́vel. Da igualdade T u = Au = v obtemos:
T −1 (v) = A−1 v.
108
1 0 −2 −1 2 0 1 0 0 −1/3 2/3 2/3
0 1 1 1 −1 0 −→ 0 1 0 2/3 −1/3 −1/3
0 0 3 1 −2 1 0 0 1 1/3 −2/3 1/3
−1 2 2 x −x + 2y + 2z
Logo, A−1 = 13 2 −1 −1 e portanto, T −1 (y ) = 31 2x − y − z .
1 −2 1 z x − 2y + z
2. (T −1 )−1 = T .
109
T (u) = T (k1 u1 + . . . + kn un ) = k1 T (u1 ) + . . . + kn T (un ),
Logo,
A matriz acima, cuja j-ésima coluna coluna é o vetor coordenadas de T (uj ) em β, é chamada
matriz de T, da base α à base β e é denotada por [T ]αβ , ou seja
110
Exemplos 3.27.
x
3 2 2x − y + 3z
1. Dada T : R → R , T (y ) = , determine a matriz [T ]αC , onde α = {u1 =
−x + 2z
z
1 0 1
−1 , u2 = 2 , u3 = 0} é base de R3 e C é a base canônica de R2 .
1 −1 1
Sabemos que, [T ]αC = [ [T (u1 )]C [T (u2 )]C [T (u3 )]C ], calculando as colunas obtemos,
1 0
6 −5
[T (u1 )]C = T (u1 ) = T ( −1 ) =
, [T (u2 )]C = T (u2 ) = T ( 2 ) =
e
1 −2
1 −1
1
5
[T (u3 )]C = T (u3 ) = T (0) = , portanto
1
1
α 6 −5 5
[T ]C = .
1 −2 1
x x+y
2. Seja T : R3 → R3 , dada por T (y ) = x − 2z . Determine [T ]αβ , onde α e β são as
z x+y−z
3
bases de R :
1 −1 1
α = {u1 = 0 , u2 = 1 , u3 = 0},
−1 0 1
1 0 2
β = {−1 , 1 , 0}.
1 0 1
Neste caso temos, [T ]αβ = [ [T (u1 )]β [T (u2 )]β [T (u3 )]β ], calculando as imagens resulta,
1 1 −1 0 1 1
T (u1 ) = T ( 0 ) = 3, T (u2 ) = T ( 1 ) = −1 e T (u3 ) = T (0) = −1 .
−1 2 0 0 1 0
Para obter as colunas de [T ]αβ devemos determinar as coordenadas em β dos vetores acima,
x
para isso calcularemos as coordenadas de um vetor qualquer v = y na base β. Usando
z
C C
matrizes mudança de base temos, [v]β = [I]β [v]C = [I]β · v, onde C é a base canônica de
R3 . Por inversão de matriz obtemos,
−1
1 0 2 −1 0 2
β −1
[I]C
β = ([I]C ) = −1 1 0 = −1 1 2 .
1 0 1 1 0 −1
111
Então,
1 −1 0 2 1 3
[T (u1 )]β = [ 3 ]β = −1 1 2
3 = 6 ,
2 1 0 −1 2 −1
0 −1 0 2 0 0
[T (u2 )]β = [−1]β = −1 1 2 −1 = −1,
0 1 0 −1 0 0
1 −1 0 2 1 −1
[T (u3 )]β = [−1]β = −1 1 2 −1 = −2.
0 1 0 −1 0 1
3 0 −1
α
Portanto [T ]β = 6 −1 −2 .
−1 0 1
Matriz da Composição.
Vamos determinar a matriz associada a uma composição de transformações. Para isto con-
sideremos espaços vetoriais U , V e W , com bases ordenadas α, β e γ, respectivamente e as
transformações lineares T : U → V e L : V → W . Nestas condições temos a composição:
L ◦ T : U → W.
Para todo u ∈ U , as coordenadas de (L ◦ T )(u) na base γ satisfazem:
[(L ◦ T )(u)]γ = [(L(T (u))]γ = [L]βγ [T (u)]β = [L]βγ [T ]αβ [u]α .
Pela unicidade da matriz de L ◦ T , temos:
112
T = IW ◦ T ◦ IV ,
0 0
[T ]αβ 0 = [IW ]ββ 0 [T ]αβ [IV ]αα
De forma geral estas equações permitem a troca de bases na matriz associada [T ]αβ .
Casos particulares:
Definição 3.28. Quando duas matrizes quadradas A e B estão associadas pela relação
dizemos que A é semelhante ou similar a B, é simples notar que neste caso também B será
semelhante a A (verifique).
1. tr(A) = tr(B).
2. det(A) = det(B).
113
0 −1 1
Exemplo 3.30. Considere a base α = { 1 , 0 , 1} e a transformação linear T : R3 →
1 1 1
R3 , cuja matriz na base α é:
−1 0 1
[T ]α = 1 −1 0 .
0 1 2
Calcule as matrizes [T ]C C 3
α e [T ]C , onde C é a base canônica de R .
• [T ]C α C
α = [T ]α [I]α .
−1
0 −1 1 −1 2 −1
α −1
Note que [I]C
α = ([I]C ) = 1 0 1 = 0 −1 1 , logo:
1 1 1 1 −1 1
−1 0 1 −1 2 −1 2 −3 2
C
[T ]α = 1 −1 0
0 −1 1 = −1
3 −2 .
0 1 2 1 −1 1 2 −3 3
• [T ]C α C
C = [I]C [T ]α .
Logo:
0 −1 1 2 −3 2 3 −6 5
[T ]C
C = 1
0 1 −1 3 −2 = 4 −6 5 .
1 1 1 2 −3 3 3 −3 3
x 3x − 6y + 5z
Portanto, T ( y ) = 4x − 6y + 5z .
z 3x − 3y + 3z
Matriz da inversa.
Consideremos espaços vetoriais V e W , com igual dimensão e com bases ordenadas α e β
respectivamente, se T : V → W é uma transformação linear, então:
• [T −1 ]βα = ([T ]αβ )−1 . A justificativa para esta relação é simplesmente ver que:
T −1 ◦ T = IV , também T ◦ T −1 = IW , tomando as matrizes temos [T ]αβ [T −1 ]βα = [IW ]β = I,
ou seja que as matrizes são inversas.
114
Exemplos 3.31.
2 1 −1 2 1
1. Sejam as bases de R , α = { , } e β = { , } e a transformação linear
1 0 0 1
3 1
T : R2 → R2 cuja matriz é: [T ]αβ =
1 2
3 −1
[T ]αβ é invertı́vel, pois = 5 6= 0, logo T é isomorfismo.
1 2
−1
3 −1 2 1
[T −1 ]βα = 1
=5 , transformando a base canônica:
1 2 −1 3
[T −1 ]C α
C = [I]C [T
−1 β
]α [I]C α
β = [I]C [T ]α ([I]βC )−1
−1 β
1 −1 2 1 2 1 6 1
[T −1 ]C
C = ·51
=5 1
, portanto
1 0 −1 3 0 1 4 3
−1 x 1 2x + y
T ( )= .
y 5 −x + 3y
1 0 0
3
2. Em R consideremos a base canônica C, a base α = { 0 , −1 , 0} e o operador
1 1 1
3 3
linear T : R → R , cuja matriz é:
−2 0 0
[T ]C
α =
0 1 0 ,
−1 0 2
x
−1
prove que T é um isomorfismo e calcule T ( y ).
z
De fato
−2 0 0
0 1 0 = −4 6= 0,
−1 0 2
logo T é isomorfismo. Usando os métodos estudados calculamos a matriz inversa:
−2 0 0
−1 α C −1 1
[T ]C = ([T ]α ) = 0 4 0 ,
4
−1 0 2
−2 0 0
logo, [T −1 ]αC = 14 0 4 0.
−1 0 2
115
Transformando à base C: [T −1 ]C = [T −1 ]αC [I]C
α = [T
−1 α
]C ([I]αC )−1
−1
1 0 0 1 0 0
Calculando a inversa temos, [I]αC = 0 −1 0 = 0 −1 0,
1 1 1 −1 1 1
daı́,
−2 0 0 1 0 0 −2 0 0
[T −1 ]C = 41 0 4 0 0 −1 0 = 14 0 −4 0,
−1 0 2 −1 1 1 −3 2 2
finalmente,
x −2x
1
T −1 (y ) = −4y .
4
z −3x + 2y + 2z
3.6 Exercı́cios
1. Nas aplicações de (a) a (g) justifique que são transformações lineares. Encontre o núcleo
e a imagem de todas as transformações dadas.
x x+y+z
(a) T : R3 → R3 ; tal que T (y ) = x + y − z
z x−y−z
x x+y+z
(b) T : R3 → R3 ; tal que T (y ) = 0
z x−y−z
x
y x − 3y
(c) T : R4 → R3 ; tal que T ( z ) = 2x + z − w .
y + 2w
w
a
4 2
b a+b−d
(d) T : R → R , tal que T ( ) =
.
c a−c+d
d
x1
0
x1
6 6 .. x3
(e) T : R → R , tal que T ( . ) = x4
x6
x5
0
116
x
3
(f) A aplicação T : R → R, T ( y ) = 7x + 15y − 4z.
z
x
(g) A aplicação que leva o vetor v = y ∈ R3 no produto vetorial com um vetor fixo
z
1
v0 = 1, dada por f : R3 → R3 , f (v) = v × v0 .
2
3. Sabendo que as aplicações geométricas, dadas em cada caso, são transformações lineares,
determine sua lei de formação.
(a) T : R2 → R2 ; onde T (u) é o vetor obtido pela reflexão de U através da reta y = x.
√
(b) T : R2 → R2 ; sendo T (u) o vetor obtido pela reflexão de u através da reta y = 3x.
(c) T : R2 → R2 , onde T (u) é a aplicação no√vetor u ∈ R2 de uma rotação com ângulo
θ = 3π
4
, seguida da dilatação com fator k = 4 2.
(d) T : R3 → R3 , onde T (u) é a rotação de um vetor em torno do eixo x no sentido
positivo, com ângulo 0 ≤ θ < 2π.
3 3
4. (a) Justifique
a existência
de
que verifique, T : R → R , tal que
uma transformação
3 −3 2 1 2
T (1) = T (−2) = 1, T (1) = −1.
0 1 1 0 3
117
(b) Para a transformação dada em (a), determine N uc(T ) e Im(T ).
(c) Para a transformação
dada em (a) determine o conjunto dos vetores v ∈ R3 tais que
2
T (v) = 1.
1
(d) Para a transformação
dada em (a), determine o conjunto dos vetores v ∈ R3 tais
−1
que T (v) = 1 .
1
2 x x x x + 2y
5. Sejam S e T operadores lineares no R definidas por T ( )= e S( )= .
y 3y y y
Determine:
(a) S + T
(b) 2S + 4T
(c) S ◦ T
(d) T ◦ S
7. Marque Verdadeiro (V) ou Falso (F) nas sentencias abaixo, justificando suas respostas:
118
(f) Se T : R2 → R3 uma T. L., então T não pode ser sobrejetiva.
(a) [T ]A 3 2
B considerando A e B bases canônicas do R e R , respectivamente.
1 0 0
C 1 2
(b) [T ]D onde C = {0 , −1 , 0} e D = { , }.
2 1
0 0 2
1
(c) [T (v)]D onde v = 1.
0
2 −1 1 0 0
A 1 −1
11. Considere [T ]B = 1 0
onde A = { , } e B = { 2 , −1 , 0}. Deter-
0 1
0 2 3 1 2
3
mine T (v) onde v = .
−1
119
12. Sejam A e B bases canônicas ordenadas
de R2 e R3 , respectivamente; considere também
1 0 1
0 1 0 0
A ={ , } e B = { 0 , 1 −1} bases ordenadas de R2 e R3 respectiva-
−1 2
−1 1 0
mente.
2y
x A0 A0
(a) Se S : R2 → R3 , é dada por S( ) = x − y , ache [S]A B , [S]B , [S]B 0 .
y
x
2 4 −2
(b) Se R é o operador sobre R , dado por: [R]A0 = , determine [R(u)]A0 e R(u),
3 1
x
onde u = .
y
3 2 B0 1 1 0
(c) Se T : R → R , é a transformação linear dada por [T ]A0 = , determine
1 1 −1
x
[T (u)]A e T (u), onde u = y .
0
z
13. Considere os operadores lineares do plano, Tθ , rotação pelo ângulo θ; L, reflexão pelo eixo
x; S, reflexão pelo eixo y e R, contração com constante k = 52 . Determine [Tθ ]A , [L]A ,
[S]A , [R]A , [Tθ ◦ L]A , [R ◦ S]A , onde A é a base canônica de R2 .
14. Considere que A e B são as bases ordenadas canônicas de R2 e R3 , respectivamente.
Sejam T : R3 → R2 e L : R2 → R3 , transformações lineares, dadas por:
−1 1
1 −1 0
[T ]B
A = e [L]AB =
1 1 .
1 0 1
−1 2
Também considere as bases ordenadas de R2 e R3 :
1 1 3
1 1
A0 = { , } e B 0 = {−1 , −2 , 1 }.
−1 −2
2 1 −1
0 0
(a) Calcule [I]A A B B
A , [I]A0 , [I]B e [I]B 0
0 B0
(b) [T ]B B
A , [T ]A0 , [T ]A0
0 A0
(c) [L]A A
B , [L]B 0 , [L]B 0
(d) [L ◦ T ]BB e [T ◦ L]A
A
−2 1 0
3
15. Considere que A é a base ordenada canônica de R , que B = { 1 , 2 , 0} é uma
0 0 1
3 3
base ordenada de R e que T é o operador sobre R , determinado pela matriz:
2 1 0
[T ]A
B = 1 1
1 .
0 1 −3
120
(a) Determine [I]A B A
B , [I]A e [T ]A
x
(b) Mostre que T é isomorfismo e determine T −1 (y )
z
cosθ −senθ
16. Lembre que a matriz de rotação com ângulo de rotação θ é dada por: .
senθ cosθ
Dados os vértices A = (2, 1), B = (5, 3) e C de um triângulo, determine o vértice C, de
todas as formas possı́veis, tais que 4ABC seja um triângulo isósceles, retângulo em A.
121
Capı́tulo 4
PRODUTO INTERNO
u · v = x1 y1 + x2 y2 + x3 y3 .
−1 2
Por exemplo, −2 · 32 = −2 − 34 + 5 = 53 .
5 1
Em R3 o produto escalar esta relacionado a conceitos geométricos, como o comprimento de um
vetor, vetores perpendiculares, etc. De fato,
→ x
• Dado o vetor u =OP = y ,
z
122
• Dados vetores não nulos u, v ∈ R3 e θ o ângulo entre eles, 0 ≤ θ ≤ π, é bem conhecida a
relação:
u · v = kuk kvk cosθ.
123
4.2 Produto Interno
O produto escalar de R3 pode ser generalizado para espaços vetoriais reais quaisquer.
Definição 4.1. Seja V um espaço vetorial sobre R, diremos que a aplicação, denotada h , i e
dada por:
V × V 7−→ R
(u, v) → hu, vi
é um produto interno sobre V , quando verifica as propriedades:
O espaço vetorial V munido de um produto interno h , i é dito espaço vetorial real com
produto interno.
Exemplos 4.2. 1. Produto escalar em Rn .
x1 y1
.. ..
Dados u = . e v = . , define-se o produto escalar de u e v como,
xn yn
i=n
X
u · v = x1 y1 + . . . + xn yn = xi y i .
i=1
124
n
que h, i é um produto interno, sejam u, v, w ∈ R , u, v como dados acima e
Verifiquemos
z1
..
w = . .
zn
•
* x1 y1 z1 +
.. .. ..
hu, v + wi = . , . + .
xn yn zn
= p1 x1 (y1 + z1 ) + . . . + pn xn (yn + zn )
= (p1 x1 y1 + . . . + pn xn yn ) + (p1 x1 z1 + . . . + pn xn zn )
= hu, vi + hu, wi
Este tipo de produto interno é chamado produto escalar com pesos ou produto in-
terno euclideano com pesos. Por exemplo em R3 podemos definir o produto interno,
x1 y1
hu, vi = x1 y1 + 2x2 y2 + 3x3 y3 , onde u = x2 , v = y2 ,
x3 y3
*−3 2 +
assim 1 , −1 = −6 + 2(−1) + 3(10) = 22.
2 5
3. Consideremos Rn e A uma matriz invertı́vel de ordem n. Dados u, v ∈ Rn , usando o
produto escalar definimos:
125
0 3
Por exemplo, A = é invertı́vel, logo temos em R2 o produto interno, dado para
2 −1
x s
u= ev= , como
y t
x s
hu, vi = A ·A
y t
3y 3t
= ·
2x − y 2s − t
= 9yt + (2x − y)(2s − t)
= 4xs − 2xt − 2ys + 10yt.
4. No espaço C([a, b]) das funções contı́nuas no intervalo [a, b], define-se:
Z b
hf, gi = f (x)g(x)dx, f, g ∈ C([a, b]).
a
acima, logo h, i
Pelas propriedades da integral, é claro que são válidas as propriedades √
é um produto interno em C([a, b]). Por exemplo, se f (x) = x, g(x) = x ∈ C([0, 1]),
temos:
R1 √ R1
hf, gi = 0 x xdx = 0 x3/2 dx = 25 x5/2 |10 = 25 .
Propriedades 4.3. Dado um espaço vetorial V com produto interno h, i, valem as proprieda-
des:
1. h0V , vi = hv, 0V i = 0.
126
2 3
Exemplos 4.4. 1. No caso do produto escalar em
R e R , a norma de um vetor é exacta-
x
mente seu comprimento. Por exemplo, se u = , temos:
y
√ p
kuk = u·u= x2 + y 2 ,
A distânciaentre
vetores
coincide com o conceito
geométrico: por exemplo para vetores
x x x − x
de R2 , u = , v = 1 , temos u − v = 1
e,
y y1 y − y1
p
d(u, v) = ku − vk = (u − v) · (u − v)
p
= (x − x1 )2 + (y − y1 )2 .
Podemos calcular os produtos internos entre duas combinações lineares de vetores, se são co-
nhecidos os produtos internos dois a dois, para isso basta notar que
n
X
hα1 u1 + . . . + αn un , β1 v1 + . . . + βn vn i = αi βj hui , vj i , onde
i,j=1
ui , vj ∈ V e αi , βj ∈ R.
Exemplo 4.5. Se V é um espaço com produto interno com u, v ∈ V tais que hu, vi = −2, kuk =
4 e kvk = 3 então,
Propriedades 4.6. Dado o espaço vetorial V , com produto interno h, i e dados u, v ∈ V são
válidas:
127
1. Homogeneidade: kαuk = |α| kuk, para todo escalar α ∈ R.
De fato,
kαuk2 = hαu, αui = α2 hu, ui = α2 kuk2 ⇒ kαuk = |α| kuk .
De fato,
ku + vk2 = hu + v, u + vi
= hu, ui + hu, vi + hv, ui + hv, vi
= kuk2 + 2 hu, vi + kvk2
≤ kuk2 + 2 kuk kvk + kvk2 = (kuk + kvk)2
hu, vi
−1 ≤ ≤ 1,
kuk kvk
como a função coseno é uma bijeção de [0, π] em [−1, 1] então existe um único θ ∈ [0, π] tal
que,
hu, vi
cos θ = ,
kuk kvk
θ é dito ângulo entre u e v.
A definição generalizada de ângulo entre vetores, no caso particular dos espaços euclideanos R2
e R3 , é exatamente o conceito geométrico.
1
3
Por exemplo, no espaço euclideano (com produto escalar) R o ângulo entre u = 0 e v =
1
1
−1 é tal que:
0
u·v 1 1 π
cos θ = =√ √ = , ∴ θ= .
kuk kvk 2 2 2 3
128
u
Observação 4.7. Se V é um espaço com p.i. e u ∈ V é não nulo, então o vetor é um
kuk
vetor unitário no espaço gerado por u, de fato, pela homogeneidade da norma temos:
u 1 1
= u = kuk = 1,
kuk kuk kuk
este processo é chamado normalização de u. Por exemplo, no espaço euclideano R3 ,
−2 √ √
u = 5 , usando o produto escalar temos kuk = 4 + 25 + 9 = 38, logo o vetor
3
−2 −2
√1 5 é unitário. No caso do produto com pesos do exemplo 2, o vetor u = 5 tem
38
3 3
√ −2
norma kuk = 55, normalizando u obtemos o vetor unitário √155 5 .
3
4.4 Ortogonalidade
No caso particular dos espaços euclideanos R2 e R3 , é conhecido que dois vetores são perpen-
diculares, se e somente se, seu produto escalar é nulo, esta caracterização motiva a introdução
desse conceito em qualquer espaço vetorial com produto interno.
Definição 4.8. Seja V um espaço com produto interno h, i, diremos que vetores u, v ∈ V são
ortogonais, simbolicamente u⊥v, quando,
hu, vi = 0.
É claro que, para vetores não nulos, ortogonalidade equivale ao ângulo entre os vetores ser de
π
2
, pois:
hu, vi π
cosθ = = 0, 0 ≤ θ ≤ π ⇔ θ = .
kuk kvk 2
2 a −b
Exemplos 4.9. 1. No espaço euclideano R os vetores u = ev =± são ortogonais
b a
a −b
pois · = −ab + ab = 0.
b a
6 8
2. Os vetores u = −5 e v = 6 do espaço euclideano R3 são ortogonais, pois
2 −9
u · v = 48 − 30 − 18 = 0.
Os mesmos vetores u, v dados, não são ortogonais no espaço R3 com o produto escalar
com pesos 2, 1, 3, pois
hu, vi = 2(48) − 30 + 3(−18) = 12 6= 0.
129
Propriedades 4.10. Dados um espaço vetorial V com h, i e vetores u, v, w ∈ V , temos:
1. 0V ⊥u, ∀ u ∈ V
2. u⊥u ⇔ u = 0V
3. u⊥v ⇔ v⊥u
Propriedades 4.11 (Teorema de Pitágoras). Seja V um espaço vetorial com produto interno
h, i e sejam u, v ∈ V vetores não nulos e ortogonais, então:
W ⊥ = {u ∈ V / u⊥w, ∀ w ∈ W }.
A seguinte propriedade mostra que para construir W ⊥ é suficiente usar uma base de W .
130
Para verificar a propriedade 4.14 basta ver que,
k
X
hu, α1 w1 + . . . + αk wk i = αi hu, wi i , ∀ αi ∈ R.
1
1 −2
3
Exemplo 4.14. Considere o espaço euclideano R e os vetores w1 = 2 e w2 = 1 .
1 −1
3
(a) u = 1 é ortogonal ou não ao subespaço W = [w1 , w2 ]?
−5
portanto u ∈ W ⊥ .
(b) Geometricamente é evidente que W ⊥ é a reta que contém u, vejamos que algebricamente
temos a mesma conclusão.
Observe que
x 1 x −2 x
⊥
v = y ∈ W ⇔ 2 · y = 0,
1 · y = 0,
z 1 z −1 z
x + 2y + z = 0
daı́ temos as equações: . Na forma matricial este sistema corres-
−2x + y − z = 0
ponde a
x 0
1 2 1
y = 0 ,
−2 1 −1
z 0
1 2 1 1 2 1 1 0 3/5
escalonando → → cuja solução é,
−2 1 −1 0 5 1 0 1 1/5
3
x = 3t, y = t, z = −5t, onde t ∈ R ou seja v = t 1 = tu, portanto W ⊥ é a reta
−5
gerada por u.
(W ⊥ )⊥ = W e W ⊕ W ⊥ = R3 .
131
Propriedades 4.15. Considere um subespaço vetorial W de um espaço V com produto interno
h, i.
1. (W ⊥ )⊥ = W
2. W ∩ W ⊥ = {0V }
4. {0V }⊥ = V e V ⊥ = {0V }.
Col(A)⊥ = N ul(At ), em Rm .
1 3
⊥ 2
N ul(A) subespaço de R , considerando o produto escalar em cada espaço.
132
• Determinemos Col(A)⊥ . Usando a igualdade (Col(A))⊥ = N ul(At ) ou impondo direta-
mente as condições de ortogonalidade chegamos ao sistema homogêneo,
2x + 2y + z + w = 0
. Escalonando a matriz de coeficientes,
x − z + 3w = 0
2 2 1 1 2 2 1 1 2 0 −2 6 1 0 −1 3
→ → → ,
1 0 −1 3 0 2 3 −5 0 2 3 −5 0 1 3/2 −5/2
2 6
−3 5
a solução é x = z+3w, y = −3z/2+5w/2. Logo, uma base para Col(A)⊥ é { 2 , 0}.
0 2
0
• Para obter N ul(A) ⊆ R podemos notar que N ul(A) = {
⊥ 2
}, logo N ul(A)⊥ = R2 ,
0
ou pela igualdade N ul(A)⊥ = Col(At ) = R2 .
Definição 4.19. Dado um espaço vetorial V , com produto interno h, i e dado um conjunto
S = {u1 , . . . , uk }.
(a) S é dito conjunto ortogonal quando, hui , uj i = 0, para todo i 6= j
(b) S é dito conjunto ortonormal, se é um conjunto ortonormal de vetores unitários.
(c) S é uma base ortogonal, se é uma base e conjunto ortogonal. S é uma base ortonormal,
se é uma base e conjunto ortonormal.
Note que α = {v1 , . . . , vm } ser uma base ortonormal de V significa que,
0, se i 6= j
hvi , vj i = .
1, se i = j
Proposição 4.20. Todo conjunto ortogonal de vetores não nulos β = {u1 , . . . , uk } é um con-
junto LI.
α1 u1 + . . . + αk uk = 0V ,
0 = h0, ui i = hα1 u1 + . . . + αk uk , ui i
0 = α1 hu1 , ui i + . . . + αk huk , ui i
0 = αi hui , ui i ,
133
Da proposição anterior temos que, dado um conjunto β ortogonal de vetores não nulos de V ,
para determinar se β é uma base de V , basta que gere V ou que tenha tantos vetores quanto
a dimensão do espaço, pois β é LI.
Exemplos 4.21.
1 0 0
1. No espaço euclideano R3 a base canônica, α = {e1 = 0 , e2 = 1 , e3 = 0} é uma
0 0 1
base ortonormal já que:
logo é uma base ortogonal de R3 , mas β não é ortonormal pois os vetores não são unitários.
Para normalizar β calculamos,
√ √ √
kuk = 3, kvk = 2 e kwk = 6,
134
e
1 Z 1
4√ 2
Z
8 16 1
hg, gi = (x − x) dx = (x2 − x3/2 + x) dx = ,
0 5 0 5 25 75
p p
logo, kf k = 1/2 e kgk = 1/75, assim uma base ortonormal para W é
√ √ 4√
{ 2x, 75(x − x)}.
5
Coeficientes de Fourier. As bases ortogonais auxiliam, por exemplo, no cálculo das coorde-
nadas de um vetor.
Seja V um espaço de dimensão m, com produto interno h, i, com uma base ortogonal α =
{v1 , . . . , vm }. Dado u ∈ V , calculemos os escalares a1 , . . . , am tais que,
u = a1 v1 + . . . + am vm ,
fazendo o produto interno de u com vi e usando a ortogonalidade da base α, temos
hu, vi i = ha1 v1 + . . . + am vm , vi i = ai hvi , vi i ,
logo,
hu, vi i hu, v1 i hu, vm i
ai = , i = 1, . . . , m e u = v1 + . . . + vm .
hvi , vi i hv1 , v1 i hvm , vm i
Os escalares da proposição acima são chamados coeficientes de fourier de u na base α.
E se α é uma base ortonormal, então
ai = hu, vi i , i = 1, . . . , m e u = hu, v1 i v1 + . . . + hu, vm i vm .
Considerando a base α ortonormal e na ordem dada, podemos descrever as coordenadas de u
em α.
hu, v1 i
[u]α = ... ∈ Rm .
hu, vm i
Exemplo 4.22. Considere o espaço euclideano V = R3 e as bases
1 1 1
α = {u = 1 , v = −1 , w = 1 }, ortogonal,
1 0 −2
1 1 1
α0 = {u0 = √ u, v 0 = √ v, w0 = √ w}, ortonormal.
3 2 6
Visto que α é uma base
ortogonal,
podemos calcular as coordenadas em α (coeficientes de
6
fourier) do vetor X = −2 , na forma:
5
X ·u 9 X ·v X ·w
a1 = = = 3, a2 = = 4, a3 = = −1,
u·u 3 v·v w·w
135
3
portanto, [X]α = 4 ou seja X = 3u + 4v − w.
−1
√ √
Da mesma√forma, podemos calcular [X]α0 , neste caso X · u0 = 3 3, X · v0 = 4 2 e
X · w0 = − 6, logo: √
3√3
∴ [X]α0 = 4 √2 .
− 6
• Também √ p
kuk = u·u= [u]α · [u]α = k[u]α k .
Exemplo 4.23. Consideremos o vetor X e a base ortonormal α0 do espaço euclideano R3 do
exemplo 4.22, verificamos que:
√ √ √
k[X]α0 k2 = (3 3)2 + (4 2)2 + (− 6)2 = 65
e
kXk2 = 62 + (−2)2 + (5)2 = 65.
(a) Uma matriz A de ordem m é ortogonal, se e somente se, suas colunas (ou linhas) formam
uma base ortonormal de Rm .
136
(b) As matrizes mudança de base entre bases ortonormais do espaço euclideano Rm são ma-
trizes ortogonais.
Sabemos que [I]αβ = ([I]βC )−1 [I]αC = ([I]βC )t [I]αC = [I]βC [I]αC , pois [I]βC é ortogonal e simétrica.
√ √ √ √
−3/5 4/5 1/√2 1/ √2 1/5√2 −7/5√ 2
[I]αβ = = .
4/5 3/5 1/ 2 −1/ 2 7/5 2 1/5 2
Verifica-se que [I]αβ é ortogonal, pois as colunas tem norma euclideana 1 e são ortogonais entre
si.
O seguinte teorema garante a existência de bases ortogonais em espaços com produto interno
e dimensão finita.
Teorema 4.26. Todo espaço vetorial V , de dimensão finita m, com produto interno h, i possui
uma base ortogonal.
A demonstração do teorema pode ser formalizada por indução matemática sobre m = dimV ,
usando que para m ≥ 2 podemos escrever V = W ⊕W ⊥ , com W = [u], u 6= 0V , assim a hipótese
de indução é aplicada a W ⊥ . A base ortogonal para V é obtida reunindo u e a base ortogonal
de W ⊥ .
v = w + w0 ,
v − w = w0 ∈ W ⊥ ,
137
Para determinar a projeção ortogonal de v ∈ V em W , suponhamos que dimW = m ≤ n e que
β = {w1 , . . . , wm } é uma base ortonormal para W , assim,
PW (v) = w = a1 w1 + . . . + am wm ∈ W,
hv − w, wi i = 0, ∀wi ∈ β,
equivalentemente,
hv, wi i
daı́ ai = . Portanto w = PW (v) é da forma:
hwi , wi i
hv, w1 i hv, wm i
PW (v) = w1 + . . . + wm .
hw1 , w1 i hwm , wm i
138
Observação 4.29.
0 1 −2
1
−2
Calcule a projeção ortogonal de v =
2 em W . Como a base dada é ortonormal, então:
−3
v · w1 v · w2 v · w3
PW (v) = w1 + w2 + w3
w1 · w1 w2 · w2 w3 · w3
1 −1 0
3 0 −6 2 4 1
= + +
2 1 7 1 2 0
0 1 −2
33
1 4 .
=
14 9
−68
Seja um espaço V com produto interno e dimensão finita. Uma forma prática de construir
bases ortogonais para V , cuja existência foi estabelecida pelo teorema 4.26, é o método é
chamado processo de ortogonalização de Gram-Schmidt, onde a partir de uma base
dada qualquer de V obtemos uma base ortonormal associada a inicial.
Seja dimV = n e seja β = {u1 , · · · , un } uma base de V , a partir de β vamos construir uma base
ortogonal de V . A construção é feita por recorrência a partir do primeiro vetor de β. Iniciamos
tomando v1 = u1 e construı́mos o k-ésimo vetor, vk , pertencente ao complemento ortogonal
139
do espaço gerado pelos vetores anteriores, para garantir a ortogonalidade do conjunto, fazemos
isso substraindo de uk a sua projeção ortogonal sobre [v1 , . . . , vk−1 ]. Como
então
huk , v1 i huk , vk−1 i
vk = uk − Pv1 ,...,vk−1 (uk ) = uk − v1 − . . . − vk−1 ,
hv1 , v1 i hvk−1 , vk−1 i
assim, temos:
v1 = u1 ,
hu2 , v1 i
v2 = u2 − v1 ,
hv1 , v1 i
hu3 , v1 i hu3 , v2 i
v3 = u3 − v1 − v2
hv1 , v1 i hv2 , v2 i
..
.
huk , v1 i huk , v2 i huk , vk−1 i
vk = uk − v1 − v2 − . . . − vk−1 ,
hv1 , v1 i hv2 , v2 i hvk−1 , vk−1 i
..
.
hun , v1 i hun , v2 i hun , vn−1 i
vn = un − v1 − v2 − . . . − vn−1 .
hv1 , v1 i hv2 , v2 i hvn−1 , vi−1 i
{v1 , . . . , vi } e {u1 , . . . , ui },
Exemplos 4.31.
140
• Para calcular v2 será necessário, u2 · v1 = 1 e v1 · v1 = 2, assim,
0 1 −1
u2 · v1 1 1
v2 = u2 − v1 = 1 − 2 1 = 2 1 .
v1 · v1
−1 0 −2
• Como u3 · v1 = −2, u3 · v2 = −1 e v2 · v2 = 23 , então:
1
−1 1 −2 −1
u3 · v1 u3 · v2 2 1 1
v3 = u3 − v1 − v2 = −1 − (−1) 1 − (− 3 ) 2 = 3 1 .
v1 · v1 v2 · v2
1 0 −1 1
1 −1 −1
Portanto, { 1 , 1 , 1 } é uma base ortogonal de R3 . Normalizando obtemos
0 −2 1
a base ortonormal:
1 −1 −1
1 1 1
{√ 1 , √ 1 ,√ 1 }.
2 0 6 −2 3 1
0 1
−1
1
• v1 = u1 =
1 .
0
• Para calcular v2 será necessário, u2 · v1 = −1 e v1 · v1 = 3, assim,
1 −1 2
u2 · v1 0 1 1 1 1
v2 = u2 − v1 = 0 + 3 1 = 3 1.
v1 · v1
1 0 3
−1 2
1 1 4
1 , 1} é uma base ortogonal de R . Normalizando obtemos a base
Portanto, {
0 3
141
ortonormal:
−1 2
1 1 1 1
{√ , √ }.
3 1 15 1
0 3
N uc(PW ) = W ⊥ , e Im(PW ) = W.
Tomando uma base qualquer para W , construı́mos a matriz A de ordem m×n, cujas colunas são
os vetores da base, logo W = Col(A). Claramente para todo v ∈ Rm , PW (v) ∈ W = Col(A),
logo existe X ∈ Rn tal que PW (v) = AX.
Sendo AX a projeção ortogonal sobre W de v, temos:
Logo,
PW (v) = AX = A(At A)−1 At v,
portanto a matriz de PW na base canônica é
Observação 4.33. Caso a base de W seja ortonormal, é simples ver que At A = Im , assim
[PW ] = AAt .
142
Exemplo 4.34.
Determine
o operador de projeção ortogonal sobre o espaço W gerado pelos
1 0
vetores u = −1 e v = 1 .
0 2
1 0 1 0
t 1 −1 0 2 −1 t −1 1 5 1
Temos, A = −1 1 , logo A A =
−1 1 = e (A A) = ,
0 1 2 −1 5 9 1 2
0 2 0 2
assim,
1 0 5 −4 2
1 5 1 1 −1 0
[PW ]C = A(At A)−1 At = −1 1 = −4 5 2 ,
9 1 2 0 1 2
0 2 2 2 8
portanto
5x − 4y + 2z
1
PW (x, y, z) = −4x + 5y + 2z .
9
2x + 2y + 8z
4.6 Exercı́cios
2 3
3
1. Considere os vetores de R , u = −1 , v = 0 . Determine hu + 3v, u − vi, k2u − vk,
3 −3
d(u, v), d(u + v, u − v) nos seguintes casos:
(a) h, i é o produto escalar.
(b) h, i é o produto interno com pessos p1 = 1, p2 = 2, p3 = 1
2 −1 2 −1
2. Considere o espaço vetorial V = R e os vetores u = ,v= , w= ∈ R2 ,
3 5 2
calcule k2u − vk e d(u + v, v − w) nos seguintes casos :
a) h, i é o produto escalar.
x1 y
b) , 1 = 3x1 y1 + 2x2 y2
x2 y2
3. Suponha que u, v, w são vetores de um espaço vetorial com produto interno h, i, tais que:
hu, vi = 2, hv, wi = −3, hu, wi = 5, kuk = 1, kvk = 2 e kwk = 7. Calcule:
a) hu + v, v + wi
b) h2v − w, 3u + 2wi
c) hu − v − 2w, 4u + vi
d) ku + vk e) k2w − vk f) ku − 2v + 4wk .
143
4. Sejam V um espaço vetorial com produto interno e u, v ∈ V tais que kuk = 3 e kvk = 5.
Se existirem, determine os valores de k ∈ R de forma que os vetores u − kv e u + kv sejam
ortogonais.
5. Sejam V um√espaço vetorial com produto interno e u, v ∈ V tais que kuk = 3, kvk = 4 e
ku + vk = 2 5. Determine o ângulo entre u e v.
6. Sejam V um espaço vetorial com produto interno e u, v ∈ V vetores
√ unitários e ortogonais.
Determine, justificando, se é verdadeiro ou falso que ku − vk = 2.
7. Seja V um espacio vetorial com produto interno, mostre que para todos u, v ∈ V tem-se:
(a) hu + v, u − vi = kuk2 − kvk2
(b) ku + vk2 + ku − vk2 = 2 kuk2 + 2 kvk2 .
8. Determine se o ângulo entre os vetores u, v ∈ V é agudo, obtuso ou reto.
2 1
3
(a) V = R , espaço euclideano e u = −1 e v = −2
1 −1
1 −3
2ev= 1
(b) V = R4 , espaço euclideano e u =
3 2
4 −2
9. Considere o triâgulo ABC, com vértices A = (1, 1, −1), B = (−3, 2, −2) e C = (2, 2, −4).
Mostre que ABC é um triângulo retângulo.
10. Seja ABCD o retângulo com vértices A = (1, 2, 3), B = (3, 6, −2) e C = (0, 5, −4),
determine o vértice D.
11. Considere espaços euclideanos Rn . Em cada caso determine a dimensão e uma base para
o espaço indicado.
x
⊥
(a) W , onde W = { y / 2x − y + 3z = 0}
z
x
⊥
(b) W , onde W = { y / x + y = 0, 2x − 2y − z = 0}
z
1 −1 3
5 2 1
(c) (Col(A))⊥ e N ul(A)⊥ , para A =
0 1 −2
−1 −1 1
1 0
−1 1
(d) (Col(A))⊥ e N ul(A)⊥ , para A = 3 −2
−2 1
144
12. Dados, em R3 , o produto interno e o subespaço W , determine a dimensão e uma base
para W ⊥ .
1
a) O produto escalar com pesos: p1 = 2, p2 = p3 = 1 e W é gerado pelos vetores −1 e
1
1
2 .
−1
z
b) O produto escalar com pesos: p1 = 2, p2 = 3, p3 = 4 e W = { y : y, z ∈ R}.
z
1
√ a
2
13. Considere o espaço euclideano R e os vetores u = 0 e v = 12 . Determine valores
3 √
√1 −b
2
para a, b tais que o conjunto {u, v} seja ortonormal.
14. Considere o espaço euclideano R3 . Verifique que
−1 2 0
β = { 1 , 1 , 1 }
1 1 −1
é uma
base ortogonal de R3 . Use os coeficientes de fourier para determinar [w]β , sendo
4
w = 0.
1
3
é uma
base
ortonormal de R . Use os coeficientes de fourier para determinar [w]β , sendo
3
w = −2.
1
16. Sejam V um espaço vetorial com produto interno h, i e β uma base de V , use o processo
de Gram-Schmidt para achar uma base ortonormal β 0 de V, nos seguintes casos.
2 1 2
a) V = R munido do produto escalar e β = { , }
2 1
1 −1 −4
b) V = R3 munido do produto escalar e β = {2 , 2 , −4}
3 1 0
145
c) V = R3
munido
do produto escalar com pesos p1 = 1, p2 = 2, p3 = 1 e β =
1 1 0
{1 , 0 , 2}
0 1 0
1
17. (a) Para o espaço euclideano R3 encontre uma base ortogonal que contenha o vetor 3
5
(b)
Para
o espaço euclideano R4 encontre uma base ortogonal que contenha os vetores
1 1
2 0
e
−1 1
0 3
18. Determine bases ortonormais em relação ao produto escalar em Rn , para o subespaço
W de V :
1 1
3
(a) V = R , W1 , gerado por { 0 , −1}
1 0
x
3
(b) V = R , W2 = { y ∈ R3 / x − y + z = 0}
z
x
y
(c) V = R4 , W3 = { 4
z ∈ R /x + y − 2z − 2w = 0}.
w
19. Em cada caso, encontre a projeção ortogonal de v ∈ V sobre W , w = PW (v) e verifique
que w0 = v − PW (v) ∈ W ⊥ .
1
(a) V e W = W1 dados no exercı́cio 18(a) e v = −1
2
−1
(b) V e W = W2 dados no exercı́cio 18(b) e v = −1
1
1
0
(c) V e W = W3 dados no exercı́cio 18(c) e v = −1
0
x
20. Seja W o subespaço W = {y ∈ R3 /5x − 3y + z = 0}. Determine a matriz do operador
z
de projeção ortogonal PW , na base canônica de R3 .
146
21. Considere o operador P sobre R2 de projeção ortogonal sobre a reta
que passa pela origem
cos2 θ sen θcos θ
e de inclinação θ. Mostre que a matriz na base canônica de P é .
sen θcos θ sen θ
22. Em cada caso determine se a matriz A dada é ortogonal, nesse caso determine sua inversa.
1 1 1 1 1
1 1 1
0 1 − √ √ √
√ 2 2 2 2
2
2 − √62 √13 1 −5 1 1
a) A = 1 0 0 b) A = 0
c) A = 21 1 6 61 6
5
6 3 −
1 1 1 1
0 0 √2 √ √ √ 2 6 6 6
1 1 5 1
2 6 3
2 6
− 6 6
Mostre que as bases são ortonormais e calcule a matriz mudança de base de α para β.
No espaço euclideano R3 temos que a distância de um vetor v a um plano W que passa pelo
origem, é dada pelo comprimento do segmento perpendicular de v a W , ou seja v − PW , e
trata-se da menor distância de v a um vetor de W . Temos a mesma situação em um espaço V
com produto interno h, i.
147
Sejam W um subespaço de V e um vetor v ∈ V , verifiquemos que a menor distância de v
a vetores de W é kv − PW (v)k. Notemos que, para todo w ∈ W os vetores v − PW (v) e
PW (v) − w ∈ W são ortogonais, usando Pitágoras temos:
kv − PW (v)k = minw∈W kv − wk ,
Seja W = Col(A), assim basta resolver AX = PW (b), pois a projeção ortogonal determine
a distância mı́nima desde b. A solução X ∈ Rn existe, pois agora PW (b) ∈ Col(A), e é dita
solução em mı́nimos quadrados (SMQ), o valor e = kAX − bk é chamado erro da SQM.
Determinação da SMQ.
Procuramos X tal que, AX = PW (b), como visto anteriormente:
At AX = At b,
X = (At A)−1 At b.
148
1 1 2 1 1 2 1 1 2
1 2 2 → 0 1 0 → 0 1 0 , mostra que o sistema é impossı́vel.
1 3 4 0 2 2 0 0 2
Para determinar
a SMQ do sistema, consideremos a equação normal: At AX = t
A b. Neste
1 1 2
caso, A = 1 2 tem colunas LI (ou seja que At A será invertı́vel) e b = 2 , logo a
1 3 4
equação normal é:
1 1 2
1 1 1 x 1 1 1
At AX = 1 2 = At b = 2
1 2 3 y 1 2 3
1 3 4
3 6 x 8
= ,
6 14 y 18
logo, −1
x 3 6 8 1 14 −6 8 1 4
X= = = = .
y 6 14 18 6 −6 3 18 6 6
Logo, x = 2/3 e y = 1. O erro cometido pela aproximação é dado por e = kAX − bk. Como
1 1 2 −1/3
2/3
AX − b = 1 2 − 2 = 2/3 ,
1
1 3 4 −1/3
q p
1
então, e = 9
+ 49 + 1
9
= 2/3 ≈ 0, 81.
149