Escolar Documentos
Profissional Documentos
Cultura Documentos
2006-2007
Apontamentos Teóricos
e
Listas de Exercı́cios
– Versão 2.0 (de 2005-2006) –
Escola Naval
2 Espaços Vectoriais 19
2.1 A noção de espaço vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2 Dependência e independência linear . . . . . . . . . . . . . . . . . . . . . . . 22
2.3 Conjuntos de geradores e bases . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4 Subespaços vectoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.5 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3 Aplicações Lineares 43
3.1 Aplicações lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2 Matrizes de aplicações lineares . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.3 Matrizes de mudança de base . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.4 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5 Determinantes 93
5.1 Definição e propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.2 Aplicações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.2.1 Inversa de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.2.2 Regra de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
5.3 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3
6 Valores e Vectores Próprios 111
6.1 Valores e vectores próprios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.2 Subespaços próprios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
6.3 Diagonalização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
6.4 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
4
Capı́tulo 1
Neste capı́tulo, e em todos os seguintes, sempre que referirmos o corpo K, excepto se ex-
pressamente indicado em contrário, estamos a considerar o corpo R dos números reais ou o
corpo C dos números complexos, com as operações usuais. Os elementos de K são usualmente
designados por escalares.
1.1 Matrizes
Definição 1.1.1 Uma matriz A do tipo (ou dimensão) m × n sobre um corpo K é um
quadro de m × n números de K dispostos em m filas horizontais, a que chamamos linhas e
contamos de cima para baixo, e em n filas verticais, a que chamamos colunas e contamos da
esquerda para a direita:
··· ···
a1 1 a1 2 a1 j a1 n
a2 1 a2 2 ··· a2 j ··· a2 n
.. .. .. .. .. ..
. . . . . .
Am×n = [ai j ]m×n =
ai 1 ai 2 · · · ai j · · · ai n
. .. .. .. .. ..
..
. . . . .
am 1 am 2 · · · am j · · · am n m×n
(não havendo perigo de ambiguidade, é usual suprimir-se o tipo da matriz indicado nas
notações atrás em ı́ndice). Note-se que certos autores usam parêntesis curvos, em vez de
rectos, para delimitar os elementos da matriz. O número ai j (i ∈ {1, . . . , m}, j ∈ {1, . . . , n}),
que se encontra na linha i e na coluna j da matriz A, diz-se o elemento da posição (i, j) ou
a (i, j)-ésima entrada de A.
O conjunto das matrizes do tipo m × n sobre um corpo K representa-se por Mm×n (K).
5
6 Álgebra das Matrizes
1 ··· 0 0
0 0
0 ··· 0 0
1 0
1 0 0
0 ··· 0 0
0 1
1 0
I2 = I3 = 0 1 0 In = (n ∈ N)
0 1
.. .. ..
. . . .. ..
0 0 1
. . . . .
0 0 0 ··· 1 0
0 0 0 · · · 0 1 n×n
2 0 0 7 0 0 2 3 −4 2 0 0
E = 0 −1 0 F = 0 7 0 G = 0 −1 9 H = 3 −1 0
0 0 5 0 0 7 0 0 5 −1 3 5
2 3 −4 2 0 0 2 3 −4 0 −3 4
J = 0 −1 9 L= 3 0 0 M = 3 0 1 N = 3 0 −1
0 0 0 −1 3 5 −4 1 −2 −4 1 0
2
−1 0
P = −1 1 2 0 1×4
Q= 0 1 −2 0 7 1×5
R=
0
S= 0
−3 3×1
3 4×1
0 0 0 0 0
0 0
03×1 01×4 = 02×2 = 03×4
= 0 0 0 0 0 = 0 0 0 0 H
0 0
0 0 0 0 0
Definições 1.1.3 Consideremos uma matriz A = [ai j ]m×n sobre um corpo K. Dizemos
que:
1. A é uma matriz quadrada se o seu número de linhas for igual ao número de colunas,
i.e. m = n. Neste caso, dizemos que A é uma matriz quadrada de ordem n;
2. A é uma matriz linha se só possuir uma linha, i.e. m = 1;
3. A é uma matriz coluna se só possuir uma coluna, i.e. n = 1;
4. A é uma matriz nula se todos os seus elementos forem nulos, i.e. ai j = 0, para quaisquer
i ∈ {1, . . . , m} e j ∈ {1, . . . , n}. A matriz nula do tipo m × n representa-se por 0m×n ,
ou simplesmente por 0 quando não houver perigo de ambiguidade (ver Exemplos 1.1.2).
Definições 1.1.5 Consideremos uma matriz A = [ai j ]n×n quadrada de ordem n sobre um
corpo K. Dizemos que:
1. Os elementos da forma ai i , com i ∈ {1, . . . , n} são (os elementos d)a diagonal principal
de A;
5. Uma matriz diagonal em que todos os elementos da diagonal principal são iguais diz-se
uma matriz escalar;
Exemplos 1.2.2
2 −1 5 3 2+5 −1 + 3 7 2
+ = =
3 0 −4 7 3 + (−4) 0 + 7 −1 7
1 4 −1 −1 3 7 1 + (−1) 4 + 3 −1 + 7 0 7 6
+ = =
2 3 0 0 4 −2 2+0 3 + 4 0 + (−2) 2 7 −2
1 3 −5 4 + 2 −7 6 5 = 1 + 2 3 + (−7) −5 + 6 4 + 5 = 3 −4 1 9
−2 −3 −2 + (−3) −5
0 + 9 = 0+9 = 9 H
5 2 5+2 7
Definição 1.2.3 Dada uma matriz A = [ai j ]m×n do tipo m × n sobre K, definimos a matriz
simétrica de A, e denotamo-la por −A, como sendo a matriz cujas entradas são as simétricas
da matriz A, i.e. −A = [xi j ]m×n , em que xi j = −ai j , para quaisquer i ∈ {1, . . . , m} e
j ∈ {1, . . . , n}.
Exemplos 1.2.4
2 −1 −2 1 1 4 −1 −1 −4 1
− = − =
3 0 −3 0 2 3 0 −2 −3 0
−2 2
− 1 3 −5 4 = −1 −3 5 −4 − 0 = 0 H
5 −5
Como é usual para números reais, dadas duas matrizes A, B ∈ Mm×n (K), escrevemos
abreviadamente A − B para representar a matriz A + (−B).
Definição 1.2.5 Dados uma matriz A = [ai j ]m×n sobre K e um escalar λ ∈ K, definimos
a matriz λA, a que chamamos multiplicação escalar de λ por A, como sendo a matriz cujas
entradas resultam de multiplicar λ pelos elementos de A, i.e. λA = [xi j ]m×n , em que
xi j = λai j , para quaisquer i ∈ {1, . . . , m} e j ∈ {1, . . . , n}.
Exemplos 1.2.6
(−5) 1 3 −5 4 = (−5) · 1 (−5) · 3 (−5) · (−5) (−5) · 4 = −5 −15 25 −20
2 −1 4 · 2 4 · (−1) 8 −4
4 = = H
3 0 4·3 4·0 12 0
Definição 1.2.7 Dada uma matriz A = [ai j ]m×n do tipo m × n sobre K, definimos a matriz
transposta de A, e denotamo-la por AT , como sendo a matriz do tipo n × m que resulta de
“trocar” as linhas de A com as colunas de A, i.e. AT = [xi j ]n×m , em que xj i = ai j , para
quaisquer j ∈ {1, . . . , n} e i ∈ {1, . . . , m}.
Operações com matrizes 9
Exemplos 1.2.8
T T 1 2
2 −1 2 3 1 4 −1
= = 4 3
3 0 −1 0 2 3 0
−1 0
1 T
T 3 −2
1 3 −5 4 =
−5
0 = −2 0 5 H
5
4
Definição 1.2.9 Sejam L = x1 x2 · · · xn 1×n uma matriz linha (do tipo 1 × n) e
y1
y2
C = .. uma matriz coluna (do tipo n × 1) sobre um corpo K. Ao escalar
.
yn n×1
LC = x1 y1 + x2 y2 + · · · + xn yn
chamamos produto da linha L pela coluna C.
3
−5
Exemplo 1.2.10 Sejam L = 2 5 0 −4 1×4
eC=
5 . Então
−2 4×1
LC = 2 · 3 + 5 · (−5) + 0 · 5 + (−4) · (−2) = −11. H
Definição 1.2.11 Sejam A = [ai j ]m×n e B = [bi j ]n×p duas matrizes sobre K dos tipos
m × n e n × p, respectivamente. Sejam L1 , . . . , Lm as linhas da matriz A (consideradas
como matrizes linha do tipo 1 × n) e C1 , . . . , Cp as colunas da matriz B (consideradas como
matrizes coluna do tipo n × 1). Definimos o produto da matriz A pela matriz B como
sendo a matriz AB = [xi k ]m×p , do tipo m × p, cujo elemento xi k da posição (i, k) se obtém
multiplicando a linha i de A pela coluna k de B, i.e.
xi k = Li Ck = ai 1 b1 k + ai 2 b2 k + · · · + ai n bn k ,
para quaisquer i ∈ {1, . . . , m} e k ∈ {1, . . . , p}.
Exemplo 1.2.12
−2 0
2 3 4 −5 1
−1 5
0 7 2
−3 −7 =
2 −2 3 6 3×4
4 8 4 ×2
2 · (−2) + 3 · 1 + 4 · (−3) + (−5) · 4 2 · 0 + 3 · 5 + 4 · (−7) + (−5) · 8 −33 −53
(−1) · (−2) + 0 · 1 + 7 · (−3) + 2 · 4 (−1) · 0 + 0 · 5 + 7 · (−7) + 2 · 8 = −11 −33
2 · (−2) + (−2) · 1 + 3 · (−3) + 6 · 4 2 · 0 + (−2) · 5 + 3 · (−7) + 6 · 8 3×2 9 17
H
10 Álgebra das Matrizes
Teorema 1.2.13 Sejam Am×n , Bm×n , Cm×n e Xm×n matrizes do tipo m × n sobre K, Yn×p
uma matriz do tipo n × p sobre K, Zp×q uma matriz do tipo p × q sobre K, W`×m uma matriz
do tipo ` × m sobre K, Mn×n uma matriz quadrada de ordem n sobre K α, β ∈ K e k ∈ N.
Então:
1. A + B = B + A;
2. (A + B) + C = A + (B + C);
3. A + 0m×n = A;
4. A + (−A) = 0m×n ;
5. α(A + B) = αA + αB;
6. (α + β)A = αA + βA;
7. α(βA) = (αβ)A;
8. 1A = A e (−1)A = −A;
12. (A + B)T = AT + B T ;
15. W (A + B) = W A + W B;
16. (A + B)Y = AY + BY ;
1.4 Exercı́cios
As matrizes consideradas são reais.
4. Dada a matriz A = [aij ] do tipo n × n, indique a matriz B = [bij ], do mesmo tipo, tal
que bij = ai,n+1−j .
(a) Determine uma expressão geral para aij , bij , cij e dij .
(b) Calcule, caso seja possı́vel:
i. A + D;
ii. B + C;
iii. αA, com α ∈ R;
iv. A + 0.B (0 ∈ R);
v. 2A − 3D.
Exercı́cios 13
1 2 3 −1 0 −1
6. Sendo A = 2 3 1 e B = 2 3 1 , calcule 3A − 5B.
3 1 2 1 2 0
7 3 18
7. Dada a matriz A = −2 6 11 , determine a matriz B = [bij ] que é um múltiplo
15 17 13
escalar de A e tal que b13 = 6.
X + A = 2(X − B).
– A e D do tipo 2 × 3,
– F e G do tipo 4 × 4,
– B do tipo 3 × 4,
– C do tipo 3 × 2 e
– E do tipo 2 × 4.
(a) 3A;
(b) A + B;
(c) 0B;
(d) B + C;
(e) 4A − 2B;
(f) AB;
(g) AC;
(h) (AC)2 ;
(i) (A − 2B)(3C + D);
(j) A(DB);
(k) (AD)B.
(a) AB;
(b) AD;
(c) AC;
(d) CA;
(e) C 2 ;
(f) DF ;
(g) ED;
(h) EF ;
(i) F E.
Exercı́cios 15
cos θ sen θ cos ϕ sen ϕ
17. Sejam A = eB= . Prove que:
−sen θ cos θ −sen ϕ cos ϕ
cos(θ + ϕ) sen(θ + ϕ)
AB = .
−sen(θ + ϕ) cos(θ + ϕ)
18. Mostre que a equação X 2 − 5X + 4I2 = 0 é satisfeita por cada uma das matrizes:
1 0
(a) .
0 1
4 0
(b) .
0 4
3 −2
(c) .
−1 2
1 3
19. Mostre que uma matriz do tipo 2 × 2 comuta com se e só se é da forma
0 1
α β
, com α e β números reais.
0 α
0 1 0 α β γ
20. Mostre que as matrizes que comutam com 0 0 1 são as da forma 0 α β ,
0 0 0 0 0 α
com α, β e γ números reais.
(a) Y 2 = −I2 ;
(b) Y 4 = I2 ;
(c) (aI2 + bY )(aI2 − bY ) = (a2 + b2 )I2 , para quaisquer números reais a, b.
26. Mostre que existe um número infinito de matrizes A do tipo 2 × 2 tais que A2 = −I2 .
29. Mostre que, se A e B são matrizes do tipo 2 × 2, então a soma dos elementos da
diagonal principal da matriz AB − BA é zero.
31. Deduza a partir dos dois exercı́cios anteriores que, se A, B e C são matrizes do tipo
2 × 2, então
(AB − BA)2 C = C(AB − BA)2 .
34. Prove que, dadas matrizes A, B e C, e sempre que as expressões tenham significado,
tem-se
[A(B + C)]T = B T AT + C T AT .
38. Prove que as matrizes quadradas nulas são as únicas matrizes simultâneamente simé-
tricas e anti-simétricas.
Espaços Vectoriais
1. Está definida em E uma operação binária designada por adição e que, usualmente, se
representa pelo sı́mbolo +,
+ : E × E −→ E
(x, y) 7→ x + y ,
(EV1) (∀x, y ∈ E) x + y = y + x;
(EV2) (∀x, y, z ∈ E) (x + y) + z = x + (y + z);
(EV3) (∃0E ∈ E)(∀x ∈ E) x + 0E = x;
(EV4) (∀x ∈ E)(∃x0 ∈ E) x + x0 = 0E ;
K × E −→ E
(λ, x) 7→ λx ,
tal que:
19
20 Espaços vectoriais
Exemplos 2.1.2
1. O conjunto Mm×n (K) das matrizes do tipo m × n sobre o corpo K, com as operações
usuais de adição de matrizes e multiplicação de um escalar por uma matriz, é um espaço
vectorial sobre K, de acordo com as propriedades estudadas no capı́tulo anterior.
Kn = {(a1 , a2 , . . . , an ) : a1 , a2 , . . . , an ∈ K}.
K × Kn −→ Kn ,
por
α(a1 , . . . , an ) = (αa1 , . . . , αan ),
para quaisquer (a1 , . . . , an ) ∈ Kn e α ∈ K (em que as operações que figuram nos
n-uplos dos segundos membros das igualdades anteriores são as operações adição e
multiplicação em K).
Por K ser um corpo, verifica-se facilmente que (Kn , +) é um grupo comutativo
(tendo-se (0, . . . , 0) como elemento neutro e (−a1 , . . . , −an ) como elemento simétrico
de (a1 , . . . , an )) e que a multiplicação escalar verifica as propriedades (EV5) a (EV8).
Logo, Kn com estas operações (ditas usuais) é um espaço vectorial sobre o corpo K.
Podemos concluir que, com as operações anteriores, qualquer corpo K é um
espaço vectorial sobre si próprio e que, uma vez que R (respectivamente, C) é
um corpo, para qualquer número natural n, Rn (respectivamente, Cn ) é um espaço
vectorial real (respectivamente, complexo).
- -
P ∈ E, como sendo o vector α -
OP com a direcção de-OP, com comprimento igual a
|α| vezes o comprimento de OP e com o sentido de OP, se α > 0, ou o seu contrário,
se α < 0. Com estas operações, o conjunto EO constitui um espaço vectorial real.
Normalmente, este espaço vectorial é identificado com R3 .
4. Seja R[x] o conjunto dos polinómios na variável x com coeficientes reais. Defina-se
em R[x] uma adição da seguinte forma: dados os elementos a0 + a1 x + · · · + am xm ,
b0 + b1 x + · · · + bn xn de R[x], supondo sem perda de generalidade que m ≤ n,
Teorema 2.1.3 Seja E um espaço vectorial sobre um corpo K. Então, para quaisquer
α, β ∈ K e x, y ∈ E, tem-se:
1. 0x = 0E ;
2. α0E = 0E ;
4. (α − β)x = αx − βx,
5. α(x − y) = αx − αy;
6. αx = 0E ⇒ α = 0 ou x = 0E .
22 Espaços Vectoriais
Demonstração.
1. Como 0x = (0 + 0)x = 0x + 0x (por (EV6), então 0x = 0x − 0x = 0E .
2. Por (EV5), α0E = α(0E + 0E ) = α0E + α0E , pelo que α0E = α0E − α0E = 0E .
3. Por (EV5) e por 1, tem-se (−α)x + αx = (−α + α)x = 0x = 0E , pelo que (−α)x = −αx.
Por (EV5) e por 2, tem-se α(−x) + αx = α(−x + x) = α0E = 0E e, portanto, α(−x) = −αx.
4. Tem-se (α − β)x = (α + (−β))x = αx + (−β)x = αx + (−(βx)) = αx − βx, tendo em conta
(EV6) e 3.
5. Por (EV5) e por 3, tem-se α(x − y) = α(x + (−y)) = αx + α(−y) = αx + (−αy) = αx − αy.
6. Admitamos que αx = 0E e que α 6= 0. Então, existe α−1 ∈ K e, por (EV7), 1 e (EV8), tem-se
αx = 0E ⇒ α−1 (αx) = α−1 0E ⇒ (α−1 α)x = 0E ⇒ 1x = 0E ⇒ x = 0E .
Exemplos 2.2.2
1. Sejam E um espaço vectorial sobre um corpo K e x1 , . . . , xn n vectores arbitrários de
E, então 0E é uma combinação linear de x1 , . . . , xn . Com efeito, tem-se
0E = 0x1 + . . . + 0xn .
pelo que a única combinação linear nula (i.e. da qual resulta o vector nulo, neste caso,
o vector v) é a trivialmente nula. Efectuando cálculos análogos aos anteriores, podemos
também mostrar que v se exprime de forma única como combinação linear dos vectores
x1 , x3 e x4 e ainda dos vectores x2 , x3 e x4 .
Se considerarmos os vectores x1 , x2 e x4 , temos
v = λ1 x 1 + λ2 x 2 + λ3 x 3 + λ4 x 4
⇒ (0, 0, 0) = λ1 (1, 0, 0) + λ2 (0, 1, 0) + λ3 (0, 0, 1) + λ4 (1, 1, 0)
⇒ (0, 0, 0) = (λ1 + λ4 , λ2 + λ4 , λ3 )
⇒ λ1 = −λ4 ∧ λ2 = −λ4 ∧ λ3 = 0
pelo que, efectivamente, o vector w se exprime de modo único como combinação linear
destes vectores. Observe-se que, uma vez que w é um vector genérico de R3 , então
mostrámos que qualquer vector de R3 se exprime de modo único como combinação
linear dos vectores x1 , x2 e x3 .
Analogamente se verifica que o vector w se exprime de modo único como combinação
linear dos vectores x1 , x3 e x4 e também dos vectores x2 , x3 e x4 .
Vamos de seguida mostrar que, tal como acontece com o vector nulo (ver exem-
plo anterior), o vector w não se exprime de modo único como combinação linear dos
vectores x1 , x2 , x3 e x4 . Sejam λ1 , λ2 , λ3 , λ4 ∈ R tais que
w = λ1 x 1 + λ2 x 2 + λ3 x 3 + λ4 x 4 .
24 Espaços Vectoriais
Então,
(a, b, c) = λ1 (1, 0, 0) + λ2 (0, 1, 0) + λ3 (0, 0, 1) + λ4 (1, 1, 0)
⇒ (a, b, c) = (λ1 + λ4 , λ2 + λ4 , λ3 )
⇒ λ1 = a − λ4 ∧ λ2 = b − λ4 ∧ λ3 = c,
e, portanto, para qualquer λ4 ∈ R,
Finalmente, vamos mostrar que, em geral, o vector w não se exprime como com-
binação linear dos vectores x2 e x3 . Suponhamos que λ1 , λ2 ∈ R são tais que w =
λ1 x2 + λ2 x3 . Então,
a=0
w = λ1 (0, 1, 0) + λ2 (0, 0, 1) ⇔ (a, b, c) = (0, λ1 , λ2 ) ⇔ λ1 = b
λ2 = c,
O C
-
Então
-
temos, por exemplo, as seguintes combinações lineares nulas dos vectores OA
e OB: - - - - - -
OO = 0OA + 0OB e OO = −2OA + OB.
- -
Mas, pelo contrário, a única combinação nula dos vectores OA e OC é a combinação
trivialmente nula.
v = λ1 x1 + · · · + λn xn + 0y1 + · · · + 0ym .
Note que o vector v pode, eventualmente, também ser uma combinação linear dos
mesmos vectores por meio de outros escalares. H
Observe-se que, num espaço vectorial E não nulo (i.e. não constituı́do apenas por um
único vector) um mesmo vector pode ser combinação linear dos elementos de diferentes
conjuntos de vectores de E, como se viu claramente em exemplos anteriores. Também no
exemplo 3, se viu que um vector pode ser combinação linear dos mesmos vectores através de
diferentes escalares. Há ainda conjuntos de vectores do espaço vectorial tais que qualquer
vector do espaço se exprime como combinação linear dos seus elementos.
λ1 x1 + · · · + λn xn = 0E ⇒ λ1 = · · · = λn = 0.
Exemplos 2.2.4
1. Nas condições do exemplo 2 de 2.2.2, e atendendo ao que aı́ foi visto, os vectores:
Exemplos 2.3.2
1. Consideremos o exemplo 3 de 2.2.2. Então, pelo que aı́ vimos, o espaço vectorial real
R3 admite, por exemplo, C1 = {x1 , x2 , x3 }, C2 = {x1 , x3 , x4 }, C3 = {x2 , x3 , x4 } e
C4 = {x1 , x2 , x3 , x4 } como conjuntos de geradores.
Por outro lado, C5 = {x2 , x3 } e C6 = {x1 , x2 , x4 } não são conjuntos de geradores de
R3 . Por exemplo, no caso de C5 , mostrámos que os vectores w = (a, b, c) ∈ R3 tais que
a 6= 0 não se podem exprimir como combinação linear dos vectores x2 e x3 .
para qualquer (α, β, γ, λ) ∈ R4 ), pelo que todo o vector de Rn se exprime como com-
binação linear de e1 , . . . , en . Logo, {e1 , . . . , en } gera Rn .
3. Consideremos o espaço vectorial real R[x] dos polinómios (de qualquer grau) na variável
x com coeficientes reais e os seus subconjuntos
de R[x]. Com efeito, é fácil ver que nenhum polinómio de grau zero (e, portanto,
não nulo) se escreve como combinação linear de vectores de A2 . É também claro que
nenhum polinómio de grau maior ou igual a quatro se pode escrever como combinação
linear dos vectores de A3 .
Observemos ainda que, é também fácil ver que, para cada n ∈ N,
{1, x, x2 , . . . , xn }
Exemplo 2.3.4 A partir dos exemplos 2 e 3 de 2.3.2 conclui-se de imediato que, para
qualquer n ∈ N, os espaços vectoriais reais Rn e Rn [x] são finitamente gerados. Pelo contrário,
não é difı́cil ver que, o espaço vectorial real R[x] não é finitamente gerado (visto que o grau
de uma combinação linear de polinómios é menor ou igual que o máximo dos graus dos
polinómios que a constituem). H
Teorema 2.3.5 Num espaço vectorial E não nulo e finitamente gerado sobre um corpo K,
qualquer conjunto finito de geradores de E contém ainda um conjunto de geradores de E
constituı́do por vectores linearmente independentes.
E, também que:
Teorema 2.3.6 Seja E um espaço vectorial sobre um corpo K que admite um conjunto
{x1 , . . . , xn } de geradores de E constituı́do por vectores linearmente independentes. Então,
as seguintes afirmações são verdadeiras:
Definição 2.3.7 Seja E um espaço vectorial não nulo e finitamente gerado sobre um corpo
K. Uma sequência (e1 , . . . , en ) de vectores de E diz-se uma base de E se {e1 , . . . , en } é um
conjunto de geradores de E constituı́do por vectores linearmente independentes.
Note-se que, como uma base é definida como sendo uma sequência de vectores, duas bases
constituı́das pelos mesmos vectores ordenados de forma diferente são bases distintas.
Exemplos 2.3.8
1. Tendo em conta os exemplos 1 de 2.2.4 e de 2.3.2, podemos de imediato concluir que as
sequências (x1 , x2 , x3 ), (x1 , x3 , x4 ) e (x2 , x3 , x4 ) são três bases do espaço vectorial real
R3 . Por outro lado, nenhuma das sequências (x1 , x2 , x3 , x4 ), (x1 , x2 , x4 ) e (x1 , x3 ) é
uma base de R3 . Com efeito, na primeira sequência os seus vectores não são linearmente
independentes, na última o conjunto dos seus vectores não é um conjunto de geradores
de R3 e na segunda sequência nem os seus vectores são linearmente independentes nem
o conjunto por eles formado gera R3 .
2. De acordo com os exemplo 3 de 2.2.4 e 2 de 2.3.2, a sequência (e1 , e2 , . . . , en ) é uma
base do espaço vectorial real Rn . Esta base de Rn designa-se por base canónica. Em
particular,
(1)
é a base canónica de R (como espaço vectorial real),
é a base canónica de R2 ,
((1, 0, 0), (0, 1, 0), (0, 0, 1))
é a base canónica de R3 e
é a base canónica de R4 . H
3. Consideremos o espaço vectorial real Rn [x]. Também, de acordo com os exemplos já
apresentados, podemos concluir que a sequência
(1, x, x2 , . . . , xn )
O Teorema 2.3.5 garante-nos que todo o espaço vectorial finitamente gerado E sobre
um corpo K possui uma base. Por outro lado, a partir do Teorema 2.3.6 podemos deduzir
que todas as bases de E têm o mesmo número de elementos. Assim, faz sentido a seguinte
definição:
Definição 2.3.9 Seja E um espaço vectorial não nulo sobre um corpo K. Se E é finitamente
gerado, chama-se dimensão de E, e representa-se por dim E, ao número de vectores de uma
sua (qualquer) base. Se E não é finitamente gerado diz-se que E tem dimensão infinita.
Subespaços vectoriais 31
Por outro lado, podemos afirmar que o espaço vectorial real R[x] tem dimensão infinita. H
Então o vector v = (1, −1, 2, 4) tem como coordenadas relativamente à base (v1 , v2 , v3 , v4 ) o
quadruplo (1, −2, 3, 2).
Note-se que as coordenadas de v relativamente à base canónica de R4 coincidem com as
próprias coordenadas (componentes) do vector (observe-se que o mesmo acontece em geral
para Rn , com n ∈ N). H
Como consequência imediata do Teorema 2.3.6 temos também o seguinte resultado (muito
prático quando a dimensão do espaço vectorial é conhecida):
De acordo com o teorema anterior e uma vez que dim Rn = n, para verificarmos que uma
dada sequência constituı́da por n vectores é uma base de Rn , basta ver se os seus vectores
são linearmente independentes, ou alternativamente, basta ver se os seus vectores formam
um conjunto de geradores.
32 Espaços vectoriais
1. F 6= ∅;
2. (∀x, y ∈ F ) x + y ∈ F ;
3. (∀x ∈ F ) (∀λ ∈ K) λx ∈ F .
Exemplos 2.4.2
A = {(0, 0, 0), (0, 1, 0), (0, −1, 0)}, B = {(a, 0, 1) : a ∈ R} e C = {(a, 0, 0) : a ∈ R}.
Hα = {(x, y, z) ∈ R3 : x + 2y − z = α},
F ∩ G = {x ∈ E | x ∈ F e x ∈ G}.
{x ∈ E | x ∈ Fi , para qualquer i ∈ I}
\ \
que, usualmente, se representa por {Fi : i ∈ I} ou por Fi .
i∈I
É fácil demonstrar que:
2. W é um subespaço vectorial de E;
Não é difı́cil provar a seguinte descrição (prática) de um subespaço vectorial gerado por
um certo conjunto de vectores.
Exemplos 2.4.8
1. Consideremos o espaço vectorial real R3 .
(a) O subespaço vectorial de R3 gerado pelo conjunto {(1, 0, 0), (0, 1, 0)} é
F = {(x, y, z) ∈ R3 : x + y + z = 0} e H = {(a + b + c, 2a + b, a − c) : a, b, c ∈ R}
do espaço vectorial real R3 . Vamos determinar uma base para cada um deles.
(a) Como
F = {(x, y, z) ∈ R3 : z = −x − y}
= {(x, y, −x − y) : x, y ∈ R}
= {x(1, 0, −1) + y(0, 1, −1) : x, y ∈ R}
= < (1, 0, −1), (0, 1, −1) >
e (1, 0, −1) e (0, 1, −1) são, claramente, dois vectores linearmente independentes,
então ((1, 0, −1), (0, 1, −1)) é uma base de F .
(b) Relativamente a H temos
H = {(a + b + c, 2a + b, a − c) : a, b, c ∈ R}
= {a(1, 2, 1) + b(1, 1, 0) + c(1, 0, −1) : a, b, c ∈ R}
= < (1, 2, 1), (1, 1, 0), (1, 0, −1) > .
Neste caso, os vectores (1, 2, 1), (1, 1, 0) e (1, 0, −1) não são linearmente indepen-
dentes: de facto,
(1, 2, 1) = 2(1, 1, 0) − (1, 0, −1)
36 Espaços vectoriais
e, portanto, {(1, 2, 1), (1, 1, 0), (1, 0, −1)} é um conjunto de geradores de H, mas
não uma base de H. Além disso, a igualdade anterior permite-nos ainda concluir
que
H =< (1, 2, 1), (1, 1, 0), (1, 0, −1) >=< (1, 1, 0), (1, 0, −1) > .
Assim, como os vectores (1, 1, 0) e (1, 0, −1) são linearmente independentes, então
((1, 1, 0), (1, 0, −1)) é uma base de H. H
Ao invés da intersecção de subespaços, a união de dois subespaços pode não ser um
subespaço. De facto, é fácil mostrar que:
Proposição 2.4.9 Se E é um espaço vectorial sobre um corpo K e F e G são dois su-
bespaços vectoriais de E, então F ∪ G é um subespaço vectorial de E se e só se F ⊆ G ou
G ⊆ F.
Definição 2.4.10 Se E é um espaço vectorial sobre um corpo K e F e G são dois subespaços
vectoriais de E, chama-se soma de F com G ao conjunto
F + G = {x ∈ E | (∃f ∈ F ) (∃g ∈ G) x = f + g}.
É fácil demonstrar que:
Teorema 2.4.11 Sejam E um espaço vectorial sobre um corpo K e F e G dois subespaços
vectoriais de E. Então F + G é um subespaço vectorial de E.
Além disso, se X e Y dois subconjuntos de E tais que F =< X > e G =< Y >, então
F + G =< X ∪ Y >.
No caso de um espaço vectorial E de dimensão finita, o teorema anterior dá-nos um
processo prático de determinar a soma de dois subespaços vectoriais: se
F =< f1 , . . . , fk >
e
G =< g1 , . . . , g` >
então
F + G =< f1 , . . . , fk , g1 , . . . , g` >.
Exemplo 2.4.12 No espaço vectorial real R3 temos
F = {(x, y, z) ∈ R3 | x = 2y e z = y} = {(2y, y, y) | y ∈ R} =< (2, 1, 1) >
e
G = {(x, y, z) ∈ R3 | y = −x e z = 2x} = {(x, −x, 2x) | x ∈ R} =< (1, −1, 2) >,
pelo que F + G =< (2, 1, 1), (1, −1, 2) > . Logo, um vector (x, y, z) pertence a F + G se e só
se é uma combinação linear dos vectores (2, 1, 1) e (1, −1, 2). Como
x+y
α= 3
(x, y, z) = α(2, 1, 1) + β(1, −1, 2) ⇔ β = x−2y
3
z = x − y,
Demonstra-se que:
2.5 Exercı́cios
1. Verifique se cada um dos seguintes conjuntos de polinómios numa variável e com coefi-
cientes reais é um espaço vectorial real com as operações usuais de adição de polinómios
e multiplicação de um polinómio por um número real.
⊕ : R+ × R+ −→ R+
(a, b) 7−→ a ⊕ b = a.b (produto usual)
e
⊗ : R × R+ −→ R+
(λ, b) 7−→ λ ⊗ a = aλ (potência usual).
Mostre que:
4. Averigue quais dos seguintes conjuntos são subespaços do espaço vectorial mencionado:
(a) A = {(x, y, z, t) ∈ R4 : x = y, z = t} em R4 ;
(b) B = {(x, y, z, t) ∈ R4 : x + y + z + t = 0} em R4 ;
(c) C = {(x, y, z) ∈ R3 : y ≥ x} em R3 ;
(d) D = {ax2 + bx + c ∈ R2 [x] : a = b − c} em R2 [x];
(e) E = {(x, y, z) ∈ R3 : x2 + y 2 = −z 2 } em R3 ;
(f) F = {ax3 + ax2 + ax + 1 : a ∈ R} em R3 [x];
38 Espaços vectoriais
(g) G = {(x, y, z, t) ∈ R4 : x = 1} em R4 ;
(h) H = {(x, y, z, t) ∈ R4 : xy = zt} em R4 ;
(i) I = {(x + 2y, 0, 2x − y, y) : x, y ∈ R} em R4 ;
(j) J = {(x + 2y, x, 2x − y, y) : x, y ∈ R} em R4 ;
a b
(k) K = ∈ M2×2 (R) : a = d ∧ b = 2c em M2×2 (R).
c d
5. Indique quais dos seguintes conjuntos são subespaços do espaço vectorial Mn×n (R):
(a) O conjunto das matrizes simétricas de ordem n.
(b) O conjunto das matrizes invertı́veis de ordem n.
(c) O conjunto das matrizes não invertı́veis de ordem n.
6. Seja A uma matriz real de ordem n. Prove que o conjunto das soluções do sistema
homogéneo AX = 0 é um subsespaço do espaço vectorial Mn×1 (R).
7. Em R2 [x] considere os polinómios:
p(x) = x2 + 3x, q(x) = x2 + 2, r(x) = 2x − 1.
(a) Exprima 2x2 + x − 3 como combinação linear de p, q e r.
(b) Determine k de forma que o polinómio kx + 5 seja combinação linear de p e q.
8. Considerem-se os seguintes vectores:
x = (0, 1, −1), y = (1, 1, 0), z = (1, 2, −1), x0 = (0, −1, 1), y 0 = (2, 0, 1), z 0 = (0, 2, 0).
(a) Determine um vector, diferente de x, y e z, que pertença ao subespaço gerado por
x, y e z.
(b) Verifique se o vector (3, −1, 0) pertence ao subespaço gerado por x0 , y 0 e z 0 .
9. Considerem-se os conjuntos:
A = (x, y, z, t) ∈ R4 : x + 2y + t = x + y − z = 0 e B = {(1, 0, 1, −1), (0, 1, 1, −2)}.
12. Verifique quais dos seguintes subconjuntos de M3×1 (R) são linearmente dependentes.
Nesses casos, escreva um vector como combinação linear dos restantes:
1 −1 2
(a) 0 , 2 , 1
0 1 1
1 1 0
(b) 0 ,
2 , 1
0 −1 1
1 0 1
(c) 1 , 1 , 2
−1 1 0
13. Verifique quais dos seguintes subconjuntos de M2×2 (R) são linearmente dependentes.
Nesses casos, escreva um vector como combinação linear dos restantes:
1 1 1 0 0 2
(a) , , ;
1 1 0 2 0 1
1 1 2 3 2 2 3 1
(b) , , , ;
1 1 1 2 1 1 2 1
1 0 1 1 0 3 2 3
(c) , , , .
0 2 2 1 2 1 4 3
14. Verifique quais dos seguintes subconjuntos de R2 [x] são linearmente dependentes. Nes-
ses casos, escreva um vector como combinação linear dos restantes:
é uma base de C3 sobre C. Exprima cada um dos vectores (1, 0, 0), (0, 1, 0), (0, 0, 1)
como combinação linear dos vectores da base anterior.
1 1 0 1
21. Mostre que X = 2 , 2 e Y = 0 , 2 são bases do mesmo
1 3 1 5
subespaço de M3×1 (R).
22. Considere o espaço vectorial R3 . Sem efectuar cálculos, indique, justificando, o valor
lógico das seguintes afirmações:
(a) O conjunto {(1, 0, 2), (0, 1, 3), (5, 3, 1), (1, 2, 0)} é linearmente independente.
(b) O conjunto de geradores (2, 2, 0), (0, 1, 1), − 13 , 31 , 31 é linearmente dependente.
(d) O conjunto linearmente independente {(2, −1, 3), (3, 2, −5), (1, −1, 1)} é um con-
junto de geradores.
(e) Um conjunto de geradores linearmente independente de R3 não pode ter menos
do que 3 elementos, mas pode ter mais do que 3.
(f) O conjunto {(2, 0, 1), (5, 4, −3)} pode ser ampliado de modo a obter uma base de
R3 .
(a) {(0, 1, 0, 1), (1, 2, 5, −3), (3, 0, 0, 0), (0, 2, 0, 2), (−1, −2, −5, 3)} em R4 .
(b) {(3, 2, 1), (3, 2, 0), (3, 0, 0)} em R3 .
(c) {1 + x, x2 , x3 } em R3 [x].
(d) {1, 1 + x, 1 + x2 , 1 + x3 , 1 + x4 , 3 + x + x4 } em R4 [x].
(e) {(0, −1, 2), (−1, 0, 2), (−1, −1, 4)} em R3 .
24. Sabendo que cada um dos seguintes conjuntos gera o espaço vectorial indicado, deter-
mine um subconjunto que seja uma base do espaço.
(a) {(2, 1), (−6, 3), (1, 4)} em R2 .
(b) {(−2, 3, 1), (3, −1, 2), (1, 2, 3), (−1, 5, 0)} em R3
(c) {x2 − 1, x2 + 1, 4x, 2x − 3} em R2 [x].
(d) {1, 4x + 3, 3x − 4, x2 + 2, x − x3 } em R3 [x].
25. Considerem-se, no espaço vectorial R4 , os subespaços
A =< (1, 2, 0, 1), (−1, 1, 1, 1) > e B =< (0, 0, 1, 1), (2, 2, 2, 2) > .
Determine A ∩ B e dim (A ∩ B).
26. Considere o seguinte subconjunto de R4 :
X = {(2, 2, 1, 3), (7, 5, 5, 5), (3, 2, 2, 1), (2, 1, 2, 1)}.
Determine uma base de < X > e estenda-a a uma base de R4 .
1 0
27. Determine uma base de M3×1 (R) que contenha os vectores 0 , 2 .
2 4
Determine:
(a) Uma base e a dimensão de cada um dos subespaços F e G;
(b) O subespaço F ∩ G e a dimensão de F + G;
(c) Uma base de R4 que inclua 2 vectores de G.
30. Em R4 , considere os subespaços :
F =< (1, 1, 1, 0), (−1, 0, 1, 1), (−5, −2, 1, 3) >
e
G = (x, y, z, w) ∈ R4 : x + y + z = 0 ∧ 2x + z + w = 0 .
42 Espaços vectoriais
e
V = x3 + 2x2 − x + 5, x3 + 4x2 + 6, 2x3 + 2x2 − 3x + 9 .
e
G =< (1, 1, 0, 0), (2, 2, 0, 5), (0, 0, 0, 1) > .
(a) Mostre que F é um subespaço vectorial de R4 .
(b) Determine uma base de F que inclua o vector (0, 0, 0, 1).
(c) Encontre uma base de F + G e calcule a dimensão de F ∩ G.
35. Considere o espaço vectorial real R3 . Para cada α ∈ R, defina-se o conjunto
Fα = (x, y, z) ∈ R3 : x = αy = αz .
Aplicações Lineares
Exemplos 3.1.2
1. Sejam f e g as aplicações de R3 em R2 definidas por
f (x, y, z) = (x, x + y + z)
e
g(x, y, z) = (x, z + 2),
respectivamente, para qualquer (x, y, z) ∈ R3 .
Vamos provar que f é uma aplicação linear e que g não é.
No caso da aplicação f temos, para quaisquer (x, y, z), (x0 , y 0 , z 0 ) ∈ R3 e α ∈ R,
f ((x, y, z) + (x0 , y 0 , z 0 )) = f (x + x0 , y + y 0 , z + z 0 )
= (x + x0 , x + x0 + y + y 0 + z + z 0 )
= (x + x0 , x + y + z + x0 + y 0 + z 0 )
= (x, x + y + z) + (x0 , x0 + y 0 + z 0 )
= f (x, y, z) + f (x0 , y 0 , z 0 )
e
f (α(x, y, z)) = f ((αx, αy, αz))
= (αx, αx + αy + αz)
= α(x, x + y + z)
= αf (x, y, z),
43
44 Aplicações Lineares
• f (0V ) = 0W ;
f (X) = {f (x) ∈ B | x ∈ X}
f −1 (Y ) = {x ∈ A | f (x) ∈ Y }
f (x, y) = (x + y, 0, 2x + 2y),
para qualquer (x, y) ∈ R2 . Então Nuc(f ) = {(x, y) ∈ R2 | f (x, y) = (0, 0, 0)}. Como
x+y =0
f (x, y) = (0, 0, 0) ⇐⇒ (x + y, 0, 2x + 2y) = (0, 0, 0) ⇐⇒ 0=0 ⇐⇒ y = −x,
2x + 2y = 0
46 Aplicações Lineares
então
Nuc(f ) = {(x, y) ∈ R2 | y = −x} = {(x, −x) ∈ R2 | x ∈ R}.
Por outro lado, Im(f ) = {f (x, y) ∈ R3 | (x, y) ∈ R2 }. Visto que
a=x+y a=x+y
(a, b, c) = f (x, y) ⇐⇒ (a, b, c) = (x + y, 0, 2x + 2y) ⇐⇒ b=0 ⇐⇒ b=0 ,
c = 2x + 2y c = 2a
• f é um endomorfismo se V = W ;
Teorema 3.1.15 (Teorema das dimensões) Sejam V e W dois espaços vectoriais sobre
o corpo K e f : V −→ W uma aplicação linear. Se V é de dimensão finita então
Definição 3.1.16 Seja f uma aplicação linear. A dim Im(f ) chama-se caracterı́stica de f
e denota-se por c(f ). A dim Nuc(f ) chama-se nulidade de f e denota-se por n(f ).
Teorema 3.1.17 Sejam V e W dois espaços vectoriais de dimensão finita sobre o corpo K
e f : V −→ W uma aplicação linear. Então:
Teorema 3.1.18 Sejam V e W dois espaços vectoriais de (igual) dimensão n sobre o corpo
K e f : V −→ W uma aplicação linear. As seguintes afirmações são equivalentes:
1. f é injectiva;
2. f é sobrejectiva;
3. f é um isomorfismo;
Demonstração. (esquema) Supondo que existe uma aplicação linear f : V −→ W tal que
f (vi ) = wi , para i ∈ {1, . . . , n}, tem-se
f (x) = f (α1 v1 +α2 v2 +· · ·+αn vn ) = α1 f (v1 )+α2 f (v2 )+· · ·+αn f (vn ) = α1 w1 +α2 w2 +· · ·+αn wn ,
f g
V W Z
(vl ) (wj ) (zi )
gof
Suponhamos agora que f : V −→ W é um isomorfismo. Sejam (v1 , v2 , . . . , vn ) uma base
de V e (w1 , w2 , . . . , wn ) uma base de W . Tendo em conta que f −1 ◦ f = idV e f ◦ f −1 = idW
e ainda que
M (idV ; (vj ), (vj )) = In = M (idW ; (wj ), (wj )),
então temos o seguinte corolário:
Corolário 3.2.6 Sejam V e W espaços vectoriais sobre K de dimensão n, f : V −→ W
uma aplicação linear, (v1 , v2 , . . . , vn ) uma base de V , (w1 , w2 , . . . , wn ) uma base de W e
A = M(f ; (vj ), (wj )). Então, f é um isomorfismo se e só se A é uma matriz invertı́vel.
Neste caso, tem-se A−1 = M(f −1 ; (wj ), (vj )).
Matrizes de Mudança de base 51
Observe-se que a matriz (de mudança de base) M (idV ; (vj ), (vj0 )) transforma as coorde-
nadas de um vector x ∈ V na base (v1 , v2 , . . . , vn ) nas coordenadas do (mesmo) vector x na
base (v10 , v20 , . . . , vn0 ).
Tendo em conta que f = idW ◦ f ◦ idV e atendendo ao Teorema 3.2.5, é fácil provar que:
f
V W
(vj ) A (wi )
idV P idW Q −1
f
V W
(vj’ ) B (wi’ )
De acordo com o Teorema 3.3.3, duas matrizes da mesma aplicação linear são equivalen-
tes. O resultado seguinte garante-nos que o recı́proco é também válido, i.e. duas matrizes
equivalentes são matrizes da mesma aplicação linear.
52 Aplicações Lineares
Demonstração. (esquema) Para cada j ∈ {1, 2, . . . , n}, seja vj0 o vector de V que tem como
matriz coluna das coordenadas na base (v1 , v2 , . . . , vn ) a j-ésima coluna de P . Então, (v10 , v20 , . . . , vn0 )
é uma base de V e tem-se P = M(idV ; (vj0 ), (vj )). Analogamente, sendo wi0 o vector de W que tem
como matriz coluna das coordenadas na base (w1 , w2 , . . . , wm ) a i-ésima coluna de Q, para qualquer
i ∈ {1, 2, . . . , m}, então (w10 , w20 , . . . , wm
0 ) é uma base de W e Q = M(id ; (w 0 ), (w )). Assim, pelo
W i i
Teorema 3.3.3, tem-se B = M(f ; (vj0 ), (wi0 )).
Observe-se que se duas matrizes são semelhantes então também são equivalentes.
Tendo em conta os Teoremas 3.3.3 e 3.3.2, podemos afirmar que duas matrizes do mesmo
endomorfismo são semelhantes. Além disso, reciprocamente, tem-se:
Demonstração. (esquema) Basta tomar o vector vj0 de V que tem como matriz coluna das
coordenadas na base (v1 , v2 , . . . , vn ) a j-ésima coluna de P , com j ∈ {1, 2, . . . , n}.
3.4 Exercı́cios
1. Verifique quais das seguintes aplicações f : R3 −→ R3 são lineares:
a) f (x, y, z) = (y, z, 0);
b) f (x, y, z) = (z, −y, x);
c) f (x, y, z) = (|x|, −z, 0);
Exercı́cios 53
d) f (x, y, z) = (x − 1, x, y);
e) f (x, y, z) = (x + y, z, 0);
f) f (x, y, z) = (2x, y − 2, 4y).
f (x, y) = (x + y, x − y)
é linear.
4. Considere a aplicação linear f : R2 −→ R2 definida por f (a, b) = (b, 0). Prove que
Imf =Nucf .
f (a, b, c, d, e) = (a − c + 3d − e, a + 2d − e, 2a − c + 5d − e, −c + d).
A = {(x, 0, z, 0) : x, z ∈ R}.
P = {x ∈ E : f (x) = x}.
Mostre que:
a) P é um subespaço de E.
b) Nucf ∩ P = {0}.
9. Sejam V e W espaços vectoriais sobre o mesmo corpo K. Sejam {v1 , v2 , v3 } uma base
de V e {w1 , w2 } uma base de W . Seja ainda f : V −→ W definida por
para quaisquer λ1 , λ2 , λ3 ∈ K.
a) Determine os valores de µ para os quais f é linear.
b) Para os valores encontrados na alı́nea anterior, determine uma base de Nucf .
x 0
d) determine g(X), com X = 0 x : x, y, z ∈ R .
y 0
f (x, y, z) = (x + y + z, 2x − y − z, x + 2y − z)
é sobrejectiva e injectiva.
15. Sejam V um espaço vectorial e {v1 , v2 , ..., vn } uma sua base. Seja f um endomorfismo
de V tal que
f (v1 ) = v2 , f (v2 ) = v3 , ..., f (vn−1 ) = vn , f (vn ) = 0.
Determine, justificando, a dimensão de Nucf .
20. a) Mostre que {(1, 1, 1), (1, 2, 3), (1, 1, 2)} é uma base de R3 .
b) Seja f : R3 −→ R3 a aplicação linear tal que
f (1, 1, 1) = (1, 1, 1), f (1, 2, 3) = (−1, −2, −3), f (1, 1, 2) = (2, 2, 4).
21. Seja f : R2 [x] −→ R3 [x] uma aplicação linear tal que f (1) = 1, f (x) = x2 e f (x2 ) =
x + x3 . Determine f (a + bx + cx2 ).
f (1, 0, 0) = 2x + x3 ;
f (0, 1, 0) = −2x + x2 ;
f (0, 0, 1) = x2 + x3 .
Determine:
a) f (x, y, z), para cada (x, y, z) ∈ R3 ;
b) Imf e uma sua base;
c) Nucf e uma sua base.
d) Extenda a base obtida em c) a uma base de R3 .
f (a) = (1, 0, 1, λ), f (b) = (0, 1, −1, 0), f (c) = (1, −1, λ, −1).
Determine a matriz de f
a) relativamente às bases canónicas ((1, 0), (0, 1)) e ((1, 0, 0), (0, 1, 0), (0, 0, 1)).
b) relativamente às bases ((0, 1), (1, 1)) e ((0, 0, 1), (0, 1, 1), (1, 1, 1)).
Determine a matriz de f
a) relativamente às bases canónicas;
b) relativamente às bases ((1, 1, 1), (0, 1, 1), (0, 0, 1)) e ((0, 1), (1, 1)).
de M2×2 (R).
c) Determine Imf e Nucf .
a) Prove que
1 0 1 1 1 1 0 0
, , ,
0 0 2 0 0 0 0 1
é uma base de M2×2 (R).
b) Determine a matriz de T relativamente à base de M2×2 (R) da alı́nea anterior e à
base (1, x, x2 , x3 ) de R3 [x]
c) Determine Nucf e Imf .
d) T é invertı́vel? Justifique.
35. Considere as bases ((1, 1, −1), (1, 1, 0), (1, 0, 0)) e ((1, 1), (1, 2)), respectivamente, de R3
e R2 . Seja ϕ : R3 −→ R2 uma aplicação linear e
1 3 4
A=
2 −1 −2
a matriz de ϕ relativamente às bases anteriores.
a) Determine a expressão geral de ϕ.
b) Encontre uma base para Imϕ.
60 Aplicações Lineares
36. Considere as bases (2, x + 1, x2 + 1) e ((1, 0, 0), (1, 1, 0), (1, 1, 1)), respectivamente, de
R2 [x] e R3 . Seja f : R2 [x] −→ R3 a aplicação linear cuja matriz relativamente às bases
anteriores é
1 −1 0
A= 0 2 1 .
1 3 −1
a) Determine a dimensão de Imf e uma sua base.
b) Determine a expressão geral de f .
c) Determine uma base para Nucf .
38. Considere o espaço vectorial R4 e nele fixada a base canónica. Sejam v1 = (1, 1, 0, 0),
v2 = (0, 1, 1, 0), v3 = (1, 0, 0, 1), v4 = (0, 0, 0, 1), F =< v1 , v2 > e G =< v3 , v4 >.
a) Determine:
(1) Uma base de R4 que inclua os vectores v1 e v2 .
(2) Um endomorfismo f , através das imagens dos vectores da base determinada em
(1), tal que Nucf = F e Imf = G.
(3) A matriz do endomorfismo f relativamente à base encontrada em (1).
b) Descreva o endomorfismo f através das imagens dos vectores da base canónica.
41. Considere os seguintes vectores de R3 : v1 = (3, 1, 1), v2 = (0, 0, 1), v3 = (0, 1, 0),
v4 = (1, 2, 0), v5 = (1, 0, 0). Seja f : R3 −→ R3 a aplicação linear definida por
f (x, y, z) = (x + y, z, z).
f (ax2 + bx + c) = (a − b, c, b).
de R4 .
Capı́tulo 4
Exemplos 4.1.2
2x + y − 2z + 4w = −1
1. x − y + 3w = 5 é um sistema de 3 equações lineares a 4 incógnitas x,
4x + 7y + 3z − 8w = 0
y, z e w com coeficientes reais;
y + 2z = 1
2. x − 2y + z = 0 é um sistema de 3 equações lineares a 3 incógnitas x, y e z com
3y − 4z = 23
coeficientes reais. H
63
64 Sistemas de Equações Lineares
do tipo m × n sobre K,
x1
x2
X=
..
.
xn n×1
(coluna) do tipo n × 1 e
b1
b2
B=
..
.
bm m×1
Exemplo 4.1.3 A matriz simples e a matriz ampliada do sistema 1 do Exemplo 4.1.2 são
2 1 −2 4 2 1 −2 4 −1
A = 1 −1 0 3 e A | B = 1 −1 0 3 5 ,
4 7 3 −8 4 7 3 −8 0
As operações (G1), (G2) e (G3) correspondem a efectuar nas linhas da matriz ampliada
de um sistema as seguintes operações (respectivamente):
(L1) Trocar duas linhas;
1 0 (L1) 0 1 2 1 (L2) 0 1 2 1
4 23
0 3 −4 23 L1 ↔ L2 0 3 −4 23 1
L3 → − 3 L3 0 −1 3 − 3
−→
0
1 −2 1 0
−→
1 −2 1 0
(L3) 1 2 1 (L2) 0 1 2 1
10 20
L3 → L3 + L2 0 0 3 −3 3
L3 → 10 L3 0 0 1 −2
−→
1 −2 0 2
−→
1 0 0 12
Teorema 4.2.3 Toda a matriz que resulta da matriz ampliada de um sistema de equações
lineares por meio de uma sucessão (finita) de operações elementares sobre linhas é a matriz
ampliada de um sistema de equações lineares equivalente (i.e. com o mesmo conjunto de
soluções) ao sistema inicial.
De modo análogo, podemos definir operações elementares sobre colunas de uma matriz:
(C1) Trocar duas colunas;
A −→ B
,
A −→ B
e
A −→ B
Li ↔ Lj Li → αLi Li → Li + αLj
Matrizes de Hermite 67
para denotar que B se obtém de A por meio da troca da linha i com a linha j (1 ≤ i < j ≤ m),
da multiplicação da linha i por α (1 ≤ i ≤ m e α ∈ K\{0}) e da adição da linha j multiplicada
por α ∈ K à linha i (1 ≤ i, j ≤ m e i 6= j), respectivamente. Analogamente,
A −→ B
,
A −→ B
e
A −→ B
Ci ↔ Cj Ci → αCi Ci → Ci + αCj
denota que B se obtém de A por meio da troca da coluna i com a coluna j (1 ≤ i < j ≤ n),
da multiplicação da coluna i por α (1 ≤ i ≤ n e α ∈ K \ {0}) e da adição da coluna j
multiplicada por α ∈ K à coluna i (1 ≤ i, j ≤ n e i 6= j), respectivamente.
Exemplos 4.3.2
1. A matriz nula 0m×n é (de acordo com a nossa definição) escalonada por linhas;
2. Toda a matriz diagonal com todas as entradas não nulas, ou mais geralmente toda a
matriz diagonal D = di j n×n tal que se di i = 0 então di+1 i+1 = 0, para qualquer
i ∈ {1, . . . , n}, é escalonada por linhas. Em particular, a matriz identidade In é
escalonada por linhas;
68 Sistemas de Equações Lineares
3. As matrizes
0 3 4 −4 7 −9 −1 −1 4 9 3
0 0 −5 0 2 3 4 3 0 0 −2
0 0 0 0 0 7 −1 −2 −4 0 0
0 0 0 0 0 0 0 0 0 2 3
0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0
e
2 3 4 −4 7 8 1 1 4 9 3
0 −2 −5 0 2 3 4 3 0 0 −2
0 0 0 0 0 7 −1 −2 −4 0 0
0 0 0 0 0 0 0 0 3 2 3
0 0 0 0 0 0 0 0 0 0 −4
são escalonadas por linhas;
4. A matriz
0 0 0 3
0 1 −2 4
A=
0 −1
2 2
0 2 −4 2
não é escalonada por linhas, no entanto:
−→
0 0 0 3 0 1 −2 4
0
1 −2 4 −→
0 0 0 3
L → L3 + L1
0 −1 2 2 L1 ↔ L2 0 −1 2 2 3
L4 → L4 − 2L1
0 2 −4 2 0 2 −4 2
−→
0 1 −2 4 0 1 −2 4
0 0 0 3 0 0 0 3
L → L3 − 2L2 =B ,
0 0 0 6 3 0 0 0 0
L4 → L4 + 2L2
0 0 0 −6 0 0 0 0
pelo que a partir de A, por meio de operações elementares sobre linhas, obtemos uma
matriz B escalonada por linhas. H
Teorema 4.3.3 Toda a matriz pode ser transformada por meio de operações elementares
sobre linhas numa matriz escalonada por linhas.
Demonstração. (esquema) Seja Am×n uma matriz do tipo m × n sobre K. Se necessário, por
meio de uma troca de duas linhas, podemos transformar A numa matriz da forma
0 · · · 0 b1 ` b1 `+1 · · · b1 n
0 · · · 0 b2 ` b2 `+1 · · · b2 n
B= . ,
. .. .. .. .. .. ..
. . . . . . .
0 ··· 0 bm ` bm `+1 · · · bm n m×n
Matrizes de Hermite 69
bi `
com b1 ` 6= 0 (1 ≤ ` ≤ n). De seguida, efectuando em B as operações Li → Li − b1 ` L1 , para
2 ≤ i ≤ m, obtemos uma matriz da forma
0 · · · 0 b1 ` b1 `+1 · · · b1 n
0 · · · 0 0 c2 `+1 · · · c2 n
C= . .
.. .. .. .. .. ...
.. . . . . .
0 · · · 0 0 cm `+1 · · · cm n m×n
Repetindo sucessivamente este processo “para as linhas 2 até m − 1” das matrizes resultantes,
obtemos uma matriz escalonada por linhas.
Definição 4.3.4 Seja A = ai j m×n uma matriz do tipo m × n sobre K escalonada por
linhas tal que a1 j1 , a2 j2 , . . . , a` j` são os elementos dos cantos de A, com ` ∈ {0, 1, . . . , m} e
j1 , j2 . . . , j` ∈ {1, . . . , n} (e j1 < j2 < . . . < j` ). Dizemos que a matriz A é de Hermite (ou
escalonada por linhas reduzida) se, para cada k ∈ {1, . . . , `}, o único elemento não nulo da
coluna jk de A for o elemento de canto ak jk da linha k de A e ak jk = 1:
0 · · · 0 11 j1 · · · ∗ 0 ··· ∗ 0 ··· ∗ 0 ··· ∗
0 ··· 0 0 · · · 0 12 j2 · · · ∗ 0 ··· ∗ 0 ··· ∗
0 ··· 0 0 · · · 0 0 · · · 0 1 3 j3 · · · ∗ 0 · · · ∗
. . . . .. .. .. .. .. .. .. .. .. .. ..
. . . .
. . . . . . . . . . . . . . .
A=
0 ··· 0 0 ··· 0 0 ··· 0 0 · · · 0 1` j` · · · ∗
0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0
. . . . .. .. .. .. .. .. .. .. .. .. ..
.. .. .. .. . . . . . . . . . . .
0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 0 · · · 0 m×n
Exemplos 4.3.5
1. A matriz 0m×n é (de acordo com a nossa definição) de Hermite;
2. Uma matriz diagonal D = di j n×n tal que se d1 1 = d2 2 = · · · = di i = 1 e di+1 i+1 =
di+2 i+2 = · · · = dn n = 0, para algum i ∈ {0, 1, . . . , n}, é uma matriz de Hermite. Em
particular, a matriz In é de Hermite;
3. As matrizes
0 1 0 4 7 0 −1 −1 4 0 3
0 0 1 0 2 0 4 3 0 0 −2
0 0 0 0 0 1 −1 −2 −4 0 0
0 0 0 0 0 0 0 0 0 1 3
0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0
e
1 0 4 −4 7 0 1 1 0 9 0
0 1 −5 0 2 0 4 3 0 0 0
0 0
0 0 0 1 −1 −2 0 0 0
0 0 0 0 0 0 0 0 1 2 0
0 0 0 0 0 0 0 0 0 0 1
são de Hermite;
70 Sistemas de Equações Lineares
4. A matriz
3 −6 9 −9 12 6 3 −3 6 −12 3
0 2 −4 0 2 2 4 −4 0 −4 0
A=
0 0 0 0 0 2 −2 0 6 0 4
0 0 0 0 0 0 0 0 −4 4 0
0 0 0 0 0 0 0 0 0 0 5
é escalonada por linhas mas não é de Hermite, no entanto:
−→
1 −2 3 −3 4 2 1 −1 2 −4 1
A 0 1 −2 0 1 1 2 −2 0 −2 0
L1 → 31 L1
0 0 0 0 0 1 −1 0 3 0 2
L2 → 21 L2
0 0 0 0 0 0 0 0 1 −1 0
L3 → 21 L3
1 0 0 0 0 0 0 0 0 0 0 1
L4 → − 4 L4
L5 → 51 L5
1 −2 3 −3 4 2 1 −1 2 −4 0
−→
0 1 −2 0 1 1 2 −2 0 −2 0
L3 → L3 − 2L5
0 0 0 0 0 1 −1 0 3 0 0
L1 → L1 − L5 0 0 0 0 0 0 0 0 1 −1 0
0 0 0 0 0 0 0 0 0 0 1
1 −2 3 −3 4 2 1 −1 0 −2 0
−→
0 1 −2 0 1 1 2 −2 0 −2 0
L3 → L3 − 3L4
0 0 0 0 0 1 −1 0 0 3 0
L1 → L1 − 2L4 0 0 0 0 0 0 0 0 1 −1 0
0 0 0 0 0 0 0 0 0 0 1
1 −2 3 −3 4 0 −1 −1 0 −8 0
−→
0 1 −2 0 1 0 3 −2 0 −5 0
L2 → L2 − L3 0 0 0 0 0 1 −1 0 0 3 0
L1 → L1 − 2L3 0 0 0 0 0 0 0 0 1 −1 0
0 0 0 0 0 0 0 0 0 0 1
1 0 −1 −3 6 0 5 −5 0 −18 0
−→ 0
0
1 −2
0 0
0 1 0 3 −2 0 −5 0
0 0 1 −1 0 0
3 0
=B ,
L1 → L1 + 2L2
0 0 0 0 0 0 0 0 1 −1 0
0 0 0 0 0 0 0 0 0 0 1
pelo que a partir de A, por meio de operações elementares sobre linhas, obtemos uma
matriz B de Hermite. H
Teorema 4.3.6 Toda a matriz pode ser transformada por meio de operações elementares
sobre linhas numa matriz de Hermite.
Caracterı́stica de uma matriz 71
Demonstração. Seja Am×n uma matriz do tipo m × n sobre K. Pelo Teorema 4.3.3, a matriz
A pode ser transformada por meio de operações elementares sobre linhas numa matriz escalonada
por linhas
0 · · · 0 b1 j1 · · · ∗ ∗ ··· ∗ ∗ ··· ∗ ∗ ··· ∗
0 ··· 0 0 · · · 0 b2 j2 · · · ∗ ∗ ··· ∗ ∗ ··· ∗
0 ··· 0 0 ··· 0 0 · · · 0 b3 j3 · · · ∗ ∗ · · · ∗
.. .. .. .. .. .. .. .. .. .. .. .. .. .. ..
. . . . . . . . . . . . . . .
B= 0 ··· 0
.
0 · · · 0 0 · · · 0 0 · · · 0 b ` j`
· · · ∗
0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0
. .. .. .. .. .. .. .. .. .. .. .. .. .. ..
.. . . . . . . . . . . . . . .
0 ··· 0 0 ··· 0 0 ··· 0 0 · · · 0 0 · · · 0 m×n
1
Efectuando sobre B as operações Li → bi ji Li , com i ∈ {1, . . . , `}, obtemos uma matriz da forma
0 ··· 0 1 · · · ∗ c1 j2 · · · ∗ c1 j3 ··· ∗ c1 j` ··· ∗
0 ··· 0 0 ··· 0 1 · · · ∗ c2 j3 ··· ∗ c2 j` ··· ∗
0 ··· 0 0 ··· 0 0 ··· 0 1 ··· ∗ c3 j` ··· ∗
.. .. .. .. .. .. .. .. .. .. .. .. .. .. ..
. . . . . . . . . . . . . . .
C= .
0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 1 ··· ∗
0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0
.. .. .. .. .. .. .. .. .. .. .. .. .. .. ..
. . . . . . . . . . . . . . .
0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 m×n
(ai 1 , ai 2 , . . . , ai n ) ∈ Kn
72 Sistemas de Equações Lineares
(a1 j , a2 j , . . . , am j ) ∈ Km .
Nesta medida, faz sentido considerar o número (máximo) de linhas linearmente indepen-
dentes de A (como conjunto de vectores de Kn ), ou seja a dimensão do subespaço vectorial
de Kn gerado pelas linhas de A, e o número (máximo) de colunas linearmente independentes
de A (como conjunto de vectores de Km ), ou seja a dimensão do subespaço vectorial de Km
gerado pelas colunas de A. Podemos então definir o seguinte conceito:
Definição 4.4.1 Seja A uma matriz sobre K. Ao número de linhas linearmente indepen-
dentes de A chamamos caracterı́stica de A e denotamo-lo por r(A) (ou c(A)).
Exemplos 4.4.2
1. r(0) = 0;
2. r(In ) = n, n ∈ N;
−1 0 1
3. r 2 1 −1 = 2, visto que, por exemplo, as linhas 1 e 2 (i.e. (−1, 0, 1) e
1 1 0
(2, 1, −1)) são claramente linearmente independentes e a linha 3 é uma combinação
linear das duas primeiras ((1, 1, 0) = (−1, 0, 1) + (2, 1, −1)), pelo que as três linhas são
linearmente dependentes. H
Teorema 4.4.3 Seja A uma matriz do tipo m × n sobre K escalonada por linhas com `
linhas não nulas (i.e. com ` cantos), 0 ≤ ` ≤ m. Então r(A) = `.
Exemplos 4.4.4
2. Consideremos a matriz B4×4 do exemplo 4 de 4.3.2. Então r(B) = 2. (À frente veremos
que, para a matriz A4×4 do mesmo exemplo, tendo em conta os cálculos aı́ efectuados,
também podemos concluir imediatamente que r(A) = 2.)
Corolário 4.4.6 Seja A uma matriz do tipo m × n sobre K. Se existe uma matriz B (do
tipo m × n sobre K) escalonada por linhas com ` linhas não nulas, 0 ≤ ` ≤ m, que se obtenha
a partir de A por meio de uma sucessão (finita) de operações elementares sobre linhas, então
r(A) = `.
Assim, para calcular a caracterı́stica de uma matriz A, por um processo simples e sistemá-
tico, tudo o que temos de fazer é transformar a matriz A, por meio de operações elementares,
numa matriz B escalonada por linhas e contar o número de linhas não nulas de B.
Exemplos 4.4.7
A −→
1 0 2 1 3
−→
1 0 2 1 3
0 −1 0 −2
L2 → L2 − 2L1 1 0 −1 0 −2 1
L3 → L3 − L2
L3 → L3 − 2L1 0 −1 0 −2 −2 0 0 0 0 −3
L4 → L4 − L2
L4 → L4 − 3L1 0 −1 0 −2 −8 0 0 0 0 9
1 0 2 1 3
−→ 0 −1 0 −2
1
,
L4 → L4 − 3L3 0 0 0 0 −3
0 0 0 0 0
pelo que r(A) = 3. H
A seguir enunciamos um resultado que nos dá um critério de invertibilidade para matrizes
e que nos permitirá descrever na próxima secção um algoritmo para o cálculo da matriz
inversa de uma matriz invertı́vel.
Teorema 4.4.8 Seja A uma matriz quadrada de ordem n sobre K. Então, as seguintes
afirmações são equivalentes:
1. A matriz A é invertı́vel;
3. r(A) = n.
74 Sistemas de Equações Lineares
Exemplos 4.4.9
1. Voltemos a considerar a matriz quadrada A4×4 do exemplo 4 de 4.3.2. Como r(A) = 2,
então A não é invertı́vel.
2. Consideremos a matriz quadrada
1 0 1 3
2 −1 0 7
A=
2 −1 1 4 .
3 −1 1 1 4×4
Então
A −→
1 0 1 3
−→
1 0 1 3
0 −1 −2
L2 → L2 − 2L1 1 0 −1 −2 1
L → L3 − L2 ,
L3 → L3 − 2L1 0 −1 −1 −2 3 0 0 −1 −3
L4 → L4 − L2
L4 → L4 − 3L1 0 −1 −2 −8 0 0 0 −9
Teorema 4.4.12 Seja f : V −→ W uma aplicação linear. Sejam (v1 , v2 , . . . , vn ) uma base
de V , (w1 , w2 , . . . , wm ) uma base de W e A = M(f ; (vj ), (wi ))m×n . Então c(f ) = r(A).
Além disso, tem-se:
• f é injectiva se e só se r(A) = n;
• f é sobrejectiva se e só se r(A) = m;
• f é um isomorfismo se e só se r(A) = n = m.
Teorema 4.4.13 Duas matrizes equivalentes (em particular, duas matrizes semelhantes)
têm a mesma caracterı́stica.
Resolução e discussão de sistemas 75
Este sistema encontra-se na forma que usualmente se designa por “resolvido”, i.e. a partir
da qual podemos de imediato escrever explicitamente o seu conjunto de soluções.
Neste caso, o conjunto de soluções é
0 L2 → L2 − L1 0 0 1 −1 −1
2 −4 1 1 3 L3 → L3 − 2L1 0 0 1 −1 1
−→
1 −2 0 1 1
0 0 1 −1 −1 ,
L3 → L3 − L2
0 0 0 0 2
pelo que o sistema não tem soluções, visto que à terceira linha da última matriz corres-
ponde a equação 0 = 2 (é fácil ver que, mais geralmente, obtemos um sistema insolúvel
para qualquer α 6= 1);
2. Ainda para o primeiro sistema com α = 1 temos:
1 −2
1 −2
0 1 1
−→
1 −2 0 1 1
1 0 0 L2 → L2 − L1 0 0 1 −1 −1
2 −4 1 1 1 L3 → L3 − 2L1 0 0 1 −1 −1
−→
1 −2 0 1 1
0 0 1 −1 −1 .
L3 → L3 − L2
0 0 0 0 0
A esta última matriz (de Hermite) corresponde o sistema
x − 2y + w = 1 x = 1 + 2y − w
equivalente a
z−w = −1 z = −1 + w
e cujo conjunto de soluções é
{(1 + 2α − β, α, −1 + β, β) | α, β ∈ R}
Resolução e discussão de sistemas 77
que, como (1+2α−β, α, −1+β, β) = (1, 0, −1, 0)+α(2, 1, 0, 0)+β(−1, 0, 1, 1), podemos
ainda escrevê-lo na forma
−→ −→
0 1 1 5 1 1 1 6 1 1 1 6
1 1 1 6 0 1 1 5 0 1 1 5
L1 ↔ L2 L3 → L3 − L1
1 1 −1 0 1 1 −1 0 0 0 −2 −6
−→
1 1 1 6
−→
1 1 0 3
0 1 1 5 L2 → L2 − L3 0 1 0 2
L3 → − 12 L3
0 0 1 3 L1 → L1 − L3 0 0 1 3
−→
1 0 0 1
0 1 0 2 ,
L1 → L1 − L2
0 0 1 3
pelo que {(1, 2, 3)} é o conjunto de soluções do sistema. H
Definições 4.5.2
1. Um sistema de equações lineares diz-se possı́vel se possuir soluções, caso contrário diz-se
impossı́vel;
2. Se r(A) = r( A | B ) < n o sistema é possı́vel e indeterminado com grau de indeter-
minação igual a n − r(A);
3. Se r(A) < r( A | B ) o sistema é impossı́vel.
Por discussão de um sistema entendemos determinar qual das três situações anteriores
satisfaz o sistema (sem necessariamente ter de o resolver).
1 α 1 1
−→
1 α 1 1
A | B = 1 1 1 0 L2 → L2 − L1 0 1 − α 0 −1 .
2 2α α 2 L3 → L3 − 2L1 0 0 α−2 0
Assim, para α ∈ R \ {1, 2} temos r(A) = r( A | B ) = 3, pelo que o sistema é possı́vel e
determinado. Para α = 1 a última matriz obtida é
−→
1 1 1 1 1 1 1 1
0 0 0 −1 0 0 −1 0 ,
L2 ↔ L3
0 0 −1 0 0 0 0 −1
donde 2 = r(A) < r( A | B ) = 3, pelo que o sistema é impossı́vel. Finalmente, para
α = 2 a última matriz obtida é
1 2 1 1
0 −1 0 −1 ,
0 0 0 0
donde r(A) = r( A | B ) = 2, pelo que o sistema é possı́vel e indeterminado com grau de
indeterminação igual a 1 (= 3 − r(A)).
Discutamos agora o segundo sistema em função parâmetros reais α e β:
β − 1 1 1 1
−→
A|B = β−1 β α+1 α + 1 L2 → L2 − L1
2β − 2 β + 1 2α + 2 α + β + 1 L3 → L3 − 2L1
−→
β−1 1 1 1 β−1 1 1 1
0 β−1 α α 0 β−1 α α .
L3 → L3 − L2
0 β − 1 2α α + β − 1 0 0 α β−1
Resolução e discussão de sistemas 79
Então, para α 6= 0 e β 6= 1 temos r(A) = r( A | B ) = 3, pelo que o sistema é possı́vel e
determinado. Para α 6= 0 e β = 1 a última matriz obtida é
−→
0 1 1 1 0 1 1 1
0 0 α α 0 0 α α ,
L3 → L3 − L2
0 0 α 0 0 0 0 −α
donde 2 = r(A) < r( A | B ) = 3, pelo
que o sistema é impossı́vel. Para α = 0 e β 6= 1
temos também 2 = r(A) < r( A | B ) = 3, pelo que o sistema é impossı́vel. Finalmente,
com α = 0 e β = 1 temos r(A) = r( A | B ) = 1, pelo que o sistema é possı́vel e
indeterminado com grau de indeterminação igual a 2 (= 3 − r(A)). H
A−1 = X1 X2 · · · Xn ,
que
AXi = ∆i ,
para 1 ≤ i ≤ n. Logo, obtemos
a coluna i da matriz A−1 efectuando operações
elementares
sobre linhas na matriz A | ∆i de modo a obter uma matriz da forma In | X (com a
matriz In nas primeiras n colunas, tendo-se X = Xi ), 1 ≤ i ≤ n.
Estes n sistemas de n equações lineares a n incógnitas, todos
de matriz simples A, po-
dem ser resolvidos simultaneamente considerando a matriz A | In , do tipo n × (2n), e
efectuando-lhe operações elementares sobre linhas de modo a obter uma matriz da forma
In | M n×(2n) , tendo-se M = A−1 , de acordo com o exposto atrás:
A | In
n×(2n)
−→
In | A−1
n×(2n)
operações elementares
sobre LINHAS
80 Sistemas de Equações Lineares
−→ −→ −→
1 1 2 1 1 2 1 1 2
A 0 1 1 0 1 1 0 1 1 ,
L1 ↔ L2 L3 → L3 − L1 L3 → L3 + 2L2
1 −1 1 0 −2 −1 0 0 1
−→ −→
0 1 1 1 0 0 1 1 2 0 1 0
A | I3 = 1 1 2 0 1 0 0 1 1 1 0 0
L1 ↔ L2 L3 → L3 − L1
1 −1 1 0 0 1 1 −1 1 0 0 1
1
0
1 2 0 1 0
−→
1 1 2 0 1 0
−→
1 1 1 0 0 0 1 1 1 0 0 L2 → L2 − L3
L3 → L3 + 2L2
0 −2 −1 0 −1 1 0 0 1 2 −1 1 L1 → L1 − 2L3
−→
1 1 0 −4 3 −2 1 0 0 −3 2 −1
0 1 0 −1 1 −1 0 1 0 −1 1 −1 ,
L1 → L1 − L2
0 0 1 2 −1 1 0 0 1 2 −1 1
−3 2 −1
−1
pelo que A = −1 1 −1 . H
2 −1 1
4.6 Exercı́cios
1. Determine a caracterı́stica das seguintes matrizes:
1 2 3 1 3 −1 2
A = 0 1 1 , B = 4 2 1 −3 ,
1 2 3 0 2 0 3
1 2 −1 3 2
−1 0 1 −1 1
1 3 −2 −1
C= e D = 1 −1 1 0 .
2 7 −1 9 8
1 1 2 −1
3 3 −2 4 −6
1 2 0
1 2 3
2. Relativamente à matriz A = 1 0 1
, determine o número máximo de linhas
1 1 1
(colunas) linearmente independentes.
Exercı́cios 81
1 1 0 1
1 2α + β α + β
(c) C = 1 α + β β .
−1 α α
1 0 2
0 α−1 α
(d) D = α
.
0 α
α+1 0 4
α β
(e) A = 0 β .
β α
α 0 β
(f) A = β α 0 .
0 β α
a 1 a 0 0 0
0 b 1 b 0 0
4. Seja r é a caracterı́stica da matriz A =
0
. Mostre que:
0 c 1 c 0
0 0 0 d 1 d
(a) r > 2;
(b) r = 3 se e só se a = d = 0 e bc = 1;
(c) r = 4 nos restantes casos.
x − y + z = 0
y − z + w = 2
(c)
x + y + z + w = −1
y + w = 3
2x + y = 8
(d) −x + 2y + 4z = 7
−x + z = 1
2x + y + z = 0
(e) −x + y + 3z = 3
3x + 5y + 2z = 4
2x + z = 1
(f) 3x + y + z = 2
x + y + z = 3
5x + y + 2z = 3
(g) 4x + 2y + 2z = 5
x + y + z = 3
ax + by − z = a
(e) ax − z = −1
x + y + z = 2
y + az = 0
(f) x + by = 0
bx + az = 0
(a) AX T = BD3 .
(b) (AXB −1 )T = I.
(c) CX = DT − C −1 .
(d) A−1 (X − I)T = (B −1 )T .
11. Calcule, caso exista, a matriz inversa de cada uma das seguintes matrizes:
3 1 2
(a) A = 1 2 1 ;
1 1 1
5 3 2
(b) B = 2 3 1 ;
7 5 3
1 0 0
(c) C = 1 2 0 ;
1 2 3
1 4 3
(d) D = 5 9 2 ;
6 8 1
7 0 5
(e) E = 0 1 0 .
4 0 3
84 Sistemas de Equações Lineares
0 1 2
2 2 1
b) A = 1 3 1
1 2 2
2 1 −1
c) A = 0 2 −1
−3 −2 3
0 2 3 −4 1
0 0 2 3 4
d) A =
2 2 −5
.
2 4
2 0 −6 9 7
α 0 −1 β
1 α 0 β 1 2α + β α + β
0 β 0 , E = β α 0 , F = 1 α + β
D=
1 β e
1 1 1
0 β α −1 α α
1 1 0 1
1 2 3 α
0 1 1 α
G=
2
.
1 2 0
α 1 0 1
x + y − z + w = 1
x − y + z − w = 0
c)
x + 2y − z = 1
x − y − 2z = 1
x + y + z = 1
x − y + z = 0
d)
y + 2z = 1
2x + y + 4z = 2
x + y + 2z + w = 1
y + 3z + 3w = 2
e)
−x + z + 2w = 1
2x + y + z − w = 0
2x + y + 3z − w = 1
f) 4x − y + 7z − 7w = −5
x + 2y + z + 2w = 3
x − y + z = 0
y − z + w = 2
g)
x + y + z + w = −1
y + w = 3
x + 2y − z + w = 1
2x + y + z − w = −2
h)
x + z + w = 1
2x + 5y − 3z + 5w = 5
y − z + w = 4
−x + y + 2z + w = 1
i)
−x + z + 2w = −2
−2x + y + 7z − w = −3
x − y + z + 2w = 1
−x + 2y + z − w = 1
j)
y + 2z + w = 2
2x − 3y + 3w = 0
x + y − z + w = 2
2x + y − z + w = 1
k)
x + 2y − 2z + 2w = 5
x − y + z = 1
x − y + 2z + w = 1
3x + 2z + 2w = 2
l)
2x + y + w = 1
x + 8y − 10z − 2w = −2
88 Sistemas de Equações Lineares
x + y + z + w − u = 0
2x + y + z + u = 1
m)
x + y + z + w + u = 1
y + w − u = 1
ax + y − z + aw = 0
f) (a + 1)y + z + w = 1
−x + y + (a + 1)w = b
ax + y + (a + 1)z = b
g) x + ay +z = 1
ax + y − z = 0
x + y + z = 2
x − y + z = 2
h)
ax + z = 2
3x + y + 3z = 6
x + y = a
i) x + 2y = a2
x + 3y = a3
−2x + (a + 3)y − bz = −3
j) x + bz = 1
2x + 4y + 3bz = −b
2x + y + w = 2
k) 3x + 3y + az + 5w = 3
3x − 3z − 2w = b
ax + by + z = 1
l) x + aby +z = b
x + by + az = 1
ax − z + (a + 1)w = 1
m) −x + y + z + w = a
(a − 1)x + y + (a − 2)z + 2aw = a − 2
(8 − a)x + 2y + 3z + aw = 0
x + (9 − a)y + 4z + aw = 0
n)
x + 2y + (10 − a)z + aw = 0
x + 2y + 3z + aw = 0
25. Determine quais das seguintes matrizes são invertı́veis e, em caso afirmativo, determine
a respectiva inversa.
1 1 1 1 2 1 1 2 2
a) 1 2 3 b) 1 3 2 c) 1 3 1
0 1 1 1 0 1 1 1 3
1 1 2 1 1 1 1 1 1 1 1 1
0 −2 0 0
1 2 −1 2 1 3 1 2
d) e) f)
1 2 1 −2 1 −1 2 1 1 2 −1 1
0 3 2 1 1 3 3 2 5 9 1 6
90 Sistemas de Equações Lineares
26. Seja A uma matriz n × n. Prove que o sistema homogéneo AX = 0 tem apenas a
solução trivial X = 0 se e só se A é invertı́vel.
a b
27. Prove que a matriz real, A = , é invertı́vel se e só se ad − bc 6= 0. Neste caso
c d
determine a inversa de A.
1 1 0
28. Determine para que valores de α a matriz A = 1 0 0 é invertı́vel e, para esses
1 2 α
valores, indique A−1 .
2 −1 0
29. Dadas as matrizes A = 1 3 1 e B = 2 3 −2 resolva a equação matricial
1 2 1
T T
A X − B = 0.
7 0 5
30. Dada a matriz A = 0 1 0 resolva a equação matricial AXA−1 = A + I3 .
4 0 3
34. Seja A uma matriz do tipo n × n tal que In + A é invertı́vel e P = (In − A) (In + A)−1 .
Mostre que:
Exercı́cios 91
P = cos β 0 − sin β
sin β cos β sin β cos2 β
Determinantes
Definição 5.1.1 Seja A = [aij ]n×n ∈ Mn×n (K). Chamamos determinante de A, e denota-
mo-lo por |A| ou por det (A), ao escalar definido recursivamente por:
Exemplos 5.1.2
ou seja,
|A| = a11 a22 − a12 a21 .
93
94 Determinantes
Nota. Quando usamos a notação das barras verticais para denotar o determinante de uma
matriz (representada explicitamente) é usual suprimir os parêntesis rectos que delimitam a
matriz. Por exemplo, em vez de
−2 3
= −3
5 −6
escrevemos simplesmente
−2 3
= −3.
5 −6
Então
P3 1+j
|A| = j=1 (−1) a1j |A1j |
1+1 1+2 1+3
= (−1) a11 |A11
| + (−1) a12 |A 12 | + (−1)
a13|A13 |
a22 a23 a21 a23 a21 a22
= a11 − a12
a31 a33 + a13 a31 a32
a32 a33
= a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a22 a31 )
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31 .
Consideremos a matriz que se obtém de A acrescentando uma cópia das duas primeiras
colunas:
a11 a12 a13 a11 a12
a21 a22 a23 a21 a22 .
a31 a32 a33 a31 a32
O determinante de A obtém-se somando os produtos das suas três “diagonais maiores para-
lelas à diagonal principal de A”
a11 a12 a13 a11 a12
a21 a22 a23 a21 a22
a31 a32 a33 a31 a32
e subtraindo os produtos das suas três “diagonais maiores não paralelas à diagonal principal
de A”
a11 a12 a13 a11 a12
a21 a22 a23 a21 a22 .
a31 a32 a33 a31 a32
Definição e propriedades 95
Esta mnemónica é conhecida por Regra de Sarrus. Note-se que a sua aplicação é exclusiva-
mente para matrizes de ordem três.
Por exemplo, sendo
−2 3 3
A = 1 0 −5 ,
2 7 −4
temos
−2 3 3
0 −5 1+2 1 −5 + (−1)1+3 3 1 0
1+1
|A| = 1 0 −5 = (−1) (−2)
+ (−1) 3
2 7 −4 7 −4 2 −4 2 7
Ainda, considerando a soma dos produtos de cada elemento da primeira coluna de A pelo
respectivo complemento algébrico, temos
2
X
(−1)i+1 ai1 |Ai1 | = (−1)1+1 a11 |A11 | + (−1)2+1 a21 |A21 | = a11 a22 − a21 a12 = |A|.
i=1
96 Determinantes
Então, considerando por exemplo a soma dos produtos de cada elemento da segunda linha
de A pelo respectivo complemento algébrico, temos
P3 2+j
j=1 (−1) a2j |A2j | = (−1)2+1 2+2 2+3
a21 |A21 | + (−1) a22 |A22 | + (−1) a23 |A23|
a a a a a a
= −a21 12 13 + a22 11 13 − a23 11 12
a32 a33 a31 a33 a31 a32
= −a21 (a12 a33 − a13 a32 ) + a22 (a11 a33 − a13 a31 ) − a23 (a11 a32 − a12 a31 )
= |A|.
Também, considerando por exemplo a soma dos produtos de cada elemento da terceira coluna
de A pelo respectivo complemento algébrico, temos
P3 i+3 1+3 2+3 3+3
i=1 (−1) ai3 |Ai3 | = (−1) a13 |A13 | + (−1)
a23 |A23
| + (−1)
a33 |A33 |
a21 a22 a11 a12 a11 a12
= a13 − a23
a31 a32 + a33 a21 a22
a31 a32
= a13 (a21 a32 − a22 a31 ) − a23 (a11 a32 − a12 a31 ) + a33 (a11 a22 − a12 a21 )
= |A|.
Podemos ainda facilmente verificar que obterı́amos o mesmo resultado considerando quer a
terceira linha de A quer a primeira ou segunda coluna de A.
Efectivamente, mais geralmente podemos demonstrar:
Para k ∈ {1, . . . , n}, à expressão do determinante de uma matriz A ∈ Mn×n (K) (es-
tabelecida no teorema anterior) em função linha (respectivamente, coluna) k chamamos
desenvolvimento de Laplace pela linha (respectivamente, coluna) k do determinante de A.
Definição e propriedades 97
Efectuando agora o desenvolvimento de Laplace pela terceira linha desta última matriz, vem
3+1
3 −2 3+2 · · ·
3+3 1
3
|A| = −4 (−1) (−4) + (−1) 0 + (−1) 1
−1 4 ··· 2 −1
= −4 ((−4)(12 − 2) + 0 + (−1 − 6)) = 188. H
Notemos que uma matriz triangular superior é a matriz transposta de uma matriz trian-
gular inferior e que, como vimos atrás, têm o mesmo determinante. Mais geralmente, dada
uma matriz A = [aij ]n×n ∈ Mn×n (K), tendo em conta que a matriz complementar do ele-
mento aij de A é a matriz transposta da matriz complementar do elemento da posição (j, i)
de AT , para quaisquer i, j ∈ {1, . . . , n}, é fácil concluir (por indução, aplicando a definição
à matriz A e o desenvolvimento de Laplace pela primeira coluna à matriz AT ) que:
Corolário 5.1.8 Para toda a matriz A ∈ Mn×n (K), tem-se |AT | = |A|.
Prova-se que:
98 Determinantes
Exemplos 5.1.10
2
2 −1 1
=
2 2 −1 1 2
2 −1 1
−2 −2 2 1 L2 → L2 + L1 0 0 1 2 = 0 −1 1 −1
1. −
4 3 −1 1 L3 → L3 − 2L1
0 −1 1 −1 L2 ↔ L3 0 0 1 2
2 3 1 2 L4 → L4 − L1 0 1 2 1 0 1 2 1
2
2 −1 1 2
2 −1 1
= 0 −1 1 −1 = 0 −1 1 −1
− −
L4 → L4 + L2 0 0 1 2 L4 → L4 − 3L3 0
0 1 2
0 0 3 0 0 0 0 −6
= −(2(−1)1(−6)) = −12.
1 −2 3
2. Seja A = 4 5 −6 . Então,
−7 −8 9
|A| = 1 −2
3 =
13 −18
L2 → L2 − 4L1 0 13 −18 Laplace 1 · = 390 − 396 = −6. H
−22 30
L3 → L3 + 7L1 0 −22 a
30 1 coluna
Aplicações 99
Demonstra-se que:
Teorema 5.1.11 Sejam A, B ∈ Mn×n (K). Então |AB| = |A||B|.
Observação 5.1.12 Uma propriedade análoga ao Teorema 5.1.11 não é válida para a
adição de matrizes, i.e. dadas A, B ∈ Mn×n (K) em geral não é verdade que |A + B| =
|A| + |B|. Por exemplo, para
2 3 −2 4
A= e B=
0 −1 0 7
0 7
temos |A| + |B| = −2 + (−14) = −16 6= 0 = = |A + B|.
0 6
5.2 Aplicações
5.2.1 Inversa de uma matriz
Seja A ∈ Mn×n (K). Uma vez A é uma matriz invertı́vel se e só se r(A) = n, i.e. se e só
se as linhas [colunas] de A são linearmente independentes, se |A| 6= 0 então A é invertı́vel,
tendo em conta a última propriedade do Teorema 5.1.9. Por outro lado, se A é invertı́vel
então, pelo Teorema 5.1.11, temos |A||A−1 | = |AA−1 | = |In | = 1, pelo que |A| =
6 0 e, além
−1
disso, |A | = 1/|A|.
Provámos então:
Teorema 5.2.1 Seja A ∈ Mn×n (K). Então, A é invertı́vel se e só se |A| =
6 0. Além disso,
1
se A é invertı́vel então |A−1 | = .
|A|
Seja A = [aij ] ∈ Mn×n (K). Denotamos por A b a matriz dos complementos algébricos de
b = [âij ] ∈ Mn×n (K), em que âij = (−1)i+j |Aij |, para quaisquer i, j ∈ {1, . . . , n}.
A, i.e. A
Definição 5.2.2 Seja A ∈ Mn×n (K). Chamamos matriz adjunta de A, e denotamo-la por
adj(A), à transposta da matriz A,
b i.e. adj(A) = A bT .
1 −2 3
Exemplo 5.2.3 Seja A = 4 5 −6 . Então
−7 −8 9
T
5 −6 4 −6 4 5
−
−8 9 −7 9 −7 −8
−2 3 1 3 1 −2
adj(A) = − −8 9 −
−7 9 −7 −8
−2 3 1 3 1 −2
5 −6 − 4 −6
4 5
T
−3 −(−6) 3 −3 −6 −3
= −6 30 −(−22) = 6 30 18 . H
−3 −(−18) 13 3 22 13
100 Determinantes
1
Corolário 5.2.5 Seja A ∈ Mn×n (K) uma matriz invertı́vel. Então A−1 = adj(A).
|A|
1 −2 3
Exemplo 5.2.6 Seja A = 4 5 −6 . Tendo em conta os Exemplos 5.1.10 e 5.2.3,
−7 −8 9
temos 1 1
−3 −6 −3 1
1 1 2 2
A−1 = adj(A) = 6 30 18 = −1 −5 −3 . H
|A| −6
3 22 13 − 12 − 11
3
− 13
6
e sejam A a matriz simples deste sistema, B a matriz coluna dos seus termos independentes
T
e X = x1 · · · xn a matriz coluna das variáveis.
Um sistema de n equações lineares a n incógnitas diz-se um sistema de Cramer se e só
se é possı́vel e determinado.
Tendo em conta as propriedades estudadas, é imediato que:
2. det (A) 6= 0;
3. r(A) = n;
4. A matriz A é invertı́vel.
ou seja,
n
1
X
xi = det A (−1)r+i det Ari br
r=1
a11 · · · a1,i−1 b1 a1,i+1 · · · a1n
1 a21 · · · a2,i−1 b2 a2,i+1 · · · a2n
= det ,
A .. .. .. .. ..
. . . . .
an1 · · · an,i−1 bn an,i+1 · · · ann
para qualquer i ∈ {1, . . . , n}.
Provámos pois:
Como
2 0 1 1 0 2 1 0 2
= −1 · 1 1
3 1 1 = − 1 1 3 = − 0 1 1 = 2 6= 0,
1 −1
1 1 1 1 1 1 0 1 −1
Embora à partida a regra de Cramer seja somente aplicável a sistemas de Cramer, com
algumas adaptações é possı́vel utilizá-la para resolver qualquer sistema possı́vel, mesmo que
indeterminado.
102 Determinantes
2. Consideremos agora o sistema de equações lineares sobre o corpo dos números reais
seguinte:
2x + y + z = 1
x + 12 y + z = 2
4x + 2y + 3z = 5.
5.3 Exercı́cios
1. Considere as matrizes
1 −3 0 1 −2 5
A = −2 0 7 e B= 1 0 3 .
5 3 −3 −4 2 0
Calcule os determinantes utilizando:
3. Calcule o determinante
1 2 −3 4
−4 2 1 3
,
3 0 −2 0
1 0 2 −5
7. Seja A uma matriz real quadrada de ordem 3 tal que det (A) = 2.
(a) Calcule det (3A)T A−1 .
−2 0 0
(b) Suponha que adj(A) = 0 −1 0 e determine as matrizes A−1 e A.
0 0 2
sin(α) 0 0 cos(α)
0 1 0 0
8. Para cada α ∈ R considere a matriz real Aα = .
0 0 1 0
− cos(α) 0 0 sin(α)
(a) Calcule det (Aα ) e conclua que Aα é invertı́vel para qualquer valor de α.
(b) Designando por C a matriz A−1
α , determine os elementos c11 e c14 da matriz C.
10. Para cada uma das seguintes matrizes, calcule a sua adjunta e de seguida a sua inversa.
3 1 2
(a) A = 1 2 1 .
1 1 1
5 3 2
(b) B = 2 3 1 .
7 5 3
106 Determinantes
1 0 0
(c) C = 1 2 0 .
1 2 3
1 4 3
(d) D = 5 9 2 .
6 8 1
−4 −3 −3
11. Para a matriz A = 1 0 1 verifique que adj(A) = A.
4 4 3
12. Determine todos os valores do escalar λ para os quais a matriz A − λ I é singular (i.e.
não invertı́vel), com:
0 3
(a) A = ;
2 −1
1 0 2
(b) A = 0 −1 −2 ;
2 −2 0
11 −2 8
(c) A = 19 −3 14 .
−8 2 −5
a1 b1 αa1 + βb1 + c1 a1 b1
c1
d) a2 b2 αa2 + βb2 + c2 = a2 b2
c2 .
a3 b3 αa3 + βb3 + c3 a3 b3 c3
a1 + αb1 a1 − αb1 c1 a1
b1 c1
e) a2 + αb2 a2 − αb2 c2 = −2α a2 b2 c2 .
a3 + αb3 a3 − αb3 c3 a3 b3 c 3
17. Calcule
1−λ 3 2
2
−1 − λ 3 .
3 0 1−λ
19. Calcule
1 2 3 −4
0 −5 6 −7
.
0 0 −8 9
0 0 0 10
1 1 1 3
108 Determinantes
28. Para cada uma das seguintes matrizes, calcule a sua adjunta. Para as que forem
invertı́veis, determine a inversa, a partir da adjunta.
3 1 2
a) A = 1 2 1 .
1 1 1
5 3 2
b) B = 2 3 1 .
7 5 3
1 0 0
c) C = 1 2 0 .
1 2 3
(adj(A))−1 = |A|−1 A.
b) |adj(A)| = |A|n−1 .
31. Mostre que se A for uma matriz triangular superior, então adj A também é triangular
superior.
110 Determinantes
32. Mostre que se A é uma matriz simétrica então o mesmo sucede à sua adjunta.
Observação 6.1.2 Um tal escalar λ, quando existe, é único: de facto, se λ, λ0 ∈ K são tais
que λu = λ0 u, então (λ − λ0 )u = 0E e portanto, uma vez que u 6= 0E , tem-se λ − λ0 = 0, ou
seja, λ = λ0 .
λ = 0 se e só se u ∈ Nuc(h).
AU = λU ⇔ AU − λU = 0 ⇔ AU − λIn U = 0 ⇔ (A − λIn )U = 0
e, por outro lado, o sistema (A − λIn )X = 0 admite uma solução não nula se e só se for um sistema
indeterminado, ou seja, se e só se r(A − λIn ) < n. Uma vez que r(A − λIn ) < n ⇔ |A − λIn | = 0,
então λ ∈ esp(h) se e só se |A − λIn | = 0.
111
112 Valores e Vectores Próprios
(A − λIn )X = 0.
A cada valor próprio está associado, em geral, mais do que um vector próprio. De facto,
quando o espaço vectorial é real ou complexo, a cada valor próprio está associado uma
infinidade de vectores próprios. Por outro lado, como já observámos, a cada vector próprio
está associado um e um só valor próprio.
Então
pA (λ) = 0 ⇔ −λ(λ − 2)2 = 0 ⇔ λ ∈ {0, 2},
pelo que esp(f ) = {0, 2}.
Os vectores próprios de f associados ao valor próprio λ = 0 são os vectores de R3
cujas coordenadas na base (e1 , e2 , e3 ) são as soluções não nulas do sistema de equações
(A − 0I3 )X = 0. Assim, supondo X = [x y z]T , temos
x=z
(A − 0I3 )X = 0 ⇔ AX = 0 ⇔ y = −z
z ∈ R,
Valores e vectores próprios 113
e
V2 = (z, 0, z) ∈ R3 : z ∈ R \ {0} =< (1, 0, 1) >\{(0, 0, 0)}.
Definição 6.1.8 Designamos por valores próprios de uma matriz A ∈ Mn×n (K) as soluções
da equação polinomial |A−λIn | = 0 e por espectro de A o conjunto dos seus valores próprios,
o qual representamos por esp(A). Designamos também por vector próprio de A associado a
um valor próprio λ qualquer matriz coluna não nula X tal que AX = λX, ou seja, qualquer
matriz coluna X = [x1 · · · xn ]T tal que (x1 , . . . , xn ) é uma solução não nula do sistema de
equações lineares homogéneo (A − λIn )X = 0.
Assim, dada uma matriz de ordem n sobre um corpo K e, fixado um espaço vectorial
E sobre o corpo K de dimensão igual a n e uma sua base, a matriz considerada representa
um endomorfismo de E. Como os valores próprios da matriz são os valores próprios do
endomorfismo e duas matrizes semelhantes representam o mesmo endomorfismo, então estas
têm necessariamente os mesmos valores próprios.
Além disso, dada uma matriz A ∈ Mn×n (K) e uma matriz invertı́vel P ∈ Mn×n (K),
tem-se
|P −1 AP − λIn | = |P −1 AP − λP −1 In P |
= |P −1 (A − λIn )P |
= |P −1 ||A − λIn ||P |
= |P |−1 |P ||A − λIn |
= |A − λIn |.
Logo, provámos:
Teorema 6.1.9 Duas matrizes semelhantes têm o mesmo polinómio caracterı́stico.
O resultado anterior permite-nos estabelecer os seguinte conceitos:
Definição 6.1.10 Chamamos polinómio caracterı́stico e equação caracterı́stica de um en-
domorfismo de um espaço vectorial de dimensão finita ao polinómio caracterı́stico e à equação
caracterı́stica, respectivamente, de uma qualquer matriz que o represente.
114 Valores e Vectores Próprios
Uλ = {x ∈ E : h(x) = λx} .
Observação 6.2.3 Atendendo às suas definições, quer a multiplicidade algébrica quer a
multiplicidade geométrica de um valor próprio são números inteiros superiores ou iguais a
um. Por outro lado, a multiplicidade algébrica e a multiplicidade geométrica de um valor
próprio são conceitos distintos e os seus valores em geral não têm que coincidir.
Exemplos 6.2.4
É fácil ver que |A − λI2 | = (λ − 1)2 = |B − λI2 | e, portanto, quer A quer B admitem
apenas o valor próprio 1, com multiplicidade algébrica igual a dois.
Vamos determinar a multiplicidade geométrica deste valor próprio, relativamente a
cada uma das matrizes consideradas.
Para a matriz A temos
x x x
U1A = :A =1· .
y y y
Como
x x x 0 x=0
A = ⇔ (A − I2 ) = ⇔
y y y 0 y ∈ R,
então
0 0
U1A = :y∈R =
y 1
e, portanto, relativamente à matriz A, a multiplicidade geométrica do valor próprio 1
é igual a um.
Por outro lado, para a matriz B temos
B x x x x 0 0 x 0
U1 = :B =1 = : = = M2×1 (R)
y y y y 0 0 y 0
Teorema 6.2.6 Vectores próprios associados a valores próprios distintos são linearmente
independentes.
6.3 Diagonalização
Definição 6.3.1 Um endomorfismo h de um espaço vectorial E diz-se diagonalizável se
existir uma base de E em relação à qual a matriz de h é diagonal.
Uma matriz quadrada diz-se diagonalizável se, em relação a certa base de um espaço
vectorial, é uma matriz de um endomorfismo diagonalizável, i. e. se for semelhante a uma
matriz diagonal. A uma matriz invertı́vel P tal que P −1 AP é uma matriz diagonal chamamos
matriz diagonalizante de A.
116 Valores e Vectores Próprios
se e só se existe uma base (u1 , u2 , . . . , un ) de E tal que h(ui ) = λi ui , para qualquer i ∈
{1, . . . , n}, ou seja, se e só se existir uma base de E formada por vectores próprios de h.
Logo, tem-se:
Teorema 6.3.3 Uma matriz A ∈ Mn×n (K) é semelhante a uma matriz diagonal D se e
só se A possui n vectores próprios linearmente independentes. Neste caso, os elementos da
diagonal principal da matriz D são os valores próprios de A.
P = [ U1 · · · Un ] .
Observe-se ainda que, neste caso, se λi é o valor próprio de A associado a Ui , para qualquer
i ∈ {1, . . . , n}, então
λ1 0 · · · 0
0 λ2 · · · 0
−1
P AP = .. .. .
..
. . .
0 0 · · · λn
Como
x 0 x = 2z
A y = 0
⇔ y∈R
z 0 z ∈ R,
então * +
2z 2 0
U0A = y | y, z ∈ R = 0 , 1 .
z 1 0
Como
x 0 z = −2x
(A − 5I3 ) y = 0
⇔ y=0
z 0 x ∈ R,
então *
x 1 +
U5A = 0 |x∈R = 0 .
−2x −2
Observação 6.3.6 Dada matriz A ∈ Mn×n (K), três situações podem ocorrer:
1. Existem n valores próprios distintos e então existem n vectores próprios linearmente
independentes associados aos n valores próprios. Portanto, a matriz A é diagonalizável;
2. Existem m valores próprios distintos, com m < n, mas existem n vectores próprios
linearmente independentes associados a esses valores próprios. De novo, a matriz A é
diagonalizável;
3. Existem m valores próprios distintos, com m < n, e não existe um conjunto com n
vectores próprios linearmente independentes. Neste caso, a matriz A não é diagona-
lizável.
6.4 Exercı́cios
1. Para cada uma das seguintes matrizes, determine os valores próprios e as suas multi-
plicidades algébricas:
1 0 −1 0 1 0 2−i 0 i
a) A = 1 2 1 . b) B = 0 0 1 . c) C = 0 1+i 0 .
2 2 3 1 −3 3 i 0 2−i
2. Seja λ um valor próprio de uma matriz invertı́vel A. Prove que se λ 6= 0 então λ−1 é
valor próprio de A−1 .
3. Para cada uma das seguintes matrizes determine os valores próprios e uma base para
os correspondentes subespaços próprios:
1 0 1 −2 5 7
a) A = 0 1 0 . b) B = 1 0 −1 .
1 0 1 −1 1 2
Exercı́cios 119
12. Mostre que uma matriz A é invertı́vel se e só se não admite zero como valor próprio.
13. Sejam A e B duas matrizes de ordem n, com A invertı́vel. Mostre que AB e BA têm
o mesmo polinómio caracterı́stico.
16. Seja A uma matriz de ordem n que admite n valores próprios distintos λ1 , λ2 , . . . , λn .
Mostre que |A| = λ1 λ2 . . . λn .
Capı́tulo 7
Neste capı́tulo consideramos o espaço vectorial real R3 (vectores do espaço) concretizado por
vectores livres ou por vectores aplicados referido a um sistema de eixos OXY Z.
A notação ~0 é usada para designar o vector nulo de R3 : ~0 = 0R3 .
a
θ
O
b B
Definição 7.1.1 Sejam a e b dois quaisquer vectores de R3 e seja θ o ângulo formado por
a e b. Chamamos produto interno dos vectores a e b ao número real
Em particular,
121
122 Produtos interno, externo e misto
1. a|a = 0 se e só se a = ~0
Por outro lado, da definição de produto interno e da lei do anulamento do produto, resulta
a|b = 0 ⇔ a = ~0 ou b = ~0 ou a ⊥ b.
Logo, a|b 6= 0, para quaisquer dois vectores a e b não nulos e não perpendiculares entre si.
Mais precisamente, sendo θ = ∠) (a, b), temos:
A
θ
θ
O U X U O X
- -
(a = OA, u = OU, θ = ∠) (a, u) =⇒ projua = kak cos θ)
Demonstra-se que:
1. a|b = b|a;
2. ortonormada se for uma base ortogonal constituı́da por vectores de norma igual a um
(vectores unitários), i.e. se
1 se i = j
ei |ej =
0 se i 6= j.
Observação 7.1.4
1. Se (v1 , . . . , vk ) é uma sequência ortogonal de vectores não nulos de R3 então é uma
sequência de vectores linearmente independente e, portanto, k ≤ 3. Em particular,
uma sequência ortogonal (v1 , v2 , v3 ) de R3 constituı́da por vectores não nulos é uma
base de R3 .
Neste caso,
x1 x2 x3
, e
kxk kxk kxk
são os co-senos directores do vector x relativamente a (e1 , e2 , e3 ).
Observação 7.1.7 O ângulo θ definido por dois vectores não nulos u e v é dado, através
do seu produto interno, pela expressão
u|v
cos θ = .
kukkvk
O Y
X
Produto externo e produto misto 125
Observação 7.2.2
1. A base canónica de R3 é uma base directa.
2. Seja (e1 , e2 , e3 ) uma base de R3 . Como consequência das propriedades do determinante
de uma matriz, temos de imediato:
(a) As bases (e1 , e3 , e2 ), (e3 , e2 , e1 ) e (e2 , e1 , e3 ), i.e. as bases obtidas a partir de
(e1 , e2 , e3 ) por troca das posições de dois dos seus vectores, são inversas se e só se
a base (e1 , e2 , e3 ) é directa.
(b) Se λ > 0, as bases (λe1 , e2 , e3 ), (e1 , λe2 , e3 ) e (e1 , e2 , λe3 ) são directas se e só se a
base (e1 , e2 , e3 ) é directa.
(c) Se λ < 0, as bases (λe1 , e2 , e3 ), (e1 , λe2 , e3 ) e (e1 , e2 , λe3 ) são inversas se e só se a
base (e1 , e2 , e3 ) é directa.
(d) As bases (e2 , e3 , e1 ) e (e3 , e1 , e2 ) são directas se e só se a base (e1 , e2 , e3 ) é directa.
Observação 7.2.5
1. A definição anterior faz sentido, já que, se u e v são vectores linearmente independentes,
então kuk, kvk > 0 e 0 < θ < π e, portanto, kukkvksen(θ) > 0. Donde, existe um único
vector nessas condições.
u × v = kukkvksen(θ) n.
u × v = −v × u
- - -
Se C 0 é o ponto do segmento [OC] tal que C 0 O|C 0 A = 0, então kC 0 Ak é a altura do
paralelogramo, pelo que, sendo A a área do paralelogramo, temos
- - - - - -
A = kOCkkC 0 Ak = kOCkkOAksen(θ) = kOC × OAk.
uxv
D
θ C
h
O B
pelo que
V = | (u × v)|w |.
Demonstra-se que:
Teorema 7.2.12 Seja (e1 , e2 , e3 ) uma base ortonormada directa de R3 . Então, dados os
vectores u = u1 e1 + u2 e2 + u3 e3 , v = v1 e1 + v2 e2 + v3 e3 , w = w1 e1 + w2 e2 + w3 e3 ∈ R3 , tem-se
u1 u2 u3
(u × v)|w = v1 v2 v3 .
w1 w2 w3
7.3 Exercı́cios
Nos exercı́cios seguintes consideramos sempre uma base ortonormada directa (e1 , e2 , e3 ).
1. Considere os vectores
a = e1 + e2 + e3 e b = e1 − 2e2 + 3e3 .
4. Sejam u = e1 − e2 + e3 v = e2 + e3 e w = e1 + e2 . Determine:
(a) u × v.
130 Produtos interno, externo e misto
(b) (u × v) × w.
(c) u × (v × w).
√
(d) Um vector perpendicular a u e a v, de norma igual a 15 .
5. Determine a área do triângulo que tem por vértices os pontos A = (1, 2, 3), B =
(2, −1, 1) e C = (−1, 2, 3).
−→ −−→
6. Sejam OA = e1 − 3e2 + 2e3 e OB = 2e1 + e2 − e3 . Justifique que os pontos O, A e B
definem um plano e determine um vector unitário perpendicular a esse plano.
a = e1 + e2 + e3 e b = e1 − 2e2 + 3e3 .
c) (u × v) × w;
d) u × (v × w);
√
e) um vector perpendicular a u e a v, de norma igual a 15.
a = e1 + e2 , b = e2 + e3 , c = e1 + e3 .
−→
17. No referencial ortonormado directo (O; e1 , e2 , e3 ) considere os seguintes vectores: OP =
−→
2e1 − e2 + e3 e OQ= e1 + e2 + e3 . Determine:
−→
a) A decomposição cartesiana do vector P Q e os seus co-senos directores;
−→
b) A projecção de P Q sobre o vector do plano OXY que faz com os eixos OX e OY ,
respectivamente, os ângulos de 30o e 60o ;
c) A área do triângulo [OP Q].
g) Mostre que os pontos P = (5, 2, 0), Q = (−2, 2, −1), R = (2, 2, −4) e S = (1, 2, 3)
são vértices de um quadrado. Suponha que esse quadrado é a face de um cubo e
determine as coordenadas dos restantes vértices do cubo.
Geometria Analı́tica
133
134 Geometria Analı́tica
2. ∀ A ∈ F e ∀ v ∈ F , A + v ∈ F.
Teorema 8.1.6 Sejam E um espaço afim associado a um espaço vectorial E sobre um corpo
K, F um subconjunto não vazio de E e F um subespaço vectorial de E. Dado um ponto P
de F, as seguintes condições são equivalentes:
2. F = {P + v | v ∈ F }.
Exemplos 8.1.8
R = P + < u >,
P = P + < u, v >,
(a) As rectas
R = P+ < u > .
Seja X = (x, y, z) um ponto qualquer da recta. Então, existe um número real λ tal que
X = P + λu. Por outro lado, qualquer ponto X da forma X = P + λu, com λ ∈ R, é um
ponto de R. Logo, a expressão X = P + λu, λ ∈ R, ou seja,
dá-nos uma representação analı́tica da recta R, que designamos por equação vectorial da
recta R. Da expressão (1) resulta de imediato o “sistema de equações”
x = a + λu1
y = b + λu2 (2)
z = c + λu3 , λ ∈ R,
Exemplos 8.2.1
1. Seja R a recta que passa pelo ponto P = (1, 1, 1) e tem a direcção do vector u = (1, 0, 2).
Uma vez que R = (1, 1, 1)+ < (1, 0, 2) >, então
Voltemos a considerar a recta R = (a, b, c)+ < (u1 , u2 , u3 ) >. Seja X = (x, y, z) um
ponto qualquer do espaço.
Suponhamos que u1 , u2 , u3 6= 0. Então
x−a
λ=
u1
y−b
⇔ ∃λ∈R: λ=
u2
λ= z−c
,
u3
i.e.
x−a y−b z−c
X = (x, y, z) ∈ R ⇔ = = . (3)
u1 u2 u3
138 Geometria Analı́tica
Se u1 = 0 e u2 , u3 6= 0, então
X ∈ R ⇔ ∃ λ ∈ R : (x, y, z) = (a, b, c) + λ(0, u2 , u3 )
x=a
⇔ ∃λ∈R: y = b + λu2
z = c + λu3
y−b z−c
⇔ x=a e = . (3.1)
u2 u3
De forma análoga, se u2 = 0 e u1 , u3 6= 0,
x−a z−c
X∈R ⇔ y=b e = (3.2)
u1 u3
e, se u3 = 0 e u1 , u2 6= 0,
x−a y−b
X∈R ⇔ z=c e = . (3.3)
u1 u2
Se u1 6= 0 e u2 = u3 = 0 é fácil ver que
X∈R ⇔ y = b e z = c. (3.4)
Analogamente, se u2 6= 0 e u1 = u3 = 0,
X∈R ⇔ x=a e z=c (3.5)
e, se u3 6= 0 e u1 = u2 = 0,
X∈R ⇔ x = a e y = b. (3.6)
Às equações, nas incógnitas x, y e z, do tipo (3) a (3.6) chamamos equações normais da
recta R.
Uma vez mais consideremos a recta R que passa pelo ponto P = (a, b, c) e tem a direcção
do vector u = (u1 , u2 , u3 ). Então, um ponto X = (x, y, z) pertence à recta R se e só se existe
um número real λ tal que (x, y, z) = (a, b, c) + λ(u1 , u2 , u3 ).
Admitamos que u3 6= 0. Então,
z−c
λ=
u3
x = a + λu1
(x, y, z) = (a, b, c) + λ(u1 , u2 , u3 ) ⇔ y = b + λu2 ⇔ x = mz + p
z = c + λu3
y = nz + q,
u1 u2 cu1 cu2
em que m = , n = , p = a − e q =b− . Assim, neste caso,
u3 u3 u3 u3
x = mz + p
(x, y, z) ∈ R ⇔
y = nz + q. (4.1)
Observemos que, sendo o ponto Q3 = (p, q, 0) uma solução do sistema de equações (4.1),
então Q3 é um ponto da recta R. Além disso, Q3 é o ponto de intersecção da recta R
com o plano OXY . Das equações (4.1) podemos ainda facilmente concluir que o vector
v = (m, n, 1) é um vector director de R.
De forma análoga à anterior, admitindo que u2 6= 0, temos
x = my + p
(x, y, z) ∈ R ⇔
z = ny + q, (4.2)
u1 u3 bu1 bu3
em que m = , n = , p = a− e q = c− . Neste caso, Q2 = (p, 0, q) é o ponto da
u2 u2 u2 u2
recta R que intersecta o plano OXZ e v 0 = (m, 1, n) é um seu vector director.
u2
Finalmente, se u1 6= 0, tal como nos casos anteriores, é fácil ver que, sendo m = ,
u1
u3 au2 au3
n= , p=b− e q =c− , então
u1 u1 u1
y = mx + p
(x, y, z) ∈ R ⇔
z = nx + q. (4.3)
a0 x + b0 y + c0 z + d0 = 0,
140 Geometria Analı́tica
em que
a b c
r = 2.
a0 b 0 c 0
Reciprocamente, é fácil ver que, qualquer sistema do tipo anterior representa uma recta, i.e.
o conjunto das suas soluções dá-nos as coordenadas dos pontos de uma determinada recta.
As equações normais, as equações reduzidas ou qualquer outro sistema de duas equações
lineares, nas variáveis x, y e z, que lhes seja equivalente são representações cartesianas não
paramétricas da recta.
Exemplos 8.2.3
1. Determinemos um sistema de equações reduzidas da recta R que passa pelos pontos
A = (2, 4, 0) e B = (3, 7, 1). Ora,
-
R = A+ < AB >= (2, 4, 0)+ < (1, 3, 1) >,
pelo que
x−2 y−4 z−0
= =
1 3 1
é um sistema de equações normais da recta R. Resolvendo este sistema em ordem a
duas das suas variáveis, por exemplo em ordem a x e y, obtemos o sistema
x=z+2
y = 3z + 4,
ou seja, obtemos um sistema de equações reduzidas da recta R.
2. Consideremos a recta R representada pelo seguinte sistema de equações cartesianas
não paramétricas
x+y+z =0
x − y − z − 2 = 0.
e determinemos uma equação vectorial desta recta. Começando por determinar um
sistema de equações reduzidas da recta R, obtemos
x=1
y = −z − 1
e portanto P = (1, −1, 0) é um ponto de R e que v = (0, −1, 1) é uma sua direcção.
Assim,
(x, y, z) = (1, −1, 0) + λ(0, −1, 1), λ ∈ R
é uma equação vectorial da recta R. H
X = P + λu + µv, λ, µ ∈ R,
ou seja,
dá-nos uma representação analı́tica do plano P. A uma representação do plano P deste tipo
chamamos equação vectorial de P.
De (5) resulta o “sistema de equações”
x = p1 + λu1 + µv1
y = p2 + λu2 + µv2 (6)
z = p3 + λu3 + µv3 , λ, µ ∈ R,
Exemplos 8.2.4
(observe-se que estamos a considerar vectores escritos em relação a uma base ortonormada
e directa de R3 ). Logo,
ax + by + cz + d = 0. (7)
A qualquer equação do tipo (7) cujas soluções sejam as coordenadas dos pontos do plano
P chamamos equação geral de P.
Observemos que a partir de um sistema de equações paramétricas do plano P podemos
também (por eliminação dos parâmetros) obter uma equação geral de P.
Vimos então que um plano pode ser representado por uma equação linear independente
a três incógnitas. Reciprocamente, é fácil ver que, toda a equação linear independente a três
incógnitas nos dá uma representação cartesiana (não paramétrica) de algum plano.
Observemos que, uma vez que o referencial que fixámos é ortonormado e directo, então o
vector w de coordenadas (a, b, c) é precisamente o produto externo dos vectores u e v, pelo
que w é, em particular, um vector perpendicular ao plano P, i.e. perpendicular a todos os
vectores não nulos do plano P.
Representações cartesianas da recta e do plano 143
Exemplos 8.2.5
1. Determinemos uma equação geral do plano P definido pelos pontos A = (1, 1, 1),
B = (0, 1, 0) e C = (0, 0, 1). Uma vez que
- -
P = A+ < AB, AC >= (1, 1, 1)+ < (−1, 0, −1), (−1, −1, 0) >,
temos
x−1 y−1 z−1
(x, y, z) ∈ P ⇔ −1 0 −1 =0
−1 −1 0
⇔ (x − 1)(−1) − (y − 1)(−1) + (z − 1) = 0
⇔ −x + y + z − 1 = 0
e, portanto, −x + y + z − 1 = 0 é uma equação geral de P.
então
(x, y, z) ∈ P ⇔ x = z + y − 1.
Logo, x − y − z + 1 = 0 é uma equação geral do plano P.
-
B-= (0, 2, 0) e C = (0, 0, −4) também pertencem a P. Uma vez que AB = (−4, 2, 0) e
AC = (−4, 0, −4) são dois vectores linearmente independentes de P, então os pontos
A, B e C não são colineares e, portanto, definem o plano P. Assim,
(x, y, z) = (4, 0, 0) + λ(−4, 2, 0) + µ(−4, 0, −4), λ, µ ∈ R
é uma equação vectorial do plano P.
(ii) Determinando todas as soluções da equação dada: como x + 2y − z = 4 se e só se
z = x + 2y − 4 então as soluções da equação dada são da forma (x, y, x + 2y − 4), com
x, y ∈ R. Logo,
P = {(x, y, x + 2y − 4) : x, y ∈ R}
Teorema 8.3.1
2. Duas rectas distintas e paralelas definem um plano (i.e. existe um e um só plano que
as contém).
Observação 8.3.2 De acordo com o teorema anterior, duas rectas estritamente paralelas
ou concorrentes definem um plano. Além disso, estes são os únicos casos em que duas rectas
definem um plano. Assim, duas rectas definem um plano se e só se são estritamente paralelas
ou concorrentes.
Evidentemente que se duas rectas definem um plano então são complanares. Por outro
lado, é também verdade que, se duas rectas distintas são complanares então existe um único
plano que as contém, i.e. as duas rectas definem um plano. Mais geralmente, podemos
afirmar que, duas rectas (não necessariamente distintas) são complanares se e só se são
paralelas ou concorrentes.
(a) P1 = P2 ;
(b) P1 e P2 são estritamente paralelos;
(c) A intersecção de P1 com P2 é uma recta.
(a) R1 ⊆ P1 ;
(b) R1 é estritamente paralela a P1 ;
(c) A interseção de R1 com P1 é um ponto, i.e. são concorrentes.
(a) R1 = R2 ;
(b) R1 e R2 são estritamente paralelas;
(c) R1 e R2 são concorrentes;
(d) R1 e R2 são enviezadas.
146 Geometria Analı́tica
Exemplos 8.3.5
1. Sejam P = (2, 1, −1)+ < (1, −1, 1), (2, 0, 1) > e R = (3, 1, 2)+ < (1, 1, 0) >. Verifi-
quemos que o plano P e a recta R são paralelos.
Como dim R < dim P, para R e P serem paralelos, temos que ter
ou seja,
(1, 1, 0) ∈< (1, −1, 1), (2, 0, 1) >,
o que é equivalente a
1 1 0
r 1 −1 1 = 2 (= dim P).
2 0 1
É fácil verificar que a caracterı́stica da matriz anterior é, de facto, igual a dois, pelo
que a recta R é paralela ao plano P.
e
(x, y, z) = (2, 4, −3) + λ(3, 1, 3) + µ(0, 1, 0), λ, µ ∈ R,
respectivamente.
Como dim P1 = dim P2 , para P1 e P2 serem paralelos, temos que ter
ou seja,
1 1 1
1 0 1
r = 2 (= dim Pi , i = 1, 2).
3 1 3
0 1 0
Como a caracterı́stica desta matriz é igual a dois, então os planos P1 e P2 são paralelos.
então a recta R não é paralela ao plano P (e, portanto, R é concorrente com P).
então os planos P e P 0 não são paralelos. Logo, P ∩ P 0 é uma recta, a qual é definida
pelo sistema de equações lineares
x+y =2
x + z = 1.
7. Sejam R = (0, 1, 0)+ < (1, 1, 1) > e R0 = (1, 1, 1)+ < (1, 1, 1) > duas rectas. Vamos
determinar uma equação geral do plano P definido pelas rectas R e R0 , caso este exista.
Como R e R0 são paralelas (o vector u = (1, 1, 1) é uma direcção de ambas as rectas),
se mostrarmos que R 6= R0 , provamos que definem um plano.
Uma vez que
x−0 y−1 z−0
= =
1 1 1
é um sistema de equações não paramétrico de R e
e temos
x−0 y−1 z−0
1
0 1 =0
⇔ −x + z = 0,
1 1 1
8. Consideremos as rectas R1 = (1, 0, 2)+ < (1, 1, 0) > e R2 = (1, 1, 3)+ < (0, 1, 1) >
e averiguemos se definem um plano. Claramente, R1 e R2 têm direcções diferentes,
pelo que não são paralelas. Vejamos, pois, se são concorrentes. Precisamos então de
determinar R1 ∩ R2 . Para tal, é mais cómodo termos estas rectas representadas por
um sistema de equações não paramétricas. Assim, como
= y−0
x−1
1 1
x=1
e y−1
z=2 1
= z−3
1
9. Sejam P = (3, 2, 1) e Q = (1, 2, −3) dois pontos e R a recta definida pelo seguinte
sistema de equações reduzidas
x=1
y = −z − 1.
Como o ponto P não pertence à recta R (pois as suas coordenadas não são solução do
sistema anterior), este e a recta R definem um plano P. Vamos então determinar uma
equação vectorial do plano P 0 paralelo ao plano P e que contém o ponto Q.
-
Então P = P + < AP , u >, em que A é um ponto de R e u uma sua direcção.
A partir do sistema de equações que define a recta R podemos tomar, por exemplo,
A = (1, −1, 0) e u = (0, −1, 1). Donde,
e portanto
P 0 = (1, 2, −3)+ < (2, 3, 1), (0, −1, 1) > .
Logo
(x, y, z) = (1, 2, −3) + λ(2, 3, 1) + µ(0, −1, 1), λ, µ ∈ R
é uma equação vectorial do plano P 0 . H
-
- | w|M P |
d(P, P) = | projwM P | = . (1)
kwk
w
P
P)
d( P,
M
P
Suponhamos que o plano P está representado pela equação vectorial
X = M + λu + µv, λ, µ ∈ R.
Uma vez que o vector u × v é perpendicular ao plano P, então a partir de (1) tem-se
-
| u × v|M P |
-
d(P, P) = | proj MP | = . (1.1)
u×v ku × vk
Por outro lado, se o plano P está representado pela equação geral
ax + by + cz + d = 0,
d(P, R)
θ
R u
M
Como -
ku × M P k
senθ = - ,
kuk kM P k
obtemos -
ku × M P k
d(P, R) = . (2)
kuk
8.4.5 Distância entre dois planos
d(P, P 0 ) = d(M, P 0 ),
com M ∈ P.
O problema fica, neste caso, reduzido ao cálculo da distância de um ponto a um
plano.
P
P P’ )= d(M,P ’ )
d( ,
P’
152 Geometria Analı́tica
R M
R , P )= d(M, P
d( )
P
Observemos que, se a recta R está contida no plano P, então d(R, P) = d(M, P) = 0,
com M um ponto de R (e, portanto, também de P).
Sejam R e R0 duas rectas. Tal como nos casos anteriores, para calcular a distância entre
duas rectas é necessário conhecer a posição relativa que ocupam entre si. Assim:
1. Se as rectas R e R0 são concorrentes é claro que d(R, R0 ) = 0;
2. Se as rectas R e R0 são paralelas então
d(R, R0 ) = d(M, R0 ),
em que M é um ponto qualquer da recta R. Neste caso, o problema fica reduzido ao
cálculo da distância de um ponto a uma recta.
R R R’ )
d( ,
R’
Problemas não métricos: distâncias e ângulos 153
R M
d(R ,R’ )
R’
P
Tomando dois pontos M e Q e dois vectores u e v tais que R = M + < u > e
R0 = Q+ < v >, temos P = Q+ < u, v > e portanto d(R, R0 ) = d(R, P) = d(M, P).
Logo, aplicando a fórmula (1.1), temos
-
| u × v|QM|
d(R, R0 ) = . (3)
ku × vk
Sejam R1 = P + < u > e R2 = Q+ < v > duas rectas de R3 . O ângulo das rectas
R1 e R2 é, por definição, o menor dos ângulos formado por duas rectas complanares, uma
delas com a direcção de R1 , a outra com a direcção de R2 . Assim, tomando (por exemplo)
R01 = R1 e R02 = P + < v > (estas rectas têm, respectivamente, as direcções de R1 e R2 e
são complanares), temos
θ = ∠) (R1 , R2 ) = ∠) (R01 , R02 ).
v
u
θ
R2 R1
1. θ ∈ [0, π2 ];
R α
R’
θ
| w|k |
∠) (R, P) = Arc sen . (5)
kwk kkk
| w|u × v |
∠) (R, P) = Arc sen . (5.1)
kwk ku × vk
Observemos que, sendo θ = ∠) (R, P), então θ ∈ [0, π2 ]. Além disso, θ = 0 se e só se a
recta R é paralela ao plano P.
R1
θ
R2
P1
P2
| k1 |k2 |
∠) (P1 , P2 ) = Arc cos . (6)
kk1 k kk2 k
| (u1 × v1 )|(u2 × v2 ) |
∠) (P1 , P2 ) = Arc cos . (6.1)
ku1 × v1 k ku2 × v2 k
Exemplos 8.4.11
1. Sejam P o plano perpendicular ao vector w = (1, 1, −1) e que passa pelo ponto M =
(0, 0, −3), e P = (1, −1, 0) um ponto de R3 . Determinemos a distância de P ao plano
P. Como w é um vector perpendicular a P e M é um ponto de P, então
-
| w|M P| 1 √
d(P, P) = = √ | (1, 1, −1)|(1, −1, 3) | = 3.
kwk 3
Vamos calcular as coordenadas dos pontos da recta R que distam uma unidade do
plano P. Sejam M = (2, 0, 0) ∈ P e w = (−2, 1, 0) × (2, 0, −1) = (−1, −2, −2) (que é
156 Geometria Analı́tica
um vector perpendicular ao plano P). Uma vez que os pontos da recta R são da forma
Py = (y + 1, y, −y − 1), com y ∈ R, então
-
| w|M Py| | (−1, −2, −2)|(y − 1, y, −y − 1) | |3 − y|
d(Py , P) = = √ = .
kwk 9 3
então
2
d(P, Pλ ) = 1 ⇔ 9λ2 − 12λ + 5 = 1 ⇔ λ = .
3
8 7 10
Assim Q = , , é o ponto de R à distância mı́nima do ponto P .
3 3 3
6. Consideremos os planos P e P 0 definidos pelas equações gerais
2x − y + 3z − 1 = 0 e 3x + 2y + 5z + 2 = 0.
e P 0 o plano definido pela equação geral x+αy +2z +β = 0, com α e β dois parâmetros
reais. Vamos determinar os valores de α e β para os quais os planos P e P 0 distam
três unidades. Para termos d(P, P 0 ) = 3, os planos P e P 0 têm de ser (estritamente)
paralelos. Determinemos, então, um vector u perpendicular ao plano P: por exemplo,
pelo que:
(a) Se β = 2 então r(A) = 3 = r[A | B], donde as rectas são concorrentes e portanto
d(R1 , R2 ) = 0.
(b) Se β = 1 então r(A) = 2 e r[A | B] = 3, donde as rectas são estritamente
paralelas. Logo, sendo P = (0, −β, 4) = (0, −1, 4) ∈ R1 , M = (0, −1, β + 2) =
(0, −1, 3) ∈ R2 e u = (1, 1, −2) (vector com a direcção de R2 ), tem-se
- √
ku × M Pk k(1, 1, −2) × (0, 0, 1)k 1 3
d(R1 , R2 ) = = √ = √ k(1, −1, 0)k = .
kuk 6 6 3
11. Consideremos a recta R que passa pelo ponto A = (3, 1, 2) e tem a direcção do vector
u = (1, 1, 0), o plano P de equação geral 2x+y−z+9 = 0 e, ainda, o ponto P = (4, 3, 3).
Vamos determinar o ângulo de R com P, o ângulo de P com o plano P 0 que contém a
recta R e passa pelo ponto P e, ainda, o ângulo de R com a recta R0 que passa pelos
pontos A e P :
(b) Uma vez que R = A+ < u > e P 0 é o plano que contém R e passa por P , então
-
P 0 = A+ < u, AP >= (3, 1, 2)+ < (1, 1, 0), (1, 2, 1) > .
Tomemos k1 = (2, 1, −1) (vector perpendicular ao plano P) e
k2 = (1, 1, 0) × (1, 2, 1) = (1, −1, 1)
(vector perpendicular ao plano P 0 ). Então
| k1 |k2 | | (2, 1, −1)|(1, −1, 1) | π
∠) (P, P 0 ) = Arc cos = Arc cos = Arc cos0 =
kk1 k kk2 k k(2, 1, −1)k k(1, −1, 1)k 2
(i. e. os planos P e P 0 são perpendiculares).
(c) Resta-nos determinar o ângulo das rectas R e R0 . Uma vez que R = A+ < u >
-
e R0 = A+ < AP >, então
- √
0 | u|AP | | (1, 1, 0)|(1, 2, 1) | 3 π
∠) (R, R ) = Arc cos - = Arc cos = Arc cos = . H
kuk kAP k k(1, 1, 0)k k(1, 2, 1)k 2 6
8.5 Quádricas
Ao contrário das secções precedentes, não consideramos agora nenhum referencial previa-
mente fixado.
Definição 8.5.1 Seja (O; e1 , e2 , e3 ) um referencial de R3 . Designamos por quádrica ou
superfı́cie algébrica de ordem 2 qualquer conjunto Q de pontos de R3 cujas coordenadas
relativamente ao referencial (O; e1 , e2 , e3 ) são as soluções de uma equação polinomial de grau
2 de coeficientes reais nas variáveis x1 , x2 e x3 , i. e. de uma equação do tipo
ax21 + bx22 + cx23 + a0 x1 x2 + b0 x1 x3 + c0 x2 x3 + a00 x1 + b00 x2 + c00 x3 + d = 0,
em que a, b, c, a0 , b0 , c0 , a00 , b00 , c00 , d ∈ R e, pelo menos, um dos elementos de {a, b, c, a0 , b0 , c0 }
(coeficientes dos termos de grau 2) é não nulo.
Exemplo 8.5.2 Seja (O; e1 , e2 , e3 ) um referencial ortonormado de R3 . Então, a quádrica
representada, relativamente a este referencial, pela equação
x21 + x22 + x23 = 1
é a superfı́cie esférica de centro no ponto O e raio igual a uma unidade.
160 Geometria Analı́tica
Lema 8.5.5 Sejam (O; e1 , e2 , e3 ) e (O0 ; e01 , e02 , e03 ) dois referenciais de R3 e P um ponto de
coordenadas (p1 , p2 , p3 ) no referencial (O; e1 , e2 , e3 ) e coordenadas (p01 , p02 , p03 ) no referencial
(O0 ; e01 , e02 , e03 ). Se (a1 , a2 , a3 ) são as coordenadas do ponto O0 no referencial (O; e1 , e2 , e3 )
então 0
p1 a1 p1
p2 = a2 + M(id; (e0j ), (ei )) p02 .
p3 a3 p03
Pode-se então provar que:
Teorema 8.5.6 Sejam (O; e1 , e2 , e3 ) e (O0 ; e01 , e02 , e03 ) dois referenciais de R3 , C a matriz
coluna das coordenadas do ponto O0 no referencial (O; e1 , e2 , e3 ) e M = M(id; (e0j ), (ei )).
Então, uma quádrica de R3 tem por equação
X T AX + 2BX + d = 0
no referencial (O; e1 , e2 , e3 ) se e só se tem por equação
X T (M T AM )X + 2(B + C T A)M X + (C T AC + 2BC + d) = 0
no referencial (O0 ; e01 , e02 , e03 ).
Quádricas 161
Vamos determinar a equação da quádrica Q relativamente ao referencial (O0 ; e01 , e02 , e03 ).
T
De acordo com o teorema anterior, sendo C = −1 0 0 (C é a matriz coluna das
coordenadas do ponto O0 relativamente ao referencial (O; e1 , e2 , e3 )) e M = M(id; (e0j ), (ei )),
então a quádrica Q tem a seguinte equação relativamente ao referencial (O0 ; e01 , e02 , e03 ):
Observação 8.5.11 Pode mostrar-se que uma quádrica é central se e só se admite uma
equação canónica do tipo
λ1 x21 + · · · + λr x2r = c,
com c ∈ R, λ1 , . . . , λr ∈ R \ {0} e r ∈ {1, 2, 3}, e é não central se e só se admite uma equação
canónica do tipo
λ1 x21 + · · · + λr x2r = 2αxr+1 ,
com λ1 , . . . , λr , α ∈ R \ {0} e r ∈ {1, 2}.
em que c ∈ R e λ1 , λ2 , λ3 ∈ R \ {0}.
Uma vez que, multiplicando por −1 ambos os membros da equação (1), obtemos uma
equação equivalente do mesmo tipo, podemos admitir sem perda de generalidade que c ≥ 0.
• Consideremos c > 0 e tomemos
r
c
ai = ,
| λi |
para qualquer i ∈ {1, 2, 3}. Vamos analisar os vários casos possı́veis em função do número
de λi ’s positivos.
•• Se λ1 , λ2 , λ3 > 0 então a equação (1) é equivalente à equação
ou
x21 x22 x23
− + + = 0.
a21 a22 a23
x21 x22
+ = 2x3 , (2.1)
a21 a22
x21 x22
− 2 = 2x3 , (2.2)
a21 a2
x21 x22
− + = 2x3 (2.3)
a21 a22
ou
x21 x22
− − 2 = 2x3 . (2.4)
a21 a2
Se Q verifica a equação (2.1) ou a equação (2.4) (situação que ocorre quando λ1 e λ2 têm o
mesmo sinal) então a quádrica Q diz-se um parabolóide elı́ptico. Se Q verifica a equação (2.2)
ou a equação (2.3) (o que acontece quando λ1 e λ2 têm sinais contrários) então a quádrica
diz-se um parabolóide hiperbólico ou uma sela de cavalo.
166 Geometria Analı́tica
λ1 x21 = c, (C1)
com c ∈ R e λ1 ∈ R \ {0}; ou
λ1 x21 + λ2 x22 = c, (C2)
com c ∈ R e λ1 , λ2 ∈ R \ {0}.
• Admitamos que a quádrica tem por equação (C1) no referencial considerado e tomemos
a = λc1 . Então:
3. Se a > 0 então √ √
x21 = a ⇔ x1 = − a ∨ x1 = a,
pelo que Q é a união dos planos de equações gerais
√ √
x1 + a = 0 e x1 − a = 0,
x21 x22
+ =0 (C2.1)
a21 a22
Quádricas 167
ou
x21 x22 (C2.2)
− 2 = 0,
q a21 a2
1
em que ai = | λi |
, para i = 1, 2.
Se a quádrica tem por equação (C2.1) (o que acontece quando λ1 e λ2 têm o mesmo
sinal) então Q é a recta O+ < e3 >.
Por outro lado, como
x21 x22
− 2 =0 ⇔ a2 x1 − a1 x2 = 0 ∨ a2 x1 + a1 x2 = 0,
a21 a2
se Q admite a equação (C2.2) então é a união dos planos de equações gerais
a2 x1 − a1 x2 = 0 e a2 x1 + a1 x2 = 0,
em relação ao referencial (O; e1 , e2 , e3 ).
r
2. Se c 6= 0 então, sendo ai = λci , para i = 1, 2, a equação (C2) é equivalente a uma
ou
x21 x22 (C2.6)
− − 2 = 1.
a21 a2
8.6 Exercı́cios
Nos exercı́cios que se seguem considere sempre um referencial ortonormado directo (O; e1 , e2 , e3 )
do espaço afim R3 .
(a) Plano que passa pelo ponto (1, 0, 2) e é paralelo aos vectores a = (−2, −1, 0) e b =
(3, 0, 2) ;
(b) Plano que passa pelos pontos A = (2, −1, 4) , B = (0, 0, 1) e C = (0, 3, −5) ;
(c) Plano que passa pelo ponto (3, 0, 0) e é perpendicular ao vector v = (1, 2, 3) .
(a) x + 5y = 2.
(b) 3x − 2y + 4z − 6 = 0.
(c) x + 3 = 0.
(d) −x + y + z = 1.
3. Escreva uma equação geral do plano definido pelo ponto A e pelos vectores u e v,
sendo:
4. Determine equações vectoriais das rectas definidas pelas seguintes equações não pa-
ramétricas:
(a) x = 0 e y = 3z .
(b) 2x + y + z = 1 e x − y − z + 2 = 0 .
5. Determine:
(a) x + y = 0 e y + z = 0 .
(b) 2x + 2y + z = 0 e x − 2y − 2z = 6 .
(c) (x, y, z) = λ(−3, 3, 0) + µ(1, 4, −10), λ, µ ∈ R e 2x − 2y − z = 0 .
9. Considere as rectas
Determine:
15. Escreva uma equação geral do plano definido pelo ponto A e pelos vectores u e v,
sendo:
a) A = (0, 1, 2), u = (2, 0, −1) e v = (0, −1, 3).
b) A = (2, 0, 0), u = (5, 1, −1) e v = (−10, 1, 2).
17. Considere o plano de equação geral ax + by + cz + d = 0, com d 6= 0 (isto é, o plano não
passa pela origem) e a 6= 0, b 6= 0, c 6= 0 (isto é, o plano não é perpendicular a qualquer
dos planos coordenados). Mostre que a equação do plano se pode escrever na forma
x y z
+ + = 1 (eq. axial do plano).
A B C
19. Determine equações vectoriais das rectas com as seguintes equações não paramétricas:
a) x = 0 ∧ y = 3z.
b) 2x + y + z = 1 ∧ x − y − z + 2 = 0.
c) y = 2 ∧ z = −4.
x−1 y+2
d) 3
= 2
= z6 .
a) Verifique que estas rectas são complanares e indique uma equação geral do plano
que as contém.
b) Determine as rectas da famı́lia anterior paralelas ao plano de equação
x + y + z = 1.
x + αy + 2z = 0,
2x + (α + 1)y + (β + 2)z = 1,
(α + 1)x + (α + 1)y + 4z = 2.
30. Escreva as equações dos planos paralelos ao plano de equação 2x−2y −z = 3 e situados
a uma distância de cinco unidades do referido plano.
Determine:
a) A posição relativa das duas rectas.
b) Uma recta perpendicular e concorrente com R1 e R2 .
c) A distância entre R1 e R2 .
e
P : −21x + 25y − 3z = 20.
e o plano P2 definido pelos pontos (1, 2, 3), (2, 0, 1), (0, 0, 0).
a) Determine a intersecção dos planos dados.
b) Determine o ângulo formado pelos dois planos.
c) Determine a recta R que passa pelo ponto (1, 1, 1) e não intersecta nem P1 nem P2 .
Determine:
a) Uma equação vectorial da recta R.
b) Uma equação geral do plano P.
c) A distância de R a P.
d) Um plano que contenha a recta R e seja perpendicular a P.
Exercı́cios 175
e
S : (x, y, z) = (a, 0, 1) + µ(0, 2, b), µ ∈ R.
P1 : −2x + 4y − 2z + 3 = 0;
P2 : x + 2z − 1 = 0;
P3 : 2x + 4y + 6z + 2 = 0.
Determine:
a) Uma equação vectorial do plano P1 .
b) O ângulo formado pelos planos P1 e P2 .
c) Uma equação vectorial da recta R que é intersecção dos planos P1 e P2 .
d) A distância da recta R ao plano P3 .
42. Considere os pontos A = (1, 1, 0) e B = (3, 0, 0). Seja ainda a recta R definida pelas
equações
x+4 y−1 z
= = .
2 4 5
determine:
a) Uma equação vectorial da recta R.
b) Uma representação cartesiana não paramétrica da recta S definida pelos pontos A
e B.
c) Uma equação do plano P que contém a recta R e é paralelo à recta S.
d) Uma recta perpendicular a P que passe pelo ponto A.
e) O ponto Q do plano P cuja distância ao ponto A é mı́nima.
176 Geometria Analı́tica
44. Considere os pontos A = (1, −1, 0), B = (0, −2, 2) e os vectores u = (1, −1, 0) e
v = (1, −2, −1).
a) Mostre que A, B e u definem um plano P e determine uma sua equação vectorial.
b) Determine uma equação geral do plano P 0 definido por A, u e v.
c) Determine o ângulo formado pelos planos P e P 0 .
d) Determine a posição relativa do plano P e da recta R definida por A e v.
45. Sejam os pontos A = (1, 1, 2), B = (0, 1, 1), C = (0, 0, 1) e P o plano definido pela
equação x + 2y + 4z + 1 = 0.
a) Determine uma equação vectorial do plano paralelo a P que passa por A.
b) Obtenha uma equação vectorial de uma recta que passe por B e intersecte o plano
P.
c) Seja R a recta que passa pelos pontos A e B. Designemos por S a recta que passa
pelos pontos B e C.
i) Determine uma equação vectorial do plano que contém as rectas R e S.
ii) Determine a distância do ponto A à recta S.
47. Considere os pontos A = (3, 1, 1), B = (2, 1, 1) e o plano P definido pela equação
1 1
x + √ y + √ z + 7 = 0.
2 2