Você está na página 1de 177

ÁLGEBRA LINEAR

2006-2007

Apontamentos Teóricos
e
Listas de Exercı́cios
– Versão 2.0 (de 2005-2006) –

Escola Naval

Vı́tor Hugo Fernandes


Alfeite
Julho de 2006
Conteúdo

1 Álgebra das Matrizes 5


1.1 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Operações com matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Matrizes Invertı́veis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

2 Espaços Vectoriais 19
2.1 A noção de espaço vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2 Dependência e independência linear . . . . . . . . . . . . . . . . . . . . . . . 22
2.3 Conjuntos de geradores e bases . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4 Subespaços vectoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.5 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

3 Aplicações Lineares 43
3.1 Aplicações lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2 Matrizes de aplicações lineares . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.3 Matrizes de mudança de base . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.4 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

4 Sistemas de Equações Lineares 63


4.1 Matrizes de sistemas de equações lineares . . . . . . . . . . . . . . . . . . . . 63
4.2 Operações elementares sobre matrizes . . . . . . . . . . . . . . . . . . . . . . 65
4.3 Matrizes de Hermite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.4 Caracterı́stica de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.5 Resolução e discussão de sistemas . . . . . . . . . . . . . . . . . . . . . . . . 75
4.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

5 Determinantes 93
5.1 Definição e propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.2 Aplicações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.2.1 Inversa de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.2.2 Regra de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
5.3 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104

3
6 Valores e Vectores Próprios 111
6.1 Valores e vectores próprios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.2 Subespaços próprios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
6.3 Diagonalização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
6.4 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

7 Produtos Interno, Externo e Misto 121


7.1 Produto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
7.2 Produto externo e produto misto . . . . . . . . . . . . . . . . . . . . . . . . 124
7.3 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129

8 Geometria Analı́tica 133


8.1 Espaços afins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
8.2 Representações cartesianas da recta e do plano . . . . . . . . . . . . . . . . . 136
8.3 Problemas não métricos: incidência e paralelismo . . . . . . . . . . . . . . . 144
8.4 Problemas métricos: distâncias e ângulos . . . . . . . . . . . . . . . . . . . . 149
8.5 Quádricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
8.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168

4
Capı́tulo 1

Álgebra das Matrizes

Neste capı́tulo, e em todos os seguintes, sempre que referirmos o corpo K, excepto se ex-
pressamente indicado em contrário, estamos a considerar o corpo R dos números reais ou o
corpo C dos números complexos, com as operações usuais. Os elementos de K são usualmente
designados por escalares.

1.1 Matrizes
Definição 1.1.1 Uma matriz A do tipo (ou dimensão) m × n sobre um corpo K é um
quadro de m × n números de K dispostos em m filas horizontais, a que chamamos linhas e
contamos de cima para baixo, e em n filas verticais, a que chamamos colunas e contamos da
esquerda para a direita:

··· ···
 
a1 1 a1 2 a1 j a1 n
 a2 1 a2 2 ··· a2 j ··· a2 n 
 .. .. .. .. .. .. 
. . . . . .
 
Am×n = [ai j ]m×n =
 
 ai 1 ai 2 · · · ai j · · · ai n


 . .. .. .. .. ..
 ..

. . . . . 
am 1 am 2 · · · am j · · · am n m×n

(não havendo perigo de ambiguidade, é usual suprimir-se o tipo da matriz indicado nas
notações atrás em ı́ndice). Note-se que certos autores usam parêntesis curvos, em vez de
rectos, para delimitar os elementos da matriz. O número ai j (i ∈ {1, . . . , m}, j ∈ {1, . . . , n}),
que se encontra na linha i e na coluna j da matriz A, diz-se o elemento da posição (i, j) ou
a (i, j)-ésima entrada de A.
O conjunto das matrizes do tipo m × n sobre um corpo K representa-se por Mm×n (K).

Exemplos 1.1.2 (de matrizes)


       
1 0 −1 −1 4 −1 1 0 4 −1
A= B= C= D=
2 3 4 2×3
3 0 −4 2 4 2×2
3 0

5
6 Álgebra das Matrizes

 
1 ··· 0 0
0 0
   0 ··· 0 0 
1 0
1 0 0
 
0 ··· 0 0 
0 1
 
1 0

I2 = I3 = 0 1 0 In =  (n ∈ N)
 
0 1
  .. .. ..
. . . .. .. 
0 0 1

 . . . . . 
 0 0 0 ··· 1 0 
0 0 0 · · · 0 1 n×n
       
2 0 0 7 0 0 2 3 −4 2 0 0
E =  0 −1 0  F =  0 7 0  G =  0 −1 9  H =  3 −1 0 
0 0 5 0 0 7 0 0 5 −1 3 5
       
2 3 −4 2 0 0 2 3 −4 0 −3 4
J =  0 −1 9  L= 3 0 0  M = 3 0 1  N = 3 0 −1 
0 0 0 −1 3 5 −4 1 −2 −4 1 0


2  
     −1  0
P = −1 1 2 0 1×4
Q= 0 1 −2 0 7 1×5
R=
 0 
 S= 0 
−3 3×1
3 4×1

  
0   0 0 0 0
0 0
03×1 01×4 = 02×2 = 03×4
 
= 0  0 0 0 0 = 0 0 0 0  H
0 0
0 0 0 0 0

Naturalmente, duas matrizes A e B dizem-se iguais (A = B) se forem do mesmo tipo,


digamos m × n, e se os seus elementos homólogos (i.e. na mesma posição de A e de B) forem
iguais: ai j = bi j , para quaisquer i ∈ {1, . . . , m} e j ∈ {1, . . . , n}, tomando A = [ai j ]m×n e
B = [bi j ]m×n .

Definições 1.1.3 Consideremos uma matriz A = [ai j ]m×n sobre um corpo K. Dizemos
que:
1. A é uma matriz quadrada se o seu número de linhas for igual ao número de colunas,
i.e. m = n. Neste caso, dizemos que A é uma matriz quadrada de ordem n;
2. A é uma matriz linha se só possuir uma linha, i.e. m = 1;
3. A é uma matriz coluna se só possuir uma coluna, i.e. n = 1;
4. A é uma matriz nula se todos os seus elementos forem nulos, i.e. ai j = 0, para quaisquer
i ∈ {1, . . . , m} e j ∈ {1, . . . , n}. A matriz nula do tipo m × n representa-se por 0m×n ,
ou simplesmente por 0 quando não houver perigo de ambiguidade (ver Exemplos 1.1.2).

Exemplos 1.1.4 Voltemos a considerar as matrizes de 1.1.2. Então:


1. C, D, I2 , I3 (e mais geralmente In , com n ∈ N), E, F , G, H, J, L, M , N e 02×2 são
matrizes quadradas;
Operações com matrizes 7

2. P , Q e 01×4 são matrizes linha e R, S, e 03×1 são matrizes coluna. H

Definições 1.1.5 Consideremos uma matriz A = [ai j ]n×n quadrada de ordem n sobre um
corpo K. Dizemos que:
1. Os elementos da forma ai i , com i ∈ {1, . . . , n} são (os elementos d)a diagonal principal
de A;

2. À soma dos elementos da diagonal principal de A chamamos traço de A:


n
X
tr(A) = ai i (= a1 1 + a2 2 + · · · + an n ) ;
i=1

3. A matriz A diz-se triangular superior (respectivamente, triangular inferior) se todos


os elementos “abaixo” (respectivamente, “acima”) da diagonal principal forem nulos,
i.e. se 1 ≤ j < i ≤ n (respectivamente, 1 ≤ i < j ≤ n) implica ai j = 0;

4. Se A for simultaneamente uma matriz triangular inferior e uma matriz triangular


superior, i.e. se ai j = 0 sempre que i 6= j, então A diz-se uma matriz diagonal;

5. Uma matriz diagonal em que todos os elementos da diagonal principal são iguais diz-se
uma matriz escalar;

6. A matriz A diz-se a matriz identidade de ordem n se for a matriz escalar de ordem n


em que os elementos da diagonal são iguais a um, i.e. se

1, se i = j,
ai j =
0, se i 6= j,

para quaisquer 1 ≤ i, j ≤ n, e denota-se por In (ver Exemplos 1.1.2).

Exemplos 1.1.6 Consideremos uma vez mais as matrizes de 1.1.2. Então:


1. As matrizes In (n ∈ N), F e 02×2 são matrizes escalares;
2. As matrizes In (n ∈ N), F , 02×2 e ainda E são matrizes diagonais;

3. Além das matrizes diagonais, as matrizes G e J são matrizes triangulares superiores e


as matrizes C, H e L são matrizes triangulares inferiores. H

1.2 Operações com matrizes


Definição 1.2.1 Sejam A = [ai j ]m×n e B = [bi j ]m×n duas matrizes do (mesmo!) tipo m×n
sobre K. Definimos a soma da matriz A com a matriz B como sendo a matriz A + B, do
tipo m × n sobre K, cujos elementos são a soma dos elementos homólogos de A e de B, i.e.
A + B = [xi j ]m×n , em que xi j = ai j + bi j , para quaisquer i ∈ {1, . . . , m} e j ∈ {1, . . . , n}.
8 Álgebra das Matrizes

Exemplos 1.2.2
       
2 −1 5 3 2+5 −1 + 3 7 2
+ = =
3 0 −4 7 3 + (−4) 0 + 7 −1 7
       
1 4 −1 −1 3 7 1 + (−1) 4 + 3 −1 + 7 0 7 6
+ = =
2 3 0 0 4 −2 2+0 3 + 4 0 + (−2) 2 7 −2
       
1 3 −5 4 + 2 −7 6 5 = 1 + 2 3 + (−7) −5 + 6 4 + 5 = 3 −4 1 9
       
−2 −3 −2 + (−3) −5
 0 + 9 = 0+9 = 9  H
5 2 5+2 7

Definição 1.2.3 Dada uma matriz A = [ai j ]m×n do tipo m × n sobre K, definimos a matriz
simétrica de A, e denotamo-la por −A, como sendo a matriz cujas entradas são as simétricas
da matriz A, i.e. −A = [xi j ]m×n , em que xi j = −ai j , para quaisquer i ∈ {1, . . . , m} e
j ∈ {1, . . . , n}.

Exemplos 1.2.4
       
2 −1 −2 1 1 4 −1 −1 −4 1
− = − =
3 0 −3 0 2 3 0 −2 −3 0
   
    −2 2
− 1 3 −5 4 = −1 −3 5 −4 − 0  =  0  H
5 −5

Como é usual para números reais, dadas duas matrizes A, B ∈ Mm×n (K), escrevemos
abreviadamente A − B para representar a matriz A + (−B).

Definição 1.2.5 Dados uma matriz A = [ai j ]m×n sobre K e um escalar λ ∈ K, definimos
a matriz λA, a que chamamos multiplicação escalar de λ por A, como sendo a matriz cujas
entradas resultam de multiplicar λ pelos elementos de A, i.e. λA = [xi j ]m×n , em que
xi j = λai j , para quaisquer i ∈ {1, . . . , m} e j ∈ {1, . . . , n}.

Exemplos 1.2.6
     
(−5) 1 3 −5 4 = (−5) · 1 (−5) · 3 (−5) · (−5) (−5) · 4 = −5 −15 25 −20
     
2 −1 4 · 2 4 · (−1) 8 −4
4 = = H
3 0 4·3 4·0 12 0

Definição 1.2.7 Dada uma matriz A = [ai j ]m×n do tipo m × n sobre K, definimos a matriz
transposta de A, e denotamo-la por AT , como sendo a matriz do tipo n × m que resulta de
“trocar” as linhas de A com as colunas de A, i.e. AT = [xi j ]n×m , em que xj i = ai j , para
quaisquer j ∈ {1, . . . , n} e i ∈ {1, . . . , m}.
Operações com matrizes 9

Exemplos 1.2.8
 
 T    T 1 2
2 −1 2 3 1 4 −1
= = 4 3 
3 0 −1 0 2 3 0
−1 0
 
1  T
 T  3  −2  
1 3 −5 4 = 
 −5 
 0  = −2 0 5 H
5
4
 
Definição 1.2.9 Sejam L = x1 x2 · · · xn 1×n uma matriz linha (do tipo 1 × n) e
 
y1
 y2 
C =  ..  uma matriz coluna (do tipo n × 1) sobre um corpo K. Ao escalar
 
 . 
yn n×1
LC = x1 y1 + x2 y2 + · · · + xn yn
chamamos produto da linha L pela coluna C.
 
3
   −5 
Exemplo 1.2.10 Sejam L = 2 5 0 −4 1×4
eC=
 5  . Então

−2 4×1
LC = 2 · 3 + 5 · (−5) + 0 · 5 + (−4) · (−2) = −11. H
Definição 1.2.11 Sejam A = [ai j ]m×n e B = [bi j ]n×p duas matrizes sobre K dos tipos
m × n e n × p, respectivamente. Sejam L1 , . . . , Lm as linhas da matriz A (consideradas
como matrizes linha do tipo 1 × n) e C1 , . . . , Cp as colunas da matriz B (consideradas como
matrizes coluna do tipo n × 1). Definimos o produto da matriz A pela matriz B como
sendo a matriz AB = [xi k ]m×p , do tipo m × p, cujo elemento xi k da posição (i, k) se obtém
multiplicando a linha i de A pela coluna k de B, i.e.
xi k = Li Ck = ai 1 b1 k + ai 2 b2 k + · · · + ai n bn k ,
para quaisquer i ∈ {1, . . . , m} e k ∈ {1, . . . , p}.
Exemplo 1.2.12
 
 −2 0 
2 3 4 −5  1
 −1 5 
0 7 2   
 −3 −7  =
2 −2 3 6 3×4
4 8 4 ×2
   
2 · (−2) + 3 · 1 + 4 · (−3) + (−5) · 4 2 · 0 + 3 · 5 + 4 · (−7) + (−5) · 8 −33 −53
 (−1) · (−2) + 0 · 1 + 7 · (−3) + 2 · 4 (−1) · 0 + 0 · 5 + 7 · (−7) + 2 · 8  =  −11 −33 
2 · (−2) + (−2) · 1 + 3 · (−3) + 6 · 4 2 · 0 + (−2) · 5 + 3 · (−7) + 6 · 8 3×2 9 17
H
10 Álgebra das Matrizes

Sejam A uma matriz quadrada de ordem n sobre K e k ∈ N. Então, podemos multi-


plicar sucessivamente A por A e, como é usual para números reais, representamos por Ak
a potência-k de A, i.e. Ak é um produto de k matrizes cujos factores são todos iguais a A.
Convencionamos também que A0 = In .
É fácil mostrar que:

Teorema 1.2.13 Sejam Am×n , Bm×n , Cm×n e Xm×n matrizes do tipo m × n sobre K, Yn×p
uma matriz do tipo n × p sobre K, Zp×q uma matriz do tipo p × q sobre K, W`×m uma matriz
do tipo ` × m sobre K, Mn×n uma matriz quadrada de ordem n sobre K α, β ∈ K e k ∈ N.
Então:

1. A + B = B + A;

2. (A + B) + C = A + (B + C);

3. A + 0m×n = A;

4. A + (−A) = 0m×n ;

5. α(A + B) = αA + αB;

6. (α + β)A = αA + βA;

7. α(βA) = (αβ)A;

8. 1A = A e (−1)A = −A;

9. 0A = 0m×n e α0m×n = 0m×n ;

10. Se αA = 0m×n então α = 0 ou A = 0m×n ;


T
11. AT = A;

12. (A + B)T = AT + B T ;

13. (αA)T = αAT ;

14. (XY )Z = X(Y Z);

15. W (A + B) = W A + W B;

16. (A + B)Y = AY + BY ;

17. α(XY ) = (αX)Y = X(αY );

18. AIn = A = Im A e, em particular, M In = M = In M ;


T k
19. (XY )T = Y T X T e M k = M T ;

20. A0n×p = 0m×p e 0`×mA = 0`×n.


Matrizes Invertı́veis 11

Ao contrário da adição de matrizes, a multiplicação de matrizes não é em geral comu-


tativa, mesmo que produto esteja definido em ambos os sentidos e obtenhamos matrizes do
mesmo tipo nos dois casos (i.e. mesmo que estejamos a considerar matrizes quadradas da
mesma ordem). Por exemplo,
         
1 1 1 1 0 2 2 0 1 1 1 1
= 6= = .
1 −1 −1 1 2 0 0 −2 −1 1 1 −1
Por outro lado, temos, por exemplo,
       
1 1 −1 1 1 0 −1 1 1 1
= = .
2 1 2 −1 0 1 2 −1 2 1
Definição 1.2.14 Duas matrizes A e B quadradas de ordem n sobre K dizem-se per-
mutáveis se AB = BA.
Definições 1.2.15 Uma matriz A quadrada sobre K diz-se:
1. simétrica se AT = A;
2. anti-simétrica se AT = −A.
Exemplos 1.2.16 Uma vez mais consideremos as matrizes de 1.1.2. Então, as matrizes In
(n ∈ N), E, F , M e 02×2 são simétricas e as matrizes N e 02×2 são anti-simétricas. H

1.3 Matrizes Invertı́veis


Definição 1.3.1 Uma matriz quadrada de ordem n sobre K diz-se invertı́vel se existir uma
matriz B (quadrada de ordem n sobre K) tal que AB = In = BA.
Nestas condições, é fácil ver que a matriz B é única. Denotamos então B por A−1 e
designamo-la por matriz inversa de A.
Exemplo 1.3.2 De acordo com o vimos imediatamente antes da Definição 1.2.14, tem-se
 −1  
1 1 −1 1
= . H
2 1 2 −1

É fácil mostrar que:


Teorema 1.3.3 Sejam A e B duas matrizes invertı́veis de ordem n sobre K e k ∈ N.
Então:
−1
1. A matriz A−1 é invertı́vel, tendo-se (A−1 ) = A;
2. A matriz AB é invertı́vel, tendo-se (AB)−1 = B −1 A−1 ;
−1 k
3. A matriz Ak é invertı́vel, tendo-se Ak = (A−1 ) ;
−1 T
4. A matriz AT é invertı́vel, tendo-se AT = (A−1 ) .
12 Álgebra das Matrizes

1.4 Exercı́cios
As matrizes consideradas são reais.

1. Considere as seguintes matrizes:


     
1 −1 0 1 3 0 0 1  
A =  2 1 1 0 , B =  0 2 0 , C =  −1 , D = −3 1 4 1 ,
−1 1 3 1 0 0 1 2
 
0 0 0 0    
 0 0 0 0  1 4 0 0 0  
  1 0
E= 2 ,F =  0 0 0 0 , G =
  2 5 , H =  1 0 0 eI= .
0 1
3 6 2 4 0
0 0 0 0

(a) Indique o tipo de cada matriz.


(b) Diga quais das matrizes são quadradas ou diagonais.

2. Escreva a matriz do tipo n × n cujas entradas são dadas por



 −1 se i > j
xij = 0 se i = j
1 se i < j.

3. Escreva a matriz A = [aij ] do tipo 5 × 4, em que aij é dado por:

(a) O mı́nimo múltiplo comum de i e j;


(b) O máximo divisor comum de i e j.

4. Dada a matriz A = [aij ] do tipo n × n, indique a matriz B = [bij ], do mesmo tipo, tal
que bij = ai,n+1−j .

5. Sejam A = [aij ], B = [bij ], C = [cij ], D = [dij ] as seguintes matrizes:


 
    1 −1  
2 3 4 1 0 1 0  −1 2 4 8
1 
A =  3 4 5 , B =  0 1 0 1 , C =   1 −1 , D = 2 4 8 .
  
4 5 6 1 0 1 0 2 4 8
−1 1

(a) Determine uma expressão geral para aij , bij , cij e dij .
(b) Calcule, caso seja possı́vel:
i. A + D;
ii. B + C;
iii. αA, com α ∈ R;
iv. A + 0.B (0 ∈ R);
v. 2A − 3D.
Exercı́cios 13

   
1 2 3 −1 0 −1
6. Sendo A =  2 3 1  e B =  2 3 1 , calcule 3A − 5B.
3 1 2 1 2 0
 
7 3 18
7. Dada a matriz A =  −2 6 11 , determine a matriz B = [bij ] que é um múltiplo
15 17 13
escalar de A e tal que b13 = 6.

8. Prove que a subtracção de matrizes não é comutativa nem associativa.

9. Prove que, dadas matrizes A e B do mesmo tipo, tem-se −(A + B) = −A − B.


   
x−y y−z z−w x−w y−x z−y
10. Simplifique - .
w−x x−y y−z y−x z−y w−z
11. Dadas matrizes A e B do tipo m × n, resolva a equação matricial
1 3
3(X + A) = 5(X − B).
2 4
   
1 0 0 1 1 1
12. Dadas as matrizes A = 0 1 0 e B = 1
   1 1 , resolva a equação matricial
0 0 1 1 1 1

X + A = 2(X − B).

13. Considere as seguintes matrizes:

– A e D do tipo 2 × 3,
– F e G do tipo 4 × 4,
– B do tipo 3 × 4,
– C do tipo 3 × 2 e
– E do tipo 2 × 4.

Diga quais das seguintes afirmações são verdadeiras:

(a) É possı́vel calcular AB + E;


(b) (AB)F = A(BF );
(c) Pode ter-se AC = CA;
(d) É possı́vel calcular A + αB, com α ∈ R;
(e) BF = F B.
       
2 4 2 −4 0 0 2 −4
14. Calcule . e . Compare os resultados e
4 8 −1 2 0 0 −1 2
comente.
14 Álgebra das Matrizes

15. Considere as seguintes matrizes:


   
    2 −1 −4 2
2 1 3 1 1 −2
A= ,B= ,C= 0 6 eD= 3 5 .
4 0 1 5 −1 3
−3 2 −1 −3
Calcule, caso possı́vel, o valor das expressões seguintes:

(a) 3A;
(b) A + B;
(c) 0B;
(d) B + C;
(e) 4A − 2B;
(f) AB;
(g) AC;
(h) (AC)2 ;
(i) (A − 2B)(3C + D);
(j) A(DB);
(k) (AD)B.

16. Considere as matrizes:


   
  2 −1 0 1   1 −1 −1
1 1 2 3 4
A= ,B= 1 1 2 5 , C = ,D= 2 3 0 ,
0 3 5 7 1
 2 −2 1 0 1 −5 3
  −8
E= 2 4 7 eF =  3 .
1
Calcule, caso possı́vel:

(a) AB;
(b) AD;
(c) AC;
(d) CA;
(e) C 2 ;
(f) DF ;
(g) ED;
(h) EF ;
(i) F E.
Exercı́cios 15

   
cos θ sen θ cos ϕ sen ϕ
17. Sejam A = eB= . Prove que:
−sen θ cos θ −sen ϕ cos ϕ
 
cos(θ + ϕ) sen(θ + ϕ)
AB = .
−sen(θ + ϕ) cos(θ + ϕ)

18. Mostre que a equação X 2 − 5X + 4I2 = 0 é satisfeita por cada uma das matrizes:
 
1 0
(a) .
0 1
 
4 0
(b) .
0 4
 
3 −2
(c) .
−1 2
 
1 3
19. Mostre que uma matriz do tipo 2 × 2 comuta com se e só se é da forma
  0 1
α β
, com α e β números reais.
0 α
   
0 1 0 α β γ
20. Mostre que as matrizes que comutam com  0 0 1  são as da forma  0 α β ,
0 0 0 0 0 α
com α, β e γ números reais.

21. Encontre todas as matrizes que comutam com a matriz A, sendo:


 
1 2
(a) A = ;
−1 −1
 
1 1
(b) A = ;
0 1
 
1 0 0
(c) A =  0 1 0 .
3 1 2
 
0 a a2
22. Calcule A2 e A3 , sendo A =  0 0 a .
0 0 0
   
0 1 −1 −1
23. Considere as matrizes A = eB= .
0 1 0 0
Prove que:

(a) (A + B)2 6= A2 + 2AB + B 2 ;


(b) A2 − B 2 6= (A − B)(A + B).
16 Álgebra das Matrizes

24. Dadas matrizes quadradas A e B tais que AB = BA, prove que:

(a) (A + B)2 = A2 + 2AB + B 2 ;


(b) A2 − B 2 = (A − B)(A + B).
 
0 1
25. Considere a matriz Y = . Verifique que:
−1 0

(a) Y 2 = −I2 ;
(b) Y 4 = I2 ;
(c) (aI2 + bY )(aI2 − bY ) = (a2 + b2 )I2 , para quaisquer números reais a, b.

26. Mostre que existe um número infinito de matrizes A do tipo 2 × 2 tais que A2 = −I2 .

27. Determine todas as matrizes X do tipo 2 × 2 tais que X 2 = I2 .


 
28. Sejam X = a b c e  
0 −c b
A= c 0 −a  ,
−b a 0
onde a2 + b2 + c2 = 1.

(a) Prove que A2 = X T X − I3 .


(b) Prove que A3 = −A.
(c) Escreva A4 em função de X.

29. Mostre que, se A e B são matrizes do tipo 2 × 2, então a soma dos elementos da
diagonal principal da matriz AB − BA é zero.

30. Se E é uma matriz do tipo 2 × 2 e a soma dos elementos da diagonal principal de E é


zero, mostre que existe um número real λ tal que E 2 = λI2 .

31. Deduza a partir dos dois exercı́cios anteriores que, se A, B e C são matrizes do tipo
2 × 2, então
(AB − BA)2 C = C(AB − BA)2 .

32. Mostre que:

(a) No conjunto das matrizes diagonais do tipo n × n, a multiplicação de matrizes


goza da propriedade comutativa.
(b) A soma e o produto de matrizes diagonais é ainda uma matriz diagonal.

33. Determine quais das seguintes matrizes são simétricas ou anti-simétricas:


       
1 2 0 −3 7 0 −1 3 3 1 6
A =  2 1 , B =  3 0 −5 , C =  1 2 2  e D =  1 5 5 .
5 4 −7 5 0 3 2 0 6 5 7
Exercı́cios 17

34. Prove que, dadas matrizes A, B e C, e sempre que as expressões tenham significado,
tem-se
[A(B + C)]T = B T AT + C T AT .

35. Prove que, se as matrizes A e B comutam, então as matrizes AT e B T também comu-


tam.

36. (a) Seja A uma matriz quadrada real. Prove que:


i. A + AT e AAT são matrizes simétricas.
ii. A − AT é anti-simétrica.
(b) Prove que qualquer matriz quadrada é soma de uma matriz simétrica com uma
matriz anti-simétrica.
(c) Mostre que a decomposição anterior é única.

37. Sejam A e B duas matrizes tais que


 
1 2 3
A + B =  4 5 6 .
7 8 9

Determine A e B, supondo que A é anti-simétrica e que B é simétrica.

38. Prove que as matrizes quadradas nulas são as únicas matrizes simultâneamente simé-
tricas e anti-simétricas.

39. Sejam A e B matrizes do tipo n × n tais que A é simétrica e B é anti-simétrica. Das


matrizes seguintes, indique as que são simétricas e as que são anti-simétricas:

AB + BA, AB − BA, A2 , B 2 , Ap B q Ap (p, q inteiros positivos).


Capı́tulo 2

Espaços Vectoriais

2.1 A noção de espaço vectorial


Definição 2.1.1 Sejam E um conjunto não vazio e K um corpo. Diz-se que E é um espaço
vectorial sobre o corpo K se:

1. Está definida em E uma operação binária designada por adição e que, usualmente, se
representa pelo sı́mbolo +,

+ : E × E −→ E
(x, y) 7→ x + y ,

tal que (E, +) é um grupo comutativo, i.e. satisfaz as seguintes propriedades:

(EV1) (∀x, y ∈ E) x + y = y + x;
(EV2) (∀x, y, z ∈ E) (x + y) + z = x + (y + z);
(EV3) (∃0E ∈ E)(∀x ∈ E) x + 0E = x;
(EV4) (∀x ∈ E)(∃x0 ∈ E) x + x0 = 0E ;

2. Está definida uma aplicação de K × E para E, designada por multiplicação escalar,


que a cada par (λ, x) ∈ K × E faz corresponder um elemento λx de E,

K × E −→ E
(λ, x) 7→ λx ,

tal que:

(EV5) (∀α ∈ K)(∀x, y ∈ E) α(x + y) = αx + αy;


(EV6) (∀α, β ∈ K)(∀x ∈ E) (α + β)x = αx + βx;
(EV7) (∀α, β ∈ K)(∀x ∈ E) α(βx) = (αβ)x;
(EV8) (∀x ∈ E) 1x = x, em que 1 é a identidade de K.

19
20 Espaços vectoriais

Os elementos de E designam-se por vectores e os elementos de K designam-se por escala-


res. O elemento neutro (zero) de (E, +), 0E , não havendo perigo de ambiguidade representa-
se simplesmente por 0 (a mesma notação que se usa normalmente para o zero de K). Dado
x ∈ E, o elemento oposto (simétrico) de x (cuja existência é garantida por (EV4)) representa-
se por −x: x + (−x) = 0E . Como é usual para números reais, dados x, y ∈ E, escrevemos
abreviadamente x − y para representar o elemento x + (−y).
Quando o corpo K é o corpo dos números reais (respectivamente, o corpo dos números
complexos) com as operações usuais, diz-se que E é um espaço vectorial real (respectivamente,
espaço vectorial complexo).

Exemplos 2.1.2

1. O conjunto Mm×n (K) das matrizes do tipo m × n sobre o corpo K, com as operações
usuais de adição de matrizes e multiplicação de um escalar por uma matriz, é um espaço
vectorial sobre K, de acordo com as propriedades estudadas no capı́tulo anterior.

2. Sejam K um corpo e Kn o conjunto dos n-uplos ordenados de elementos de K, i.e.

Kn = {(a1 , a2 , . . . , an ) : a1 , a2 , . . . , an ∈ K}.

Defina-se em Kn uma operação adição por

(a1 , . . . , an ) + (b1 , . . . , bn ) = (a1 + b1 , . . . , an + bn ),

para quaisquer (a1 , . . . , an ), (b1 , . . . , bn ) ∈ Kn , e uma multiplicação escalar,

K × Kn −→ Kn ,

por
α(a1 , . . . , an ) = (αa1 , . . . , αan ),
para quaisquer (a1 , . . . , an ) ∈ Kn e α ∈ K (em que as operações que figuram nos
n-uplos dos segundos membros das igualdades anteriores são as operações adição e
multiplicação em K).
Por K ser um corpo, verifica-se facilmente que (Kn , +) é um grupo comutativo
(tendo-se (0, . . . , 0) como elemento neutro e (−a1 , . . . , −an ) como elemento simétrico
de (a1 , . . . , an )) e que a multiplicação escalar verifica as propriedades (EV5) a (EV8).
Logo, Kn com estas operações (ditas usuais) é um espaço vectorial sobre o corpo K.
Podemos concluir que, com as operações anteriores, qualquer corpo K é um
espaço vectorial sobre si próprio e que, uma vez que R (respectivamente, C) é
um corpo, para qualquer número natural n, Rn (respectivamente, Cn ) é um espaço
vectorial real (respectivamente, complexo).

3. Seja EO o conjunto dos segmentos orientados do espaço ordinário E aplicados num


ponto O. Considere-se a adição de segmentos orientados (vectores) definida
-
pela regra
do paralelogramo e a multiplicação escalar associando ao par (α, OP), com α ∈ R e
A noção de espaço vectorial 21

- -
P ∈ E, como sendo o vector α -
OP com a direcção de-OP, com comprimento igual a
|α| vezes o comprimento de OP e com o sentido de OP, se α > 0, ou o seu contrário,
se α < 0. Com estas operações, o conjunto EO constitui um espaço vectorial real.
Normalmente, este espaço vectorial é identificado com R3 .

4. Seja R[x] o conjunto dos polinómios na variável x com coeficientes reais. Defina-se
em R[x] uma adição da seguinte forma: dados os elementos a0 + a1 x + · · · + am xm ,
b0 + b1 x + · · · + bn xn de R[x], supondo sem perda de generalidade que m ≤ n,

(a0 + a1 x + · · · + am xm ) + (b0 + b1 x + · · · + bm xm + bm+1 xm+1 + · · · + bn xn )

= (a0 + b0 ) + (a1 + b1 )x + · · · + (am + bm )xm + bm+1 xm+1 + · · · + bn xn .


Defina-se também uma multiplicação escalar por

α(a0 + a1 x + · · · + an xn ) = αa0 + (αa1 )x + · · · + (αan )xn ,

para quaisquer a0 + a1 x + · · · + an xn ∈ R[x] e α ∈ R.


Uma vez que R é um corpo, a adição definida se resume à adição dos coeficientes
dos termos do mesmo grau (tendo-se o polinómio nulo como elemento neutro desta
adição e −a0 − a1 x − · · · − an xn como simétrico do elemento a0 + a1 x + · · · + an xn ) e
a multiplicação escalar se reduz à multiplicação dos coeficientes pelos escalares, é fácil
verificar que R[x], com estas operações, é um espaço vectorial real.
De forma análoga, para n ∈ N (fixo), o conjunto Rn [x] dos polinómios de grau
menor ou igual a n na variável x com coeficientes reais, para as restrições das operações
anteriores, constitui também um espaço vectorial real.
Mais geralmente, para qualquer corpo K, o conjunto K[x] dos polinómios na variável
x com coeficientes sobre o corpo K e o conjunto Kn [x] dos polinómios de grau menor
ou igual a n na variável x com coeficientes sobre K, com operações definidas de forma
análoga (ditas usuais), constituem espaços vectoriais sobre o corpo K.
Note-se que, por vezes, os conjuntos R[x] e Rn [x] também são denotados por P(x)
e Pn (x), respectivamente. H

Teorema 2.1.3 Seja E um espaço vectorial sobre um corpo K. Então, para quaisquer
α, β ∈ K e x, y ∈ E, tem-se:
1. 0x = 0E ;

2. α0E = 0E ;

3. (−α)x = −αx = α(−x);

4. (α − β)x = αx − βx,

5. α(x − y) = αx − αy;

6. αx = 0E ⇒ α = 0 ou x = 0E .
22 Espaços Vectoriais

Demonstração.
1. Como 0x = (0 + 0)x = 0x + 0x (por (EV6), então 0x = 0x − 0x = 0E .
2. Por (EV5), α0E = α(0E + 0E ) = α0E + α0E , pelo que α0E = α0E − α0E = 0E .
3. Por (EV5) e por 1, tem-se (−α)x + αx = (−α + α)x = 0x = 0E , pelo que (−α)x = −αx.
Por (EV5) e por 2, tem-se α(−x) + αx = α(−x + x) = α0E = 0E e, portanto, α(−x) = −αx.
4. Tem-se (α − β)x = (α + (−β))x = αx + (−β)x = αx + (−(βx)) = αx − βx, tendo em conta
(EV6) e 3.
5. Por (EV5) e por 3, tem-se α(x − y) = α(x + (−y)) = αx + α(−y) = αx + (−αy) = αx − αy.
6. Admitamos que αx = 0E e que α 6= 0. Então, existe α−1 ∈ K e, por (EV7), 1 e (EV8), tem-se
αx = 0E ⇒ α−1 (αx) = α−1 0E ⇒ (α−1 α)x = 0E ⇒ 1x = 0E ⇒ x = 0E .

2.2 Dependência e independência linear


Definição 2.2.1 Seja E um espaço vectorial sobre um corpo K e sejam x1 , . . . , xn n vectores
de E. Um vector v ∈ E diz-se uma combinação linear dos vectores x1 , . . . , xn se existirem
escalares λ1 , . . . , λn ∈ K tais que
v = λ1 x 1 + · · · + λn x n .

Neste caso, aos escalares λ1 , . . . , λn dá-se o nome de coeficientes da combinação linear.


Também se diz que v é combinação linear dos vectores de x1 , . . . , xn por meio, ou por
intermédio, dos escalares (ou dos coeficientes) λ1 , . . . , λn .

Exemplos 2.2.2
1. Sejam E um espaço vectorial sobre um corpo K e x1 , . . . , xn n vectores arbitrários de
E, então 0E é uma combinação linear de x1 , . . . , xn . Com efeito, tem-se
0E = 0x1 + . . . + 0xn .

A esta combinação linear dá-se o nome de combinação linear trivialmente nula.


2. No espaço vectorial real R3 com as operações usuais considere-se os vectores seguintes:
v = (0, 0, 0), x1 = (1, 0, 0), x2 = (0, 1, 0), x3 = (0, 0, 1) e x4 = (1, 1, 0).
Então, o vector v é uma combinação linear dos vectores de qualquer subconjunto
não vazio de {x1 , x2 , x3 , x4 }. De facto, atendendo ao exemplo 1, existe pelo menos,
para qualquer combinação destes vectores, a combinação linear trivialmente nula.
Consideremos agora apenas os vectores x1 , x2 e x3 . Então, o vector v exprime-se de
forma única como combinção linear destes vectores. Com efeito, dados escalares λ1 , λ2
e λ3 tais que v = λ1 x1 + λ2 x2 + λ3 x3 , tem-se
(0, 0, 0) = λ1 (1, 0, 0) + λ2 (0, 1, 0) + λ3 (0, 0, 1) ⇒ (0, 0, 0) = (λ1 , λ2 , λ3 )
⇒ λ1 = λ2 = λ3 = 0,
Dependência e independência linear 23

pelo que a única combinação linear nula (i.e. da qual resulta o vector nulo, neste caso,
o vector v) é a trivialmente nula. Efectuando cálculos análogos aos anteriores, podemos
também mostrar que v se exprime de forma única como combinação linear dos vectores
x1 , x3 e x4 e ainda dos vectores x2 , x3 e x4 .
Se considerarmos os vectores x1 , x2 e x4 , temos

v = λ1 x 1 + λ2 x 2 + λ3 x 4 ⇒ (0, 0, 0) = λ1 (1, 0, 0) + λ2 (0, 1, 0) + λ3 (1, 1, 0)


⇒ (0, 0, 0) = (λ1 + λ3 , λ2 + λ3 , 0)
⇒ λ1 = −λ3 e λ2 = −λ3 .

Logo, para qualquer λ3 ∈ R, v = −λ3 x1 − λ3 x2 + λ3 x4 .


Ainda, considerando os vectores x1 , x2 , x3 e x4 , temos

v = λ1 x 1 + λ2 x 2 + λ3 x 3 + λ4 x 4
⇒ (0, 0, 0) = λ1 (1, 0, 0) + λ2 (0, 1, 0) + λ3 (0, 0, 1) + λ4 (1, 1, 0)
⇒ (0, 0, 0) = (λ1 + λ4 , λ2 + λ4 , λ3 )
⇒ λ1 = −λ4 ∧ λ2 = −λ4 ∧ λ3 = 0

e, portanto, para qualquer λ4 ∈ R, v = −λ4 x1 − λ4 x2 + 0x3 + λ4 x4 .


Então, o vector v não se exprime de forma única como combinação linear dos vectores
x1 , x2 e x4 nem como combinação linear dos vectores x1 , x2 , x3 e x4 , ou seja, além da
combinação linear trivialmente nula existem outras combinações lineares nulas destes
vectores.

3. No espaço vectorial real R3 consideremos os vectores x1 , x2 , x3 e x4 do exemplo 2 e


ainda um vector arbitrário w = (a, b, c).
Vimos no exemplo anterior que o vector nulo se exprime de modo único como
combinação linear dos vectores x1 , x2 e x3 . Vejamos agora que o mesmo acontece com
o vector w. Sejam λ1 , λ2 , λ3 ∈ R tais que w = λ1 x1 + λ2 x2 + λ3 x3 . Então,

(a, b, c) = λ1 (1, 0, 0) + λ2 (0, 1, 0) + λ3 (0, 0, 1) ⇒ (a, b, c) = (λ1 , λ2 , λ3 )


⇒ λ1 = a ∧ λ2 = b ∧ λ3 = c,

pelo que, efectivamente, o vector w se exprime de modo único como combinação linear
destes vectores. Observe-se que, uma vez que w é um vector genérico de R3 , então
mostrámos que qualquer vector de R3 se exprime de modo único como combinação
linear dos vectores x1 , x2 e x3 .
Analogamente se verifica que o vector w se exprime de modo único como combinação
linear dos vectores x1 , x3 e x4 e também dos vectores x2 , x3 e x4 .
Vamos de seguida mostrar que, tal como acontece com o vector nulo (ver exem-
plo anterior), o vector w não se exprime de modo único como combinação linear dos
vectores x1 , x2 , x3 e x4 . Sejam λ1 , λ2 , λ3 , λ4 ∈ R tais que

w = λ1 x 1 + λ2 x 2 + λ3 x 3 + λ4 x 4 .
24 Espaços Vectoriais

Então,
(a, b, c) = λ1 (1, 0, 0) + λ2 (0, 1, 0) + λ3 (0, 0, 1) + λ4 (1, 1, 0)
⇒ (a, b, c) = (λ1 + λ4 , λ2 + λ4 , λ3 )
⇒ λ1 = a − λ4 ∧ λ2 = b − λ4 ∧ λ3 = c,
e, portanto, para qualquer λ4 ∈ R,

w = (a − λ4 )(1, 0, 0) + (b − λ4 )(0, 1, 0) + c(0, 0, 1) + λ4 (1, 1, 0).

Finalmente, vamos mostrar que, em geral, o vector w não se exprime como com-
binação linear dos vectores x2 e x3 . Suponhamos que λ1 , λ2 ∈ R são tais que w =
λ1 x2 + λ2 x3 . Então,

 a=0
w = λ1 (0, 1, 0) + λ2 (0, 0, 1) ⇔ (a, b, c) = (0, λ1 , λ2 ) ⇔ λ1 = b
λ2 = c,

pelo que o vector w é combinação dos vectores x2 e x3 se e só se a = 0 e, portanto, em


geral (se a 6= 0), w não é combinação dos vectores x2 e x3 .
De forma análoga, pode-se mostrar que, em geral, o vector w não é combinação
linear dos vectores x1 , x2 e x4 . De facto, apenas os vectores w = (a, b, c) tais que c = 0
se exprimem como combinação linear destes vectores.
- - - - -
4. Sejam OA, OB -
e OC três
-
vectores do espaço ordinário EO tais que OB = 2OA e o
ângulo θ de OA com OC pertence ao intervalo real ]0, π[.
B

O C
-
Então
-
temos, por exemplo, as seguintes combinações lineares nulas dos vectores OA
e OB: - - - - - -
OO = 0OA + 0OB e OO = −2OA + OB.
- -
Mas, pelo contrário, a única combinação nula dos vectores OA e OC é a combinação
trivialmente nula.

5. Sejam E um espaço vectorial sobre um corpo K e x1 , . . . , xn quaisquer n vectores de E.


Então, para qualquer i ∈ {1, . . . , n}, o vector xi é uma combinação linear dos vectores
x1 , . . . , xn . De facto, tem-se

xi = 0x1 + · · · + 0xi−1 + 1xi + 0xi+1 + · · · + 0xn .


Dependência e independência linear 25

6. Sejam E um espaço vectorial sobre um corpo K, x1 , . . . , xn , y1 , . . . , ym quaisquer n + m


vectores de E e v uma combinação linear dos vectores x1 , . . . , xn com coeficientes
λ1 , . . . , λn . Então, v é também combinação linear dos vectores x1 , . . . , xn , y1 , . . . , ym ,
uma vez que podemos escrever

v = λ1 x1 + · · · + λn xn + 0y1 + · · · + 0ym .

Note que o vector v pode, eventualmente, também ser uma combinação linear dos
mesmos vectores por meio de outros escalares. H

Observe-se que, num espaço vectorial E não nulo (i.e. não constituı́do apenas por um
único vector) um mesmo vector pode ser combinação linear dos elementos de diferentes
conjuntos de vectores de E, como se viu claramente em exemplos anteriores. Também no
exemplo 3, se viu que um vector pode ser combinação linear dos mesmos vectores através de
diferentes escalares. Há ainda conjuntos de vectores do espaço vectorial tais que qualquer
vector do espaço se exprime como combinação linear dos seus elementos.

Definição 2.2.3 Sejam E um espaço vectorial sobre um corpo K e x1 , . . . , xn n vectores de


E. Diz-se que os vectores x1 , . . . , xn são linearmente independentes se a única combinação
linear nula de x1 , . . . , xn é a trivialmente nula, i.e. se para quaisquer escalares λ1 , . . . , λn ,

λ1 x1 + · · · + λn xn = 0E ⇒ λ1 = · · · = λn = 0.

Os vectores x1 , . . . , xn dizem-se linearmente dependentes se não são linearmente indepen-


dentes, ou seja, se o vector nulo se pode exprimir como combinação linear de x1 , . . . , xn com
coeficientes não todos nulos, i.e. se

(∃ λ1 , . . . , λn ∈ K) (∃ i ∈ {1, . . . , n}) (λi 6= 0 ∧ λ1 x1 + · · · + λn xn = 0E ).

Exemplos 2.2.4

1. Nas condições do exemplo 2 de 2.2.2, e atendendo ao que aı́ foi visto, os vectores:

(a) x1 , x2 e x3 de R3 são linearmente independentes;


(b) x1 , x3 e x4 de R3 são linearmente independentes;
(c) x2 , x3 e x4 de R3 são linearmente independentes;
(d) x2 e x3 de R3 são linearmente independentes.

Por outro lado, os vectores:

(a) x1 , x2 , x3 e x4 de R3 são linearmente dependentes;


(b) x1 , x2 e x4 de R3 são linearmente dependentes.
- -
2. Em relação ao exemplo 4 de 2.2.2, no espaço-vectorial
-
real EO , os vectores OA e OB
são linearmente dependentes e os vectores OA e OC são linearmente independentes.
26 Espaços Vectoriais

3. Considere-se o espaço vectorial real Rn (n ∈ N) e os vectores e1 , . . . , en tais que, para


cada i ∈ {1, . . . , n}, o vector ei tem o elemento 1 na posição (coordenada) i e o elemento
0 nas restantes posições (note-se que é o caso dos vectores x1 , x2 e x3 de R3 considerados
no exemplo 2 de 2.2.2 ou dos vectores
e1 = (1, 0, 0, 0), e2 = (0, 1, 0, 0), e3 = (0, 0, 1, 0), e4 = (0, 0, 0, 1)
de R4 ). É fácil verificar que, para qualquer n ∈ N, os vectores e1 , . . . , en são linearmente
independentes.
4. Para cada n ∈ N, consideremos os n + 1 polinómios xn , xn−1 , . . . , x2 , x, 1 do espaço
vectorial real Rn [x]. É fácil provar que {xn , xn−1 , . . . , x2 , x, 1} é um conjunto de vectores
linearmente independente. H
Observações 2.2.5 Seja E um espaço vectorial sobre um corpo K.
1. Na definição de dependência (e independência) linear assumimos implicitamente uma
ordenação dos vectores considerados. No entanto, a partir da comutatividade genera-
lizada da adição em E, é imediato concluir que a dependência ou independência linear
dos vectores se mantém, qualquer que seja a ordem pela qual os consideramos.
2. De 6 do Teorema 2.1.3 resulta que um vector x de E é linearmente dependente se e só
se é o vector nulo. De facto, x é linearmente dependente se e só se existe α ∈ K \ {0}
tal que αx = 0E , o que, pela propriedade referida, é equivalente a x = 0E .
Além disso, dois vectores x e y de E são linearmente dependentes se e só se um deles
é uma combinação linear do outro. Com efeito, se x e y são linearmente dependentes
então existem α, β ∈ K tais que αx + βy = 0E , com α 6= 0 ou β 6= 0. Se α 6= 0 então
a igualdade anterior é equivalente a x = −α−1 β y e, se β 6= 0, a mesma igualdade
é equivalente a y = −β −1 α x. Portanto, em qualquer dos casos, um dos vectores é
uma combinação linear do outro. A recı́proca é imediata. Mais geralmente, tem-se o
seguinte resultado:
Teorema 2.2.6 Sejam E um espaço vectorial sobre um corpo K e x1 , . . . , xn (n ≥ 2) n
vectores de E. Então os vectores x1 , . . . , xn são linearmente dependentes se e só se pelo
menos um deles for uma combinação linear dos restantes vectores.
Demonstração. Suponhamos que os vectores x1 , . . . , xn são linearmente dependentes. Então,
existem escalares α1 , . . . , αn , não todos nulos, tais que α1 x1 + · · · + αn xn = 0E . Seja i ∈ {1, . . . , n}
tal que αi 6= 0. Então, a igualdade anterior é equivalente a αi xi = −α1 x1 − · · · − αi−1 xi−1 −
αi+1 xi+1 − · · · − αn xn e esta, multiplicando ambos os seus membros por αi−1 , é equivalente a
xi = (−αi−1 α1 ) x1 + · · · + (−αi−1 αi−1 ) xi−1 + (−αi−1 αi+1 ) xi+1 + · · · + (−αi−1 αn ) xn , ou seja, o vector
xi é uma combinação linear dos vectores x1 , . . . , xi−1 , xi+1 , . . . , xn .
Reciprocamente, suponhamos que existem escalares λ1 , . . . , λi−1 , λi+1 , . . . , λn (para certo i ∈
{1, . . . , n}) tais que xi = λ1 x1 + · · · + λi−1 xi−1 + λi+1 xi+1 + · · · + λn xn . (i.e. o vector xi é uma
combinação linear dos restantes vectores). Uma vez que a igualdade anterior é equivalente a λ1 x1 +
· · · + λi−1 xi−1 + (−1)xi + +λi+1 xi+1 + · · · + λn xn = 0E e o escalar −1 é não nulo, então temos
uma combinação linear nula, não trivialmente nula, dos vectores x1 , . . . , xn , pelo que estes são
linearmente dependentes.
Dependência e independência linear 27

Corolário 2.2.7 Sejam x1 , . . . , xn n vectores de um espaço vectorial E sobre um corpo K.


Se algum dos vectores é o vector nulo então x1 , . . . , xn são linearmente dependentes.
Corolário 2.2.8 Sejam x1 , . . . , xn n vectores de um espaço vectorial E sobre um corpo K
tais que xi = xj , para certos i, j ∈ {1, . . . , n}, com i 6= j. Então, os vectores x1 , . . . , xn são
linearmente dependentes.
Teorema 2.2.9 Sejam x1 , . . . , xn n vectores linearmente independentes de um espaço vec-
torial E sobre um corpo K e y ∈ E. Então, os vectores x1 , . . . , xn , y são linearmente depen-
dentes se e só se o vector y é uma combinação linear de x1 , . . . , xn .
Teorema 2.2.10 Sejam x1 , . . . , xp p vectores linearmente dependentes de um espaço vec-
torial E sobre um corpo K. Então, os vectores de qualquer subconjunto finito de E que
contenha os vectores x1 , . . . , xp são ainda linearmente dependentes.
Teorema 2.2.11 Sejam x1 , . . . , xn n vectores linearmente independentes de um espaço vec-
torial E sobre um corpo K. Então, quaisquer p vectores distintos do conjunto {x1 , . . . , xn },
com 1 ≤ p ≤ n, são ainda linearmente independentes.
Teorema 2.2.12 Sejam E um espaço vectorial sobre um corpo K e x1 , . . . , xn n vecto-
res de E. Então, x1 , . . . , xn são n vectores linearmente independentes se e só se qualquer
combinação linear dos vectores x1 , . . . , xn tem coeficientes únicos, i.e. se e só se
α1 x1 + · · · + αn xn = β1 x1 + · · · + βn xn ⇒ α1 = β1 ∧ . . . ∧ αn = βn ,
para quaisquer α1 , . . . , αn , β1 , . . . , βn ∈ K.
Demonstração. Admitamos que os vectores x1 , . . . , xn são linearmente independentes e sejam
α1 , . . . , αn , β1 , . . . , βn ∈ K tais que α1 x1 + · · · + αn xn = β1 x1 + · · · + βn xn . Então, (α1 − β1 )x1 + · · · +
(αn − βn )xn = 0E , pelo que, atendendo a que os vectores x1 , . . . , xn são linearmente independentes,
obtemos α1 − β1 = 0, . . . , αn − βn = 0, ou seja, α1 = β1 , . . . , αn = βn .
Reciprocamente, se qualquer combinação linear dos vectores x1 , . . . , xn tem coeficientes únicos,
então, em particular, o vector nulo exprime-se de modo único como combinação linear destes
vectores. Logo, por definição, os vectores x1 , . . . , xn são linearmente independentes.
Pode-se demonstrar que:
Proposição 2.2.13 Sejam x1 , . . . , xn n vectores de um espaço vectorial E sobre um corpo
K e i, j ∈ {1, . . . , n} tais que i 6= j. Então, os vectores
x1 , . . . , xi−1 , xi + xj , xi+1 , . . . , xn
são linearmente independentes (resp., dependentes) se e só se os vectores x1 , . . . , xn são
linearmente independentes (resp., dependentes).
Proposição 2.2.14 Sejam x1 , . . . , xn n vectores de um espaço vectorial E sobre um corpo
K e λ um escalar não nulo. Então, para qualquer i ∈ {1, . . . , n}, os vectores
x1 , . . . , xi−1 , λxi , xi+1 , . . . , xn
são linearmente independentes (resp., dependentes) se e só se os vectores x1 , . . . , xn são
linearmente independentes (resp., dependentes).
28 Espaços vectoriais

Corolário 2.2.15 Sejam x1 , . . . , xn n vectores de um espaço vectorial E sobre um corpo


K, i ∈ {1, . . . , n} e λ1 , . . . , λn ∈ K tais que λi 6= 0. Então, os vectores

x1 , . . . , xi−1 , λ1 x1 + · · · + λi−1 xi−1 + λi xi + λi+1 xi+1 + · · · + λn xn , xi+1 , . . . , xn

são linearmente independentes (resp., dependentes) se e só se os vectores x1 , . . . , xn são


linearmente independentes (resp., dependentes).

2.3 Conjuntos de geradores e bases


Definição 2.3.1 Seja E um espaço vectorial sobre um corpo K e C um subconjunto não
vazio de E. Diz-se que C é um conjunto de geradores de E ou que C gera E se qualquer
vector de E se pode escrever como combinação linear de vectores pertencentes a C.

Para indicar que C é um conjunto de geradores de E escrevemos E = hCi. Além disso, se


C for um conjunto finito, e.g. C = {x1 , . . . , xn }, em geral escrevemos hCi =< x1 , . . . , xn >
em vez de < C >=< {x1 , . . . , xn } >.

Exemplos 2.3.2

1. Consideremos o exemplo 3 de 2.2.2. Então, pelo que aı́ vimos, o espaço vectorial real
R3 admite, por exemplo, C1 = {x1 , x2 , x3 }, C2 = {x1 , x3 , x4 }, C3 = {x2 , x3 , x4 } e
C4 = {x1 , x2 , x3 , x4 } como conjuntos de geradores.
Por outro lado, C5 = {x2 , x3 } e C6 = {x1 , x2 , x4 } não são conjuntos de geradores de
R3 . Por exemplo, no caso de C5 , mostrámos que os vectores w = (a, b, c) ∈ R3 tais que
a 6= 0 não se podem exprimir como combinação linear dos vectores x2 e x3 .

2. Seja n ∈ N e sejam e1 , . . . , en os vectores do exemplo 3 de 2.2.4. Dado um vector


v = (α1 , α2 , . . . , αn ) ∈ Rn , constata-se imediatamente que v = α1 e1 + α2 e2 + · · · + αn en
(note-se que, em particular para n = 4, se tem

(α, β, γ, λ) = α(1, 0, 0, 0) + β(0, 1, 0, 0) + γ(0, 0, 1, 0) + λ(0, 0, 0, 1),

para qualquer (α, β, γ, λ) ∈ R4 ), pelo que todo o vector de Rn se exprime como com-
binação linear de e1 , . . . , en . Logo, {e1 , . . . , en } gera Rn .

3. Consideremos o espaço vectorial real R[x] dos polinómios (de qualquer grau) na variável
x com coeficientes reais e os seus subconjuntos

A1 = {1, x, x2 , . . . , xn , . . .}, A2 = {x, x2 , . . . , xn , . . .} e A3 = {1, x2 , x3 }.

Então, A1 é um conjunto de geradores de R[x]. De facto, um elemento de R[x] é da


forma ao + a1 x + a2 x2 + · · · + an xn , para certo n ∈ N e certos a0 , a1 , a2 , . . . , an ∈ R e
este é, claramente, uma combinação linear, de coeficientes a0 , a1 , a2 , . . . , an , dos n + 1
primeiros vectores de A1 . Por outro lado, nem A2 nem A3 são conjuntos de geradores
Conjuntos de geradores 29

de R[x]. Com efeito, é fácil ver que nenhum polinómio de grau zero (e, portanto,
não nulo) se escreve como combinação linear de vectores de A2 . É também claro que
nenhum polinómio de grau maior ou igual a quatro se pode escrever como combinação
linear dos vectores de A3 .
Observemos ainda que, é também fácil ver que, para cada n ∈ N,

{1, x, x2 , . . . , xn }

constitui um conjunto de geradores de Rn [x]. H

Definição 2.3.3 Um espaço vectorial E sobre um corpo K diz-se finitamente gerado se


admite um conjunto de geradores finito.

Exemplo 2.3.4 A partir dos exemplos 2 e 3 de 2.3.2 conclui-se de imediato que, para
qualquer n ∈ N, os espaços vectoriais reais Rn e Rn [x] são finitamente gerados. Pelo contrário,
não é difı́cil ver que, o espaço vectorial real R[x] não é finitamente gerado (visto que o grau
de uma combinação linear de polinómios é menor ou igual que o máximo dos graus dos
polinómios que a constituem). H

Pode demonstrar-se que:

Teorema 2.3.5 Num espaço vectorial E não nulo e finitamente gerado sobre um corpo K,
qualquer conjunto finito de geradores de E contém ainda um conjunto de geradores de E
constituı́do por vectores linearmente independentes.

E, também que:

Teorema 2.3.6 Seja E um espaço vectorial sobre um corpo K que admite um conjunto
{x1 , . . . , xn } de geradores de E constituı́do por vectores linearmente independentes. Então,
as seguintes afirmações são verdadeiras:

1. Quaisquer m vectores de E, com m > n, são linearmente dependentes;

2. Qualquer conjunto de n vectores linearmente independentes de E é um conjunto de


geradores de E;

3. Qualquer conjunto de geradores de E, com n vectores, é constituı́do por vectores line-


armente independentes;

4. Um conjunto de geradores de E tem no mı́nimo n vectores;

5. Qualquer conjunto de geradores de E constituı́do por vectores linearmente independen-


tes tem exactamente n elementos;

6. Qualquer conjunto de k vectores linearmente independentes, com 1 ≤ k < n, pode ser


ampliado de modo a se obter um conjunto de geradores de E constituı́do por n vectores
linearmente independentes.
30 Espaços vectoriais

Definição 2.3.7 Seja E um espaço vectorial não nulo e finitamente gerado sobre um corpo
K. Uma sequência (e1 , . . . , en ) de vectores de E diz-se uma base de E se {e1 , . . . , en } é um
conjunto de geradores de E constituı́do por vectores linearmente independentes.

Note-se que, como uma base é definida como sendo uma sequência de vectores, duas bases
constituı́das pelos mesmos vectores ordenados de forma diferente são bases distintas.

Exemplos 2.3.8
1. Tendo em conta os exemplos 1 de 2.2.4 e de 2.3.2, podemos de imediato concluir que as
sequências (x1 , x2 , x3 ), (x1 , x3 , x4 ) e (x2 , x3 , x4 ) são três bases do espaço vectorial real
R3 . Por outro lado, nenhuma das sequências (x1 , x2 , x3 , x4 ), (x1 , x2 , x4 ) e (x1 , x3 ) é
uma base de R3 . Com efeito, na primeira sequência os seus vectores não são linearmente
independentes, na última o conjunto dos seus vectores não é um conjunto de geradores
de R3 e na segunda sequência nem os seus vectores são linearmente independentes nem
o conjunto por eles formado gera R3 .
2. De acordo com os exemplo 3 de 2.2.4 e 2 de 2.3.2, a sequência (e1 , e2 , . . . , en ) é uma
base do espaço vectorial real Rn . Esta base de Rn designa-se por base canónica. Em
particular,
(1)
é a base canónica de R (como espaço vectorial real),

((1, 0), (0, 1))

é a base canónica de R2 ,
((1, 0, 0), (0, 1, 0), (0, 0, 1))
é a base canónica de R3 e

((1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1))

é a base canónica de R4 . H
3. Consideremos o espaço vectorial real Rn [x]. Também, de acordo com os exemplos já
apresentados, podemos concluir que a sequência

(1, x, x2 , . . . , xn )

de n + 1 vectores de Rn [x] é uma base de Rn [x].

O Teorema 2.3.5 garante-nos que todo o espaço vectorial finitamente gerado E sobre
um corpo K possui uma base. Por outro lado, a partir do Teorema 2.3.6 podemos deduzir
que todas as bases de E têm o mesmo número de elementos. Assim, faz sentido a seguinte
definição:

Definição 2.3.9 Seja E um espaço vectorial não nulo sobre um corpo K. Se E é finitamente
gerado, chama-se dimensão de E, e representa-se por dim E, ao número de vectores de uma
sua (qualquer) base. Se E não é finitamente gerado diz-se que E tem dimensão infinita.
Subespaços vectoriais 31

Exemplo 2.3.10 Tendo em conta o Exemplo 2.3.8, temos que

dim Rn = n e dim Rn [x] = n + 1.

Por outro lado, podemos afirmar que o espaço vectorial real R[x] tem dimensão infinita. H

De acordo com o Teorema 2.2.12, se um vector se exprime como combinação linear de


um conjunto de vectores linearmente independentes, então essa expressão é única. Assim,
faz sentido a seguinte definição:

Definição 2.3.11 Sejam E um espaço vectorial sobre um corpo K de dimensão finita n,


(v1 , . . . , vn ) uma base de E e v um vector de E. Ao n-uplo de escalares (λ1 , . . . , λn ) ∈ Kn
tais que
v = λ1 v 1 + · · · + λn v n
chamamos coordenadas (ou vector das coordenadas) de v relativamente à base (v1 , . . . , vn ).

Exemplo 2.3.12 Considere-se a seguinte base de R4 :

(v1 = (1, 1, 1, 1), v2 = (0, 1, 1, 1), v3 = (0, 0, 1, 1), v4 = (0, 0, 0, 1)).

Então o vector v = (1, −1, 2, 4) tem como coordenadas relativamente à base (v1 , v2 , v3 , v4 ) o
quadruplo (1, −2, 3, 2).
Note-se que as coordenadas de v relativamente à base canónica de R4 coincidem com as
próprias coordenadas (componentes) do vector (observe-se que o mesmo acontece em geral
para Rn , com n ∈ N). H

Como consequência imediata do Teorema 2.3.6 temos também o seguinte resultado (muito
prático quando a dimensão do espaço vectorial é conhecida):

Teorema 2.3.13 Seja E um espaço vectorial sobre um corpo K de dimensão n e seja


(v1 , . . . , vn ) uma sequência de n vectores de E. Então, as seguintes afirmações são equiva-
lentes:

1. (v1 , . . . , vn ) é uma base de E;

2. {v1 , . . . , vn } é um conjunto de geradores de E;

3. Os vectores v1 , . . . , vn são linearmente independentes.

De acordo com o teorema anterior e uma vez que dim Rn = n, para verificarmos que uma
dada sequência constituı́da por n vectores é uma base de Rn , basta ver se os seus vectores
são linearmente independentes, ou alternativamente, basta ver se os seus vectores formam
um conjunto de geradores.
32 Espaços vectoriais

2.4 Subespaços vectoriais


Definição 2.4.1 Sejam E um espaço vectorial sobre um corpo K e F um seu subconjunto.
Diz-se que F é um subespaço vectorial de E se verifica as seguintes propriedades:

1. F 6= ∅;

2. (∀x, y ∈ F ) x + y ∈ F ;

3. (∀x ∈ F ) (∀λ ∈ K) λx ∈ F .

Exemplos 2.4.2

1. Seja E um espaço vectorial sobre um corpo K. Então, claramente os subconjuntos E


e {0E } de E são ambos subespaços vectoriais de E.
Aos subespaços vectoriais E e {0E } de E chamamos, respectivamente, subespaço
impróprio e subespaço nulo. Qualquer outro subespaço vectorial de E (se os houver)
diz-se um subespaço próprio.

Observemos que, para qualquer subespaço vectorial F de E, se tem 0E ∈ F . De


facto, como F 6= ∅ então existe x ∈ F e, consequentemente, −x ∈ F . Portanto,
0E = x + (−x) ∈ F .

2. Consideremos o espaço vectorial real R3 e os seus subconjuntos

A = {(0, 0, 0), (0, 1, 0), (0, −1, 0)}, B = {(a, 0, 1) : a ∈ R} e C = {(a, 0, 0) : a ∈ R}.

Vamos verificar quais destes conjuntos são subespaços vectoriais de R3 .


Tendo em conta a definição dos conjuntos A, B e C é imediato constatar que
qualquer deles é não vazio.
Uma vez que, por exemplo, (0, 1, 0) ∈ A e 2(0, 1, 0) = (0, 2, 0) 6∈ A, então A não
verifica a condição 3 da definição, pelo que A não é um subespaço vectorial de R3 .
Também é fácil ver que A não verifica a condição 2 da definição.
Quanto a B, temos, por exemplo, (0, 0, 1), (1, 0, 1) ∈ B mas,

(0, 0, 1) + (1, 0, 1) = (1, 0, 2) 6∈ B.

Logo, B não verifica a condição 2 da definição e, portanto, não é um subespaço vectorial


de R3 .
Finalmente, vamos provar que C é um subespaço vectorial de R3 . Já observámos
que C 6= ∅. Tomemos dois elementos quaisquer x = (a, 0, 0) e y = (b, 0, 0) de C (com
a, b ∈ R) e um escalar α. Então x + y = (a + b, 0, 0) ∈ C e αx = (αa, 0, 0) ∈ C,
atendendo à definição de C. Logo, é um subespaço vectorial de R3 .
Subespaços vectoriais 33

3. No espaço vectorial real R3 considere-se o subconjunto

Hα = {(x, y, z) ∈ R3 : x + 2y − z = α},

com α ∈ R. Vamos mostrar que Hα é um subespaço vectorial de R3 se e só se α = 0.


Uma vez que (α, 0, 0) ∈ Hα , então Hα 6= ∅, para qualquer α ∈ R.
Tomemos (x, y, z), (a, b, c) ∈ Hα . Logo,

x + 2y − z = α, a + 2b − c = α e (x, y, z) + (a, b, c) = (x + a, y + b, z + c).

Como (x + a) + 2(y + b) − (z + c) = (x + 2y − z) + (a + 2b − c) = α + α = 2α,


então (x, y, z) + (a, b, c) ∈ Hα se e só se 2α = α, ou seja, se e só se α = 0. Assim,
Hα verifica a condição 2 da definição se e só se α = 0 e, portanto, se α 6= 0 então
Hα não é um subespaço vectorial de R3 . Tal não significa, à partida, que H0 seja um
subespaço vectorial de R3 , uma vez que, até agora, só podemos garantir que verifica
1 e 2 de 2.4.1. Vejamos pois que H0 também satisfaz a condição 3 da definição. Para
isso, tomemos (x, y, z) ∈ H0 e λ ∈ R. Então, x + 2y − z = 0 e λ(x, y, z) = (λx, λy, λz).
Como λx + 2(λy) − λz = λ(x + 2y − z) = λ0 = 0, então λ(x, y, z) ∈ H0 e, portanto,
H0 também verifica 3 de 2.4.1.
Portanto, Hα é um subespaço vectorial de R3 se e só se α = 0. H

É fácil provar que:

Teorema 2.4.3 Seja E um espaço vectorial sobre um corpo K. Um subconjunto F de E


é um subespaço vectorial de E se e só se é um espaço vectorial sobre o corpo K para as
operações induzidas de E.

Sejam E um espaço vectorial sobre um corpo K e F e G dois subconjuntos de E. Recorde


que a intersecção de F e G é o conjunto

F ∩ G = {x ∈ E | x ∈ F e x ∈ G}.

Mais geralmente, dada uma famı́lia (qualquer) {Fi : i ∈ I} de subconjuntos de E, a inter-


secção desta famı́lia (i.e. a intersecção de todos os seus elementos) é o conjunto

{x ∈ E | x ∈ Fi , para qualquer i ∈ I}
\ \
que, usualmente, se representa por {Fi : i ∈ I} ou por Fi .
i∈I
É fácil demonstrar que:

Teorema 2.4.4 Sejam E um espaço vectorial sobre um corpo K e F e G dois subespaços


vectoriais de E. Então F ∩G é um subespaço vectorial de E. Mais
\ geralmente, se {Fi | i ∈ I}
é uma famı́lia não vazia de subespaços vectoriais de E, então {Fi :| i ∈ I} é um subespaço
vectorial de E.
34 Espaços vectoriais

Sejam E um espaço vectorial sobre um corpo K e C um subconjunto qualquer de E.


Então, a famı́lia de todos os subespaços vectoriais de E que contêm C é não vazia (efectiva-
mente, o subespaço impróprio E pertence a esta famı́lia) e, portanto, pelo teorema anterior,
a sua intersecção é um subespaço vectorial de E que contém o subconjunto C. Assim, no
sentido da inclusão de conjuntos, a intersecção W de todos os subespaços vectoriais que
contêm C é o menor subespaço vectorial de E que contém C, i.e. o subespaço W é tal que:
1. C ⊆ W ;

2. W é um subespaço vectorial de E;

3. Se F é um subespaço vectorial de E que contém C, então W ⊆ F .

Definição 2.4.5 Dado um espaço vectorial E sobre um corpo K e um subconjunto C de


E, chama-se subespaço vectorial gerado por C à intersecção de todos os subespaços vectoriais
de E que contêm C. Este subespaço vectorial de E representa-se por < C >.

Observemos que o subespaço vectorial gerado pelo subconjunto vazio de E é o subespaço


nulo de E: < ∅ >= {0E }. Podemos então estender a noção de base e de dimensão a um
(sub)espaço vectorial nulo: chamamos base de um espaço vectorial nulo à sequência vazia e
dizemos que a sua dimensão é igual a zero.
Prova-se que:

Teorema 2.4.6 Sejam E um espaço vectorial de dimensão finita sobre um corpo K e F


um subespaço vectorial de E. Então, F tem também dimensão finita, verificando-se:
1. dim F ≤ dim E;

2. dim F = dim E se e só se F = E.

Não é difı́cil provar a seguinte descrição (prática) de um subespaço vectorial gerado por
um certo conjunto de vectores.

Teorema 2.4.7 Sejam E um espaço vectorial sobre um corpo K e C um subconjunto não


vazio de E. Então, o subespaço vectorial de E gerado por C é o conjunto de todas as
combinações lineares de vectores de C.

Exemplos 2.4.8
1. Consideremos o espaço vectorial real R3 .

(a) O subespaço vectorial de R3 gerado pelo conjunto {(1, 0, 0), (0, 1, 0)} é

< (1, 0, 0), (0, 1, 0) > = {α(1, 0, 0) + β(0, 1, 0) : α, β ∈ R}


= {(α, β, 0) : α, β ∈ R}
= {(x, y, z) ∈ R3 : z = 0};
Subespaços vectoriais 35

(b) Seja C = {(1, 0, 0), (1, 1, 0), (0, 2, 0)}. Então

< C > = {α(1, 0, 0) + β(1, 1, 0) + γ(0, 2, 0) : α, β, γ ∈ R}


= {(α + β, β + 2γ, 0) : α, β, γ ∈ R}.

Uma vez que



 α=x−β
(x, y, z) = (α + β, β + 2γ, 0) ⇔ γ = y−β
2
z = 0,

então (x, y, z) ∈< C > se e só se z = 0, i. e. < C >= {(x, y, z) ∈ R3 : z = 0}.


(c) Seja D = {(1, 1, 0), (0, −2, 3)}. Então

< D > = {α(1, 1, 0) + β(0, −2, 3) : α, β ∈ R}


= {(α, α − 2β, 3β) : α, β ∈ R}
= {(x, y, z) ∈ R : 3x − 3y − 2z = 0},
uma vez que

 α=x
(x, y, z) = (α, α − 2β, 3β) ⇔ β = z3
3x − 3y − 2z = 0.

2. Consideremos os subespaços vectoriais

F = {(x, y, z) ∈ R3 : x + y + z = 0} e H = {(a + b + c, 2a + b, a − c) : a, b, c ∈ R}

do espaço vectorial real R3 . Vamos determinar uma base para cada um deles.

(a) Como
F = {(x, y, z) ∈ R3 : z = −x − y}
= {(x, y, −x − y) : x, y ∈ R}
= {x(1, 0, −1) + y(0, 1, −1) : x, y ∈ R}
= < (1, 0, −1), (0, 1, −1) >
e (1, 0, −1) e (0, 1, −1) são, claramente, dois vectores linearmente independentes,
então ((1, 0, −1), (0, 1, −1)) é uma base de F .
(b) Relativamente a H temos

H = {(a + b + c, 2a + b, a − c) : a, b, c ∈ R}
= {a(1, 2, 1) + b(1, 1, 0) + c(1, 0, −1) : a, b, c ∈ R}
= < (1, 2, 1), (1, 1, 0), (1, 0, −1) > .

Neste caso, os vectores (1, 2, 1), (1, 1, 0) e (1, 0, −1) não são linearmente indepen-
dentes: de facto,
(1, 2, 1) = 2(1, 1, 0) − (1, 0, −1)
36 Espaços vectoriais

e, portanto, {(1, 2, 1), (1, 1, 0), (1, 0, −1)} é um conjunto de geradores de H, mas
não uma base de H. Além disso, a igualdade anterior permite-nos ainda concluir
que
H =< (1, 2, 1), (1, 1, 0), (1, 0, −1) >=< (1, 1, 0), (1, 0, −1) > .
Assim, como os vectores (1, 1, 0) e (1, 0, −1) são linearmente independentes, então
((1, 1, 0), (1, 0, −1)) é uma base de H. H
Ao invés da intersecção de subespaços, a união de dois subespaços pode não ser um
subespaço. De facto, é fácil mostrar que:
Proposição 2.4.9 Se E é um espaço vectorial sobre um corpo K e F e G são dois su-
bespaços vectoriais de E, então F ∪ G é um subespaço vectorial de E se e só se F ⊆ G ou
G ⊆ F.
Definição 2.4.10 Se E é um espaço vectorial sobre um corpo K e F e G são dois subespaços
vectoriais de E, chama-se soma de F com G ao conjunto
F + G = {x ∈ E | (∃f ∈ F ) (∃g ∈ G) x = f + g}.
É fácil demonstrar que:
Teorema 2.4.11 Sejam E um espaço vectorial sobre um corpo K e F e G dois subespaços
vectoriais de E. Então F + G é um subespaço vectorial de E.
Além disso, se X e Y dois subconjuntos de E tais que F =< X > e G =< Y >, então
F + G =< X ∪ Y >.
No caso de um espaço vectorial E de dimensão finita, o teorema anterior dá-nos um
processo prático de determinar a soma de dois subespaços vectoriais: se
F =< f1 , . . . , fk >
e
G =< g1 , . . . , g` >
então
F + G =< f1 , . . . , fk , g1 , . . . , g` >.
Exemplo 2.4.12 No espaço vectorial real R3 temos
F = {(x, y, z) ∈ R3 | x = 2y e z = y} = {(2y, y, y) | y ∈ R} =< (2, 1, 1) >
e
G = {(x, y, z) ∈ R3 | y = −x e z = 2x} = {(x, −x, 2x) | x ∈ R} =< (1, −1, 2) >,
pelo que F + G =< (2, 1, 1), (1, −1, 2) > . Logo, um vector (x, y, z) pertence a F + G se e só
se é uma combinação linear dos vectores (2, 1, 1) e (1, −1, 2). Como
x+y

 α= 3
(x, y, z) = α(2, 1, 1) + β(1, −1, 2) ⇔ β = x−2y
3
z = x − y,

então F + G = {(x, y, z) ∈ R3 | x − y − z = 0}. H


Exercı́cios 37

Demonstra-se que:

Teorema 2.4.13 (Teorema das dimensões) Sejam E um espaço vectorial sobre um


corpo K e F e G dois subespaços vectoriais de dimensão finita. Então

dim (F + G) = dim F + dim G − dim (F ∩ G).

2.5 Exercı́cios
1. Verifique se cada um dos seguintes conjuntos de polinómios numa variável e com coefi-
cientes reais é um espaço vectorial real com as operações usuais de adição de polinómios
e multiplicação de um polinómio por um número real.

(a) O conjunto dos polinómios de grau menor ou igual a 2, R2 [x].


(b) O conjunto dos polinómios de grau 2.
(c) O conjunto dos polinómios de grau menor ou igual a n, Rn [x].

2. Considere o conjunto R+ dos número reais positivos e as operações

⊕ : R+ × R+ −→ R+
(a, b) 7−→ a ⊕ b = a.b (produto usual)
e
⊗ : R × R+ −→ R+
(λ, b) 7−→ λ ⊗ a = aλ (potência usual).
Mostre que:

(a) (R+ , ⊕, ⊗) é um espaço vectorial real.


(b) (R, ⊕, ⊗) é um espaço vectorial real? Justifique.

3. Verifique se R2 com as operações de adição e multiplicação definidas por

(a1 , a2 ) + (b1 + b2 ) = (a1 + b1 , a2 + b2 ) e α (a1 , a2 ) = (αa1 , 0)

é um espaço vectorial real.

4. Averigue quais dos seguintes conjuntos são subespaços do espaço vectorial mencionado:

(a) A = {(x, y, z, t) ∈ R4 : x = y, z = t} em R4 ;
(b) B = {(x, y, z, t) ∈ R4 : x + y + z + t = 0} em R4 ;
(c) C = {(x, y, z) ∈ R3 : y ≥ x} em R3 ;
(d) D = {ax2 + bx + c ∈ R2 [x] : a = b − c} em R2 [x];
(e) E = {(x, y, z) ∈ R3 : x2 + y 2 = −z 2 } em R3 ;
(f) F = {ax3 + ax2 + ax + 1 : a ∈ R} em R3 [x];
38 Espaços vectoriais

(g) G = {(x, y, z, t) ∈ R4 : x = 1} em R4 ;
(h) H = {(x, y, z, t) ∈ R4 : xy = zt} em R4 ;
(i) I = {(x + 2y, 0, 2x − y, y) : x, y ∈ R} em R4 ;
(j) J = {(x + 2y, x, 2x − y, y) : x, y ∈ R} em R4 ;
  
a b
(k) K = ∈ M2×2 (R) : a = d ∧ b = 2c em M2×2 (R).
c d
5. Indique quais dos seguintes conjuntos são subespaços do espaço vectorial Mn×n (R):
(a) O conjunto das matrizes simétricas de ordem n.
(b) O conjunto das matrizes invertı́veis de ordem n.
(c) O conjunto das matrizes não invertı́veis de ordem n.
6. Seja A uma matriz real de ordem n. Prove que o conjunto das soluções do sistema
homogéneo AX = 0 é um subsespaço do espaço vectorial Mn×1 (R).
7. Em R2 [x] considere os polinómios:
p(x) = x2 + 3x, q(x) = x2 + 2, r(x) = 2x − 1.
(a) Exprima 2x2 + x − 3 como combinação linear de p, q e r.
(b) Determine k de forma que o polinómio kx + 5 seja combinação linear de p e q.
8. Considerem-se os seguintes vectores:
x = (0, 1, −1), y = (1, 1, 0), z = (1, 2, −1), x0 = (0, −1, 1), y 0 = (2, 0, 1), z 0 = (0, 2, 0).
(a) Determine um vector, diferente de x, y e z, que pertença ao subespaço gerado por
x, y e z.
(b) Verifique se o vector (3, −1, 0) pertence ao subespaço gerado por x0 , y 0 e z 0 .
9. Considerem-se os conjuntos:
A = (x, y, z, t) ∈ R4 : x + 2y + t = x + y − z = 0 e B = {(1, 0, 1, −1), (0, 1, 1, −2)}.


Mostre que < B >= A.


10. Considerem-se os seguintes vectores de R2 [x]:
p(x) = 1 + 2x + x2 e q(x) = 2 + x2 .
Verifique se o conjunto S = {p, q} gera R2 [x].
11. Verifique se o conjunto
       
1 1 0 0 1 0 0 1
, , ,
0 0 1 1 0 1 1 1
gera o espaço vectorial M2×2 (R).
Exercı́cios 39

12. Verifique quais dos seguintes subconjuntos de M3×1 (R) são linearmente dependentes.
Nesses casos, escreva um vector como combinação linear dos restantes:
     
 1 −1 2 
(a)  0  ,  2  ,  1 
0 1 1
 
     
 1 1 0 
(b)  0 ,
  2 , 1 
 
0 −1 1
 
     
 1 0 1 
(c)  1 , 1 , 2 
   
−1 1 0
 

13. Verifique quais dos seguintes subconjuntos de M2×2 (R) são linearmente dependentes.
Nesses casos, escreva um vector como combinação linear dos restantes:
     
1 1 1 0 0 2
(a) , , ;
1 1 0 2 0 1
       
1 1 2 3 2 2 3 1
(b) , , , ;
1 1 1 2 1 1 2 1
       
1 0 1 1 0 3 2 3
(c) , , , .
0 2 2 1 2 1 4 3

14. Verifique quais dos seguintes subconjuntos de R2 [x] são linearmente dependentes. Nes-
ses casos, escreva um vector como combinação linear dos restantes:

(a) {x, 3 + x2 , x + 2x2 };


(b) {−2 + x, 3 + x, 1 + x2 };
(c) {−5 + x + 3x2 , 13 + x, 1 + x + 2x2 }.

15. (a) Prove que os monómios 1, x, e x2 formam uma base de R2 [x].


(b) Prove que os monómios 1, x, x2 , x3 , x4 e x5 formam uma base de R5 [x].
(c) Determine, justificando, uma base de Rn [x].

16. (a) Prove que as matrizes


     
1 0 0 0 1 0 0 0 1
E11 = , E12 = , E13 = ,
0 0 0 0 0 0 0 0 0
     
0 0 0 0 0 0 0 0 0
E21 = , E22 = , E23 =
1 0 0 0 1 0 0 0 1

formam uma base do espaço vectorial M2×3 (R).


(b) Determine, justificando, uma base do espaço vectorial Mn×m (R).
40 Espaços vectoriais

17. Considere o seguinte conjunto:

T = {[aij ] ∈ Mn×n (R) : aii = ajj , ∀i, j ∈ {1, . . . , n}}

Prove que T é um subespaço de Mn×n (R) e determine uma sua base.

18. Indique quais dos seguintes conjuntos são uma base de R3 :

(a) {(1, 1, 1), (1, 2, 3), (2, −1, 1)};


(b) {(1, 1, 2), (1, 2, 5), (5, 3, 4)}.

19. Mostre que


{(1, 1, 0, 0), (−1, −1, 1, 2), (1, −1, 1, 3), (0, 1, −1, −3)}
é uma base de R4 e escreva um vector genérico como combinação linear dos vectores
desta base.

20. Prove que o conjunto

{(3 − i, 2 + 2i, 4), (2, 2 + 4i, 3), (1 − i, −2i, −1)}

é uma base de C3 sobre C. Exprima cada um dos vectores (1, 0, 0), (0, 1, 0), (0, 0, 1)
como combinação linear dos vectores da base anterior.
       
 1 1   0 1 
21. Mostre que X =  2  ,  2  e Y =  0  ,  2  são bases do mesmo
1 3 1 5
   
subespaço de M3×1 (R).

22. Considere o espaço vectorial R3 . Sem efectuar cálculos, indique, justificando, o valor
lógico das seguintes afirmações:

(a) O conjunto {(1, 0, 2), (0, 1, 3), (5, 3, 1), (1, 2, 0)} é linearmente independente.
(b) O conjunto de geradores (2, 2, 0), (0, 1, 1), − 13 , 31 , 31 é linearmente dependente.
 

(c) O conjunto (4, 0, −2), 51 , 2, 3 é um conjunto de geradores.


 

(d) O conjunto linearmente independente {(2, −1, 3), (3, 2, −5), (1, −1, 1)} é um con-
junto de geradores.
(e) Um conjunto de geradores linearmente independente de R3 não pode ter menos
do que 3 elementos, mas pode ter mais do que 3.
(f) O conjunto {(2, 0, 1), (5, 4, −3)} pode ser ampliado de modo a obter uma base de
R3 .

23. Verifique se, no espaço vectorial indicado, os seguintes conjuntos são:

(i) Um conjunto de geradores;


(ii) Uma base.
Exercı́cios 41

(a) {(0, 1, 0, 1), (1, 2, 5, −3), (3, 0, 0, 0), (0, 2, 0, 2), (−1, −2, −5, 3)} em R4 .
(b) {(3, 2, 1), (3, 2, 0), (3, 0, 0)} em R3 .
(c) {1 + x, x2 , x3 } em R3 [x].
(d) {1, 1 + x, 1 + x2 , 1 + x3 , 1 + x4 , 3 + x + x4 } em R4 [x].
(e) {(0, −1, 2), (−1, 0, 2), (−1, −1, 4)} em R3 .

24. Sabendo que cada um dos seguintes conjuntos gera o espaço vectorial indicado, deter-
mine um subconjunto que seja uma base do espaço.
(a) {(2, 1), (−6, 3), (1, 4)} em R2 .
(b) {(−2, 3, 1), (3, −1, 2), (1, 2, 3), (−1, 5, 0)} em R3
(c) {x2 − 1, x2 + 1, 4x, 2x − 3} em R2 [x].
(d) {1, 4x + 3, 3x − 4, x2 + 2, x − x3 } em R3 [x].
25. Considerem-se, no espaço vectorial R4 , os subespaços
A =< (1, 2, 0, 1), (−1, 1, 1, 1) > e B =< (0, 0, 1, 1), (2, 2, 2, 2) > .
Determine A ∩ B e dim (A ∩ B).
26. Considere o seguinte subconjunto de R4 :
X = {(2, 2, 1, 3), (7, 5, 5, 5), (3, 2, 2, 1), (2, 1, 2, 1)}.
Determine uma base de < X > e estenda-a a uma base de R4 .
   
1 0
27. Determine uma base de M3×1 (R) que contenha os vectores 0 , 2 .
  
2 4

28. Determine uma base de R3 [x] contendo os polinómios 1 + x + x2 e x − x3 .


29. Considere os subespaços vectoriais de R4 :
F =< (1, 0, 1, 0), (2, −3, 2, 0), (1, −1, 1, 0) > e G = (a, b, c, d) ∈ R4 : a = d ∧ c = 0 .


Determine:
(a) Uma base e a dimensão de cada um dos subespaços F e G;
(b) O subespaço F ∩ G e a dimensão de F + G;
(c) Uma base de R4 que inclua 2 vectores de G.
30. Em R4 , considere os subespaços :
F =< (1, 1, 1, 0), (−1, 0, 1, 1), (−5, −2, 1, 3) >
e
G = (x, y, z, w) ∈ R4 : x + y + z = 0 ∧ 2x + z + w = 0 .

42 Espaços vectoriais

(a) Prove que G é subespaço de R4 e determine uma sua base.


(b) Caracterize os subespaços F + G e F ∩ G, indicando as dimensões.
(c) Averigue se F ∪ G é subespaço de R4 .
31. Considere, em R3 [x], os subespaços:
U = 3x3 + 10x2 − 5x + 5, x3 + 5x2 + 5, x3 + 4x2 − x + 3

e
V = x3 + 2x2 − x + 5, x3 + 4x2 + 6, 2x3 + 2x2 − 3x + 9 .

(a) Determine a dimensão e uma base do subespaço U + V .


(b) Determine a dimensão de U ∩ V .
32. Considere os conjuntos de vectores de R4 :
S1 = {(1, 0, 1, 0), (−1, 1, 0, 1), (1, 1, 2, 1)} e S2 = {(1, 1, 0, 0), (k, 1, 0, k)}, k ∈ R.
(a) Determine os valores de k para os quais o conjunto S2 é linearmente independente.
(b) Considere k = −1 e sejam F e G os subespaços gerados por, respectivamente, S1
e S2 . Determine uma base do subespaço F + G e a forma geral dos seus vectores.
33. Considere os seguintes subespaços de espaço vectorial real R4 :
F =< (1, −1, 0, 2), (−1, 2, 0, 1), (2, −3, 0, 1) >
e
G = (x, y, z, w) ∈ R4 : x = 0 ∧ z = 2y .


(a) Mostre que dim F = 2 = dim G.


(b) Determine uma base de F + G.
(c) Sem efectuar cálculos, conclua que F + G = R4 e F ∩ G = {(0, 0, 0, 0)}.
34. Considere os seguintes subespaços de espaço vectorial real R4 :
F = (x, y, z, w) ∈ R4 : x + y + z = 0


e
G =< (1, 1, 0, 0), (2, 2, 0, 5), (0, 0, 0, 1) > .
(a) Mostre que F é um subespaço vectorial de R4 .
(b) Determine uma base de F que inclua o vector (0, 0, 0, 1).
(c) Encontre uma base de F + G e calcule a dimensão de F ∩ G.
35. Considere o espaço vectorial real R3 . Para cada α ∈ R, defina-se o conjunto
Fα = (x, y, z) ∈ R3 : x = αy = αz .


(a) Mostre que Fα é um subespaço vectorial de R3 , qualquer que seja α ∈ R.


(b) Determine, em função de α, uma base de Fα .
(c) Seja G =< (1, 1, 0), (0, 0, 2) >. Determine, em função de α, uma base de Fα + G
e a dimensão de Fα ∩ G.
Capı́tulo 3

Aplicações Lineares

3.1 Aplicações lineares


Definição 3.1.1 Sejam V e W dois espaços vectoriais sobre o (mesmo) corpo K. Uma
aplicação f : V −→ W diz-se uma aplicação linear (ou transformação linear ou homomor-
fismos de espaços vectoriais) se:
• Para quaisquer x, y ∈ V , f (x + y) = f (x) + f (y);
• Para quaisquer x ∈ V e λ ∈ K, f (λx) = λf (x).

Exemplos 3.1.2
1. Sejam f e g as aplicações de R3 em R2 definidas por
f (x, y, z) = (x, x + y + z)
e
g(x, y, z) = (x, z + 2),
respectivamente, para qualquer (x, y, z) ∈ R3 .
Vamos provar que f é uma aplicação linear e que g não é.
No caso da aplicação f temos, para quaisquer (x, y, z), (x0 , y 0 , z 0 ) ∈ R3 e α ∈ R,
f ((x, y, z) + (x0 , y 0 , z 0 )) = f (x + x0 , y + y 0 , z + z 0 )
= (x + x0 , x + x0 + y + y 0 + z + z 0 )
= (x + x0 , x + y + z + x0 + y 0 + z 0 )
= (x, x + y + z) + (x0 , x0 + y 0 + z 0 )
= f (x, y, z) + f (x0 , y 0 , z 0 )
e
f (α(x, y, z)) = f ((αx, αy, αz))
= (αx, αx + αy + αz)
= α(x, x + y + z)
= αf (x, y, z),

43
44 Aplicações Lineares

pelo que f é uma aplicação linear.


Para g temos, para quaisquer (x, y, z), (x0 , y 0 , z 0 ) ∈ R3 ,
g((x, y, z) + (x0 , y 0 , z 0 )) = g(x + x0 , y + y 0 , z + z 0 ) = (x + x0 , z + z 0 + 2)
e
g(x, y, z) + g(x0 , y 0 , z 0 ) = (x, z + 2) + (x0 , z 0 + 2) = (x + x0 , z + z 0 + 4),
o que mostra que g não verifica a primeira condição da definição. Portanto, g não é
uma aplicação linear.
2. Seja E um espaço vectorial sobre o corpo K. A aplicação f : E −→ E definida por
f (x) = x, (∀x ∈ E)
é claramente uma aplicação linear. Esta aplicação, denominada aplicação identidade
de E, representa-se habitualmente por idE ou por IE ou ainda por 1E .
3. Se E é um espaço vectorial sobre o corpo K e F é um subespaço vectorial de E, é claro
que a a aplicação f : F −→ E definida por
f (x) = x (∀x ∈ F )
é uma aplicação linear. Esta aplicação é denominada inclusão ou injecção canónica de
F em E. A aplicação identidade é, obviamente, um caso particular desta.
4. Se E e E 0 são espaços vectoriais sobre o mesmo corpo K, é imediato verificar que a
aplicação f : E −→ E 0 definida por
f (x) = 0E 0 (∀x ∈ E)
é linear. Esta aplicação denomina-se por aplicação nula.
5. Considerando o espaço vectorial real Rn [x] então a aplicação D : Rn [x] −→ Rn [x]
(derivação formal) definida por
D(a0 + a1 x + · · · + an xn ) = a1 + · · · + nan xn−1 (∀a0 + a1 x + · · · + an xn ∈ Rn [x])
é linear. Efectivamente, tem-se, para quaisquer elementos a0 + a1 x + · · · + an xn e
b0 + b1 x + · · · + bn xn de Rn [x],
D((a0 + a1 x + · · · + an xn ) + (b0 + b1 x + · · · + bn xn ))
= D((a0 + b0 ) + (a1 + b1 )x + · · · + (an + bn )xn )
= (a1 + b1 ) + 2(a2 + b2 )x + · · · + n(an + bn )xn−1
= (a1 + 2a2 x + · · · + nan xn−1 ) + (b1 + 2b2 x + · · · + nbn xn−1 )
= D((a0 + a1 x + · · · + an xn )) + D((b0 + b1 x + · · · + bn xn ))
e ainda, para quaisquer α ∈ R e a0 + a1 x + · · · + an xn ∈ Rn [x],
D(α(a0 + a1 x + · · · + an xn )) = D(αa0 + αa1 x + · · · + αan xn )
= αa1 + 2αa2 x + · · · + nαan xn−1
= α(a1 + 2a2 x + · · · + nan xn−1 )
= αD(a0 + a1 x + · · · + an xn ).
Aplicações lineares 45

6. Se considerarmos os espaços vectoriais reais Rn e R, a aplicação pi : Rn −→ R definida


por pi (x1 , x2 , . . . , xn ) = xi , para qualquer (x1 , x2 , . . . , xn ) ∈ Rn , isto é, a aplicação que
a cada vector de Rn faz corresponder a sua i-ésima coordenada, é uma aplicação linear
a que chamamos i-ésima projecção de Rn (i ∈ {1, 2, . . . , n}). H

É fácil mostrar que:

Teorema 3.1.3 Seja f : V −→ W uma aplicação linear. Então:

• f (0V ) = 0W ;

• Para qualquer x ∈ V , f (−x) = −f (x).

Definição 3.1.4 Sejam f : A −→ B uma aplicação, X ⊆ A e Y ⊆ B. Ao subconjunto

f (X) = {f (x) ∈ B | x ∈ X}

de B chama-se imagem de X por meio de f e ao subconjunto

f −1 (Y ) = {x ∈ A | f (x) ∈ Y }

chama-se imagem inversa de Y por meio de f .

Teorema 3.1.5 Seja f : V −→ W uma aplicação linear. Então:

• Se F é um subespaço vectorial de V então f (F ) é um subespaço vectorial de W ;

• Se G é um subespaço vectorial de W então f −1 (G) é um subespaço vectorial de V .

Tem especial interesse os seguintes dois casos particulares:

Definição 3.1.6 Seja f : V −→ W uma aplicação linear. Ao subespaço vectorial f (V ) de


W chama-se imagem de f e denota-se por Im(f ). Ao subespaço vectorial f −1 ({0W }) de V
chama-se núcleo de f e denota-se por Nuc(f ).

Exemplo 3.1.7 Seja f : R2 −→ R3 a aplicação linear definida por

f (x, y) = (x + y, 0, 2x + 2y),

para qualquer (x, y) ∈ R2 . Então Nuc(f ) = {(x, y) ∈ R2 | f (x, y) = (0, 0, 0)}. Como

 x+y =0
f (x, y) = (0, 0, 0) ⇐⇒ (x + y, 0, 2x + 2y) = (0, 0, 0) ⇐⇒ 0=0 ⇐⇒ y = −x,
2x + 2y = 0

46 Aplicações Lineares

então
Nuc(f ) = {(x, y) ∈ R2 | y = −x} = {(x, −x) ∈ R2 | x ∈ R}.
Por outro lado, Im(f ) = {f (x, y) ∈ R3 | (x, y) ∈ R2 }. Visto que
 
 a=x+y  a=x+y
(a, b, c) = f (x, y) ⇐⇒ (a, b, c) = (x + y, 0, 2x + 2y) ⇐⇒ b=0 ⇐⇒ b=0 ,
c = 2x + 2y c = 2a
 

então Im(f ) = {(a, 0, 2a) ∈ R3 | a ∈ R}. H

Definição 3.1.8 Seja f : V −→ W uma aplicação linear. Diz-se que:


• f é um monomorfismo se f é injectiva, i.e. se

(∀x, y ∈ V ) f (x) = f (y) =⇒ x = y;

• f é um epimorfismo se f é sobrejectiva, i.e. se f (V ) = W , ou seja, se

(∀y ∈ W )(∃x ∈ V ) y = f (x);

• f é um isomorfismo se f é bijectiva, i.e. se f é injectiva e sobrejectiva;

• f é um endomorfismo se V = W ;

• f é um automorfismo se V = W e f é bijectiva, i.e. se f é um endomorfismo e um


isomorfismo.
Dois subespaços V e W dizem-se isomorfos se existir um isomorfismo f : V −→ W .

Teorema 3.1.9 Sejam f : V −→ W e g : W −→ Z duas aplicações lineares. Então:


• A aplicação g ◦ f : V −→ Z é linear (recorde que a aplicação g ◦ f está definida por
(g ◦ f )(x) = g(f (x)), para qualquer x ∈ V );

• Se f e g são injectivas então g ◦ f é injectiva;

• Se f e g são sobrejectivas então g ◦ f é sobrejectiva;

• Se f e g são isomorfismos então g ◦ f é um isomorfismo;

• Se f é um isomorfismo então a aplicação inversa f −1 : W −→ V é linear e, além


disso, é também um isomorfismo.

Teorema 3.1.10 Seja f : V −→ W uma aplicação linear. Então f é injectiva se e só se


Nuc(f ) = {0V }.
Aplicações lineares 47

Demonstração. Suponhamos primeiro que f é injectiva. Então, se x ∈ Nuc(f ) tem-se f (x) = 0W .


Como também f (0V ) = 0W , então f (x) = f (0V ), pelo que x = 0V . Assim, Nuc(f ) ⊆ {0V } e, visto
que a inclusão recı́proca é válida para qualquer subespaço vectorial, tem-se Nuc(f ) = {0V }.
Reciprocamente, suponhamos que Nuc(f ) = {0V } e tomemos x, y ∈ V tais que f (x) = f (y).
Então f (x) − f (y) = 0W , pelo que f (x − y) = 0W e portanto x − y ∈ Nuc(f ). Donde, x − y = 0V ,
ou seja x = y. Logo f é injectiva.

Exemplo 3.1.11 Seja f : R2 −→ R3 a aplicação linear definida por


f (x, y) = (x + y, −y, x − y),
para qualquer (x, y) ∈ R2 . Então 
(x, y) ∈ Nuc(f ) ⇐⇒ f (x, y) = (0, 0, 0) ⇐⇒
 x+y =0 
x=0
(x + y, −y, x − y) = (0, 0, 0) ⇐⇒ −y = 0 ⇐⇒ , pelo que Nuc(f ) = {(0, 0)}
y=0
x−y =0

e portanto f é injectiva. H

Teorema 3.1.12 Sejam f : V −→ W uma aplicação linear e {v1 , v2 , . . . , vn } um conjunto


de geradores de V . Então {f (v1 ), f (v2 ), . . . , f (vn )} é um conjunto de geradores de Im(f ).
Demonstração. Seja y ∈ Im(f ). Então y = f (x), para certo x ∈ V . Como V = hv1 , v2 , . . . , vn i,
então x = α1 v1 + α2 v2 + · · · + αn vn , para certos escalares α1 , α2 , . . . , αn . Logo
y = f (x) = f (α1 v1 + α2 v2 + · · · + αn vn ) = α1 f (v1 ) + α2 f (v2 ) + · · · + αn f (vn ),
pelo que y ∈ hf (v1 ), f (v2 ), . . . , f (vn )i. Portanto Im(f ) ⊆ hf (v1 ), f (v2 ), . . . , f (vn )i. A inclusão
recı́proca é imediata visto que, por definição de Im(f ), tem-se f (v1 ), f (v2 ), . . . , f (vn ) ∈ Im(f ).
Donde Im(f ) = hf (v1 ), f (v2 ), . . . , f (vn )i.

Exemplo 3.1.13 Voltemos a considerar a aplicação linear do Exemplo 3.1.7: f : R2 −→ R3


definida por
f (x, y) = (x + y, 0, 2x + 2y),
para qualquer (x, y) ∈ R2 . Então, como ((1, 0), (0, 1)) é uma base de R2 (em particular, é um
conjunto de geradores), tem-se Im(f ) = hf (1, 0), f (0, 1)i = h(1, 0, 2), (1, 0, 2)i = h(1, 0, 2)i =
{a(1, 0, 2) |∈ R} = {(a, 0, 2a) |∈ R}. H

Teorema 3.1.14 Sejam f : V −→ W uma aplicação linear injectiva e {v1 , v2 , . . . , vn } um


conjunto de vectores linearmente independente de V . Então {f (v1 ), f (v2 ), . . . , f (vn )} é um
conjunto de vectores linearmente independente de W (e de Im(f )).
Demonstração. Sejam α1 , α2 , . . . , αn escalares tais que α1 f (v1 ) + α2 f (v2 ) + · · · + αn f (vn ) = 0W .
Então
f (α1 v1 + α2 v2 + · · · + αn vn ) = α1 f (v1 ) + α2 f (v2 ) + · · · + αn f (vn ) = 0W ,
pelo que α1 v1 + α2 v2 + · · · + αn vn ∈ Nuc(f ). Como f é injectiva, de acordo com o Teorema 3.1.10,
tem-se α1 v1 + α2 v2 + · · · + αn vn = 0V . Mas v1 , v2 , . . . , vn são vectores linearmente independentes,
pelo que α1 = 0, α2 = 0, . . . , αn = 0 e portanto f (v1 ), f (v2 ), . . . , f (vn ) são vectores linearmentes.
48 Aplicações Lineares

Teorema 3.1.15 (Teorema das dimensões) Sejam V e W dois espaços vectoriais sobre
o corpo K e f : V −→ W uma aplicação linear. Se V é de dimensão finita então

dim (V ) = dim Im(f ) + dim Nuc(f ).

Definição 3.1.16 Seja f uma aplicação linear. A dim Im(f ) chama-se caracterı́stica de f
e denota-se por c(f ). A dim Nuc(f ) chama-se nulidade de f e denota-se por n(f ).

Tendo em conta os resultados anteriores, o teorema seguinte é imediato:

Teorema 3.1.17 Sejam V e W dois espaços vectoriais de dimensão finita sobre o corpo K
e f : V −→ W uma aplicação linear. Então:

• f é injectiva se e só se c(f ) = dim (V );

• f é sobrejectiva se e só se c(f ) = dim (W );

• f é um isomorfismo se e só se c(f ) = dim (V ) = dim (W ).

Teorema 3.1.18 Sejam V e W dois espaços vectoriais de (igual) dimensão n sobre o corpo
K e f : V −→ W uma aplicação linear. As seguintes afirmações são equivalentes:

1. f é injectiva;

2. f é sobrejectiva;

3. f é um isomorfismo;

4. f transforma bases de V em bases de W , i.e. se (v1 , v2 , . . . , vn ) é uma base de V então


(f (v1 ), f (v2 ), . . . , f (vn )) é uma base de W .

3.2 Matrizes de aplicações lineares


O seguinte teorema garante-nos que uma aplicação linear, com o espaço de partida de di-
mensão finita, fica univocamente determinada pelas imagens de uma base.

Teorema 3.2.1 Sejam V e W dois espaços vectoriais sobre o corpo K e (v1 , v2 , . . . , vn )


uma base de V . Sejam w1 , w2 , . . . , wn ∈ W . Então, existe uma e uma só aplicação linear
f : V −→ W tal que f (vi ) = wi , para i ∈ {1, . . . , n}.
Matrizes de aplicações lineares 49

Demonstração. (esquema) Supondo que existe uma aplicação linear f : V −→ W tal que
f (vi ) = wi , para i ∈ {1, . . . , n}, tem-se

f (x) = f (α1 v1 +α2 v2 +· · ·+αn vn ) = α1 f (v1 )+α2 f (v2 )+· · ·+αn f (vn ) = α1 w1 +α2 w2 +· · ·+αn wn ,

para qualquer x = α1 v1 +α2 v2 +· · ·+αn vn , com α1 , α2 , . . . , αn escalares. A prova termina mostrando


que uma correspondência assim definida é uma aplicação linear.
Sejam V e W dois espaços vectoriais sobre o corpo K de dimensões n e m, respectivamente.
Sejam f : V −→ W uma aplicação linear, (v1 , v2 , . . . , vn ) uma base de V e (w1 , w2 , . . . , wm )
uma base de W . Então,
f (v1 ) = a11 w1 + a21 w2 + · · · + am1 wm





 f (v2 ) = a12 w1 + a22 w2 + · · · + am2 wm
 ..


.
 f (vj ) = a1j w1 + a2j w2 + · · · + amj wm
..





 .
f (vn ) = a1n w1 + a2n w2 + · · · + amn wm ,

para certos escalares aij , com 1 ≤ i ≤ m e 1 ≤ j ≤ n.

Definição 3.2.2 Nas condições anteriores, à matriz


 
a11 a12 · · · a1j · · · a1n
   21 a22 · · · a2j · · · a2n
a
 
M(f ; (vj ), (wi )) = aij =  ..

.. .. .. 
 . . . . 
am1 am2 · · · amj · · · amn m×n

chamamos matriz da aplicação linear f relativamente às bases (fixadas) (v1 , v2 , . . . , vn ) de V


e (w1 , w2 , . . . , wm ) de W .

Observação 3.2.3 Seja x = α1 v1 + α2 v2 + · · · + αn vn ∈ V , com α1 , α2 , . . . , αn escalares.


Então
f (x) = f (α1 v1 + α2 v2 + · · · + αn vn )
= α1 f (v1 ) + α2 f (v2 ) + · · · + αn f (vn )
= α1 (a11 w1 + a21 w2 + · · · + am1 wm ) + α2 (a12 w1 + a22 w2 + · · · + am2 wm )
+ · · · + αn (a1n w1 + a2n w2 + · · · + amn wm )
= (a11 α1 + a12 α2 + · · · + a1n αn )w1 + (a21 α1 + a22 α2 + · · · + a2n αn )w2
+ · · · + (am1 α1 + am2 α2 + · · · + amn αn )wm ,
pelo que sendo
   
α1 a11 α1 + a12 α2 + · · · + a1n αn
 α2   a21 α1 + a22 α2 + · · · + a2n αn 
X= e Y =
   
..  .. 
 .   . 
αn n×1
am1 α1 + am2 α2 + · · · + amn αn m×1
50 Aplicações Lineares

(i.e. as matrizes colunas das coordenadas de x na base (v1 , v2 , . . . , vn ) de V e de f (x) na


base (w1 , w2 , . . . , wm ) de W , respectivamente) temos
M(f ; (vj ), (wi )) X = Y.

Exemplo 3.2.4 Consideremos a aplicação linear ϕ : R3 −→ R2 definida por


ϕ(x, y, z) = (2x + y, x + z),
para qualquer (x, y, z) ∈ R3 . Sejam (e1 , e2 , e3 ) a base canónica de R3 e (e01 , e02 ) a base
((1, 1), (0, −1)) de R2 . Vamos determinar a matriz de ϕ relativamente às bases (ej ) e (e0i ) de
R3 e R2 , respectivamente. Temos
ϕ(e1 ) = ϕ(1, 0, 0) = (2, 1) = 2(1, 1) + 1(0, −1) = 2e01 + e02 ,
ϕ(e2 ) = ϕ(0, 1, 0) = (1, 0) = 1(1, 1) + 1(0, −1) = e01 + e02
e
ϕ(e3 ) = ϕ(0, 0, 1) = (0, 1) = 0(1, 1) − 1(0, −1) = 0e01 − e02 .
Logo,  
2 1 0
M (ϕ; (ej ), (e0i )) = . H
1 1 −1

É fácil provar que:


Teorema 3.2.5 Sejam V , W e Z espaços vectoriais sobre K de dimensões p, n e m,
respectivamente. Sejam (v1 , v2 , . . . , vp ), (w1 , w2 , . . . , wn ) e (z1 , z2 , . . . , zm ) bases de V , W e
Z, respectivamente. Sejam f : V −→ W e g : W −→ Z aplicações lineares. Então
M(g ◦ f ; (v` ), (zi )) = M(g; (wj ), (zi ))M(f ; (v` ), (wj )).

f g
V W Z
(vl ) (wj ) (zi )

gof
Suponhamos agora que f : V −→ W é um isomorfismo. Sejam (v1 , v2 , . . . , vn ) uma base
de V e (w1 , w2 , . . . , wn ) uma base de W . Tendo em conta que f −1 ◦ f = idV e f ◦ f −1 = idW
e ainda que
M (idV ; (vj ), (vj )) = In = M (idW ; (wj ), (wj )),
então temos o seguinte corolário:
Corolário 3.2.6 Sejam V e W espaços vectoriais sobre K de dimensão n, f : V −→ W
uma aplicação linear, (v1 , v2 , . . . , vn ) uma base de V , (w1 , w2 , . . . , wn ) uma base de W e
A = M(f ; (vj ), (wj )). Então, f é um isomorfismo se e só se A é uma matriz invertı́vel.
Neste caso, tem-se A−1 = M(f −1 ; (wj ), (vj )).
Matrizes de Mudança de base 51

3.3 Matrizes de mudança de base


Definição 3.3.1 Seja V um espaço vectorial de dimensão n sobre K. Chama-se matriz
de mudança de base a qualquer matriz da forma M (idV ; (vj ), (vj0 )), com (v1 , v2 , . . . , vn ) e
(v10 , v20 , . . . , vn0 ) bases de V .

Observe-se que a matriz (de mudança de base) M (idV ; (vj ), (vj0 )) transforma as coorde-
nadas de um vector x ∈ V na base (v1 , v2 , . . . , vn ) nas coordenadas do (mesmo) vector x na
base (v10 , v20 , . . . , vn0 ).

Teorema 3.3.2 As matrizes de mudança de base são invertı́veis. Além disso, se V é um


espaço vectorial sobre K de dimensão n e (v1 , v2 , . . . , vn ) e (v10 , v20 , . . . , vn0 ) são bases de V
então
M(idV ; (vj ), (vj0 ))−1 = M(idV ; (vj0 ), (vj )) .

Tendo em conta que f = idW ◦ f ◦ idV e atendendo ao Teorema 3.2.5, é fácil provar que:

Teorema 3.3.3 (Mudança de base) Seja f : V −→ W uma aplicação linear. Sejam


(v1 , v2 , . . . , vn ) e (v10 , v20 , . . . , vn0 ) bases de V . Sejam (w1 , w2 , . . . , wm ) e (w10 , w20 , . . . , wm
0
) bases
0 0 0
de W . Sejam A = M(f ; (vj ), (wi ))m×n , B = M(f ; (vj ), (wi ))m×n , P = M(idV ; (vj ), (vj ))n×n
e Q = M(idW ; (wi0 ), (wi ))m×m . Então B = Q−1 AP .

f
V W
(vj ) A (wi )

idV P idW Q −1

f
V W
(vj’ ) B (wi’ )

Definição 3.3.4 Duas matrizes A e B do tipo m × n sobre K dizem-se equivalentes se


existem matrizes invertı́veis P de ordem n e Q de ordem m sobre K tais que B = Q−1 AP .

De acordo com o Teorema 3.3.3, duas matrizes da mesma aplicação linear são equivalen-
tes. O resultado seguinte garante-nos que o recı́proco é também válido, i.e. duas matrizes
equivalentes são matrizes da mesma aplicação linear.
52 Aplicações Lineares

Teorema 3.3.5 Sejam A e B matrizes do tipo m × n sobre K e Pn×n e Qm×m matrizes


invertı́veis sobre K tais que B = Q−1 AP . Sejam V e W espaços vectoriais de dimensões
n e m sobre K e sejam (v1 , v2 , . . . , vn ) uma base de V e (w1 , w2 , . . . , wm ) uma base de W .
Seja f : V −→ W a aplicação linear tal que A = M(f ; (vj ), (wi )). Então, existem bases
(v10 , v20 , . . . , vn0 ) de V e (w10 , w20 , . . . , wm
0
) de W tais que

B = M(f ; (vj0 ), (wi0 )).

Demonstração. (esquema) Para cada j ∈ {1, 2, . . . , n}, seja vj0 o vector de V que tem como
matriz coluna das coordenadas na base (v1 , v2 , . . . , vn ) a j-ésima coluna de P . Então, (v10 , v20 , . . . , vn0 )
é uma base de V e tem-se P = M(idV ; (vj0 ), (vj )). Analogamente, sendo wi0 o vector de W que tem
como matriz coluna das coordenadas na base (w1 , w2 , . . . , wm ) a i-ésima coluna de Q, para qualquer
i ∈ {1, 2, . . . , m}, então (w10 , w20 , . . . , wm
0 ) é uma base de W e Q = M(id ; (w 0 ), (w )). Assim, pelo
W i i
Teorema 3.3.3, tem-se B = M(f ; (vj0 ), (wi0 )).

Definição 3.3.6 Sejam V um espaço vectorial de dimensão n sobre K e f : V −→ V uma


aplicação linear (endomorfismo). Chama-se matriz do endomorfismo f a qualquer matriz da
forma M(f ; (vj ), (vj )), com (v1 , v2 , . . . , vn ) uma base de V .

Definição 3.3.7 Duas matrizes quadradas A e B de ordem n sobre K dizem-se semelhantes


se existe uma matriz invertı́vel P de ordem n sobre K tal que B = P −1 AP .

Observe-se que se duas matrizes são semelhantes então também são equivalentes.
Tendo em conta os Teoremas 3.3.3 e 3.3.2, podemos afirmar que duas matrizes do mesmo
endomorfismo são semelhantes. Além disso, reciprocamente, tem-se:

Teorema 3.3.8 Sejam A e B matrizes quadradas de ordem n sobre K e P uma matriz


invertı́vel de ordem n sobre K tal que B = P −1 AP . Sejam V um espaço vectorial de dimensão
n sobre K e (v1 , v2 , . . . , vn ) uma base de V . Seja f : V −→ V o endomorfismo de V tal que
A = M(f ; (vj ), (vj )). Então, existe uma base (v10 , v20 , . . . , vn0 ) de V tal que

B = M(f ; (vj0 ), (vj0 )).

Demonstração. (esquema) Basta tomar o vector vj0 de V que tem como matriz coluna das
coordenadas na base (v1 , v2 , . . . , vn ) a j-ésima coluna de P , com j ∈ {1, 2, . . . , n}.

3.4 Exercı́cios
1. Verifique quais das seguintes aplicações f : R3 −→ R3 são lineares:
a) f (x, y, z) = (y, z, 0);
b) f (x, y, z) = (z, −y, x);
c) f (x, y, z) = (|x|, −z, 0);
Exercı́cios 53

d) f (x, y, z) = (x − 1, x, y);
e) f (x, y, z) = (x + y, z, 0);
f) f (x, y, z) = (2x, y − 2, 4y).

2. Mostre que a aplicação f : R2 −→ R2 definida por

f (x, y) = (x + y, x − y)

é linear.

3. Seja a aplicação linear f : R3 −→ R3 definida por f (a, b, c) = (a + b, b + c, a + c).


Determine Imf e Nucf .

4. Considere a aplicação linear f : R2 −→ R2 definida por f (a, b) = (b, 0). Prove que
Imf =Nucf .

5. Considere a aplicação linear f : R5 −→ R4 definida por

f (a, b, c, d, e) = (a − c + 3d − e, a + 2d − e, 2a − c + 5d − e, −c + d).

Encontre bases para Imf e Nucf .

6. Seja f : R3 −→ R2 [x] a aplicação linear definida por

f (a, b, c) = ax2 + λ(b − a)x + c − b, com λ ∈ R.

a) Determine as dimensões de Nucf e Imf em função do parâmetro λ.


b) Nos casos em que Nucf 6= {0}, obtenha bases para Nucf e Imf .
c) Considerando λ = 0, resolva a equação f (a, b, c) = 6x2 − 1.

7. Considere o seguinte subespaço de R4 :

A = {(x, 0, z, 0) : x, z ∈ R}.

Determine aplicações lineares f, g : R4 −→ R4 tais que


a) Imf = A.
b) Nucg = A.
54 Aplicações Lineares

8. Seja f : E −→ E uma aplicação linear. Considere o conjunto

P = {x ∈ E : f (x) = x}.

Mostre que:
a) P é um subespaço de E.
b) Nucf ∩ P = {0}.

9. Sejam V e W espaços vectoriais sobre o mesmo corpo K. Sejam {v1 , v2 , v3 } uma base
de V e {w1 , w2 } uma base de W . Seja ainda f : V −→ W definida por

f (λ1 v1 + λ2 v2 + λ3 v3 ) = (λ1 + µ)w1 + (λ2 + λ3 )w2 , (µ ∈ K)

para quaisquer λ1 , λ2 , λ3 ∈ K.
a) Determine os valores de µ para os quais f é linear.
b) Para os valores encontrados na alı́nea anterior, determine uma base de Nucf .

10. Considere a aplicação linear f : R3 −→ R3 definida por f (x, y, z) = (x + y, 0, y − z).


a) Determine Imf , Nucf e uma base para cada um destes subespaços.
b) Considere o subespaço A = {(x, y, z) ∈ R3 : x = y}. Determine f −1 (A) e uma sua
base.

11. Considere a aplicação linear f : R4 −→ R2 [x], definida por

f (a, b, c, d) = ax2 + (a + c)x − c.

a) Determine Imf , Nucf e uma base para cada um destes subespaços.


b) Sendo A = {(a, b, c, d) ∈ R4 : a + b = c}, determine f (A).
c) Sendo B = {x2 + αx + 1 : α ∈ R}, determine f −1 (B).

12. Considere a aplicação g : M3×2 (R) −→ R3 , definida por


 
a b
g  c d  = (a − b, a − c, e).
e f

a) Prove que g é uma aplicação linear.


b) Determine Img, Nucg e uma base para cada um destes subespaços.
c) Determine g −1 ({(0, x, x) : x ∈ R}).
Exercı́cios 55

  
 x 0 
d) determine g(X), com X =  0 x  : x, y, z ∈ R .
y 0
 

13. Se f : V −→ W e g : W −→ X são aplicações lineares, prove que:


a) Im(g ◦ f ) ⊆ Img;
b) Nucf ⊆ Nuc(g ◦ f );
c) Se V = W = X, então f ◦ g = g ◦ f =⇒ Nucf + Nucg ⊆ Nuc(f ◦ g).

14. Mostre que a aplicação linear f : R3 −→ R3 definida por

f (x, y, z) = (x + y + z, 2x − y − z, x + 2y − z)

é sobrejectiva e injectiva.

15. Sejam V um espaço vectorial e {v1 , v2 , ..., vn } uma sua base. Seja f um endomorfismo
de V tal que
f (v1 ) = v2 , f (v2 ) = v3 , ..., f (vn−1 ) = vn , f (vn ) = 0.
Determine, justificando, a dimensão de Nucf .

16. Seja f : R2 −→ R2 uma aplicação linear e sejam u, v vectores linearmente independen-


tes de R2 . Mostre que se verifica uma, e uma só, das condições seguintes:
(1) f (u) e f (v) são linearmente independentes,
(2) dim (Nucf )=1
(3) Imf = {0}.

17. Determine a caracterı́stica e a nulidade da aplicação linear

f : M3×1 (R) −→ M3×1 (R),

definida por f (X) = AX, com


 
1 0 2
A= 2 1 2 .
0 1 −2

18. Determine um isomorfismo de Rn [x] para Rn+1 .


56 Aplicações Lineares

19. Sejam f : R −→ R uma aplicação linear e ϑ : R2 −→ R2 a aplicação definida por

ϑ(x, y) = (x, y − f (x)).

Prove que ϑ é um isomorfismo.

20. a) Mostre que {(1, 1, 1), (1, 2, 3), (1, 1, 2)} é uma base de R3 .
b) Seja f : R3 −→ R3 a aplicação linear tal que

f (1, 1, 1) = (1, 1, 1), f (1, 2, 3) = (−1, −2, −3), f (1, 1, 2) = (2, 2, 4).

Determine f (x, y, z), para cada (x, y, z) ∈ R3 .

21. Seja f : R2 [x] −→ R3 [x] uma aplicação linear tal que f (1) = 1, f (x) = x2 e f (x2 ) =
x + x3 . Determine f (a + bx + cx2 ).

22. Seja f : R3 −→ R3 [x] uma aplicação linear tal que

f (1, 0, 0) = 2x + x3 ;
f (0, 1, 0) = −2x + x2 ;
f (0, 0, 1) = x2 + x3 .

Determine:
a) f (x, y, z), para cada (x, y, z) ∈ R3 ;
b) Imf e uma sua base;
c) Nucf e uma sua base.
d) Extenda a base obtida em c) a uma base de R3 .

23. a) Mostre que (a, b, c) é uma base de R3 , sendo

a = (−1, 1, 1), b = (1, −1, 1), c = (1, 1, −1).

b) Seja f : R3 −→ R4 a aplicação linear tal que

f (a) = (1, 0, 1, λ), f (b) = (0, 1, −1, 0), f (c) = (1, −1, λ, −1).

(1) Determine f (x, y, z), para cada (x, y, z) ∈ R3 .


(2) Para que valores de λ a aplicação f é injectiva?
(3) Considerando λ = −1, determine a dimensão do subespaço < f (a), f (b) >.
(4) Para λ = 2, determine f (1, 1, 0) e f −1 {(1, 1, 0, 0)}.
Exercı́cios 57

24. Considere a seguinte famı́lia de subconjuntos de R3 :

Fα,β = {(x, y, z) ∈ R3 : x = α + y + βz}, com α, β ∈ R.

a) Determine os valores de α e β para os quais Fα,β é um subespaço de R3 .


b) Determine uma base de F0,2 .
c) Seja f o endomorfismo de R3 tal que Nucf = F0,2 e f (1, 2, −1) = (1, 0, −1). Deter-
mine f (x, y, z), para cada (x, y, z) ∈ R3 .

25. Considere a aplicação linear f : R2 −→ R3 definida por

f (x, y) = (x + 2y, 2x − y, −x).

Determine a matriz de f
a) relativamente às bases canónicas ((1, 0), (0, 1)) e ((1, 0, 0), (0, 1, 0), (0, 0, 1)).
b) relativamente às bases ((0, 1), (1, 1)) e ((0, 0, 1), (0, 1, 1), (1, 1, 1)).

26. Considere a aplicação linear f : R3 −→ R2 definida por

f (x, y, z) = (2x − y, 2y − z).

Determine a matriz de f
a) relativamente às bases canónicas;
b) relativamente às bases ((1, 1, 1), (0, 1, 1), (0, 0, 1)) e ((0, 1), (1, 1)).

27. Considere a aplicação linear f : R3 −→ R3 definida por

f (x, y, z) = (2x + z, y − x + z, 3z).

Determine a matriz de f relativamente à base

((1, −1, 0), (1, 0, −1), (1, 0, 0)).

28. Suponha que a aplicação f : R3 −→ R3 é linear e tal que

f (1, 0, 0) = (2, 3, −2), f (1, 1, 0) = (4, 1, 4), f (1, 1, 1) = (5, 1, −7).

Determine a matriz de f relativamente à base canónica de R3 .


58 Aplicações Lineares

29. Considere a aplicação f : R2 [x] −→ M2×2 (R) definida por


 
2 b+c a
f (a + bx + cx ) = .
b c

a) Mostre que f é linear.


b) Determine a matriz de f relativamente às bases (1, x, 1 + x2 ) de R2 [x] e
       
1 0 1 1 1 1 1 1
, , ,
0 0 0 0 1 0 1 1

de M2×2 (R).
c) Determine Imf e Nucf .

30. Seja T : M2×2 (R) −→ R3 [x] a aplicação linear tal que:


   
1 0 1 1
T = 12x; T = 4x3 + 12x2 + 12x;
0 0 2 0
   
1 1 2 0 0
T = 6x + 12x; T = 5.
0 0 0 1

a) Prove que        
1 0 1 1 1 1 0 0
, , ,
0 0 2 0 0 0 0 1
é uma base de M2×2 (R).
b) Determine a matriz de T relativamente à base de M2×2 (R) da alı́nea anterior e à
base (1, x, x2 , x3 ) de R3 [x]
c) Determine Nucf e Imf .
d) T é invertı́vel? Justifique.

31. Seja f : R3 [x] −→ R3 [x] definida por

f (a + bx + cx2 + dx3 ) = a + (d − c − a)x + (d − c)x3 .

a) Mostre que f é linear.


b) Determine a matriz de f relativamente
(1) à base (1, x, x2 , x3 );
(2) à base (1 + x3 , x, x + x3 , x2 + x3 ).
Exercı́cios 59

32. Considere as aplicações lineares f, g : R3 −→ R3 definidas por

f (x, y, z) = (2x + y, 2x + z, x + 2z) e g(x, y, z) = (x, x + y + z, z).

Determine, relativamente à base canónica de R3 , as matrizes das seguintes aplicações


lineares:
a) f − 2g;
b) 5f + g;
c) g ◦ f ;
d) f ◦ g;
e) f 2 + g;
f) 6g 2 .

33. Uma aplicação linear f : R3 −→ R3 é tal que

f (1, 0, 0) = (0, 0, 1), f (1, 1, 0) = (0, 1, 1), f (1, 1, 1) = (1, 1, 1).

a) Determine f (x, y, z), para cada (x, y, z) ∈ R3 .


b) Determine a matriz de f relativamente à base

B = ((1, 2, 0), (2, 1, 0), (0, 2, 1)).

c) Sendo g : R3 −→ R3 a aplicação linear definida por

g(x, y, z) = (2x, y + z, −x),

determine a matriz de f ◦ g ◦ f relativamente à base B.

34. Seja f : V −→ V uma aplicação linear. Suponha que a matriz de f , relativamente a


certa base, é A. Prove que a aplicação linear f n é representada, relativamente à mesma
base, pela matriz An .

35. Considere as bases ((1, 1, −1), (1, 1, 0), (1, 0, 0)) e ((1, 1), (1, 2)), respectivamente, de R3
e R2 . Seja ϕ : R3 −→ R2 uma aplicação linear e
 
1 3 4
A=
2 −1 −2
a matriz de ϕ relativamente às bases anteriores.
a) Determine a expressão geral de ϕ.
b) Encontre uma base para Imϕ.
60 Aplicações Lineares

36. Considere as bases (2, x + 1, x2 + 1) e ((1, 0, 0), (1, 1, 0), (1, 1, 1)), respectivamente, de
R2 [x] e R3 . Seja f : R2 [x] −→ R3 a aplicação linear cuja matriz relativamente às bases
anteriores é  
1 −1 0
A= 0 2 1 .
1 3 −1
a) Determine a dimensão de Imf e uma sua base.
b) Determine a expressão geral de f .
c) Determine uma base para Nucf .

37. Mostre que, se A e B são matrizes semelhantes, então AT e B T também são.

38. Considere o espaço vectorial R4 e nele fixada a base canónica. Sejam v1 = (1, 1, 0, 0),
v2 = (0, 1, 1, 0), v3 = (1, 0, 0, 1), v4 = (0, 0, 0, 1), F =< v1 , v2 > e G =< v3 , v4 >.
a) Determine:
(1) Uma base de R4 que inclua os vectores v1 e v2 .
(2) Um endomorfismo f , através das imagens dos vectores da base determinada em
(1), tal que Nucf = F e Imf = G.
(3) A matriz do endomorfismo f relativamente à base encontrada em (1).
b) Descreva o endomorfismo f através das imagens dos vectores da base canónica.

39. Considere a aplicação linear f : R3 −→ R3 definida por


f (x, y, z) = (y, −x, z).

a) Determine a matriz A de f , relativamente à base canónica de R3 ;


b) Determine a matriz B de f , relativamente à base
((1, 1, 0), (0, 1, 1), (1, 0, 1));

c) Determine uma matriz invertı́vel X tal que A = X −1 BX.


40. Seja f : R3 −→ R3 a aplicação linear representada pela matriz A, relativamente à base
canónica. Seja ainda P a matriz invertı́vel
 
0 1 1
P =  1 0 1 .
1 1 0

Determine uma base de R3 relativamente à qual f seja representada pela matriz


P −1 AP .
Exercı́cios 61

41. Considere os seguintes vectores de R3 : v1 = (3, 1, 1), v2 = (0, 0, 1), v3 = (0, 1, 0),
v4 = (1, 2, 0), v5 = (1, 0, 0). Seja f : R3 −→ R3 a aplicação linear definida por

f (x, y, z) = (x + y, z, z).

a) Determine a dimensão de Nucf e averigue se f é um isomorfismo.


b) Determine um subespaço G, de R3 , tal que G + Ker f = R3 .
c) Determine a matriz de f relativamente às bases (v1 , v2 , v3 ), do espaço de partida, e
(v5 , v3 , v2 ), do espaço de chegada.
d) Usando matrizes de mudança de base, determine a matriz de f relativamente às
bases (v3 , v2 , 3v1 ), do espaço de partida, e (v5 , v2 , v3 ), do espaço de chegada.

42. Considere a aplicação f : R2 [x] −→ R3 definida por

f (ax2 + bx + c) = (a − b, c, b).

a) Mostre que f é uma aplicação linear.


b) Mostre que f é bijectiva.
c) Determine a matriz de f relativamente à base (x2 , x, 1) de R2 [x] e à seguinte base
de R3 : ((−1, 0, 1), (0, 1, 1), (0, 0, 1)).
d) Usando matrizes de mudança de base, determine a matriz de f relativamente às
bases (x2 , x, 1), de R2 [x], e ((1, 0, 0), (0, 1, 0), (0, 0, 1)), de R3 .

43. Considere os seguintes vectores de R4 : w1 = (1, 1, 0, 0), w2 = (0, 1, 2, 0), w3 =


(0, 0, 2, 1), w4 = (0, 0, 0, 4), w5 = (1, 0, 0, 0), w6 = (0, 1, 0, 0), w7 = (0, 0, 1, 0). Seja
g : R4 −→ R4 a aplicação linear definida por

g(x, y, z, t) = (x, x − y, x, z).

a) Encontre uma base de Img e averigue se g é injectiva.


b) Determine a dimensão de Nucg.
c) Determine a matriz de g relativamente às bases (w1 , w2 , w3 , w4 ), do espaço de partida,
e (w5 , w6 , w7 , w4 ), do espaço de chegada.
d) Usando matrizes de mudança de base, determine a matriz de g relativamente às
bases (w5 , w6 , w7 , w4 ), do espaço de partida, e (w1 , w2 , w3 , w4 ), do espaço de chegada.
 
3 z x+y
44. Seja f : R −→ M2×2 (R) a aplicação definida por f (x, y, z) = .
−2x −y
a) Mostre que f é uma aplicação linear.
b) Determine Nucf e averigue se f é injectiva.
62 Aplicações Lineares

c) Determine a matriz de f , considerando em R3 a base

B1 = ((1, 1, 1), (0, 1, 1), (0, 0, 1))

e em M2×2 (R) a base


       
1 0 0 1 0 0 0 0
B2 = , , , .
0 0 0 0 1 0 0 1

d) Usando matrizes de mudança de base, determine a matriz de F , considerando em


R3 a base canónica e em M2×2 (R) a base B2 .

45. Considere a aplicação linear f : R3 −→ R4 definida por

f (x, y, z) = (x, x + y, z, y + z).

a) Determine a matriz de f relativamente às bases canónicas de R3 e R4 .


b) Determine Nucf .
c) Diga, justificando, se f é sobrejectiva.
d) Usando matrizes de mudança de base, determine a matriz de f relativamente às
bases ((1, 1, 1), (1, 1, 0), (1, 0, 0)), de R3 , e

((1, 1, 0, 0), (0, 1, 0, 0), (0, 0, 1, 1), (0, 0, 0, 1)),

de R4 .
Capı́tulo 4

Sistemas de Equações Lineares

4.1 Matrizes de sistemas de equações lineares


Definição 4.1.1 Um sistema de m equações lineares a n incógnitas (variáveis ou indeter-
minadas) x1 , x2 , . . . , xn , com coeficientes sobre K, é um sistema de equações do tipo


 a1 1 x1 + a1 2 x2 + · · · + a1 n xn = b1
 a2 1 x1 + a2 2 x2 + · · · + a2 n xn

= b2
..


 .
 a x + a x + ··· + a x = b ,
m1 1 m2 2 mn n m

com ai j , bi ∈ K, para i ∈ {1, . . . , m} e j ∈ {1, . . . , n}.

Exemplos 4.1.2

 2x + y − 2z + 4w = −1
1. x − y + 3w = 5 é um sistema de 3 equações lineares a 4 incógnitas x,
4x + 7y + 3z − 8w = 0

y, z e w com coeficientes reais;

 y + 2z = 1
2. x − 2y + z = 0 é um sistema de 3 equações lineares a 3 incógnitas x, y e z com
3y − 4z = 23

coeficientes reais. H

Consideremos o sistema de m equações lineares a n incógnitas da Definição 4.1.1 e as


matrizes  
a1 1 a1 2 · · · a1 n
 a2 1 a2 2 · · · a2 n 
A =  ..
 
.. .. 
 . . ··· . 
am 1 am 2 · · · am n m×n

63
64 Sistemas de Equações Lineares

do tipo m × n sobre K,  
x1
 x2 
X=
 
.. 
 . 
xn n×1

(coluna) do tipo n × 1 e  
b1
 b2 
B=
 
.. 
 . 
bm m×1

(coluna) do tipo m × 1 sobre K. Então


      
a1 1 a1 2 · · · a1 n x1 a1 1 x1 + a1 2 x2 + · · · + a1 n xn b1
 a2 1 a2 2 · · · a2 n   x2   a2 1 x1 + a2 2 x2 + · · · + a2 n xn   b2 
..   ..  =  = ,
      
 .. .. .. ..
 . . ··· .  .   .   . 
am 1 am 2 · · · am n xn am 1 x1 + am 2 x2 + · · · + am n xn bm

i.e. AX = B. Assim, o sistema considerado é equivalente à equação (linear) matricial


AX = B (de incógnita Xn×1 ), a que chamamos representação matricial do sistema. A
matriz
 Am×n dos coeficientes do sistema designa-se por matriz simples do sistema e à matriz
A | B do tipo m × (n + 1) que resulta de juntar a A a coluna B dos termos independentes
do sistema, i.e.  
a1 1 a1 2 · · · a1 n b1
   a2 1 a2 2 · · · a2 n b2 
 
A | B =  .. .. .. ..  ,
 . . ··· . . 
am 1 am 2 · · · am n bm m×(n+1)

chamamos matriz ampliada do sistema.

Exemplo 4.1.3 A matriz simples e a matriz ampliada do sistema 1 do Exemplo 4.1.2 são
   
2 1 −2 4   2 1 −2 4 −1
A =  1 −1 0 3  e A | B =  1 −1 0 3 5 ,
4 7 3 −8 4 7 3 −8 0

respectivamente. Relativamente ao sistema 2 de 4.1.2,


   
0 1 2   0 1 2 1
A =  1 −2 1  e A | B =  1 −2 1 0 
0 3 −4 0 3 −4 23

são respectivamente as suas matriz simples e matriz ampliada. H


Operações elementares sobre matrizes 65

4.2 Operações elementares sobre matrizes


Na resolução de um sistema de equações podemos usar as seguintes operações básicas (a que
chamamos operações elementares de Gauss):
(G1) Trocar duas equações;

(G2) Multiplicar uma equação por um escalar não nulo;

(G3) Adicionar uma equação a outra equação.


Geralmente, também se usa a seguinte “combinação” de (G2) e (G3):
(G4) Adicionar uma equação multiplicada por um escalar a outra equação.

Exemplo 4.2.1 Consideremos o sistema 2 do Exemplo 4.1.2. Então


 
 y + 2z = 1  x − 2y + z = 0
⇐⇒
x − 2y + z = 0 y + 2z = 1
(G1) Troca das equações 1 e 2 
3y − 4z = 23 3y − 4z = 23


 x − 2y + z = 0
⇐⇒
y + 2z = 1
(G2) Multiplicação por − 31 da equação 3  4
−y + 3 z = − 233

 x − 2y + z = 0
⇐⇒
y + 2z = 1
(G3) Adição da equação 2 à equação 3  10
3
z = − 20
3

 x − 2y + z = 0
⇐⇒
3 y + 2z = 1
(G2) Multiplicação por 10 da equação 3 
z = −2

⇐⇒  x − 2y = 2
(G4) Adição da equação 3 multiplicada por −2 à equação 2 y = 5
(G4) Adição da equação 2 multiplicada por −1 à equação 1 z = −2


 x = 12
⇐⇒
y = 5 ,
(G4) Adição da equação 2 multiplicada por 2 à equação 1 
z = −2
pelo que {(12, 5, −2)} é o conjunto de soluções do sistema. H

As operações (G1), (G2) e (G3) correspondem a efectuar nas linhas da matriz ampliada
de um sistema as seguintes operações (respectivamente):
(L1) Trocar duas linhas;

(L2) Multiplicar uma linha por um escalar não nulo;

(L3) Adicionar uma linha a outra linha.


66 Sistemas de Equações Lineares

Também a operação seguinte, “combinação” de (L2) e (L3), corresponde a (G4):


(L4) Adicionar uma linha multiplicada por um escalar a outra linha.
As operações (L1), (L2) e (L3) (efectuadas sobre uma matriz qualquer) designam-se por
operações elementares sobre linhas.

Exemplo 4.2.2 Consideremos as operações efectuadas em 4.2.1. As operações correspon-


dentes sobre linhas na matriz ampliada do sistema são as seguintes:

0
 1 −2
1 2 1

−→ 
1 −2 1 0

−→ 
1 −2 1 0

1 0  (L1)  0 1 2 1  (L2)  0 1 2 1 
4 23
0 3 −4 23 L1 ↔ L2 0 3 −4 23 1
L3 → − 3 L3 0 −1 3 − 3

−→ 
 0
1 −2 1 0

−→ 
1 −2 1 0

(L3) 1 2 1  (L2)  0 1 2 1 
10 20
L3 → L3 + L2 0 0 3 −3 3
L3 → 10 L3 0 0 1 −2
−→ 
1 −2 0 2

−→ 
1 0 0 12

(L4) L2 → L2 − 2L3  0 1 0 5  (L3)  0 1 0 5  . H


(L4) L1 → L1 − L3 0 0 1 −2 L1 → L1 + 2L2 0 0 1 −2

Tendo em conta as definições é imediato o seguinte resultado.

Teorema 4.2.3 Toda a matriz que resulta da matriz ampliada de um sistema de equações
lineares por meio de uma sucessão (finita) de operações elementares sobre linhas é a matriz
ampliada de um sistema de equações lineares equivalente (i.e. com o mesmo conjunto de
soluções) ao sistema inicial.

De modo análogo, podemos definir operações elementares sobre colunas de uma matriz:
(C1) Trocar duas colunas;

(C2) Multiplicar uma coluna por um escalar não nulo;

(C3) Adicionar uma coluna a outra coluna.


Combinando (C2) e (C3) temos também:
(C4) Adicionar uma coluna multiplicada por um escalar a outra coluna.
Note-se que estas operações sobre colunas de uma matriz não têm correspondência com
as operações de Gauss, pelo que não podem ser usadas na resolução matricial de um sistema
(com as definições consideradas), com excepção da troca de colunas da matriz simples que
corresponde a trocar o nome (ou a ordenação) das incógnitas.
Sejam A e B duas matrizes do tipo m × n sobre K. Escrevemos (ver Exemplo 4.2.2)

A −→ B
,
A −→ B
e
A −→ B
Li ↔ Lj Li → αLi Li → Li + αLj
Matrizes de Hermite 67

para denotar que B se obtém de A por meio da troca da linha i com a linha j (1 ≤ i < j ≤ m),
da multiplicação da linha i por α (1 ≤ i ≤ m e α ∈ K\{0}) e da adição da linha j multiplicada
por α ∈ K à linha i (1 ≤ i, j ≤ m e i 6= j), respectivamente. Analogamente,

A −→ B
,
A −→ B
e
A −→ B
Ci ↔ Cj Ci → αCi Ci → Ci + αCj

denota que B se obtém de A por meio da troca da coluna i com a coluna j (1 ≤ i < j ≤ n),
da multiplicação da coluna i por α (1 ≤ i ≤ n e α ∈ K \ {0}) e da adição da coluna j
multiplicada por α ∈ K à coluna i (1 ≤ i, j ≤ n e i 6= j), respectivamente.

4.3 Matrizes de Hermite


 
Definição 4.3.1 Seja A = ai j m×n uma matriz do tipo m × n sobre K.
Para cada linha i não nula de A (1 ≤ i ≤ m), chamamos canto da linha i à posição do
primeiro elemento (a contar da esquerda para a direita) não nulo desta linha.
Dizemos que a matriz A é escalonada por linhas se, para algum ` ∈ {0, 1, . . . , m} as
primeiras ` linhas (a contar de cima para baixo) de A são não nulas, as restantes m − ` são
nulas e, sendo j1 , j2 . . . , j` ∈ {1, . . . , n} tais que a1 j1 , a2 j2 , . . . , a` j` são os elementos dos cantos
de A, tem-se j1 < j2 < . . . < j` (i.e. os zeros da matriz formam um “escada” de degraus
todos com a mesma “altura”, embora com possı́veis diferentes “comprimentos”, delimitada
pelos cantos da matriz):

0 ··· ··· ∗ ∗ ··· ∗ ∗ ··· ∗ ∗ ··· ∗



0 a1 j1


 0 ··· 0 0 · · · 0 a2 j2 ··· ∗ ∗ ··· ∗ ∗ ··· ∗  
 0 ··· 0 0 ··· 0 0 · · · 0 a3 j3 ··· ∗ ∗ ··· ∗ 
 .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. 
. . . . . . . . . . . . . . . 
 
A=

0 ··· 0 0 ··· 0 0 ··· 0 0 · · · 0 a` j` ··· ∗ 


0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 
 

 .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. 
 . . . . . . . . . . . . . . . 
0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 0 · · · 0 m×n

Exemplos 4.3.2

1. A matriz nula 0m×n é (de acordo com a nossa definição) escalonada por linhas;
2. Toda a matriz diagonal  com todas as entradas não nulas, ou mais geralmente toda a
matriz diagonal D = di j n×n tal que se di i = 0 então di+1 i+1 = 0, para qualquer
i ∈ {1, . . . , n}, é escalonada por linhas. Em particular, a matriz identidade In é
escalonada por linhas;
68 Sistemas de Equações Lineares

3. As matrizes  
0 3 4 −4 7 −9 −1 −1 4 9 3

 0 0 −5 0 2 3 4 3 0 0 −2 


 0 0 0 0 0 7 −1 −2 −4 0 0 


 0 0 0 0 0 0 0 0 0 2 3 

 0 0 0 0 0 0 0 0 0 0 0 
0 0 0 0 0 0 0 0 0 0 0
e  
2 3 4 −4 7 8 1 1 4 9 3

 0 −2 −5 0 2 3 4 3 0 0 −2 


 0 0 0 0 0 7 −1 −2 −4 0 0 

 0 0 0 0 0 0 0 0 3 2 3 
0 0 0 0 0 0 0 0 0 0 −4
são escalonadas por linhas;

4. A matriz  
0 0 0 3
 0 1 −2 4 
A=
 0 −1

2 2 
0 2 −4 2
não é escalonada por linhas, no entanto:

−→
   
0 0 0 3 0 1 −2 4
 0
 1 −2 4   −→ 
 0 0 0 3 
 L → L3 + L1
 0 −1 2 2  L1 ↔ L2  0 −1 2 2  3
L4 → L4 − 2L1
0 2 −4 2 0 2 −4 2

−→
   
0 1 −2 4 0 1 −2 4
 0 0 0 3   0 0 0 3 
  L → L3 − 2L2  =B ,
 0 0 0 6  3  0 0 0 0 
L4 → L4 + 2L2
0 0 0 −6 0 0 0 0
pelo que a partir de A, por meio de operações elementares sobre linhas, obtemos uma
matriz B escalonada por linhas. H

Teorema 4.3.3 Toda a matriz pode ser transformada por meio de operações elementares
sobre linhas numa matriz escalonada por linhas.

Demonstração. (esquema) Seja Am×n uma matriz do tipo m × n sobre K. Se necessário, por
meio de uma troca de duas linhas, podemos transformar A numa matriz da forma
 
0 · · · 0 b1 ` b1 `+1 · · · b1 n
 0 · · · 0 b2 ` b2 `+1 · · · b2 n 
B= . ,
 
. .. .. .. .. .. .. 
 . . . . . . . 
0 ··· 0 bm ` bm `+1 · · · bm n m×n
Matrizes de Hermite 69

bi `
com b1 ` 6= 0 (1 ≤ ` ≤ n). De seguida, efectuando em B as operações Li → Li − b1 ` L1 , para
2 ≤ i ≤ m, obtemos uma matriz da forma
 
0 · · · 0 b1 ` b1 `+1 · · · b1 n
 0 · · · 0 0 c2 `+1 · · · c2 n 
C= . .
 
.. .. .. .. .. ... 
 .. . . . . . 
0 · · · 0 0 cm `+1 · · · cm n m×n
Repetindo sucessivamente este processo “para as linhas 2 até m − 1” das matrizes resultantes,
obtemos uma matriz escalonada por linhas.
 
Definição 4.3.4 Seja A = ai j m×n uma matriz do tipo m × n sobre K escalonada por
linhas tal que a1 j1 , a2 j2 , . . . , a` j` são os elementos dos cantos de A, com ` ∈ {0, 1, . . . , m} e
j1 , j2 . . . , j` ∈ {1, . . . , n} (e j1 < j2 < . . . < j` ). Dizemos que a matriz A é de Hermite (ou
escalonada por linhas reduzida) se, para cada k ∈ {1, . . . , `}, o único elemento não nulo da
coluna jk de A for o elemento de canto ak jk da linha k de A e ak jk = 1:
0 · · · 0 11 j1 · · · ∗ 0 ··· ∗ 0 ··· ∗ 0 ··· ∗
 
 0 ··· 0 0 · · · 0 12 j2 · · · ∗ 0 ··· ∗ 0 ··· ∗ 
 
 0 ··· 0 0 · · · 0 0 · · · 0 1 3 j3 · · · ∗ 0 · · · ∗ 
 . . . . .. .. .. .. .. .. .. .. .. .. .. 
 . . . .
 . . . . . . . . . . . . . . . 

A=
 0 ··· 0 0 ··· 0 0 ··· 0 0 · · · 0 1` j` · · · ∗ 

 0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 
 
 . . . . .. .. .. .. .. .. .. .. .. .. .. 
 .. .. .. .. . . . . . . . . . . . 
0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 0 · · · 0 m×n
Exemplos 4.3.5
1. A matriz 0m×n é (de acordo com a nossa definição) de Hermite;
 
2. Uma matriz diagonal D = di j n×n tal que se d1 1 = d2 2 = · · · = di i = 1 e di+1 i+1 =
di+2 i+2 = · · · = dn n = 0, para algum i ∈ {0, 1, . . . , n}, é uma matriz de Hermite. Em
particular, a matriz In é de Hermite;
3. As matrizes  
0 1 0 4 7 0 −1 −1 4 0 3

 0 0 1 0 2 0 4 3 0 0 −2 


 0 0 0 0 0 1 −1 −2 −4 0 0 


 0 0 0 0 0 0 0 0 0 1 3 

 0 0 0 0 0 0 0 0 0 0 0 
0 0 0 0 0 0 0 0 0 0 0
e  
1 0 4 −4 7 0 1 1 0 9 0
 0 1 −5 0 2 0 4 3 0 0 0 
 
 0 0
 0 0 0 1 −1 −2 0 0 0  
 0 0 0 0 0 0 0 0 1 2 0 
0 0 0 0 0 0 0 0 0 0 1
são de Hermite;
70 Sistemas de Equações Lineares

4. A matriz  
3 −6 9 −9 12 6 3 −3 6 −12 3

 0 2 −4 0 2 2 4 −4 0 −4 0 
A=
 0 0 0 0 0 2 −2 0 6 0 4 

 0 0 0 0 0 0 0 0 −4 4 0 
0 0 0 0 0 0 0 0 0 0 5
é escalonada por linhas mas não é de Hermite, no entanto:

−→
 
1 −2 3 −3 4 2 1 −1 2 −4 1
A  0 1 −2 0 1 1 2 −2 0 −2 0 
L1 → 31 L1  
 0 0 0 0 0 1 −1 0 3 0 2 
L2 → 21 L2  
 0 0 0 0 0 0 0 0 1 −1 0 
L3 → 21 L3
1 0 0 0 0 0 0 0 0 0 0 1
L4 → − 4 L4
L5 → 51 L5

 
1 −2 3 −3 4 2 1 −1 2 −4 0
−→ 
 0 1 −2 0 1 1 2 −2 0 −2 0 

L3 → L3 − 2L5 
 0 0 0 0 0 1 −1 0 3 0 0 

L1 → L1 − L5  0 0 0 0 0 0 0 0 1 −1 0 
0 0 0 0 0 0 0 0 0 0 1
 
1 −2 3 −3 4 2 1 −1 0 −2 0
−→ 
 0 1 −2 0 1 1 2 −2 0 −2 0 

L3 → L3 − 3L4 
 0 0 0 0 0 1 −1 0 0 3 0 

L1 → L1 − 2L4  0 0 0 0 0 0 0 0 1 −1 0 
0 0 0 0 0 0 0 0 0 0 1
 
1 −2 3 −3 4 0 −1 −1 0 −8 0
−→ 
 0 1 −2 0 1 0 3 −2 0 −5 0  
L2 → L2 − L3  0 0 0 0 0 1 −1 0 0 3 0 

L1 → L1 − 2L3  0 0 0 0 0 0 0 0 1 −1 0 
0 0 0 0 0 0 0 0 0 0 1
 
1 0 −1 −3 6 0 5 −5 0 −18 0
−→  0

 0
1 −2
0 0
0 1 0 3 −2 0 −5 0 
0 0 1 −1 0 0

3 0 
=B ,
L1 → L1 + 2L2 
 0 0 0 0 0 0 0 0 1 −1 0 
0 0 0 0 0 0 0 0 0 0 1
pelo que a partir de A, por meio de operações elementares sobre linhas, obtemos uma
matriz B de Hermite. H

Teorema 4.3.6 Toda a matriz pode ser transformada por meio de operações elementares
sobre linhas numa matriz de Hermite.
Caracterı́stica de uma matriz 71

Demonstração. Seja Am×n uma matriz do tipo m × n sobre K. Pelo Teorema 4.3.3, a matriz
A pode ser transformada por meio de operações elementares sobre linhas numa matriz escalonada
por linhas
 
0 · · · 0 b1 j1 · · · ∗ ∗ ··· ∗ ∗ ··· ∗ ∗ ··· ∗
 0 ··· 0 0 · · · 0 b2 j2 · · · ∗ ∗ ··· ∗ ∗ ··· ∗ 
 
 0 ··· 0 0 ··· 0 0 · · · 0 b3 j3 · · · ∗ ∗ · · · ∗ 
 
 .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. 
 . . . . . . . . . . . . . . . 
B=  0 ··· 0
 .
 0 · · · 0 0 · · · 0 0 · · · 0 b ` j`
· · · ∗ 

 0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 
 
 . .. .. .. .. .. .. .. .. .. .. .. .. .. .. 
 .. . . . . . . . . . . . . . . 
0 ··· 0 0 ··· 0 0 ··· 0 0 · · · 0 0 · · · 0 m×n

1
Efectuando sobre B as operações Li → bi ji Li , com i ∈ {1, . . . , `}, obtemos uma matriz da forma
 
0 ··· 0 1 · · · ∗ c1 j2 · · · ∗ c1 j3 ··· ∗ c1 j` ··· ∗

 0 ··· 0 0 ··· 0 1 · · · ∗ c2 j3 ··· ∗ c2 j` ··· ∗ 


 0 ··· 0 0 ··· 0 0 ··· 0 1 ··· ∗ c3 j` ··· ∗ 

 .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. 
 . . . . . . . . . . . . . . . 
C=  .

 0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 1 ··· ∗ 


 0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 

 .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. 
 . . . . . . . . . . . . . . . 
0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 m×n

Seguidamente, efectuando as operações Li → Li − ci jk Lk , com 2 ≤ k ≤ ` e 1 ≤ i ≤ k − 1, obtemos


uma matriz da forma
 
0 ··· 0 1 ··· ∗ 0 ··· ∗ 0 ··· ∗ 0 ··· ∗
 0 ··· 0 0 ··· 0 1 ··· ∗ 0 ··· ∗ 0 ··· ∗ 
 
 0 ··· 0 0 ··· 0 0 ··· 0 1 ··· ∗ 0 ··· ∗ 
 
 .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. 
 . . . . . . . . . . . . . . . 
 
 0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 1 ··· ∗ 
 
 0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 
 
 . .. .. .. .. .. .. .. .. .. .. .. .. .. ..
 ..

. . . . . . . . . . . . . . 
0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 m×n

(que é uma matriz de Hermite).

4.4 Caracterı́stica de uma matriz


 
Seja A = ai j m×n uma matriz do tipo m × n sobre K. Então, as linhas de A podem ser
identificadas com vectores de Kn e as colunas de A com vectores de Km . Especificamente,
podemos identificar a linha i de A (1 ≤ i ≤ m) com o vector

(ai 1 , ai 2 , . . . , ai n ) ∈ Kn
72 Sistemas de Equações Lineares

e a coluna j de A (1 ≤ j ≤ n) com o vector

(a1 j , a2 j , . . . , am j ) ∈ Km .

Nesta medida, faz sentido considerar o número (máximo) de linhas linearmente indepen-
dentes de A (como conjunto de vectores de Kn ), ou seja a dimensão do subespaço vectorial
de Kn gerado pelas linhas de A, e o número (máximo) de colunas linearmente independentes
de A (como conjunto de vectores de Km ), ou seja a dimensão do subespaço vectorial de Km
gerado pelas colunas de A. Podemos então definir o seguinte conceito:

Definição 4.4.1 Seja A uma matriz sobre K. Ao número de linhas linearmente indepen-
dentes de A chamamos caracterı́stica de A e denotamo-lo por r(A) (ou c(A)).

Exemplos 4.4.2

1. r(0) = 0;

2. r(In ) = n, n ∈ N;
 
−1 0 1
3. r  2 1 −1  = 2, visto que, por exemplo, as linhas 1 e 2 (i.e. (−1, 0, 1) e
1 1 0
(2, 1, −1)) são claramente linearmente independentes e a linha 3 é uma combinação
linear das duas primeiras ((1, 1, 0) = (−1, 0, 1) + (2, 1, −1)), pelo que as três linhas são
linearmente dependentes. H

É fácil demonstrar que:

Teorema 4.4.3 Seja A uma matriz do tipo m × n sobre K escalonada por linhas com `
linhas não nulas (i.e. com ` cantos), 0 ≤ ` ≤ m. Então r(A) = `.

Exemplos 4.4.4

1. Sejam A6×11 e B5×11 as duas matrizes do exemplo 3 de 4.3.2 (respectivamente). Então


r(A) = 4 e r(B) = 5.

2. Consideremos a matriz B4×4 do exemplo 4 de 4.3.2. Então r(B) = 2. (À frente veremos
que, para a matriz A4×4 do mesmo exemplo, tendo em conta os cálculos aı́ efectuados,
também podemos concluir imediatamente que r(A) = 2.)

3. Sendo A6×11 e B5×11 as duas matrizes do exemplo 3 de 4.3.5 (respectivamente), tem-se


r(A) = 4 e r(B) = 5.

4. Considerando a matriz B5×11 do exemplo 4 de 4.3.5, tem-se r(B) = 5. H

Pode demonstrar-se que:


Caracterı́stica de uma matriz 73

Teorema 4.4.5 Sejam A e B duas matrizes do tipo m × n sobre K. Se B se obtém a


partir de A por meio de uma sucessão (finita) de operações elementares sobre linhas, então
r(A) = r(B).

Corolário 4.4.6 Seja A uma matriz do tipo m × n sobre K. Se existe uma matriz B (do
tipo m × n sobre K) escalonada por linhas com ` linhas não nulas, 0 ≤ ` ≤ m, que se obtenha
a partir de A por meio de uma sucessão (finita) de operações elementares sobre linhas, então
r(A) = `.

Assim, para calcular a caracterı́stica de uma matriz A, por um processo simples e sistemá-
tico, tudo o que temos de fazer é transformar a matriz A, por meio de operações elementares,
numa matriz B escalonada por linhas e contar o número de linhas não nulas de B.

Exemplos 4.4.7

1. Consideremos a matriz A4×4 do exemplo 4 de 4.3.2. Então r(A) = 2.


 
1 0 2 1 3
 2 −1 4 0 7 
2. Seja A =   . Então
 2 −1 4 0 4 
3 −1 6 1 1

A −→ 
1 0 2 1 3

−→

1 0 2 1 3

 0 −1 0 −2
L2 → L2 − 2L1  1   0 −1 0 −2 1 
 L3 → L3 − L2  
L3 → L3 − 2L1  0 −1 0 −2 −2   0 0 0 0 −3 
L4 → L4 − L2
L4 → L4 − 3L1 0 −1 0 −2 −8 0 0 0 0 9
 
1 0 2 1 3
−→  0 −1 0 −2
 1 
 ,
L4 → L4 − 3L3  0 0 0 0 −3 
0 0 0 0 0
pelo que r(A) = 3. H

A seguir enunciamos um resultado que nos dá um critério de invertibilidade para matrizes
e que nos permitirá descrever na próxima secção um algoritmo para o cálculo da matriz
inversa de uma matriz invertı́vel.

Teorema 4.4.8 Seja A uma matriz quadrada de ordem n sobre K. Então, as seguintes
afirmações são equivalentes:

1. A matriz A é invertı́vel;

2. Por meio de operações elementares sobre linhas é possı́vel transformar A na matriz


(de Hermite) In ;

3. r(A) = n.
74 Sistemas de Equações Lineares

Exemplos 4.4.9
1. Voltemos a considerar a matriz quadrada A4×4 do exemplo 4 de 4.3.2. Como r(A) = 2,
então A não é invertı́vel.
2. Consideremos a matriz quadrada
 
1 0 1 3
 2 −1 0 7 
A= 
 2 −1 1 4  .
3 −1 1 1 4×4

Então
A −→ 
1 0 1 3

−→

1 0 1 3

 0 −1 −2
L2 → L2 − 2L1  1   0 −1 −2 1 
 L → L3 − L2   ,
L3 → L3 − 2L1  0 −1 −1 −2  3  0 0 −1 −3 
L4 → L4 − L2
L4 → L4 − 3L1 0 −1 −2 −8 0 0 0 −9

pelo que r(A) = 4 e, portanto, A é uma matriz invertı́vel. H

Pode provar-se que:


 
Teorema 4.4.10 Para qualquer matriz A = ai j m×n do tipo m × n sobre K, o número
de linhas linearmente independentes de A coincide com número de colunas linearmente in-
dependentes de A, i.e. a caracterı́stica de uma matriz também é igual ao número de colunas
linearmente independentes.

Tendo em conta a definição (e o Teorema 4.4.10) é imediato que, se A é uma matriz do


tipo m × n sobre K, então 0 ≤ r(A) ≤ max{m, n}. Além disso, se A 6= 0 então r(A) ≥ 1.
O seguinte resultado é também imediato.

Corolário 4.4.11 Para qualquer matriz A sobre K, tem-se r(A) = r(AT ).

Tendo em conta as definições e o Teorema 3.1.17 tem-se:

Teorema 4.4.12 Seja f : V −→ W uma aplicação linear. Sejam (v1 , v2 , . . . , vn ) uma base
de V , (w1 , w2 , . . . , wm ) uma base de W e A = M(f ; (vj ), (wi ))m×n . Então c(f ) = r(A).
Além disso, tem-se:
• f é injectiva se e só se r(A) = n;
• f é sobrejectiva se e só se r(A) = m;
• f é um isomorfismo se e só se r(A) = n = m.

Do teorema anterior e do Teorema 3.3.5 pode-se deduzir que:

Teorema 4.4.13 Duas matrizes equivalentes (em particular, duas matrizes semelhantes)
têm a mesma caracterı́stica.
Resolução e discussão de sistemas 75

4.5 Resolução e discussão de sistemas


Consideremos o seguinte sistema de equações lineares nas incógnitas x, y, z e w (e coeficientes
reais): 
 x = 1 − 2w
y = 3+w
z = 2 + 3w .

Este sistema encontra-se na forma que usualmente se designa por “resolvido”, i.e. a partir
da qual podemos de imediato escrever explicitamente o seu conjunto de soluções.
Neste caso, o conjunto de soluções é

{(1 − 2α, 3 + α, 2 + 3α, α) | α ∈ R}.

Como (1 − 2α, 3 + α, 2 + 3α, α) = (1, 3, 2, 0) + α(−2, 1, 3, 1), α ∈ R, o subconjunto de R4


anterior pode ainda ser escrito na forma

(1, 3, 2, 0) + h(−2, 1, 3, 1)i.

Note-se que (1, 3, 2, 0) é uma solução particular do sistema.


Observe-se ainda que este sistema tem uma variável independente (o grau de indeter-
minação do sistema) e três variáveis dependentes.
A forma normalizada (i.e. variáveis ordenadas e só com termos independentes nos segun-
dos membros das equações) do sistema considerado é a seguinte:

 x + 2w = 1
y−w = 3
z − 3w = 2 .

A este sistema corresponde a matriz ampliada


 
1 0 0 2 1
 0 1 0 −1 3  ,
0 0 1 −3 2
a qual é uma matriz de Hermite.
Mais geralmente, é fácil constatar que a matriz ampliada de um sistema que seja de
Hermite (i.e. da forma
0 · · · 0 11 j1 · · · ∗ 0 ··· ∗ 0 ··· ∗ 0 ··· ∗ ∗
 
 0 ··· 0 0 · · · 0 12 j2 · · · ∗ 0 ··· ∗ 0 ··· ∗ ∗ 
 0 ··· 0 0 ··· 0 0 ··· 13 j3 · · · ∗ 0 ··· ∗ ∗
 
 . . . . 0 
 . . . . .. .. .. .. .. .. .. .. .. .. .. .. 
 . . . . . . . . . . . . . . . .


0 · · · 0 0 · · · 0 0 · · · 0 0 · · · 0 1` j` ··· ∗ ∗
 
 
 0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 λ
 

 0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 0
 

 . . . . . . . .. .. .. .. .. .. .. .. ..
 .. .. .. .. .. .. ..

. . . . . . . . . 
0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 0 ··· 0 0 m×(n+1)
76 Sistemas de Equações Lineares

com λ = 1 ou λ = 0, podendo se incluir neste último caso a possibilidade de não termos


a linha onde aparece λ, ou seja termos ` = m) corresponde à forma normalizada de um
sistema (dito) resolvido. Observemos que a recı́proca pode não ser verdadeira, i.e. a matriz
ampliada da forma normalizada de um sistema resolvido pode não ser de Hermite (embora
seja “quase”).
Tendo em conta o Teorema 4.2.3 (operações elementares sobre linhas efectuadas na matriz
ampliada de um sistema resulta na matriz ampliada de um sistema equivalente), tudo o que
temos que fazer, para resolver um sistema de equações lineares, é calcular, a partir da matriz
ampliada do sistema, usando operações elementares sobre linhas, uma matriz de Hermite.
A este processo chamamos resolução matricial do sistema ou resolução do sistema usando
matrizes.

Exemplos 4.5.1 Consideremos os seguintes sistemas de equações lineares e coeficientes


reais:  
 x − 2y + w = 1  y+z = 5
x − 2y + z = 0 (α ∈ R) e x+y+z = 6 .
2x − 4y + z + w = α x+y−z = 0
 

1. Para o primeiro sistema com α = 3 temos:



1 −2 0 1
 1 −2 1 0
1

−→ 
1 −2 0 1 1

0  L2 → L2 − L1  0 0 1 −1 −1 
2 −4 1 1 3 L3 → L3 − 2L1 0 0 1 −1 1

−→
 
1 −2 0 1 1
 0 0 1 −1 −1  ,
L3 → L3 − L2
0 0 0 0 2
pelo que o sistema não tem soluções, visto que à terceira linha da última matriz corres-
ponde a equação 0 = 2 (é fácil ver que, mais geralmente, obtemos um sistema insolúvel
para qualquer α 6= 1);
2. Ainda para o primeiro sistema com α = 1 temos:

1 −2
 1 −2
0 1 1

−→ 
1 −2 0 1 1

1 0 0  L2 → L2 − L1  0 0 1 −1 −1 
2 −4 1 1 1 L3 → L3 − 2L1 0 0 1 −1 −1

−→
 
1 −2 0 1 1
 0 0 1 −1 −1  .
L3 → L3 − L2
0 0 0 0 0
A esta última matriz (de Hermite) corresponde o sistema
 
x − 2y + w = 1 x = 1 + 2y − w
equivalente a
z−w = −1 z = −1 + w
e cujo conjunto de soluções é
{(1 + 2α − β, α, −1 + β, β) | α, β ∈ R}
Resolução e discussão de sistemas 77

que, como (1+2α−β, α, −1+β, β) = (1, 0, −1, 0)+α(2, 1, 0, 0)+β(−1, 0, 1, 1), podemos
ainda escrevê-lo na forma

(1, 0, −1, 0) + h(2, 1, 0, 0), (−1, 0, 1, 1)i;

3. Relativamente ao segundo sistema temos:

−→ −→
     
0 1 1 5 1 1 1 6 1 1 1 6
 1 1 1 6   0 1 1 5   0 1 1 5 
L1 ↔ L2 L3 → L3 − L1
1 1 −1 0 1 1 −1 0 0 0 −2 −6

−→

1 1 1 6

−→ 
1 1 0 3

 0 1 1 5  L2 → L2 − L3  0 1 0 2 
L3 → − 12 L3
0 0 1 3 L1 → L1 − L3 0 0 1 3

−→
 
1 0 0 1
 0 1 0 2  ,
L1 → L1 − L2
0 0 1 3
pelo que {(1, 2, 3)} é o conjunto de soluções do sistema. H

Definições 4.5.2

1. Um sistema de equações lineares diz-se possı́vel se possuir soluções, caso contrário diz-se
impossı́vel;

2. Ao número de variáveis independentes de um sistema de equações lineares possı́vel


chamamos grau de indeterminação do sistema;

3. Um sistema de equações lineares possı́vel diz-se determinado se possuir exactamente


uma solução, caso contrário diz-se indeterminado.

Evidentemente, um sistema de equações lineares é possı́vel e determinado se e só se todas


as suas variáveis são dependentes, ou seja, se e só se o seu grau de indeterminação é igual a
zero.  
Seja A | B m×(n+1) a matriz ampliada de um sistema de equações lineares sobre K.
   
Seja AH | BH m×(n+1) uma matriz de Hermite obtida a partir de A | B por meio de
   
operações elementares sobre linhas. Além de termos r( A | B ) = r( AH | BH ), é
também evidente
 que r(A) = r(AH ). Assim, é imediato que o sistema é possı́vel se e só
se r(A) = r( A | B ) (este resultado é conhecido por Teorema de Rouché) e, neste
caso, o grau de indeterminação
  do sistema é igual a n − r(A), sendo possı́vel e determinado
 
se e só se r(A)
 = r(
 A | B ) = n. Observemos que temos sempre r(A) ≤ r( A | B )
(visto que A | B tem as todas colunas de A mais a coluna B).
 Em resumo,
 para um sistema de m equações lineares a n incógnitas de matriz ampliada
A | B m×(n+1) , temos:
 
1. Se r(A) = r( A | B ) = n o sistema é possı́vel e determinado;
78 Sistemas de Equações Lineares

 
2. Se r(A) = r( A | B ) < n o sistema é possı́vel e indeterminado com grau de indeter-
minação igual a n − r(A);
 
3. Se r(A) < r( A | B ) o sistema é impossı́vel.

Por discussão de um sistema entendemos determinar qual das três situações anteriores
satisfaz o sistema (sem necessariamente ter de o resolver).

Exemplos 4.5.3 Consideremos os sistemas de equações lineares e coeficientes reais seguin-


tes:
 
 x + αy + z = 1  (β − 1)x + y + z = 1
x+y+z = 0 e (β − 1)x + βy + (α + 1)z = α+1 ,
2x + 2αy + αz = 2 (2β − 2)x + (β + 1)y + (2α + 2)z = α + β + 1
 

com α e β parâmetros reais.


Comecemos por discutir o primeiro sistema em função do parâmetro real α. Então:

 

1 α 1 1

−→ 
1 α 1 1

A | B =  1 1 1 0  L2 → L2 − L1  0 1 − α 0 −1  .
2 2α α 2 L3 → L3 − 2L1 0 0 α−2 0
 
Assim, para α ∈ R \ {1, 2} temos r(A) = r( A | B ) = 3, pelo que o sistema é possı́vel e
determinado. Para α = 1 a última matriz obtida é

−→
   
1 1 1 1 1 1 1 1
 0 0 0 −1   0 0 −1 0  ,
L2 ↔ L3
0 0 −1 0 0 0 0 −1
 
donde 2 = r(A) < r( A | B ) = 3, pelo que o sistema é impossı́vel. Finalmente, para
α = 2 a última matriz obtida é
 
1 2 1 1
 0 −1 0 −1  ,
0 0 0 0
 
donde r(A) = r( A | B ) = 2, pelo que o sistema é possı́vel e indeterminado com grau de
indeterminação igual a 1 (= 3 − r(A)).
Discutamos agora o segundo sistema em função parâmetros reais α e β:

 

β − 1 1 1 1

−→
A|B = β−1 β α+1 α + 1  L2 → L2 − L1
2β − 2 β + 1 2α + 2 α + β + 1 L3 → L3 − 2L1

−→
   
β−1 1 1 1 β−1 1 1 1
 0 β−1 α α   0 β−1 α α  .
L3 → L3 − L2
0 β − 1 2α α + β − 1 0 0 α β−1
Resolução e discussão de sistemas 79

 
Então, para α 6= 0 e β 6= 1 temos r(A) = r( A | B ) = 3, pelo que o sistema é possı́vel e
determinado. Para α 6= 0 e β = 1 a última matriz obtida é

−→
   
0 1 1 1 0 1 1 1
 0 0 α α   0 0 α α  ,
L3 → L3 − L2
0 0 α 0 0 0 0 −α
 
donde 2 = r(A) < r( A | B ) = 3, pelo
 que o sistema é impossı́vel. Para α = 0 e β 6= 1
temos também 2 = r(A) < r( A | B ) =  3, pelo que o sistema é impossı́vel. Finalmente,
com α = 0 e β = 1 temos r(A) = r( A | B ) = 1, pelo que o sistema é possı́vel e
indeterminado com grau de indeterminação igual a 2 (= 3 − r(A)). H

Seja A uma matriz quadrada invertı́vel de ordem n sobre K.


De acordo com Teorema 4.4.8, temos r(A) = n. Além disso, é possı́vel transformar A por
meio de operações elementares sobre linhas na matriz In . Assim, dada uma qualquer matriz
coluna B1×n a equação matricial AX = B tem uma única solução (o sistema  de equações
lineares correspondente é possı́vel e determinado, visto que r(A) =  n = r( A | B )) que se
obtém efectuando operações
 elementares
 sobre linhas na matriz A | B de modo a obter
uma matriz da forma In | X (com a matriz In nas primeiras n colunas, sendo a coluna
n + 1 a solução).
Suponhamos agora que X1 , X2 , . . . , Xn são as (matrizes) coluna da matriz A−1 , i.e.

A−1 = X1 X2 · · · Xn ,
 

e ∆1 , ∆2 , . . . , ∆n são as (matrizes) coluna da matriz identidade In , i.e.


 
In = ∆1 ∆2 · · · ∆n .

Então ∆1 ∆2 · · · ∆n = In = AA−1 = A X1 X2 · · · Xn = AX1 AX2 · · · AXn , pelo


     

que
AXi = ∆i ,
para 1 ≤ i ≤ n. Logo, obtemos
 a coluna i da matriz A−1 efectuando operações
 elementares

sobre linhas na matriz A | ∆i de modo a obter uma matriz da forma In | X (com a
matriz In nas primeiras n colunas, tendo-se X = Xi ), 1 ≤ i ≤ n.
Estes n sistemas de n equações lineares a n incógnitas, todos
 de matriz simples A, po-
dem ser resolvidos simultaneamente considerando a matriz A | In , do tipo n × (2n), e
efectuando-lhe operações elementares sobre linhas de modo a obter uma matriz da forma
In | M n×(2n) , tendo-se M = A−1 , de acordo com o exposto atrás:
 


A | In

n×(2n)
−→ 
In | A−1

n×(2n)
operações elementares
sobre LINHAS
80 Sistemas de Equações Lineares

Exemplo 4.5.4 Consideremos a matriz


 
0 1 1
A= 1 1 2  .
1 −1 1
Vejamos em primeiro lugar que A é uma matriz invertı́vel. Então:

−→ −→ −→
     
1 1 2 1 1 2 1 1 2
A  0 1 1   0 1 1   0 1 1  ,
L1 ↔ L2 L3 → L3 − L1 L3 → L3 + 2L2
1 −1 1 0 −2 −1 0 0 1

pelo que r(A) = 3, donde A é invertı́vel. Logo

−→ −→
   
  0 1 1 1 0 0 1 1 2 0 1 0
A | I3 =  1 1 2 0 1 0   0 1 1 1 0 0 
L1 ↔ L2 L3 → L3 − L1
1 −1 1 0 0 1 1 −1 1 0 0 1

1
 0
1 2 0 1 0

−→

1 1 2 0 1 0

−→
1 1 1 0 0   0 1 1 1 0 0  L2 → L2 − L3
L3 → L3 + 2L2
0 −2 −1 0 −1 1 0 0 1 2 −1 1 L1 → L1 − 2L3

−→
   
1 1 0 −4 3 −2 1 0 0 −3 2 −1
 0 1 0 −1 1 −1   0 1 0 −1 1 −1  ,
L1 → L1 − L2
0 0 1 2 −1 1 0 0 1 2 −1 1
 
−3 2 −1
−1
pelo que A = −1 1 −1  . H
2 −1 1

4.6 Exercı́cios
1. Determine a caracterı́stica das seguintes matrizes:
   
1 2 3 1 3 −1 2
A =  0 1 1 , B =  4 2 1 −3  ,
1 2 3 0 2 0 3
 
1 2 −1 3 2  
 −1 0 1 −1 1
1 3 −2 −1 
C=  e D =  1 −1 1 0 .
 2 7 −1 9 8 
1 1 2 −1
3 3 −2 4 −6
 
1 2 0
 1 2 3 
2. Relativamente à matriz A =   1 0 1
, determine o número máximo de linhas

1 1 1
(colunas) linearmente independentes.
Exercı́cios 81

3. Discuta a caracterı́stica das seguintes matrizes, em função dos parâmetros reais α e β:


 
1 0 −1 1
(a) A =  1 1 0 1 .
α 1 −1 2
 
α 0 −1 β
 1 0 β 0 
(b) B =   1 1 1 1 .

1 1 0 1
 
1 2α + β α + β
(c) C =  1 α + β β .
−1 α α
 
1 0 2
 0 α−1 α 
(d) D =   α
.
0 α 
α+1 0 4
 
α β
(e) A = 0 β .

β α
 
α 0 β
(f) A =  β α 0 .
0 β α
 
a 1 a 0 0 0
 0 b 1 b 0 0 
4. Seja r é a caracterı́stica da matriz A = 
 0
. Mostre que:
0 c 1 c 0 
0 0 0 d 1 d

(a) r > 2;
(b) r = 3 se e só se a = d = 0 e bc = 1;
(c) r = 4 nos restantes casos.

5. Resolva, caso sejam possı́veis, os seguintes sistemas de equações:



 x + 2y −z = 1
(a) −x − y + 2z = 0
x + y + 2z = 1



 x + y + 2z + w = 1
y + 3z + 3w = 2

(b)

 −x + z + 2w = 1
2x + y + z − w = 0

82 Sistemas de Equações Lineares



 x − y + z = 0
y − z + w = 2

(c)

 x + y + z + w = −1
y + w = 3


 2x + y = 8
(d) −x + 2y + 4z = 7
−x + z = 1


 2x + y + z = 0
(e) −x + y + 3z = 3
3x + 5y + 2z = 4


 2x + z = 1
(f) 3x + y + z = 2
x + y + z = 3


 5x + y + 2z = 3
(g) 4x + 2y + 2z = 5
x + y + z = 3

6. Considere o seguinte sistema de equações lineares:



 x + αy + βz = 1
α(β − 1)y = α
x + αy + z = β2

(a) Discuta o sistema em função dos parâmetros reais α e β.


(b) Conclua que para α = 2 = β, o sistema tem uma e uma só solução. Determine-a,
usando a inversa da matriz simples do sistema.

7. Discuta, em função dos parâmetros reais a e b, os seguintes sistemas de equações:



 x + y + z = 3
(a) x − y + z = 1
x − y − z = a


 x + y + z = 3
(b) x − y + z = 1
2x − 2y + az = 2


 ax + by + z = 1
(c) x + aby + z = b
x + by + az = 1


 x + y = a
(d) x + 2y = a2
x + 3y = a3

Exercı́cios 83


 ax + by − z = a
(e) ax − z = −1
x + y + z = 2


 y + az = 0
(f) x + by = 0
bx + az = 0

8. Supondo que A, B e C, são matrizes invertı́veis, resolva as seguintes equações matriciais


em X:

(a) AX T = BD3 .
(b) (AXB −1 )T = I.
(c) CX = DT − C −1 .
(d) A−1 (X − I)T = (B −1 )T .

9. Dadas as matrizes A e B do tipo m × n, resolva a equação matricial


1 3
3(X + A) = 5(X − B).
2 4
   
1 0 0 1 1 1
10. Dadas as matrizes A =  0 1 0  e B =  1 1 1  resolva a equação matricial
0 0 1 1 1 1
X + A = 2(X − B).

11. Calcule, caso exista, a matriz inversa de cada uma das seguintes matrizes:
 
3 1 2
(a) A =  1 2 1 ;
1 1 1
 
5 3 2
(b) B =  2 3 1 ;
7 5 3
 
1 0 0
(c) C =  1 2 0 ;
1 2 3
 
1 4 3
(d) D =  5 9 2 ;
6 8 1
 
7 0 5
(e) E =  0 1 0 .
4 0 3
84 Sistemas de Equações Lineares

12. Considere as seguintes matrizes:


   
    1 21 0 3 1 0 0 1
1 2 3 1 2 3  1 23 3 3  0 1 1 0 
A= 3 1 2 ,B= 3 1 2
   , C = 
 1
, D =  ,
03 1 1  0 1 1 0 
5 5 8 2 3 1
1 11 1 2 1 0 0 1
     
1 −1 0 −1 −5 −1 00 0 1 1 1 1 0
 2 1 −1 −4 1 −1   00 1 0   1 1 0 1 
E= , F =  , G =  ,
 1 1 1 −4 −6 3   01 0 0   1 0 1 1 
1 4 2 −8 −5 8 10 0 0 0 1 1 1
 
  2 0 5 1
0 1 1 0  
 1 0 0 1  2 3 0 −18  1 4 0 2 
 
H=  ,I= 7 0
 −2 −11  e J =  3 3 0 3 .
1 0 0 1   
0 4 −3 −1  5 1 9 4 
0 1 1 0
7 2 4 5
Efectuando operações elementares sobre linhas, indique, para cada uma das matrizes
anteriores:
a) uma forma escalonada por linhas;
b) a sua forma de Hermite.

13. Considere as matrizes:


   
1 1 0 1 4 1 2 3 −2
 2 0 0 4 7   2 1 1 2 
A=  1
eB= .
1 1 0 5   3 α 1 0 
1 −3 −1 −10 α 1 1 2 α
Determine α de modo que as formas escalonadas de A e B não tenham linhas nulas.

14. Prove, recorrendo à definição, que as linhas da matriz


 
1 2 0
 0 1 1 
1 0 1
são linearmente independentes.
15. Relativamente à matriz  
1 2 0
 1 2 3 
 
 1 0 1 
1 1 1
determine o número máximo de linhas linearmente independentes e o número máximo
de colunas linearmente independentes.
Exercı́cios 85

16. Determine a caracterı́stica das seguintes matrizes:


 
1 2 5
 2 1 4 
a) A = 
 0 −1 −2 

0 1 2
 
2 2 1
b) A =  1 3 1 
1 2 2
 
2 1 −1
c) A =  0 2 −1 
−3 −2 3
 
0 2 3 −4 1
 0 0 2 3 4 
d) A = 
 2 2 −5
.
2 4 
2 0 −6 9 7

17. Determine a caracterı́stica das seguintes matrizes:


 
    1 2 −1 3 2
1 2 3 1 3 −1 2  −1 1 3 −2 −1 
A= 0 1 1 ,B= 4 2
   1 −3 , C =   2 7 −1
,
9 8 
1 2 3 0 2 0 3
3 3 −2 4 −6
 
    1 3 −1 2
0 1 −1 1 2 1  0 11 −5 3 
D = 1 −1
 1 0 ,E=
  2 4 , F = 
 2 −5
,
3 1 
1 1 2 −1 −1 −2
4 1 1 5
 
  4 1 1 0 2  
  1 2 3 0 1 2
−5 1 2  1 4 0 1 1 
G = , H =  2 4 6 , I =   3 2 0 1 2 , J =
  3 4 2  e
0 2 0
3 6 9 6 3 2
  2 3 1 0 1
1 1 1 2 0 −1
K = 1 0 2 −1 1
 1 .
1 1 0 0 1 −1

18. Discuta, segundo os valores de α e β, a caracterı́stica das seguintes matrizes:


 
  1 −1 0 1  
1 0 −1 1 0 0 α
 1 1 0 −1 
A =  1 1 0 1 , B =  , C =  0 β 2 ,
 α 1 1 0 
α 1 −1 2 3 0 1
0 1 α 1
86 Sistemas de Equações Lineares

 
α 0 −1 β    
 1 α 0 β 1 2α + β α + β
0 β 0  , E =  β α 0 , F =  1 α + β
D=
 1 β e
1 1 1 
0 β α −1 α α
1 1 0 1
 
1 2 3 α
 0 1 1 α 
G=
 2
.
1 2 0 
α 1 0 1

19. Considere a matriz  


1 1 1 1 4
 1 λ 1 1 4 
A= .
 1 1 λ 3−λ 6 
2 2 2 λ 6
Mostre que, se λ 6= 1 e λ 6= 2, então a caracterı́stica de A é 4. Qual é caracterı́stica de
A quando λ = 1 ou λ = 2?

20. Discuta, segundo os valores de α e β, a caracterı́stica das seguintes matrizes:


 
1 0 2
 0 α−1 α 
a) A = 
 α

0 α 
α+1 0 4
 
3β 0 −2
b) B =  1 1 −β 
2β 0 −1
 
1 0 −1 0
 1 α α2 + β αβ 
c) C = 
 0 1
.
α β 
2
1 α α + β α + αβ

21. Resolva, caso sejam possı́veis, os seguintes sistemas de equações:



 x + 2y − z = 1
a) −x − y + 2z = 0
x + y + 2z = 1



 2x + y − z + w = 1
3x − 2y + 2z − 3w = 2

b)

 5x + y − z + 2w = −1
2x − y + z − 3w = 4

Exercı́cios 87



 x + y − z + w = 1
x − y + z − w = 0

c)

 x + 2y − z = 1
x − y − 2z = 1


 x + y + z = 1

x − y + z = 0

d)

 y + 2z = 1
2x + y + 4z = 2



 x + y + 2z + w = 1
y + 3z + 3w = 2

e)

 −x + z + 2w = 1
2x + y + z − w = 0


 2x + y + 3z − w = 1
f) 4x − y + 7z − 7w = −5
x + 2y + z + 2w = 3



 x − y + z = 0
y − z + w = 2

g)

 x + y + z + w = −1
y + w = 3



 x + 2y − z + w = 1
2x + y + z − w = −2

h)

 x + z + w = 1
2x + 5y − 3z + 5w = 5



 y − z + w = 4
−x + y + 2z + w = 1

i)

 −x + z + 2w = −2
−2x + y + 7z − w = −3



 x − y + z + 2w = 1
−x + 2y + z − w = 1

j)

 y + 2z + w = 2
2x − 3y + 3w = 0



 x + y − z + w = 2
2x + y − z + w = 1

k)

 x + 2y − 2z + 2w = 5
x − y + z = 1



 x − y + 2z + w = 1
3x + 2z + 2w = 2

l)

 2x + y + w = 1
x + 8y − 10z − 2w = −2

88 Sistemas de Equações Lineares



 x + y + z + w − u = 0
2x + y + z + u = 1

m)

 x + y + z + w + u = 1
y + w − u = 1

22. Considere o sistema:



 2x + y + z = −6α
2x + y + (β + 1)z = 4 .
βx + 3y + 2z = 2α

a) Mostre que, se β 6= 0 e β 6= 6, o sistema tem uma única solução.


b) Prove que, se β = 0, existe um único valor de α para o qual o sistema é possı́vel.
Determine a solução, neste caso.
c) Discuta o sistema no caso β = 6.

23. Considere as matrizes:


   
3 2 −1 5 0 3
A =  1 −1 2 2 , B =  0 −1  .
0 5 −7 α 0 5

Prove que o sistema AX = B é possı́vel se e só se α 6= −1.

24. Discuta, em função dos parâmetros a, b, c, os seguintes sistemas de equações:



 x + y + z = 3
a) x − y + z = 1
x − y − z = a


 x + y + z = 3
b) x − y + z = 1
2x − 2y + az = 2


 y + az = 0
c) x + by = 0
by + az = 1


 x + y + z = 1
d) x − y + 2z = a
2x + bz = 2


 2x + y = b
e) 3x + 2y + z = 0
x + ay + z = 2

Exercı́cios 89


 ax + y − z + aw = 0
f) (a + 1)y + z + w = 1
−x + y + (a + 1)w = b


 ax + y + (a + 1)z = b
g) x + ay +z = 1
ax + y − z = 0



 x + y + z = 2
x − y + z = 2

h)

 ax + z = 2
3x + y + 3z = 6


 x + y = a
i) x + 2y = a2
x + 3y = a3


 −2x + (a + 3)y − bz = −3
j) x + bz = 1
2x + 4y + 3bz = −b


 2x + y + w = 2
k) 3x + 3y + az + 5w = 3
3x − 3z − 2w = b


 ax + by + z = 1
l) x + aby +z = b
x + by + az = 1


 ax − z + (a + 1)w = 1
m) −x + y + z + w = a
(a − 1)x + y + (a − 2)z + 2aw = a − 2



 (8 − a)x + 2y + 3z + aw = 0
x + (9 − a)y + 4z + aw = 0

n)

 x + 2y + (10 − a)z + aw = 0
x + 2y + 3z + aw = 0

25. Determine quais das seguintes matrizes são invertı́veis e, em caso afirmativo, determine
a respectiva inversa.
     
1 1 1 1 2 1 1 2 2
a)  1 2 3  b)  1 3 2  c)  1 3 1 
0 1 1 1 0 1 1 1 3
     
1 1 2 1 1 1 1 1 1 1 1 1
 0 −2 0 0 
  1 2 −1 2   1 3 1 2 
d)  e)   f)  
 1 2 1 −2   1 −1 2 1   1 2 −1 1 
0 3 2 1 1 3 3 2 5 9 1 6
90 Sistemas de Equações Lineares

26. Seja A uma matriz n × n. Prove que o sistema homogéneo AX = 0 tem apenas a
solução trivial X = 0 se e só se A é invertı́vel.

 
a b
27. Prove que a matriz real, A = , é invertı́vel se e só se ad − bc 6= 0. Neste caso
c d
determine a inversa de A.



1 1 0
28. Determine para que valores de α a matriz A =  1 0 0  é invertı́vel e, para esses
1 2 α
valores, indique A−1 .

 
2 −1 0  
29. Dadas as matrizes A =  1 3 1  e B = 2 3 −2 resolva a equação matricial
1 2 1
T T
A X − B = 0.

 
7 0 5
30. Dada a matriz A =  0 1 0  resolva a equação matricial AXA−1 = A + I3 .
4 0 3

31. Resolva as seguintes equações matriciais, considerando as matrizes reais:


   
2 5 4 −6
a) X=
1 3 2 1
   
1 1 −1 1 −1 3
b) X  2 1 0 = 4 3 2 
1 −1 1 1 2 5
     
2 1 −3 2 −2 4
c) X =
3 2 5 −3 3 −1

32. Sejam A e B matrizes do tipo n × n. Mostre que se o produto AB é invertı́vel, então


também são invertı́veis as matrizes A e B.

33. Mostre que se A1 , A2 , . . . , Ap são matrizes do tipo n × n invertı́veis, então também o


produto é invertı́vel e (A1 .A2 · · · Ap )−1 = A−1 −1 −1
p · · · A2 .A1 .

34. Seja A uma matriz do tipo n × n tal que In + A é invertı́vel e P = (In − A) (In + A)−1 .
Mostre que:
Exercı́cios 91

a) (In − A) (In + A)−1 = (In + A)−1 (In − A).


b) Uma matriz quadrada Q, de ordem n, diz-se ortogonal se QT Q = In . Prove que, se
A é anti-simétrica, então P é ortogonal.
 
0 cos β 0
c) se A =  − cos β 0 sin β , então
0 − sin β 0

sin2 β − cos β sin β cos β


 

P = cos β 0 − sin β 
sin β cos β sin β cos2 β

35. Sejam A e B matrizes do tipo n × n com A invertı́vel. Mostre que

(A + B)A−1 (A − B) = (A − B)A−1 (A + B).

36. Seja A do tipo n × n.



a) Mostre que In − Ak+1 = (In − A) In + A + A2 + · · · + Ak .
b) Deduza que, se existir k ∈ N tal que Ak = 0, então In − A é invertı́vel.
c) Considere agora:  
2 2 −1 −1
 −1 0 0 0 
A=
 −1 −1

1 0 
0 1 −1 1
i) Determine as potências (I4 − A)i , i ∈ {1, 2, 3, 4}.
ii) Aplicando o resultado anterior à matriz I4 − (I4 − A), prove que A é invertı́vel
e determine A−1 .

37. Sejam A e B matrizes do tipo n × n tais que AB − In é invertı́vel. Mostre que

(BA − In ) B (AB − In )−1 A − In = In


 

e deduza que BA − In também é invertı́vel.


Capı́tulo 5

Determinantes

5.1 Definição e propriedades


Seja A = [aij ]n×n uma matriz quadrada de ordem n sobre o corpo K. Dados i, j ∈ {1, . . . , n},
chamamos matriz complementar do elemento aij de A à matriz Aij que se obtém a partir de
A por supressão da linha i e da coluna j.

Definição 5.1.1 Seja A = [aij ]n×n ∈ Mn×n (K). Chamamos determinante de A, e denota-
mo-lo por |A| ou por det (A), ao escalar definido recursivamente por:

(1) Se n = 1 então |A| = a11 ;


n
X
(2) Se n ≥ 2 então |A| = (−1)1+j a1j |A1j |.
j=1

Dados i, j ∈ {1, . . . , n}, chamamos menor complementar do elemento aij ao determinante


de Aij e complemento algébrico do elemento aij ao escalar (−1 )i+j |Aij |.
Tendo em conta estes conceitos, o determinante de uma matriz quadrada A, de ordem
n ≥ 2, foi definido como sendo a soma (de n parcelas) dos produtos de cada elemento da
primeira linha de A pelo respectivo complemento algébrico.

Exemplos 5.1.2

1. det [7]1×1 = 7 e det [−7]1×1 = −7;


 
a11 a12
2. Para A = [aij ]2×2 = temos, por definição,
a21 a22
2
X
|A| = (−1)1+j a1j |A1j | = (−1)1+1 a11 |A11 | + (−1)1+2 a12 |A12 |,
j=1

ou seja,
|A| = a11 a22 − a12 a21 .

93
94 Determinantes

3. De acordo com o exemplo anterior, temos


 
−2 3
det = (−2)(−6) − 3 · 5 = −3. H
5 −6

Nota. Quando usamos a notação das barras verticais para denotar o determinante de uma
matriz (representada explicitamente) é usual suprimir os parêntesis rectos que delimitam a
matriz. Por exemplo, em vez de
 
−2 3
= −3
5 −6

escrevemos simplesmente
−2 3
= −3.
5 −6

Exemplo 5.1.3 Consideremos agora uma matriz de ordem três:


 
a11 a12 a13
A = [aij ]3×3 =  a21 a22 a23  .
a31 a32 a33

Então
P3 1+j
|A| = j=1 (−1) a1j |A1j |
1+1 1+2 1+3
= (−1) a11 |A11
| + (−1) a12 |A 12 | + (−1)
a13 |A13 |
a22 a23 a21 a23 a21 a22
= a11 − a12
a31 a33 + a13 a31 a32

a32 a33
= a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a22 a31 )
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31 .

Consideremos a matriz que se obtém de A acrescentando uma cópia das duas primeiras
colunas:  
a11 a12 a13 a11 a12
 a21 a22 a23 a21 a22  .
a31 a32 a33 a31 a32
O determinante de A obtém-se somando os produtos das suas três “diagonais maiores para-
lelas à diagonal principal de A”
 
a11 a12 a13 a11 a12
 a21 a22 a23 a21 a22 
a31 a32 a33 a31 a32

e subtraindo os produtos das suas três “diagonais maiores não paralelas à diagonal principal
de A”  
a11 a12 a13 a11 a12
 a21 a22 a23 a21 a22  .
a31 a32 a33 a31 a32
Definição e propriedades 95

Esta mnemónica é conhecida por Regra de Sarrus. Note-se que a sua aplicação é exclusiva-
mente para matrizes de ordem três.
Por exemplo, sendo  
−2 3 3
A =  1 0 −5  ,
2 7 −4
temos

−2 3 3
0 −5 1+2 1 −5 + (−1)1+3 3 1 0
1+1

|A| = 1 0 −5 = (−1) (−2)
+ (−1) 3
2 7 −4 7 −4 2 −4 2 7

= (−2)(0 + 35) − 3(−4 + 10) + 3(7 − 0) = −67.


Por outro lado, para aplicar a Regra de Sarrus consideramos a matriz
 
−2 3 3 −2 3
 1 0 −5 1 0 
2 7 −4 2 7
e fazendo os produtos das “diagonais”, como atrás descrito, temos
|A| = (−2)0(−4) + 3(−5)2 + 3 · 1 · 7 − 3 · 0 · 2 − (−2)(−5)7 − 3 · 1(−4) = −67. H

Exemplo 5.1.4 Por aplicação sucessiva da definição, é imediato que o determinante de


uma matriz triangular inferior é igual ao produto dos elementos da sua diagonal:

a11 0
0 · · · 0

a21 a22 0 · · · 0

a31 a32 a33 · · · 0
= a11 a22 a33 · · · ann . H
.. .. .. .. ..
. . . . .

an1 an2 an3 · · · ann
n×n

Voltemos a considerar uma matriz quadrada de ordem 2:


 
a11 a12
A=
a21 a22
Considerando a soma dos produtos de cada elemento da segunda linha de A pelo respectivo
complemento algébrico, temos
2
X
(−1)2+j a2j |A2j | = (−1)2+1 a21 |A21 | + (−1)2+2 a22 |A22 | = −a21 a12 + a22 a11 = |A|.
j=1

Ainda, considerando a soma dos produtos de cada elemento da primeira coluna de A pelo
respectivo complemento algébrico, temos
2
X
(−1)i+1 ai1 |Ai1 | = (−1)1+1 a11 |A11 | + (−1)2+1 a21 |A21 | = a11 a22 − a21 a12 = |A|.
i=1
96 Determinantes

Finalmente, considerando a soma dos produtos de cada elemento da segunda coluna de A


pelo respectivo complemento algébrico, temos
2
X
(−1)i+2 ai2 |Ai2 | = (−1)1+2 a12 |A12 | + (−1)2+2 a22 |A22 | = −a12 a21 + a22 a11 = |A|.
i=1

Consideremos agora uma matriz de ordem três:


 
a11 a12 a13
A =  a21 a22 a23  .
a31 a32 a33

Então, considerando por exemplo a soma dos produtos de cada elemento da segunda linha
de A pelo respectivo complemento algébrico, temos
P3 2+j
j=1 (−1) a2j |A2j | = (−1)2+1 2+2 2+3
a21 |A21 | + (−1) a22 |A22 | + (−1) a23 |A23 |
a a a a a a
= −a21 12 13 + a22 11 13 − a23 11 12
a32 a33 a31 a33 a31 a32
= −a21 (a12 a33 − a13 a32 ) + a22 (a11 a33 − a13 a31 ) − a23 (a11 a32 − a12 a31 )
= |A|.

Também, considerando por exemplo a soma dos produtos de cada elemento da terceira coluna
de A pelo respectivo complemento algébrico, temos
P3 i+3 1+3 2+3 3+3
i=1 (−1) ai3 |Ai3 | = (−1) a13 |A13 | + (−1)
a23 |A23
| + (−1)
a33 |A 33 |
a21 a22 a11 a12 a11 a12
= a13 − a23
a31 a32 + a33 a21 a22

a31 a32
= a13 (a21 a32 − a22 a31 ) − a23 (a11 a32 − a12 a31 ) + a33 (a11 a22 − a12 a21 )
= |A|.

Podemos ainda facilmente verificar que obterı́amos o mesmo resultado considerando quer a
terceira linha de A quer a primeira ou segunda coluna de A.
Efectivamente, mais geralmente podemos demonstrar:

Teorema 5.1.5 (Teorema de Laplace) O determinante de uma matriz quadrada é igual


à soma dos produtos dos elementos de uma linha ou coluna pelos respectivos complementos
algébricos. I.e., se A = [aij ]n×n ∈ Mn×n (K) então
n
X n
X
k+j
|A| = (−1) akj |Akj | = (−1)i+k aik |Aik |,
j=1 i=1

para qualquer k ∈ {1, . . . , n}.

Para k ∈ {1, . . . , n}, à expressão do determinante de uma matriz A ∈ Mn×n (K) (es-
tabelecida no teorema anterior) em função linha (respectivamente, coluna) k chamamos
desenvolvimento de Laplace pela linha (respectivamente, coluna) k do determinante de A.
Definição e propriedades 97

Exemplo 5.1.6 Calculemos o determinante da matriz


 
1 3 −2 0
 2 −1 4 0 
A=  −4
.
0 1 0 
7 −5 3 −4

Então, efectuando o desenvolvimento de Laplace pela quarta coluna, temos



1
3 −2 0
2 −1 4 0
|A| =
−4 0 1 0
7 −5 3 −4
1
3 −2

1+4 2+4 3+4 4+4
= (−1) 0|A14 | + (−1) 0|A24 | + (−1) 0|A34 | + (−1) (−4) 2 −1 4
−4 0 1

1
3 −2
= −4 2 −1
4 .
−4 0 1

Efectuando agora o desenvolvimento de Laplace pela terceira linha desta última matriz, vem
 
3+1
3 −2 3+2 · · ·
3+3 1
3
|A| = −4 (−1) (−4) + (−1) 0 + (−1) 1
−1 4 ··· 2 −1
= −4 ((−4)(12 − 2) + 0 + (−1 − 6)) = 188. H

Exemplo 5.1.7 Usando sucessivamente o desenvolvimento de Laplace pela primeira co-


luna, é fácil ver que também o determinante de uma matriz triangular superior é igual ao
produto dos elementos da sua diagonal:

a11 a12 a13 · · · a1n

0 a22 a23 · · · a2n

0
0 a 33 · · · a3n

= a11 a22 a33 · · · ann . H
.. .. .. .. ..
. . . . .


0 0 0 · · · ann n×n

Notemos que uma matriz triangular superior é a matriz transposta de uma matriz trian-
gular inferior e que, como vimos atrás, têm o mesmo determinante. Mais geralmente, dada
uma matriz A = [aij ]n×n ∈ Mn×n (K), tendo em conta que a matriz complementar do ele-
mento aij de A é a matriz transposta da matriz complementar do elemento da posição (j, i)
de AT , para quaisquer i, j ∈ {1, . . . , n}, é fácil concluir (por indução, aplicando a definição
à matriz A e o desenvolvimento de Laplace pela primeira coluna à matriz AT ) que:

Corolário 5.1.8 Para toda a matriz A ∈ Mn×n (K), tem-se |AT | = |A|.

Prova-se que:
98 Determinantes

Teorema 5.1.9 (Propriedades) Seja A ∈ Mn×n (K).


1. Sejam B e C matrizes quadradas de ordem n tais que, para certo i ∈ {1, . . . , n}, a
soma da linha [coluna] i de B com a linha [coluna] i de C é igual à linha [coluna] i
de A e todas as restantes linhas [colunas] de B e de C são iguais às de A. Então,
|B| + |C| = |A|.
2. Se B é uma matriz que resulta de A multiplicando toda uma (única) linha [coluna] por
λ ∈ K então |B| = λ|A|. Consequentemente, |λA| = λn |A|.
3. Se B é uma matriz que resulta de A por troca de duas linhas [colunas] então |B| = −|A|.
4. Se A possui uma linha [coluna] nula então |A| = 0.
5. Se A possui duas linhas [colunas] iguais então |A| = 0.
6. Se B é a matriz que resulta de A por meio da operação Li → Li + λLj [Ci → Ci + λCj ]
sobre linhas [colunas], com λ ∈ K, 1 ≤ i, j ≤ n e i 6= j, então |B| = |A|.
7. Se A possui uma linha [coluna] que seja uma combinação linear das restantes linhas
[colunas], i.e. se as linhas [colunas] de A são linearmente dependentes, então |A| = 0.

As propriedades enunciadas no teorema anterior permitem-nos calcular o determinante


de uma matriz sem recorrer à definição ou ao Teorema de Laplace: basta transformar a
matriz por meio de operações elementares sobre linhas e/ou colunas (registando as variações
dos respectivos determinantes) numa matriz triangular. Note-se que, muitas vezes é mesmo
mais conveniente usar simultaneamente ambos os processos.

Exemplos 5.1.10

2
2 −1 1
=
2 2 −1 1 2
2 −1 1
−2 −2 2 1 L2 → L2 + L1 0 0 1 2 = 0 −1 1 −1
1. −
4 3 −1 1 L3 → L3 − 2L1


0 −1 1 −1 L2 ↔ L3 0 0 1 2
2 3 1 2 L4 → L4 − L1 0 1 2 1 0 1 2 1

2
2 −1 1 2
2 −1 1
= 0 −1 1 −1 = 0 −1 1 −1
− −
L4 → L4 + L2 0 0 1 2 L4 → L4 − 3L3 0
0 1 2
0 0 3 0 0 0 0 −6
= −(2(−1)1(−6)) = −12.
 
1 −2 3
2. Seja A =  4 5 −6 . Então,
−7 −8 9

|A| = 1 −2
3 =
13 −18
L2 → L2 − 4L1 0 13 −18 Laplace 1 · = 390 − 396 = −6. H
−22 30
L3 → L3 + 7L1 0 −22 a
30 1 coluna
Aplicações 99

Demonstra-se que:
Teorema 5.1.11 Sejam A, B ∈ Mn×n (K). Então |AB| = |A||B|.

Observação 5.1.12 Uma propriedade análoga ao Teorema 5.1.11 não é válida para a
adição de matrizes, i.e. dadas A, B ∈ Mn×n (K) em geral não é verdade que |A + B| =
|A| + |B|. Por exemplo, para
   
2 3 −2 4
A= e B=
0 −1 0 7

0 7
temos |A| + |B| = −2 + (−14) = −16 6= 0 = = |A + B|.
0 6

5.2 Aplicações
5.2.1 Inversa de uma matriz
Seja A ∈ Mn×n (K). Uma vez A é uma matriz invertı́vel se e só se r(A) = n, i.e. se e só
se as linhas [colunas] de A são linearmente independentes, se |A| 6= 0 então A é invertı́vel,
tendo em conta a última propriedade do Teorema 5.1.9. Por outro lado, se A é invertı́vel
então, pelo Teorema 5.1.11, temos |A||A−1 | = |AA−1 | = |In | = 1, pelo que |A| =
6 0 e, além
−1
disso, |A | = 1/|A|.
Provámos então:
Teorema 5.2.1 Seja A ∈ Mn×n (K). Então, A é invertı́vel se e só se |A| =
6 0. Além disso,
1
se A é invertı́vel então |A−1 | = .
|A|
Seja A = [aij ] ∈ Mn×n (K). Denotamos por A b a matriz dos complementos algébricos de
b = [âij ] ∈ Mn×n (K), em que âij = (−1)i+j |Aij |, para quaisquer i, j ∈ {1, . . . , n}.
A, i.e. A
Definição 5.2.2 Seja A ∈ Mn×n (K). Chamamos matriz adjunta de A, e denotamo-la por
adj(A), à transposta da matriz A,
b i.e. adj(A) = A bT .
 
1 −2 3
Exemplo 5.2.3 Seja A =  4 5 −6 . Então
−7 −8 9
 T
5 −6 4 −6 4 5

 −8 9 −7 9 −7 −8 

 
 −2 3 1 3 1 −2 
adj(A) =   − −8 9 −

−7 9 −7 −8 
 
 −2 3 1 3 1 −2

5 −6 − 4 −6

4 5

 T  
−3 −(−6) 3 −3 −6 −3
=  −6 30 −(−22)  =  6 30 18  . H
−3 −(−18) 13 3 22 13
100 Determinantes

Não é difı́cil verificar que:

Teorema 5.2.4 Seja A ∈ Mn×n (K). Então A adj(A) = adj(A)A = |A|In .

Como consequência imediata deste resultado temos:

1
Corolário 5.2.5 Seja A ∈ Mn×n (K) uma matriz invertı́vel. Então A−1 = adj(A).
|A|
 
1 −2 3
Exemplo 5.2.6 Seja A =  4 5 −6 . Tendo em conta os Exemplos 5.1.10 e 5.2.3,
−7 −8 9
temos   1 1
 
−3 −6 −3 1
1 1  2 2
A−1 = adj(A) = 6 30 18  =  −1 −5 −3  . H
|A| −6
3 22 13 − 12 − 11
3
− 13
6

5.2.2 Regra de Cramer


Consideremos o sistema de equações lineares de n equações a n incógnitas sobre o corpo K


 a11 x1 + · · · + a1n xn = b1
 a21 x1 + · · · + a2n xn = b2

..


 .
 a x
n1 1 + · · · + ann xn = bn

e sejam A a matriz simples deste sistema, B a matriz coluna dos seus termos independentes
 T
e X = x1 · · · xn a matriz coluna das variáveis.
Um sistema de n equações lineares a n incógnitas diz-se um sistema de Cramer se e só
se é possı́vel e determinado.
Tendo em conta as propriedades estudadas, é imediato que:

Teorema 5.2.7 As seguintes afirmações são equivalentes:

1. O sistema representado matricialmente por AX = B é um sistema de Cramer;

2. det (A) 6= 0;

3. r(A) = n;

4. A matriz A é invertı́vel.

Tomemos então um sistema de Cramer representado matricialmente por AX = B. Uma


vez que a matriz A é invertı́vel, podemos escrever
1
X = A−1 B = ( adjA) B,
det A
Aplicações 101

ou seja,
n
1
X
xi = det A (−1)r+i det Ari br
r=1


a11 · · · a1,i−1 b1 a1,i+1 · · · a1n


1 a21 · · · a2,i−1 b2 a2,i+1 · · · a2n
= det ,

A .. .. .. .. ..
. . . . .

an1 · · · an,i−1 bn an,i+1 · · · ann
para qualquer i ∈ {1, . . . , n}.
Provámos pois:

Teorema 5.2.8 (Regra de Cramer) Dado um sistema de Cramer representado matrici-


almente por AX = B, tem-se

a11 · · · a1,i−1 b1 a1,i+1 · · · a1n

a21 · · · a2,i−1 b2 a2,i+1 · · · a2n

.. .. .. .. ..
. . . . .

an1 · · · an,i−1 bn an,i+1 · · · ann
xi = ,
det A
i.e., a i-ésima coordenada da solução do sistema é igual ao quociente do determinante da
matriz que se obtém de A substituindo a sua i-ésima coluna pela coluna dos termos indepen-
dentes, pelo determinante de A, para qualquer i ∈ {1, . . . , n}.

Exemplo 5.2.9 Consideremos o seguinte sistema de equações lineares sobre o corpo do


números reais: 
 2x + z = 1
3x + y + z = 2
x + y + z = 3.

Como

2 0 1 1 0 2 1 0 2
= −1 · 1 1

3 1 1 = − 1 1 3 = − 0 1 1 = 2 6= 0,
1 −1
1 1 1 1 1 1 0 1 −1

então o sistema é de Cramer. Logo



1 0 1 2 1 1 2 0 1

2 1 1 3 2 1 3 1 2

3 1 1 1 1 3 1 3 1 1 3
x= =− , y= = e z= = 2. H
2 2 2 2 2

Embora à partida a regra de Cramer seja somente aplicável a sistemas de Cramer, com
algumas adaptações é possı́vel utilizá-la para resolver qualquer sistema possı́vel, mesmo que
indeterminado.
102 Determinantes

Consideremos então um sistema de equações lineares representado matricialmente por


   T
AX = B, em que A = aij  ∈ Mm×n (K) e B = b1 · · · bm ∈ Mm×1 (K). Admitamos
que r = r(A) = r( A | B ), com r ≤ n.
1. Suponhamos que r = m < n e que o determinante da submatriz A0 de A, constituı́da
pelas r primeiras linhas e r primeiras colunas, é diferente de zero. Então, designando
as r primeiras incógnitas por incógnitas principais e escrevendo o sistema na forma


 a11 x1 + · · · + a1m xm = b1 − a1,m+1 xm+1 − · · · − a1n xn
 a21 x1 + · · · + a2m xm = b2 − a2,m+1 xm+1 − · · · − a2n xn

..


 .
 a x + ··· + a x = b −a x − ··· − a x ,
m1 1 mm m m m,m+1 m+1 mn n

podemos considerar que, relativamente às incógnitas principais, estamos na presença


de um sistema de Cramer, de matriz simples igual a
 
a11 a12 · · · a1m
 a21 a22 · · · a2m 
A0 =  ..
 
.. .. 
 . . . 
am1 am2 · · · amm
e de matriz coluna dos termos independentes igual a
 
b1 − a1,m+1 xm+1 − · · · − a1n xn
 b2 − a2,m+1 xm+1 − · · · − a2n xn 
B0 =  .
 
..
 . 
bm − am,m+1 xm+1 − · · · − amn xn
Resolvendo-o, pela regra de Cramer, vamos obter as incógnitas x1 , . . . , xm em função
das restantes n − m incógnitas, i.e., em função das incógnitas não principais.
Observemos que não há perda de generalidade quando consideramos diferente de
zero o determinante da submatriz de A formada pelas primeiras r linhas e primeiras
r colunas, uma vez que, com uma conveniente reordenação das incógnitas, obtemos a
situação que considerámos.
2. Se r < m então é possı́vel eliminar m − r equações do sistema de forma a obter um
sistema equivalente ao inicial. Depois disso, duas situações se podem dar: o novo
sistema assim obtido é um sistema de Cramer (se r = n) ou está nas condições do caso
considerado anteriormente.
Exemplos 5.2.10
1. Consideremos o seguinte sistema de equações sobre o corpo dos números reais:


 5x + y + 2z = 3
4x + 2y + 2z = 5


 x + y + z = 3
10x + 4y + 5z = 11.

Aplicações 103

Este sistema é possı́vel e determinado. Efectivamente, considerando a sua matriz


ampliada temos
     
5 1 2 3 1 1 1 3 1 1 1 3
 −→  0 −2 −2 −7  −→
 4 2 2 5     0 −2 −2 −7 
  
 1 1 1 3   0 −4 −3 −12   0 0 1 2 
10 4 5 11 0 −6 −5 −19 0 0 0 0
e podemos também concluir que o sistema considerado é equivalente ao sistema

 5x + y + 2z = 3
4x + 2y + 2z = 5
x + y + z = 3,

o qual é, tendo em conta os cálculos anteriores, um sistema de Cramer. Aplicando-lhe


a regra de Cramer obtemos

3 1 2 5 3 2 5 1 3

5 2 2 4 5 2 4 2 5

3 1 1 1 1 3 1 3 1 1 3
x= =− , y= = e z= = 2.
5 1 2
2 5 1 2
2 5 1 2

4 2 2 4 2 2 4 2 2

1 1 1 1 1 1 1 1 1

2. Consideremos agora o sistema de equações lineares sobre o corpo dos números reais
seguinte: 
 2x + y + z = 1
x + 12 y + z = 2
4x + 2y + 3z = 5.

Este sistema é possı́vel e indeterminado, visto que


x y z x y z x z y
     
2 1 1 1 2 1 1 1 2 1 1 1
 1 1 1 2  −→  0 0 12 32  −→  0 1 0 3 .
2 2 2
4 2 3 5 0 0 1 3 0 0 0 0
Vamos aplicar a regra de Cramer para determinar as soluções deste sistema, usando
o método indicado atrás, tomando x e z como incógnitas principais e considerando
apenas as duas primeiras equações. Então

1−y 1 2 1−y

2 − 1y 1 1 1 2 − 1y
2 2
x= = −1 − y e z = = 3,
2 1
2 2 1

1 1 1 1

para qualquer y ∈ R. O conjunto de soluções do sistema é pois


1
{(−1 − y, y, 3) | y ∈ R}. H
2
104 Determinantes

5.3 Exercı́cios
1. Considere as matrizes
   
1 −3 0 1 −2 5
A =  −2 0 7  e B= 1 0 3  .
5 3 −3 −4 2 0
Calcule os determinantes utilizando:

(a) Operações elementares;


(b) O Teorema de Laplace.

2. Verifique que são nulos os seguintes determinantes:




0 x y z

0 0
(a) ax − bx ay − by az − bz ;
x0 y0 z0

a+b c 1

(b) b + c a 1 .
c+a b 1

3. Calcule o determinante
1 2 −3 4

−4 2 1 3
,
3 0 −2 0

1 0 2 −5

efectuando o desenvolvimento de Laplace pela terceira linha.

4. Sem calcular os determinantes, justifique as igualdades:



1 1 −4 1 1 1

(a) 2 0 −8 = −4 2 0 2 ;
3 2 12 3 2 −3

2 −1 −2 3 3 0

(b) 3 0 3 = 3 0 3 ;
1 4 2 1 4 2

a b αa + βb + c a b c

(c) d e αd + βe + f = d e f ;
g h αag + βh + i g h i

a + αb a − αb c a b c

(d) d + αe d − αe f = −2α d e f .
g + αh g − αh i g h i
Exercı́cios 105

5. Use as propriedades dos determinantes para provar que



a 3a − 2b a a a b

b 3b − 2a a = 2 b
a a .

c 3c − 2a a c a a

6. Considere a seguinte matriz quadrada de ordem n:


 
a+b a a ... a
 a a + b a . . . a 
 
A= a a a + b ... a .
 
 .. .. .. . .. .. 
 . . . . 
a a a ... a + b

Prove que |A| = bn−1 (na + b).

7. Seja A uma matriz real quadrada de ordem 3 tal que det (A) = 2.
 
(a) Calcule det (3A)T A−1 .
 
−2 0 0
(b) Suponha que adj(A) =  0 −1 0  e determine as matrizes A−1 e A.
0 0 2
 
sin(α) 0 0 cos(α)
 0 1 0 0 
8. Para cada α ∈ R considere a matriz real Aα =  .
 0 0 1 0 
− cos(α) 0 0 sin(α)

(a) Calcule det (Aα ) e conclua que Aα é invertı́vel para qualquer valor de α.
(b) Designando por C a matriz A−1
α , determine os elementos c11 e c14 da matriz C.

(c) Indique todos os valores de α para os quais Aα = I4 .


 
1 1 0
9. Determine para que valores de α a matriz A = 1  0 0  é invertı́vel e, para esses
1 2 α
valores, calcule A−1 .

10. Para cada uma das seguintes matrizes, calcule a sua adjunta e de seguida a sua inversa.
 
3 1 2
(a) A =  1 2 1 .
1 1 1
 
5 3 2
(b) B =  2 3 1 .
7 5 3
106 Determinantes

 
1 0 0
(c) C =  1 2 0 .
1 2 3
 
1 4 3
(d) D =  5 9 2 .
6 8 1
 
−4 −3 −3
11. Para a matriz A =  1 0 1  verifique que adj(A) = A.
4 4 3

12. Determine todos os valores do escalar λ para os quais a matriz A − λ I é singular (i.e.
não invertı́vel), com:
 
0 3
(a) A = ;
2 −1
 
1 0 2
(b) A =  0 −1 −2  ;
2 −2 0
 
11 −2 8
(c) A =  19 −3 14 .
−8 2 −5

13. Verifique, sem calcular, que são nulos os seguintes determinantes:




0 x y z

0 0
a) ax − bx ay − by az − bz .

x0 y0 z0

a+b c 1

b) b + c a 1 .
c+a b 1

14. Sem calcular os determinantes, justifique as igualdades:



1 1 −4 1 1 1

a) 2 0 −8 = −4 2 0 2 .
3 2 12 3 2 −3

2 −1 −2 3 3 0

b) 3 0 3 = 3 0 3 .
1 4 2 1 4 2

1 0 2 1 2 0 5 9 4

c) 2 1 3 = − 2 3 1 = 2 3 1 .
5 4 9 5 9 4 1 2 0
Exercı́cios 107



a1 b1 αa1 + βb1 + c1 a1 b1
c1

d) a2 b2 αa2 + βb2 + c2 = a2 b2
c2 .

a3 b3 αa3 + βb3 + c3 a3 b3 c3


a1 + αb1 a1 − αb1 c1 a1
b1 c1
e) a2 + αb2 a2 − αb2 c2 = −2α a2 b2 c2 .
a3 + αb3 a3 − αb3 c3 a3 b3 c 3

15. Seja A = [aij ] ∈ Mn×n (K). Calcule |αA|, com α ∈ K.

16. Efectuando a expansão de Laplace ao longo da terceira linha, calcule:



1
2 −3 4
−4 2 1 3
.
3
0 −2 0
1 0 2 −5

17. Calcule
1−λ 3 2

2
−1 − λ 3 .

3 0 1−λ

18. Considere a matriz:  


1 1 −1
A= 2 1 3 .
1 −5 1
Calcule |A| efectuando a expansão de Laplace ao longo de cada uma das três colunas
de A.

19. Calcule

1 2 3 −4
0 −5 6 −7
.

0 0 −8 9
0 0 0 10

20. Determine os valores de x para os quais |A| =


6 0, com:
 
x 2 0 3
 1 2 3 3 
A=  1 0 1 1 .

1 1 1 3
108 Determinantes

21. Mostre que:



0 a 0 0 0 0


f 0 b 0 0 0


0 g 0 c 0 0
= −acef hm.

0 0 h 0 d 0


0 0 0 k 0 e

0 0 0 0 m 0

22. Calcule o determinante da matriz:


 
1 2 3 ... n
 −1 0 3 ... n 
 
 −1 −2 0 ... n 
 .
 .. .. .. .. .. 
 . . . . . 
−1 −2 −3 ... 0

23. Calcule o determinante da matriz quadrada de ordem n A = [aij ], dada por:



1 se i + j = n + 1
aij =
0 caso contrário .

24. Considere a matriz complexa:


 
0 1 + i 1 + 2i
A= 1−i 0 2 − 3i  .
1 − 2i 2 + 3i 0
Mostre que |A| = 6.

25. Considere as matrizes:


   
b + 8c 2c − 2b 4b − 4c 0 1 2
A =  4c − 4a 8a + c 2a − 2c  , P =  2 0 1  .
2b − 2a 4a − 4b a + 8b 1 2 0
Determine P −1 e calcule P −1 AP . Utilizando a matriz P −1 AP , calcule |A|.

26. O que se pode afirmar sobre |A| se:


a) A ∈ Mn×n (C) e AAT = In ?
b) A ∈ Mn×n (R) e Ap = 0, com p ∈ N?
c) A ∈ Mn×n (R) é uma matriz anti-simétrica de ordem ı́mpar?
Exercı́cios 109

27. Calcule a matriz adjunta da matriz:


 
a b
a) A = .
c d
 
a h g
b) B =  h b f  .
g f c
 
−1 0 −1
c) C =  0 −1 0 .
−1 0 −1

28. Para cada uma das seguintes matrizes, calcule a sua adjunta. Para as que forem
invertı́veis, determine a inversa, a partir da adjunta.
 
3 1 2
a) A =  1 2 1  .
1 1 1
 
5 3 2
b) B =  2 3 1  .
7 5 3
 
1 0 0
c) C =  1 2 0  .
1 2 3

29. Para a matriz  


−4 −3 −3
A= 1 0 1 .
4 4 3
verifique que adj A = A.

30. Seja A uma matriz invertı́vel de ordem n. Mostre que:


a) adj A é também invertı́vel , tendo-se:

(adj(A))−1 = |A|−1 A.

b) |adj(A)| = |A|n−1 .

31. Mostre que se A for uma matriz triangular superior, então adj A também é triangular
superior.
110 Determinantes

32. Mostre que se A é uma matriz simétrica então o mesmo sucede à sua adjunta.

33. Resolva a equação:



x a a a


a x a a
= 0.

a a x a

a a a x

34. Seja An = [aij ] a matriz de ordem n definida por:



0 se i = j
aij =
1 caso contrário.

Prove que |An | = (−1)n−1 (n − 1).

35. Use a regra de Cramer para resolver os seguintes sistemas:



 2x + y = 8
(a) −x + 2y + 4z = 7
−x + z = 1 ;


 2x + y + z = 0
(b) −x + y + 3z = 3
3x + 5y + 2z = 4 ;


 2x + z = 1
(c) 3x + y + z = 2
x + y + z = 3 ;


 5x + y + 2z = 3
(d) 4x + 2y + 2z = 5
x + y + z = 3 .

Capı́tulo 6

Valores e Vectores Próprios

6.1 Valores e vectores próprios


Definição 6.1.1 Seja h um endomorfismo de um espaço vectorial E sobre um corpo K.
Um vector não nulo u de E diz-se um vector próprio de h se existe um escalar λ ∈ K tal que
h(u) = λu.

Observação 6.1.2 Um tal escalar λ, quando existe, é único: de facto, se λ, λ0 ∈ K são tais
que λu = λ0 u, então (λ − λ0 )u = 0E e portanto, uma vez que u 6= 0E , tem-se λ − λ0 = 0, ou
seja, λ = λ0 .

Nestas condições, o escalar λ é designado por valor próprio de h associado ao vector


próprio u. O conjunto de todos os valores próprios de um endomorfismo h é designado por
espectro de h e representado por esp(h).

Observação 6.1.3 Sejam h um endomorfismo de um espaço vectorial E sobre um corpo


K e λ ∈ K um valor próprio de h associado a um vector próprio u ∈ E \ {0E }. Então,

λ = 0 se e só se u ∈ Nuc(h).

Teorema 6.1.4 Sejam E um espaço vectorial de dimensão finita, h um endomorfismo de


E, (e1 , . . . , en ) uma base de E e A = M (h; (ei ), (ei )). Então, um escalar λ é um valor próprio
de h se e só se
|A − λIn | = 0.

Demonstração. Um escalar λ é um valor próprio de h se e só se existe um vector u ∈ E \ {0E }


tal que h(u) = λu, ou seja, em termos matriciais, λ é um valor próprio de h se e só se existe uma
matriz coluna não nula U tal que AU = λU. Então

AU = λU ⇔ AU − λU = 0 ⇔ AU − λIn U = 0 ⇔ (A − λIn )U = 0

e, por outro lado, o sistema (A − λIn )X = 0 admite uma solução não nula se e só se for um sistema
indeterminado, ou seja, se e só se r(A − λIn ) < n. Uma vez que r(A − λIn ) < n ⇔ |A − λIn | = 0,
então λ ∈ esp(h) se e só se |A − λIn | = 0.

111
112 Valores e Vectores Próprios

Observação 6.1.5 Assim, calcular os valores próprios de um endomorfismo de um espaço


vectorial de dimensão finita equivale a determinar as soluções da equação polinomial (de
grau n) na incógnita λ
|A − λIn | = 0,
em que A é a matriz que representa o endomorfismo em relação a uma base previamente
fixada no espaço vectorial.
Dados um endomorfismo h, nas condições do teorema anterior, e um seu valor próprio λ,
os vectores próprios associados a λ são, obviamente, os vectores de E cujas coordenadas, na
base considerada, são as soluções não nulas do sistema homogéneo

(A − λIn )X = 0.

A cada valor próprio está associado, em geral, mais do que um vector próprio. De facto,
quando o espaço vectorial é real ou complexo, a cada valor próprio está associado uma
infinidade de vectores próprios. Por outro lado, como já observámos, a cada vector próprio
está associado um e um só valor próprio.

Definição 6.1.6 Nas condições do teorema anterior, o polinómio |A − λIn |, na incógnita


λ de grau n, designa-se por polinómio caracterı́stico da matriz A e representa-se por pA (λ).
A equação |A − λIn | = 0 designa-se por equação caracterı́stica de A.

Exemplo 6.1.7 Vamos determinar os valores próprios e os vectores próprios do endomor-


fismo f de R3 representado pela matriz
 
1 2 1
A =  2 0 −2  ,
−1 2 3

em relação a uma base (e1 , e2 , e3 ) de R3 .


Comecemos por calcular pA (λ):

1−λ 2 1

pA (λ) = |A − λI3 | = 2
−λ −2 = −λ3 + 4λ2 − 4λ = −λ(λ − 2)2 .

−1 2 3−λ

Então
pA (λ) = 0 ⇔ −λ(λ − 2)2 = 0 ⇔ λ ∈ {0, 2},
pelo que esp(f ) = {0, 2}.
Os vectores próprios de f associados ao valor próprio λ = 0 são os vectores de R3
cujas coordenadas na base (e1 , e2 , e3 ) são as soluções não nulas do sistema de equações
(A − 0I3 )X = 0. Assim, supondo X = [x y z]T , temos

 x=z
(A − 0I3 )X = 0 ⇔ AX = 0 ⇔ y = −z
z ∈ R,

Valores e vectores próprios 113

e, portanto, o conjunto dos vectores próprios de f associados ao valor próprio λ = 0 é


V0 = {ze1 − ze2 + ze3 : z ∈ R \ {0}} =< e1 − e2 + e3 >\{0e1 + 0e2 + 0e3 }.
Analogamente, os vectores próprios associados ao valor próprio λ = 2 são os vectores de
R3 cujas coordenadas na base (e1 , e2 , e3 ) são as soluções não nulas do sistema de equações
(A − 2I3 )X = 0. Uma vez que

 x=z
(A − 2I3 )X = 0 ⇔ y=0
z ∈ R,

o conjunto dos vectores próprios de f associados ao valor próprio λ = 2 é


V2 = {ze1 − 0e2 + ze3 : z ∈ R \ {0}} =< e1 + e3 >\{0e1 + 0e2 + 0e3 }.
Se a base (e1 , e2 , e3 ) for a base canónica de R3 , tem-se
V0 = (z, −z, z) ∈ R3 : z ∈ R \ {0} =< (1, −1, 1) >\{(0, 0, 0)}


e
V2 = (z, 0, z) ∈ R3 : z ∈ R \ {0} =< (1, 0, 1) >\{(0, 0, 0)}.


Definição 6.1.8 Designamos por valores próprios de uma matriz A ∈ Mn×n (K) as soluções
da equação polinomial |A−λIn | = 0 e por espectro de A o conjunto dos seus valores próprios,
o qual representamos por esp(A). Designamos também por vector próprio de A associado a
um valor próprio λ qualquer matriz coluna não nula X tal que AX = λX, ou seja, qualquer
matriz coluna X = [x1 · · · xn ]T tal que (x1 , . . . , xn ) é uma solução não nula do sistema de
equações lineares homogéneo (A − λIn )X = 0.
Assim, dada uma matriz de ordem n sobre um corpo K e, fixado um espaço vectorial
E sobre o corpo K de dimensão igual a n e uma sua base, a matriz considerada representa
um endomorfismo de E. Como os valores próprios da matriz são os valores próprios do
endomorfismo e duas matrizes semelhantes representam o mesmo endomorfismo, então estas
têm necessariamente os mesmos valores próprios.
Além disso, dada uma matriz A ∈ Mn×n (K) e uma matriz invertı́vel P ∈ Mn×n (K),
tem-se
|P −1 AP − λIn | = |P −1 AP − λP −1 In P |
= |P −1 (A − λIn )P |
= |P −1 ||A − λIn ||P |
= |P |−1 |P ||A − λIn |
= |A − λIn |.
Logo, provámos:
Teorema 6.1.9 Duas matrizes semelhantes têm o mesmo polinómio caracterı́stico.
O resultado anterior permite-nos estabelecer os seguinte conceitos:
Definição 6.1.10 Chamamos polinómio caracterı́stico e equação caracterı́stica de um en-
domorfismo de um espaço vectorial de dimensão finita ao polinómio caracterı́stico e à equação
caracterı́stica, respectivamente, de uma qualquer matriz que o represente.
114 Valores e Vectores Próprios

6.2 Subespaços próprios


Sejam h um endomorfismo de um espaço vectorial E de dimensão finita n sobre um corpo
K e λ ∈ K um valor próprio de h. Denotamos por Uλ o conjunto dos vectores próprios de
h associados a λ acrescido do vector nulo, i. e.

Uλ = {x ∈ E : h(x) = λx} .

Recordemos que, embora o vector nulo satisfaça a propriedade ∃λ ∈ K : h(0E ) = λ0E ,


este não é, por definição, um vector próprio de h.
De forma análoga, dada uma matriz A ∈ Mn×n (K) e dado um valor próprio λ de A,
denotamos por UλA (ou simplesmente por Uλ , se não houver perigo de confusão) o conjunto

{X ∈ Mn×1 (K) : AX = λX} ,

ou seja, o conjunto dos vectores próprios de A associados a λ acrescido da matriz coluna


nula.
É fácil provar que:

Teorema 6.2.1 Sejam h um endomorfismo de um espaço vectorial E de dimensão finita


sobre um corpo K, (e1 , . . . , en ) uma base de E, A = M (h; (ei ), (ei )) e λ um valor próprio
de h. Então, o conjunto Uλ (respectivamente, UλA ) é um subespaço vectorial não nulo de E
(respectivamente, de Mn×1 (K)). Além disso, dim (Uλ ) = dim (UλA ) = n − r(A − λIn ).

Definição 6.2.2 Nas condições do teorema anterior, ao subespaço vectorial Uλ dá-se o


nome de subespaço próprio de h associado ao valor próprio λ. Analogamente, designa-se UλA
por subespaço próprio da matriz A associado ao valor próprio λ.
A dimensão de Uλ (e de UλA ) designa-se por multiplicidade geométrica do valor próprio λ.
Por outro lado, a multiplicidade de λ como raı́z da equação caracterı́stica de h designa-se
por multiplicidade algébrica do valor próprio λ.

Observação 6.2.3 Atendendo às suas definições, quer a multiplicidade algébrica quer a
multiplicidade geométrica de um valor próprio são números inteiros superiores ou iguais a
um. Por outro lado, a multiplicidade algébrica e a multiplicidade geométrica de um valor
próprio são conceitos distintos e os seus valores em geral não têm que coincidir.

Exemplos 6.2.4

1. No exemplo 6.1.7, para o endomorfismo f de R3 , o valor próprio 0 tem multiplicidade


algébrica e multiplicidade geométrica iguais a um, enquanto que o valor próprio 2 tem
multiplicidade algébrica igual a dois e multiplicidade geométrica igual a um.

2. Consideremos as matrizes reais


   
1 0 1 0
A= e B= .
1 1 0 1
Diagonalização 115

É fácil ver que |A − λI2 | = (λ − 1)2 = |B − λI2 | e, portanto, quer A quer B admitem
apenas o valor próprio 1, com multiplicidade algébrica igual a dois.
Vamos determinar a multiplicidade geométrica deste valor próprio, relativamente a
cada uma das matrizes consideradas.
Para a matriz A temos
     
x x x
U1A = :A =1· .
y y y

Como         
x x x 0 x=0
A = ⇔ (A − I2 ) = ⇔
y y y 0 y ∈ R,
então     
0 0
U1A = :y∈R =
y 1
e, portanto, relativamente à matriz A, a multiplicidade geométrica do valor próprio 1
é igual a um.
Por outro lado, para a matriz B temos
             
B x x x x 0 0 x 0
U1 = :B =1 = : = = M2×1 (R)
y y y y 0 0 y 0

e, portanto, relativamente à matriz B, a multiplicidade geométrica do valor próprio 1


é igual a dois.

Em qualquer dos exemplos anteriores verifica-se que a multiplicidade geométrica de um


valor próprio é menor ou igual que a sua multiplicidade algébrica. Efectivamente, em geral,
pode demonstrar-se:

Teorema 6.2.5 A multiplicidade geométrica de um valor próprio é menor ou igual que a


sua multiplicidade algébrica.

Também, não é difı́cil demonstrar que:

Teorema 6.2.6 Vectores próprios associados a valores próprios distintos são linearmente
independentes.

6.3 Diagonalização
Definição 6.3.1 Um endomorfismo h de um espaço vectorial E diz-se diagonalizável se
existir uma base de E em relação à qual a matriz de h é diagonal.
Uma matriz quadrada diz-se diagonalizável se, em relação a certa base de um espaço
vectorial, é uma matriz de um endomorfismo diagonalizável, i. e. se for semelhante a uma
matriz diagonal. A uma matriz invertı́vel P tal que P −1 AP é uma matriz diagonal chamamos
matriz diagonalizante de A.
116 Valores e Vectores Próprios

Claramente, um endomorfismo h de E é representável por uma matriz diagonal


 
λ1 0 · · · 0
 0 λ2 · · · 0 
 
 .. .. .. 
 . . . 
0 0 · · · λn

se e só se existe uma base (u1 , u2 , . . . , un ) de E tal que h(ui ) = λi ui , para qualquer i ∈
{1, . . . , n}, ou seja, se e só se existir uma base de E formada por vectores próprios de h.
Logo, tem-se:

Teorema 6.3.2 Um endomorfismo h de E é diagonalizável se e só se E admitir uma base


formada por vectores próprios de h. Neste caso, os elementos da diagonal principal de uma
matriz diagonal que represente h são os valores próprios de h.

Para matrizes, tem-se:

Teorema 6.3.3 Uma matriz A ∈ Mn×n (K) é semelhante a uma matriz diagonal D se e
só se A possui n vectores próprios linearmente independentes. Neste caso, os elementos da
diagonal principal da matriz D são os valores próprios de A.

Observação 6.3.4 Seja A ∈ Mn×n (K) uma matriz diagonalizável.


Consideremos um espaço vectorial E de dimensão n sobre o corpo K e fixemos uma base
(e1 , . . . , en ) em E. Então, a matriz A representa um certo endomorfismo h de E, em relação
à base (e1 , . . . , en ).
Logo, uma matriz diagonalizante P não é mais do que uma matriz mudança de base, da
base (e1 , . . . , en ) para uma base (u1 , . . . , un ) de vectores próprios de h, pelo que as colunas
de uma matriz diagonalizante P são exactamente as coordenadas, em relação à base inicial,
de uma base (u1 , . . . , un ) de vectores próprios de h.
Na prática, para encontrar uma matriz P diagonalizante de A, basta-nos pois determinar
n vectores próprios linearmente independentes U1 , . . . , Un de A e tomar

P = [ U1 · · · Un ] .

Observe-se ainda que, neste caso, se λi é o valor próprio de A associado a Ui , para qualquer
i ∈ {1, . . . , n}, então  
λ1 0 · · · 0
 0 λ2 · · · 0 
−1
P AP =  .. ..  .
 
..
 . . . 
0 0 · · · λn

Exemplo 6.3.5 Seja f o endomorfismo de R3 representado, em relação à base canónica


(e1 , e2 , e3 ) de R3 , pela matriz  
1 0 −2
A= 0 0 0 .
−2 0 4
Diagonalização 117

Averiguemos se f é diagonalizável e, em caso afirmativo, calculemos uma matriz diagonal


que represente f (i. e. pretendemos diagonalizar a matriz A) e uma base em relação à qual
essa representação tem lugar.
A equação caracterı́stica de A é
|A − λI3 | = −λ3 + 5λ2 = 0,
pelo que os valores próprios de A são λ = 0 (de multiplicidade algébrica igual a dois) e λ = 5.
Calculamos de seguida os subespaços próprios de A.
Em primeiro lugar,
     
 x x x 
A
U0 =  y |A y =0· y  .
   
z z z
 

Como     
x 0  x = 2z
A y = 0
    ⇔ y∈R
z 0 z ∈ R,

então    *   +
 2z  2 0
U0A =  y  | y, z ∈ R =  0  ,  1  .
z 1 0
 

Observe-se que a multiplicidade geométrica de λ = 0 é igual a dois e que


U0 =< 2e1 + e3 , e2 > .
Por outro lado,      
 x x x 
A
U5 =  y |A y =5· y  .
   
z z z
 

Como     
x 0  z = −2x
(A − 5I3 ) y = 0
    ⇔ y=0
z 0 x ∈ R,

então    * 
 x  1 +
U5A =  0 |x∈R =  0  .
−2x −2
 

Neste caso, para o endomorfismo f tem-se


U5 =< e1 − 2e3 > .
Claramente, (v1 = 2e1 + e3 , v2 = e2 , v3 = e1 − 2e3 ) é uma base formada por vectores
próprios de h e  
0 0 0
D = M (f ; (vi ), (vi )) =  0 0 0 
0 0 5
118 Valores e Vectores Próprios

é uma matriz diagonal. Logo, f (e também A) é diagonalizável.


Também       
2 0 1
U1 =  0  , U2 =  1  , U3 =  0 
1 0 −2
são três vectores próprios linearmente independentes de A, pelo que
 
2 0 1
P = M (id; (vi ), (ei )) = [U1 U2 U3 ] =  0 1 0 
1 0 −2

é uma matriz diagonalizante de A. De facto,


 
0 0 0
P −1 AP = D =  0 0 0  .
0 0 5

Observação 6.3.6 Dada matriz A ∈ Mn×n (K), três situações podem ocorrer:
1. Existem n valores próprios distintos e então existem n vectores próprios linearmente
independentes associados aos n valores próprios. Portanto, a matriz A é diagonalizável;

2. Existem m valores próprios distintos, com m < n, mas existem n vectores próprios
linearmente independentes associados a esses valores próprios. De novo, a matriz A é
diagonalizável;

3. Existem m valores próprios distintos, com m < n, e não existe um conjunto com n
vectores próprios linearmente independentes. Neste caso, a matriz A não é diagona-
lizável.

6.4 Exercı́cios
1. Para cada uma das seguintes matrizes, determine os valores próprios e as suas multi-
plicidades algébricas:
     
1 0 −1 0 1 0 2−i 0 i
a) A =  1 2 1 . b) B =  0 0 1 . c) C =  0 1+i 0 .
2 2 3 1 −3 3 i 0 2−i

2. Seja λ um valor próprio de uma matriz invertı́vel A. Prove que se λ 6= 0 então λ−1 é
valor próprio de A−1 .

3. Para cada uma das seguintes matrizes determine os valores próprios e uma base para
os correspondentes subespaços próprios:
   
1 0 1 −2 5 7
a) A =  0 1 0  . b) B =  1 0 −1  .
1 0 1 −1 1 2
Exercı́cios 119

4. Verifique que a matriz  


−2 −3 −3
 −1 0 −1 
5 5 6
admite apenas dois valores próprios distintos. Para cada um destes dois valores
próprios, determine uma base do subespaço próprio associado.
5. Determine os valores próprios e as respectivas multiplicidades algébricas da aplicação
linear f : R3 −→ R3 definida por:
a) f (x, y, z) = (x + 2y + 2z, 2y + z, −x + 2y + 2z).
b) f (x, y, z) = (y + z, 0, x + y).
6. Seja f : R3 −→ R3 um endomorfismo de R3 cuja matriz relativamente à base
((1, 1, 1), (1, 1, 0), (1, 0, 0))
de R3 é:  
1 1 −1
M = 2 2 −2  .
−1 −1 1
Determine os valores próprios e os subespaços próprios do endomorfismo f .
7. Para cada uma das seguintes matrizes determine, se existir, uma matriz P tal que
P −1 AP seja uma matriz diagonal:
     
1 0 1 −2 5 7 −3 −7 19
a) A =  0 1 0  . b) A =  1 0 −1  . c) A =  −2 −1 8  .
1 0 1 −1 1 2 −2 −3 10
8. Suponha que A e B são duas matrizes de ordem n tais que In − AB é invertı́vel. Prove
que In − BA também é invertı́vel, tendo-se
(In − BA)−1 = In + B (In − AB)−1 A.
Deduza que AB e BA têm os mesmos valores próprios.
9. Para cada uma das seguintes matrizes determine, se existir, uma matriz P , invertı́vel,
tal que P −1 AP é uma matriz diagonal com os elementos da diagonal principal orde-
nados por ordem crescente:
   
1 0 1 3 −1 0
a) A =  0 1 0  . b) A =  −1 3 0 .
1 0 1 0 0 1
10. Determine a n-ésima potência da matriz
 
2 2 0
 1 2 1 .
1 2 1
120 Valores e Vectores Próprios

11. Seja B = P AP −1 , com A e P matrizes de ordem n, sendo P invertı́vel. Mostre que se


X é vector próprio de A, então P X é vector próprio de B.

12. Mostre que uma matriz A é invertı́vel se e só se não admite zero como valor próprio.

13. Sejam A e B duas matrizes de ordem n, com A invertı́vel. Mostre que AB e BA têm
o mesmo polinómio caracterı́stico.

14. Seja f um endomorfismo de R3 definido, em relação a uma certa base de R3 , pela


matriz:  
1 1 −1
 2 2 −2  .
−1 −1 1
Diga se f é diagonalizável e, em caso afirmativo, indique uma base em relação à qual
f seja representado pela matriz:
 
0 0 0
 0 0 0 .
0 0 4

15. Considere o subespaço F = {(x, y, z) ∈ R3 : x + 2y + z = 0} do espaço vectorial real


R3 . Seja f o endomorfismo de R3 tal que (1, −1, 0) é um vector próprio de f associado
ao valor próprio 2 e f (a, b, c) = (0, 0, 0), para qualquer (a, b, c) ∈ F.
a) Determine, justificando, f (2, −2, 0).
b) Justifique que 0 é um valor próprio de f e que as suas multiplicidades algébrica e
geométrica coincidem.
c) Justifique que ((1,-1,0),(1,1,-3),(1,0,-1)) é uma base de R3 constı́tuida por vectores
próprios de f .
d) Indique, justificando, uma matriz diagonal D que represente o endomorfismo f .
Determine a matriz de f relativamente à base ((1, −1, 0), (1, 1, −3), (1, 0, −1)) de R3 .

16. Seja A uma matriz de ordem n que admite n valores próprios distintos λ1 , λ2 , . . . , λn .
Mostre que |A| = λ1 λ2 . . . λn .
Capı́tulo 7

Produtos Interno, Externo e Misto

Neste capı́tulo consideramos o espaço vectorial real R3 (vectores do espaço) concretizado por
vectores livres ou por vectores aplicados referido a um sistema de eixos OXY Z.
A notação ~0 é usada para designar o vector nulo de R3 : ~0 = 0R3 .

7.1 Produto interno


-
Dado u = OP ∈ R3 , chamamos norma (ou comprimento) do vector u ao comprimento do
segmento de recta
-
[OP ]. -Representamos a norma do vector u por kuk.
Sejam a = OA, b = OB ∈ R3 . Dizemos que θ é o ângulo formado pelos vectores a e b (e
denotamos θ = ∠) (a, b)) se θ for o menor dos ângulos definido pela semi-recta de origem O
que passa pelo ponto A e pela semi-recta de origem O que passa pelo ponto B.

a
θ
O
b B

Observemos que θ = ∠) (a, b) ∈ [0, π].

Definição 7.1.1 Sejam a e b dois quaisquer vectores de R3 e seja θ o ângulo formado por
a e b. Chamamos produto interno dos vectores a e b ao número real

a|b = kakkbk cos θ.

Da definição anterior resulta de imediato que a|a = kak2 e, portanto,


p
kak = a|a.

Em particular,

121
122 Produtos interno, externo e misto

1. a|a = 0 se e só se a = ~0

2. a|a > 0, se a 6= ~0.

Por outro lado, da definição de produto interno e da lei do anulamento do produto, resulta

a|b = 0 ⇔ a = ~0 ou b = ~0 ou a ⊥ b.

Logo, a|b 6= 0, para quaisquer dois vectores a e b não nulos e não perpendiculares entre si.
Mais precisamente, sendo θ = ∠) (a, b), temos:

1. a|b > 0, se θ ∈ [0, π2 [;

2. a|b < 0, se θ ∈ ] π2 , π].

Observemos ainda que

1. a|b = kak projab, se a 6= ~0

2. a|b = kbk proj a, se b 6= ~0.


b

A
θ
θ
O U X U O X

- -
(a = OA, u = OU, θ = ∠) (a, u) =⇒ projua = kak cos θ)

Demonstra-se que:

Teorema 7.1.2 (Propriedades do produto interno) Sejam a, b e c três vectores de R3


e λ um número real. Então:

1. a|b = b|a;

2. λ(a|b) = (λa)|b = a|(λb);

3. (a + b)|c = a|c + b|c;

4. a|(b + c) = a|b + a|c.

Definição 7.1.3 Dados vectores v1 , . . . , vk de R3 , dizemos que (v1 , . . . , vk ) é uma sequência


ortogonal de vectores se os vectores v1 , . . . , vk forem ortogonais dois a dois, i.e. se vi |vj = 0,
para quaisquer i, j ∈ {1, . . . , k} tais que i 6= j. Dizemos que uma base (e1 , e2 , e3 ) de R3 é:

1. ortogonal se for uma sequência ortogonal de vectores;


Produto interno 123

2. ortonormada se for uma base ortogonal constituı́da por vectores de norma igual a um
(vectores unitários), i.e. se 
1 se i = j
ei |ej =
0 se i 6= j.

Observação 7.1.4
1. Se (v1 , . . . , vk ) é uma sequência ortogonal de vectores não nulos de R3 então é uma
sequência de vectores linearmente independente e, portanto, k ≤ 3. Em particular,
uma sequência ortogonal (v1 , v2 , v3 ) de R3 constituı́da por vectores não nulos é uma
base de R3 .

2. Sejam (e1 , e2 , e3 ) uma base ortogonal de R3 e x um vector de R3 . Então, existem


x1 , x2 , x3 ∈ R tais que x = x1 e1 + x2 e2 + x3 e3 . Sejam θ1 , θ2 e θ3 os ângulos que o
vector x faz respectivamente com os vectores e1 , e2 e e3 (aos co-senos destes ângulos
chamamos co-senos directores do vector x relativamente a (e1 , e2 , e3 )). Se (e1 , e2 , e3 )
for uma base ortonormada é válida a seguinte igualdade:

x = (proje x) e1 + (proje x) e2 + (proje x) e3 .


1 2 3

Neste caso,
x1 x2 x3
, e
kxk kxk kxk
são os co-senos directores do vector x relativamente a (e1 , e2 , e3 ).

É fácil provar que:

Teorema 7.1.5 Seja (e1 , e2 , e3 ) umaPbase de R3 . Dados vectores u = u1 e1 + u2 e2 + u3 e3 e


v = v1 e1 + v2 e2 + v3 e3 , temos u|v = 2i,j=1 (ui vj )(ei |ej ). Além disso, se a base (e1 , e2 , e3 ) é
ortonormada, então
u|v = u1 v1 + u2 v2 + u3 v3 .

Corolário 7.1.6 Se (e1 , e2 , e3 ) é uma base ortonormada de R3 e u = u1 e1 + u2 e2 + u3 e3 é


um vector de R3 , temos q
kuk = u21 + u22 + u23 .

Observação 7.1.7 O ângulo θ definido por dois vectores não nulos u e v é dado, através
do seu produto interno, pela expressão
u|v
cos θ = .
kukkvk

Logo, se (u1 , u2 , u3 ) e (v1 , v2 , v3 ) são as coordenadas de vectores u e v de R3 , respectivamente,


em relação a uma base ortonormada de R3 , podemos ainda escrever
u1 v 1 + u2 v 2 + u3 v 3
cos θ = p 2 p .
u1 + u22 + u23 v12 + v22 + v32
124 Produtos interno, externo e misto

Exemplos 7.1.8 Seja (e1 , e2 , e3 ) uma base ortonormada de R3 .


1. Sejam c e b os vectores de R3 de coordenadas (2, 1, 2) e (−2, 2, 1), respectivamente, em
relação à base considerada. Vamos mostrar que os vectores c e b são perpendiculares
entre si e determinar todos os vectores perpendiculares simultaneamente a c e a b com
comprimento igual a kckkbk.
Como c 6= ~0, b 6= ~0 e c|b = 2 · (−2) + 1 · 2 + 2 · 1 = 0, então c e b são perpendiculares.
Seja u = xe1 + ye2 + ze3 um vector perpendicular a c e a b de comprimento igual a
kckkbk. Então u|c = 0, u|b = 0 e kuk = kckkbk. Uma vez que
x = − z2
  
u|c = 0 2x + y + 2z = 0
⇔ ⇔
u|b = 0 −2x + 2y + z = 0 y = −z,
então u ⊥ c e u ⊥ b se e só se u é um vector de coordenadas (− z2 , −z, z), com z ∈ R\{0},
em relação à base (e1 , e2 , e3 ). Como queremos ainda que kuk = kckkbk, então
√ p
kck = 22 + 12 + 22 = 3 e kbk = (−2)2 + 22 + 12 = 3,
pelo que
r r
z 2 9 2
kuk = kckkbk ⇔ (− ) + (−z)2 + z 2 = 9 ⇔ z = 9 ⇔ z = 6 ∨ z = −6.
2 4
Logo, u1 = −3e1 − 6e2 + 6e3 e u2 = 3e1 + 6e2 − 6e3 = −u1 são os (únicos) dois vectores
de R3 nas condições requeridas.
Observação. Veremos na próxima secção que um destes dois vectores terá a designa-
ção de produto externo de b por c.
2. Consideremos os vectores u = e1 − e2 + e3 , v = 2e1 + e2 − e3 e w = e2 + e3 . Vamos
mostrar que estes três vectores definem um paralelipı́pedo rectângulo de volume igual
a seis.
Visto que u|v = 1 · 2 + (−1) · 1 + 1 · (−1) = 0, u|w = 1 · 0 + (−1) · 1 + 1 · 1 = 0,
v|w = 2 · 0 + 1 · 1 + (−1) · 1 = 0, u 6= ~0, v 6= ~0 e w 6= ~0, então os vectores u, v e w são
perpendiculares dois a dois e, portanto, definem um paralelipı́pedo rectângulo. Uma vez
que o volume V de um paralelipı́pedo rectângulo é dado pelo √ produto
√ √ dos comprimentos
das três arestas que o definem, temos V = kukkvkkwk = 3 6 2 = 6. H

7.2 Produto externo e produto misto


Nesta secção supomos que o sistema de eixos OXY Z considerado é directo:

O Y
X
Produto externo e produto misto 125

Definição 7.2.1 Sejam (u = (u1 , u2 , u3 ), v = (v1 , v2 , v3 ), w = (w1 , w2 , w3 )) uma base de R3


e  
u1 v1 w1
P =  u2 v2 w2  .
u3 v3 w3
Dizemos que (u, v, w) é uma base directa de R3 se |P | > 0. Caso contrário, i.e. se |P | < 0,
dizemos que a base (u, v, w) é inversa.

Observação 7.2.2
1. A base canónica de R3 é uma base directa.
2. Seja (e1 , e2 , e3 ) uma base de R3 . Como consequência das propriedades do determinante
de uma matriz, temos de imediato:
(a) As bases (e1 , e3 , e2 ), (e3 , e2 , e1 ) e (e2 , e1 , e3 ), i.e. as bases obtidas a partir de
(e1 , e2 , e3 ) por troca das posições de dois dos seus vectores, são inversas se e só se
a base (e1 , e2 , e3 ) é directa.
(b) Se λ > 0, as bases (λe1 , e2 , e3 ), (e1 , λe2 , e3 ) e (e1 , e2 , λe3 ) são directas se e só se a
base (e1 , e2 , e3 ) é directa.
(c) Se λ < 0, as bases (λe1 , e2 , e3 ), (e1 , λe2 , e3 ) e (e1 , e2 , λe3 ) são inversas se e só se a
base (e1 , e2 , e3 ) é directa.
(d) As bases (e2 , e3 , e1 ) e (e3 , e1 , e2 ) são directas se e só se a base (e1 , e2 , e3 ) é directa.

Pode-se demonstrar que:

Teorema 7.2.3 Sejam u e v dois vectores linearmente independentes de R3 e λ um número


real positivo. Então, existe um e um só vector w de R3 que verifica simultaneamente as
seguintes três condições:
1. w é perpendicular a u e a v;
2. (u, v, w) é uma base directa de R3 ;
3. w tem norma igual a λ.

Definição 7.2.4 Sejam u e v dois vectores de R3 . Chamamos produto externo ou produto


vectorial do vector u pelo vector v ao vector de R3 , que denotamos por u × v ou por u ∧ v,
definido do seguinte modo:
1. Se u e v são linearmente dependentes, então u × v = ~0;
2. Se u e v são linearmente independentes, u × v é o vector perpendicular aos vectores u
e v de norma igual a
kukkvksen(θ)
tal que (u, v, u × v) é uma base directa de R3 , sendo θ o ângulo formado pelos vectores
u e v.
126 Produtos interno, externo e misto

Observação 7.2.5
1. A definição anterior faz sentido, já que, se u e v são vectores linearmente independentes,
então kuk, kvk > 0 e 0 < θ < π e, portanto, kukkvksen(θ) > 0. Donde, existe um único
vector nessas condições.

2. Sejam u e v vectores linearmente independentes de R3 e seja n o vector unitário de R3


perpendicular aos vectores u e v tal que a base (u, v, n) de R3 é directa. Então, temos

u × v = kukkvksen(θ) n.

3. O produto externo não é comutativo. De facto, dados vectores u e v de R3 , temos

u × v = −v × u

e, portanto, se u e v forem linearmente independentes, u × v 6= v × u, já que, neste


caso, u × v 6= ~0.

4. O produto externo não é associativo.

Exemplo 7.2.6 (Aplicações)


1. Sejam O, A, B e C quatro vértices consecutivos de um paralelogramo tais que
- - π
θ = ∠) (OA, OC) ≤ .
2

- - -
Se C 0 é o ponto do segmento [OC] tal que C 0 O|C 0 A = 0, então kC 0 Ak é a altura do
paralelogramo, pelo que, sendo A a área do paralelogramo, temos
- - - - - -
A = kOCkkC 0 Ak = kOCkkOAksen(θ) = kOC × OAk.

Em particular, a área de um triângulo [OAB] é dada por


- -
kOA × OBk
A[OAB] = .
2
- - -
2. Sejam u = OA, v = OB e w = OC três vectores não complanares de R3 . Então, os
vectores u, v e w definem um paralelipı́pedo de volume V não nulo. Consideremos a
sua base definida pelos vectores u e v aplicados no ponto O. Sendo B a área desta base
e h a altura do paralelipı́pedo, temos V = Bh.
Produto externo e produto misto 127

uxv
D

θ C
h

O B

Sejam R a recta perpendicular ao plano definido pelos pontos O, A e B e que passa


pelo ponto O, D o ponto da recta R que pertence ao plano que contém a outra base
do paralelipı́pedo
- -
(i.e. a base-definida
-
pelos vectores
-
u e v aplicados
-
no ponto C) e
π
θ = ∠) (OC, OD). Então, ∠) (DC, DO) = 2 e h = kODk = kOCk cos(θ) = kwk cos(θ),
pelo que
V = Bh = ku × vkkwk cos(θ).
Uma vez que θ = ∠) (u × v, w) (se a base (u, v, w) é directa) ou θ = π − ∠) (u × v, w) (se
a base (u, v, w) é inversa), então

cos ∠) (u × v, w) = cos(θ) ou cos ∠) (u × v, w) = − cos(θ),

pelo que
V = | (u × v)|w |.

Definição 7.2.7 Sejam u, v e w três vectores de R3 . Ao número real (u × v)|w chamamos


produto misto dos vectores u, v e w (por esta ordem).

Demonstra-se que:

Teorema 7.2.8 (Propriedades do produto misto) Sejam u, v e w três vectores de R3 .


Então:

1. (u × v)|w = 0 se e só se os vectores u, v e w são linearmente dependentes;

2. (u × v)|w > 0 se e só se (u, v, w) é uma base directa de R3 ;

3. (u × v)|w < 0 se e só se (u, v, w) é uma base inversa de R3 ;

4. (u × v)|w = (w × u)|v = (v × w)|u;

5. (u × v)|w = −(v × u)|w = −(w × v)|u = −(u × w)|v;

6. (u × v)|w = u|(v × w).


128 Produtos interno, externo e misto

Teorema 7.2.9 (Propriedades do produto externo) Sejam u, v e w três vectores de


R3 e λ um número real. Então:
1. u × v = −v × u;
2. λ(u × v) = (λu) × v = u × (λv);
3. (u + v) × w = (u × w) + (v × w);
4. u × (v + w) = (u × v) + (u × w).

É fácil provar que:


Teorema 7.2.10 Seja (e1 , e2 , e3 ) uma base ortonormada directa de R3 . Então,
u × v = (α2 β3 − α3 β2 )e1 + (α3 β1 − α1 β3 )e2 + (α1 β2 − α2 β1 )e3 ,
para quaisquer vectores u = α1 e1 + α2 e2 + α3 e3 e v = β1 e1 + β2 e2 + β3 e3 de R3 .

Nas condições do teorema anterior podemos escrever simbolicamente



e1 e2 e3

u × v = α1 α2 α3 .
β1 β2 β3
Notemos que o desenvolvimento de Laplace deste “determinante”pela primeira linha é exac-
tamente a expressão estabelecida no teorema anterior.

Exemplos 7.2.11 Seja (e1 , e2 , e3 ) uma base ortonormada directa de R3 .


1. Consideremos os vectores a = e2 + e3 e b = e1 + e2 + e3 de R3 . Então,

e1 e2 e3
1 1 0 1 0 1
a × b = 0 1 1 =

e1 − 1 1 e2 + 1 1 e3 = 0e1 + e2 − e3 = e2 − e3 .

1 1 1 1
1

2. Sejam u = e1 + 2e2 − e3 e v = 2e1 + e2 + e3 dois vectores de R3 . Como u e v são


linearmente independentes, então definem um paralelogramo. Vamos calcular a sua
área A. Como

e1 e2 e3

u × v = 1 2 −1
2 1 1

2 −1 1 −1 1 2
=
e1 − e2 + e3
1 1 2 1 2 1

= 3e1 − 3e2 − 3e3 ,


p √
então A = ku × vk = 32 + (−3)2 + (−3)2 = 3 3. H
Exercı́cios 129

É fácil demonstrar que:

Teorema 7.2.12 Seja (e1 , e2 , e3 ) uma base ortonormada directa de R3 . Então, dados os
vectores u = u1 e1 + u2 e2 + u3 e3 , v = v1 e1 + v2 e2 + v3 e3 , w = w1 e1 + w2 e2 + w3 e3 ∈ R3 , tem-se

u1 u2 u3

(u × v)|w = v1 v2 v3 .
w1 w2 w3

Exemplo 7.2.13 Sejam (e1 , e2 , e3 ) uma base ortonormada directa de R3 e u = −e2 , v =


e1 + e3 e w = e1 três vectores de R3 . Vamos verificar que os vectores u, v e w definem um
tetraedro (quando aplicados num ponto) e determinar o seu volume V.
- - -
Se A, B, C e D são quatro pontos de R3 tais que u = AB, v = AC e w = AD, então A,
B, C e D são os vértices de um tetraedro (não trivial) se e só se os vectores u, v e w são
linearmente independentes. Além disso, o volume do tetraedro de vértices A, B, C e D é
igual a um sexto do volume do paralelipı́pedo definido pelas arestas [AB], [AC] e [AD] (já
que neste podemos inscrever seis tetraedros congruentes com o tetraedro considerado). Uma
vez que
0 −1 0

(u × v)|w = 1 0 1 = −1,
1 0 0
então os vectores u, v e w são linearmente independentes e o volume do paralelipı́pedo por
eles definido é igual a V 0 = | u × v|w | = 1, pelo que V = 61 V 0 = 61 . H

7.3 Exercı́cios
Nos exercı́cios seguintes consideramos sempre uma base ortonormada directa (e1 , e2 , e3 ).

1. Considere os vectores

a = 2e1 + αe2 + e3 e b = 4e1 − 2e2 − 2e3

Determine para que valor de α ∈ R os vectores são perpendiculares.

2. Determine o ângulo dos vectores

a = 2e1 + e2 − e3 e b = 6e1 − 3e2 + e3 .

3. Determine o seno do ângulo dos vectores

a = e1 + e2 + e3 e b = e1 − 2e2 + 3e3 .

4. Sejam u = e1 − e2 + e3 v = e2 + e3 e w = e1 + e2 . Determine:

(a) u × v.
130 Produtos interno, externo e misto

(b) (u × v) × w.
(c) u × (v × w).

(d) Um vector perpendicular a u e a v, de norma igual a 15 .

5. Determine a área do triângulo que tem por vértices os pontos A = (1, 2, 3), B =
(2, −1, 1) e C = (−1, 2, 3).
−→ −−→
6. Sejam OA = e1 − 3e2 + 2e3 e OB = 2e1 + e2 − e3 . Justifique que os pontos O, A e B
definem um plano e determine um vector unitário perpendicular a esse plano.

7. Considere vectores a = e1 + e2 , b = e2 + e3 e c = e1 + e3 . Calcule o volume do


paralelepı́pedo definido pelos vectores a, b e c.

8. Sejam u = e1 − e2 e v = e1 + e2 + e3 . Determine k ∈ R de modo que o vector


w = ke1 + 2e2 − e3 e os vectores u e v sejam complanares.

9. Resolva a equação vectorial

x × (e1 − 2e2 + 2e3 ) = 4e1 + e2 − e3 .



Das soluções obtidas indique as que têm norma igual a 6 .

10. No referencial ortonormado (O; e1 , e2 , e3 ) considere os seguintes vectores:

a = 2e1 + αe2 + e3 e b = 4e1 − 2e2 − 2e3 .

Determine para que valor de α os vectores são perpendiculares.

11. No referencial ortonormado (O; e1 , e2 , e3 ) considere os seguintes vectores:

a = 2e1 + e2 − e3 e b = 6e1 − 3e2 + e3 .

Determine o ângulo dos vectores a e b.

12. No referencial ortonormado (O; e1 , e2 , e3 ) considere os seguintes vectores:

a = e1 + e2 + e3 e b = e1 − 2e2 + 3e3 .

Determine o co-seno e o seno do ângulo dos vectores a e b.

13. Considere, no referencial ortonormado e directo (O; e1 , e2 , e3 ), os seguintes vectores:


u = e1 − e2 + e3 , v = e2 + 2e3 e w = e1 + e2 . Determine:
a) u × v;
b) v × w;
Exercı́cios 131

c) (u × v) × w;
d) u × (v × w);

e) um vector perpendicular a u e a v, de norma igual a 15.

14. Determine, considerando o referencial ortonormado e directo (O; e1 , e2 , e3 ), a área do


triângulo que tem por vértices os pontos: A = (1, 2, 3), B = (2, −1, 1) e C = (−1, 2, 3).

15. No referencial ortonormado (O; e1 , e2 , e3 ) considere os seguintes vectores:


−→ −→
OA= e1 − 3e2 + 2e3 e OB= 2e1 + e2 − e3 .

Justifique que os pontos O, A e B definem um plano e determine um vector unitário


perpendicular a esse plano.

16. No referencial ortonormado (O; e1 , e2 , e3 ) considere os vectores

a = e1 + e2 , b = e2 + e3 , c = e1 + e3 .

Calcule o volume do paralelipı́pedo determinado pelos vectores a, b e c.

−→
17. No referencial ortonormado directo (O; e1 , e2 , e3 ) considere os seguintes vectores: OP =
−→
2e1 − e2 + e3 e OQ= e1 + e2 + e3 . Determine:
−→
a) A decomposição cartesiana do vector P Q e os seus co-senos directores;
−→
b) A projecção de P Q sobre o vector do plano OXY que faz com os eixos OX e OY ,
respectivamente, os ângulos de 30o e 60o ;
c) A área do triângulo [OP Q].

18. Considere o referencial ortonormado directo (O; e1 , e2 , e3 ).


a) Determine λ de modo que sejam perpendiculares os vectores u = (2, −1, 1/5) e
v = (λ, −3, λ2 ).
b) Considere os vectores a = (3, −1, 0) e b = (1, 1, 1).
(i) Determine o ângulo de a e b;
(ii) Calcule projb a e proja b;
(iii) Determine a expressão geral dos vectores perpendiculares ao vector b;
(iv) Determine um vector unitário perpendicular aos vectores a e b.
c) Dados os pontos A = (6, 0, 0), B = (2, 3, 0) e C = (1, 5, k), determine k de modo
−→ −→
que os vectores AB e BC formem um ângulo de 60o .
132 Geometria Analı́tica

g) Mostre que os pontos P = (5, 2, 0), Q = (−2, 2, −1), R = (2, 2, −4) e S = (1, 2, 3)
são vértices de um quadrado. Suponha que esse quadrado é a face de um cubo e
determine as coordenadas dos restantes vértices do cubo.

19. Considere o referencial ortonormado directo (O; e1 , e2 , e3 ) e os vectores u = e1 − e2 e


v = e1 + e2 + e3 . Determine k de modo que o vector w = ke1 + 2e2 − e3 e os vectores
u e v sejam complanares.

20. Considere o referencial ortonormado directo (O; e1 , e2 , e3 ) e os pontos

A = (0, k, −3), B = (−1, 2, 2), C = (2, −3, 0).

Determine k de modo que:


a) O volume do paralelipı́pedo de arestas [OA], [OB] e [OC] seja igual a 10;
b) Os pontos O, A, B e C sejam complanares.
Capı́tulo 8

Geometria Analı́tica

8.1 Espaços afins


Definição 8.1.1 Seja E um espaço vectorial sobre um corpo K. Dizemos que um conjunto
E, não vazio, é um espaço afim associado ao espaço vectorial E, se existe uma aplicação
ϕ : E × E −→ E que verifica as seguintes condições:
1. Para quaisquer A ∈ E e v ∈ E, existe um e um só B ∈ E tal que v = ϕ(A, B);
2. Para quaisquer A, B, C ∈ E, ϕ(A, B) + ϕ(B, C) = ϕ(A, C).

Exemplo 8.1.2 Sejam E o conjunto dos pontos do espaço (tridimensional) e E o espaço


vectorial real dos vectores livres do espaço (tridimensional). Consideremos a aplicação
ϕ: E×E −→ E
-
(A, B) 7→ AB.
Esta aplicação verifica as condições da definição anterior, pelo que E é um espaço afim
associado ao espaço vectorial real E. Designamo-lo por espaço afim ordinário.
Consideremos agora um sistema de eixos OXY Z de E e identifiquemos o conjunto E
com o conjunto R3 dos ternos ordenados de números reais. Consideremos também o espaço
vectorial real R3 concretizado por vectores livres, referido ao sistema de eixos OXY Z.
A aplicação ϕ considerada atrás pode então ser reescrita da seguinte forma:
ϕ : R3 × R3 −→ R3
definida por
ϕ((x1 , x2 , x3 ), (y1 , y2 , y3 )) = (y1 − x1 , y2 − x2 , y3 − x3 )
Observemos que esta aplicação também confere abstractamente ao conjunto R3 a estru-
tura de espaço afim associado ao espaço vectorial real R3 .

Definição 8.1.3 Sejam E um espaço afim associado a um espaço vectorial E sobre um


corpo K e ϕ : E × E −→ E a aplicação considerada na sua construção.
Tendo por modelo o espaço afim do exemplo anterior, adoptamos para E as seguintes
notações e designações:

133
134 Geometria Analı́tica

1. Aos elementos de E chamamos pontos e, em geral, representamo-los por letras maiús-


culas: A, B, C, . . . , X, Y, Z;
-
2. Dados dois pontos A e B de E, representamos o vector ϕ(A, B) de E por AB ou por
B − A (e dizemos que este vector é a diferença do ponto B com o ponto A);

3. Dados-um ponto A de E e um vector u de E, representamos


-
o ponto B de E tal que
u = AB por A + u, i.e. B = A + u ⇔ u = AB, e ao ponto B chamamos soma do
ponto A com o vector u.

É fácil demonstrar que:

Teorema 8.1.4 (Propriedades elementares) Seja E um espaço afim associado a um


espaço vectorial E sobre um corpo K. Então:

1. Sendo O um ponto-de E, a aplicação de E em E que a cada ponto A de E faz corres-


ponder o vector OA de E é uma bijecção;

2. Dados dois pontos A e B de E e dois vectores u e v de E temos:


-
(a) AA = ~0;
-
(b) AB = ~0 ⇒ A = B;
- -
(c) AB = −BA;
(d) (A + u) + v = A + (u + v).

Definição 8.1.5 Sejam E um espaço afim associado a um espaço vectorial E sobre um


corpo K, F um subconjunto não vazio de E e F um subespaço vectorial de E. Dizemos que
F é um subespaço afim de E associado ao subespaço vectorial F se:
-
1. ∀ A, B ∈ F, AB ∈ F ;

2. ∀ A ∈ F e ∀ v ∈ F , A + v ∈ F.

É fácil demonstrar que:

Teorema 8.1.6 Sejam E um espaço afim associado a um espaço vectorial E sobre um corpo
K, F um subconjunto não vazio de E e F um subespaço vectorial de E. Dado um ponto P
de F, as seguintes condições são equivalentes:

1. F é um subespaço afim de E associado ao subespaço vectorial F ;

2. F = {P + v | v ∈ F }.

Nas condições do teorema anterior, denotamos por P + F o conjunto {P + v | v ∈ F }.


Espaços afins 135

Definição 8.1.7 Sejam E um espaço afim associado a um espaço vectorial E de dimensão


finita sobre um corpo K e F um subespaço afim de E associado a um subespaço vectorial
F de E. Chamamos dimensão de F, e representamos por dim F, à dimensão do subespaço
vectorial F . Em particular, dim E = dim E.

Exemplos 8.1.8

1. Seja E o espaço afim ordinário. Então:

(a) dim E = dim E = 3;


(b) Os subespaços afins de E de dimensão zero são os “pontos”, i.e. os subconjuntos
de E com um único elemento;
(c) Os subespaços afins de E de dimensão um são as rectas:

R = P + < u >,

com P ∈ E e u ∈ E \ {~0} (a um vector não nulo do subespaço vectorial < u >


chamamos direcção ou vector director da recta R);
(d) Finalmente, os subespaços afins de E de dimensão dois são os planos:

P = P + < u, v >,

com P ∈ E e u e v dois vectores livres linearmente independentes (os vectores do


subespaço vectorial < u, v > são, por vezes, designados por vectores do plano P).

2. Consideremos agora o espaço afim do exemplo anterior identificado com R3 e seja


(e1 , e2 , e3 ) a base canónica do espaço vectorial real R3 (concretizado por vectores livres,
referido ao sistema de eixos OXY Z). Então:

(a) As rectas

R1 = O+ < e1 >, R2 = O+ < e2 > e R3 = O+ < e3 >

são, respectivamente, os eixos OX, OY e OZ;


(b) Os planos

P1 = O+ < e1 , e2 >, P2 = O+ < e1 , e3 > e P3 = O+ < e2 , e3 >

são, respectivamente, os planos OXY , OXZ e OY Z. H

Definição 8.1.9 Seja E um espaço afim associado a um espaço vectorial E de dimensão


finita sobre um corpo K.

1. A um (n + 1)-uplo do tipo (O; v1 , . . . , vn ) em que O é um ponto de E e (v1 , . . . , vn ) é


uma base de E chamamos referencial de E.
136 Geometria Analı́tica

2. Sejam (O; v1 , . . . , vn ) um referencial de E e P um ponto de E. Chamamos coordenadas -


do ponto P relativamente ao referencial (O; v1 , . . . , vn ) às coordenadas do vector OP na
base (v1 , . . . , vn ), ou seja, ao n-uplo (α1 , . . . , αn ) ∈ Kn tal que P = O+α1 v1 +· · ·+αn vn .

A partir de agora consideramos apenas o espaço afim ordinário. Identificamo-lo com R3


por meio de um sistema de eixos OXY Z ortonormado e directo.
Observemos que, nestas condições, a base canónica (e1 , e2 , e3 ) de R3 é ortonormada e
directa. Além disso, as coordenadas de um qualquer ponto relativamente ao sistema de eixos
OXY Z e relativamente ao referencial (O; e1 , e2 , e3 ) coincidem. A este referencial chamamos
referencial canónico de R3 . Um referencial de R3 diz-se ortonormado se a base associada for
ortonormada.

8.2 Representações cartesianas da recta e do plano


De agora em diante consideramos fixado o referencial canónico.

Seja R uma recta de R3 . Sendo P = (a, b, c) um ponto da recta R e u = (u1 , u2 , u3 ) um


vector com a sua direcção, podemos escrever

R = P+ < u > .

Dados dois pontos distintos A e B de R, podemos ainda escrever


-
R = A+ < AB > .

Seja X = (x, y, z) um ponto qualquer da recta. Então, existe um número real λ tal que
X = P + λu. Por outro lado, qualquer ponto X da forma X = P + λu, com λ ∈ R, é um
ponto de R. Logo, a expressão X = P + λu, λ ∈ R, ou seja,

(x, y, z) = (a, b, c) + λ(u1 , u2 , u3 ), λ ∈ R, (1)

dá-nos uma representação analı́tica da recta R, que designamos por equação vectorial da
recta R. Da expressão (1) resulta de imediato o “sistema de equações”

 x = a + λu1
y = b + λu2 (2)
z = c + λu3 , λ ∈ R,

ao qual chamamos equações paramétricas da recta R.

Exemplos 8.2.1
1. Seja R a recta que passa pelo ponto P = (1, 1, 1) e tem a direcção do vector u = (1, 0, 2).
Uma vez que R = (1, 1, 1)+ < (1, 0, 2) >, então

(x, y, z) = (1, 1, 1) + λ(1, 0, 2), λ∈R


Representações cartesianas da recta e do plano 137

é uma equação vectorial de R.


Para obter outra equação vectorial da recta, basta-nos determinar um outro ponto
de R ou um vector diferente de u, mas com a direcção deste. Por exemplo, na equação
anterior fazendo λ = 1 obtemos o ponto Q = (2, 1, 3) da recta R. Logo,

(x, y, z) = (2, 1, 3) + λ(1, 0, 2), λ∈R

é outra equação vectorial da recta R.


Também
(x, y, z) = (1, 1, 1) + λ(2, 0, 4), λ∈R
é ainda uma equação vectorial de R.

2. Consideremos-a recta R definida


-
pelos pontos A = (2, 0, 1) e B = (−1, 2, −1). Então,
R = A+ < AB >. Como AB = B − A = (−3, 2, −2), então

(x, y, z) = (2, 0, 1) + λ(−3, 2, −2), λ∈R

é uma equação vectorial da recta R. Desta equação obtemos o seguinte sistema de


equações paramétricas de R:

 x = 2 − 3λ
y = 2λ
z = 1 − 2λ, λ ∈ R. H

Voltemos a considerar a recta R = (a, b, c)+ < (u1 , u2 , u3 ) >. Seja X = (x, y, z) um
ponto qualquer do espaço.
Suponhamos que u1 , u2 , u3 6= 0. Então

X ∈ R ⇔ ∃ λ ∈ R : (x, y, z) = (a, b, c) + λ(u1 , u2 , u3 )



 x = a + λu1
⇔ ∃λ∈R: y = b + λu2
z = c + λu3

 x−a
 λ=
u1







 y−b
⇔ ∃λ∈R: λ=

 u2





 λ= z−c
,

u3
i.e.
x−a y−b z−c
X = (x, y, z) ∈ R ⇔ = = . (3)
u1 u2 u3
138 Geometria Analı́tica

Se u1 = 0 e u2 , u3 6= 0, então
X ∈ R ⇔ ∃ λ ∈ R : (x, y, z) = (a, b, c) + λ(0, u2 , u3 )

 x=a
⇔ ∃λ∈R: y = b + λu2
z = c + λu3

y−b z−c
⇔ x=a e = . (3.1)
u2 u3
De forma análoga, se u2 = 0 e u1 , u3 6= 0,
x−a z−c
X∈R ⇔ y=b e = (3.2)
u1 u3
e, se u3 = 0 e u1 , u2 6= 0,
x−a y−b
X∈R ⇔ z=c e = . (3.3)
u1 u2
Se u1 6= 0 e u2 = u3 = 0 é fácil ver que
X∈R ⇔ y = b e z = c. (3.4)
Analogamente, se u2 6= 0 e u1 = u3 = 0,
X∈R ⇔ x=a e z=c (3.5)
e, se u3 6= 0 e u1 = u2 = 0,
X∈R ⇔ x = a e y = b. (3.6)
Às equações, nas incógnitas x, y e z, do tipo (3) a (3.6) chamamos equações normais da
recta R.

Exemplo 8.2.2 Sejam R1 , R2 e R3 as rectas representadas pelas equações vectoriais


(x, y, z) = (1, 2, 3) + λ(0, 0, 2), λ ∈ R,
(x, y, z) = (−3, 1, 0) + λ(−1, 2, −3), λ∈R
e
(x, y, z) = (−1, 2, −4) + λ(2, 3, 0), λ ∈ R,
respectivamente. Então
x+1 y−2


x+3 y−1 z−0
 =
x=1

= = e 2 3
y = 2, −1 2 −3 
z = −4

são equações normais das rectas R1 , R2 e R3 , respectivamente. H


Representações cartesianas da recta e do plano 139

Uma vez mais consideremos a recta R que passa pelo ponto P = (a, b, c) e tem a direcção
do vector u = (u1 , u2 , u3 ). Então, um ponto X = (x, y, z) pertence à recta R se e só se existe
um número real λ tal que (x, y, z) = (a, b, c) + λ(u1 , u2 , u3 ).
Admitamos que u3 6= 0. Então,
 z−c
 λ=
u3
 

 x = a + λu1



(x, y, z) = (a, b, c) + λ(u1 , u2 , u3 ) ⇔ y = b + λu2 ⇔ x = mz + p
z = c + λu3
 





y = nz + q,
u1 u2 cu1 cu2
em que m = , n = , p = a − e q =b− . Assim, neste caso,
u3 u3 u3 u3

 x = mz + p
(x, y, z) ∈ R ⇔
y = nz + q. (4.1)

Observemos que, sendo o ponto Q3 = (p, q, 0) uma solução do sistema de equações (4.1),
então Q3 é um ponto da recta R. Além disso, Q3 é o ponto de intersecção da recta R
com o plano OXY . Das equações (4.1) podemos ainda facilmente concluir que o vector
v = (m, n, 1) é um vector director de R.
De forma análoga à anterior, admitindo que u2 6= 0, temos

 x = my + p
(x, y, z) ∈ R ⇔
z = ny + q, (4.2)

u1 u3 bu1 bu3
em que m = , n = , p = a− e q = c− . Neste caso, Q2 = (p, 0, q) é o ponto da
u2 u2 u2 u2
recta R que intersecta o plano OXZ e v 0 = (m, 1, n) é um seu vector director.
u2
Finalmente, se u1 6= 0, tal como nos casos anteriores, é fácil ver que, sendo m = ,
u1
u3 au2 au3
n= , p=b− e q =c− , então
u1 u1 u1

 y = mx + p
(x, y, z) ∈ R ⇔
z = nx + q. (4.3)

Também, Q1 = (0, p, q) é o ponto da recta R que intersecta o o plano OY Z e v 00 = (1, m, n)


é um seu vector director.
Aos sistemas de equações (4.1), (4.2) ou (4.3) chamamos equações reduzidas de R.
As equações normais e as equações reduzidas de uma recta são, em qualquer dos casos,
um sistema de duas equações lineares independentes a três incógnitas, i.e. equivalentes a um
sistemas de equações do tipo

 ax + by + cz + d = 0

a0 x + b0 y + c0 z + d0 = 0,

140 Geometria Analı́tica

em que  
a b c
r = 2.
a0 b 0 c 0
Reciprocamente, é fácil ver que, qualquer sistema do tipo anterior representa uma recta, i.e.
o conjunto das suas soluções dá-nos as coordenadas dos pontos de uma determinada recta.
As equações normais, as equações reduzidas ou qualquer outro sistema de duas equações
lineares, nas variáveis x, y e z, que lhes seja equivalente são representações cartesianas não
paramétricas da recta.

Exemplos 8.2.3
1. Determinemos um sistema de equações reduzidas da recta R que passa pelos pontos
A = (2, 4, 0) e B = (3, 7, 1). Ora,
-
R = A+ < AB >= (2, 4, 0)+ < (1, 3, 1) >,

pelo que
x−2 y−4 z−0
= =
1 3 1
é um sistema de equações normais da recta R. Resolvendo este sistema em ordem a
duas das suas variáveis, por exemplo em ordem a x e y, obtemos o sistema

x=z+2
y = 3z + 4,
ou seja, obtemos um sistema de equações reduzidas da recta R.
2. Consideremos a recta R representada pelo seguinte sistema de equações cartesianas
não paramétricas 
x+y+z =0
x − y − z − 2 = 0.
e determinemos uma equação vectorial desta recta. Começando por determinar um
sistema de equações reduzidas da recta R, obtemos

x=1
y = −z − 1

e portanto P = (1, −1, 0) é um ponto de R e que v = (0, −1, 1) é uma sua direcção.
Assim,
(x, y, z) = (1, −1, 0) + λ(0, −1, 1), λ ∈ R
é uma equação vectorial da recta R. H

Sejam P = (p1 , p2 , p3 ) um ponto de R3 e u = (u1 , u2 , u3 ) e v = (v1 , v2 , v3 ) dois vectores


linearmente independentes. Consideremos o plano P definido pelo ponto P e pelos vectores
u e v, i.e.
P = P + < u, v > .
Representações cartesianas da recta e do plano 141

Dados três pontos A, B e C não colineares do plano P, temos também


- -
P = A+ < AB, AC > .
- -
Observemos que, sendo A, B e C três pontos não colineares, então os vectores AB e AC são
linearmente independentes.
Seguidamente vamos determinar algumas representações analı́ticas do plano P.
Seja X = (x, y, z) um ponto de R3 . É imediato que X é um ponto de P se e só se existem
dois números reais λ e µ tais que X = P + λu + µv. Então, a expressão

X = P + λu + µv, λ, µ ∈ R,

ou seja,

(x, y, z) = (p1 , p2 , p3 ) + λ(u1 , u2 , u3 ) + µ(v1 , v2 , v3 ), λ, µ ∈ R, (5)

dá-nos uma representação analı́tica do plano P. A uma representação do plano P deste tipo
chamamos equação vectorial de P.
De (5) resulta o “sistema de equações”

 x = p1 + λu1 + µv1
y = p2 + λu2 + µv2 (6)
z = p3 + λu3 + µv3 , λ, µ ∈ R,

que designamos por equações paramétricas do plano P.

Exemplos 8.2.4

1. Vamos determinar uma equação vectorial de um plano P que -


passa pelos pontos A =
(1,-2, 3), B = (5, 7, 9) e C = (8, 10, 12). Uma
-
vez
-
que AB = B − A = (4, 5, 6) e
AC = C − A = (7, 8, 9), então os vectores AB e AC são linearmente independentes e,
portanto, o plano P está univocamente determinado, ou seja, existe um e um só plano
que passa pelos pontos A, B e C. Logo,
- -
P = A+ < AB, AC >= (1, 2, 3)+ < (4, 5, 6), (7, 8, 9) >

e então, por exemplo,

(x, y, z) = (1, 2, 3) + λ(4, 5, 6) + µ(7, 8, 9), λ, µ ∈ R

é uma equação vectorial de P.

2. Sejam P = (0, 0, 1) um ponto de um plano P e u = (1, −1, 2) e v = (2, 1, −3) dois


vectores do mesmo plano P. Como u e v são vectores linearmente independentes, então
P = P + < u, v >, pelo que

(x, y, z) = (0, 0, 1) + λ(1, −1, 2) + µ(2, 1, −3), λ, µ ∈ R


142 Geometria Analı́tica

é uma equação vectorial de P. Desta representação deduz-se de imediato o seguinte


sistema de equações paramétricas do plano P:

 x = λ + 2µ
y = −λ + µ
z = 1 + 2λ − 3µ, λ, µ ∈ R. H

Seja X = (x, y, z) um ponto qualquer de R3 . Então,

X∈P ⇔ X ∈ P + < u, v >


-
⇔ P X ∈< u, v >
-
⇔ P X|(u × v) = 0

x − p1 y − p2 z − p3

⇔ u1
u2 u3 =0

v1 v2 v3

(observe-se que estamos a considerar vectores escritos em relação a uma base ortonormada
e directa de R3 ). Logo,

X ∈ P ⇔ (x − p1 )(u2 v3 − u3 v2 ) − (y − p2 )(u1 v3 − u3 v1 ) + (z − p3 )(u1 v2 − u2 v1 ) = 0,

ou seja, sendo a = u2 v3 − u3 v2 , b = u3 v1 − u1 v3 , c = u1 v2 − u2 v1 e d = −(p1 a + p2 b + p3 c),


temos
X = (x, y, z) ∈ P ⇔ ax + by + cz + d = 0.
Assim, os pontos do plano P são os pontos de R3 cujas coordenadas são as soluções da
equação linear (nas variáveis x, y e z)

ax + by + cz + d = 0. (7)

A qualquer equação do tipo (7) cujas soluções sejam as coordenadas dos pontos do plano
P chamamos equação geral de P.
Observemos que a partir de um sistema de equações paramétricas do plano P podemos
também (por eliminação dos parâmetros) obter uma equação geral de P.
Vimos então que um plano pode ser representado por uma equação linear independente
a três incógnitas. Reciprocamente, é fácil ver que, toda a equação linear independente a três
incógnitas nos dá uma representação cartesiana (não paramétrica) de algum plano.
Observemos que, uma vez que o referencial que fixámos é ortonormado e directo, então o
vector w de coordenadas (a, b, c) é precisamente o produto externo dos vectores u e v, pelo
que w é, em particular, um vector perpendicular ao plano P, i.e. perpendicular a todos os
vectores não nulos do plano P.
Representações cartesianas da recta e do plano 143

Exemplos 8.2.5
1. Determinemos uma equação geral do plano P definido pelos pontos A = (1, 1, 1),
B = (0, 1, 0) e C = (0, 0, 1). Uma vez que
- -
P = A+ < AB, AC >= (1, 1, 1)+ < (−1, 0, −1), (−1, −1, 0) >,

temos
x−1 y−1 z−1

(x, y, z) ∈ P ⇔ −1 0 −1 =0

−1 −1 0

⇔ (x − 1)(−1) − (y − 1)(−1) + (z − 1) = 0

⇔ −x + y + z − 1 = 0
e, portanto, −x + y + z − 1 = 0 é uma equação geral de P.

2. Seja P o plano do exemplo anterior. Vamos determinar uma equação geral de P


utilizando um outro processo. Como

(x, y, z) = (1, 1, 1) + λ(−1, 0, −1) + µ(−1, −1, 0), λ, µ ∈ R

é uma equação vectorial de P, então



 x=1−λ−µ
y =1−µ
z = 1 − λ, λ, µ ∈ R

é um sistema de equações paramétricas do plano P. Uma vez que, resolvendo o sistema


anterior em ordem a λ e a µ, obtemos o sistema equivalente

 λ=1−z
µ=1−y
x = z + y − 1,

então
(x, y, z) ∈ P ⇔ x = z + y − 1.
Logo, x − y − z + 1 = 0 é uma equação geral do plano P.

3. Consideremos o plano P representado pela seguinte equação cartesiana não paramé-


trica:
x + 2y − z = 4.
Vamos determinar, por dois processos diferentes, uma equação vectorial de P.
(i) Calculando as coordenadas de três pontos não colineares do plano: para y = z = 0
(por exemplo) obtemos x = 4, pelo que o ponto A = (4, 0, 0) pertence a P. Para
x = z = 0 obtemos y = 2 e para x = y = 0 obtemos z = −4, pelo que os pontos
144 Geometria Analı́tica

-
B-= (0, 2, 0) e C = (0, 0, −4) também pertencem a P. Uma vez que AB = (−4, 2, 0) e
AC = (−4, 0, −4) são dois vectores linearmente independentes de P, então os pontos
A, B e C não são colineares e, portanto, definem o plano P. Assim,
(x, y, z) = (4, 0, 0) + λ(−4, 2, 0) + µ(−4, 0, −4), λ, µ ∈ R
é uma equação vectorial do plano P.
(ii) Determinando todas as soluções da equação dada: como x + 2y − z = 4 se e só se
z = x + 2y − 4 então as soluções da equação dada são da forma (x, y, x + 2y − 4), com
x, y ∈ R. Logo,
P = {(x, y, x + 2y − 4) : x, y ∈ R}

= {(0, 0, −4) + x(1, 0, 1) + y(0, 1, 2) : x, y ∈ R}

= (0, 0, −4)+ < (1, 0, 1), (0, 1, 2) >


e, portanto,
(x, y, z) = (0, 0, −4) + λ(1, 0, 1) + µ(0, 1, 2), λ, µ ∈ R
é uma equação vectorial do plano P.
4. Seja P o plano representado pela seguinte equação cartesiana não paramétrica:
x − 3y + 2z = 2.
Vamos determinar uma representação cartesiana não paramétrica da recta R per-
pendicular ao plano P e que passa pelo ponto P de coordenadas (1, 3, −2). Como
x − 3y + 2z − 2 = 0 é uma equação geral de P, então o vector w = (1, −3, 2) é um
vector perpendicular ao plano P. Donde w é um vector director da recta R (uma recta
é perpendicular a um plano se e só se o vector director da recta for perpendicular a
todos os vectores não nulos do plano). Logo, R = (1, 3, −2)+ < (1, −3, 2) > e portanto
x−1 y−3 z+2
= =
1 −3 2
é uma representação cartesiana não paramétrica da recta R. H

8.3 Problemas não métricos: incidência e paralelismo


Sejam P e Q dois pontos de R3 e F1 e F2 dois subespaços vectoriais próprios de R3 não nulos.
Então os “subespaços afins” (rectas ou planos) F1 = P + F1 e F2 = Q + F2 são paralelos se
e só se F1 ⊆ F2 ou F2 ⊆ F1 .
É fácil verificar que, se F1 e F2 têm um ponto comum (ou seja, se F1 ∩ F2 6= ∅), se
dim F1 ≤ dim F2 e se F1 e F2 são paralelos, então F1 ⊆ F2 .
Dizemos que os subespaços afins F1 e F2 são estritamente paralelos se forem paralelos
e nenhum deles estiver contido no outro, ou seja, atendendo ao parágrafo anterior, se forem
paralelos e F1 ∩ F2 = ∅.
Problemas não métricos: incidência e paralelismo 145

Teorema 8.3.1

1. A intersecção de dois planos não paralelos é uma recta.

2. Duas rectas distintas e paralelas definem um plano (i.e. existe um e um só plano que
as contém).

3. Duas rectas concorrentes definem um plano.

4. Um ponto e uma recta que não o contém definem um plano.

5. A intersecção de um plano com uma recta não paralela é um ponto.

Observação 8.3.2 De acordo com o teorema anterior, duas rectas estritamente paralelas
ou concorrentes definem um plano. Além disso, estes são os únicos casos em que duas rectas
definem um plano. Assim, duas rectas definem um plano se e só se são estritamente paralelas
ou concorrentes.
Evidentemente que se duas rectas definem um plano então são complanares. Por outro
lado, é também verdade que, se duas rectas distintas são complanares então existe um único
plano que as contém, i.e. as duas rectas definem um plano. Mais geralmente, podemos
afirmar que, duas rectas (não necessariamente distintas) são complanares se e só se são
paralelas ou concorrentes.

Definição 8.3.3 Duas rectas dizem-se enviezadas se não forem complanares

Teorema 8.3.4 Sejam P1 e P2 dois planos e R1 e R2 duas rectas.

1. Os planos P1 e P2 verificam uma e uma só das seguintes condições:

(a) P1 = P2 ;
(b) P1 e P2 são estritamente paralelos;
(c) A intersecção de P1 com P2 é uma recta.

2. O plano P1 e a recta R1 verificam uma e uma só das seguintes condições:

(a) R1 ⊆ P1 ;
(b) R1 é estritamente paralela a P1 ;
(c) A interseção de R1 com P1 é um ponto, i.e. são concorrentes.

3. As rectas R1 e R2 verificam uma e uma só das seguintes condições:

(a) R1 = R2 ;
(b) R1 e R2 são estritamente paralelas;
(c) R1 e R2 são concorrentes;
(d) R1 e R2 são enviezadas.
146 Geometria Analı́tica

Exemplos 8.3.5

1. Sejam P = (2, 1, −1)+ < (1, −1, 1), (2, 0, 1) > e R = (3, 1, 2)+ < (1, 1, 0) >. Verifi-
quemos que o plano P e a recta R são paralelos.
Como dim R < dim P, para R e P serem paralelos, temos que ter

< (1, 1, 0) >⊆< (1, −1, 1), (2, 0, 1) >,

ou seja,
(1, 1, 0) ∈< (1, −1, 1), (2, 0, 1) >,
o que é equivalente a  
1 1 0
r  1 −1 1  = 2 (= dim P).
2 0 1
É fácil verificar que a caracterı́stica da matriz anterior é, de facto, igual a dois, pelo
que a recta R é paralela ao plano P.

2. Sejam P1 e P2 os planos de equações vectoriais

(x, y, z) = (1, 0, −1) + λ(1, 1, 1) + µ(1, 0, 1), λ, µ ∈ R

e
(x, y, z) = (2, 4, −3) + λ(3, 1, 3) + µ(0, 1, 0), λ, µ ∈ R,
respectivamente.
Como dim P1 = dim P2 , para P1 e P2 serem paralelos, temos que ter

< (1, 1, 1), (1, 0, 1) >=< (3, 1, 3), (0, 1, 0) >,

ou seja,  
1 1 1
 1 0 1 
r  = 2 (= dim Pi , i = 1, 2).
 3 1 3 
0 1 0
Como a caracterı́stica desta matriz é igual a dois, então os planos P1 e P2 são paralelos.

3. Consideremos a recta R do Exemplo 1 e a recta S de equação vectorial

(x, y, z) = (1, 1, 2) + λ(1, 1, −1), λ ∈ R.

Como dim R = dim S, para R e S serem paralelas, terı́amos que ter

< (1, 1, 0) >=< (1, 1, −1) >,

o que, evidentemente, é falso. Logo, as rectas R e S não são paralelas.


Problemas não métricos: incidência e paralelismo 147

4. Consideremos o plano P definido pelos pontos A, B e C de coordenadas (1, 0, 1),


(2, 1, 2) e (0, 2, 1), respectivamente. Vamos determinar uma equação geral do plano PO
paralelo a P contendo a origem do sistema de eixos e uma equação geral do plano P1
paralelo a P e que passa pelo ponto P = (−1, 0, −2).
- -
Comecemos por determinar uma equação geral de P. Como AB = (1, 1, 1) e AC =
(−1, 2, 0) são dois vectores linearmente independentes de P, um ponto (x, y, z) de R3
pertence ao plano P se e só se

x−0 y−2 z−1

1 1 1 = 0,

−1 2 0

ou seja (efectuando os cálculos), se e só se 2x + y − 3z + 1 = 0. Assim, a condição


anterior é uma equação geral de P e portanto 2x + y − 3z = 0 é uma equação geral
do plano PO (visto que (2, 1, −3) é um vector perpendicular a P e portanto também a
PO e, além disso, (0, 0, 0) ∈ PO ).
Por outro lado, para certo d ∈ R, 2x+y−3z+d = 0 é uma equação geral do plano P1
(visto que (2, 1, −3) é um vector perpendicular a este palno). Temos, então, somente
que descobrir o valor de d ∈ R. Para tal basta observar que, sendo P = (−1, 0, −2)
um ponto de P1 , as coordenadas de P são uma solução desta equação:

2(−1) + 0 − 3(−2) + d = 0 ⇔ d = −4.

Donde 2x + y − 3z − 4 = 0 é uma equação geral do plano P1 .

5. Consideremos a recta R definida pelo sistema de equações reduzidas



x=y+3
z = −y + 1

e o plano P de equação geral 2x − 3y + 4z − 5 = 0. Vamos averiguar se a recta R é


paralela ao plano P.
A partir do sistema de equações que caracteriza R podemos de imediato concluir
que R tem a direcção do vector u = (1, 1, −1). Então, R é paralela ao plano P se e só
se os vectores (1, 1, −1) e (2, −3, 4) (este último é um vector perpendicular a P) são
perpendiculares. Como

(2, −3, 4)|(1, 1, −1) = 2 · 1 − 3 · 1 + 4 · (−1) = −5 6= 0,

então a recta R não é paralela ao plano P (e, portanto, R é concorrente com P).

6. Consideremos os planos P e P 0 de equações gerais x+y = 2 e x+z = 1, respectivamente.


Como  
1 1 0
r = 2,
1 0 1
148 Geometria Analı́tica

então os planos P e P 0 não são paralelos. Logo, P ∩ P 0 é uma recta, a qual é definida
pelo sistema de equações lineares

x+y =2
x + z = 1.

7. Sejam R = (0, 1, 0)+ < (1, 1, 1) > e R0 = (1, 1, 1)+ < (1, 1, 1) > duas rectas. Vamos
determinar uma equação geral do plano P definido pelas rectas R e R0 , caso este exista.
Como R e R0 são paralelas (o vector u = (1, 1, 1) é uma direcção de ambas as rectas),
se mostrarmos que R 6= R0 , provamos que definem um plano.
Uma vez que
x−0 y−1 z−0
= =
1 1 1
é um sistema de equações não paramétrico de R e

1−0 1−1 1−0


6= (6= ),
1 1 1
então Q = (1, 1, 1) 6∈ R e, portanto, R 6= R0 . Donde, R e R0 definem um plano.
Seja P = (0, 1, 0) ∈ R. Então, o plano definido por R e R0 é
-
P = P + < P Q, (1, 1, 1) >= (0, 1, 0)+ < (1, 0, 1), (1, 1, 1) >

e temos
x−0 y−1 z−0

1
0 1 =0
⇔ −x + z = 0,
1 1 1

pelo que x − z = 0 é uma equação geral do plano P.

8. Consideremos as rectas R1 = (1, 0, 2)+ < (1, 1, 0) > e R2 = (1, 1, 3)+ < (0, 1, 1) >
e averiguemos se definem um plano. Claramente, R1 e R2 têm direcções diferentes,
pelo que não são paralelas. Vejamos, pois, se são concorrentes. Precisamos então de
determinar R1 ∩ R2 . Para tal, é mais cómodo termos estas rectas representadas por
um sistema de equações não paramétricas. Assim, como

= y−0
 x−1 
1 1
x=1
e y−1
z=2 1
= z−3
1

são representações cartesianas não paramétricas de R1 e R2 , respectivamente, então


as soluções do sistema 

 x−1=y
z=2


 x=1
y−1=z−3

Problemas não métricos: distâncias e ângulos 149

são os pontos de R1 ∩ R2 . O sistema anterior é equivalente a



 x=1
y=0
z = 2,

pelo que R1 ∩ R2 = {(1, 0, 2)}, i. e. as rectas R1 e R2 são concorrentes. Logo, R1 e


R2 definem um plano. A saber, o plano P = (1, 0, 2)+ < (1, 1, 0), (0, 1, 1) > (definido
pelos vectores de ambas as rectas e por um ponto qualquer de uma das rectas– neste
caso tomámos o ponto de intersecção, mas qualquer outro pertencente a uma das rectas
serviria).

9. Sejam P = (3, 2, 1) e Q = (1, 2, −3) dois pontos e R a recta definida pelo seguinte
sistema de equações reduzidas 
x=1
y = −z − 1.
Como o ponto P não pertence à recta R (pois as suas coordenadas não são solução do
sistema anterior), este e a recta R definem um plano P. Vamos então determinar uma
equação vectorial do plano P 0 paralelo ao plano P e que contém o ponto Q.
-
Então P = P + < AP , u >, em que A é um ponto de R e u uma sua direcção.
A partir do sistema de equações que define a recta R podemos tomar, por exemplo,
A = (1, −1, 0) e u = (0, −1, 1). Donde,

P = (3, 2, 1)+ < (2, 3, 1), (0, −1, 1) >

e portanto
P 0 = (1, 2, −3)+ < (2, 3, 1), (0, −1, 1) > .
Logo
(x, y, z) = (1, 2, −3) + λ(2, 3, 1) + µ(0, −1, 1), λ, µ ∈ R
é uma equação vectorial do plano P 0 . H

8.4 Problemas métricos: distâncias e ângulos


Definição 8.4.1 Sejam F1 e F2 dois subespaços afins de R3 . A distância entre F1 e F2
define-se como sendo o mı́nimo das distâncias entre os pontos de F1 e F2 , ou seja,

d(F1 , F2 ) = min {d(A, B) : A ∈ F1 , B ∈ F2 }.

8.4.2 Distância entre dois pontos

Sejam P = (a, b, c) e Q = (x, y, z) dois pontos de R3 . Então,


- p
d(P, Q) = kP Qk = (x − a)2 + (y − b)2 + (z − c)2 .
150 Geometria Analı́tica

8.4.3 Distância de um ponto a um plano

Sejam P um ponto de R3 e P um plano. Dado um ponto M de P e um vector w


perpendicular a P, podemos
-
obter a distância do ponto P ao plano P projectando ortogo-
nalmente o vector M P sobre o vector w, i.e.

-
- | w|M P |
d(P, P) = | projwM P | = . (1)
kwk

w
P
P)
d( P,

M
P
Suponhamos que o plano P está representado pela equação vectorial

X = M + λu + µv, λ, µ ∈ R.

Uma vez que o vector u × v é perpendicular ao plano P, então a partir de (1) tem-se
-
| u × v|M P |
-
d(P, P) = | proj MP | = . (1.1)
u×v ku × vk
Por outro lado, se o plano P está representado pela equação geral

ax + by + cz + d = 0,

podemos tomar na fórmula (1) o vector w = (a, b, c) (que é um um vector perpendicular ao


plano P). Supondo que P é um ponto de coordenadas (x0 , y0 , z0 ), a fórmula (1) pode ainda
ser reescrita da seguinte maneira:
| ax0 + by0 + cz0 + d |
d(P, P) = √ . (1.2)
a2 + b2 + c2
8.4.4 Distância de um ponto a uma recta

Sejam P um ponto de R3 e R uma recta. Dado um ponto M da recta -


R, obtemos a
à recta R multiplicando o comprimento do vector M P pelo seno do
distância do ponto P -
ângulo que o vector M P faz com um vector director da recta R, i.e.
-
d(P, R) = kM P ksenθ,
-
em que θ = ∠) (M P, u), sendo u um vector director de R (donde R = M + < u >).
Problemas não métricos: distâncias e ângulos 151

d(P, R)
θ
R u
M
Como -
ku × M P k
senθ = - ,
kuk kM P k
obtemos -
ku × M P k
d(P, R) = . (2)
kuk
8.4.5 Distância entre dois planos

Sejam P e P 0 dois planos. Então:


1. Se os dois planos são coincidentes então d(P, P 0 ) = 0;

2. Se os planos P e P 0 se intersectam segundo uma recta e, portanto, têm pontos comuns,


também d(P, P 0 ) = 0;

3. Finalmente, se P e P 0 são estritamente paralelos, a distância entre P e P 0 é igual à


distância de um ponto qualquer de P ao plano P 0 :

d(P, P 0 ) = d(M, P 0 ),

com M ∈ P.
O problema fica, neste caso, reduzido ao cálculo da distância de um ponto a um
plano.

P
P P’ )= d(M,P ’ )
d( ,

P’
152 Geometria Analı́tica

8.4.6 Distância de uma recta a um plano

Consideremos um plano P e uma recta R. Então, R ou é paralela ao plano P ou é


concorrente com este. Se R for concorrente com P, então
d(R, P) = 0,
já que têm um ponto comum. Por outro lado, se R for paralela ao plano P então
d(R, P) = d(M, P),
em que M é um ponto qualquer da recta R. Neste caso ficamos reduzidos ao cálculo da
distância de um ponto a um plano.

R M

R , P )= d(M, P
d( )

P
Observemos que, se a recta R está contida no plano P, então d(R, P) = d(M, P) = 0,
com M um ponto de R (e, portanto, também de P).

8.4.7 Distância entre duas rectas

Sejam R e R0 duas rectas. Tal como nos casos anteriores, para calcular a distância entre
duas rectas é necessário conhecer a posição relativa que ocupam entre si. Assim:
1. Se as rectas R e R0 são concorrentes é claro que d(R, R0 ) = 0;
2. Se as rectas R e R0 são paralelas então
d(R, R0 ) = d(M, R0 ),
em que M é um ponto qualquer da recta R. Neste caso, o problema fica reduzido ao
cálculo da distância de um ponto a uma recta.

R R R’ )
d( ,

R’
Problemas não métricos: distâncias e ângulos 153

3. Finalmente, se as rectas R e R0 são enviezadas, então a distância de R a R0 é igual à


distância da recta R ao plano P que contém a recta R0 e é paralelo à recta R.

R M

d(R ,R’ )

R’
P
Tomando dois pontos M e Q e dois vectores u e v tais que R = M + < u > e
R0 = Q+ < v >, temos P = Q+ < u, v > e portanto d(R, R0 ) = d(R, P) = d(M, P).
Logo, aplicando a fórmula (1.1), temos
-
| u × v|QM|
d(R, R0 ) = . (3)
ku × vk

8.4.8 Ângulo de duas rectas

Sejam R1 = P + < u > e R2 = Q+ < v > duas rectas de R3 . O ângulo das rectas
R1 e R2 é, por definição, o menor dos ângulos formado por duas rectas complanares, uma
delas com a direcção de R1 , a outra com a direcção de R2 . Assim, tomando (por exemplo)
R01 = R1 e R02 = P + < v > (estas rectas têm, respectivamente, as direcções de R1 e R2 e
são complanares), temos
θ = ∠) (R1 , R2 ) = ∠) (R01 , R02 ).

v
u
θ
R2 R1

Como os ângulos formados pelas rectas R01 e R02 são


θ1 = ∠) (u, v) e θ2 = π − θ1 = ∠) (u, −v),
então
| u|v |
∠) (R01 , R02 ) = min {θ1 , θ2 } = Arc cos
kuk kvk
e portanto
| u|v |
∠) (R1 , R2 ) = Arc cos . (4)
kuk kvk
Observe-se que sendo θ = ∠) (R1 , R2 ) então:
154 Geometria Analı́tica

1. θ ∈ [0, π2 ];

2. θ = 0 se e só se as rectas R1 e R2 são paralelas.

8.4.9 Ângulo de uma recta com um plano

Consideremos uma recta R e um plano P. O ângulo de R com P é definido como sendo


o complementar do ângulo formado por R com uma recta perpendicular ao plano P, i.e.
sendo R0 uma recta perpendicular a P, temos
π π
θ = ∠) (R, P) = − ∠) (R, R0 ) = − α.
2 2

R α
R’
θ

Suponhamos que R = P + < w > e P = Q+ < u, v >. Então, sendo k um vector


perpendicular ao plano P e X um ponto (qualquer) de R3 , a recta R0 = X+ < k > é
perpendicular a P. Como sen∠) (R, P) = cos ∠) (R, R0 ), então

| w|k |
∠) (R, P) = Arc sen . (5)
kwk kkk

Como u × v é um vector perpendicular ao plano P, podemos na fórmula anterior tomar


k = u × v. Assim, podemos escrever

| w|u × v |
∠) (R, P) = Arc sen . (5.1)
kwk ku × vk
Observemos que, sendo θ = ∠) (R, P), então θ ∈ [0, π2 ]. Além disso, θ = 0 se e só se a
recta R é paralela ao plano P.

8.4.10 Ângulo de dois planos

Sejam P1 e P2 dois planos de R3 . Definimos o ângulo dos planos P1 e P2 como sendo o


ângulo formado por duas rectas perpendiculares a cada um dos planos: se R1 e R2 são duas
rectas perpendiculares a P1 e P2 , respectivamente, então θ = ∠) (P1 , P2 ) = ∠) (R1 , R2 ).
Problemas não métricos: distâncias e ângulos 155

R1
θ

R2

P1

P2

Tomemos dois vectores k1 e k2 perpendiculares a P1 e P2 , respectivamente, e um ponto


(qualquer) X de R3 . Então, R1 = X+ < k1 > e R2 = X+ < k2 > são rectas perpendiculares
aos planos P1 e P2 , respectivamente. Logo,

| k1 |k2 |
∠) (P1 , P2 ) = Arc cos . (6)
kk1 k kk2 k

Admitamos que P1 = P1 + < u1 , v1 > e que P2 = P2 + < u2 , v2 >. Como u1 × v1 e u2 × v2


são vectores perpendiculares aos planos P1 e P2 , respectivamente, de (6) resulta que

| (u1 × v1 )|(u2 × v2 ) |
∠) (P1 , P2 ) = Arc cos . (6.1)
ku1 × v1 k ku2 × v2 k

Exemplos 8.4.11

1. Sejam P o plano perpendicular ao vector w = (1, 1, −1) e que passa pelo ponto M =
(0, 0, −3), e P = (1, −1, 0) um ponto de R3 . Determinemos a distância de P ao plano
P. Como w é um vector perpendicular a P e M é um ponto de P, então
-
| w|M P| 1 √
d(P, P) = = √ | (1, 1, −1)|(1, −1, 3) | = 3.
kwk 3

2. Consideremos o plano P definido pela equação vectorial

(x, y, z) = (2, 0, 0) + λ(−2, 1, 0) + µ(2, 0, −1), λ, µ ∈ R

e a recta R de equações reduzidas



x=y+1
z = −y − 1.

Vamos calcular as coordenadas dos pontos da recta R que distam uma unidade do
plano P. Sejam M = (2, 0, 0) ∈ P e w = (−2, 1, 0) × (2, 0, −1) = (−1, −2, −2) (que é
156 Geometria Analı́tica

um vector perpendicular ao plano P). Uma vez que os pontos da recta R são da forma
Py = (y + 1, y, −y − 1), com y ∈ R, então
-
| w|M Py| | (−1, −2, −2)|(y − 1, y, −y − 1) | |3 − y|
d(Py , P) = = √ = .
kwk 9 3

Logo, 1 = d(Py , P) ⇔ 1 = |3−y|


3
⇔ y = 0 ou y = 6 e portanto os pontos de R que
distam uma unidade de P são P = (1, 0, −1) e P 0 = (7, 6, −7).
3. Seja P o plano paralelo ao plano P 0 de equação geral 2x − y + 3z − 10 = 0 e que passa
pelo ponto Q = (2, 3, 4) e seja P = (3, 4, 5) um ponto de R3 . Determinemos a distância
do ponto P ao plano P. Sendo w = (2, −1, 3) um vector perpendicular ao plano P 0 ,
então w é também perpendicular a P. Logo, uma vez que Q ∈ P,
- √
| w|QP | | (2, −1, 3)|(1, 1, 1) | 2 14
d(P, P) = = √ = .
kwk 14 7

4. Sejam R a recta definida pela equação vectorial

(x, y, z) = (2, 1, 2) + λ(1, 2, 2), λ ∈ R

e P = (2, 3, 3) um ponto de R3 . Determinemos a distância de P à recta R. Como


M = (2, 1, 2) é um ponto da recta R e u = (1, 2, 2) é um vector com a sua direcção,
então
-
ku × M P k k(1, 2, 2) × (0, 2, 1)k 1
d(P, R) = = = k(−2, −1, 2)k = 1.
kuk k(1, 2, 2)k 3

5. Sejam P e R como no exemplo anterior. Vamos determinar o ponto Q da recta R que


está à distância mı́nima do ponto P , ou seja, atendendo ao exemplo anterior, que está
à distância de uma unidade do ponto P . A partir da equação que define R, é imediato
que os pontos da recta R são da forma Pλ = (2 + λ, 1 + 2λ, 2 + 2λ), com λ ∈ R. Como
- p √
d(P, Pλ ) = kP Pλ k = λ2 + (2λ − 2)2 + (2λ − 1)2 = 9λ2 − 12λ + 5

então
2
d(P, Pλ ) = 1 ⇔ 9λ2 − 12λ + 5 = 1 ⇔ λ = .
3
 
8 7 10
Assim Q = , , é o ponto de R à distância mı́nima do ponto P .
3 3 3
6. Consideremos os planos P e P 0 definidos pelas equações gerais

2x − y + 3z − 1 = 0 e 3x + 2y + 5z + 2 = 0.

Como u = (2, −1, 3) e v = (3, 2, 5) são dois vectores linearmente independentes e


perpendiculares a P e P 0 , respectivamente, então os planos P e P 0 não são paralelos.
Logo, a sua intersecção é não vazia e portanto d(P, P 0 ) = 0.
Problemas não métricos: distâncias e ângulos 157

7. Sejam P o plano definido pela equação vectorial

(x, y, z) = (1, 1, −1) + λ(0, 1, −1) + µ(4, −1, −1), λ, µ ∈ R

e P 0 o plano definido pela equação geral x+αy +2z +β = 0, com α e β dois parâmetros
reais. Vamos determinar os valores de α e β para os quais os planos P e P 0 distam
três unidades. Para termos d(P, P 0 ) = 3, os planos P e P 0 têm de ser (estritamente)
paralelos. Determinemos, então, um vector u perpendicular ao plano P: por exemplo,

u = (0, 1, −1) × (4, −1, −1) = (−2, −4, −4).

Como v = (1, α, 2) é um vector perpendicular ao plano P 0 , os planos P e P 0 são


paralelos se e só se os vectores u e v são linearmente dependentes, i. e. se e só se
α = 2. Portanto, sendo P = (1, 1, −1) ∈ P, M = (−β, 0, 0) ∈ P 0 e α = 2, temos
-
| v|M P | | (1, 2, 2)|(1 + β, 1, −1) | |1 + β|
d(P, P 0 ) = d(P, P 0 ) = = = ,
kvk 3 3

pelo que 3 = d(P, P 0 ) ⇔ 3 = |1+β|


3
⇔ β = 8 ou β = −10. Concluı́mos assim que os
0
planos P e P distam três unidades se e só se α = 2 e β ∈ {−10, 8}.

8. Sejam R a recta definida pela equação vectorial

(x, y, z) = (2, 4, 6) + λ(2, −1, 3), λ ∈ R

e P o plano de equação geral 2x − y + 3z − 2 = 0. Como o vector u = (2, −1, 3) tem a


direcção da recta R e é perpendicular ao plano P, então R é uma recta perpendicular
a P e portanto R é concorrente com P. Logo, d(R, P) = 0.

9. Consideremos o plano P de equação geral x − y + z − 1 = 0 e a recta R definida pelo


sistema de equações reduzidas 
x = 2y − 1
z = −y + 3 .
Vamos determinar a distância entre R e P. Em primeiro lugar averiguemos a posição
relativa de R e P. Seja [A | B] a matriz ampliada do sistema de equações lineares
obtido a partir das representações de R e P consideradas. Então, r[A | B] = 3 e
r(A) = 2, pelo que R ∩ P = ∅ e portanto a recta R é paralela ao plano P. Logo,

0 6= d(R, P) = d(P, P),

com P é um ponto qualquer de R. Tomando o ponto P = (−1, 0, 3) ∈ R, o ponto


M = (0, 0, 1) ∈ P e o vector u = (1, −1, 1) (perpendicular ao plano P), temos
- √
| u|M P | | (1, −1, 1)|(−1, 0, 2) | 3
d(R, P) = d(P, P) = = = .
kuk k(1, −1, 1)k 3
158 Geometria Analı́tica

10. Sejam R1 e R2 as rectas definidas pelos sistemas de equações reduzidas


 
y = βx − β y =x−1
e
z = −2x + 4 z = −2x + 2 + β,

respectivamente. Vamos determinar a distância entre as rectas R1 e R2 , em função


do parâmetro real β. Comecemos por estabelecer a posição relativa de R1 e R2 . Seja
[A | B] a matriz ampliada do sistema de equações que define R1 ∩ R2 obtido a partir
das equações dadas. Tem-se
 
−1 1 0 −1
 0 2 1 2 
r[A | B] = r  β−1
 ,
 0 0
2
β − 1 
0 0 0 β−2

pelo que:

(a) Se β = 2 então r(A) = 3 = r[A | B], donde as rectas são concorrentes e portanto
d(R1 , R2 ) = 0.
(b) Se β = 1 então r(A) = 2 e r[A | B] = 3, donde as rectas são estritamente
paralelas. Logo, sendo P = (0, −β, 4) = (0, −1, 4) ∈ R1 , M = (0, −1, β + 2) =
(0, −1, 3) ∈ R2 e u = (1, 1, −2) (vector com a direcção de R2 ), tem-se
- √
ku × M Pk k(1, 1, −2) × (0, 0, 1)k 1 3
d(R1 , R2 ) = = √ = √ k(1, −1, 0)k = .
kuk 6 6 3

(c) Finalmente, se β 6= 1 e β 6= 2 então r(A) = 3 e r[A | B] = 4, pelo que as rectas


R1 e R2 são enviezadas. Tomemos P = (0, −β, 4) ∈ R1 , Q = (0, −1, β + 2) ∈ R2 ,
u = (1, β, −2) (vector director de R1 ) e v = (1, 1, −2) (vector director de R2 ).
Então
- √
| u × v|QP | | (−2β + 2, 0, 1 − β)|(0, 1 − β, 2 − β) | 5
d(R1 , R2 ) = = = |2 − β|.
ku × vk k(−2β + 2, 0, 1 − β)k 5

11. Consideremos a recta R que passa pelo ponto A = (3, 1, 2) e tem a direcção do vector
u = (1, 1, 0), o plano P de equação geral 2x+y−z+9 = 0 e, ainda, o ponto P = (4, 3, 3).
Vamos determinar o ângulo de R com P, o ângulo de P com o plano P 0 que contém a
recta R e passa pelo ponto P e, ainda, o ângulo de R com a recta R0 que passa pelos
pontos A e P :

(a) Como k = (2, 1, −1) é um vector perpendicular ao plano P e u = (1, 1, 0) é um


vector director da recta R, tem-se

| u|k | |3| 3 π
∠) (R, P) = Arc sen = Arc sen √ √ = Arc sen = .
kuk kkk 2 6 2 3
Quádricas 159

(b) Uma vez que R = A+ < u > e P 0 é o plano que contém R e passa por P , então
-
P 0 = A+ < u, AP >= (3, 1, 2)+ < (1, 1, 0), (1, 2, 1) > .
Tomemos k1 = (2, 1, −1) (vector perpendicular ao plano P) e
k2 = (1, 1, 0) × (1, 2, 1) = (1, −1, 1)
(vector perpendicular ao plano P 0 ). Então
| k1 |k2 | | (2, 1, −1)|(1, −1, 1) | π
∠) (P, P 0 ) = Arc cos = Arc cos = Arc cos0 =
kk1 k kk2 k k(2, 1, −1)k k(1, −1, 1)k 2
(i. e. os planos P e P 0 são perpendiculares).
(c) Resta-nos determinar o ângulo das rectas R e R0 . Uma vez que R = A+ < u >
-
e R0 = A+ < AP >, então
- √
0 | u|AP | | (1, 1, 0)|(1, 2, 1) | 3 π
∠) (R, R ) = Arc cos - = Arc cos = Arc cos = . H
kuk kAP k k(1, 1, 0)k k(1, 2, 1)k 2 6

8.5 Quádricas
Ao contrário das secções precedentes, não consideramos agora nenhum referencial previa-
mente fixado.
Definição 8.5.1 Seja (O; e1 , e2 , e3 ) um referencial de R3 . Designamos por quádrica ou
superfı́cie algébrica de ordem 2 qualquer conjunto Q de pontos de R3 cujas coordenadas
relativamente ao referencial (O; e1 , e2 , e3 ) são as soluções de uma equação polinomial de grau
2 de coeficientes reais nas variáveis x1 , x2 e x3 , i. e. de uma equação do tipo
ax21 + bx22 + cx23 + a0 x1 x2 + b0 x1 x3 + c0 x2 x3 + a00 x1 + b00 x2 + c00 x3 + d = 0,
em que a, b, c, a0 , b0 , c0 , a00 , b00 , c00 , d ∈ R e, pelo menos, um dos elementos de {a, b, c, a0 , b0 , c0 }
(coeficientes dos termos de grau 2) é não nulo.
Exemplo 8.5.2 Seja (O; e1 , e2 , e3 ) um referencial ortonormado de R3 . Então, a quádrica
representada, relativamente a este referencial, pela equação
x21 + x22 + x23 = 1
é a superfı́cie esférica de centro no ponto O e raio igual a uma unidade.
160 Geometria Analı́tica

Observação 8.5.3 Um polinómio do grau dois de coeficientes reais nas variáveis x1 , x2 e


x3 pode, claramente, representar-se matricialmente na forma
X T AX + 2BX + d,
 
em que X T = x1 x2 x3 , A é uma matriz real simétrica de ordem três, B é uma matriz
linha real do tipo 1 × 3 e d é um número real (formalmente, d é uma matriz real de ordem
um).

Exemplo 8.5.4 Consideremos o polinómio


p = x21 + 2x22 − 2x23 − 2x1 x3 + 4x2 x3 + 2x1 + 4x2 − 2x3 − 3.
Então
    
  1 0 −1 x1   x1
p= x1 x2 x3  0 2 2   x2  + 2 1 2 −1  x2  − 3. H
−1 2 −2 x3 x3

Uma quádrica é então um conjunto de pontos de R3 cujas coordenadas, em relação a


determinado referencial, são as soluções de uma equação do tipo
X T AX + 2BX + d = 0,
 
em que X T = x1 x2 x3 , A é uma matriz real simétrica de ordem três, B ∈ M1×3 (R)
e d é um número real.

É fácil mostrar que:

Lema 8.5.5 Sejam (O; e1 , e2 , e3 ) e (O0 ; e01 , e02 , e03 ) dois referenciais de R3 e P um ponto de
coordenadas (p1 , p2 , p3 ) no referencial (O; e1 , e2 , e3 ) e coordenadas (p01 , p02 , p03 ) no referencial
(O0 ; e01 , e02 , e03 ). Se (a1 , a2 , a3 ) são as coordenadas do ponto O0 no referencial (O; e1 , e2 , e3 )
então      0 
p1 a1 p1
 p2  =  a2  + M(id; (e0j ), (ei ))  p02  .
p3 a3 p03
Pode-se então provar que:

Teorema 8.5.6 Sejam (O; e1 , e2 , e3 ) e (O0 ; e01 , e02 , e03 ) dois referenciais de R3 , C a matriz
coluna das coordenadas do ponto O0 no referencial (O; e1 , e2 , e3 ) e M = M(id; (e0j ), (ei )).
Então, uma quádrica de R3 tem por equação
X T AX + 2BX + d = 0
no referencial (O; e1 , e2 , e3 ) se e só se tem por equação
X T (M T AM )X + 2(B + C T A)M X + (C T AC + 2BC + d) = 0
no referencial (O0 ; e01 , e02 , e03 ).
Quádricas 161

Exemplo 8.5.7 Sejam (O; e1 , e2 , e3 ) um referencial de R3 e

x21 + 2x22 + 3x23 + 2x1 x2 + 2x1 x3 + 4x2 x3 + 2x1 + 2x2 + 2x3 = 0

a equação de uma quádrica Q relativamente a este referencial. Então, sendo


 
1 1 1  
A= 1  2 2 , B = 1 1 1 e d = 0,
1 2 3

a equação X T AX + 2BX + d = 0 é a representação matricial da quádrica Q no referencial


(O; e1 , e2 , e3 ).
Consideremos um novo referencial (O0 ; e01 , e02 , e03 ) em que

O0 = O + (−e1 ), e01 = −e1 + e2 , e02 = e1 e e03 = −e2 + e3 .

Vamos determinar a equação da quádrica Q relativamente ao referencial (O0 ; e01 , e02 , e03 ).
 T
De acordo com o teorema anterior, sendo C = −1 0 0 (C é a matriz coluna das
coordenadas do ponto O0 relativamente ao referencial (O; e1 , e2 , e3 )) e M = M(id; (e0j ), (ei )),
então a quádrica Q tem a seguinte equação relativamente ao referencial (O0 ; e01 , e02 , e03 ):

X T (M T AM )X + 2(B + C T A)M X + (C T AC + 2BC + d) = 0.

Efectuando os cálculos, podemos ver que a equação anterior é equivalente a

x21 + x22 + x23 = 1. H

Pode provar-se que:

Teorema 8.5.8 Seja Q uma quádrica de equação X T AX + 2BX + d = 0 relativamente a


um referencial ortonormado (O; e1 , e2 , e3 ) de R3 . Então, existe um referencial ortonormado
(O0 ; e01 , e02 , e03 ) em relação ao qual a equação da quádrica é de uma das formas seguintes:

1. λ1 x21 + · · · + λr x2r = c, com c ∈ R e r = 1, 2, 3;

2. λ1 x21 + · · · + λr x2r = 2αxr+1 , com α ∈ R \ {0} e r = 1, 2,

em que r = r(A) e λ1 , . . . , λr ∈ R são os valores próprios não nulos da matriz A.

Definição 8.5.9 Uma equação de uma quádrica relativamente a um referencial ortonor-


mado diz-se uma equação reduzida ou uma equação canónica da quádrica se tiver uma das
formas apresentadas no teorema anterior.

Definição 8.5.10 Uma quádrica de equação X T AX + 2BX + d = 0, relativamente a um


referencial ortonormado, diz-se central se r[A | B T ] = r(A). Caso contrário, diz-se não
central.
162 Geometria Analı́tica

Observação 8.5.11 Pode mostrar-se que uma quádrica é central se e só se admite uma
equação canónica do tipo
λ1 x21 + · · · + λr x2r = c,
com c ∈ R, λ1 , . . . , λr ∈ R \ {0} e r ∈ {1, 2, 3}, e é não central se e só se admite uma equação
canónica do tipo
λ1 x21 + · · · + λr x2r = 2αxr+1 ,
com λ1 , . . . , λr , α ∈ R \ {0} e r ∈ {1, 2}.

Definição 8.5.12 Uma quádrica de equação X T AX + 2BX + d = 0, relativamente a um


referencial ortonormado, diz-se própria se r[A | B T ] = 3 e diz-se degenerada, caso contrário.

Temos então a seguinte classificação das quádricas (em quatro classes):

• Própria central se r(A) = r[A | B T ] = 3;

• Própria não central se r(A) = 2 < r[A | B T ];

• Degenerada central se 1 ≤ r(A) = r[A | B T ] ≤ 2;

• Degenerada não central se r(A) = 1 < r[A | B T ].

No que se segue, Q denota uma quádrica de R3 .

8.5.13 Quádricas próprias centrais

Seja (O; e1 , e2 , e3 ) um referencial ortonormado tal que a equação da quádrica Q relativa-


mente a este referencial é da forma

λ1 x21 + λ2 x22 + λ3 x23 = c, (1)

em que c ∈ R e λ1 , λ2 , λ3 ∈ R \ {0}.
Uma vez que, multiplicando por −1 ambos os membros da equação (1), obtemos uma
equação equivalente do mesmo tipo, podemos admitir sem perda de generalidade que c ≥ 0.
• Consideremos c > 0 e tomemos
r
c
ai = ,
| λi |

para qualquer i ∈ {1, 2, 3}. Vamos analisar os vários casos possı́veis em função do número
de λi ’s positivos.
•• Se λ1 , λ2 , λ3 > 0 então a equação (1) é equivalente à equação

x21 x22 x23


+ + =1
a21 a22 a23

e a quádrica Q diz-se um elipsóide.


Quádricas 163

x21 x22 x23


+ x22 + x23 = 1 x21 + + x23 = 1 x21 + x22 + =1
9 9 9
Observemos que, para λ1 = λ2 = λ3 , obtemos uma superfı́cie esférica.
•• Se λ1 < 0 e λ2 , λ3 > 0 ou λ2 < 0 e λ1 , λ3 > 0 ou ainda λ3 < 0 e λ1 , λ2 > 0 então a
equação (1) é equivalente à equação
x21 x22 x23 x21 x22 x23 x21 x22 x23
− + + = 1, − + = 1 ou + − 2 = 1,
a21 a22 a23 a21 a22 a23 a21 a22 a3
respectivamente. Em qualquer dos casos, a quádrica Q diz-se um hiperbolóide de uma folha.

−x21 + x22 + x23 = 1 x21 − x22 + x23 = 1 x21 + x22 − x23 = 1

•• Se λ1 > 0 e λ2 , λ3 , < 0 ou λ2 > 0 e λ1 , λ3 < 0 ou ainda λ3 > 0 e λ1 , λ2 < 0 então a


equação (1) é equivalente à equação
x21 x22 x23
− 2 − 2 =1
a21 a2 a3
ou
x21 x22 x23
− 2 + 2 − 2 =1
a1 a2 a3
ou
x21 x22 x23
− − 2 + 2 =1
a21 a2 a3
respectivamente. Nestes casos, a quádrica Q diz-se um hiperbolóide de duas folhas.
164 Geometria Analı́tica

x21 − x22 − x23 = 1 − x21 + x22 − x23 = 1 − x21 − x22 + x23 = 1

•• Finalmente, se λ1 , λ2 , λ3 < 0 então Q = ∅.


• Suponhamos agora c = 0 e tomemos
s
1
ai = ,
| λi |

para qualquer i ∈ {1, 2, 3}.


•• Começamos por ver os casos triviais.
Se λ1 , λ2 , λ3 > 0 ou λ1 , λ2 , λ3 < 0 então a equação (1) é equivalente à equação

x21 x22 x23


+ + =0
a21 a22 a23

e, portanto, a quádrica Q possui um único ponto: a origem do referencial, i. e. Q = {O}.


•• Se λ1 , λ2 e λ3 não têm todos o mesmo sinal então a equação (1) é equivalente a uma
das equações seguintes:
x21 x22 x23
+ − 2 = 0,
a21 a22 a3

x21 x22 x23


− 2 + 2 =0
a21 a2 a3

ou
x21 x22 x23
− + + = 0.
a21 a22 a23

Nestas situações, a quádrica Q é designada por cone.


Quádricas 165

−x21 + x22 + x23 = 0 x21 − x22 + x23 = 0 x21 + x22 − x23 = 0

8.5.14 Quádricas próprias não centrais

Seja (O; e1 , e2 , e3 ) um referencial ortonormado em relação ao qual a equação da quádrica


é da forma
λ1 x21 + λ2 x22 = 2αx3 , (2)

com α, λ1 , λ2 ∈ R \ {0}. Tomemos


s
α
ai = ,
λi

para i = 1, 2. Então, a equação (2) é equivalente a uma das seguintes equações:

x21 x22
+ = 2x3 , (2.1)
a21 a22

x21 x22
− 2 = 2x3 , (2.2)
a21 a2

x21 x22
− + = 2x3 (2.3)
a21 a22
ou
x21 x22
− − 2 = 2x3 . (2.4)
a21 a2

Se Q verifica a equação (2.1) ou a equação (2.4) (situação que ocorre quando λ1 e λ2 têm o
mesmo sinal) então a quádrica Q diz-se um parabolóide elı́ptico. Se Q verifica a equação (2.2)
ou a equação (2.3) (o que acontece quando λ1 e λ2 têm sinais contrários) então a quádrica
diz-se um parabolóide hiperbólico ou uma sela de cavalo.
166 Geometria Analı́tica

x21 + x22 = x3 x21 − x22 = x3


(Parabolóide elı́ptico) (Parabolóide hiperbólico)

8.5.15 Quádricas degeneradas centrais

Consideremos um referencial ortonormado (O; e1 , e2 , e3 ) relativamente ao qual a equação


da quádrica Q é de uma das seguintes formas:

λ1 x21 = c, (C1)

com c ∈ R e λ1 ∈ R \ {0}; ou
λ1 x21 + λ2 x22 = c, (C2)

com c ∈ R e λ1 , λ2 ∈ R \ {0}.
• Admitamos que a quádrica tem por equação (C1) no referencial considerado e tomemos
a = λc1 . Então:

1. Se a < 0 então a equação (C1) não tem soluções, pelo que Q = ∅;

2. Se a = 0 então a equação (C1) é equivalente à equação x1 = 0 e, portanto, a quádrica


Q é o plano O+ < e2 , e3 >;

3. Se a > 0 então √ √
x21 = a ⇔ x1 = − a ∨ x1 = a,
pelo que Q é a união dos planos de equações gerais
√ √
x1 + a = 0 e x1 − a = 0,

relativamente ao referencial considerado.

• Suponhamos agora que a quádrica Q admite a equação (C2) no referencial considerado.

1. Se c = 0 então a equação (C2) é equivalente a uma das duas seguintes equações:

x21 x22
+ =0 (C2.1)
a21 a22
Quádricas 167

ou
x21 x22 (C2.2)
− 2 = 0,
q a21 a2
1
em que ai = | λi |
, para i = 1, 2.
Se a quádrica tem por equação (C2.1) (o que acontece quando λ1 e λ2 têm o mesmo
sinal) então Q é a recta O+ < e3 >.
Por outro lado, como
x21 x22
− 2 =0 ⇔ a2 x1 − a1 x2 = 0 ∨ a2 x1 + a1 x2 = 0,
a21 a2
se Q admite a equação (C2.2) então é a união dos planos de equações gerais
a2 x1 − a1 x2 = 0 e a2 x1 + a1 x2 = 0,
em relação ao referencial (O; e1 , e2 , e3 ).
r
2. Se c 6= 0 então, sendo ai = λci , para i = 1, 2, a equação (C2) é equivalente a uma

das equações seguintes:


x21 x22 (C2.3)
+ = 1,
a21 a22
x21 x22 (C2.4)
− 2 = 1,
a21 a2
x21 x22 (C2.5)
− + =1
a21 a22

ou
x21 x22 (C2.6)
− − 2 = 1.
a21 a2

É claro que, se Q admite a equação (C2.6) (no referencial considerado) então Q = ∅.


Se a quádrica tem por equação (C2.3) então dá-se-lhe o nome de cilindro elı́ptico. Se
Q admite como equação (C2.4) ou (C2.5) então diz-se um cilindro hiperbólico.

x21 + x22 = 1 −x21 + x22 = 1


(Cilindro elı́ptico) (Cilindro hiperbólico)
168 Geometria Analı́tica

8.5.16 Quádricas degeneradas não centrais

Seja (O; e1 , e2 , e3 ) um referencial ortonormado relativamente ao qual a equação da quá-


drica é da forma
λ1 x21 = 2αx2 ,
com λ1 , α ∈ R \ {0}. Neste caso, a quádrica diz-se um cilindro parabólico.

x21 = −x2 x21 = x2

8.6 Exercı́cios
Nos exercı́cios que se seguem considere sempre um referencial ortonormado directo (O; e1 , e2 , e3 )
do espaço afim R3 .

1. Determine equações vectoriais e gerais dos seguintes planos:

(a) Plano que passa pelo ponto (1, 0, 2) e é paralelo aos vectores a = (−2, −1, 0) e b =
(3, 0, 2) ;
(b) Plano que passa pelos pontos A = (2, −1, 4) , B = (0, 0, 1) e C = (0, 3, −5) ;
(c) Plano que passa pelo ponto (3, 0, 0) e é perpendicular ao vector v = (1, 2, 3) .

2. Escreva uma equação vectorial do plano de equação:

(a) x + 5y = 2.
(b) 3x − 2y + 4z − 6 = 0.
(c) x + 3 = 0.
(d) −x + y + z = 1.

3. Escreva uma equação geral do plano definido pelo ponto A e pelos vectores u e v,
sendo:

(a) A = (0, 1, 2) , u = (2, 0, −1) e v = (0, −1, 3) .


(b) A = (2, 0, 0) , u = (5, 1, −1) e v = (−10, 1, 2) .
Exercı́cios 169

4. Determine equações vectoriais das rectas definidas pelas seguintes equações não pa-
ramétricas:

(a) x = 0 e y = 3z .
(b) 2x + y + z = 1 e x − y − z + 2 = 0 .

5. Determine:

(a) Uma equação geral do plano perpendicular à recta de equação

(x, y, z) = (0, 7, 1) + α(0, −1, 1), α ∈ R,

e que passa pelo ponto (0, −8, −2) ;


(b) O ângulo do plano anterior com uma recta paralela à recta de equação

(x, y, z) = (3, 1, 2) + λ(1, 1, 0), λ ∈ R,

6. Determine o ângulo formado pelos planos de equações:

(a) x + y = 0 e y + z = 0 .
(b) 2x + 2y + z = 0 e x − 2y − 2z = 6 .
(c) (x, y, z) = λ(−3, 3, 0) + µ(1, 4, −10), λ, µ ∈ R e 2x − 2y − z = 0 .

7. Em cada um dos casos seguintes, calcule a distância do ponto A ao plano P:

(a) A = (−2, −4, 3) e P : 2x − y + 2z + 3 = 0 .


(b) A = (3, −6, 7) e P : 4x − 3z − 1 = 0 .

8. Escreva equações dos planos paralelos ao plano de equação 2x − 2y − z = 3 e situados


a uma distância de cinco unidades do referido plano.

9. Considere as rectas

R1 : (x, y, z) = (1, 2, 0)+λ(1, 1, 0), λ ∈ R, e R2 : (x, y, z) = (0, 0, 2)+µ(0, 2, 0), µ ∈ R

Determine:

(a) A posição relativa das duas rectas;


(b) Uma recta perpendicular e concorrente com R1 e R2 ;
(c) A distância entre R1 e R2 .

10. Considere as rectas R1 e R2 dadas pelas equações:


x−2 y−2 z−4
R1 : (x, y, z) = (1, 2, 3) + λ(4, 0, 3), λ ∈ R, e R2 : = =
3 3 4
(a) Verifique que as rectas R1 e R2 são enviesadas.
170 Geometria Analı́tica

(b) Escreva uma equação vectorial do plano que contém R1 e é paralelo a R2 .


(c) Determine a distância entre as duas rectas R1 e R2 .

11. Considere o plano P1 definido pela equação

(x, y, z) = (1, 2, 3) + λ(1, 0, 1) + µ(0, 1, 1), λ, µ ∈ R,

e o plano P2 definido pelos pontos (1, 2, 3) , (2, 0, 1) e (0, 0, 0). Determine:

(a) A intersecção dos planos dados;


(b) O ângulo formado pelos dois planos;
(c) A recta R que passa pelo ponto (1, 1, 1) e não intersecta nem P1 nem P2 .

12. Seja A o ponto de coordenadas (1, 2, −2) , R a recta de equação

(x, y, z) = (2, 1, 0) + λ(1, 0, 1), λ∈R

e P o plano de equação x + 3y + 4z = 0. Determine, justificando:

(a) O ângulo da recta R com o plano P.


(b) Uma equação vectorial do plano paralelo a P e que passa no ponto A.
(c) Uma representação não vectorial da recta R.
(d) Um plano que seja concorrente simultaneamente com a recta R e o plano P.

13. Determine equações vectoriais e gerais dos seguintes planos:


a) Plano que passa pelo ponto (1, 0, 2) e é paralelo aos vectores a = (−2, −1, 0) e
b = (3, 0, 2).
b) Plano que passa pelos pontos A = (2, −1, 4), B = (0, 0, 1) e C = (0, 3, −5).
c) Plano que passa pelo ponto (3, 0, 0) e é perpendicular ao vector v = (1, 2, 3).

14. Escreva a equação vectorial do plano de equação:


a) x + 5z = 2.
b) z = x − 2y.
c) x + 3 = 0.
d) 3x − 2y + 4z − 6 = 0.

15. Escreva uma equação geral do plano definido pelo ponto A e pelos vectores u e v,
sendo:
a) A = (0, 1, 2), u = (2, 0, −1) e v = (0, −1, 3).
b) A = (2, 0, 0), u = (5, 1, −1) e v = (−10, 1, 2).

16. Determine os pontos de intersecção do plano de equação 3x − 2y + 5z − 6 = 0 com os


eixos coordenados.
Exercı́cios 171

17. Considere o plano de equação geral ax + by + cz + d = 0, com d 6= 0 (isto é, o plano não
passa pela origem) e a 6= 0, b 6= 0, c 6= 0 (isto é, o plano não é perpendicular a qualquer
dos planos coordenados). Mostre que a equação do plano se pode escrever na forma
x y z
+ + = 1 (eq. axial do plano).
A B C

Qual o significado geométrico de A, B, C?

18. Determine equações vectoriais e reduzidas das seguintes rectas:


a) Recta que passa pelo ponto A = (3, 2, −1) e é paralela ao vector u = (−2, 2, −3).
b) Recta que passa pelos pontos A = (3, 2, −1) e B = (2, 1, 0).
c) Recta que passa pelo ponto C = (1, 0, 2) e é perpendicular ao plano de equação geral
2x − y + z = 0.
d) Recta que passa pelo ponto C = (1, 0, 2) e é paralela ao vector

u = (2e1 − 3e2 ) × (e1 + e2 + e3 ).

19. Determine equações vectoriais das rectas com as seguintes equações não paramétricas:
a) x = 0 ∧ y = 3z.
b) 2x + y + z = 1 ∧ x − y − z + 2 = 0.
c) y = 2 ∧ z = −4.
x−1 y+2
d) 3
= 2
= z6 .

20. Considere a recta R definida pelas equações não paramétricas x − 3 = z ∧ y = z − 1.


a) Determine uma representação da recta S paralela à recta dada, passando pelo ponto
(1, −2, 3).
b) Justifique que as rectas R e S definem um plano e escreva uma representação
cartesiana não paramétrica desse plano.
c) Escreva equações reduzidas da recta que passa por (1, −2, 3) e é perpendicular ao
plano de equação 3x − z = y − 2.
d) Justifique que existe uma, e uma só, recta que passa pelo ponto C = (1, 0, 2) e é
paralela aos planos de equações gerais 2x − y = 5 e x + y + z = 4. Determine uma
equação vectorial e equações normais de tal recta.

21. Verifique se as rectas R1 e R2 seguintes são complanares:


a) R1 : X = (2, 2, 2) + λ(1, 10, 1), λ ∈ R; R2 : X = (1, 2, 1) + µ(0, 1, 2), µ ∈ R.
b) R1 : X = (1, 2, 3) + λ(1, 0, 1), λ ∈ R; R2 : X = (1, 2, 1) + µ(0, 1, 2), µ ∈ R.

22. Considere os planos P1 e P2 de equações gerais, respectivamente, x + y + z = 1 e


x + y + az = b2 . Que condições devem satisfazer a e b para que os planos definam uma
recta?
172 Geometria Analı́tica

23. Considere a famı́lia de rectas definida por:

Rk : (x, y, z) = (4, 1, 2) + λ(k + 1, 0, k + 2), λ ∈ R.

a) Verifique que estas rectas são complanares e indique uma equação geral do plano
que as contém.
b) Determine as rectas da famı́lia anterior paralelas ao plano de equação

x + y + z = 1.

24. Considere as rectas R1 e R2 de equações não paramétricas, respectivamente,


 
x = 2z + 1 x=1
e
y =z+2 y = z + 5.

Determine um sistema de equações reduzidas de uma recta perpendicular a R1 e a R2

25. Determine os valores de l e m de modo que sejam paralelos os planos de equações


gerais:
a) 2x + ly + 3z − 5 = 0 e mx − 6y − 6z + 2 = 0.
b) mx + 3y − 2z − 1 = 0 e 2x − 5y − lz = 0.

26. Considere os planos de equações cartesianas não paramétricas

x + αy + 2z = 0,
2x + (α + 1)y + (β + 2)z = 1,
(α + 1)x + (α + 1)y + 4z = 2.

Determine os valores de α e β para os quais os três planos são paralelos.

27. a) Determine uma equação geral do plano perpendicular à recta de equação

(x, y, z) = (0, 7, 1) + α(0, −1, 1), α ∈ R,

e que passa pelo ponto (0, −8, −2).


b) Determine o ângulo do plano anterior com uma recta paralela à recta de equação

(x, y, z) = (3, 1, 2) + λ(1, 1, 0), λ ∈ R.

28. Determine o ângulo formado pelos planos de equações:


a) x + y = 0 e y + z = 0.
b) 2x + 2y + z = 0 e x − 2y + 2z = 6.
c) (x, y, z) = λ(−3, 3, 0) + µ(1, 4, −10), λ, µ ∈ R, e 2x − 2y − z = 0.
Exercı́cios 173

29. Em cada um dos casos seguintes, calcule a distância do ponto A ao plano P:


a) A = (−2, −4, 3) e P : 2x − y + 2z + 3 = 0.
b) A = (3, −6, 7) e P : 4x − 3z − 1 = 0.

30. Escreva as equações dos planos paralelos ao plano de equação 2x−2y −z = 3 e situados
a uma distância de cinco unidades do referido plano.

31. Determine o conjunto dos pontos equidistantes dos planos de equações:


a) 4x − y − 2z − 3 = 0 e 4x − y − 2z + 3 = 0.
b) 3x + 2y − z + 3 = 0 e 3x + 2y − z − 1 = 0.

32. Considere a recta de equações não paramétricas



2x − 2 = y − 1
kx − k = z.
11
Determine k de modo que seja 21
a distância da recta ao plano de equação 2x+4y +z =
−5.

33. Considere os planos


P1 : x + y = 0
e
P2 : x + y + z = 1.
Determine um sistema de equações cartesianas
√ não paramétricas das duas rectas do
plano P1 cuja distância ao plano P2 é 33 .

34. Considere as rectas


R1 : X = (1, 2, 0) + λ(1, 1, 0), λ ∈ R,
e
R2 : X = (0, 0, 2) + µ(0, 2, 0), µ ∈ R.

Determine:
a) A posição relativa das duas rectas.
b) Uma recta perpendicular e concorrente com R1 e R2 .
c) A distância entre R1 e R2 .

35. Considere as rectas R1 e R2 dadas pelas equações


x−2 y−2 z+4
R1 : X = (1, 2, 3) + λ(4, 0, −3), R2 : = = .
3 3 4

a) Verifique que as rectas R1 e R2 são enviezadas.


b) Escreva a equação vectorial do plano que contém R1 e é paralelo a R2 .
c) Determine a distância entre as duas rectas.
174 Geometria Analı́tica

36. Considere a recta R e o plano P dados pelas equações:

R : X = (1, 2, 3) + λ(4, 0, −3), λ ∈ R,

e
P : −21x + 25y − 3z = 20.

a) Diga qual a posição da recta em relação ao plano.


b) Determine o plano perpendicular à recta R que passa pelo ponto (1, 2, 3) e a inter-
secção deste com o plano P.
c) Determine o ângulo da recta R com o plano P.

37. Considere o plano P1 definido pela equação

X = (1, 2, 3) + λ(1, 0, 1) + µ(0, 1, 1), λ, µ ∈ R,

e o plano P2 definido pelos pontos (1, 2, 3), (2, 0, 1), (0, 0, 0).
a) Determine a intersecção dos planos dados.
b) Determine o ângulo formado pelos dois planos.
c) Determine a recta R que passa pelo ponto (1, 1, 1) e não intersecta nem P1 nem P2 .

38. Sejam A o ponto de coordenadas (1, 2, −2), R a recta de equação

(x, y, z) = (2, 1, 0) + λ(1, 0, 1), λ ∈ R

e P o plano de equação x + 3y + 4z = 0. Determine, justificando:


a) O ângulo da recta R com o plano P.
b) Uma equação vectorial do plano paralelo a P e que passa pelo ponto A.
c) Uma representação não vectorial da recta R.
d) Um plano que seja concorrente simultaneamente com R e P.

39. Sejam R a recta representada pelas equações x−1


2
= y e z = 3 e o plano P representado
por 
 x = 1 + 2λ + µ
y=λ (λ, µ ∈ R).
z =3+µ

Determine:
a) Uma equação vectorial da recta R.
b) Uma equação geral do plano P.
c) A distância de R a P.
d) Um plano que contenha a recta R e seja perpendicular a P.
Exercı́cios 175

40. Considere as rectas:

R : (x, y, z) = (1, 0, 1) + λ(0, 1, −2), λ ∈ R,

e
S : (x, y, z) = (a, 0, 1) + µ(0, 2, b), µ ∈ R.

a) Determine um sistema de equações não paramétricas de R.


b) Justifique, sem efectuar cálculos, que, se a = 2 e b = −4, as rectas são paralelas não
coincidentes.
Considere agora a = 2 e b = 1.
c) Qual a posição relativa das rectas R e S?
d) Determine uma equação geral do plano P que contém R e é paralelo a S.

41. Considere os seguintes planos:

P1 : −2x + 4y − 2z + 3 = 0;
P2 : x + 2z − 1 = 0;
P3 : 2x + 4y + 6z + 2 = 0.

Determine:
a) Uma equação vectorial do plano P1 .
b) O ângulo formado pelos planos P1 e P2 .
c) Uma equação vectorial da recta R que é intersecção dos planos P1 e P2 .
d) A distância da recta R ao plano P3 .

42. Considere os pontos A = (1, 1, 0) e B = (3, 0, 0). Seja ainda a recta R definida pelas
equações
x+4 y−1 z
= = .
2 4 5
determine:
a) Uma equação vectorial da recta R.
b) Uma representação cartesiana não paramétrica da recta S definida pelos pontos A
e B.
c) Uma equação do plano P que contém a recta R e é paralelo à recta S.
d) Uma recta perpendicular a P que passe pelo ponto A.
e) O ponto Q do plano P cuja distância ao ponto A é mı́nima.
176 Geometria Analı́tica

43. Considere a recta R definida pelas equações normais:



y=0
x−4
2
= z + 5,

o plano P1 definido pela equação vectorial

(x, y, z) = (5, 0, 2) + λ(2, 0, 1) + µ(−1, 3, 4), λ, µ ∈ R

e o plano P2 definido pela equação geral x + 3y + 2z = 0.


a) Mostre que a recta R é estritamente paralela ao plano P1 .
b) Determine a distância da recta R ao plano P1 .
c) Mostre que os planos P1 e P2 não são paralelos.
d) Mostre que qualquer plano P3 de equação geral ax + by + cz + d = 0, com b 6= 3a,
intersecta os planos P1 e P2 . Nestas condições, determine a intersecção dos três planos.

44. Considere os pontos A = (1, −1, 0), B = (0, −2, 2) e os vectores u = (1, −1, 0) e
v = (1, −2, −1).
a) Mostre que A, B e u definem um plano P e determine uma sua equação vectorial.
b) Determine uma equação geral do plano P 0 definido por A, u e v.
c) Determine o ângulo formado pelos planos P e P 0 .
d) Determine a posição relativa do plano P e da recta R definida por A e v.

45. Sejam os pontos A = (1, 1, 2), B = (0, 1, 1), C = (0, 0, 1) e P o plano definido pela
equação x + 2y + 4z + 1 = 0.
a) Determine uma equação vectorial do plano paralelo a P que passa por A.
b) Obtenha uma equação vectorial de uma recta que passe por B e intersecte o plano
P.
c) Seja R a recta que passa pelos pontos A e B. Designemos por S a recta que passa
pelos pontos B e C.
i) Determine uma equação vectorial do plano que contém as rectas R e S.
ii) Determine a distância do ponto A à recta S.

46. Considere os pontos de R3 : A = (1, 2, 3), B = (1, 0, −2), C = (0, 3, 5).


a) Mostre que existe um, e um só, plano que passa pelos três pontos indicados e
apresente a equação geral desse plano.
b) Indique as equações normais da recta R que passa pelos pontos A e B.
c) Mostre que a recta R é estritamente paralela ao plano P de equação geral 3x + 5y −
2z = 0.
d) Determine a distância de R a P.
Exercı́cios 177

47. Considere os pontos A = (3, 1, 1), B = (2, 1, 1) e o plano P definido pela equação
1 1
x + √ y + √ z + 7 = 0.
2 2

a) Determine uma equação vectorial da recta perpendicular a P e que passa por A.


b) Calcule a distância do ponto A ao plano P.
c) Seja R a recta que passa pelos pontos A e B.
i) Determine uma equação vectorial da recta R.
ii) Determine o ângulo da recta R com o plano P.

48. Classifique as quádricas de equações:


a) x21 + 2x1 x2 + 2x1 x3 + 4x1 − x2 + 2x3 = 1;
b) 4x21 + x22 + x23 − 4x1 x2 + 4x1 x3 − 2x2 x3 + 12x1 − 6x3 = 3;
c) x21 − 2x2 x3 + 2x1 + 2x3 + 1 = 0;
d) 2x21 − 3x23 − 3x21 + 2x2 x3 + 4x1 2x2 − x3 + 2 = 0;
e) 6x21 + 3x22 + 3x23 + 2x1 x2 − 8x2 = 0;
f) 6x21 + x22 + x23 + 2x2 x3 + 4x1 − 2 = 0;
g) x21 + 6x22 + x23 + 2x1 x3 + 2x3 − 8 = 0;
h) 4x21 − x22 − x23 − 2x2 x3 + 4x1 + 1 = 0;
i) x21 + x22 − 4x23 + 2x1 x2 − 4x1 − 2x3 = 0;
j) x22 + x23 − 2x2 x3 − 6x1 − 4 = 0;
k) x22 + x23 − 2x2 x3 − x2 + x3 + 1 = 0.

Você também pode gostar