Você está na página 1de 44

Fundamentos de Álgebra

Linear
Licenciatura em Ciência de Dados
Departamento de Matemática

Ano Letivo 2023/2024

SEBENTAS

ELABORADO POR:
PROF. SÉRGIO MENDES
PROF. PEDRO MATOS
Conteúdo
1 Vetores em Rn 3
1.1 O espaço vetorial R
n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Subespaços vetoriais de R
n . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Combinações lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Dependência linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Bases, dimensão e coordenadas . . . . . . . . . . . . . . . . . . . . . . . 11
1.6 Produto interno, norma e ângulo entre vetores . . . . . . . . . . . . . . . 14
1.7 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2 Matrizes 20
2.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Soma e multiplicação escalar em Mm×n . . . . . . . . . . . . . . . . . . 21
2.3 Produto de matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.4 Transposição, matrizes simétricas e matrizes anti-simétricas . . . . . . . 25
2.5 Operações elementares e condensação de matrizes . . . . . . . . . . . . . 27
2.6 Rank de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.7 Sistemas lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.7.1 Equação linear e sistemas de equações lineares . . . . . . . . . . 31
2.7.2 Matrizes de um sistema linear e forma matricial . . . . . . . . . . 32
2.7.3 Resolução de sistemas lineares: método da eliminação de Gauss . 34
2.7.4 Classicação de sistemas lineares: critério do rank . . . . . . . . . 37
2.8 Matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.8.1 Aplicação da matriz inversa aos sistemas lineares . . . . . . . . . 41
2.9 Álgebra matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

3 Determinantes 44
3.1 O determinante de uma matriz . . . . . . . . . . . . . . . . . . . . . . . 44
3.1.1 Denição, propriedades e interpretação geométrica . . . . . . . . 44
3.1.2 Determinantes e operações elementares . . . . . . . . . . . . . . . 47
3.2 Matriz adjunta e sistemas de Cramer . . . . . . . . . . . . . . . . . . . . 50
3.2.1 Matriz adjunta e fórmula da inversa . . . . . . . . . . . . . . . . 50
3.2.2 Sistemas de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . 52

4 Funções lineares 53
4.1 O espaço L(U, V ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.1.1 O conceito abstrato de espaço vetorial . . . . . . . . . . . . . . . 53
4.1.2 Funções lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.1.3 O kernel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.1.4 A imagem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.1.5 O teorema da dimensão . . . . . . . . . . . . . . . . . . . . . . . 61
4.2 O isomorsmo L(U, V ) ' Mm×n . . . . . . . . . . . . . . . . . . . . . . 65
4.2.1 A matriz de uma função linear . . . . . . . . . . . . . . . . . . . 65

1
4.2.2 Álgebra das matrizes vs Álgebra das funções lineares . . . . . . . 68
4.3 Mudança de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

5 Valores e vetores próprios 78


5.1 Valores e vetores próprios dum endomorsmo . . . . . . . . . . . . . . . 78
5.2 Diagonalização de endomorsmos . . . . . . . . . . . . . . . . . . . . . . 83

2
1 Vetores em Rn
1.1 O espaço vetorial Rn
Para cada número natural n ∈ N, consideramos o produto cartesiano de n cópias
do conjunto dos números reais R:

Rn = R × ... × R = {(x1 , ..., xn ) : xi ∈ R, i = 1, ..., n}.

Designamos os elementos de Rn por vetores. No caso em que n = 1, designamos os


elementos de R (isto é, os números reais) por escalares.
O conjunto Rn vem equipado com duas operações sobre os seus elementos.

Denição 1.1. Dados dois vetores u = (u1 , . . . , un ), v = (v1 , . . . , vn ) ∈ Rn , a soma de


u com v n
é o vetor de R :

u + v = (u1 + v1 , . . . , un + vn ).

0Rn = (0, . . . , 0) ∈ Rn designa-se por


O vetor vetor nulo de Rn .
n
Para cada u = (u1 , . . . , un ) ∈ R , denimos o simétrico de u como sendo o vetor
−u = (−u1 , . . . , −un ) ∈ Rn .

Proposição 1.2. Dados vetores u, v, w ∈ Rn , temos

(S1) (associatividade) u + (v + w) = (u + v) + w;

(S2) (comutatividade) u + v = v + u;

(S3) (vetor nulo) 0Rn + u = u;

(S4) (vetor simétrico) u + (−u) = 0Rn .

Demonstração. Exercício.

Denição 1.3. Dado u = (u1 , . . . , un ) ∈ Rn e um escalar α ∈ R, a multiplicação escalar


de u por α é o vetor de Rn :
αu = (αu1 , . . . , αun )

Proposição 1.4. Dados vetores u, v ∈ Rn e escalares α, β ∈ R, temos

(E1) (distributividade à direita) α(u + v) = αu + αv ;

(E2) (distributividade à esquerda) (α + β)u = αu + βu;

(E3) (associatividade) α(βu) = (αβ)u;

(E4) (identidade) 1u = u.

Demonstração. Exercício.

3
Observação 1.5. Veremos que outros conjuntos de objetos matemáticos também po-
dem ser munidos de uma soma e multiplicação escalar que gozam das mesmas pro-
priedades listadas anteriormente (Capítulo 2 e Capítulo 4). Isto transmite a ideia da
existência de um tipo de estrutura presente no mundo matemático, da qual o conjunto
Rn (munido das operações introduzidas anteriormente) é um protótipo. Esta estrutura
é abordada no Capítulo 4.

Atendendo à observação anterior, referimo-nos a Rn como espaço vetorial sempre


que queremos realçar as operações de soma e multiplicação escalar denidas anterior-
mente.
O espaço vetorial Rn admite uma natureza geométrica.

Exemplo 1.6. Fixemos um ponto O do plano e consideremos o referencial o.n. Oxy


para esse mesmo plano. O conjunto R2 identica-se com o conjunto dos vetores do plano
aplicados no ponto origem O de coordenadas (0, 0). Mais precisamente, cada elemento
−−→
(x, y) ∈ R2 identica-se com o segmento de reta orientado OP do plano, onde P tem
−−→
coordenadas (x, y): indicamos esta identicação escrevendo (x, y) = OP . Com esta
identicação:

−−→
ˆ O vetor nulo 0R2 = OO identica-se com o ponto origem O;

ˆ A soma em R2 reete-se na soma de vetores no plano através da regra do para-


−→ −−→ −−→
lelogramo: se (xA , yA ) = OA e (xB , yB ) = OB , então (xA + xB , yA + yB ) = OP
obtém-se do paralelogramo [OAP B], onde P (xA + xB , yA + yB ), [OA] é paralelo
a [BP ] e [AP ] é paralelo a [OB] (ver Figura 1);

ˆ A multiplicação escalar em R2 reete-se no reescalamento da norma de vetores


−−→ −−→
no plano: se (xP , yP ) = OP e α ∈ R, então α(xP , yP ) = αOP é o vetor do plano
−−→ −−→ −−→
aplicado a O colinear com OP e cuja norma é ||αOP || = |α| ||OP ||.

Analogamente, podemos identicar o espaço vetorial R3 com o conjunto dos veto-


res do espaço aplicados na origem O de um referencial o.n. Oxyz previamente xado,
onde a soma e a multiplicação escalar têm a mesma interpretação. Motivados por estes
exemplos, chamaremos a R2 o plano cartesiano e a R3 o espaço cartesiano, onde supo-
remos sempre algum referencial o.n. previamente xado. Será útil manter esta intuição
geométrica para Rn com n > 3.

Figura 1: Regra do paralelogramo em R2

4
1.2 Subespaços vetoriais de Rn
Alguns subconjuntos U ⊆ Rn herdam a estrutura do espaço vetorial Rn , no sentido
em que as operações de Rn sobre vetores de U dão como resultado vetores ainda em U .

Denição 1.7. n n
Um subconjunto U ⊆ R diz-se um subespaço vetorial de R , ou um
n
espaço vetorial contido em R , se U e os seus elementos satisfazem as seguintes condi-
ções:

(i) U 6= ∅;

(ii) u, v ∈ U ⇒ u + v ∈ U ;

(iii) α ∈ R, u ∈ U ⇒ αu ∈ U .

Todos os subespaços de Rn contêm o vetor nulo 0Rn de acordo com o seguinte lema.

Lema 1.8. Se U é um subespaço de Rn , então 0Rn ∈ U .

Demonstração. Exercício (dica: usar a hipótese U 6= ∅; observar também que (−1)u =


−u para qualquer vetor
nu∈R ).

Exemplo 1.9. O subconjunto {0Rn } é um subespaço vetorial de Rn , o subespaço nulo


n
de R . Para n = 2 (n = 3, respetivamente) este subespaço é o ponto origem O do plano
cartesiano (ponto origem O do espaço cartesiano, respetivamente). O próprio espaço
n n
vetorial R é também ele um subespaço vetorial de R .

Exemplo 1.10. Para cada a, b ∈ R não todos zero, o subconjunto de R2

U = {(x, y) ∈ R2 : ax + by = 0}
2
é um subespaço vetorial de R (exercício). Geometricamente, U identica-se com uma
2
reta do plano cartesiano R que passa pela origem. Pela arbitrariedade de a, b ∈ R, con-
cluímos que todas as retas do plano cartesiano que contêm o ponto origem identicam-se
2
com subespaços vetoriais de R . No entanto, retas do plano cartesiano que não contêm
2
o ponto origem não se identicam com subespaços de R (porquê?).

Exemplo 1.11. Para cada a, b, c ∈ R não todos zero, o subconjunto de R3

W = {(ta, tb, tc) ∈ R3 : t ∈ R}

é um subespaço vetorial de R3 (exercício). Geometricamente, W identica-se com a reta


do espaço cartesiano que passa pela origem e que tem vetor diretor (a, b, c) (exercício).
a, b, c ∈ R, concluímos que todas as retas do espaço cartesiano que
Pela arbitrariedade de
3
contêm o ponto origem identicam-se com subespaços vetoriais de R . No entanto, retas
do espaço cartesiano que não contêm o ponto origem não se identicam com subespaços
3
de R (porquê?).

5
Exemplo 1.12. Para cada a, b, c ∈ R não todos zero, o subconjunto de R3

V = {(x, y, z) ∈ R3 : ax + by + cz = 0}

é um subespaço vetorial de R3 (exercício). Geometricamente, V identica-se com o


plano do espaço cartesiano que contém o ponto origem e com vetor normal (a, b, c).
Pela arbitrariedade de a, b, c ∈ R, concluímos que todos os planos do espaço cartesiano
que contêm o ponto origem identicam-se com subespaços de R3 . No entanto, planos do
espaço cartesiano que não contêm o ponto origem não se identicam com subespaços de
R3 (porquê?).
Exemplo 1.13. Para cada a1 , . . . , an ∈ R não todos zero, o subconjunto de Rn

H = {(x1 , . . . , xn ) ∈ Rn : a1 x1 + . . . + an xn = 0}

é um subespaço vetorial de Rn (exercício), designado por hiperplano de Rn .


Exemplo 1.14. O subconjunto U ⊂ R2 dado por

U = {(x, y) ∈ R2 : xy ≥ 0}

não é subespaço de R2 , porque não é fechado para a soma. Com efeito, os vetores
(−2, −1), (1, 2) pertencem a U, mas

(−2, −1) + (1, 2) = (−1, 2) ∈


/ U.

A intersecção de subconjuntos de Rn fornece subespaços vetoriais numa situação


particular.

Proposição 1.15. A interseção de dois subespaços vetoriais de Rn


é um subespaço ve-
n
torial de R . Mais geralmente, a intersecção de um número nito de subespaços vetoriais
n
de R é um subespaço vetorial de R .
n

Demonstração. Sejam U, W subespaços vetoriais de Rn . Queremos provar que U ∩W


é subespaço vetorial
n
de R . 0 Rn ∈ U e
Com efeito, 0Rn ∈ W pelo
lema 1.8, portanto
0 Rn ∈ U ∩ W e em particular U ∩ W 6= ∅.
Por outro lado, dados u, v ∈ U ∩ W então u, v ∈ U e u, v ∈ W , donde u + v ∈ U e
u + v ∈ W porque U e W são subespaços vetoriais de Rn ; em particular u + v ∈ U ∩ W .
Por m, dado α ∈ R e u ∈ U ∩ W temos αu ∈ U e αu ∈ W , donde αu ∈ U e
αu ∈ W ; portanto αu ∈ U ∩ W . Concluímos assim que U ∩ W é subespaço vetorial
de V . Daqui não é difícil concluir que a intersecção de um número nito de subespaços
n
vetoriais de R é também um subespaço vetorial de R .
n

Exemplo 1.16. A intersecção de duas retas no plano cartesiano que contêm o ponto
origem só pode ser a própria origem (caso em que as retas são não-paralelas entre si)
ou uma reta que contém o ponto origem (caso em que as retas são paralelas entre si
e portanto uma mesma reta). Em todo o caso, esta intersecção identica-se com um
2
subespaço de R .

6
Exemplo 1.17. O conjunto-solução de um sistema de equações nas incógnitas x, y e z
da forma 
 ax + by + cz = 0
dx + ey + f z = 0
gx + hy + iz = 0

é a intersecção de três planos no espaço cartesiano, e portanto identica-se com um


3
subespaço vetorial de R .

1.3 Combinações lineares


Denição 1.18. Sejam u1 , . . . , uk vetores de Rn . Uma combinação linear dos vetores
u1 , . . . , uk é um vetor
n
de R da forma

α1 u1 + . . . + αk uk
para alguns escalares α1 , . . . , αk ∈ R.
Uma combinação linear α1 u1 + . . . + αk uk ∈ Rn diz-se nula se

α1 u1 + . . . + αk uk = 0Rn .
Uma combinação linear nula diz-se trivial se todos os escalares envolvidos são zero
e diz-se não-trivial caso contrário (isto é, se pelo menos um dos escalares envolvido é
diferente de zero).
Dado u ∈ Rn , dizemos que u é combinação linear dos vetores u1 , . . . , uk ∈ Rn se

u = α1 u1 + . . . + αk uk
para alguns escalares α1 , . . . , αk ∈ R.
Exemplo 1.19. O vetor nulo 0 Rn é sempre combinação linear de qualquer conjunto de
vetores u1 , . . . , uk ∈ Rn , uma vez que basta tomar a combinação linear nula trivial

0Rn = 0u1 + . . . + 0uk


Exemplo 1.20. O vetor (−1, 8) ∈ R2 é combinação linear dos vetores (1, 2) e (−2, 1),
porque
(−1, 8) = 3(1, 2) + 2(−2, 1)
Exemplo 1.21. O vetor (1, 1, 1) ∈ R3 não é combinação linear dos vetores (−1, 1, 0) e
(1, 0, −1); se assim o fosse, existiriam escalares x, y ∈ R tais que

(1, 1, 1) = x(−1, 1, 0) + y(1, 0 − 1) ⇔ (1, 1, 1) = (y − x, x, −y).


Interpretando x, y como incógnitas, os respetivos escalares seriam a solução do seguinte
sistema de equações em x e y:
 
 y−x=1  −2 = 1
x=1 ⇔ x=1
−y = 1 y = −1
 

que é equivalente a um sistema sem soluções em x, y . Concluímos assim a armação


inicial.

7
Denição 1.22. Sejam u1 , . . . , uk ∈ Rn . O conjunto de todas as combinações lineares
dos vetores u1 , . . . , uk ∈ Rn :

span{u1 , . . . , uk } = {α1 u1 + . . . + αk uk : αi ∈ R, i = 1, . . . , k}.

designa-se por span dos vetores u1 , . . . , uk , ou subespaço gerado pelos vetores u1 , . . . , uk .


Observação 1.23. Resulta imediatamente da denição anterior que:

ué combinação linear de u1 , . . . , uk ∈ Rn ⇔ u ∈ span{u1 , . . . , uk }

Proposição 1.24. Sejam u1 , . . . , uk ∈ Rn . Então span{u1 , . . . , uk } é um subespaço


n
vetorial de R .

Demonstração. Seja W = span{u1 , . . . , uk }. Então:

(i) 0Rn ∈ W pelo exemplo 1.19;

(ii) Se u = α1 w1 + . . . + αk wk , v = β1 w1 + . . . + βk wk , ∈ U então

u + v = (α1 + β1 )w1 + . . . + (αk + βk )wk ∈ W ;

(iii) Sejam β∈R e u = α1 w1 + . . . + αk wk ∈ W . Pela propriedade (E2) da prop. 1.4


temos que
βu = (βα1 )w1 + . . . + (βαk )wk ∈ W.

De acordo com a denição, concluímos que W é subespaço de Rn .

Exemplo 1.25. O subespaço gerado pelo vetor nulo de Rn é o subespaço nulo, ou seja
span{0Rn } = {0Rn }.
Exemplo 1.26. Sejam e1 = (1, 0) e e2 = (0, 1). Seja (a, b) ∈ R2 . Então (a, b) é
combinação linear de e1 e e2 , uma vez que:

(a, b) = (a, 0) + (0, b) = a(1, 0) + b(0, 1) = ae1 + be2

Pela arbitrariedade de a, b ∈ R, concluímos que span{e1 , e2 } = R2 . Analogamente, con-


siderando os vetores e1 = (1, 0, 0), e2 = (0, 1, 0) e e3 = (0, 0, 1), temos span{e1 , e2 , e3 } =
R3 .
Exemplo 1.27. Considerem-se os vetores (1, 2), (−2, 1) ∈ R2 . Seja (a, b) ∈ R2 . Então
(a, b) ∈ span{(1, 2), (−2, 1)} se existem escalares x, y ∈ R tais que:

(a, b) = x(1, 2) + y(−2, 1) = (x − 2y, 2x + y).

Interpretando os escalares x, y como incógnitas, a condição anterior é equivalente ao


sistema de equações nas incógnitas x, y :

x = a+2b
  
x − 2y = a x = a + 2y 5
⇔ ⇔
2x + y = b 2(a + 2y) + y = b y = −2a+b
5

8
Portanto (a, b) é combinação linear de (1, 2) e (−2, 1), com

a + 2b −2a + b
(a, b) = (1, 2) + (−2, 1).
5 5
Pela arbitrariedade de a, b ∈ R, concluímos que span{(1, 2), (−2, 1)} = R2 .
Exemplo 1.28. Considere-se a bissetriz dos quadrantes pares de R2 :

U = {(x, y) ∈ R2 : x + y = 0}

Note-se que x + y = 0 ⇔ x = −y , o que permite reescrever U como:

U = {(−t, t) ∈ R2 : t ∈ R}.

Para cada t ∈ R, (−t, t) = t(−1, 1). Pela arbitrariedade de t ∈ R, concluímos


temos
que os elementos de U são precisamente todas as combinações lineares do vetor (−1, 1).
Portanto U = span{(−1, 1)}.
Exemplo 1.29. Sejam a, b, c ∈ R não todos zero. Considere-se o subconjunto de R3 :

W = {(ta, tb, tc) ∈ R3 : t ∈ R}.

Para cada t ∈ R, temos (ta, tb, tc) = t(a, b, c). Portanto W = span{(a, b, c)} (W é uma
reta no espaço cartesiano que contém o ponto origem e com vetor diretor (a, b, c); ver
exemplo 1.11).

Exemplo 1.30. Considere-se o plano do espaço cartesiano que contém o ponto origem
e com vetor normal (1, 1, 1):

V = {(x, y, z) ∈ R3 : x + y + z = 0}

Note-se que x + y + z = 0 ⇔ x = −y − z , o que permite reescrever V como:

V = {(−t − s, t, s) ∈ R3 : t, s ∈ R}.

Para cada t, s ∈ R, temos que

(−t − s, t, s) = (−t, t, 0) + (−s, 0, s) = t(−1, 1, 0) + s(−1, 0, 1).

Pela arbitrariedade de t, s ∈ R, concluímos que os elemento de V são precisamente


todas as combinações lineares dos vetores (−1, 1, 0), (−1, 0, 1) ∈ 3
R . Portanto

V = span{(−1, 1, 0), (−1, 0, 1)}.

A seguinte observação tem interesse teórico.

Observação 1.31. Sejam u1 , . . . , uk ∈ Rn . Se ui é combinação linear dos restantes ve-


tores u1 , . . . , ui−1 , ui+1 , . . . , uk então span{u1 , . . . , uk } = span{u1 , . . . , ui−1 , ui+1 , . . . , uk }
(exercício).

9
1.4 Dependência linear
Denição 1.32. Dados u1 , . . . , uk ∈ Rn , estes dizem-se linearmente independentes se

α1 u1 + . . . + αk uk = 0Rn ⇒ α1 , . . . , αk = 0,

com αi ∈ R, 1 ≤ i ≤ k . Caso contrário, os vetores dizem-se linearmente dependentes.

Resulta imediatamente da denição anterior que um conjunto nito de vetores é


linearmente independente se, e só se, a única combinação linear nula destes vetores é a
trivial.

Proposição 1.33. Um conjunto nito de vetores em Rn é linearmente dependente se,


e só se, um destes vetores é combinação linear dos restantes.

Demonstração. Sejam u1 , . . . , uk ∈ Rn . Então u1 , . . . , uk são linearmente dependentes


se, e só se, existe algum 1 ≤ i ≤ k tal que αi 6= 0. Neste caso:

α1 u1 + . . . + αi ui + . . . + αk uk = 0Rn ⇔ αi ui = −α1 u1 − . . . − αk uk
⇔ ui = (−α1 /αi )u1 + . . . + (−αk /αi )uk

e portanto ui é combinação linear de u1 , . . . , ui−1 , ui+1 , . . . , uk .

Exemplo 1.34. O vetor nulo de Rn é linearmente dependente, uma vez que α0Rn =
0Rn para todo o escalar α ∈ R. Mais geralmente, dados u1 , . . . , uk ∈ Rn , os vetores
0Rn , u1 , . . . , uk são linearmente dependentes: por exemplo, temos a combinação linear
nula não-trivial:
1.0Rn + 0.u1 + . . . + 0.uk = 0Rn .

Exemplo 1.35. Qualquer vetor não-nulo u ∈ Rn é linearmente independente, uma vez


que se αu = 0Rn para algum escalar α ∈ R, então α = 0 necessariamente (exercício).

Exemplo 1.36. Dois vetores u, v ∈ Rn u é combinação linear de


dizem-se colineares se
v (equivalentemente, se v é combinação linear de u); n
caso contrário, u, v ∈ R dizem-se
n
não-colineares. Em particular, dois vetores não-nulos u, v ∈ R são colineares se, e só
se, forem linearmente dependentes (e portanto dois vetores não nulos u, v ∈ R são
n

não-colineares se, e só se, forem linearmente independentes; exercício).

Exemplo 1.37. Os chamados vetores canónicos de Rn ,

e1 = (1, 0, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, 0, 0, . . . , 0, 1)

são linearmente independentes (exercício).

Observação 1.38. U = span{u1 , . . . , uk } ⊆ Rn , então o conjunto {u1 , . . . , uk } tem


Se
sempre um subconjunto formado por vetores (de U ) linearmente independentes (exercí-
cio; ver exemplo 1.35).

10
1.5 Bases, dimensão e coordenadas
Denição 1.39. Seja U um subespaço de Rn . Dizemos que um conjunto nito de vetores
B = {u1 , . . . , uk } é uma base de U se as seguintes condições forem satisfeitas:

(i) span{u1 , . . . , uk } =U (nestas condições, u1 , . . . , uk dizem-se geradores de U );

(ii) u1 , . . . , uk são linearmente independentes.

Em qualquer subespaço vetorial de Rn , não podem existir mais vetores linearmente


independentes do que vetores geradores desse mesmo subespaço, de acordo com o se-
guinte resultado auxiliar (ver observação 1.38).

Lema 1.40. Seja U um subespaço vetorial de Rn e sejam u1 , . . . , uk geradores de U.


Se w1 , . . . , w m são vetores de U linearmente independentes, então m ≤ k.

Demonstração. Ver [1, p. 81].

Teorema 1.41. Seja U um subespaço vetorial de Rn . Quaisquer duas bases de U têm


o mesmo número de elementos.

Demonstração. Sejam B = {u1 , . . . , uk } e B 0 = {u01 , . . . , u0m } duas bases de U . Como


u1 , . . . , uk são geradores de U e u01 , . . . , u0m ∈ U são linearmente independentes, temos
m ≤ k pelo lema anterior. Reciprocamente, os vetores u01 , . . . , u0m também são geradores
de U e u1 , . . . , uk ∈ U são linearmente independentes, pelo que k ≤ m de acordo com o
lema. Portanto k = m.

Denição 1.42. A dimensão de um subespaço vetorial U de Rn é o número de ele-


mentos numa qualquer base de U. Representamos este número por dim U .

Observação 1.43. Convencionamos que dim{0Rn } = 0. A abordagem geral do Cap. 4


permite obter esta convenção antes como uma consequência lógica das denições.

Exemplo 1.44. Como R2 = span{e1 , e2 } e os vetores canónicos e1 = (1, 0), e2 = (0, 1)


são linearmente independentes (exemplo 1.37), o conjunto B = {e1 , e2 } é uma base de
R2 . Por outro lado, os vetores (1, 2) e (−2, 1) são linearmente independentes (porquê?),
0
o que juntamente com o exemplo 1.27 mostra que B = {(1, 2), (−2, 1)} também é uma
2
base de R . Temos que dim R = 2
2

Exemplo 1.45. Mais geralmente, o conjunto b.c. = {e1 , e2 , . . . , en } dos vetores canóni-
cos de Rn é uma base de Rn , a que chamamos a base canónica. Temos que dim Rn = n.

Exemplo 1.46. Vimos no exemplo 1.28 que a bissetriz dos quadrantes pares de R2 é
gerada pelo vetor (−1, 1)

U = {(x, y) ∈ R2 : x + y = 0} = span{(−1, 1)}.

Como (−1, 1) é linearmente independente, concluímos que {(−1, 1)} é uma base de U.
Em particular dim U = 1.

11
Exemplo 1.47. Vimos no exemplo 1.12 que

V = {(x, y, z) ∈ R3 : x + y + z = 0} = span{(−1, 1, 0), (−1, 0, 1)}.


Os vetores (−1, 1, 0) e (−1, 0, 1) são linearmente independentes (porquê?), o que mostra
que {(−1, 1, 0), (−1, 0, 1)} é uma base de V . Em particular dim V = 2.
Os exemplos anteriores levantam naturalmente a questão acerca da existência de ba-
ses. A seguinte observação lida com subespaços vetoriais de Rn da forma span{u1 , . . . , uk }.
Observação 1.48. u1 , . . . , uk ∈ Rn e seja U = span{u1 , . . . , uk }. Pela observa-
Sejam
ção 1.38 existe um subconjunto B ⊆ {u1 , . . . , uk } de vetores linearmente independentes
tal que U = span B . Em particular, B é uma base de U .

O seguinte resultado garante que todo o subespaço vetorial não-nulo de Rn tem


sempre pelo menos uma base.

Proposição 1.49. Seja U um subespaço vetorial não-nulo de Rn . Então existe um


subconjunto B⊆U tal que B é base de U .

Demonstração. Como U 6= {0Rn }, existe pelo menos um vetor não-nulo u ∈ U . Este


vetor é linearmente independente (exemplo 1.35). Se span{u1 } = U então B1 = {u1 }
é uma base de U (caso em que dim U = 1) e o resultado segue. Caso contrário, existe
u2 ∈ U \ span {u1 } e B2 = {u1 , u2 } é linearmente independente. Pelo mesmo raciocínio,
concluímos que ou B2 é uma base de U (dim U = 2) ou então existe u3 ∈ U \ span B2 .
n
Por outro lado, sabemos que R admite pelo menos uma base com n vetores geradores
(exemplo 1.45), e portanto pelo lema 1.40 tem que existir algum 1 ≤ k ≤ n tal que
Bk = {u1 , . . . , uk } é uma base de U ( e então dim U = k ).

O resultado que se segue é particularmente útil na obtenção de bases de um subes-


paço vetorial de Rn , conhecida a dimensão deste mesmo subespaço.

Proposição 1.50. Seja U um subespaço vetorial de Rn e suponhamos que dim U = k .


Então, quaisquer k vetores de U linearmente independentes constituem uma base de U.
Demonstração. Sejam u1 , . . . , uk ∈ U vetores linearmente independentes. Com vista a
uma contradição, suponhamos que span{u1 , . . . , uk } 6= U . Então existe w ∈ U tal que
w não é combinação linear de u1 , . . . , uk . Em particular, w, u1 , . . . , uk são linearmente
independentes, o que implica dim U ≥ k + 1. Como dim U = k , o resultado segue.

O seguinte resultado ilustra um aspeto importante do conceito de base.

Proposição 1.51. Seja U um subespaço vetorial de Rn e seja B = {u1 , . . . , uk } uma


base de U. Então cada elemento de U é combinação linear única dos vetores da base B.
Demonstração. Seja u ∈ U . Como U = span B , então u é combinação linear dos vetores
de B. Suponhamos que u se pode escrever como duas combinações lineares dos vetores
de B:
u = α1 u1 + . . . + αk uk ,
u = β1 u1 + . . . + βk uk .

12
Então:

α1 v1 + . . . + αn vn = β1 v1 + . . . + βn vn ⇔ (α1 − β1 )v1 + . . . + (αn − βn )vn = 0Rn .

Como os vetores de B são linearmente independentes, temos:

α1 − β1 = 0, . . . , αn − βn = 0,

donde concluímos que

α1 = β1 , . . . , αn = βn .

Denição 1.52. SejaU um subespaço vetorial de Rn , seja B = {u1 , . . . , uk } uma


base de U e seja u ∈ U. Se u = α1 u1 + . . . + αk uk , então chamamos aos escalares
α1 , . . . , αk ∈ R as coordenadas de u na base B ; o vetor das coordenadas de u é o vetor
de R :
k

[u]B = (α1 , . . . , αk ) ∈ Rk .

Exemplo 1.53. 2
Seja (1, 8) ∈ R . Sabemos que b.c. = {e1 , e2 } e B = {(1, 2), (−2, 1)}
2
são duas bases de R . Então [(1, 8)]b.c = (1, 8) e [(1, 8)]B = (3, 2) (ver exemplos 1.20 e
1.26).

Exemplo 1.54. U = {(x, y) ∈ R2 : x + y = 0} a


Seja bissetriz dos quadrantes pares
do plano cartesiano. Sabemos que B = {(−1, 1)} é uma base de U. Para cada escalar
t ∈ R, temos [(−t, t)]B = t.

Exemplo 1.55. Consideremos o plano V = {(x, y, z) ∈ R3 : x + y + z = 0}. Sabemos


que B = {(−1, 1, 0), (−1, 0, 1)} é uma base de V . Então (3, 1, −4) ∈ V e [(3, 1, −4)]B =
(1, −4).

Exemplo 1.56. O conjuntoB = {(1, 1, 0), (0, 1, 1), (1, 0, 2)} é uma base de R3 (exercí-
3
cio). Calculemos as coordenadas do vetor (1, 2, 4) ∈ R na base B . Com efeito, sabemos
que existem escalares x, y, z ∈ R tais que:

(1, 2, 4) = x(1, 1, 0) + y(0, 1, 1) + z(1, 0, 2) = (x + z, x + y, y + 2z).

Interpretando x, y, z como incógnitas, pretendemos então resolver o seguinte sistema de


equações:

   
 x+z = 1  x+z = 1  x+z = 1  x = 0
x+y = 2 ⇔ y−z = 1 ⇔ y−z = 1 ⇔ y = 2
y + 2z = 4 y + 2z = 4 3z = 3 z = 1
   

Concluímos assim que [(1, 2, 4)]B = (0, 2, 1).

13
1.6 Produto interno, norma e ângulo entre vetores
Denição 1.57. Dados u = (u1 , . . . , un ), v = (v1 , . . . , vn ) ∈ Rn , o produto interno de
u com v é o escalar
u|v = u1 v1 + . . . + un vn ∈ R

Observação 1.58. Outras notações comuns para o produto interno são u · v , hu, vi ou
hu|vi.

O produto interno de vetores em Rn goza das seguintes propriedades essenciais.

Proposição 1.59. Dados u, v, w vetores de Rn e escalares α, β ∈ R, temos que:

(i) u|u ≥ 0 e u|u = 0 ⇔ u = 0Rn ;

(ii) u|v = v|u;

(iii) (αu + βw)|v = α(u|v) + β(w|v)

(iv) u|(αv + βw) = α(u|v) + β(u|w);

Demonstração. Exercício.

Exemplo 1.60. Dados (−1, 1, 0), (−1, 0, 1) ∈ R3 , temos que:

(−1, 1, 0)|(−1, 0, 1) = (−1) × (−1) + 1 × 0 + 0 × 1 = 1.

Dados (1, 0, 3, 2), (0, 1, 1, 4) ∈ R4 , temos que:

(1, 0, 3, 2)|(0, 1, 1, −4) = 1 + 0 × 1 + 3 × 1 + 2 × (−4) = −5.

O produto interno permite denir uma noção de comprimento para vetores de Rn .

Denição 1.61. A norma euclideana, ou norma, de u ∈ Rn é o escalar

p q
kuk = u|u = u21 + . . . + u2n

Observação 1.62.
p
Para qualquer u ∈ Rn , o número u|u está bem denido devido à
propriedade (i) da proposição 1.59.

Exemplo 1.63. A norma do vetor nulo 0Rn é k0Rn k = 0;


A norma do vetor u = (−1, 0, 3, −5, 1) ∈ R5 é
p √
kuk = (−1)2 + 02 + 32 + (−5)2 + 12 = 36 = 6

A norma euclideana em Rn goza das seguintes propriedades básicas.

Proposição 1.64. Dados u, v ∈ Rn e α ∈ R, tem-se:

(N 1) kuk ≥ 0 e kuk = 0 ⇔ u = 0;

14
(N 2) kαuk = |α| kuk.
Demonstração. Exercício.

O produto interno em Rn goza da seguinte propriedade essencial.

Teorema 1.65. (Desigualdade de Cauchy-Schwarz) Dados u, v ∈ Rn , tem-se:

|u|v| ≤ kukkvk

Demonstração. Se v = 0Rn , o resultado é óbvio. Suponhamos então v 6= 0 e seja w=


u + αv para algum escalar α ∈ R. Então:

0 ≤ kwk = (u + αv)|(u + αv)


= kuk2 + 2α(u|v) + kvk2 α2
= p(α)

Como p(α) ≥ 0, o discriminante ∆ = 4(u|v)2 − 4(v|v)(u|u) do polinómio quadrático


p(α) satisfaz ∆ ≤ 0. Donde obtém-se:

4(u|v)2 − 4(v|v)(u|u) ≤ 0 ⇔ (u|v)2 ≤ (u|u)(v|v) ⇔ |u|v| ≤ kukkvk

Dados dois vetores não-nulos u, v ∈ Rn , resulta da desigualdade de Cauchy-Schwarz


que:

|u|v| u|v u|v


= ≤ 1 ⇔ −1 ≤ ≤1
kukkvk kukkvk kukkvk
Por outro lado, a função cosseno estabelece uma bijecção entre o intervalo [0, π] ⊂ R e
o intervalo [−1, 1] ⊂ R. Isto permite denir uma noção de ângulo entre quaisquer dois
vetores
n
não-nulos de R .

Denição 1.66. O ângulo entre dois vetores não-nulos u, v ∈ Rn é o escalar θ ∈ [0, π]


tal que
u|v
cos θ = .
kukkvk
Observação 1.67. Como kuk, kvk ≥ 0, da denição de ângulo resulta que:

π
(i) u|v > 0 ⇔ cos θ > 0 ⇔ 0 ≤ θ < 2 ⇔θ é agudo ;

π
(ii) u|v = 0 ⇔ cos θ = 0 ⇔ θ = 2 ⇔θ é reto ;

π
(iii) u|v < 0 ⇔ cos θ < 0 ⇔ 2 <θ≤π⇔θ é obtuso .

Da desigualdade de Cauchy-Schwarz também resulta a seguinte desigualdade.

Teorema 1.68 (Desigualdade triangular). Para quaisquer dois vetores u, v ∈ Rn , tem-


se que ku + vk2 ≤ kuk2 + kvk2 .

15
Demonstração. Da desigualdade de Cauchy-Schwarz, temos que:

ku + vk2 = kuk2 + 2u|v + kvk2


≤ kuk2 + 2kukkvk + kvk2
= (kuk + kvk)2 .

Aplicando a raíz quadrada a ambos os membros da desigualdade acima, obtemos

ku + vk ≤ kuk + kvk.

1.7 Ortogonalidade
Denição 1.69. Dois vetores não-nulos u, v ∈ Rn dizem-se ortogonais se u|v = 0, e
neste caso escrevemos u⊥v .

Exemplo 1.70. Os vetores (1, 2), (−2, 1) ∈ R2 são ortogonais:

(1, 2)|(−2, 1) = 1 × (−2) + 2 × 1 = 0.

Os vetores (−1, 1, 0, 0), (1/2, 1/2, 1, 0) ∈ R4 são ortogonais:

(−1, 1, 0, 0) | (1/2, 1/2, 1, 0) = −1/2 + 1/2 = 0.

Os vetores (−1, 1, 0), (−1, 0, 1) ∈ R3 não são ortogonais.

Observação 1.71. De acordo com a observação 1.67, dois vetores não-nulos u, v ∈ Rn


são ortogonais precisamente quando o ângulo entre estes é π/2. Assim, quando n = 2
ou n = 3, a noção de ortogonalidade resume-se à noção de perpendicularidade.

O seguinte resultado mostra que a desigualdade triangular é uma igualdade somente


no caso ortogonal.

Teorema 1.72 (Teorema de Pitágoras em Rn ). Dois vetores não-nulos u, v ∈ Rn são


ortogonais se, e só se,
ku + vk2 = kuk2 + kvk2 .

Demonstração.

ku + vk2 = (u + v)|(u + v) = kuk2 + 2u|v + kvk2 = kuk2 + kvk2 ⇔ u⊥v.

O seguinte resultado relaciona ortogonalidade com independência linear.

Proposição 1.73. Sejam u1 , . . . , uk ∈ Rn e suponhamos que ui ⊥uj para cada 1 ≤


i, j ≤ k , com i 6= j . Então u1 , . . . , uk são linearmente independentes.

16
Demonstração. Exercício.

Denição 1.74. Seja U um subespaço vetorial de Rn e seja B = {u1 , . . . , uk } uma base


de U. Então B diz-se ortogonal se ui ⊥uj para cada 1 ≤ i, j ≤ k , com i 6= j .

Exemplo 1.75. Os conjuntos b.c. = {(1, 0), (0, 1)} e B = {(1, 2), (−2, 1)} são bases
2
ortogonais de R .

Exemplo 1.76. O conjunto B = {(−1, 1, 0, 0) | (1/2, 1/2, 1, 0)} é uma base ortogonal
4
do subespaço span B de R .

Exemplo 1.77. A base B = {(−1, 1, 0), (−1, 0, 1)} do plano x+y+z = 0 não é
ortogonal.

As coordenadas de um vetor num dado subespaço vetorial de Rn em relação a uma


base ortogonal admitem a seguinte descrição.

Proposição 1.78. Seja U ⊆ Rn subespaço vetorial e B = {u1 , . . . , uk } uma base orto-


gonal de U. Dado u ∈ U , se u = α1 u1 + . . . + αk uk então:
u|ui
αi = , 1 ≤ i ≤ k.
kui k
Demonstração. Exercício.

Um vetor não-nulo u ∈ Rn diz-se unitário se kuk = 1.


Denição 1.79. U um subespaço vetorial de Rn e B uma base de U . Então B
Seja
diz-se ortonormada se B é ortogonal e todos os seus vetores são unitários.

Exemplo 1.80. O conjunto B = √15 (1, 2), √15 (−2, 1) é uma base ortonormada de
n o

R2 .
Exemplo 1.81. A base canónica b.c. = {e1 , . . . , en } de Rn é ortonormada.

Exemplo 1.82. O conjunto:


( )

r   
1 2 1 1 1 1 1
B= √ (−1, 1, 0, 0) , , , 1, 0 , 3 , ,− ,0 ,
2 3 2 2 3 3 3

é uma base ortonormada do subespaço vetorial span B de R4 .


A descrição de coordenadas em bases ortonormadas é dada pelo seguinte resultado.

Proposição 1.83. Seja U ⊆ Rn subespaço vetorial e B = {u1 , . . . , uk } uma base orto-


normada de U. Dado u ∈ U , se u = α1 u1 + . . . + αk uk então:

αi = u|ui , 1 ≤ i ≤ k.

Demonstração. Exercício.

17
Para qualquer vetor não-nulo arbitrário u = (u1 , . . . , un ) ∈ Rn , o vetor de Rn :
 !
u u1 un
û = = ,...,
kuk kuk kuk

é colinear com u e unitário (vericar), designado por normalização de u.

Observação 1.84. U ⊆ Rn subespaço vetorial. Se B = {u1 , . . . , uk }


Seja é base orto-
gonal de U, então B̂ = {uˆ1 , . . . , uˆk } é base ortonormada de U .

Sabemos que todo o subespaço vetorial de Rn tem sempre uma base, de acordo com
a proposição1.49. A observação anterior sugere analisar condições para a existência de
bases que sejam ortogonais.

Denição 1.85. Sejam u, v ∈ Rn . A projecção ortogonal de u segundo v é o vetor de


Rn :
u|v u|v
projv u= v= v̂.
kvk2 kvk
O seguinte resultado fundamental estabelece a existência de bases ortogonais para
qualquer subespaço vetorial de Rn com dimensão superior ou igual a 2, e fornece um
algoritmo de construção (omitimos a demonstração do resultado).

Teorema 1.86. (Método de ortogonalização de Gram-Schmidt) Seja U ⊆ Rn um su-


bespaço vetorial com dim U = k ≥ 2. Se B = {u1 , . . . , uk } é uma base de U , então
B 0 = {u01 , . . . , u0k } é base ortogonal de U , onde

u01 = u1
u02 = u2 − proju01 u2
u03 = u3 − proju01 u3 − proju02 u3
...
u0k = uk − proju01 uk − proju02 uk − . . . − proju0 uk .
k−1

Exemplo 1.87. Consideremos o subespaço de R4 :

V = span{(−1, 1, 0, 0), (0, 1, 1, 0), (1, 1, 1, 0)}.

Como (−1, 1, 0, 0), (0, 1, 1, 0), (1, 1, 1, 0) são linearmente independentes (exercício), o
conjunto B = {(−1, 1, 0, 0), (0, 1, 1, 0), (1, 1, 1, 0)} é base de V. De acordo com o teo-
rema anterior:

v10 = v1 = (−1, 1, 0, 0)
!
0 v2 |v10 1 1 1
v2 = v2 − 0 0 v10 = (0, 1, 1, 0) − (−1, 1, 0, 0) = ( , , 1, 0)
v1 |v1 2 2 2

18
! !
v3 |v10 v3 |v20
v30 = v3 − v10 − v20
v10 |v10 v20 |v20
2 1 1
= (1, 1, 1, 0) − 0(−1, 1, 0, 0) − ( , , 1, 0)
3/2 2 2
2
= (1, 1, 1, 0) − (1, 1, 2, 0)
3
1 1 1
= ( , , − , 0)
3 3 3
Assim,     
0 1 1 1 1 1
B = (−1, 1, 0, 0), , , 1, 0 , , ,− ,0
2 2 3 3 3
4
é uma base ortogonal de R . Normalizando os vetores de B0 obtemos ainda uma base
4
ortonormada de R (ver exemplo 1.82):
( )

r   
1 2 1 1 1 1 1
Bb0 = √ (−1, 1, 0, 0) , , , 1, 0 , 3 , ,− ,0 ,
2 3 2 2 3 3 3

19
2 Matrizes
2.1 Generalidades
Denição 2.1. Uma matriz é uma tabela de números reais, a que chamamos as entradas
da matriz; se a tabela tem m linhas e n colunas, dizemos que se tem uma matriz m×n
ou que a matriz é do tipo m × n (lê-se  m por n ).
Reservamos letras romanas maiúsculas para denotar matrizes em geral e as respetivas
letras minúsculas para denotar as suas entradas. Mais precisamente, se B é uma matriz
do tipo m × n, então representamos B em geral usando a notação:
 
b11 b12 · · · b1n
 a21 b22 · · · b2n 
B= .
 
. .. . 
 .. .
. . . 
.
bm1 bm2 · · · bmn
e para cada 1 ≤ i, j ≤ n, bij ∈ R a entrada (i, j) da matriz B .
chamamos ao escalar
Sempre que o tipo da matriz B estiver subentendido, podemos denotar B e as suas
entradas em geral escrevendo B = [bij ]. As entradas de B da forma bii designam-se por
entradas diagonais, e ao conjunto das entradas diagonais de B chamamos a diagonal de
B.
Exemplo 2.2. Seja
 
1 2 3 5
B = 0 0 −7 1 .
2 −4 − 12 9
Então B é uma matriz 3 × 4. A entrada (2, 3) de B é b23 = −7. A entrada (3, 1) de B
é b31 = 2. A diagonal de B é formada pelas entradas b11 = 1, b22 = 0 e b33 = −1/2.
Será útil por vezes identicar as linhas e as colunas de uma matriz com vetores de
algum espaço vetorial Rn .
Denição 2.3. Seja B = [bij ] ∈ Mm×n .
ˆ A i-ésima linha de B é o vetor LB n
i = (bi1 , . . . , bin ) ∈ R ;

ˆ A j -ésima coluna de B é o vetor CjB = (b1j , . . . , bmj ) ∈ Rm .


Exemplo 2.4. Se B é a matriz do exemplo 2.2, então

LB B B 4
1 = (1, 2, 3, 5), L2 = (0, 0, −7, 1), L3 = (2, −4, −1/2, 9) ∈ R ,

C1B = (1, 0, 2), C2B = (2, 0, 4), C3B = (3, −7, −1/2), C4B = (5, 1, 9) ∈ R3 .
m × n por Mm×n .
Denotamos o conjunto de todas as matrizes
Uma matriz n×n n designa-se por ordem da matriz
diz-se quadrada; neste caso,
quadrada (dizemos então que a matriz é quadrada de ordem n). Denotamos o conjunto
das matrizes quadradas de ordem n por Mn .
Designamos matrizes do tipo n × 1 por vetores coluna e matrizes do tipo 1 × n por
vetores linha.

20
Observação 2.5. Para cada n ∈ N, será útil por vezes identicar os elementos de
Mn×1 com vetores de Rn da seguinte forma:
 
a11
 .. 
 .  7→ (a11 , . . . , an1 )
an1

Analogamente, identicamos por vezes os elementos de M1×n com vetores de Rn (sendo


a identicação óbvia neste caso).

Denição 2.6. Duas matrizes A = [aij ] ∈ Mm×n e B = [bij ] ∈ Mp×q são iguais (e
escrevemos A = B) se vericam:

(i) m = p e n = q;

(i) aij = bij , ∀i = 1, . . . , m, j = 1, . . . , n.

2.2 Soma e multiplicação escalar em Mm×n


Denição 2.7. Dadas duas matrizes A = [aij ], B = [bij ] ∈ Mm×n , a soma de A com
B é a matriz m × n:
A + B = [aij + bij ].

A matriz nula do tipo m×n é a matriz m×n cujas entradas são todas iguais a
zero; denotamos esta matriz por 0m×n .

Exemplo 2.8. A matriz nula do tipo 2 × 3 é a matriz:


 
0 0 0
02×3 = .
0 0 0

Para cada A = [aij ] ∈ Mm×n , denimos a matriz simétrica de A como sendo a


matriz −A = [−aij ] ∈ Mm×n .

Proposição 2.9. Dadas matrizes A, B, C ∈ Mm×n , temos

(S1) (associatividade) A + (B + C) = (A + B) + C ;

(S2) (comutatividade) A + B = B + A;

(S3) (matriz nula) 0m×n + A = A;

(S4) (matriz simétrica) A + (−A) = 0m×n .

Demonstração. Exercício.

Denição 2.10. Dado A = [ai j] ∈ Mm×n e α ∈ R, a multiplicação escalar de A por


α é a matriz m × n:
αA = [αaij ].

21
Proposição 2.11. Dadas matrizes A, B, C ∈ Mm×n e escalares α, β ∈ R, temos

E1 (distributividade à direita) α(A + B) = αA + αB ;

E2 (distributividade à esquerda) (α + β)A = αA + βA;

E3 (associatividade) α(βA) = (αβ)A;

E4 (identidade) 1A = A.

Demonstração. Exercício.

Exemplo 2.12. Sejam


   
1 2 3 −2 2 4
A= , B= .
0 −4 1/2 6 0 −1

Calculemos a matriz 3A + 12 B :
   
1 1 2 3 1 −2 2 4
3A + B = 3 +
2 0 −4 1/2 2 6 0 −1
   
3 6 9 −1 1 2
= +
0 −12 3/2 3 0 −1/2
 
2 7 11
= .
3 −12 1

2.3 Produto de matrizes


Dada uma matriz A, será útil por vezes denotar a entrada (i, j) de A por (A)ij .

Denição 2.13. Dadas matrizes A ∈ Mm×n e B ∈ Mn×p , o produto de A com B é a


matriz AB ∈ Mm×p cuja entrada (i, j) é:

(AB)ij = LA B
i |Cj = ai1 b1j + ai2 b2j + . . . + ain bnj

A seguinte gura esquematiza a relação entre os tipos das matrizes envolvidas no


produto:

× =

A B = AB
m×n n×p m×p

22
Exemplo 2.14.
      
1 2 −1 2 (1, 2)|(−1, 1) (1, 2)|(2, 1) 1 4
= =
3 4 1 1 (3, 4)|(−1, 1) (3, 4)|(2, 1) 1 10

Exemplo 2.15. Considerem-se as matrizes

 
  2 0  
1 2 0 1 −1
A= , B = 1/2 1  , C =
1 1 −3 2 5
1 −1

Os produtos AC e CB não estão denidos (os tipos das matrizes são incompatíveis
para estes produtos; vericar). Os restantes produtos estão denidos:

 
  2 0  
1 2 0  3 2
AB = 1/2 1  =
1 1 −3 −1/2 4
1 −1

   
2 0   2 4 0
1 2 0
BA = 1/2 1  = 3/2 2 −3
1 1 −3
1 −1 0 1 3
    
1 −1 1 2 0 0 1 3
CA = =
2 5 1 1 −3 7 9 −15
   
2 0   2 −2
1 −1
BC = 1/2 1  = 5/2 9/2
2 5
1 −1 −1 −6

Observação 2.16. Os exemplos anteriores mostram que o produto de matrizes NÃO


goza da comutatividade em geral.

Denição 2.17. A matriz identidade de ordem n é a matriz quadrada In ∈ Mn com


entradas diagonais iguais a um e as restantes iguais a zero, isto é:

In = [δij ]

onde δij é o símbolo de Kronecker


1 i=j
δij =
6 j
0 i=

O produto de matrizes goza das seguintes propriedades.

23
Proposição 2.18. Sejam A, B, C matrizes e α ∈ R. Então, sempre que os produtos
envolvidos estiverem denidos:

(i) (associatividade) A(BC) = (AB)C ;

(ii) (distributividade à direita) A(B + C) = AB + AC ;

(iii) (distributividade à direita) (B + C)A = BA + CA;

(iv) αAB = (αA)B = A(αB);

(v) (elementos identidade) AIn = Im A = A;

(vi) (elementos absorventes) se A ∈ Mm×n , então 0p×m A = 0p×n e A0n×q = 0m×q ;


Demonstração. Propriedade (i): se A ∈ Mm×n , B ∈ Mn×p e C ∈ Mp×q , então:

n n p
!
X X X
[A(BC)]ij = aik (BC)kj = aik bkr crj
k=1 k=1 r=1
p
n X
X
= aik (bkr crj )
k=1 r=1
p n
!
X X
= (aik bkr ) crj
r=1 k=1
Xp
= (AB)ir crj
r=1
= [(AB)C]ij

As restantes propriedades cam como exercício.

A associatividade do produto matricial permite denir potências positivas de ma-


trizes quadradas.

Denição 2.19. Se A ∈ Mn e k ∈ N, então a k -ésima potência de A é a matriz


quadrada de ordem n:
Ak = |A × A ×
{z. . . × A} .
k vezes

As habituais regras de potência estendem-se às potências matriciais.

Proposição 2.20. Sejam A ∈ Mn e α ∈ R. Para cada r, s ∈ N, temos:

(i) Ar As = Ar+s ;

(ii) (Ar )s = Ars ;

(iii) (αA)r = αr Ar .
Demonstração. Exercício.

24
2.4 Transposição, matrizes simétricas e matrizes anti-simétricas
Denição 2.21. Dada A = [aij ] ∈ Mm×n , a transposta de A é a matriz A> ∈ Mn×m
denida por
(A> )ij = aji .
 
1 2 0
Exemplo 2.22. A transposta da matriz A =
−1 1/3 4
∈ M2×3 é a matriz

 
1 −1
A> = 2 1/3 ∈ M3×2 .
0 4

A transposição goza das seguintes propriedades.

Proposição 2.23. Sejam A, B matrizes e seja α ∈ R. Então, sempre que as operações


envolvidas estiverem denidas:

(i) (A> )> = A;

(ii) (A + B)> = A> + B > ;

(iii) (αA)> = αA> ;

(iv) (AB)> = B > A> .

Demonstração. Propriedade (iv): se A = [aij ] ∈ Mm×n e B = [bij ] ∈ Mn×p então, para


cada 1≤i≤m e 1 ≤ j ≤ p:

(AB)>
ij = (AB)ji
Xn
= ajk bki
k=1
Xn
= bki ajk
k=1
Xn
= b> >
ik akj
k=1
= (B > A> )ij

As restantes propriedades são exercício.

Denição 2.24. Seja A ∈ Mm×n uma matriz quadrada.

(i) A diz-se simétrica se A> = A, ou seja, se aij = aji .

(ii) A diz-se anti-simétrica se A> = −A, ou seja, se aij = −aji .

25
Observação 2.25. As entradas diagonais de uma matriz anti-simétrica são necessa-
riamente iguais a zero.

Proposição 2.26. Toda a matriz A ∈ Mm×n se escreve de uma única forma como
soma de uma matriz simétrica com uma matriz anti-simétrica.

Demonstração. Basta ver que a matriz A + A> é simétrica, a matriz A − A> é anti-
simétrica e

1 1
A = (A + A> ) + (A − A> ).
2 2

 
1 2 3
Exemplo 2.27. Calculemos a parte simétrica e anti-simétrica da matriz A = 4 5 6.
7 8 9
Tem-se:
     
1 2 3 1 4 7 2 6 10
A + A> = 4 5 6 + 2 5 8 =  6 10 14
7 8 9 3 6 9 10 14 18

     
1 2 3 1 4 7 0 −2 −4
A − A> = 4 5 6 − 2 5 8 = 2 0 −2
7 8 9 3 6 9 4 2 0

Então,
 
1 3 5
1
(A + A> ) = 3 5 7
2
5 7 9

é a parte simétrica de A, e

 
0 −1 −2
1
(A − A> ) = 1 0 −1
2
2 1 0

é a parte anti-simétrica de A.

26
2.5 Operações elementares e condensação de matrizes
Uma operação elementar sobre as linhas de uma matriz é qualquer uma das seguintes
três operações:

Tipo Descrição Notação


Tipo I Troca de 2 linhas A → A0
Li ↔Lj
multiplicar uma
linha por um
Tipo II A → A0
escalar α não Li →αLi
nulo
Substituir uma li-
nha pela sua soma
Tipo III A → A0
com um múltiplo Li →Li +αLj
de outra

Denição 2.28. Uma matriz A diz-se em escada se satisfaz as seguintes condições:

(i) As linhas nulas de A encontram-se abaixo das linhas não-nulas de A;

(ii) A primeira entrada diferente de zero numa dada linha de A (chamada pivô dessa
mesma linha) ocorre numa coluna à direita daquela onde ocorre o pivô da linha
anterior.

O seguinte resultado, que enunciamos sem demonstração, estabelece a possibilidade


de obter uma matriz em escada a partir de qualquer matriz.

Teorema 2.29. Seja A uma matriz. Então existe uma sequência nita de operações
elementares sobre as linhas de A tal que a matriz resultante é uma matriz em escada e
do mesmo tipo que A.

Dada uma matriz A, designamos por condensação de A o processo que consiste


na obtenção de uma matriz em escada através de uma sequência nita de operações
elementares sobre as linhas de A.
Esquematicamente, a condensação de uma matriz A pode representar-se concate-
nando as sucessivas operações elementares e as matrizes resultantes, até atingir-se a
matriz em escada A0 desejada:

A −→ . . . −→ A0

Observação 2.30. Notar que a matriz em escada obtida através de condensação não é
única. Em particular, é sempre possível transformar os pivôs com operações elementares
de tipo II.

É possível concretizar o efeito de uma operação elementar utilizando o produto de


matrizes.

27
Denição 2.31. Uma matriz E quadrada de ordem n diz-se elementar se E obtém-se
da matriz identidade In através de uma operação elementar.

 
1 0
Exemplo 2.32. A matriz quadrada E=
−3 1
é elementar, porque:

   
1 0 1 0
I2 = −→ = E.
0 1 L2 → L2 + (−3)L1 −3 1

 
0 1 0
A matriz quadrada F = 1 0 0  é elementar, porque:
0 0 1
   
1 0 0 0 1 0
I3 =  0 1 0  −→  1 0 0 =F
L1 ↔ L2
0 0 1 0 0 1

O seguinte resultado, que enunciamos sem demonstração, é essencial em considera-


ções teóricas envolvendo a condensação de matrizes.

Proposição 2.33. Sejam A, A0 ∈ Mm×n e suponhamos que A −→ A0 por alguma


operação elementar. Então existe uma matriz elementar E ∈ Mm tal que A0 = EA.

Exemplo 2.34. Sejam E, F as matrizes elementares do exemplo anterior.


Considere-se a operação elementar:

   
1 2 1 2
A= −→ .
4 −3 L2 → L2 + (−3)L1 1 −9

Então:
    
1 0 1 2 1 2
EA = = .
−3 1 4 −3 1 −9

Considere-se a operação elementar:

   
2 0 3 0 −1 0
B =  0 −1 0  −→  2 0 3 
L1 ↔ L2
4 −5 1 4 −5 1

Então:
    
0 1 0 2 0 3 0 −1 0
F B =  1 0 0   0 −1 0  =  2 0 3 
0 0 1 4 −5 1 4 −5 1

28
2.6 Rank de uma matriz
Denição 2.35. Seja A ∈ Mm×n . O espaço-coluna de A é o subespaço vetorial

C(A) = span {C1A , . . . , CnA } ⊆ Rm .

Observação 2.36. Sabemos pela observação 1.48 que todo o conjunto nito de gera-
dores de um subespaço vetorial de Rn admite um subconjunto que é base. Assim, se A
é uma matriz então dim C(A) é o maior número de colunas linearmente independentes
entre as colunas que geram C(A). Daqui resulta que se A é matriz em escada então
dim C(A) coincide com o número de pivôs de A (exercício).
Proposição 2.37. SeB é uma matriz que se obtém de A através de uma operação
elementar, então dim C(A) = dim C(B).
Demonstração. Sejam A, B ∈ Mm×n . Dividimos a prova um duas partes

I. Fixemos índices-coluna 1 ≤ i1 ≤ . . . ≤ ik ≤ n. Vamos provar que, se A→B por


alguma operação elementar, então:

CiB1 , . . . , CiBk ∈ Rm linearmente indep. ⇔ CiA1 , . . . , CiAk ∈ Rm linearmente indep.

Com efeito, suponhamos que CiB1 , . . . , CiBk são linearmente independentes e supo-
nhamos que existem escalares α1 , . . . , αk ∈ R tal que:

α1 CiA1 + . . . + αk CiAk = 0Rm .

Por hipótese, A→B por alguma operação elementar. Pela proposição 2.33, temos
que B = EA para alguma matriz (elementar) E ∈ Mm . Em particular, ECjA =
CjB para todo o 1 ≤ j ≤ n (resulta da denição de produto de matrizes; exercício).
Donde:

E α1 CiA1 + . . . + αk CiAk = E 0Rm




⇔ α1 ECiA1 + . . . + αk ECiAk = 0Rm


⇔ α1 CiB1 + . . . + αk CiBk = 0Rm

e portanto α1 = . . . = αk = 0 pela independência linear das colunas CiB1 , . . . , CiBk .


A A
Isto mostra que Ci , . . . , Ci são linearmente independentes. O argumento recí-
1 k
proco é análogo, porque se A → B por alguma operação elementar, então B → A
por outra operação elementar do mesmo tipo (exercício) e portanto existe uma
matriz F tal que A = F B , podendo então repetir o argumento anterior. Provamos
assim a armação inicial.

II. Provamos que C(A) = C(B), utilizando a observação 1.31. Mais precisamente,
provamos que se A → B por alguma operação elementar, então:

CjA é comb. linear das restantes colunas de A

⇔ CjB é comb. linear das restantes colunas de B.

29
Com efeito, seja E B = EA. Se CjA é combinação linear
matriz elementar tal que
das restantes colunas de A, então existem escalares α1 , . . . , αj−1 , αj+1 , . . . , αk ∈ R
tal que:

CjA = α1 C1A + . . . + αj−1 Cj−1


A A
+ αj+1 Cj+1 + . . . + αn CnA
⇔ ECjA = E α1 C1A + . . . + αj−1 Cj−1
A A
+ . . . + αn CnA

+ αj+1 Cj+1
⇔ CjB = α1 C1B + . . . + αj−1 Cj−1
B B
+ αj+1 Cj+1 + . . . + αn CnB

e portanto CjB é também combinação linear das restantes colunas de B. O argu-


mento recíproco é análogo, atendendo a que também temos B → A e assim existe
uma matriz elementar F tal que A = F B.

O resultado segue.

Resulta da proposição anterior, juntamente com a observação 2.36, que qualquer


condensação de uma mesma matriz leva sempre a uma matriz em escada com o mesmo
número de pivôs.

Denição 2.38. O rank de uma matriz A é o número:

r(A) = dim C(A)


= nº de pivôs de uma qualquer matriz em escada obtida por condensação de A.

Exemplo 2.39. Qualquer matriz nula tem rank zero. Mais precisamente, r(0m×n ) = 0.

Exemplo 2.40. A matriz


 
1 2 0 0 0
 0 0 −1 0 3 
C=
 0

0 0 0 0 
0 0 0 0 0

está em escada e tem apenas dois pivôs c11 = 1, c23 = −1. Portanto r(C) = 2.

Exemplo 2.41. Seja

 
1 2 3
A= 2 5 9 
3 −4 2
Para determinar o rank de A, recorremos a uma condensação de A:
     
1 2 3 1 2 3 1 2 3
 2 5 9  −→  0 1 3  −→  0 1 3 
L2 → L2 − 2L1 L3 →L3 +10L2
3 −4 2 L3 → L3 − 3L1
0 −10 −7 0 0 23

A última matriz encontra-se em escada e tem três pivôs. Portanto r(A) = 3.

30
2.7 Sistemas lineares
2.7.1 Equação linear e sistemas de equações lineares
A partir de agora, o termo incógnita é substituído por variável.

Denição 2.42. Sejam x1 , . . . , x n variáveis. Uma equação linear em x1 , . . . , x n é uma


equação da forma:
α1 x1 + α2 x2 + · · · + αn xn = β
com α1 , . . . , αn , β ∈ R. Um sistema linear em x1 , . . . , xn é um conjunto nito de equa-
ções lineares em x1 , . . . , xn (quando as variáveis estão subentendidas, referimo-nos sim-
plesmente a um sistema linear).

Por vezes, reservamos letras romanas maiúsculas para nos referirmos a um sistema
linear. Além disso, representamos em geral um sistema linear de m equações em variáveis
x1 , . . . , x n utilizando a seguinte notação:


 a11 x1 + a12 x2 + · · · + a1n xn = b1
 a21 x1 + a22 x2 + · · · + a2n xn = b2

.
.

 .

am1 x1 + am2 x2 + · · · + amn xn = bm

onde aij , bi ∈ R; os escalares aij designam-se por coecientes do sistema, e os escalares


bi designam-se por termos independentes do sistema.
Se os termos independentes de um sistema linear S são todos zero, dizemos que S é
um sistema homogéneo.
Uma solução de um sistema linear S nas variáveis x1 , . . . , xn é um vetor (s1 , . . . , sn ) ∈
Rn tal que todas as equações lineares de S tornam-se proposições verdadeiras com a
substituição x1 = s1 , x2 = s2 , . . . , xn = sn .

Denição 2.43. Um sistema linear diz-se possível - abreviadamente, (S.P.) - se tiver


solução e impossível (S.I) se não tiver solução. Se a solução é única o sistema diz-
se possível e determinado (S.P.D); se o sistema tiver mais do que uma solução, diz-se
possível e indeterminado (S.P.I).

Observação 2.44. Se S é sistema homogéneo em n variáveis, então o vetor nulo 0 Rn


é uma solução de S. Em particular, um sistema homogéneo é sempre possível.

Exemplo 2.45. Sejam x, y, z variáveis. Então x + y = 0 é uma equação linear em


x, y, z . A equação
2
x + y + z = 1 não é linear em x, y, z . O conjunto de equações:

 x+z = 1
x+y = 2
y + 2z = 4

é um sistema linear em x, y, z onde, por exemplo, a31 = 0, a32 = 1, a13 = 2, b3 = 4 na


notação geral para sistemas lineares.

31
2.7.2 Matrizes de um sistema linear e forma matricial
A seguinte denição associa a cada sistema linear um conjunto nito de matrizes.

Denição 2.46. Sejam x1 , . . . , x n variáveis e considere-se um sistema linear S em


x1 , . . . , x n com m equações:


 a11 x1 + a12 x2 + · · · + a1n xn = b1
 a21 x1 + a22 x2 + · · · + a2n xn = b2

.
.

 .

am1 x1 + am2 x2 + · · · + amn xn = bm

A matriz dos coecientes de S é a matrizA do tipo m×n cujas entradas coincidem com
os coecientes do sistema, isto é (A)ij = aij . A matriz dos termos independentes de S
é o vetor coluna B do tipo m × 1 cujas entradas coincidem com os termos independentes
de S, isto é (B)i1 = bi . A matriz ampliada de S é a matriz do tipo m × (n + 1) que se
obtém da matriz dos coecientes adicionando a matriz dos termos independentes como
última coluna. Nestas condições, denotamos a matriz ampliada de S por [A|B]. Mais
precisamente:
 
a11 a12 · · · a1n b1
 a21 a22 · · · a2n b2 
[A|B] =  .
 
. .. . 
 .. .
. . a1n . 
.
am1 am2 · · · amn bm

Observação 2.47. Reciprocamente, podemos associar a cada matriz C um sistema


linear S, tal que C é a matriz ampliada de S . Com efeito, dado C = [cij ] ∈ Mm×n ,
basta considerar o sistema linear em variáveis x1 , . . . , x n :


 c11 x1 + c12 x2 + · · · + c1,n−1 xn = c1n
 c21 x1 + c22 x2 + · · · + c2,n−1 xn = c2n

.
.

 .

cm1 x1 + cm2 x2 + · · · + cm,n−1 xn = cmn

a que chamamos o sistema linear associado a S.

Exemplo 2.48. Consideremos o sistema linear



 x+z = 1
S= x+y = 2
y + 2z = 4

A matriz dos coecientes de S é a matriz 3 × 3:


 
1 0 1
A = 1 1 0
0 1 2

32
A matriz dos termos independentes de S é o vetor-coluna 3 × 1:
 
1
B = 2
4

A matriz ampliada de S é a matriz 3 × 4:


 
1 0 1 1
[A|B] = 1 1 0 2
0 1 2 4

Proposição 2.49. Seja S um sistema linear com m equações em n variáveis x1 , . . . , xn .


Seja A = [aij ] ∈ Mm×n a matriz dos coecientes de S e B = [bi ] ∈ Mm×1 a matriz dos
termos independentes de S. Então S é equivalente à igualdade de matrizes

AX = B

onde X é o vetor-coluna n×1 formado pelas variáveis do sistema:


 
x1
X =  ... 
 

xn

Nestas condições, dizemos que AX = B é a forma matricial de S.

Demonstração. O produto de A com X é o vetor-coluna 1 × n:


    
a11 a12 · · · a1n x1 a11 x1 + a12 x2 + · · · + a1n xn
 a21 a22 · · · a2n 
  x2   a21 x1 + a22 x2 + · · · + a2n xn 
   
AX =  . = .

. .. . . .
 .. . .  .  .
   
. . . .  . 
am1 am2 · · · amn xn am1 x1 + am2 x2 + · · · + amn xn

Daqui concluímos que a igualdade AX = B é equivalente ao sistema S:




 a11 x1 + a12 x2 + · · · + a1n xn = b1
 a21 x1 + a22 x2 + · · · + a2n xn = b2

.
.

 .

am1 x1 + am2 x2 + · · · + amn xn = bm

Exemplo 2.50. A forma matricial do sistema linear S do exemplo 2.48 é


    
1 0 1 x 1
1 1 0 y  = 2 .
0 1 2 z 4

33
Observação 2.51. Ao utilizar a forma matricial, subentender-se-à muitas vezes a iden-
ticação feita entre vetores-linha, vetores-coluna e vetores de algum Rn (ver observação
2.5)

Com base na proposição anterior, por vezes referiremos um sistema linear simples-
mente escrevendo-o diretamente na forma matricial AX = B (com A, B e X subenten-
didos conforme no enunciado da proposição). Esta notação apresenta vantagens no que
diz respeito a considerações de natureza teórica sobre sistemas lineares.

Proposição 2.52. O conjunto-solução de um sistema possível e indeterminado (S.P.I.)


é sempre innito.

Demonstração. Seja AX = B um S.P.I. em n variáveis. Então existem pelo menos duas


V1 , V2 ∈ Rn . Em particular, o vetor V = V2 − V1 ∈ Rn é não-nulo e
soluções distintas
AV = 0Rn . Para cada escalar α ∈ R, consideramos o vetor Vα = V1 + αV ∈ Rn . Então
{Vα ∈ Rn : α ∈ R} é um conjunto innito de soluções, porque para cada α ∈ R temos:

AVα = A(V1 + αV ) = AV1 + αAV = B + 0Rn = B.

Proposição 2.53. Seja AX = B um sistema linear em n variáveis possível, e seja


V ∈ n
R uma solução de AX = B . Seja C.S.0 o conjunto-solução do sistema homogéneo
AX = 0Rn . Então o conjunto-solução de AX = B pode escrever-se como

C.S. = V + C.S.0 = {V + V0 ∈ Rn : AV0 = 0Rn }


n
Demonstração. Começamos por mostrar que, se V0 ∈ R é solução do sistema homogé-
n
neo AX = 0Rn , então W = V + V0 ∈ R é solução de AX = B . Com efeito:

AW = AV + AX0 = B + 0Rn = B.

W ∈ Rn é solução de AX = B então o vetor V0 = W − V é solução


Reciprocamente, se
do sistema homogéneo AX = 0Rn (exercício), e portanto W pode escrever-se como
W = V + (W − V ) = V + V0 .

2.7.3 Resolução de sistemas lineares: método da eliminação de Gauss


A proposição 2.49 permite obter a seguinte interpretação das soluções de um sistema
linear.

Proposição 2.54. Seja S um sistema linear com m equações em n variáveis x1 , . . . , xn .


Seja A = [aij ] ∈ Mm×n a matriz dos coecientes de S e B = [bi ] ∈ Mm×1 a matriz dos
termos independentes de S. Então S é equivalente à equação de matrizes

x1 C1A + · · · + xn CnA = B.

Em particular, V = (α1 , . . . , αn ) ∈ Rn é solução de S se, e só se,

α1 C1A + · · · + αn CnA = B.

34
Demonstração. Exercício.

Observação 2.55. Seja AX = B um sistema linear. Resulta imediatamente da propo-


sição anterior que AX = B é possível se, e só se, B ∈ C(A).

O seguinte resultado é fundamental na resolução de sistemas lineares.

Teorema 2.56. Sejam AX = B e A0 X = B 0 dois sistemas lineares num mesmo con-


junto de variáveis. Se [A|B] → [A0 |B 0 ] por alguma operação elementar, então ambos os
sistemas lineares têm o mesmo conjunto-solução.

Demonstração. Suponhamos que ambos os sistemas lineares estão denidos em n va-


n
riáveis. Seja V = (α1 , . . . , αn ) ∈ R uma solução de AX = B . Então B ∈ C(A) é
combinação linear das restantes colunas de [A|B] (que coincidem com as colunas de A)
tal que:
B = α1 C1A + · · · + αn CnA .
A parte II da demonstração da proposição 2.37 mostra que as operações elementares
preservam os escalares envolvidos nas combinações lineares entre colunas; em parti-
cular, resulta da combinação linear acima que

0 0
B 0 = α1 C1A + · · · + αn CnA ,

e portanto que V = (α1 , . . . , αn ) ∈ Rn também é uma solução de A0 X = B 0 . Um


0
argumento análogo mostra que toda a solução de A X = B 0 também é solução de
AX = B (exercício).

A seguinte observação também é essencial na resolução de sistemas lineares.

Observação 2.57. Sejam AX = B um sistema linear. Se [A|B] está em escada, então


podemos sempre resolver o sistema linear por retro-substituição (exercício).

A observação anterior, juntamente com o teorema 2.29 e o teorema 2.56, motivam


o seguinte método para a resolução de sistemas lineares:

MÉTODO DA ELIMINAÇÃO DE GAUSS


Seja AX = B um sistema linear. Para resolver o sistema, sigam-se os seguintes
passos:

(i) Condensar a matriz ampliada [A|B] −→ · · · −→ [A0 |B 0 ];

(ii) Resolver o sistema equivalente A0 X = B 0 por retro-substituição.

Exemplo 2.58. Vamos resolver o sistema linear em três variáveis x, y, z :



 x + 2y + 3z = 2
2x + 5y + 9z = 3
3x − 4y + 2z = −7

35
Condensando a matriz ampliada do sistema, temos:
   
1 2 3 2 1 2 3 2
 2 5 9 3  −→  0 1 3 −1  −→
L2 → L2 − 2L1 L3 →L3 +10L2
3 −4 2 −7 L3 → L3 − 3L1
0 −10 −7 −13
 
1 2 3 2
 0 1 3 −1  = [ A0 | B 0 ]
0 0 23 −23
Resolvemos agora o sistema linear A0 X = B 0 associado a [A0 |B 0 ] por retro-substituição:
   
 x + 2y + 3z = 2  x + 2y + 3z = 2  x + 2y + 3z = 2  x=1
y + 3z = −1 ⇔ y + 3z = −1 ⇔ y=2 ⇔ y=2
23z = −23 z = −1 z = −1 z = −1
   

O sistema linear é possível e determinado (S.P.D), com solução única (1, 2, −1) ∈ R3 .
O seu conjunto-solução é C.S. = {(1, 2, −1)}.
Exemplo 2.59. Vamos resolver o sistema linear em quatro variáveis x, y, z, t:

 x − y + z = −1
y − 2z = 1
2x − y = −1

Condensando a matriz ampliada do sistema, temos:


   
1 −1 1 −1 1 −1 1 −1
 0 1 −2 1  −→  0 1 −2 1  −→
L2 → L2 − 2L1 L3 →L3 −L2
2 −1 0 −1 0 1 −2 1
 
1 −1 1 −1
 0 1 −2 1  = [ A0 | B 0 ]
0 0 0 0
Resolvemos agora o sistema linear A0 X = B 0 [A0 |B 0 ] por retro-substituição:
associado a
 
 x − y + z = −1  x=z
x − y + z = −1

y − 2z = 1 ⇔ ⇔ y = 1 + 2z
y = 1 + 2z
0=0 z∈R
 

O sistema é possível e indeterminado (S.P.I). O seu conjunto-solução é

C.S. = {(z, 1 + 2z, z) ∈ R3 : z ∈ R}

Exemplo 2.60. Vamos resolver o sistema linear em quatro variáveis x, y, z, t:



 2x − y + z = 1
y + 2z + t = 2
2x + 3z + t = 1

36
Condensando a matriz ampliada do sistema, temos:
   
2 −1 1 0 1 2 −1 1 0 1
 0 1 2 1 2  −→  0 1 2 1 2  −→
L3 → L3 − L1 L3 →L3 −L2
2 0 3 1 1 0 1 2 1 0
 
2 −1 1 0 1
 0 1 2 1 2  = [ A0 | B 0 ]
0 0 0 0 −2
O sistema linear A0 X = B 0 associado a [A0 |B 0 ] é:

 2x − y + z = 1
y + 2z + t = 2
0 = −2

A última equação é uma proposição falsa, e portanto o sistema linear é impossível (S.I.).
O seu conjunto-solução é o conjunto vazio C.S. = ∅.

2.7.4 Classicação de sistemas lineares: critério do rank


A existência de solução de um sistema linear pode caracterizar-se através do rank
da sua matriz ampliada.

Proposição 2.61. Um sistema linear AX = B é possível se, e só se, r(A) = r([A|B]).


Demonstração. Suponhamos que AX = B está denido em n variáveis. Então o sistema
linear tem solução se, e só se, existem escalares α1 , . . . , αn tais que

B = α1 C1A + . . . + αn CnA ,
ou seja se, e só se, as colunas C1A , . . . , CnA , B de [A|B] forem linearmente dependentes e
portanto se, e só se, r(A) = r([A|B]).

Teorema 2.62 (Critério do rank) . Seja AX = B um sistema linear em n variáveis.


Então:

(i) AX = B é S.P.D ⇔ r(A) = r([A|B]) = n;


(ii) AX = B é S.P.I ⇔ r(A) = r([A|B]) < n;
(iii) AX = B é S.I. ⇔ r(A) < r([A|B]).
Demonstração. Em primeiro lugar, resulta da denição de rank que r(A) ≤ r([A|B])
em geral. A parte (iii) é então uma consequência imediata da proposição anterior. Por
outro lado, o método de eliminação de Gauss garante que r(A) = r([A|B]) = n se, e
A0 X = B 0 pode ser resolvido por retro-subtituição e com
só se, o sistema equivalente
solução única (o que prova (i)). O método de eliminação de Gauss também garante
0 0
que r(A) = r([A|B]) < n se, e só se, o sistema equivalente A X = B possui n − r(A)
variáveis livres, podendo usar estas para parameterizar as (innitas) soluções do
sistema (o que prova (ii)).

37
Exemplo 2.63. Consideremos a família {Sk , k ∈ R} de sistemas lineares nas incógnitas
x, y, z : 
 x + ky + 2z = 1
Sk = x + y + (k + 1)z = k
−x − y − z = k + 1

(k ∈ R é um  `parâmetro real). Pretende-se classicar o sistema Sk em função do


valor de k ∈ R. Para isto usamos o método de eliminação de Gauss, juntamente com o
critério do rank. Com efeito, condensando a matriz ampliada de Sk obtemos:

   
1 k 2 1 1 k 2 1
 1 1 k+1 k  −→  0 1−k k−1 k−1  −→
L2 → L2 − L1 L3 →L3 +L2
−1 −1 −1 k+1 L3 → L3 + L1
0 k−1 1 k+2

 
1 k 2 1
 0 1−k k−1 k−1 
0 0 k 2k + 1
Os pivôs da matriz em escada são 1, 1 − k e k. Os ranks das matrizes A e [A|B] depen-
derão então dos valores para k ∈ R:

ˆ Se k 6= 0 e k 6= 1, r(A) = r[A|B] = 3 = n, ou seja, o sistema Sk é possível e


determinado (S.P.D);

ˆ Se k = 1, r(A) = r[A|B] = 2 < 3 = n e o sistema Sk é possível e indeterminado


(S.P.I);

ˆ Se k = 0, r(A) = 2 < r[A|B] = 3 e o sistema Sk é impossível (S.I.).

2.8 Matriz inversa


Sabemos das propriedades do corpo dos escalares que todos os números reais não
nulos admitem inverso, isto é, se x ∈ R\{0} então existe x−1 ∈ R\{0} tal que xx−1 =
x−1 x = 1. Será que existe um propriedade semelhante para as matrizes?

Denição 2.64. Uma matriz A ∈ Mn diz-se invertível se existe uma matriz A0 ∈ Mn


tal
AA0 = A0 A = In .
Caso contrário A diz-se não invertível ou singular.

Proposição 2.65. A inversa de uma matriz A, se existir, é única.

Demonstração. Suponhamos que A0 , A00 são ambas inversas de A. Então:

A0 = A0 In = A0 (AA00 ) = (A0 A)A00 = In A00 = A00 .

38
Caso exista, iremos denotar a matriz inversa de A por A−1 . A pergunta natural
agora é: que matrizes são invertíveis?
Representemos, por agora, a matriz inversa de A por X ∈ Mn . Analisando a equação
matricial
AX = In ⇔ AC1X . . . ACnX = e1 . . . en ,
   

onde CjX denota a j -ésima {ei : i = 1, . . . , n} é a base canónica de


coluna de X e
Rn (ou seja, as colunas da matriz identidade In ). Concluímos que é necessário resolver
n sistemas de equações lineares com n incógnitas. Como a solução tem de ser única
(proposição 2.65), cada um dos sistemas tem de ser S.P.D. Assim,

(i) A é invertível se, e só se, r(A) = n;

(ii) O método de eliminação de Gauss, aplicado aos n sistemas de equações lineares,


dá-nos um algoritmo para inverter a matriz A:

[A|In ] −→ . . . −→ [In |A−1 ]

Exemplo 2.66.
 (Fórmula da inversa para matrizes 2 × 2)

a b
Seja A = uma matriz genérica 2 × 2 com r(A) = 2. Então, A é invertí-
c d
vel. Em particular, a e b não podem ser simultaneamente nulos. Supor, sem perda de
generalidade, que a 6= 0. Tem-se:

1 b 1
1 ab
     
a b 1 0 a 0 1 a a 0
−→ −→ −c
c d 0 1 L1 → − a1 L1 c d 0 1 L2 →L2 −cL1 0 ad−bc a a 1

ad−bc
Como r(A) = 2, necessariamente a 6= 0. Assim,

 b 1
  d −b 
1 a a 0 1 0 ad−bc ad−bc
−→ −c a −→ −c a
a
L2 → ad−bc L2 0 1 ad−bc ad−bc L1 →L1 − ab L2 0 1 ad−bc ad−bc

Concluímos assim que:


 −1  
a b 1 d −b
=
c d ad − bc −c a
1
No próximo capítulo iremos perceber que o número misterioso, ad−bc , que aparece na
fórmula da inversa é o inverso do determinante de A.
 
1 −1 1
Exemplo 2.67. Calculemos, caso exista, a inversa da matriz A =  0 −2 1.
−2 −3 0
   
1 −1 1 1 0 0 1 −1 1 1 0 0
 0 −2 1 0 1 0  −→  0 −2 1 0 1 0  −→
L3 → L3 + 2L1 L2 →−1/2L2
−2 −3 0 0 0 1 0 −5 2 2 0 1

39
   
1 −1 1 1 0 0 1 −1 1 1 0 0
 0 1 −1/2 0 −1/2 0  −→  0 1 −1/2 0 −1/2 0  −→
L3 →L3 +5L2 L3 →−2L3
0 −5 2 2 0 1 0 0 −1/2 2 −5/2 1
   
1 −1 1 1 0 0 1 −1 0 5 −5 2
 0 1 −1/2 0 −1/2 0  −→  0 1 0 −2 2 −1 
L2 → L2 + 1/2L3
0 0 1 −4 5 −2 L →L −L
0 0 1 −4 5 −2
1 1 3

 
1 0 0 3 −3 1
−→  0 1 0 −2 2 −1 
L1 →L1 +L2
0 0 1 −4 5 −2
Então,
 
3 −3 1
A−1 = −2 2 −1
−4 5 −2
Fazendo o produto conclui-se que:

    
1 −1 1 3 −3 1 1 0 0
 0 −2 1 −2 2 −1 = 0 1 0
−2 −3 0 −4 5 −2 0 0 1

(Nota: Se AA−1 = In , necessariamente A−1 A = In .)

Proposição 2.68. Seja A ∈ Mn uma matriz invertível e α ∈ R\{0}. Então:

(i) (A−1 )−1 = A;

(ii) (AB)−1 = B −1 A−1 ;

(iii) (αA)−1 = α1 A−1 ;

(iv) (A> )−1 = (A−1 )> .

Demonstração. Ver exercício 2.2.6.

Se uma matriz A é invertível podemos denir a potência inteira negativa de A: dado


n ∈ N,
A−n = (A−1 )n

Nesse caso temos a seguinte propriedade:

(v) (A−1 )n = (An )−1 .

Para que as regras da potência habituais sejam válidas para matrizes, convenciona-se
que A0 = In .

40
2.8.1 Aplicação da matriz inversa aos sistemas lineares
Consideremos o sistema de n equações lineares e n incógnitas,

AX = B

e suponhamos que r(A) = n. Então, A é invertível. Multiplicando ambos os membros


do sistema por A
−1 , obtemos a solução do sistema:

A−1 (AX) = A−1 B


(A−1 A)X = A−1 B
In X = A−1 B
X = A−1 B

Exemplo 2.69. Pretende-se resolver o sistema

 >
AX = 1 2 3

onde A é a matriz do exemplo 2.67. Tem-se:


 
1
−1  
X=A 2
3
  
3 −3 1 1
= −2 2 −1 2
  
−4 5 −2 3
 
0
= −1
0

Apesar de ser uma técnica válida para resolver sistemas de equações lineares, na
prática é pouco utilizado por duas razões: a inversão de matrizes é um algoritmo que
envolve mais operações do que o método de eliminação de Gauss (e a sua implementação
em MATLAB, como vimos, pode introduzir erros de arredondamento); por outro lado,
a matriz tem de ser quadrada, o que limita a sua aplicação.
O exemplo seguinte mostra como contornar a segunda diculdade.

Exemplo 2.70. Como resolver o sistema



x+y+z =1
x + y + 2z = 1

usando a matriz inversa? A matriz A do sistema é do tipo 2 × 3:


 
1 1 1
A=
1 1 2

41
e, como tal, não é invertível. Passando uma das variáveis, digamos z, para o segundo
membro,

x+y =1−z
x + y = 1 − 2z
obtemos um novo sistema A2 X = B 2 equivalente ao primeiro, cuja matriz A2 é qua-
drada:    
1 1 1−z
A2 X2 = B2 ⇔ X=
1 1 1 − 2z
No entanto, a matriz A2 é singular. Mas se escolhermos passar para o segundo membro
a variável y obtemos uma matriz quadrada não singular:
   
1 1 1−y
A3 X3 = B3 ⇔ X=
1 2 1−y

Calculando a inversa A−1


3
   
1 2 −1 2 −1
A−1
3 = =
2 − 1 −1 1 −1 1

obtemos a solução:   
2 −1 1 − y
X3 =
−1 1 1−y
ou seja,
   
x 1−y
= .
z 0

2.9 Álgebra matricial


Uma equação matricial é uma equação algébrica cujos termos são matrizes. Para ob-
ter uma solução, usa-se a aritmética das matrizes (soma, produto por escalar, multipli-
cação, inversão e transposição). A não comutatividade da multiplicação traz diculdades
adicionais. Por exemplo, a equação de Sylvester

AX + XB = C

onde A, B, C, X são matrizes quadradas, é de difícil solução mesmo para matrizes 2 × 2.


O caso especial em que B = −A e C=0 dá origem à equação

AX = XA

ou seja, ao problema de determinar todas as matrizes que comutam com a matriz A


(ver exercícios do capítulo). Tal conjunto de matrizes designa-se por comutador de A e
denota-se Z(A):
Z(A) = {X ∈ Mn : AX = XA}
Vejamos alguns exemplos de equações matriciais.

42
Exemplo 2.71. Para resolver a equação AXB = A, onde A, B são matrizes quadradas
não singulares, multiplicamos ambos os membros da equação por A−1 à direita e por
B −1 à esquerda:

A−1 (AXB)B −1 = A−1 AB −1


(A−1 A)X(BB −1 ) = (A−1 A)B −1
In XIn = In B −1
X = B −1

Exemplo 2.72. Considere-se a equação AXA−1 + B = A, onde A, B são matrizes


quadradas e A é não singular. Tem-se:

AX + B = A
−1
A (AX + B) = A−1 A
(A−1 A)X + A−1 B = In
In X + A−1 B = In

Obtemos assim a solução:


X = In − A−1 B.

Exemplo 2.73. Vejamos um exemplo com a operação de transposição. Para resolver a


equação
(X > A + B)> B = A> B
onde A, B são matrizes quadradas não singulares, procedemos do seguinte modo:

(X > A + B)> B = A> B


(A> X + B > )B = A> B
A> XB + B > B = A> B
(A> XB)B −1 = (A> B − B > B)B −1
A> X = A> − B >
X = (A> )−1 (A> − B > )
X = I − (A> )−1 B >
X = I − (BA−1 )>

Notar que podíamos também ter começado por multiplicar ambos os membros da equação
à direita por B
−1 . A solução seria, evidentemente, a mesma.

43

Você também pode gostar