Escolar Documentos
Profissional Documentos
Cultura Documentos
Linear
Licenciatura em Ciência de Dados
Departamento de Matemática
SEBENTAS
ELABORADO POR:
PROF. SÉRGIO MENDES
PROF. PEDRO MATOS
Conteúdo
1 Vetores em Rn 3
1.1 O espaço vetorial R
n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Subespaços vetoriais de R
n . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Combinações lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Dependência linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Bases, dimensão e coordenadas . . . . . . . . . . . . . . . . . . . . . . . 11
1.6 Produto interno, norma e ângulo entre vetores . . . . . . . . . . . . . . . 14
1.7 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2 Matrizes 20
2.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Soma e multiplicação escalar em Mm×n . . . . . . . . . . . . . . . . . . 21
2.3 Produto de matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.4 Transposição, matrizes simétricas e matrizes anti-simétricas . . . . . . . 25
2.5 Operações elementares e condensação de matrizes . . . . . . . . . . . . . 27
2.6 Rank de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.7 Sistemas lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.7.1 Equação linear e sistemas de equações lineares . . . . . . . . . . 31
2.7.2 Matrizes de um sistema linear e forma matricial . . . . . . . . . . 32
2.7.3 Resolução de sistemas lineares: método da eliminação de Gauss . 34
2.7.4 Classicação de sistemas lineares: critério do rank . . . . . . . . . 37
2.8 Matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.8.1 Aplicação da matriz inversa aos sistemas lineares . . . . . . . . . 41
2.9 Álgebra matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3 Determinantes 44
3.1 O determinante de uma matriz . . . . . . . . . . . . . . . . . . . . . . . 44
3.1.1 Denição, propriedades e interpretação geométrica . . . . . . . . 44
3.1.2 Determinantes e operações elementares . . . . . . . . . . . . . . . 47
3.2 Matriz adjunta e sistemas de Cramer . . . . . . . . . . . . . . . . . . . . 50
3.2.1 Matriz adjunta e fórmula da inversa . . . . . . . . . . . . . . . . 50
3.2.2 Sistemas de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . 52
4 Funções lineares 53
4.1 O espaço L(U, V ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.1.1 O conceito abstrato de espaço vetorial . . . . . . . . . . . . . . . 53
4.1.2 Funções lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.1.3 O kernel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.1.4 A imagem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.1.5 O teorema da dimensão . . . . . . . . . . . . . . . . . . . . . . . 61
4.2 O isomorsmo L(U, V ) ' Mm×n . . . . . . . . . . . . . . . . . . . . . . 65
4.2.1 A matriz de uma função linear . . . . . . . . . . . . . . . . . . . 65
1
4.2.2 Álgebra das matrizes vs Álgebra das funções lineares . . . . . . . 68
4.3 Mudança de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
2
1 Vetores em Rn
1.1 O espaço vetorial Rn
Para cada número natural n ∈ N, consideramos o produto cartesiano de n cópias
do conjunto dos números reais R:
u + v = (u1 + v1 , . . . , un + vn ).
(S1) (associatividade) u + (v + w) = (u + v) + w;
(S2) (comutatividade) u + v = v + u;
Demonstração. Exercício.
(E4) (identidade) 1u = u.
Demonstração. Exercício.
3
Observação 1.5. Veremos que outros conjuntos de objetos matemáticos também po-
dem ser munidos de uma soma e multiplicação escalar que gozam das mesmas pro-
priedades listadas anteriormente (Capítulo 2 e Capítulo 4). Isto transmite a ideia da
existência de um tipo de estrutura presente no mundo matemático, da qual o conjunto
Rn (munido das operações introduzidas anteriormente) é um protótipo. Esta estrutura
é abordada no Capítulo 4.
−−→
O vetor nulo 0R2 = OO identica-se com o ponto origem O;
4
1.2 Subespaços vetoriais de Rn
Alguns subconjuntos U ⊆ Rn herdam a estrutura do espaço vetorial Rn , no sentido
em que as operações de Rn sobre vetores de U dão como resultado vetores ainda em U .
Denição 1.7. n n
Um subconjunto U ⊆ R diz-se um subespaço vetorial de R , ou um
n
espaço vetorial contido em R , se U e os seus elementos satisfazem as seguintes condi-
ções:
(i) U 6= ∅;
(ii) u, v ∈ U ⇒ u + v ∈ U ;
(iii) α ∈ R, u ∈ U ⇒ αu ∈ U .
Todos os subespaços de Rn contêm o vetor nulo 0Rn de acordo com o seguinte lema.
U = {(x, y) ∈ R2 : ax + by = 0}
2
é um subespaço vetorial de R (exercício). Geometricamente, U identica-se com uma
2
reta do plano cartesiano R que passa pela origem. Pela arbitrariedade de a, b ∈ R, con-
cluímos que todas as retas do plano cartesiano que contêm o ponto origem identicam-se
2
com subespaços vetoriais de R . No entanto, retas do plano cartesiano que não contêm
2
o ponto origem não se identicam com subespaços de R (porquê?).
5
Exemplo 1.12. Para cada a, b, c ∈ R não todos zero, o subconjunto de R3
V = {(x, y, z) ∈ R3 : ax + by + cz = 0}
H = {(x1 , . . . , xn ) ∈ Rn : a1 x1 + . . . + an xn = 0}
U = {(x, y) ∈ R2 : xy ≥ 0}
não é subespaço de R2 , porque não é fechado para a soma. Com efeito, os vetores
(−2, −1), (1, 2) pertencem a U, mas
Exemplo 1.16. A intersecção de duas retas no plano cartesiano que contêm o ponto
origem só pode ser a própria origem (caso em que as retas são não-paralelas entre si)
ou uma reta que contém o ponto origem (caso em que as retas são paralelas entre si
e portanto uma mesma reta). Em todo o caso, esta intersecção identica-se com um
2
subespaço de R .
6
Exemplo 1.17. O conjunto-solução de um sistema de equações nas incógnitas x, y e z
da forma
ax + by + cz = 0
dx + ey + f z = 0
gx + hy + iz = 0
α1 u1 + . . . + αk uk
para alguns escalares α1 , . . . , αk ∈ R.
Uma combinação linear α1 u1 + . . . + αk uk ∈ Rn diz-se nula se
α1 u1 + . . . + αk uk = 0Rn .
Uma combinação linear nula diz-se trivial se todos os escalares envolvidos são zero
e diz-se não-trivial caso contrário (isto é, se pelo menos um dos escalares envolvido é
diferente de zero).
Dado u ∈ Rn , dizemos que u é combinação linear dos vetores u1 , . . . , uk ∈ Rn se
u = α1 u1 + . . . + αk uk
para alguns escalares α1 , . . . , αk ∈ R.
Exemplo 1.19. O vetor nulo 0 Rn é sempre combinação linear de qualquer conjunto de
vetores u1 , . . . , uk ∈ Rn , uma vez que basta tomar a combinação linear nula trivial
7
Denição 1.22. Sejam u1 , . . . , uk ∈ Rn . O conjunto de todas as combinações lineares
dos vetores u1 , . . . , uk ∈ Rn :
(ii) Se u = α1 w1 + . . . + αk wk , v = β1 w1 + . . . + βk wk , ∈ U então
Exemplo 1.25. O subespaço gerado pelo vetor nulo de Rn é o subespaço nulo, ou seja
span{0Rn } = {0Rn }.
Exemplo 1.26. Sejam e1 = (1, 0) e e2 = (0, 1). Seja (a, b) ∈ R2 . Então (a, b) é
combinação linear de e1 e e2 , uma vez que:
x = a+2b
x − 2y = a x = a + 2y 5
⇔ ⇔
2x + y = b 2(a + 2y) + y = b y = −2a+b
5
8
Portanto (a, b) é combinação linear de (1, 2) e (−2, 1), com
a + 2b −2a + b
(a, b) = (1, 2) + (−2, 1).
5 5
Pela arbitrariedade de a, b ∈ R, concluímos que span{(1, 2), (−2, 1)} = R2 .
Exemplo 1.28. Considere-se a bissetriz dos quadrantes pares de R2 :
U = {(x, y) ∈ R2 : x + y = 0}
U = {(−t, t) ∈ R2 : t ∈ R}.
Para cada t ∈ R, temos (ta, tb, tc) = t(a, b, c). Portanto W = span{(a, b, c)} (W é uma
reta no espaço cartesiano que contém o ponto origem e com vetor diretor (a, b, c); ver
exemplo 1.11).
Exemplo 1.30. Considere-se o plano do espaço cartesiano que contém o ponto origem
e com vetor normal (1, 1, 1):
V = {(x, y, z) ∈ R3 : x + y + z = 0}
V = {(−t − s, t, s) ∈ R3 : t, s ∈ R}.
9
1.4 Dependência linear
Denição 1.32. Dados u1 , . . . , uk ∈ Rn , estes dizem-se linearmente independentes se
α1 u1 + . . . + αk uk = 0Rn ⇒ α1 , . . . , αk = 0,
α1 u1 + . . . + αi ui + . . . + αk uk = 0Rn ⇔ αi ui = −α1 u1 − . . . − αk uk
⇔ ui = (−α1 /αi )u1 + . . . + (−αk /αi )uk
Exemplo 1.34. O vetor nulo de Rn é linearmente dependente, uma vez que α0Rn =
0Rn para todo o escalar α ∈ R. Mais geralmente, dados u1 , . . . , uk ∈ Rn , os vetores
0Rn , u1 , . . . , uk são linearmente dependentes: por exemplo, temos a combinação linear
nula não-trivial:
1.0Rn + 0.u1 + . . . + 0.uk = 0Rn .
10
1.5 Bases, dimensão e coordenadas
Denição 1.39. Seja U um subespaço de Rn . Dizemos que um conjunto nito de vetores
B = {u1 , . . . , uk } é uma base de U se as seguintes condições forem satisfeitas:
Exemplo 1.45. Mais geralmente, o conjunto b.c. = {e1 , e2 , . . . , en } dos vetores canóni-
cos de Rn é uma base de Rn , a que chamamos a base canónica. Temos que dim Rn = n.
Exemplo 1.46. Vimos no exemplo 1.28 que a bissetriz dos quadrantes pares de R2 é
gerada pelo vetor (−1, 1)
Como (−1, 1) é linearmente independente, concluímos que {(−1, 1)} é uma base de U.
Em particular dim U = 1.
11
Exemplo 1.47. Vimos no exemplo 1.12 que
12
Então:
α1 − β1 = 0, . . . , αn − βn = 0,
α1 = β1 , . . . , αn = βn .
[u]B = (α1 , . . . , αk ) ∈ Rk .
Exemplo 1.53. 2
Seja (1, 8) ∈ R . Sabemos que b.c. = {e1 , e2 } e B = {(1, 2), (−2, 1)}
2
são duas bases de R . Então [(1, 8)]b.c = (1, 8) e [(1, 8)]B = (3, 2) (ver exemplos 1.20 e
1.26).
Exemplo 1.56. O conjuntoB = {(1, 1, 0), (0, 1, 1), (1, 0, 2)} é uma base de R3 (exercí-
3
cio). Calculemos as coordenadas do vetor (1, 2, 4) ∈ R na base B . Com efeito, sabemos
que existem escalares x, y, z ∈ R tais que:
x+z = 1 x+z = 1 x+z = 1 x = 0
x+y = 2 ⇔ y−z = 1 ⇔ y−z = 1 ⇔ y = 2
y + 2z = 4 y + 2z = 4 3z = 3 z = 1
13
1.6 Produto interno, norma e ângulo entre vetores
Denição 1.57. Dados u = (u1 , . . . , un ), v = (v1 , . . . , vn ) ∈ Rn , o produto interno de
u com v é o escalar
u|v = u1 v1 + . . . + un vn ∈ R
Observação 1.58. Outras notações comuns para o produto interno são u · v , hu, vi ou
hu|vi.
Demonstração. Exercício.
p q
kuk = u|u = u21 + . . . + u2n
Observação 1.62.
p
Para qualquer u ∈ Rn , o número u|u está bem denido devido à
propriedade (i) da proposição 1.59.
(N 1) kuk ≥ 0 e kuk = 0 ⇔ u = 0;
14
(N 2) kαuk = |α| kuk.
Demonstração. Exercício.
|u|v| ≤ kukkvk
π
(i) u|v > 0 ⇔ cos θ > 0 ⇔ 0 ≤ θ < 2 ⇔θ é agudo ;
π
(ii) u|v = 0 ⇔ cos θ = 0 ⇔ θ = 2 ⇔θ é reto ;
π
(iii) u|v < 0 ⇔ cos θ < 0 ⇔ 2 <θ≤π⇔θ é obtuso .
15
Demonstração. Da desigualdade de Cauchy-Schwarz, temos que:
ku + vk ≤ kuk + kvk.
1.7 Ortogonalidade
Denição 1.69. Dois vetores não-nulos u, v ∈ Rn dizem-se ortogonais se u|v = 0, e
neste caso escrevemos u⊥v .
Demonstração.
16
Demonstração. Exercício.
Exemplo 1.75. Os conjuntos b.c. = {(1, 0), (0, 1)} e B = {(1, 2), (−2, 1)} são bases
2
ortogonais de R .
Exemplo 1.76. O conjunto B = {(−1, 1, 0, 0) | (1/2, 1/2, 1, 0)} é uma base ortogonal
4
do subespaço span B de R .
Exemplo 1.77. A base B = {(−1, 1, 0), (−1, 0, 1)} do plano x+y+z = 0 não é
ortogonal.
Exemplo 1.80. O conjunto B = √15 (1, 2), √15 (−2, 1) é uma base ortonormada de
n o
R2 .
Exemplo 1.81. A base canónica b.c. = {e1 , . . . , en } de Rn é ortonormada.
αi = u|ui , 1 ≤ i ≤ k.
Demonstração. Exercício.
17
Para qualquer vetor não-nulo arbitrário u = (u1 , . . . , un ) ∈ Rn , o vetor de Rn :
!
u u1 un
û = = ,...,
kuk kuk kuk
Sabemos que todo o subespaço vetorial de Rn tem sempre uma base, de acordo com
a proposição1.49. A observação anterior sugere analisar condições para a existência de
bases que sejam ortogonais.
u01 = u1
u02 = u2 − proju01 u2
u03 = u3 − proju01 u3 − proju02 u3
...
u0k = uk − proju01 uk − proju02 uk − . . . − proju0 uk .
k−1
Como (−1, 1, 0, 0), (0, 1, 1, 0), (1, 1, 1, 0) são linearmente independentes (exercício), o
conjunto B = {(−1, 1, 0, 0), (0, 1, 1, 0), (1, 1, 1, 0)} é base de V. De acordo com o teo-
rema anterior:
v10 = v1 = (−1, 1, 0, 0)
!
0 v2 |v10 1 1 1
v2 = v2 − 0 0 v10 = (0, 1, 1, 0) − (−1, 1, 0, 0) = ( , , 1, 0)
v1 |v1 2 2 2
18
! !
v3 |v10 v3 |v20
v30 = v3 − v10 − v20
v10 |v10 v20 |v20
2 1 1
= (1, 1, 1, 0) − 0(−1, 1, 0, 0) − ( , , 1, 0)
3/2 2 2
2
= (1, 1, 1, 0) − (1, 1, 2, 0)
3
1 1 1
= ( , , − , 0)
3 3 3
Assim,
0 1 1 1 1 1
B = (−1, 1, 0, 0), , , 1, 0 , , ,− ,0
2 2 3 3 3
4
é uma base ortogonal de R . Normalizando os vetores de B0 obtemos ainda uma base
4
ortonormada de R (ver exemplo 1.82):
( )
√
r
1 2 1 1 1 1 1
Bb0 = √ (−1, 1, 0, 0) , , , 1, 0 , 3 , ,− ,0 ,
2 3 2 2 3 3 3
19
2 Matrizes
2.1 Generalidades
Denição 2.1. Uma matriz é uma tabela de números reais, a que chamamos as entradas
da matriz; se a tabela tem m linhas e n colunas, dizemos que se tem uma matriz m×n
ou que a matriz é do tipo m × n (lê-se m por n ).
Reservamos letras romanas maiúsculas para denotar matrizes em geral e as respetivas
letras minúsculas para denotar as suas entradas. Mais precisamente, se B é uma matriz
do tipo m × n, então representamos B em geral usando a notação:
b11 b12 · · · b1n
a21 b22 · · · b2n
B= .
. .. .
.. .
. . .
.
bm1 bm2 · · · bmn
e para cada 1 ≤ i, j ≤ n, bij ∈ R a entrada (i, j) da matriz B .
chamamos ao escalar
Sempre que o tipo da matriz B estiver subentendido, podemos denotar B e as suas
entradas em geral escrevendo B = [bij ]. As entradas de B da forma bii designam-se por
entradas diagonais, e ao conjunto das entradas diagonais de B chamamos a diagonal de
B.
Exemplo 2.2. Seja
1 2 3 5
B = 0 0 −7 1 .
2 −4 − 12 9
Então B é uma matriz 3 × 4. A entrada (2, 3) de B é b23 = −7. A entrada (3, 1) de B
é b31 = 2. A diagonal de B é formada pelas entradas b11 = 1, b22 = 0 e b33 = −1/2.
Será útil por vezes identicar as linhas e as colunas de uma matriz com vetores de
algum espaço vetorial Rn .
Denição 2.3. Seja B = [bij ] ∈ Mm×n .
A i-ésima linha de B é o vetor LB n
i = (bi1 , . . . , bin ) ∈ R ;
LB B B 4
1 = (1, 2, 3, 5), L2 = (0, 0, −7, 1), L3 = (2, −4, −1/2, 9) ∈ R ,
C1B = (1, 0, 2), C2B = (2, 0, 4), C3B = (3, −7, −1/2), C4B = (5, 1, 9) ∈ R3 .
m × n por Mm×n .
Denotamos o conjunto de todas as matrizes
Uma matriz n×n n designa-se por ordem da matriz
diz-se quadrada; neste caso,
quadrada (dizemos então que a matriz é quadrada de ordem n). Denotamos o conjunto
das matrizes quadradas de ordem n por Mn .
Designamos matrizes do tipo n × 1 por vetores coluna e matrizes do tipo 1 × n por
vetores linha.
20
Observação 2.5. Para cada n ∈ N, será útil por vezes identicar os elementos de
Mn×1 com vetores de Rn da seguinte forma:
a11
..
. 7→ (a11 , . . . , an1 )
an1
Denição 2.6. Duas matrizes A = [aij ] ∈ Mm×n e B = [bij ] ∈ Mp×q são iguais (e
escrevemos A = B) se vericam:
(i) m = p e n = q;
A matriz nula do tipo m×n é a matriz m×n cujas entradas são todas iguais a
zero; denotamos esta matriz por 0m×n .
(S1) (associatividade) A + (B + C) = (A + B) + C ;
(S2) (comutatividade) A + B = B + A;
Demonstração. Exercício.
21
Proposição 2.11. Dadas matrizes A, B, C ∈ Mm×n e escalares α, β ∈ R, temos
E4 (identidade) 1A = A.
Demonstração. Exercício.
Calculemos a matriz 3A + 12 B :
1 1 2 3 1 −2 2 4
3A + B = 3 +
2 0 −4 1/2 2 6 0 −1
3 6 9 −1 1 2
= +
0 −12 3/2 3 0 −1/2
2 7 11
= .
3 −12 1
(AB)ij = LA B
i |Cj = ai1 b1j + ai2 b2j + . . . + ain bnj
× =
A B = AB
m×n n×p m×p
22
Exemplo 2.14.
1 2 −1 2 (1, 2)|(−1, 1) (1, 2)|(2, 1) 1 4
= =
3 4 1 1 (3, 4)|(−1, 1) (3, 4)|(2, 1) 1 10
2 0
1 2 0 1 −1
A= , B = 1/2 1 , C =
1 1 −3 2 5
1 −1
Os produtos AC e CB não estão denidos (os tipos das matrizes são incompatíveis
para estes produtos; vericar). Os restantes produtos estão denidos:
2 0
1 2 0 3 2
AB = 1/2 1 =
1 1 −3 −1/2 4
1 −1
2 0 2 4 0
1 2 0
BA = 1/2 1 = 3/2 2 −3
1 1 −3
1 −1 0 1 3
1 −1 1 2 0 0 1 3
CA = =
2 5 1 1 −3 7 9 −15
2 0 2 −2
1 −1
BC = 1/2 1 = 5/2 9/2
2 5
1 −1 −1 −6
In = [δij ]
1 i=j
δij =
6 j
0 i=
23
Proposição 2.18. Sejam A, B, C matrizes e α ∈ R. Então, sempre que os produtos
envolvidos estiverem denidos:
n n p
!
X X X
[A(BC)]ij = aik (BC)kj = aik bkr crj
k=1 k=1 r=1
p
n X
X
= aik (bkr crj )
k=1 r=1
p n
!
X X
= (aik bkr ) crj
r=1 k=1
Xp
= (AB)ir crj
r=1
= [(AB)C]ij
(i) Ar As = Ar+s ;
(iii) (αA)r = αr Ar .
Demonstração. Exercício.
24
2.4 Transposição, matrizes simétricas e matrizes anti-simétricas
Denição 2.21. Dada A = [aij ] ∈ Mm×n , a transposta de A é a matriz A> ∈ Mn×m
denida por
(A> )ij = aji .
1 2 0
Exemplo 2.22. A transposta da matriz A =
−1 1/3 4
∈ M2×3 é a matriz
1 −1
A> = 2 1/3 ∈ M3×2 .
0 4
(AB)>
ij = (AB)ji
Xn
= ajk bki
k=1
Xn
= bki ajk
k=1
Xn
= b> >
ik akj
k=1
= (B > A> )ij
25
Observação 2.25. As entradas diagonais de uma matriz anti-simétrica são necessa-
riamente iguais a zero.
Proposição 2.26. Toda a matriz A ∈ Mm×n se escreve de uma única forma como
soma de uma matriz simétrica com uma matriz anti-simétrica.
Demonstração. Basta ver que a matriz A + A> é simétrica, a matriz A − A> é anti-
simétrica e
1 1
A = (A + A> ) + (A − A> ).
2 2
1 2 3
Exemplo 2.27. Calculemos a parte simétrica e anti-simétrica da matriz A = 4 5 6.
7 8 9
Tem-se:
1 2 3 1 4 7 2 6 10
A + A> = 4 5 6 + 2 5 8 = 6 10 14
7 8 9 3 6 9 10 14 18
1 2 3 1 4 7 0 −2 −4
A − A> = 4 5 6 − 2 5 8 = 2 0 −2
7 8 9 3 6 9 4 2 0
Então,
1 3 5
1
(A + A> ) = 3 5 7
2
5 7 9
é a parte simétrica de A, e
0 −1 −2
1
(A − A> ) = 1 0 −1
2
2 1 0
é a parte anti-simétrica de A.
26
2.5 Operações elementares e condensação de matrizes
Uma operação elementar sobre as linhas de uma matriz é qualquer uma das seguintes
três operações:
(ii) A primeira entrada diferente de zero numa dada linha de A (chamada pivô dessa
mesma linha) ocorre numa coluna à direita daquela onde ocorre o pivô da linha
anterior.
Teorema 2.29. Seja A uma matriz. Então existe uma sequência nita de operações
elementares sobre as linhas de A tal que a matriz resultante é uma matriz em escada e
do mesmo tipo que A.
A −→ . . . −→ A0
Observação 2.30. Notar que a matriz em escada obtida através de condensação não é
única. Em particular, é sempre possível transformar os pivôs com operações elementares
de tipo II.
27
Denição 2.31. Uma matriz E quadrada de ordem n diz-se elementar se E obtém-se
da matriz identidade In através de uma operação elementar.
1 0
Exemplo 2.32. A matriz quadrada E=
−3 1
é elementar, porque:
1 0 1 0
I2 = −→ = E.
0 1 L2 → L2 + (−3)L1 −3 1
0 1 0
A matriz quadrada F = 1 0 0 é elementar, porque:
0 0 1
1 0 0 0 1 0
I3 = 0 1 0 −→ 1 0 0 =F
L1 ↔ L2
0 0 1 0 0 1
1 2 1 2
A= −→ .
4 −3 L2 → L2 + (−3)L1 1 −9
Então:
1 0 1 2 1 2
EA = = .
−3 1 4 −3 1 −9
2 0 3 0 −1 0
B = 0 −1 0 −→ 2 0 3
L1 ↔ L2
4 −5 1 4 −5 1
Então:
0 1 0 2 0 3 0 −1 0
F B = 1 0 0 0 −1 0 = 2 0 3
0 0 1 4 −5 1 4 −5 1
28
2.6 Rank de uma matriz
Denição 2.35. Seja A ∈ Mm×n . O espaço-coluna de A é o subespaço vetorial
Observação 2.36. Sabemos pela observação 1.48 que todo o conjunto nito de gera-
dores de um subespaço vetorial de Rn admite um subconjunto que é base. Assim, se A
é uma matriz então dim C(A) é o maior número de colunas linearmente independentes
entre as colunas que geram C(A). Daqui resulta que se A é matriz em escada então
dim C(A) coincide com o número de pivôs de A (exercício).
Proposição 2.37. SeB é uma matriz que se obtém de A através de uma operação
elementar, então dim C(A) = dim C(B).
Demonstração. Sejam A, B ∈ Mm×n . Dividimos a prova um duas partes
Com efeito, suponhamos que CiB1 , . . . , CiBk são linearmente independentes e supo-
nhamos que existem escalares α1 , . . . , αk ∈ R tal que:
Por hipótese, A→B por alguma operação elementar. Pela proposição 2.33, temos
que B = EA para alguma matriz (elementar) E ∈ Mm . Em particular, ECjA =
CjB para todo o 1 ≤ j ≤ n (resulta da denição de produto de matrizes; exercício).
Donde:
II. Provamos que C(A) = C(B), utilizando a observação 1.31. Mais precisamente,
provamos que se A → B por alguma operação elementar, então:
29
Com efeito, seja E B = EA. Se CjA é combinação linear
matriz elementar tal que
das restantes colunas de A, então existem escalares α1 , . . . , αj−1 , αj+1 , . . . , αk ∈ R
tal que:
O resultado segue.
Exemplo 2.39. Qualquer matriz nula tem rank zero. Mais precisamente, r(0m×n ) = 0.
está em escada e tem apenas dois pivôs c11 = 1, c23 = −1. Portanto r(C) = 2.
1 2 3
A= 2 5 9
3 −4 2
Para determinar o rank de A, recorremos a uma condensação de A:
1 2 3 1 2 3 1 2 3
2 5 9 −→ 0 1 3 −→ 0 1 3
L2 → L2 − 2L1 L3 →L3 +10L2
3 −4 2 L3 → L3 − 3L1
0 −10 −7 0 0 23
30
2.7 Sistemas lineares
2.7.1 Equação linear e sistemas de equações lineares
A partir de agora, o termo incógnita é substituído por variável.
Por vezes, reservamos letras romanas maiúsculas para nos referirmos a um sistema
linear. Além disso, representamos em geral um sistema linear de m equações em variáveis
x1 , . . . , x n utilizando a seguinte notação:
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
.
.
.
am1 x1 + am2 x2 + · · · + amn xn = bm
31
2.7.2 Matrizes de um sistema linear e forma matricial
A seguinte denição associa a cada sistema linear um conjunto nito de matrizes.
A matriz dos coecientes de S é a matrizA do tipo m×n cujas entradas coincidem com
os coecientes do sistema, isto é (A)ij = aij . A matriz dos termos independentes de S
é o vetor coluna B do tipo m × 1 cujas entradas coincidem com os termos independentes
de S, isto é (B)i1 = bi . A matriz ampliada de S é a matriz do tipo m × (n + 1) que se
obtém da matriz dos coecientes adicionando a matriz dos termos independentes como
última coluna. Nestas condições, denotamos a matriz ampliada de S por [A|B]. Mais
precisamente:
a11 a12 · · · a1n b1
a21 a22 · · · a2n b2
[A|B] = .
. .. .
.. .
. . a1n .
.
am1 am2 · · · amn bm
32
A matriz dos termos independentes de S é o vetor-coluna 3 × 1:
1
B = 2
4
AX = B
xn
33
Observação 2.51. Ao utilizar a forma matricial, subentender-se-à muitas vezes a iden-
ticação feita entre vetores-linha, vetores-coluna e vetores de algum Rn (ver observação
2.5)
Com base na proposição anterior, por vezes referiremos um sistema linear simples-
mente escrevendo-o diretamente na forma matricial AX = B (com A, B e X subenten-
didos conforme no enunciado da proposição). Esta notação apresenta vantagens no que
diz respeito a considerações de natureza teórica sobre sistemas lineares.
AW = AV + AX0 = B + 0Rn = B.
x1 C1A + · · · + xn CnA = B.
α1 C1A + · · · + αn CnA = B.
34
Demonstração. Exercício.
0 0
B 0 = α1 C1A + · · · + αn CnA ,
35
Condensando a matriz ampliada do sistema, temos:
1 2 3 2 1 2 3 2
2 5 9 3 −→ 0 1 3 −1 −→
L2 → L2 − 2L1 L3 →L3 +10L2
3 −4 2 −7 L3 → L3 − 3L1
0 −10 −7 −13
1 2 3 2
0 1 3 −1 = [ A0 | B 0 ]
0 0 23 −23
Resolvemos agora o sistema linear A0 X = B 0 associado a [A0 |B 0 ] por retro-substituição:
x + 2y + 3z = 2 x + 2y + 3z = 2 x + 2y + 3z = 2 x=1
y + 3z = −1 ⇔ y + 3z = −1 ⇔ y=2 ⇔ y=2
23z = −23 z = −1 z = −1 z = −1
O sistema linear é possível e determinado (S.P.D), com solução única (1, 2, −1) ∈ R3 .
O seu conjunto-solução é C.S. = {(1, 2, −1)}.
Exemplo 2.59. Vamos resolver o sistema linear em quatro variáveis x, y, z, t:
x − y + z = −1
y − 2z = 1
2x − y = −1
36
Condensando a matriz ampliada do sistema, temos:
2 −1 1 0 1 2 −1 1 0 1
0 1 2 1 2 −→ 0 1 2 1 2 −→
L3 → L3 − L1 L3 →L3 −L2
2 0 3 1 1 0 1 2 1 0
2 −1 1 0 1
0 1 2 1 2 = [ A0 | B 0 ]
0 0 0 0 −2
O sistema linear A0 X = B 0 associado a [A0 |B 0 ] é:
2x − y + z = 1
y + 2z + t = 2
0 = −2
A última equação é uma proposição falsa, e portanto o sistema linear é impossível (S.I.).
O seu conjunto-solução é o conjunto vazio C.S. = ∅.
B = α1 C1A + . . . + αn CnA ,
ou seja se, e só se, as colunas C1A , . . . , CnA , B de [A|B] forem linearmente dependentes e
portanto se, e só se, r(A) = r([A|B]).
37
Exemplo 2.63. Consideremos a família {Sk , k ∈ R} de sistemas lineares nas incógnitas
x, y, z :
x + ky + 2z = 1
Sk = x + y + (k + 1)z = k
−x − y − z = k + 1
1 k 2 1 1 k 2 1
1 1 k+1 k −→ 0 1−k k−1 k−1 −→
L2 → L2 − L1 L3 →L3 +L2
−1 −1 −1 k+1 L3 → L3 + L1
0 k−1 1 k+2
1 k 2 1
0 1−k k−1 k−1
0 0 k 2k + 1
Os pivôs da matriz em escada são 1, 1 − k e k. Os ranks das matrizes A e [A|B] depen-
derão então dos valores para k ∈ R:
38
Caso exista, iremos denotar a matriz inversa de A por A−1 . A pergunta natural
agora é: que matrizes são invertíveis?
Representemos, por agora, a matriz inversa de A por X ∈ Mn . Analisando a equação
matricial
AX = In ⇔ AC1X . . . ACnX = e1 . . . en ,
Exemplo 2.66.
(Fórmula da inversa para matrizes 2 × 2)
a b
Seja A = uma matriz genérica 2 × 2 com r(A) = 2. Então, A é invertí-
c d
vel. Em particular, a e b não podem ser simultaneamente nulos. Supor, sem perda de
generalidade, que a 6= 0. Tem-se:
1 b 1
1 ab
a b 1 0 a 0 1 a a 0
−→ −→ −c
c d 0 1 L1 → − a1 L1 c d 0 1 L2 →L2 −cL1 0 ad−bc a a 1
ad−bc
Como r(A) = 2, necessariamente a 6= 0. Assim,
b 1
d −b
1 a a 0 1 0 ad−bc ad−bc
−→ −c a −→ −c a
a
L2 → ad−bc L2 0 1 ad−bc ad−bc L1 →L1 − ab L2 0 1 ad−bc ad−bc
39
1 −1 1 1 0 0 1 −1 1 1 0 0
0 1 −1/2 0 −1/2 0 −→ 0 1 −1/2 0 −1/2 0 −→
L3 →L3 +5L2 L3 →−2L3
0 −5 2 2 0 1 0 0 −1/2 2 −5/2 1
1 −1 1 1 0 0 1 −1 0 5 −5 2
0 1 −1/2 0 −1/2 0 −→ 0 1 0 −2 2 −1
L2 → L2 + 1/2L3
0 0 1 −4 5 −2 L →L −L
0 0 1 −4 5 −2
1 1 3
1 0 0 3 −3 1
−→ 0 1 0 −2 2 −1
L1 →L1 +L2
0 0 1 −4 5 −2
Então,
3 −3 1
A−1 = −2 2 −1
−4 5 −2
Fazendo o produto conclui-se que:
1 −1 1 3 −3 1 1 0 0
0 −2 1 −2 2 −1 = 0 1 0
−2 −3 0 −4 5 −2 0 0 1
Para que as regras da potência habituais sejam válidas para matrizes, convenciona-se
que A0 = In .
40
2.8.1 Aplicação da matriz inversa aos sistemas lineares
Consideremos o sistema de n equações lineares e n incógnitas,
AX = B
>
AX = 1 2 3
Apesar de ser uma técnica válida para resolver sistemas de equações lineares, na
prática é pouco utilizado por duas razões: a inversão de matrizes é um algoritmo que
envolve mais operações do que o método de eliminação de Gauss (e a sua implementação
em MATLAB, como vimos, pode introduzir erros de arredondamento); por outro lado,
a matriz tem de ser quadrada, o que limita a sua aplicação.
O exemplo seguinte mostra como contornar a segunda diculdade.
41
e, como tal, não é invertível. Passando uma das variáveis, digamos z, para o segundo
membro,
x+y =1−z
x + y = 1 − 2z
obtemos um novo sistema A2 X = B 2 equivalente ao primeiro, cuja matriz A2 é qua-
drada:
1 1 1−z
A2 X2 = B2 ⇔ X=
1 1 1 − 2z
No entanto, a matriz A2 é singular. Mas se escolhermos passar para o segundo membro
a variável y obtemos uma matriz quadrada não singular:
1 1 1−y
A3 X3 = B3 ⇔ X=
1 2 1−y
obtemos a solução:
2 −1 1 − y
X3 =
−1 1 1−y
ou seja,
x 1−y
= .
z 0
AX + XB = C
AX = XA
42
Exemplo 2.71. Para resolver a equação AXB = A, onde A, B são matrizes quadradas
não singulares, multiplicamos ambos os membros da equação por A−1 à direita e por
B −1 à esquerda:
AX + B = A
−1
A (AX + B) = A−1 A
(A−1 A)X + A−1 B = In
In X + A−1 B = In
Notar que podíamos também ter começado por multiplicar ambos os membros da equação
à direita por B
−1 . A solução seria, evidentemente, a mesma.
43