Escolar Documentos
Profissional Documentos
Cultura Documentos
Espaços Lineares
95
96 Espaços Lineares
1 Um corpo é um conjunto com duas operações binárias designadas por adição e multiplicação, gozando
O fecho da adição significa que a adição é uma operação binária, isto é, uma
operação que a cada par (u, v) de elementos de W associa um (e um só) elemento de
W . A multiplicação por escalares não é uma operação binária mas sim uma operação
dita externa.
Se um conjunto W está munido de uma operação fechada, o conjunto diz-se fe-
chado em relação à operação. Os termos “a operação é fechada em W ” ou “W é
fechado para a operação” têm o mesmo significado: o resultado da operação é sempre
um elemento de W .
Nota 15. Na definição de espaço linear deixámos de usar letra a cheio para deno-
tar vectores. Continuaremos no entanto a usar essa notação quando em causa estão
vectores de Rn (ou de Cn ).
Como consequência lógica dos axiomas da Definição 3.1 resultam várias proprieda-
des das operações de um espaço linear, algumas das quais são enunciadas na proposição
que se segue.
Proposição 3.1. Seja W um espaço linear sobre o corpo K. São válidas as
afirmações:
a) O vector zero de W é único.
b) Para cada u ∈ W , o simétrico de u é único.
c) α · 0 = 0, para todo α ∈ K.
d) Designando por (−u) o simétrico de u, tem-se
e) αu 6= 0 para todo α 6= 0 ∈ K e u 6= 0 ∈ W .
Demonstração. Realizamos apenas a prova dos dois primeiros itens deixando os res-
tantes como exercı́cio.
a) Suponha-se que w ∈ W verifica
A3
u + w = w + u = u, para todo u ∈ W .
Em particular (para u = 0), tem-se 0 + w = 0 e portanto, por A5, w = 0.
b) Admitamos que u′ e w são vectores simétricos de u, isto é
u + u′ = 0 e u + w = 0.
Logo,
A3 A5
w + (u + u′ ) = w + 0 = 0 + w = w
e
A3 A5
(w + u) + u′ = (u + w) + u′ = 0 + u′ = u′ .
A associatividade da adição garante que as duas expressões anteriores são iguais,
e portanto w = u′ .
(a, 1) + (b, 1) = (a + b, 2) ∈
/W e α(a, 1) = (αa, α) ∈
/ W para α 6= 1,
O núcleo da matriz A é o conjunto gerado pelo vector (−1, 1, 1), isto é, o conjunto
de todos os múltiplos do vector (−1, 1, 1). Geometricamente, N (A) é uma recta do
espaço que passa pela origem e tem a direcção do vector (−1, 1, 1).
Exemplo 3.2. Determinemos o núcleo da matriz
1 2 −1
Aα = −α −2 α
α 2α −α
Adicionando Av = 0 a Aw = 0, obtemos
0 = Av + Aw = A(v + w) ⇐⇒ v + w ∈ N (A).
Definição 3.4. Chama-se espaço das linhas de uma matriz A ao espaço linear gerado
pelas linhas de A, e espaço das colunas de A ao espaço linear gerado pelas colunas
de A. Designamos os espaços das linhas e das colunas de A, respectivamente, por
EL(A) e EC(A).
No Exemplo 3.4 vimos que o conjunto gerado por um subconjunto não vazio de Rk
é um subespaço linear de Rk . Assim, os espaços EC(A) e EL(A) de uma matriz real
A do tipo p × n são subespaços lineares, respectivamente, de Rp e de Rn .
Baseados em resultados dos capı́tulos 1 e 2 podemos enunciar de imediato uma pro-
posição relativa aos subespaços fundamentais de uma matriz (quadrada) real invertı́vel.
Demonstração. A Proposição 1.10 (pág. 55) garante que um sistema homogéneo tem
solução única x = 0 se e só se a matriz dos coeficientes do sistema é invertı́vel. Como
o determinante de A e de AT são iguais, as matrizes A e AT são invertı́veis e portanto
N (A) = N (AT ) = {0}.
Uma vez que uma matriz real é invertı́vel se e só se os seus vectores coluna geram
Rn (ver Proposição 1.12, pág. 57), e o espaço das colunas de uma matriz é precisamente
o espaço gerado pelas suas colunas, temos Rn = EC(A). De igual modo, como AT é
invertı́vel tem-se Rn = EC(AT ) = EL(A).
Exemplo 3.6. Consideremos a matriz rectangular
2 4 6
A= .
−1 −2 −3
É óbvio que os três vectores coluna (2, −1), (4, −2) e (6, 3) são colineares, e portanto
o espaço das colunas de A é uma recta em R2 . Logo, apenas precisamos de um vector
para gerar EC(A):
Da mesma forma, os vectores linha (2, 4, 6) e (−1, −2, −3) são colineares e portanto
Geometricamente estes dois espaços são uma recta embora pertencentes a espaços dis-
tintos. O espaço das linhas de A é uma recta no espaço R3 , e o espaço das colunas de
A é uma recta no plano R2 . Na Figura 3.1 encontram-se representados os espaços das
linhas e colunas de A.
Sabemos, desde o primeiro capı́tulo, que qualquer subespaço de Rn (ou de Cn )
admite vários conjuntos geradores. O nosso objectivo agora é encontrar conjuntos
geradores de um subespaço V de Rn (ou de Cn ) com o menor número possı́vel de ele-
mentos. Uma vez que se trata de subespaços de Rn (ou Cn ) podemos sempre construir
uma matriz colocando os vectores de V por linhas (ou por colunas), reduzindo-se o
2 4
2
−1
EC(A) EL(A)
Figura 3.1: Espaço das linhas, EL(A), e espaço das colunas, EC(A), da matriz A do
Exemplo 3.6.
problema a determinar conjuntos geradores dos espaços das linhas (ou das colunas) de
uma matriz com o menor número possı́vel de vectores.
Comecemos por relembrar (ver Exercı́cio 1.1, pág. 34) que se substituirmos um (ou
mais) vectores de um conjunto gerador S = {u1 , u2 , . . . , uk } do subespaço V ⊂ Rn
por uma combinação linear de vectores de S, o novo conjunto ainda gera V . Por
exemplo, substituindo uk por w = α1 u1 + · · · + αk uk com αk 6= 0, tem-se
x = α1 u1 + . . . + αk uk + αk+1 v. (3.5)
x = α1 u1 + · · · + αk uk + αk+1 (β1 u1 + · · · + βk uk )
= (α1 + αk+1 β1 )u1 + · · · + (αk + αk+1 βk )uk ∈ Span S ′
O método de eliminação de Gauss também não altera o núcleo de uma matriz uma
vez que, se R é uma matriz em escada por linhas obtida de A por aplicação do método
de eliminação de Gauss, os sistemas Ax = 0 e Rx = 0 são equivalentes (isto é, têm
as mesmas soluções).
Podemos assim enunciar a seguinte proposição.
Proposição 3.4. O método de eliminação de Gauss não altera o espaço das linhas
nem o núcleo de uma matriz. Isto é, se R é uma matriz em escada por linhas obtida
de A por eliminação de Gauss, então
onde l1 , . . . , lk são as linhas não nulas (as linhas que contêm pivôs) de R.
Utilizemos a Proposição 3.4 para determinar um conjunto gerador para o espaço das
linhas e das colunas da matriz A do Exemplo 3.6. Aplicando o método de eliminação
de Gauss, obtemos
2 4 6 L2 + 12 L1 2 4 6
A= −→ = R.
−1 −2 −3 0 0 0
Logo
EL(A) = Span{(2, 4, 6)} = EL(R).
Para determinarmos um conjunto gerador do espaço das colunas de A usamos o
método de eliminação de Gauss para a matriz transposta de A, uma vez que as colunas
de A são as linhas de AT . De facto, aplicando eliminação de Gauss a AT , obtemos
2 −1 2 −1
L2 −2L1
AT = 4 −2 −→ 0 0 .
L −3L1
6 −3 3 0 0
Assim,
EC(A) = EL(AT ) = Span{(2, −1)}.
Neste exemplo conclui-se que:
Certas conclusões deste exemplo são válidas para qualquer matriz como veremos
na próxima secção.
Passamos a chamar dimensão do espaço das linhas de uma matriz A à caracterı́stica
da matriz. A dimensão do espaço das linhas de A é designada por dim EL(A).
A equação (3.3) pode assim ser reescrita na forma:
α1 v1 + · · · + αp vp ,
α1 v1 + · · · + αp vp = 0 (3.6)
Span S = {α1 v1 + · · · + αp vp : α1 , α2 , . . . , αp ∈ K} .
Exemplo 3.8. Como vimos, o conjunto das matrizes reais 2 × 2 com as operações
usuais de adição de matrizes e multiplicação de matrizes por escalares reais, é um
espaço linear real. O vector zero deste espaço é a matriz nula 2 × 2. Verifiquemos se
o subconjunto {A1 , A2 , A3 } deste espaço linear é ou não linearmente independente,
onde
1 2 1 0 3 2
A1 = , A2 = , A3 = .
5 1 2 −1 9 −1
Usando a definição de vectores linearmente independentes, tem-se
α1 2α1 α2 0 3α3 2α3 0 0
α1 A1 + α2 A2 + α3 A3 = 0 ⇐⇒ + + =
5α1 α1 2α2 −α2 9α3 −α3 0 0
α1 + α2 + 3α3 2α1 + 2α3 0 0
⇐⇒ =
5α1 + 2α2 + 9α3 α1 − α2 − α3 0 0
α1 + α2 + 3α3 = 0
2α1 + 2α3 = 0
⇐⇒
5α1 + 2α2 + 9α3 = 0
α1 − α2 − α3 = 0.
Este sistema homogéneo tem soluções não nulas, nomeadamente a solução (α1 , α2 , α3 ) =
(1, 2, −1), pelo que o conjunto dado é linearmente dependente.
α1 u1 + α2 u2 + · · · + αp up = 0,
| {z }
combinação linear de u1 , . . . , up
α1 u1 + · · · + αp up = 0 ⇐⇒ Ax = 0,
2. Se A é uma matriz com mais colunas do que linhas, o sistema Ax = 0 tem mais
incógnitas que equações. Neste caso os vectores coluna de A formam um con-
junto linearmente dependente uma vez que o sistema Ax = 0 é indeterminado
(note que a matriz A é rectangular e que a sua caracterı́stica é no máximo igual
ao número de equações do sistema, portanto existem incógnitas livres). Assim,
qualquer subconjunto de Rn com cardinalidade superior a n é linearmente de-
pendente, visto que se colocarmos os vectores deste conjunto numa matriz, por
colunas, a matriz terá mais colunas que linhas.
α1 v1 + α2 v2 + · · · + αp vp = 0
⇐⇒ αi vi = −α1 v1 − · · · − αi−1 vi−1 − αi+1 vi+1 − · · · − αp vp
α1 αi−1 αi+1 αp
⇐⇒ vi = − v1 − · · · − vi−1 − vi+1 − · · · − vp .
αi αi αi αi
| {z }
combinação linear de v1 , . . . , vi−1 , vi+1 , . . . , vp
(⇐=): Se um dos vectores de S, digamos vi , é uma combinação linear dos outros vec-
tores de S, então tem-se
Fig. 3.2-(a): Conjuntos linearmente independentes: {e1 }, {e2 }, {βe1 }, {αe2 }, {b}, {e1 , e2 },
{e1 , αe2 }, {βe1 , e2 }, {e1 , b}, {e2 , b}, {βe1 , b} e {αe2 , b}.
Conjunto linearmente dependente: {e1 , e2 , b}.
Fig. 3.2-(b): Conjuntos linearmente independentes: {v1 }, {v2 }, {b}, {v1 , v2 }, {v1 , b} e
{v2 , b}.
Conjunto linearmente dependente: {v1 , v2 , b}.
Fig. 3.2-(c): Conjuntos linearmente independentes: {v1 }, {v2 }, {v1 , b} e {v2 , b}.
Conjunto linearmente dependente: {v1 , v2 }.
y y
βv2
αe2
b 1
e2
v2
1 b v1
βe1 e1 x
x
αv1
(a) (b)
y
v1
x
v2
(c)
Span S ′ = Span S.
Demonstração. A demonstração é inteiramente análoga à prova apresentada na pági-
na 105 para subconjuntos de Rn .
Exemplo 3.11. Sejam v1 , v2 , v3 e v4 vectores não nulos de um espaço linear e V =
Span{v1 , v2 , v3 , v4 }. Os vectores vi verificam as relações:
(a) v1 + 2v2 = 0 (b) v1 − v2 + v3 = 0 (c) v4 ∈ Span{v1 , v2 , v3 }.
Determinemos um subconjunto de {v1 , v2 , v3 , v4 }, com o menor número possı́vel de
vectores que gere V .
1. B é linearmente independente.
2. B gera W , isto é, Span(B) = W .
Nota 18. Uma base nunca pode conter o vector zero do espaço já que, qualquer con-
junto que contenha este vector é linearmente dependente (ver quadro na página 108).
Exemplo 3.12. Para os vectores representados na Figura 3.2-(a)-(c) (pág. 112) pode-
mos formar as seguintes bases de R2 .
(a) {e1 , e2 }, {e1 , αe2 }, {βe1 , e2 }, {e1 , b}, {e2 , b}, {βe1 , b} e {αe2 , b}.
(b) {v1 , v2 }, {v1 , b} e {v2 , b}.
(c) {v1 , b} e {v2 , b}.
3
Exemplo 3.13. Consideremos os vectores de R representados na Figura 3.3- (a).
Os três vectores e1 = (1, 0, 0), e2 = (0, 1, 0) e e3 = (0, 0, 1) formam o que
se designa por base canónica de R3 . Note-se que se colocarmos estes três vectores
numa matriz, por colunas, e pela ordem e1 , e2 e e3 , esta matriz é a identidade I3 . A
única solução do sistema I3 x = 0 é a solução nula. Logo, estes vectores são linear-
mente independentes (cf. Proposição 3.5). Além disso, qualquer vector de R3 é uma
combinação linear destes três vectores, já que
x = (x1 , x2 , x3 ) = x1 (1, 0, 0) + x2 (0, 1, 0) + x3 (0, 0, 1) = x1 e1 + x2 e2 + x3 e3 .
Por conseguinte, o conjunto {e1 , e2 , e3 } é linearmente independente e gera R3 .
Na Figura 3.3-(b) os vectores v1 , v2 e v3 formam também uma base de R3 .
Na Figura 3.3-(c) os vectores v1 , v2 e v3 não formam uma base de R3 já que estes
três vectores geram o plano xz e portanto não geram R3 . Nomeadamente,
Span{v1 , v2 , v3 } = Span{v1 , v2 }.
z z z
v3
1 v2
v2 v3
1
1
y y y
v1 v1
x x x
(a) (b) (c)
Figura 3.3: (a) Base canónica de R3 : {(1, 0, 0), (0, 1, 0), (0, 0, 1)}; (b) {v1 , v2 , v3 } é
uma base de R3 ; (c) {v1 , v2 , v3 } não é uma base de R3 .
Exemplo 3.14. 1. O conjunto B = {(1, 2), (0, 1), (2, 5)} não é uma base de R2 ,
apesar de Span(B) = R2 . De facto, B não é linearmente independente já que
(2, 5) = 2(1, 2) + (0, 1).
2. O conjunto B = {(1, 2)} é linearmente independente (ver quadro na página 108)
e não é uma base de R2 , já que Span(B) 6= R2 . De facto, Span(B) é uma recta
que passa pela origem e tem a direcção do vector (1, 2).
3. O conjunto B = {(1, 2), (1, 1)} gera R2 uma vez que os vectores de B não são
colineares. Além disso, B é linearmente independente já que o sistema
1 1 0 1 1 α1 0
α1 + α2 = ⇐⇒ = ,
2 1 0 2 1 α2 0
1 1
só admite a solução trivial (α1 , α2 ) = (0, 0), visto que
= −1. Por
2 1
conseguinte, B é uma base de R2 .
Exemplo 3.15. Qualquer vector (x1 , x2 , . . . , xn ) de Rn é combinação linear dos vec-
tores do conjunto
v = α1 v1 + · · · + αn vn .
x = α1 v1 + α2 v2 + · · · + αn vn (3.7)
x = β1 v1 + β2 v2 + · · · + βn vn (3.8)
4b
6 (10, 6) = 4b − c
b
c 1
1 10
−c
3b2
2c2
x
b2 x c2
0
0 c1 2c1
b1
2b1
Figura 3.5: Duas bases distintas do mesmo espaço linear e as coordenadas do vector x
nas bases B = (b1 , b2 ) e B ′ = (c1 , c2 ). xB = (2, 3) e xB ′ = (2, 2).
Exercı́cio 3.2. Considere a base ordenada B = (u, v) de um certo espaço linear. Sa-
bendo que xB = (1, 2), determine o vector das coordenadas de x nas bases ordenadas
seguintes.
a) B1 = (u, 2v).
b) B2 = (−u, u + v).
c) B3 = (u − v, u + v).
d) B4 = (4u, 6v).
Solução: xB1 = (1, 1), xB2 = (1, 2), xB3 = (−1/2, 3/2), xB4 = (1/4, 1/3).
N
É fácil mostrar que fixada uma base ordenada B = (v1 , . . . , vn ) num espaço linear
W , um subconjunto {u1 , . . . , up } de W é linearmente independente se e só se o con-
junto dos vectores das coordenadas {(u1 )B , . . . , (up )B } é linearmente independente.
⇐⇒ α1 (u1 )B + · · · + αp (up )B = 0.
Por conseguinte, {u1 , . . . , up } é linearmente independente se e só se {(u1 )B , . . . , up )B }
é linearmente independente. Para referência futura enunciamos a seguir o que acabámos
de mostrar.
Proposição 3.9. Fixada uma base ordenada B no espaço linear W , um subconjunto
{u1 , . . . , up } de W é linearmente independente se e só se o conjunto dos vectores das
coordenadas {(u1 )B , . . . , (up )B } é linearmente independente.
O teorema que enunciamos a seguir mostra que todas as bases de um espaço linear
têm o mesmo cardinal.
Teorema 3.2. Todas as bases de um espaço linear W têm o mesmo número de ele-
mentos.
Demonstração. Vamos usar um raciocı́nio por contradição. Sejam B = {v1 , v2 , . . . , vn }
e B ′ = {u1 , u2 , . . . , up } duas bases de W , e assuma-se que p > n.
Consideremos os vectores das coordenadas (u1 )B , (u2 )B , . . . , (up )B . Colocando
estes vectores numa matriz por colunas obtém-se a seguinte matriz A do tipo n × p.
Decorre do Teorema 3.1 que, uma vez fixada uma base ordenada B num espaço
linear real (resp. complexo) W de dimensão n, existe uma correspondência biunı́voca
entre W e Rn (resp. Cn ). Esta correspondência associa a cada vector do espaço linear
o seu vector das coordenadas na base fixada. Esquematicamente,
Nota 20. 1. Refira-se de novo que neste livro apenas se tratam espaços lineares de
dimensão finita.
Com base nos resultados obtidos, enunciamos a seguir um teorema de grande utili-
dade prática. Este teorema aplica-se com frequência quando se pretende decidir se um
dado subconjunto de um espaço linear é ou não uma base desse espaço linear.
α1 v1 + α2 v2 + · · · + αp vp + αp+1 u = 0,
1
αp+1 não fosse igual a zero, então u = αp+1 (α1 v1 + α2 v2 + · · · + αp vp ) era
uma combinação linear de elementos de S, o que contraria a hipótese de u não
pertencer ao conjunto gerado por S.
Se S ′ não tiver n elementos, então podemos repetir o processo aumentando S ′
com outro vector não pertencente a Span S ′ e obter um novo conjunto linear-
mente independente. Quando chegamos a um conjunto com n elementos este
conjunto tem necessariamente que gerar W , caso contrário poderı́amos acres-
centar um novo vector ao conjunto e obter um conjunto com n + 1 elementos o
qual, pelo item 1, seria linearmente dependente. Como um conjunto linearmente
independente que gera W é uma base de W , o conjunto obtido é uma base de
W.
4. Como se viu na prova do item anterior, se S é linearmente independente e tem n
elementos, então gera W . Logo, S é uma base.
5. Como W 6= {0} (já que por hipótese a dimensão de W é pelo menos 1) e S gera
W , a Proposição 3.8 garante que existe um subconjunto B ⊆ S, que é uma base
de W . Como dim W = n, a cardinalidade de B é n. Logo, B = S.
3
Exemplo 3.20. Considerem-se os vectores não nulos v1 , v2 , v3 e v4 de R . Do Teo-
rema 3.3 temos:
• {v1 , v2 , v3 , v4 } é linearmente dependente uma vez que a dimensão de R3 é 3
(cf. item 1).
• {v1 , v2 } não é uma base de R3 uma vez que não gera R3 (cf. item 2).
A finalizar esta secção vamos referir uma importante relação entre a dimensão da
soma de subespaços e a dimensão da sua intersecção. Recorde-se, do Exercı́cio 3.1 na
página 103, que a soma U + V , do subespaço U com o subespaço V , é o conjunto de
todas as somas de vectores de U com vectores de V . Saliente-se ainda que o espaço
U + V não é em geral a união U ∪ V , mas contém esta união, como se pode depreender
analisando a Figura 3.6.
∩ U
V
V
U
então
n
X Xk p
X
γr y r = − αi zi + βj xj ∈ U.
r=1 i=1 j=1
Pn Pn
Como r=1 γr yr ∈ V , segue da igualdade anterior que r=1 γr yr ∈ U ∩ V , e
portanto têm de existir escalares δi tais que
n
X k
X n
X k
X
γr y r = δi zi ⇐⇒ γr y r − δi zi = 0.
r=1 i=1 r=1 i=1
as colunas de uma matriz em escada que não contêm pivôs são combinações lineares
das colunas com pivô à sua esquerda. Assim, como a matriz A e R têm a mesma
caracterı́stica, existem no máximo k = car(A) colunas de A que são linearmente in-
dependentes. Seja R′ a matriz que se obtém de R suprimindo as colunas sem pivô, e
A′ a matriz que se obtém de A suprimindo as colunas correspondentes às colunas de
R sem pivô. Os sistemas R′ x = 0 e A′ x = 0 têm as mesmas soluções. Como todas
as colunas de R′ têm pivô, o sistema R′ x = 0 só possui a solução nula, pelo que todas
as colunas de R′ (e portanto todas as colunas de A′ ) são linearmente independentes.
Conclui-se ainda que
dim EC(A) = car(A) = k.
(c): A igualdade é consequência imediata de (a) e de (b) e do facto da caracterı́stica de
A ser igual a k.
(d): É consequência imediata de (c), visto que
car(A) = k = dim EC(A) = dim EL(A) = dim EC(AT ) = car(AT ).
Da igualdade anterior resulta que N (A) = Span{u1 , u2 , . . . , un−k }. Para mostrar que
a dimensão do núcleo é (n − k), basta provar que o conjunto S = {u1 , u2 , . . . , un−k }
é linearmente independente, ou seja, que S forma uma base para N (A). Este conjunto
é obviamente linearmente independente já que, o sistema P x = 0, onde P é a ma-
triz cujas colunas são u1 , u2 , . . . , un−k (por esta ordem), só tem a solução nula (ver
Proposição 3.5). Por conseguinte, S é uma base de N (A), e a dimensão de N (A)
coincide com o grau de indeterminação de Ax = 0, que é igual a (n − k).
U + V = {x = u + v : u ∈ U e v ∈ V } ⊂ Rn
U ∩ V = {y : y ∈ U e y ∈ V } ⊂ Rn .
x ∈ U + V ⇐⇒ x = α1 u1 + · · · + αk uk + β1 v1 + · · · + βp vp
y ∈ U ∩ V ⇐⇒ y = α1 u1 + · · · + αk uk = β1 v1 + · · · + βp vp .
U + V = Span{u1 , . . . , uk , v1 , . . . , vp }
y ∈ U ∩ V =⇒ α1 u1 + · · · + αk uk − (β1 v1 + · · · + βp vp ) = 0. (3.13)
Nota 21. Apesar de U ∩ V e N (A) terem a mesma dimensão, estes subespaços não
são em geral iguais. Note-se que U ∩ V ⊂ Rn e N (A) ⊂ Rk+p . Para determinar
U ∩ V podemos usar a equação (3.13) como se exemplifica a seguir.
Exemplo 3.21. Determinemos bases para U +V e U ∩V , onde U e V são os subespaços
U = Span {(0, 0, 1), (1, −1, 2)} V = (x, y, z) ∈ R3 : x = y − z .
y = α1 u1 + α2 u2 = β1 v1 + β2 v2
⇐⇒ β1 v1 + β2 v2 − α1 u1 − α2 u2 = 0
⇐⇒ Aw = 0 ⇐⇒ Rw = 0 com w = (β1 , β2 , −α1 , −α2 ).
Logo, uma base para U ∩V é {(1, −1, −2)}, confirmando-se assim que dim U ∩V = 1.
de equações diferenciais. No âmbito da álgebra linear, refira-se que Frobenius apresentou a primeira
demonstração do Teorema de Cayley-Hamilton que abordaremos no próximo capı́tulo.
P AQ = B,
Demonstração. Comecemos por mostrar que dada uma matriz invertı́vel P , as matrizes
P A e A têm a mesma caracterı́stica.
Do Teorema 1.4 (pág. 53) sabemos que qualquer matriz invertı́vel é um produto
de matrizes elementares, logo P é um produto de matrizes elementares. Como a
multiplicação (à esquerda) de uma matriz por matrizes elementares não altera a sua
caracterı́stica, resulta que
Nota 22. Uma submatriz M como a do enunciado da proposição anterior pode obter-
se do seguinte modo: (i) reduzir A a uma matriz em escada por linhas T ; (ii) suprimir
em T as linhas nulas e as colunas sem pivô, obtendo-se assim uma matriz quadrada;
(iii) Tomar M igual à matriz que se obtém suprimindo em A as linhas e as colunas
correspondentes às linhas e colunas que foram suprimidas em T .
A proposição que enunciamos a seguir estabelece que a caracterı́stica de uma matriz
pode obter-se calculando determinantes de submatrizes.
Proposição 3.12. A caracterı́stica de uma matriz A, do tipo p × n, é igual à ordem
da maior submatriz de A invertı́vel.
Isto é, se car(A) = k, então existe pelo menos uma submatriz de A invertı́vel de
ordem k e não existem outras submatrizes invertı́veis de ordem superior.
Demonstração. Se car(A)
= k, pela
Proposição 3.11 existem matrizes invertı́veis P
Mk×k 0
e Q tais que P AQ = , onde Mk×k é uma submatriz de A de ordem k.
0 0
Usando o Lema 3.1, tem-se
Como Mk×k tem ordem k e car(Mk×k ) = k, a matriz Mk×k é invertı́vel (cf. Proposi-
ção 1.12, pág. 57).
Falta mostrar que não existe nenhuma submatriz (quadrada) de A de ordem superior
a k que seja invertı́vel. Para tal, suponha-se por redução ao absurdo que W é uma
submatriz de A invertı́vel de ordem superior a k. Usando troca de linhas e de colunas,
podemos determinar duas matrizes invertı́veis P e Q, tais que o produto P AQ tem a
forma
W X
P AQ = .
Y Z
I 0 I −W −1 X
Considere-se as matrizes em blocos E = , F = eS =
−Y W −1 I 0 I
Z − Y W −1 X, onde I designa a matriz identidade. Calculando o produto EP AQF de
matrizes em blocos como se indica na Secção 1.6, tem-se
W 0
EP AQF = .
0 S
Proposição 3.14. Seja A uma matriz real p × n. As afirmações seguintes são equi-
valentes.
(a) Ax = 0 só admite a solução x = 0.
(b) N (A) = {0}.
(c) As colunas de A são vectores linearmente independentes.
(d) Qualquer que seja b ∈ Rp , o sistema Ax = b admite no máximo uma solução
(pode não admitir nenhuma).
Au − Av = 0 ⇐⇒ A(u − v) = 0,
(b) det(A) 6= 0.
(c) N (A) = {0}.
(d) As colunas de A formam uma base de Rn .
(e) As linhas de A formam uma base de Rn .
(d) Qualquer que seja b ∈ Rn , então b ∈ EC(A).
Finalizamos esta secção com um resultado elementar mas de grande utilidade prá-
tica na resolução de equações lineares.
Teorema 3.7. A solução geral de um sistema não homogéneo, Ax = b, é a soma da
solução geral do sistema homogéneo associado, Ax = 0, com uma solução particular
de Ax = b. Ou seja, qualquer solução de Ax = b é da forma
x = xp + xh ,
A matriz em escada por linhas R diz-nos que o sistema tem uma variável livre que
vamos escolher como sendo a variável associada à coluna que não possui pivô, ou seja,
tomamos z como variável livre. A solução geral do sistema é então dada por
4 1 4 1
x = (x, y, z) = − z, + z, z = , , 0 + z(−1, 1, 1). (3.17)
3 3 3 3
É claro que uma solução particular de Ax = b pode ser obtida da solução geral
deste sistema, por exemplo, fazendo as variáveis livres iguais a zero. Ou seja, de (3.17),
obtemos
xp = (4/3, 1/3, 0).
Além disso, o sistema homogéneo associado, Ax = 0, tem solução geral igual à
solução geral do sistema Rx = 0 que facilmente se verifica ser
xh = z(−1, 1, 1).
xp
soluções de Ax = 0
xh
0
então esta matriz é única. Para tal considere-se matrizes invertı́veis M e S que veri-
ficam (3.18), isto é, M xB = xB ′ = SxB para todo x ∈ W . Em particular, para os
vectores da base B, tem-se
v1 = 1 × v1 + 0 × v2 + · · · + 0 × vn (v1 )B = (1, 0, 0, . . . , 0) = e1
v2 = 0 × v1 + 1 × v2 + · · · + 0 × vn (v2 )B = (0, 1, 0, . . . , 0) = e2
vn = 0 × v1 + 0 × v2 + · · · + 1 × vn (vn )B = (0, 0, 0, . . . , 1) = en .
S −1 M e1 = e1 , S −1 M e2 = e2 , ... , S −1 M en = en .
Destas igualdades, e da Definição 1.12 (pág. 38) do produto de duas matrizes resulta
S −1 M In = In ,
Logo, M é a matriz cujas colunas são os vectores das coordenadas na base B ′ dos
vectores da base B. Isto é,
xB ′ = MB ′ ←B xB e xB = MB−1′ ←B xB ′ = MB←B ′ xB ′ .
Assim,
1/2 3
M= = uB ′ vB ′ .
1 1
Logo,
1/2 3 2/5 2
xB ′ = M xB = = .
1 1 3/5 1
Confirmando o resultado, tem-se de facto 2(0, 2) + (1, 1) = (1, 5).
v1 = u1 − u2 + u3
v2 = u2 − u3 (3.22)
v3 = u1 + u3 .
A matriz M é a matriz que tem nas colunas os vectores das coordenadas (u1 )B ′ , (u2 )B ′ ,
e (u3 )B ′ . Calculemos estes vectores. Somando as duas primeiras equações de (3.22)
obtemos u1 = v1 + v2 . Substituindo esta expressão de u1 na última equação de (3.22)
tem-se u3 = −v1 − v2 + v3 . Finalmente, substituindo u3 na segunda equação obtém-se
u2 = v3 − v1 . Assim,
u1 = v1 + v2 (u1 )B ′ = (1, 1, 0)
u2 = −v1 + v3 (u2 )B ′ = (−1, 0, 1)
u3 = −v1 − v2 + v3 (u3 )B ′ = (−1, −1, 1).
Assim,
1 −1 −1
MB ′ ←B = 1 0 −1 .
0 1 1
e1 = (1, 0, . . . , 0, 0)
e2 = (0, 1, . . . , 0, 0)
..
.
en = (0, 0, . . . , 0, 1).
1 1 3 5 x
L4 +3/2L2 0 2 4 6 x+y
−→ .
L3 −1/2L2 0 0 0 0 z − x2 − y2
0 0 0 0 w − x2 − 3y
2
2. Conjunto Cn :
Na página 98 definimos Cn como o conjunto dos n-uplos de números complexos
e munimos este conjunto de operações de adição e multiplicação por escalares
definidas em (3.2). Vimos também que Cn munido destas operações é um espaço
linear complexo. No entanto, Cn pode ser igualmente encarado como espaço
linear real, como veremos a seguir para o caso n = 2 (o caso geral é inteiramente
análogo).
Consideremos
C2 = {(z1 , z2 ) : z1 , z2 ∈ C},
com as operações
(z1 , z2 ) = (a1 + ib1 , a2 + ib2 ) = (a1 + ib1 )(1, 0) + (a2 + ib2 )(0, 1) (3.23)
ou
(z1 , z2 ) = (a1 + ib1 , a2 + ib2 )
(3.24)
= a1 (1, 0) + b1 (i, 0) + a2 (0, 1) + b2 (0, i).
No primeiro caso, (z1 , z2 ) está escrito como combinação linear de (1, 0) e (0, 1)
com coeficientes complexos, e no segundo caso está escrito como combinação li-
near com coeficientes reais de (1, 0), (i, 0), (0, 1) e (0, i). As igualdades (3.23) e
(3.24) dizem-nos, que consoante consideremos C2 como um espaço linear com-
plexo ou real os conjuntos
{(1, 0), (0, 1)}, {(1, 0), (i, 0), (0, 1), (0, i)},
Para mostrar que estes conjuntos formam uma base, resta verificar que são line-
armente independentes. Usando as igualdades (3.23) e (3.24) com o membro do
lado esquerdo igual a 0 = (0 + i0, 0 + i0) temos, respectivamente,
(0 + i0, 0 + i0) = (a1 + ib1 )(1, 0) + (a2 + ib2 )(0, 1) = (a1 + ib1 , a2 + ib2 )
⇐⇒ a1 + ib1 = 0 + i0 e a2 + ib2 = 0 + i0,
Logo, os conjuntos {(1, 0), (0, 1)} e {(1, 0), (i, 0), (0, 1), (0, i)} são linearmente
independentes no contexto correspondente. Assim,
• Uma base do espaço linear complexo C2 é {(1, 0), (0, 1)}, e a dimensão de
C2 como espaço linear complexo é 2.
• Uma base do espaço linear real C2 é {(1, 0), (i, 0), (0, 1), (0, i)}, e a di-
mensão de C2 como espaço linear real é 4.
(a1 + ib1 )(1 + i, 2i) + (a2 + ib2 )(2, 2 + 2i) = (0 + 0i, 0 + 0i) ⇐⇒
((a1 − b1 + 2a2 ) + i(a1 + b1 + 2b2 ) , (−2b1 + 2a2 − 2b2 ) + i(2a1 + 2b2 + 2a2 ))
= (0 + 0i, 0 + 0i)
a1 − b1 + 2a2 =0
a1 + b1 + 2b2 =0
⇐⇒
−2b 1 + 2a2 − 2b2 =0
2a1 + 2b2 + 2a2 = 0.
é equivalente a
α1 α2 0 0
= ⇐⇒ α1 = α2 = α3 = α4 = 0.
α3 α4 0 0
6. Como vimos (Proposição 3.2), o núcleo de uma matriz (ou seja o conjunto das
soluções de um sistema homogéneo) é um espaço linear. Contudo, o conjunto S
das soluções de um sistema não homogéneo possı́vel Ax = b, com b 6= 0, não
é um espaço linear. De facto, se u, v são soluções do sistema Ax = b, tem-se
Au + Av = A(u + v) = 2b, e portanto u + v não é solução do sistema. Assim,
S não é fechado para a adição (nem para a multiplicação por escalares).
7. Seja P o conjunto dos polinómios de grau n (≥ 1) de coeficientes reais, munido
das operações usuais de adição de polinómios e multiplicação de um polinómio
por um número real.
Este conjunto não é um espaço linear visto não ser fechado para a adição. Por
exemplo, para p1 (t) = tn ∈ P e p2 (t) = −tn ∈ P , tem-se p1 + p2 = 0 ∈ / P (0
denota o polinómio constante igual a zero, que não tem grau ≥ 1).
8. Conjunto dos polinómios de grau menor ou igual a n
O conjunto Pn dos polinómios de coeficientes reais de grau menor ou igual a n,
munido das operações usuais de adição de polinómios e de multiplicação de um
polinómio por um número real, é um espaço linear real.
É óbvio que qualquer polinómio p(t) = a0 + a1 t + · · · an tn de Pn se escreve
como combinação linear dos monómios do conjunto {1, t, t2 , . . . , tn }. Este con-
junto é linearmente independente já que, a combinação linear
α0 + α1 t + · · · αn tn = 0 × 1 + 0 × t + · · · + 0 × tn , para todo t ∈ R,
p(t) = 0 × 1 + 0 × t + 3t2 − t3 .
S = {p ∈ Pn : p(0) = 1} = {1 + a1 t + a2 t2 + . . . + an tn }.