Escolar Documentos
Profissional Documentos
Cultura Documentos
Texto de Apoio
ISEL
Copyright © 2019 Filipa Soares de Almeida
Copying prohibited
All rights reserved. No part of this publication may be reproduced or transmitted in any
form or by any means, electronic or mechanical, including photocopying and recording, or
by any information storage or retrieval system, without the prior written permission of the
publisher.
Art. No xxxxx
ISBN xxx–xx–xxxx–xx–x
Edition 0.0
Published by ISEL
Printed in Lisboa
Conteúdo
2 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.1 Noção de determinante 45
2.2 Regra de Laplace 49
2.3 Propriedades dos determinantes 51
2.4 Regra de Cramer 54
2.5 Cálculo da matriz inversa através da matriz adjunta 57
2.6 Exercı́cios 62
2.7 Soluções 65
3
3 Espaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.1 Definição e exemplos 69
3.2 Combinação linear, base e dimensão 75
3.3 Os 4 espaços fundamentais de uma matriz 87
3.4 Coordenadas e mudança de base 92
3.5 Exercı́cios 99
3.6 Soluções 103
Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
1.8 Exercı́cios 39
1.9 Soluções 42
Neste capı́tulo, começamos por recordar algumas noções relativas aos já mais que conhecidos
sistemas de equações lineares. Em seguida, iremos ver como os codificar através de uma ferramenta
chamada matriz, a qual vai permitir sistematizar a sua resolução. Como veremos neste e nos
próximos capı́tulos, as matrizes desempenham um papel fundamental na resolução de inúmeros
problemas.
Já os sistemas ( ( 1
x + 2y = 3 =9
x+y
ou
x2 + y 2 = 4 x+y = 1
não são SEL: o primeiro porque x2 + y 2 não é um polinómio de grau 1 e o segundo porque
1
x+y não é um polinómio.
Um SEL é portanto um conjunto de equações da forma
a11 x1 + a12 x2 + . . . + a1n xn = b1
a21 x1 + a22 x2 + . . . + a2n xn = b2
.. , (1.1)
.
a x + a x + ... + a x = b
m1 1 m2 2 mn n m
7
8 1.1. Sistemas de equações lineares
onde os a’s de uma mesma equação não podem ser todos nulos.
• x1 , x2 , . . . , xn são as incógnitas;
O facto de os coeficientes terem um ı́ndice duplo serve para facilitar a sua localização,
sempre de acordo com a seguinte regra: o 1º ı́ndice identifica a equação (ou linha) e o 2º
identifica a incógnita (ou coluna).
a11 x1 + a12 x2 + . . . + a1j xj + . . . + a1n xn = b1
a21 x1 + a22 x2 + . . . + a2j xj + . . . + a2n xn = b2
..
.
aij −→ linha i , coluna j
ai1 x1 + ai2 x2 + . . . + aij xj + . . . + ain xn = bi
..
.
am1 x1 + am2 x2 + . . . + amj xj + . . . + amn xn = bm
Definição 1.4 (Solução de um SEL & conjunto de solução de um SEL) Solução de um SEL
é toda a atribuição de valores às incógnitas que verifica todas as equações do sistema.
Conjunto de solução (CS) de um SEL é o conjunto formado por todas as soluções do
SEL.
1 · (−1) + 2 · 2 = −1 + 4 = 3
4 · (−1) + 5 · 2 = −4 + 10 = 6 .
1 · 3 + 2 · 0 = 3 mas 4 · 3 + 5 · 0 = 12 , 6 .
(
x + 2y = 3
4x + 5y = 6
(
x = 3 − 2y
⇔ 1º) Resolve-se uma equação em ordem a uma incógnita.
4x + 5y = 6
(
x = 3 − 2y
⇔ 2º) Substitui-se noutra equação.
4(3 − 2y) + 5y = 6
(
x = 3 − 2y
⇔ 3º) Resolve-se esta 2ª equação.
12 − 8y + 5y = 6
(
x = 3 − 2y
⇔
−3y = −6
(
x = 3 − 2y
⇔
y=2
(
x = 3−2·2
⇔ 4º) Substitui-se na 1ª equação.
y=2
(
x = −1
⇔ 5º) Determina(m)-se a(s) solução(soluções).
y = 2.
−1 1 3 x
às coordenadas do ponto (único, neste caso, 2
como mostrou a nossa resolução do sistema)
onde as duas retas se encontram.
10 1.2. Classificação de sistemas de equações lineares
vinha
( ( ( (
x + 2y = 3 x = 3 − 2y x = 3 − 2y x = 3 − 2y
⇔ ⇔ ⇔ ,
4x + 8y = 6 4(3 − 2y) + 8y = 6 12 − 8y + 8y = 6 12 = 6
o que é impossı́vel, pelo que o CS deste SEL é o conjunto vazio, ∅. Claro: tanto a
equação x + 2y = 3 como a equação 4x + 8y = 6 representam retas de declive 21 (logo
paralelas), mas com ordenadas na origem distintas (logo estritamente paralelas).
y
3
2
x + 2y = 3
4x + 8y = 6 3
4
temos
( ( ( (
x + 2y = 3 x = 3 − 2y x = 3 − 2y x = 3 − 2y
⇔ ⇔ ⇔ ,
4x + 8y = 12 4(3 − 2y) + 8y = 12 12 − 8y + 8y = 12 12 = 12
o que é sempre verdade. Deste modo, todos os pontos cujas coordenadas sejam da
forma (3−2y, y) pertencem a ambas as retas, correspondendo assim a infinitas soluções
do SEL. Assim, o CS deste SEL é {(3 − 2y, y) : y ∈ R}. De facto, as equações x + 2y = 3 e
4x + 8y = 12 definem a mesma reta — ou, mais rigorosamente, retas coincidentes.
No exemplo anterior, onde escrevemos {(3 − 2y, y) : y ∈ R} podı́amos ter escrito {(3 − 2u, u) : u ∈ R}
ou {(3 − 2λ, λ) : λ ∈ R}, pois a letra escolhida não altera o conjunto. Observar ainda que a letra
escolhida representa uma variável que pode assumir qualquer valor (isto é, qualquer número real)
— chamamos-lhe, por isso, parâmetro.
Um SEL homogéneo tem sempre, pelo menos, uma solução: a solução nula.
Exatamente as mesmas ideias se aplicam a sistemas com mais equações e/ou mais incóg-
nitas.
2x + y = 1
−3x + 2y = −5
1
x
−1 b
−x + 3y = −4
12 1.2. Classificação de sistemas de equações lineares
pelo que este SEL não tem solução. Trata-se, assim, de um SI. Geometricamente, este
SEL traduz a interseção entre as retas representadas na figura:
y
2x + y = 1
−3x + 2y = −5
−x + 3y = 4
x
pelo que x = u, y = 1 − 2u, com u ∈ R, são solução do SEL. Trata-se, assim, de um SPI.
Geometricamente, este SEL traduz a interseção entre 3 retas coincidentes.
Definição 1.7 (Sistema em escada) Um SEL diz-se um sistema em escada se, sempre
que uma incógnita xi é a primeira que aparece numa equação, então as incógnitas
x1 , . . . , xi não aparecem em qualquer nas equações seguintes.
ou ( (
2x + y + z = 4 y + 2x + z = 4
⇔ ,
x−z = 0 x−z = 0
Como
( ( ( (
x+y +z = 1 x = 1−y −z — —
⇔ ⇔ ⇔
2x + 2y + 2z = 2 2(1 − y − z) + 2y + 2z = 2 2 − 2y − 2z + 2y + 2z = 2 2=2
não vazio.
A tabela abaixo resume a relação entre tipo de SEL, conjunto de solução e grau de indeterminação:
SEL CS GI
SI ∅ –
SPD ponto 0
SPI reta, plano, ... ≥1
O método de substituição é útil para SEL pequenos ou em escada; caso contrário, pode ser
impraticável. O método que vamos introduzir serve para transformar qualquer sistema num
sistema em escada, ao qual a substituição ascendente pode sempre ser aplicada sem incon-
venientes.
Temos
u +v +w = 0
u+v +w = 0
⇔
3w = 6 E3 →E⇔3 −4E1
2u + 2v + 5w = 6
E2 →E2 −2E1
4u + 4v + 8w = 8
4u + 4v + 8w = 8
u +v +w = 0
u +v +w = 0
⇔
⇔ 3w = 6 E3 →E3 − 3 E2 3w = 6 ,
4
4w = 8 0 = 0
O exemplo anterior mostra que o Método de Gauss também se aplica a SPI; facilmente se
vê que o mesmo acontece a SI:
Temos
u +v +w = 0
u+v +w = 0
= 6 E2 →E⇔2 −2E1 3w = 6 E3 →E⇔3 −4E1
2u + 2v + 5w
4u + 4v + 8w = 2
4u + 4v + 8w = 2
u +v +w
= 0 u +v +w = 0
⇔
⇔ 3w = 6 E3 →E3 − 34 E2 3w = 6 ,
4w = 2 0 = −6
No processo ilustrado nos exemplos anteriores, o que importa é o que acontece aos coeficientes e
aos termos independentes. Deste modo, e considerando uma certa ordenação nas incógnitas — à
escolha, mas a mesma em todas as equações — não há necessidade de as escrever, mas apenas de
registar a evolução dos coeficientes e dos termos independentes.
Assim, no Exemplo 1.9, bastaria escrever
3 −2 6 ←→ 1 2 2 ←→ 1 2 2
L1 ↔L2 L2 →L2 −3L1
1 2 2 3 −2 6 0 −8 0
para ficarmos a saber que o SEL original era equivalente ao SEL em escada
(
x + 2y = 2
;
−8y = 0
1 1 1 0 1 1 1 0 1 1 1 0 1 1 1 0
←→ ←→ ←→
2 2 5 6 L2 →L2 −2L1 0 0 3 6 L3 →L3 −4L1 0 0 3 6 L3 →L3 − 43 L2 0 0 3 6
4 4 8 8 4 4 8 8 0 0 4 8 0 0 0 0
para ficarmos a saber que o SEL original era equivalente ao SEL em escada
u+v +w = 0
3w = 6 .
0=0
Como é óbvio, as operações que podemos fazer às linhas da tabela são exatamente aquelas que
podemos fazer às equações, ou seja, as operações elementares. Quanto à linha vertical que separa a
última coluna das restantes, é útil para uma melhor compreensão e visualização do processo.
18 1.3. Método de Gauss
Definição 1.10 (Matriz dos coeficientes & matriz ampliada) Dado um SEL
a11 x1 + a12 x2 + . . . + a1n xn = b1
a21 x1 + a22 x2 + . . . + a2n xn = b2
,
..
.
am1 x1 + am2 x2 + . . . + amn xn = bm
A matriz dos coeficientes de um SEL tem tantas linhas quantas as equações do sistema e tantas
colunas quantas as incógnitas; a matriz ampliada tem o mesmo número de linhas e mais uma
coluna que a matriz dos coeficientes.
O CS é assim
{(−3x2 + 2x3 − 2x5 , x2 , x3 , − 12 x3 , x5 , 13 ) : x2 , x3 , x5 ∈ R} .
Trata-se pois de um SPI com GI igual a 3.
1 3 −2 0 2 0 0 1 3 −2 0 2 0 0
←→
0 0 1 2 0 3 1 0 0 1 2 0 3 1 ←→
L3 → 1 L3
6
1
0 0 0 0 0 6 2 0 0 0 0 0 1 3
1 3 −2 0 2 0 0 1 3 0 4 2 0 0
←→ 0 0 ←→
1 2 0 0 0 L1 →L 0 0 1 2 0 0 0 ,
L2 →L2 −3L3 1 +2L2
1 1
0 0 0 0 0 1 3 0 0 0 0 0 1 3
20 1.3. Método de Gauss
x1 b1
a11 a12 ... a1n x
a21 a22
... a2n
2 b
2
..
.. .. ..
. = . .
. . . .
. . . .
am1 am2 . . . amn bm
xn
Para recuperar a equação i do sistema, basta multiplicar, entrada a entrada, a linha i da matriz
dos coeficientes pela matriz das incógnitas
x1
i x2
h
ai1 ai2 . . . ain . = ai1 x1 + ai2 x2 + . . . + aij xj + . . . + ain xn
..
xn
— ou seja, calcular o produto interno entre os vetores (ai1 , ai2 , . . . , ain ) e (x1 , x2 , . . . , xn ) de Rn — e
igualar o resultado à linha (ou entrada) i da matriz dos termos independentes:
Definição 1.12 (Matriz; entrada de uma matriz; Rm×n ) Chamamos matriz de tipo m × n
(lê-se “m por n”), onde m, n ∈ N, a uma tabela com m linhas e n colunas, a qual se
representa por
a11 a12 ... a1n a11 a12 ... a1n
a21 a22 ... a2n a21 a22 ... a2n
..
.. .. ..
ou ..
.. .. .. .
.
. . . .
. . .
am1 am2 . . . amn am1 am2 . . . amn
Tal como fixámos a propósito dos SEL, o ı́ndice duplo em aij tem sempre a seguinte interpretação:
linha i, coluna j.
Definição 1.13 (Matriz linha & matriz coluna) A uma matriz de tipo 1 × n,
h i
a11 a12 . . . a1n ,
Evidentemente, matrizes linha e matrizes coluna são outra forma de representar vetores
22 1.4. Noção de matriz; Operações com matrizes
— e uma matriz m×n é uma forma de representar um conjunto de vetores. Aliás, uma matriz
m×n pode ser vista como um conjunto de m vetores de Rn ou como um conjunto de n vetores
de Rm , consoante a interpretarmos por linhas ou por colunas. A interligação entre vetores e
matrizes vai ser uma constante em todo o curso.
A começar pelas operações entre matrizes. Tal como é possı́vel somar vetores (desde que
estes tenham a mesma dimensão) e multiplicar um vetor por um escalar, o mesmo sucede às
matrizes — e de forma inteiramente análoga:
Definição 1.15 (Produto de uma matriz por um escalar) Se A = [aij ] é uma matriz m × n
e k um número real, então kA é a matriz m × n
ka11 ka12 ... ka1n
ka21 ka22 ... ka2n
kA = . .. .. .. .
.. . . .
kam1 kam2 . . . kamn
Então
0 2 4 8 −5 −10
A + B = 0 4 , 4A = 12 16 , −5A = −15 −20
0 13 20 24 −25 −30
e
4 8 1 0 5 8
4A − B = 12 16 + 3 0 = 15 16 .
20 24 5 −7 25 17
Sem surpresa, as propriedades das operações com matrizes imitam as propriedades das
operações com vetores:
7. k(lA) = (kl)A.
8. 1A = A.
9. 0A = O.
Definição 1.16 (Matriz nula) Chamamos matriz nula (de tipo m × n) à matriz cujas
entradas são todas nulas.
Como vimos a seguir à Definição 1.11, para recuperar um SEL a partir da sua representação
matricial há que multiplicar cada linha da matriz dos coeficientes pela matriz (coluna) das
incógnitas. Mais geralmente,
com
cij = ai1 b1j + ai2 b2j + . . . + ain bnj .
Tal como não é possı́vel somar duas matrizes quaisquer, também não é possı́vel multiplicar duas
matrizes quaisquer: como se vê na definição desta operação, é preciso que o número de colunas da
matriz à esquerda seja igual ao número de linhas da matriz à direita. Deste modo, esta operação
não vai, garantidamente, ser comutativa — de facto, o produto AB pode estar definido sem que BA
esteja.
24 1.4. Noção de matriz; Operações com matrizes
Como habitualmente noutros contextos, escrevemos A2 em vez de AA. Observar que, para que
este produto esteja definido, A tem que ter tantas linhas quantas as colunas, ou seja, tem que ser
de tipo n × n. Mais geralmente, dado n ∈ N, definimos
(
n A, se n = 1
A =
An−1 A, se n > 1 .
Representa-se por In .
1 0 0 ... 0
0 1 0 ... 0
É claro que, se for possı́vel obter A a partir de B usando operações elementares em linhas/colunas,
então também é possı́vel obter B a partir de A usando operações elementares em linhas/colunas.
26 1.5. Mais alguma terminologia
Definição 1.21 (Matriz quadrada) Chamamos matriz quadrada (de ordem n) a uma
matriz de tipo n × n.
Definição 1.22 (Diagonal principal & traço) Dada matriz quadrada A (de tipo n × n),
chamamos diagonal principal à sequência (a11 , a22 , . . . , ann )
Definição 1.23 (Matriz diagonal) Uma matriz quadrada diz-se diagonal se todos os
elementos fora da diagonal principal são nulos.
Na secção 1.3 anterior, usámos as operações elementares (em linhas) para transformar a
matriz ampliada do SEL original numa matriz que correspondesse a um sistema em escada.
O conceito de sistema em escada transporta-se naturalmente para matrizes:
Definição 1.24 (Matriz em escada) Matriz em escada ou matriz escalonada por linhas
é uma matriz em que:
• se, numa determinada linha, a primeira entrada não nula é a da coluna j, então
todas as linhas seguintes têm pelo menos as j primeiras entradas nulas;
• se houver linhas nulas, elas ocorrem depois das linhas não nulas.
Capı́tulo 1. Sistemas de Equações Lineares e Matrizes 27
A matriz
1 0 0
0 0 0
0 0 3
é uma matriz diagonal, mas não é uma matriz em escada.
Definição 1.25 (Matriz triangular superior & matriz triangular inferior) Uma matriz
quadrada A = [aij ] diz-se triangular superior se aij = 0 para todo i > j e diz-se triangu-
lar inferior se aij = 0 para todo i < j.
Uma matriz triangular superior (respetivamente, inferior) é uma matriz em que todas as entradas
abaixo (respetivamente, acima) da diagonal principal são nulas. Nos esquemas abaixo, as entradas
∗ podem conter qualquer número real (incluindo 0):
∗ ∗ . . . ∗ ∗ 0 . . . 0
. . . . ..
0 ∗ . . . ∗
. . . . .
.
.. . . . . ..
. . .
.
∗ . . .
∗ 0
0 ... 0 ∗ ∗ ... ∗ ∗
Todas as matrizes triangular superior são matrizes em escada. Uma matriz que seja, simultanea-
mente, triangular superior e triangular inferior é uma matriz diagonal.
Definição 1.26 (Matriz escalar) Uma matriz A = [aij ] quadrada de ordem n diz-se
escalar se A = k In para algum k ∈ R.
Quando a matriz ampliada de um SEL já se encontra em escada, não só é mais fácil
determinar a solução deste, como é imediato classificá-lo. Abaixo, os ∗ representam entradas
não nulas.
∗
0 ∗
0 0 ∗
,
.
0 0 0 ..
0 0 0 ... ∗
tem-se um SPD. Reparar que tal só é possı́vel se a matriz dos coeficientes for quadradra,
ou seja, se o SEL tem tantas equações quantas as incógnitas. De facto, sempre que
a matriz ampliada tenha a forma indicada, a substituição ascendente vai calculando
uma incógnita à vez, até todas estarem determinadas. Alternativamente, aplicando
as operações elementares de baixo para cima, vamos conseguir obter, na matriz dos
coeficientes, uma matriz com uma e uma só entrada não nula em cada linha e em cada
coluna, o que corresponde a um SEL que tem, evidentemente, uma única solução:
x1 = b̃1
x2 = b̃2
.
..
.
xn = b̃n
Capı́tulo 1. Sistemas de Equações Lineares e Matrizes 29
temos um sistema com mais incógnitas do que equações, pelo que nunca poderia ter
uma única solução. No entanto, também não é um SI, pois vai ser possı́vel determinar
relações entre as incógnitas que nos conduzirão a um CS não vazio. Trata-se, assim, de
um SPI. Mais ainda, a diferença entre o número de colunas da matriz dos coeficientes
(ou seja, o número de incógnitas) e o número de linhas não nulas dar-nos-á o grau de
indeterminação do sistema.
Definição 1.28 (Pivot) Dada uma matriz em escada, os seus pivots são o primeiro
elemento não nulo de cada linha (não nula) da matriz.
não faz sentido falar em pivot, pois não são matrizes em escada.
É possı́vel provar que, se A0 e A00 são duas matrizes equivalentes a uma mesma matriz A, então A0
e A00 têm o mesmo número de pivots. Deste modo, faz sentido considerar a seguinte definição:
Definição 1.29 (Caracterı́stica de uma matriz) Dada uma matriz A (qualquer), chama-
mos caracterı́stica de A ao número de pivots de uma matriz em escada equivalente a
A. Representa-se por r(A).
A notação r(A) é a que se usa na literatura em lı́ngua inglesa (o sı́mbolo r vem de “rank”), mas
não é universal — nomeadamente em textos em português, a notação c(A) é bastante comum. Não
a adotaremos para não causar confusão com a notação C(A), que irá ser introduzida mais à frente.
2 1 1 1 −1 1 1 −1 1 −1 −1 1
←→ ←→ ←→
−1 1 1 −1 L1 ↔L2 2 1 1 1 L1 →−L1 2 1 1 1
−3 2 −1 −2 −3 2 −1 −2 −3 2 −1 −2
Capı́tulo 1. Sistemas de Equações Lineares e Matrizes 31
←→
1 −1 −1 1 1 −1 −1 1
L2 →L2 −2L1 ←→ ←→
0 3 3 −1 L2 ↔L3 0 −1 −4 1
L3 →L3 +3L1
0 −1 −4 1 0 3 3 −1
1 −1 −1 1 1 −1 −1 1
←→ ←→
L2 →−L2 0 1 4 −1 L3 →L3 −3L2 0 1 4 −1 ,
0 3 3 −1 0 0 −9 2
observa-se que r(A) = r(A | B) = 3, que é o número de incógnitas do sistema, pelo que se
trata de um SPD. De facto, aplicando à matriz obtida operações elementares em linhas
(agora de baixo para cima), vem
1 −1 −1 1 1 −1 −1 1
←→
0 1 4 −1 L3 →− 19 L3 0 1 4 −1 ↔
0 0 −9 2 0 0 1 − 29
7 2
←→
1 −1 0 9 1 0 0 3
←→
L2 →L2 −4L3 0 1 0 − 19 L1 →L1 +L2 0 1 0 − 19 ,
L1 →L1 +L3
0 0 1 − 29 0 0 1 − 29
A segunda sequência de operações elementares (de baixo para cima) que levámos a cabo, por
exemplo, no exemplo anterior, tem como objetivo transformar a matriz ampliada numa matriz
reduzida, a partir da qual é muito fácil extrair a solução do sistema.
2 1 1 1 −1 1 1 −1 1 −1 −1 1
←→ ←→
−1 1 1 −1 L1 ↔L2 2 1 1 1 L1 →−L1 2 1 1 1 ↔
1 2 2 0 1 2 2 0 1 2 2 0
←→
1 −1 −1 1 1 −1 −1 1
L2 →L2 −2L1 ←→
0 3 3 −1 L3 →L3 −L2 0 3 3 −1 ,
L3 →L3 −L1
0 3 3 −1 0 0 0 0
vemos que r(A) = r(A | B) = 2 < 3, que é o número de incógnitas do sistema, pelo que
se trata de um SPI com GI 3 − 2, ou seja, 1. De facto, ignorando a última linha, que
é irrelevante, e aplicando à matriz obtida operações elementares em linhas (de baixo
para cima), vem
2
1 −1 −1 1 ←→ 1 −1 −1 1 ←→ 1 0 0 3
L2 ↔ 13 L2 L1 →L1 +L2 1 ,
0 3 3 −1 0 1 1 − 13 0 1 1 −3
x = 23 x = 23
( (
1 ⇔ .
y + z = −3 z = − 13 − y
1 1 1 4 ←→
1 1 1 4 1 1 1 4
L2 →L2 −2L1 ←→
2 3 4 13 0 1 2 5 L3 →L3 −L2 0 1 2 5 ,
L3 →L3 −3L1
3 4 5 0 0 1 2 −12 0 0 0 −17
vemos que r(A) = 2 , 3 = r(A | B) (observar que −17 é um pivot da matriz ampliada,
mas não da matriz dos coeficientes), pelo que este é um SI.
1 2 −3 4 ←→
1 2 −3 4
3 −1 5 2 L2 →L2 −3L1 0 −7 14 −10
L3 →L3 −4L1
4 1 a2 − 14 a + 2 0 −7 a2 − 2 a − 14
1 2 −3 4
←→
L3 →L3 −L2 0 −7 14 −10 ,
0 0 a2 − 16 a − 4
concluı́mos que:
Como alternativa ao método da substituição para resolver SEL, temos duas possibilidades:
• Método de Gauss (ou Método da Eliminação de Gauss): aplicação de operações elementares
em linhas para transformar a matriz ampliada do sistema numa matriz em escada, após o
que se recorre à substituição ascendente para determinar o CS do sistema;
• Método de Gauss–Jordan (ou Método da Eliminação de Gauss–Jordan): aplicação de operações
elementares em linhas para transformar a matriz ampliada do sistema numa matriz em es-
cada e, em seguida, nova aplicação de operações elementares em linhas para transformar esta
numa matriz reduzida.
A noção de caracterı́stica de uma matriz permite caracterizar completamente um sistema sem
ter que o resolver.
e vejamos se existe uma matriz B tal que AB = BA = I2 . Se existir, terá que ser de tipo 2 × 2,
digamos " #
x y
B= .
z w
Ora,
" #" #
" # " # ax + bz = 1
a b x y ax + bz ay + bw 1 0
ay + bw = 0
AB = I2 ⇔ = I2 ⇔ = ⇔ .
c d z w cx + dz cy + dw 0 1
cx + dz = 0
cy + dw = 1
a 0 b 0 1 a 0 b 0 1 a 0 b 0 1
0 a 0 b 0 ←→ 0 a 0 b 0 ←→ 0 a 0 b 0
L3 →L3 − ac L1 L4 →L4 − ac L2 bc
c 0 d 0 0 0 0 d − bc
a 0 − ac 0 0 d− a 0 − ac
0 c 0 d 1 0 c 0 d 1 0 0 0 d − bc
a 1
a 0 b 0 1 a 0 b 0 1
0 a 0 b 0 ←→
1
0 a 0 b 0
ad−bc L4 → ad−bc L4 ↔
0 0 a 0 − ac a 0 0 ad−bc
a 0 − ac
ad−bc a
0 0 0 a 1 0 0 0 1 ad−bc
a 0 b 0 1 a 0 b 0 1
←→ 0 a 0 b 0 −ab
1 ←→ 0 a 0 0 ad−bc
L3 → ad−bc L3 −c L2 →L2 −bL4 −c ↔
a 0 0 1 0 ad−bc 0 0 1 0 ad−bc
a a
0 0 0 1 ad−bc 0 0 0 1 ad−bc
ad d
a 0 0 0 ad−bc 1 0 0 0 ad−bc
←→ −b −b
L2 → 1a L2 0 1 0 0 ad−bc
←→ 0 1 0 0 ad−bc
−c L1 → 1a L1 −c
L1 →L1 −bL3 0 0 1 0 ad−bc 0 0 1 0 ad−bc
a a
0 0 0 1 ad−bc 0 0 0 1 ad−bc
Definição 1.31 (Matriz invertı́vel (ou regular); matriz singular; matriz inversa) Dizemos
que uma matriz quadrada (de ordem n) é invertı́vel (ou regular) se existir uma matriz
B tal que AB = BA = In e diz-se singular caso contrário. Em caso afirmativo, dizemos
que B é a matriz inversa de A e denotamo-la por A−1 .
Como vimos,
O Teorema 1.4 resolve completamente a caracterização da inversa das matrizes de ordem 2, mas
apenas dessas. Mais adiante nesta secção, vamos ver um método para investigar a existência e
calcular, caso exista, a inversa de uma matriz de ordem n. Na secção 2.3 (cf. Teorema 2.2) veremos
a generalização do Teorema 1.4 ao caso geral.
(a) AB = AC ⇒ B = C.
(b) BA = CA ⇒ B = C.
À exceção da propriedade 4, que será consequência do Método 1.2 (mais à frente nesta
secção), as restantes verificam-se facilmente à custa das definições.
Exemplo 1.26 Vejamos como a propriedade 6 pode falhar caso A não seja invertı́vel.
Consideremos as matrizes
" # " # " #
1 1 1 2 3 4
A= , B= e C= .
1 1 3 4 1 2
O primeiro método que vamos aprender para calcular a inversa de uma matriz recorre à
condensação.
Capı́tulo 1. Sistemas de Equações Lineares e Matrizes 37
Método 1.2 (Método de Gauss–Jordan) Dada uma matriz quadrada (de ordem n)
a11 a12 . . . a1n
a21 a22 . . . a2n
A = . .. .. ..
.. . . .
an1 an2 . . . ann
Evidentemente, caso a matriz não seja invertı́vel, a aplicação do Método de Gauss–Jordan não
conseguirá produzir a matriz identidade à esquerda. Eis a razão por que se tem a propriedade 4
da matriz inversa (cf. Teorema 1.5): a matriz inversa de A existe sse o sistema (1.2) tem solução
única, o que é equivalente a ter-se, como vimos no Teorema 1.3, r(A) = n.
38 1.7. Matriz inversa
Para os SEL cuja matriz dos coeficientes é invertı́vel, e a inversa conhecida, o sistema pode
ser resolvido exatamente da mesma forma que usamos para resolver as equações lineares em
R:
Teorema 1.6 (Solução de um SEL com matriz dos coeficientes invertı́vel) Se o SEL
AX = B, onde A denota a matriz dos coeficientes, X a matriz das incógnitas e B a
matriz dos termos independentes, é tal que A é invertı́vel, então a sua solução é
AX = B ⇔ X = A−1 B .
Demonstração. De facto,
do exemplo anterior, a solução do sistema pode obter-se multiplicando A−1 pela matriz
dos termos independentes:
−40 16 9 0 −4
X = A−1 B = 13 −5 −3 2 = 2 ,
5 −2 −1 −4 0
ou seja, x = −4, y = 2, z = 0.
Quando a matriz dos coeficientes de um SEL é invertı́vel, a sua inversa pode ser usada para
resolver o sistema. Para calcular a inversa de uma matriz, temos (por enquanto) o Método de
Gauss–Jordan; no caso particular das matrizes 2 × 2, temos desde já uma forma mais rápida de o
fazer.
1.8 Exercı́cios
Exercı́cio 1.1 Sendo k uma constante, indique quais das seguintes equações são line-
ares em x e y. Das que são lineares, quais são homogéneas?
Exercı́cio 1.2 Classifique os seguintes SEL e, caso sejam possı́veis, indique o respetivo
conjunto de solução.
3x − 2y = −1
2x + 2z = 1
2x + 2z = 1
(a) 4x − 5y = 3 (c) 3x − y + 4z = 7 3x − y + 4z = 7
7x + 3y = 2
6x + y − z = 0
(e) x + y = −5
5x − y + 6z = 8
3x − 2y = −1
2x + 2z = 1
6x − 2y + 8z = 14
(b) 4x − 5y = 3 (d) 3x − y + 4z = 7 (f) −3x + y − 4z = −7
7x − 7y = 2
x + y = −5
9x − 3y + 12z = 21
Exercı́cio 1.4 Indique um SEL que possa ser representado matricialmente pela matriz
ampliada indicada.
" #
2 0 0 7 2 1 −3 5
(c)
(a) 3 −4 0
1 2 4 0 1
0 1 1
1 0 0 0 7
3 0 −2 5 0 1 0 0 −2
(d)
(b) 7 1 4 −3 0 0 1 0 3
0 −2 1 7 0 0 0 1 4
Exercı́cio 1.5 Resolva os SEL recorrendo (i) à eliminação de Gauss e (ii) à eliminação
de Gauss–Jordan.
2x − 3y = −2
4x1 − 8x2 = 12
(a) 2x +y = 1 (c) 3x1 − 6x2 = 9
3x + 2y = 1
−2x + 4x = −6
1 2
10y − 4z + w = 1
3x + 2y − z = −15
x + 4y − z + w = 2
5x + 3y + 2z = 0 (d) 3x + 2y + z + 2w = 5
(b)
3x + y + 3z = 11 −2x − 8y + 2z − 2w = −4
−6x − 4y + 2z = 30 x − 6y + 3z = 1
1 0 4 −1
3 0 4 1 0 4 −1 0 −2 0 3
(f)
(b) −1 2 0 (d) −1 2 4 2 0 0 0 0
1 1 −2 0 2 0 1 0 0 0 1
Exercı́cio 1.9 Que condições sobre os termos independentes asseguram que o SEL é
possı́vel?
(
6x − 4y = b1 x − 2y − z = b1
(a)
3x − 2y = b2 (c) −4x + 5y + 2z = b2
−4x + 7y + 4z = b
3
x − y + 3z + 2w = b1
x − 2y + 5z = b1 −2x + y + 5z + w = b2
(d)
(b) 4x − 5y + 8z = b −3x + 2y + 2z − w = b3
2
−3x + 3y − 3z = b
4x − 3y + z + 3w = b
3 4
onde a e b são parâmetros reais. Para que valores de a e b tem este sistema
Exercı́cio 1.14 Resolva os SEL à custa da inversa da matriz dos coeficientes do sistema.
3x + 4y − z = 4
2x + 6y + 6z = 4
(a) x + 3z = 10 (b) 2x + 7y + 6z = 8
2x + 5y − 4z = 0
2x + 7y + 7z = 2
1.9 Soluções
Solução 1.1
Solução 1.2
Solução 1.3
2 0 2 1
3 3 −1 4 x 7
−2 " # −1
x
(b) 4 = 3
−5 y
(e) =
y 1 1 0 −5
7 −7 2 z
5 −1 6 8
Solução 1.4
(a) 2x = 0, 3x − 4y = 0, y = 1 (c) 7x + 2y + z − 3w = 5, x + 2y + 4z = 1
(b) 3x − 2z = 5, 7x + y + 4z = −3, −2y + z = 7 (d) x = 7, y = −2, z = 3, w = 4
Solução 1.5
Solução 1.6
7 6 5 22 −6 8 3 45 9
−2 1 3 4 6 11 −11 17
(a) (f)
−2
(k)
7 3 7 10 0 4 7 17 13
0 0
3 45 9
4 −1
−5 0
(b)
0 −1 −1
(g) 0 (l)
11 −11 17
0 0
7 17 13
−1 1 1
36 6 18
" #
15
0
4 19
(h)
−6 6 12 (m)
(c)
−5 10 52 1
24 6 18
5 5
3 12
12
" # −3 (n)
−3 3
−7 −28 −14 (i)
−4 5
(d)
12 9
−21 −7 −35
4 1
(o) Não é possı́vel calcular
(e) Não é possı́vel somar (j) Não é possı́vel multipli-
o traço de uma matriz
2B, que é de tipo 2 × 2, car B, que é de tipo 2×2,
que não é quadrada.
com −C, que é de tipo à esquerda, com C, que
2 × 3. é de tipo 3 × 2, à direita. (p) 10.
Solução 1.7
Solução 1.8
Solução 1.9
Solução 1.10
Solução 1.12
" 5 1
# "2 # " 9 1
#
13 13 7 1 − 13 13
(a) 3 2 (b) 1 3 (c) 2 6
− 13 13 7 7 13 − 13
Solução 1.13
3
− 11 − 65
7
1 0 0 0
0 −3
2 10 2
1
(c) −1 1
(a) −1 1 1 1 0 − 3 0 0
1 (d) 3
7 2
0 −1 1
1 1
−2 10 5 0 − 5 5 0
0 0 − 17 1
(b) Não invertı́vel 7
Solução 1.14
2.6 Exercı́cios 62
2.7 Soluções 65
O determinante de uma matriz é um número real que se calcula a partir das suas entradas e que
comporta informação muito importante relativamente à matriz. Em particular, veremos como, à
custa do determinante, podem ser facilmente resolvidos sistemas de equações lineares e calculada a
matriz inversa.
" #
a b
A= ,
c d
é invertı́vel sse ad − bc , 0.
ao número real a11 a22 − a12 a21 , o qual se denota por |A| ou det A.
45
46 2.1. Noção de determinante
Temos
det A = 1 × 4 − 2 × 3 = −2 ,
det B = 2 × 3 − 1 × 4 = 2 ,
det C = 3 × 6 − 2 × 9 = 0 ,
det D = 1 × 0 − 2 × 0 = 0 ,
det E = 1 × 0 − 0 × 3 = 0
ao número real
a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a12 a21 a33 − a11 a23 a32 ,
Como se pode observar, o determinante de uma matriz 3 × 3 é uma soma com seis parcelas, três
com sinal + e três com sinal −. Além disso, cada parcela é produto de três entradas da matriz,
todas de linhas e colunas diferentes. Para facilmente identificar quais, podemos recorrer à seguinte
mnemónica:
a11 a12 a13 a11 a12 a11 a12 a13 a11 a12
a21 a22 a23 a21 a22 a21 a22 a23 a21 a22
a31 a32 a33 a31 a32 a31 a32 a33 a31 a32
Capı́tulo 2. Determinantes 47
temos:
Definição 2.3 (Permutação & sinal de uma permutação) Seja n um número natural. A
uma função bijetiva de {1, . . . , n} em {1, . . . , n}, ou, equivalentemente, a uma reordenação
dos elementos da sequência (1, . . . , n) chamamos permutação de n. Denotamos por Sn
o conjunto de todas as permutações de n. Dizemos que o sinal de uma permutação
σ ∈ Sn é +1 se a reordenação pode ser obtida trocando duas entradas um número par
de vezes e dizemos que é −1 caso contrário, ou seja, se a reordenação pode ser obtida
trocando duas entradas um número ı́mpar de vezes.
n σ1 (n) n σ2 (n)
1 1 1 2 ,
2 2 2 1
sendo
sgn(σ1 ) = 1 , sgn(σ2 ) = −1 ,
pois σ1 precisa de 0 trocas de entradas e σ2 precisa de 1 troca.
48 2.1. Noção de determinante
sendo
sgn(σ1 ) = 1 , sgn(σ4 ) = −1 ,
sgn(σ2 ) = 1 , sgn(σ5 ) = −1 ,
sgn(σ3 ) = 1 , sgn(σ6 ) = −1 .
De facto, por exemplo σ1 precisa de 0 trocas de entradas, σ2 precisa de 2 trocas:
e σ4 precisa de uma:
(1, 2, 3) → (3, 2, 1) .
X n
Y
sgn(σ ) ai,σ (i) ,
σ ∈Sn i=1
= a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a22 a31 )
a22 a23 a21 a23 a21 a22
= a11 −a +a .
a32 a33 12 a31 a33 13 a31 a32
Reparar que cada uma das três entradas a1j da linha 1 é multiplicada por (−1)1+j e pelo deter-
minante da matriz obtida eliminando a linha 1 e a coluna j na matriz original. Não é difı́cil
verificar que se obtém o mesmo padrão selecionando os três elementos de uma qualquer
outra linha ou os três elementos de uma qualquer coluna.
Definição 2.5 (Matriz Aij ) Dada uma matriz A = [aij ], denotamos por Aij a matriz
obtida eliminando a linha i e a coluna j na matriz A.
A notação Aij não é universal e tem, para diferentes autores, interpretações distintas.
Tal como o determinante de uma matriz 3 × 3 pode ser calculado à custa do determinante
de matrizes 2 × 2, temos em geral:
det A = (−1)i0 +1 ai0 1 det Ai0 1 + (−1)i0 +2 ai0 2 det Ai0 2 + . . . + (−1)i0 +n ai0 n det Ai0 n
Xn
= (−1)i0 +j ai0 j det Ai0 j ,
j=1
50 2.2. Regra de Laplace
det A = (−1)1+j0 a1j0 det A1j0 + (−1)2+j0 a2j0 det A2j0 + . . . + (−1)n+j0 anj0 det Anj0
Xn
= (−1)i+j0 aij0 det Aij0 ,
i=1
det A = (−1)1+1 a11 det A11 + (−1)1+2 a12 det A12 + (−1)1+3 a13 det A13 + (−1)1+4 a14 det A14
−1 0 3 2 0 3
= (−1)2 × 3 × det −2 4 −1 + (−1)3 × 1 × det 0 4 −1 +
−5 5 −7 1 5 −7
2 −1 3 2 −1 0
+ (−1)4 × 0 × det 0 −2 −1 + (−1)5 × 2 × det 0 −2 4
1 −5 −7 1 −5 5
Melhor ideia seria aplicar o desenvolvimento de Laplace segundo a 3ª coluna, que tem
duas entradas nulas:
det A = (−1)1+3 a13 det A13 + (−1)2+3 a23 det A23 + (−1)3+3 a33 det A33 + (−1)4+3 a43 det A43
2 −1 3 3 1 2
= (−1)4 × 0 × det 0 −2 −1 + (−1)5 × 0 × det 0 −2 −1 +
1 −5 −7 1 −5 −7
3 1 2 3 1 2
+ (−1)6 × 4 × det 2 −1 3 + (−1)7 × 5 × det 2 −1 3
1 −5 −7 0 −2 −1
3. Soma de linhas ou de colunas: A soma de uma linha com outra linha (distinta)
da matriz A, possivelmente multiplicada por um escalar, produz uma matriz
com o mesmo determinante que A. Idem para as colunas.
5. Determinante da inversa: Caso A seja invertı́vel (ie, caso det A , 0), det(A−1 ) =
1
det A .
cujo determinante é
det M = 1 × 4 − 2 × 3 = 4 − 6 = −2 .
Tal como afirmado na propriedade 1, trocando as linhas 1 e 2 obtemos a matriz cujo
determinante é " #
3 4
det = 3 × 2 − 4 × 1 = 6 − 4 = 2 = − det M
1 2
e trocando as colunas 1 e 2 obtemos a matriz cujo determinante é
" #
2 1
det = 2 × 3 − 1 × 4 = 6 − 4 = 2 = − det M .
4 3
Substituindo a linha 1 pela linha 1 somada ao dobro da linha 2, obtemos a matriz cujo
determinante é
" #
7 10
det = 7 × 4 − 10 × 3 = 28 − 30 = −2 = det M .
3 4
Reparar que as propriedades 1–3 estabelecem o efeito das operações elementares no determinante
da matriz. Aliando-as à regra de Laplace, conseguimos facilitar significativamente o cálculo de de-
terminantes não triviais. É útil recordar que, como vimos a propósito da condensação de matrizes,
as operações elementares em linhas podem ser usadas para produzir entradas nulas em colunas.
De forma análoga, para produzir entradas nulas em linhas, recorremos a operações elementares em
colunas.
1 1 −1 0 2
2 1 0 2 −1
B = 1 −1 3 0 1 ,
3 −2 2 0 −1
0 0 1 1 −1
Aproveitando o facto de a coluna 4 ter já três entradas nulas, comecemos por subtrair
à linha 2 o dobro da linha 5. Obtemos assim a matriz
1 1 −1 0 2
2 1 −2 0 1
B0 = 1 −1 3 0 1 ,
3 −2 2 0 −1
0 0 1 1 −1
Seja C a matriz 4×4 encontrada. Ainda que pudéssemos recorrer já à regra de Laplace,
vamos primeiro simplificar a matriz. Aplicando as operações elementares L2 → L2 −
Capı́tulo 2. Determinantes 53
Logo
det B = − det C = −(28 + 0 + 30 − 60 − 0 − 5) = 7 .
Em alternativa, podı́amos ter continuado a simplificar a matriz:
−1 0 −3 −1 0 0 " #
4 5
det C = det −2 4 −1 = det −2 4 5 = − det = −(4 × 8 − 5 × 5) = −7 ,
5 8
−5 5 −7 −5 5 8
Outra forma de tirar partido das propriedades 1–3 é condensando a matriz, usando operações em
linhas e/ou em colunas sem restrições, até que esta fique em escada. De facto, para uma matriz
em escada, o cálculo do determinante limita-se ao cálculo do produto dos elementos da diagonal
principal.
a11 ∗ ∗ ∗ ∗
0 a ∗ ∗ ∗
22
0 0 a33 ∗ ∗ = a11 × a22 × · · · × ann
.. .. ..
. . . ∗ ∗
0 0 · · · 0 ann
é invertı́vel sse a11 a22 −a12 a21 , 0, ou seja, sse |A| , 0. Nesse caso, é fácil deduzir uma fórmula
geral para a solução dos SEL que têm A como matriz dos coeficientes:
a12 b1 a12 b1
a11 a12 b1 ←→ 1 a11 a11 ←→ 1 a11 a11
L1 → a 1 L1 L2 →L2 −a21 L1 =
a21 a22 b2 11 a21 a22 b2 0 a22 − a21 aa12 b2 − a21 ab1
11 11
a12 b1 a12 b1 a12 b1
1 a11 a11 1 a11 a11 ←→ 1 a11 a11
= a11 a22 −a21 a12 a11 b2 −a21 b1 = |A| a11 b2 −b1 a21
a11
L2 → |A| L2 a11 b2 −b1 a21 ↔
0 a11 a11 0 a11 a11 0 1 |A|
pois
b1 a12 a11 b2 − b1 a21 b1 (a11 a22 − a12 a21 ) − a12 (a11 b2 − b1 a21 )
− =
a11 a11 |A| a11 |A|
b1 a11 a22 − b1 a12 a21 − a12 a11 b2 + a12 b1 a21
=
a11 |A|
b1 a11 a22 − a12 a11 b2
=
a11 |A|
b a −a b
= 1 22 12 2 .
|A|
Dado que
2 1 = 2 × 2 − 1 × (−3) = 4 + 3 = 7 , 0 ,
−3 2
o sistema é possı́vel e determinado. Pelo que acabámos de ver, a sua solução é
1 1
−5 2 1 × 2 − 1 × (−5) 2 + 5
x= = = = 1,
7 7 7
2 1
−3 −5 2 × (−5) − 1 × (−3) −10 + 3
y= = = = −1 .
7 7 7
A conclusão deduzida no inı́cio desta secção podia ter sido obtida, mais facilmente, recorrendo
à matriz inversa. De facto, sendo a11 a22 − a12 a21 , 0, sabemos que a matriz dos coeficientes do
sistema é invertı́vel e que a sua inversa é, como vimos no Teorema 1.4,
" #
−1 1 a22 −a12
A = .
|A| −a21 a11
ou seja,
a22 b1 − a12 b2 −a21 b1 + a11 b2
x= , y= .
|A| |A|
No entanto, não seria tão óbvio o facto da conclusão final se generalizar a qualquer sistema
possı́vel e determinado, como indicado no resultado seguinte:
a sua solução é
b1 a12 . . . a1n
a11 b1 . . . a1n
a11 a12 . . . b1
b2 a22 . . . a2n a21 b2 . . . a2n a21 a22 . . . b2
. .. .. . .. .. . .. .
.. .. .. .. .. ..
. . . . . . . . ..
bn an2 . . . ann an1 bn . . . ann an1 an2 . . . bn
x1 = , x2 = , . . . , xn = .
a11 a12 . . . a1n
a11 a12 . . . a1n
a11 a12 . . . a1n
a21 a22 . . . a2n a21 a22 . . . a2n a21 a22 . . . a2n
. .. .. . .. .. . .. ..
.. .. .. .. .. ..
. . . . . . . . .
an1 an2 . . . ann an1 an2 . . . ann an1 an2 . . . ann
Dado que
0 2 1 0 2 1
1 −2 1 = 1 −2
1 (L3 → L3 − 3L2 )
3 −4 0 0 2 −3
2+1 2 1
= (−1) (desenvolvimento de Laplace segundo a 1ª coluna)
2 −3
= −(2 × (−3) − 1 × 2)
= 8 , 0,
0 2 1
1 −2 0
3 −4 2 0 + 0 + (−4) − (−6) − 4 − 0 −2
1
z= = = =− .
8 8 8 4
Capı́tulo 2. Determinantes 57
Nesta secção vamos ver uma outra forma de calcular a matriz inversa de uma matriz, a qual
irá generalizar o resultado registado no Teorema 1.4:
" #
−1 1 a22 −a12
A = .
|A| −a21 a11
Para isso, precisamos das seguintes noções: matriz dos cofatores, matriz transposta e matriz
adjunta.
Definição 2.6 (Matriz dos cofatores) Dada uma matriz A = [aij ] de tipo n×n, chama-se
matriz dos cofatores de A à matriz cof (A) = [cij ] com
Em particular, se " #
1 2
A= ,
−3 0
então " # " #
0 −(−3) 0 3
cof (A) = = .
2 1 2 1
58 2.5. Cálculo da matriz inversa através da matriz adjunta
Temos
" # " # " #
2 6 7 6 7 2
A11 = , A12 = , A13 = ,
9 3 8 3 8 9
" # " # " #
4 5 1 5 1 4
A21 = , A22 = , A23 = ,
9 3 8 3 8 9
" # " # " #
4 5 1 5 1 4
A31 = , A32 = , A33 = ,
2 6 7 6 7 2
donde
det A11 = −48 , det A12 = −27 , det A13 = 47 ,
det A21 = −33 , det A22 = −37 , det A23 = −23 ,
det A31 = 14 , det A32 = −29 , det A33 = −26 .
Logo
Definição 2.7 (Matriz transposta) Dada uma matriz A = [aij ] de tipo m × n, chama-se
matriz transposta de A à matriz AT = [tij ] com
tij = aji .
Em particular, se " #
1 2
A= ,
−3 0
Capı́tulo 2. Determinantes 59
então "#
1 −3
T
A = .
2 0
Temos
donde
1 7 8
AT = 4 2 9 .
5 6 3
Observar que, no caso das matrizes quadradas, AT resulta da reflexão das entradas de A relativa-
mente à diagonal principal de A. Em particular, A e AT têm a mesma diagonal principal.
j i
j
É claro que, no caso geral, não faz sentido falar em reflexão das entradas relativamente à diagonal
principal.
Definição 2.8 (Matriz adjunta) Dada uma matriz A = [aij ] de tipo n × n, chama-se
matriz adjunta de A à transposta da matriz dos cofatores de A:
T
adj (A) = cof (A) .
Logo
" #T " #
a22 −a21 a22 −a12
adj (A) = = .
−a12 a11 −a21 a11
Logo,
T
−48 27 47 −48 33 14
adj (A) = 33 −37 23 = 27 −37 29 .
14 29 −26 47 23 −26
" #
a11 a12
A= ,
a21 a22
" #
−1 1 a22 −a12 1
A = det A = det A adj (A) .
−a21 a11
Teorema 2.4 (Cálculo da matriz inversa através da matriz adjunta) Dada uma matriz
A = [aij ] invertı́vel, tem-se:
A−1 = 1
det A adj (A) .
Recordar que uma matriz (necessariamente quadrada) é invertı́vel sse o seu determinante
é não nulo.
A−1 ((B−1 )T )−1 (BT )−1 A = A−1 ((BT )−1 )−1 (BT )−1 A
= A−1 BT (BT )−1 A
= A−1 In A
= A−1 A
= In .
Definição 2.9 (Matriz simétrica & matriz anti-simétrica) Uma matriz diz-se simétrica
se AT = A e anti-simétrica se AT = −A.
• Para matrizes 2×2 e 3×3, temos mnemónicas para calcular o seu determinante; para matrizes
quadradas de ordem 4 ou superior, recorremos às propriedades dos determinantes e à regra
de Laplace.
• O determinante de uma matriz é uma forma prática de averiguar se a matriz é invertı́vel:
Recorrendo à matriz adjunta, temos uma alternativa à condensação para calcular a inversa
de uma matriz.
• A regra de Cramer resolve sistemas possı́veis e determinados.
2.6 Exercı́cios
Capı́tulo 2. Determinantes 63
√ √ −2 1 4 3 0 0
2
√6
4 1 (f) 3 5 −7 (h) 2 −1 5
(b) (d)
4 3
8 2 1 6 2 1 9 −4
a b c
Exercı́cio 2.5 Sabendo que d e f = −6, calcule:
g h i
d e f
3a 3b 3c a + g b + h c + i
(a) g h i (b) −d −e −f (c) d e f
a b c 4g 4h 4i g h i
64 2.6. Exercı́cios
a b c
Exercı́cio 2.6 Sabendo que A = d e f e que det A = −7, calcule:
g h i
Exercı́cio 2.7 Determine para que valores de k as seguintes matrizes não são in-
vertı́veis.
" #
k−3 −2 1 2 4
(a)
(b) 3 1 6
−2 k − 2
k 3 2
Exercı́cio 2.8 Nos casos em que tal for possı́vel, resolva recorrendo à regra de Cramer.
(
7x − 2y = 3 x − 4y + z = 6 x − 3y + z = 4
(a)
3x + y = 5 (c) 4x − y + 2z = −1 (e) 2x − y = −2
2x + 2y − 3z = −20
4x − 3z = 0
4x + 5y = 2
3x − y + z = 4
(b) 11x + y + 2z = 3 (d) −x + 2y − 2z = 1
x + 5y + 2z = 1
2x + y − z = 5
1 −2 3
Exercı́cio 2.9 Seja A = 6 7 −1 .
−3 1 4
1 3 1 1
2 5 2 2
Exercı́cio 2.10 Seja A = .
1 3 8 9
1 3 2 2
Verifique as igualdades.
2.7 Soluções
Solução 2.1
Solução 2.2
Solução 2.3
Solução 2.4
Solução 2.5
Solução 2.6
Solução 2.7
√
5± 17 (b) k = −1
(a) k = 2
Solução 2.8
Solução 2.9
" # " #
29 −21 27
7 −1 6 −1
(a) A11 = , A12 = ,
1 4 −3 4 (b) cof (A) =
11 13 5
−19 19 19
" # " #
6 7 −2 3
A13 = , A21 = ,
−3 1 1 4
29 11
" # " # −19
1 3 1 −2
A22 = , A23 = , (c) adj (A) = −21
13 19
−3 4 −3 1
27 5 19
" # " #
−2 3 1 3
A31 = , A32 = ,
7 −1 6 −1 29
11 −19
" #
1
1 −2 (d) A−1 = 152 −21 13 19
A33 =
6 7 27 5 19
−4 3 0 −1
2 −1 0 0
Solução 2.10 A−1 =
−7 0 −1 8
6 0 1 −7
Solução 2.11
3 1 3
3 −5
−5 2 0 1
2 2 2
(a) −3 4 5 (b) 2 1 2 (c) 0 3
1
3 3 3 2
2 −2 −3 1
0
−1 −1
0 0 2
Solução 2.12
Capı́tulo 2. Determinantes 67
10 0 2
−4 5 −6
(a) Ambos os lados da equação são iguais a
−2 7 10
28 20 0
(b) Ambos os lados da equação são iguais a −28 −31 −21
10 38 32
20 8
−4
1
(c) Ambos os lados da equação são iguais a 148 39 60 44
−3 −16 8
Solução 2.13
" 2 # " #
−5 1 −1 −7
(a) (b)
− 15 35 −1 2
3. Espaços Vetoriais
3.5 Exercı́cios 99
Os chamados espaços vetoriais são estruturas bastante simples onde se encaixam inúmeros conjun-
tos muito diversos (e respetivas operações). Neste capı́tulo iremos abordar as noções mais básicas
relativamente a espaços vetoriais e as matrizes rapidamente irão surgir como ferramentas funda-
mentais no estudo destas estruturas.
Tanto no caso dos vetores no plano como no caso dos vetores no espaço, estas operações
gozam de algumas propriedades, todas elas fáceis de verificar:
69
70 3.1. Definição e exemplos
~ + ~0 = ~0 + u
3. Existência de elemento neutro para a soma: u ~=u
~.
7. k(l u
~ ) = (kl)~
u.
8. 1~
u=u
~.
u = ~0.
9. 0~
Substituindo vetores por matrizes, estas são precisamente as propriedades de que go-
zam a soma de matrizes e o produto de uma matriz por um escalar (cf. Teorema 1.1 do
Capı́tulo 1). Consideremos então o seguinte conceito, que engloba os casos das matrizes,
vetores e inúmeros outros:
Definição 3.1 (Espaço vetorial (real); vetor; vetor nulo) Chamamos espaço vetorial real
a todo o conjunto no qual estejam definidas uma operação entre os seus elementos, de-
signada por soma, e uma operação entre um elemento do conjunto e um número real,
designada por produto por um escalar, que verifiquem as propriedades enunciadas no
Teorema 3.1. Aos elementos do conjunto chamamos vetores e ao vetor ~0 chamamos
vetor nulo.
Existe o conceito análogo de espaço vetorial complexo, onde o produto por escalar envolve números
complexos, mas não o iremos estudar. Assim, usaremos o termo “espaço vetorial” em vez de “espaço
vetorial real”.
Exemplo 3.1 O conjunto dos vetores no plano, que, como é bem conhecido, pode
ser identificado com R2 , é um portanto um espaço vetorial para a soma de vetores e
o produto por um escalar usuais. Analogamente para R3 , o conjunto dos vetores no
espaço.
Já o conjunto E = {(x, y, z) : x, y, z ∈ Z}, por exemplo, não é um espaço vetorial para estas
operações, uma vez que 21 (2, 3, −4) = (1, 32 , −2) < E apesar de (2, 3, −4) ∈ E e 12 ∈ R.
Mais geralmente, fixado n ∈ N, o conjunto Rn = {(x1 , . . . , xn ) : x1 , . . . , xn ∈ R} é um espaço
vetorial para as operações:
e
k(x1 , . . . , xn ) = (kx1 , . . . , kxn ) .
e
k(a0 + a1 x + · · · + an xn ) = ka0 + (ka1 )x + · · · + (kan )xn .
De facto, Rn [x] é fechado para as operações consideradas, uma vez que ambas, quando
aplicadas a polinómios de grau menor ou igual a n, produzem um polinómio de grau
menor ou igual a n (o que já não é verdade, por exemplo, para o produto de po-
linómios). Além disso, têm-se as 9 propriedades que têm que ser satisfeitas, como
é fácil de verificar. Por exemplo, dados p(x) ∈ Rn [x], digamos p(x) = a0 + a1 x + · · · + an xn ,
e k, l ∈ R, temos
(k + l)p(x) = (k + l)(a0 + a1 x + · · · + an xn )
= (k + l)a0 + (k + l)a1 x + · · · + (k + l)an xn
= ka0 + la0 + ka1 x + la1 x + · · · + kan xn + lan xn
= (ka0 + ka1 x + · · · + kan xn ) + (la0 + la1 x + · · · + lan xn )
= k(a0 + a1 x + · · · + an xn ) + l(a0 + a1 x + · · · + an xn )
= kp(x) + lp(x) .
Exemplo 3.4 O conjunto C(R) das funções contı́nuas em R é um espaço vetorial para
as operações:
(f + g)(x) = f (x) + g(x)
e
(kf )(x) = kf (x) .
De facto, a soma de funções contı́nuas é uma função contı́nua e o produto de uma
72 3.1. Definição e exemplos
função contı́nua por um escalar é uma função contı́nua. Quanto às propriedades enun-
ciadas no Teorema 3.1, é mais uma vez direta a sua verificação.
O conjunto M(R) das funções monótonas em R não é um espaço vetorial para as
operações usuais de soma e produto por um escalar. De facto, por exemplo f (x) = x3 e
g(x) = −x são funções monótonas, mas f (x) + g(x) = x3 − x não é monótona, pois não é
crescente nem decrescente:
y y y
y = x3 y = −x y = x3 − x
x x x
Exemplo 3.5 Consideremos o conjunto S = {(a, b, 2a−b) : a, b ∈ R}. Vejamos que se trata
de um espaço vetorial para as operações usuais de soma e produto por um escalar.
Sejam u
~ , v~ ∈ S e k, l ∈ R.
Por definição de S, tem-se u
~ = (a, b, 2a − b) e v~ = (c, d, 2c − d) para certos a, b, c, d ∈ R.
Novamente por definição de S, temos:
~ + v~ = (a, b, 2a−b)+(c, d, 2c −d) = (a+c, b +d, 2a−b +2c −d) = (a+c, b +d, 2(a+c)−(b +d)) ,
u
Pelo facto de “herdar” as suas operações do espaço vetorial, na verificação de que um dado sub-
conjunto é um subespaço vetorial não há necessidade de confirmar as 9 propriedades da definição
de espaço vetorial, mas apenas que é fechado para as operações. Assim, é em geral mais fácil esta-
belecer que um subconjunto é um subespaço vetorial do que estabelecer que um conjunto é espaço
vetorial:
Capı́tulo 3. Espaços Vetoriais 73
ou, equivalentemente,
(cf. Exemplo 1.3 do Capı́tulo 1). Como vimos, S = {(3−2y, y) : y ∈ R}, que é um subcon-
junto do espaço vetorial R2 . No entanto, S não é um subespaço vetorial de R2 , pois, por
exemplo, u~ = (3, 0) e v~ = (1, 1) pertencem a S, enquanto que u
~ + v~ = (3, 0) + (1, 1) = (4, 1)
não pertence a S.
Quando pretendemos verificar se um dado conjunto é um subespaço vetorial, é boa ideia começar
por averiguar se o vetor nulo lhe pertence. Em caso afirmativo, fica estabelecido que o espaço é não
vazio (pelo que vale a pena prosseguir a verificação); em caso negativo, fica provado que não se
trata de um espaço vetorial.
pelo que u
~ + v~ ∈ S, e
" # " # " #
a a+b ka k(a + b) ka ka + kb
~=k
ku = = ,
0 b 0 kb 0 kb
Referimos acima que o conjunto de solução de um SEL não homogéneo, embora se trate
de um subconjunto de Rn , com n o número de incógnitas, nunca constitui um subespaço
vetorial de Rn . Já o o conjunto de solução de um SEL homogéneo constitui sempre um
subespaço vetorial:
Tratando-se de um SEL homogéneo, (0, 0, . . . , 0) é uma solução do sistema, pelo que o seu
CS é não vazio.
Sejam u ~ = (u1 , u2 , . . . , un ) e v~ = (v1 , v2 , . . . , vn ) soluções do sistema. Então, tanto u ~ como v~
satisfazem as n equações do sistema, o que matricialmente se escreve na forma
a11 a12 . . . a1n u1 0 a11 a12 . . . a1n v1 0
a21 a22 . . . a2n u2 0 a a22 . . . a2n v2 0
= e 21
.. .. .. .. .. .. .. .. .. .. .. = .. ,
.
. . . . .
.
. . . . .
am1 am2 . . . amn un 0 am1 am2 . . . amn vn 0
ou, denotando por A a matriz dos coeficientes do sistema, por U (respetivamente, V ) a matriz
coluna do vetor u
~ (respetivamente, v~) e por O a matriz coluna nula, AU = O e AV = O.
Capı́tulo 3. Espaços Vetoriais 75
A(U + V ) = AU + AV = O + O = O .
A(kU ) = k(AU ) = kO = O ,
pelo que k u
~ é ainda uma solução do sistema.
Deste modo, o CS do SEL acima é um conjunto não vazio e fechado para as operações do
espaço vetorial Rn . Logo, pelo Teorema 3.2, tem-se a conclusão pretendida.
Exemplo 3.9 (Ainda o Exemplo 3.5) O Teorema 3.3 dá-nos outra forma de mostrar que
o conjunto S do Exemplo 3.5 é um espaço vetorial. De facto,
x=a
(x, y, z) ∈ S ⇔ y=b para certos a, b ∈ R ⇔ z = 2x − y ⇔ 2x − y − z = 0 .
z = 2a − b
k1 v~1 + . . . + kn v~n
onde k1 , . . . , kn ∈ R.
Exemplo 3.10 (i) No espaço vetorial R2 , todos os vetores podem ser escritos como
combinação linear dos vetores ~i = (1, 0) e ~
j = (0, 1). De facto,
dem ser escritos como combinação linear dos vetores (2, 0) e (1, 1), pois
a−b
2α + β = a α = 2
v~ = (a, b) = α(2, 0) + β(1, 1) ⇔ (a, b) = (2α + β, β) ⇔ ⇔ ,
β = b
β = b
(ii) Consideremos agora os vetores (2, 0), (1, 1) e (1, 3). Sendo igualmente verdade
que é possı́vel escrever todos os vetores de R2 como combinação linear destes
três vetores, pois
a−b+2γ
α = 2
v~ = (a, b) = α(2, 0) + β(1, 1) + γ(1, 3) ⇔ (a, b) = (2α + β + γ, β + 3γ) ⇔
β = b − 3γ
(2, −4) = 3(2, 0) − 4(1, 1) + 0(1, 3) e (2, −4) = 4(2, 0) − 7(1, 1) + 1(1, 3) ,
— enquanto que, como combinação linear dos vetores (2, 0) e (1, 1), há uma e uma
única forma de o fazer.
(iii) Nem todos os vetores de R2 podem ser escritos como combinação linear dos ve-
tores (1, 3) e (2, 6) — de facto, apenas os vetores da forma (a, 3a), com a ∈ R,
admitem ser escritos como combinação linear dos vetores (1, 3) e (2, 6):
Repare-se que não é possı́vel escrever os vetores (2, 0) e (1, 1) à custa um do outro, mas é
possı́vel escrever o vetor (2, 0) à custa dos vetores (1, 1) e (1, 3),
bem como, evidentemente, escrever o vetor (1, 1) à custa dos vetores (2, 0) e (1, 3) e escrever
o vetor (1, 3) à custa dos vetores (2, 0) e (1, 1).
É fácil verificar que, dados vetores v~1 , . . . , v~n pertencentes a um espaço vetorial E, o con-
junto de todas as combinações lineares destes vetores constitui um subespaço vetorial de E
(possivelmente todo o espaço). Faz assim sentido a seguinte noção:
chamamos (sub)espaço vetorial gerado pelos vetores v~1 , . . . , v~n e dizemos que {~
v1 , . . . , v~n }
Capı́tulo 3. Espaços Vetoriais 77
O espaço S0 consiste num único ponto, (0, 0); o espaço S1 consiste em todos os pontos
da forma (x, −x), com x ∈ R, definindo portanto a reta de equação y = −x; tendo em
conta o exemplo anterior, S2 = R2 . Deste modo,
h(1, 0), (0, 1)i = h(2, 0), (1, 1)i = h(2, 0), (1, 1), (1, 3)i = · · ·
S0 = h(0, 0, 0)i , S1 = h(1, −1, 1)i , S2 = h(1, −1, 1), (0, 2, −1)i e S3 = h(1, 0, 0), (0, 1, 0), (0, 0, 1)i .
O espaço S0 consiste num único ponto, (0, 0, 0); o espaço S1 consiste em todos os pontos
da forma (x, −x, x), com x ∈ R, definindo portanto a reta de equações y = −x, z = x; o
espaço S2 consiste em todos os pontos da forma (k, −k, k) + (0, 2l, −l), ou seja, (k, −k +
2l, k − l), com k, l ∈ R. Assim,
⇔ y = −x + 2x − z
⇔ x − y − 2z = 0 ,
(onde, portanto, (a1i , a2i , . . . , ani ) são, para cada i ∈ {1, . . . , m}, as coordenadas do vetor
v~i ); e chamamos equação cartesiana (respetivamente, sistema de equações cartesianas)
à equação (respetivamente, equações) que obtemos a partir das equações paramétricas
por eliminação dos parâmetros.
S1 = h(1, −1)i
equações paramétricas (
x=k
(k ∈ R)
y = −k ,
e equação cartesiana y = −x.
equações paramétricas
x=k
y = −k (k ∈ R) ,
z=k
Capı́tulo 3. Espaços Vetoriais 79
Neste caso, é muito fácil determinar o sistema de equações cartesianas a partir das
equações paramétricas e não haveria grande vantagem em fazê-lo de outra forma.
No entanto, observemos que as equações paramétricas constituem um SEL cuja
representação matricial é:
1 h i x
−1 k = y .
1 z
Assim, o SEL é possı́vel sse a caracterı́stica da matriz dos coeficientes for igual à da
matriz ampliada. Ora,
1 x ←→ 1 x
−1 y L2 →L2 +L1 0 y + x
L3 →L3 −L1
1 z 0 z−x
equações paramétricas
x=k
y = −k + 2l (k, l ∈ R)
z = k−l,
Tendo-se
1 0 x ←→
1 0 x 1 0 x
L2 →L2 +L1 ←→
−1 2 y 0 2 y +x L3 →L3 + 12 L2 0 2 y +x ,
L3 →L3 −L1
1 −1 z 0 −1 z − x 0 0 z − x + 12 (y + x)
resulta que
z − x + 12 (y + x) = 0 ⇔ z − x + 12 y + 12 x = 0 ⇔ z − 12 x + 12 y = 0 ⇔ x − y − 2z = 0 .
80 3.2. Combinação linear, base e dimensão
Em geral, sempre que um subespaço vetorial S de Rn é gerado pelos vetores v~1 , v~2 , . . . , v~m ,
S = v~1 , v~2 , . . . , v~m ,
em que a matriz dos coeficientes tem, nas suas colunas, as coordenadas dos vetores que geram o
espaço. Além disso, neste SEL os parâmetros k1 , k2 , . . . , kn desempenham o papel de incógnitas e
x1 , x2 , . . . , xm o de termos independentes. Deste modo, a representação matricial deste SEL é
k1
a11 a12 . . . a1m x1
k2
a21 a22 . . . a2m x2
.. =
,
.. .. .. .. ..
.
. . .
. .
an1 an2 . . . anm xn
km
Condensando esta matriz e impondo que a caracterı́stica da matriz ampliada seja igual à da matriz
dos coeficientes, obtemos uma descrição cartesiana se S.
Como é evidente, o processo inverso, isto é, obter um conjunto de geradores a partir das
equações do espaço vetorial, também é sempre possı́vel:
temos
S = {(−2y + 12 w, y, 4y + 52 w, w) : y, w ∈ R}
= {y(−2, 1, 4, 0) + w( 12 , 0, 52 , 1) : y, w ∈ R}
D E
= (−2, 1, 4, 0), ( 21 , 0, 52 , 1) .
1 −2 1 −3 ←→ 1 −2 1 −3 ←→
L2 →L2 −2L1
2 4 0 −1 0 8 −2 5
1
←→ 1 −2 1 −3 ←→ 1 0 2 − 74
L2 → 18 L2 L1 →L1 +2L2 ,
0 1 − 41 5
8 0 1 − 41 5
8
donde
x + 21 z − 74 w = 0 x = − 12 z + 74 w
( (
⇔ .
y − 14 z + 58 w = 0 y = 14 z − 58 w
Logo
S = {(− 12 z + 74 w, 14 z − 85 w, z, w) : z, w ∈ R}
= {z(− 12 , 14 , 1, 0) + w( 47 , − 58 , 0, 1) : z, w ∈ R}
D E
= (− 12 , 14 , 1, 0), ( 74 , − 58 , 0, 1)
Como se pode observar no exemplo anterior, este processo tem tudo a ver com a resolução
de SEL homogéneos, ao qual podemos portanto aplicar as ferramentas matriciais desenvol-
vidas no Capı́tulo 1.
Quando um vetor v~3 é combinação linear dos vetores v~1 e v~2 , digamos v~3 = k~
v1 +l~
v2 , então
todos os vetores que são combinação de v~1 , v~2 e v~3 também são combinação linear apenas de
v~1 e v~2 . De facto, se w
~ = α~
v1 + β~
v2 + γ v~3 , então
~ = α~
w v1 + β~
v2 + γ(k~
v1 + l~
v2 ) = (α + kγ)~
v1 + (β + lγ)~
v2 .
Em particular, v~1 , v~2 , v~3 = v~1 , v~2 , pelo que o vetor v~3 seria, assim, um gerador redundante
(cf. Definição 3.4).
A redundância (ou não) de um vetor num conjunto de geradores será muito importante.
Ela é traduzida pela seguinte noção:
Exemplo 3.16 Como observámos a seguir ao Exemplo 3.10, os vetores (2, 0) e (1, 1)
são linearmente independentes, enquanto que os vetores (2, 0), (1, 1) e (1, 3) são li-
nearmente dependentes, tal como os vetores (1, 3) e (2, 6). Assim, {(2, 0), (1, 1)} é um
conjunto linearmente independente e {(2, 0), (1, 1), (1, 3)} e {(1, 3), (2, 6)} são conjuntos
linearmente dependentes.
Exemplo 3.17 Dado que não é possı́vel escrever nenhum dos polinómios 1, x e x2 como
combinação linear dos outros dois, 1, x e x2 são vetores linearmente independentes do
espaço vetorial R2 [x].
Antes de vermos mais exemplos relativos a esta noção, registemos uma outra forma de a
testar:
é equivalente a
v~1 , . . . , v~n l.d. ⇔ ∃k1 , . . . , kn não todos nulos t.q. k1 v~1 + . . . + kn v~n = ~0 ,
v~1 , . . . , v~n l.d. ⇔ ∃k1 , . . . , kn não todos nulos t.q. v~n = k1 v~1 + . . . + kn−1 v~n−1
⇔ ∃k1 , . . . , kn não todos nulos t.q. k1 v~1 + . . . + kn−1 v~n−1 − v~n = ~0
⇔ ∃k1 , . . . , kn não todos nulos t.q. k1 v~1 + . . . + kn v~n = ~0 .
Exemplo 3.19 Os vetores (1, 1, 0), (2, 5, 3) e (1, 4, 3) são linearmente dependentes (em
R3 ). Temos
α(1, 1, 0) + β(2, 5, 3) + γ(1, 4, 3) = ~0 ⇔ (α, α, 0) + (2β, 5β, 3β) + (γ, 4γ, 3γ) = (0, 0, 0)
⇔ (α + 2β + γ, α + 5β + 4γ, 3β + 3γ) = (0, 0, 0)
α + 2β + γ = 0
⇔ α + 5β + 4γ = 0 .
3β + 3γ = 0
Como
1 2 1 0 1 2 1 0 1 2 1 0
←→ ←→
1 5 4 0 L2 →L2 −L1 0 3 3 0 L3 →L3 −L2 0 3 3 0 ,
0 3 3 0 0 3 3 0 0 0 0 0
concluı́mos que r(A) = r(A | B) = 2, enquanto que o número de incógnitas é 3, pelo que
se trata de um SPI (cf. Teorema 1.3). Logo, a solução nula não é a única e, portanto, a
combinação linear nula não é a única forma de escrever o vetor nulo como combinação
linear dos vetores (1, 1, 0), (2, 5, 3) e (1, 4, 3). Pelo Teorema 3.4, estes vetores são linear-
mente dependentes.
Exemplo 3.20 Consideremos os vetores (2, −1, 0, 3), (1, 2, 5, −1) e (7, −1, 5, 8) de R4 . Con-
densando a matriz cujas colunas são formadas por estes vetores, obtemos
2 1 7 −1 2 −1 −1 2 −1 −1 2 −1
−1 2 −1 2 1 7 ←→ 0 5 5 ←→ 0 5 5
←→ L2 →L2 +2L1 L3 →L3 −L2
L1 ↔L2 .
0 5 5 0 5 5 L4 →L4 +3L1 0 5 5 L4 →L4 −L5 0 0 0
3 −1 8 3 −1 8 0 5 5 0 0 0
84 3.2. Combinação linear, base e dimensão
em R2×2 . Temos
" # " # " # " #
1 −2 −1 2 5 0 0 1
α +β +γ +δ = ~0 ⇔
3 1 1 −1 3 5 0 −1
" # " # " # " # " #
α −2α −β 2β 5γ 0 0 δ 0 0
⇔ + + + =
3α α β −β 3γ 5γ 0 −δ 0 0
" # " #
α − β + 5γ −2α + 2β + δ 0 0
⇔ =
3α + β + 3γ α − β + 5γ − δ 0 0
α − β + 5γ = 0
−2α + 2β + δ = 0
⇔ .
3α + β + 3γ = 0
α − β + 5γ − δ = 0
Como
1 −1 5 0 1 −1 5 0 1 −1 5 0
←→
−2 2 0 1 L2 →L2 +2L1 0 0 10 1 ←→ 0 4 −12 0
L3 →L3 −3L1 L2 ↔L3 ,
3 1 3 0 L4 →L4 −L1 0 4 −12 0 0 0 10 1
1 −1 5 −1 0 0 0 −1 0 0 0 −1
concluı́mos que r(A) = 4, que é o número de vetores. Logo, estes vetores são linear-
mente independentes.
A unicidade exigida na definição de base implica que os vetores de uma base têm que ser
linearmente independentes. Assim,
O Teorema 3.5 evidencia a diferença entre conjunto de geradores e base: o primeiro não tem que ser
um conjunto linearmente independente. Portanto, uma base é sempre um conjunto de geradores,
Capı́tulo 3. Espaços Vetoriais 85
mas um conjunto de geradores não tem que ser uma base. A ideia da noção de base é tão simples
quanto importante: menos vetores, e não seria possı́vel formar todos os vetores do espaço; mais
vetores, e haveria redundâncias (ou seja, várias maneiras diferentes de escrever o mesmo vetor).
Exemplo 3.23 Seja E = h(1, 1, 0), (2, 5, 3), (1, 4, 3)i. Claramente, {(1, 1, 0), (2, 5, 3), (1, 4, 3)}
é um conjunto de geradores de E. No entanto, estes vetores não são linearmente in-
dependentes (cf. Exemplo 3.19), pelo que não constituem uma base do espaço. Já
(1, 1, 0) e (2, 5, 3) são linearmente independentes (e suficientes para gerar E), donde
{(1, 1, 0), (2, 5, 3)} é uma base do espaço.
Exemplo 3.24 Como vimos no Exemplo 3.17, 1, x e x2 são vetores linearmente inde-
pendentes de R2 [x]. Uma vez que, claramente, todo o vetor deste espaço, ou seja, todo
o polinómio de grau menor ou igual a 2, se escreve como combinação linear dos vetores
1, x e x2 , pelo Teorema 3.5 conclui-se que {1, x, x2 } é uma base de R2 [x].
Exemplo 3.25 Pelo Exemplo 3.10, tanto B = {(1, 0), (0, 1)} como B̃ = {(2, 0), (1, 1)} são
bases de R2 .
O facto de estas duas bases terem o mesmo número de elementos não é coincidência. De
facto, não é difı́cil mostrar que:
Teorema 3.6 Quaisquer duas bases de um mesmo espaço vetorial têm o mesmo
número de elementos.
Exemplo 3.27 Tendo em conta o Exemplo 3.24, dim R2 [x] = 3. Analogamente, o con-
junto {1, x, . . . , xn } é uma base do espaço Rn [x] dos polinómios de grau menor ou igual
a n. Assim, dim Rn [x] = n + 1. Já R[x], o espaço vetorial de todos os polinómios na
variável x, tem dimensão infinita.
Nos casos em que é finita, a dimensão de um espaço vetorial diz-nos o número máximo de vetores
linearmente independentes que o espaço contém. De facto, se fosse possı́vel acrescentar um vetor
v~ linearmente independente aos vetores de uma base B, então não seria possı́vel escrevê-lo como
combinação dos vetores de B, o que é impossı́vel visto B ser uma base. Este facto é útil para
determinar se um dado conjunto de vetores constitui uma base.
tem-se que todo o vetor de R2×2 se escreve como combinação linear dos vetores do
conjunto (" # " # " # " #)
1 0 0 1 0 0 0 0
B= , , , .
0 0 0 0 1 0 0 1
Além disso, é fácil ver que B é um conjunto linearmente independente. Logo, pelo
Teorema 3.5, B é uma base de R2×2 (pelo que dim R2×2 = 4). Consequentemente, tem-
se pelo Teorema 3.6 que todas as bases de R2×2 têm 4 elementos. Assim, também o
conjunto (" # " # " # " #)
1 −2 −1 2 5 0 0 1
B̃ = , , ,
3 1 1 −1 3 5 0 −1
é uma base de R2×2 , pois, como vimos no Exemplo 3.21, é um conjunto linearmente
independente e tem 4 elementos.
Vimos atrás que B = {(1, 0), (0, 1)} é uma base de R2 . Analogamente,
• {(1, 0, 0), (0, 1, 0), (0, 0, 1)} é uma base de R3 ;
• {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} é uma base de R4 ;
• etc.
j, ~k} ou {~
• em R3 : {~i, ~ ux , u ~z } em vez de {~e1 ,~e2 ,~e3 }.
~y , u
Capı́tulo 3. Espaços Vetoriais 87
~e1 = (1, 0, 0, 0, 0)
~e2 = (0, 1, 0, 0, 0)
~e3 = (0, 0, 1, 0, 0)
~e4 = (0, 0, 0, 1, 0)
~e5 = (0, 0, 0, 0, 1) .
Exemplo 3.30 Como vimos no Exemplo 3.28, R2×2 admite uma base com 4 vetores
(e, portanto, todas as bases deste espaço são constituı́das por 4 vetores). Deste modo,
dim R2×2 = 4. (E dim Rm×n ?)
Uma vez que as operações elementares em linhas não alteram o conjunto de solução de
88 3.3. Os 4 espaços fundamentais de uma matriz
ou ainda
x = −x2 − x5
1
x3 = −x5 .
x =0
4
Dado que estes geradores são linearmente independentes (caso contrário, teria sido
possı́vel condensar mais a matriz), concluı́mos que {(1, −1, 0, 0, 0), (−1, 0, −1, 0, 1)} é uma
base de N (A) e que, portanto, a sua dimensão é 2.
Capı́tulo 3. Espaços Vetoriais 89
O núcleo de uma matriz é um dos 4 espaços vetoriais que interessa associar à matriz. São
eles:
Definição 3.11 (Espaços fundamentais de uma matriz; espaço gerado pelas colunas de
uma matriz; espaço gerado pelas linhas de uma matriz) Dada uma matriz
a11 a12 ... a1n
a21 a22 ... a2n
A = . .. .. ..
,
.. .
. .
am1 am2 . . . amn
Por definição, N (A) e L(A) são subespaços de Rn e N (AT ) e C(A) são subespaços de Rm . Eviden-
temente, L(A) = C(AT ) (tal como C(A) = L(AT )).
N (A)
Subespaços de Rn
a11 a12 . . . a1n
a21 a22 . . . a2n
N (AT ) .. .. .. .. L(A)
. . . .
am1 am2 . . . amn
Subespaços de Rm
C(A)
90 3.3. Os 4 espaços fundamentais de uma matriz
No Exemplo 3.31, vimos ainda que {(1, −1, 0, 0, 0), (0, 1, 1, 0, 1)} é uma base de N (A) e
que, portanto, a dim N (A) = 2 — de facto, dim N (A) é igual ao GI do sistema AX = O,
o qual é dado por 5 − r(A), uma vez que este sistema tem 5 incógnitas. Vamos agora
determinar a dimensão e uma base para cada um dos restantes espaços fundamentais
da matriz A.
O facto de r(A) = 3 diz-nos que tanto o espaço gerado pelas linhas como o espaço
gerado pelas colunas têm dimensão 3. Localizando os pivots,
1 1 −2 0 −1
0 0 1 1 1
R =
0 0 0 −3 0
0 0 0 0 0
ficamos a conhecer uma base de cada um destes espaços. No caso do espaço gerado
pelas linhas da matriz A, basta selecionar as linhas da matriz R que contêm pivots, ob-
tendo assim a base {(1, 1, −2, 0, −1), (0, 0, 1, 1, 1), (0, 0, 0, −3, 0)}. No caso do espaço gerado
pelas colunas, selecionamos as colunas 1, 3 e 4 da matriz A, que são aquelas que, na
matriz R, contêm os pivots. Concluı́mos assim que {(2, −1, 1, 0), (−1, 2, −2, 1), (0, −3, 0, 1)}
é uma base de C(A).
Também é possı́vel extrair uma base de L(A) do conjunto de geradores dado original-
mente pela matriz A: basta atender às trocas de linhas que ocorreram na condensação
— neste exemplo, entre as linhas 1 e 3 e entre as linhas 2 e 4. Assim, dado que em R os
pivots se encontram nas linhas 1, 2 e 3, selecionamos as linhas 3, 4 e 1 (ou, equivalen-
temente, 1, 3 e 4). Deste modo, {(2, 2, −1, 0, 1), (1, 1, −2, 0, −1), (0, 0, 1, 1, 1)} é uma base de
L(A).
Quanto a N (AT ), há que repetir o processo de condensação da matriz, desta vez em
AT . Temos
2 −1 1 0 2 −1 1 0 1 1 −1 1
2 −1 1 0 0 0 0 0 0 −3 0 1
←→
T ←→ L1 ↔L5 ←→
A = −1 2 −2 1 −1 2 −2 1 −1 2 −2 1
L2 →L2 −L1
L2 ↔L4
0 −3 0 1 0 −3 0 1 0 0 0 0
1 1 1 1 1 −1 1 2 −1 1 0
−1
Capı́tulo 3. Espaços Vetoriais 91
1 1 −1 1 1 1 −1 1 1 1 −1 1
←→
0 −3 0 1
0 −3 0 1
0 −3 0 1
L3 →L3 +L1 ←→ ←→
0 3 −3 2 0 3 −3 2 0 0 −3 3
L5 →L5 +L3 L3 →L3 +L2
L5 →L5 −2L1
0 0 0 0 0 0 0 0 0 0 0 0
0 −3 3 −2 0 0 0 0 0 0 0 0
pelo que r(AT ) = 3. Deste modo, o SEL (homogéneo) cuja representação matricial é
AT X = O é um SPI, pois tem 4 incógnitas, e GI 4 − 3 = 1. Logo, dim N (AT ) = 1. Como
habitualmente, prosseguimos com a redução da matriz:
1 1 −1 1 1 1 −1 1
0 −3 0 1 0 1 0 − 13
←→
L2 →− 1 ←→
0
0 −3 3 3 L 2 0 0
1 −1
1
L3 →− 3 L3
0 0 0 0 0 0 0 0
0 0 0 0
0 0 0 0
1
1 1 0 0 1 0 0
3
0 1 0 − 13 0 − 13
0 1
←→ 0 0 1 −1 L1 →L
←→
L1 →L1 +L3 1 −L2
0 0 1 −1
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
x1 + 31 x4 = 0 x = −1x
1 13 4
1
x2 − 3 x4 = 0 ⇔ x2 = 3 x4 .
x −x = 0
x =x
3 4 3 4
Logo r(A) = 2, pelo que dim C(A) = dim L(A) = 2, e, como A é uma matriz de tipo 3 × 4,
dim N (A) = 4 − 2 = 2 e dim N (AT ) = 3 − 2 = 1.
Quanto à matriz B,
1 3 3 2 ←→ 1 3 3 2 1 3 3 2
L →L ←→
B = 2 6 9 7 2 −2L1
2
0 0 3 3
0 0 3 3 .
L3 →L3 −L2
L3 →L3 +L1
−1 −3 0 4 0 0 3 6 0 0 0 3
Assim, r(B) = 3, donde dim C(B) = dim L(B) = 3, dim N (B) = 4 − 3 = 1 e dim N (BT ) =
3 − 3 = 0 (pelo que N (BT ) = {(0, 0, 0)}).
Não confundir o núcleo com o espaço gerado pelas colunas de uma matriz A é crucial, não só
quando falamos de espaços vetoriais como nos dois próximos capı́tulos, dedicados às aplicações
lineares. Atenção em especial à informação, distinta, que a matriz condensada dá sobre cada um
destes espaços.
Recordemos a noção de base de um espaço vetorial (cf. Definição 3.7): trata-se de um sub-
conjunto de vetores do espaço à custa dos quais qualquer vetor do espaço se escreve de forma
única. Ou seja: se E é um um espaço vetorial, B = {~ v1 , . . . , v~n } uma base de E e w ~ ∈ E, então
existem k1 , . . . , kn ∈ R únicos tais que w
~ = k1 v~1 + . . . + kn v~n .
À partida, uma base é apenas um conjunto de vetores e, como tal, a ordem por que
escrevemos os vetores é irrelevante — se B = {~ v1 , v2 } é base de E, então {~ v2 , v1 } é (a mesma)
base de E. No entanto, no que segue, a ordem pela qual escrevemos os vetores da base
vai ser importante. Por essa razão, consideramos bases ordenadas e denotamo-las por B =
(~
v1 , . . . , v~n ).
Exemplo 3.34 Atendendo ao Exemplo 3.25, B = ((1, 0), (0, 1)) e C = ((2, 0), (1, 1)) são
bases (ordenadas) de R2 . Dado que
temos
(1, 3) = (1, 3)B ;
dado que
(1, 3) = −(2, 0) + 3(1, 1) ,
temos
(1, 3) = (−1, 3)C .
Teorema 3.8 Sejam E um espaço vetorial (de dimensão finita, digamos n), B ⊆ E uma
base de E, u
~ = (α1 , . . . , αn )B , v~ = (β1 , . . . , βn )B ∈ E e k ∈ R. Então
• u
~ + v~ = (α1 + β1 , . . . , αn + βn )B ;
• ku
~ = (kα1 , . . . , kαn )B .
94 3.4. Coordenadas e mudança de base
pelo que w
~ + ~z = (1, −2, 2, 2)B̃ ; por outro,
Deste modo, qualquer espaço vetorial de dimensão n comporta-se como Rn . Por exemplo, R4 é
um modelo para R2×2 e R3 é um modelo para R2 [x]. Assim, os espaços Rn servem de modelo para
todos os espaços vetoriais de dimensão finita. Por essa razão, vamos-nos concentrar neles daqui em
diante.
O problema que vamos agora estudar é o seguinte: se P (de “partida”) e C (de “chegada”)
são duas bases de Rn , como descobrir as coordenadas de um vetor na base C à custa das suas
coordenadas na base P ? Para simplificar ao máximo a dedução da resposta a este problema,
vamos fazê-la para n = 2; depois, restará generalizar ao caso Rn .
Suponhamos assim que P = (~ ~2 ) e C = (~c1 ,~c2 ) são duas bases de R2 e que o vetor w
p1 , p ~ ∈ R2
tem as seguintes coordenadas nestas bases:
~ = (β1 , β2 )P
w e ~ = (γ1 , γ2 )C ,
w
~ = β1 p
w ~ 1 + β2 p
~2 e ~ = γ1~c1 + γ2~c2 .
w
Vejamos então como descobrir o par (γ1 , γ2 ) à custa do par (β1 , β2 ). A resposta é: basta
Capı́tulo 3. Espaços Vetoriais 95
~1 = λ11~c1 + λ21~c2
p
~2 = λ12~c1 + λ22~c2 ,
p
então
~ = (β1 , β2 )P ⇒ w
w ~ = β1 p
~1 + β2 p
~2
~ = β1 (λ11~c1 + λ21~c2 ) + β2 (λ12~c1 + λ22~c2 )
⇒w
~ = β1 λ11~c1 + β1 λ21~c2 + β2 λ12~c1 + β2 λ22~c2
⇒w
~ = (β1 λ11 + β2 λ12 )~c1 + (β1 λ21 + β2 λ22 )~c2
⇒w
~ = (β1 λ11 + β2 λ12 , β1 λ21 + β2 λ22 )C .
⇒w
Mas então
(
γ1 = β1 λ11 + β2 λ12
,
γ2 = β1 λ21 + β2 λ22
Observar que
coords. de ~
p2 na base C
coords. de ~
p1 na base C coords. de w
~ na base P
γ1 λ λ12 β1
= 11
γ2 λ21 λ22 β2
coords. de w
~ na base C
Em resumo: multiplicando a matriz que tem, em cada coluna, as coordenadas dos vetores
da base de partida na base de chegada pela matriz das coordenadas do vetor w
~ na base de
partida, obtém-se a matriz das coordenadas de w
~ na base de chegada.
Exemplo 3.37 Consideremos as bases P = ((1, 0), (0, 1)) e C = ((2, 0), (1, 1)) de R2 e o
vetor w ~ = (1, 3). Dado que P é a base canónica de R2 , as coordenadas de w
~ na base P
são (1, 3); vejamos quais as suas coordenadas na base C.
Como vimos, há que determinar as coordenadas dos vetores de P na base C:
onde
β1
MP →C
..
.
βn
Exemplo 3.38 1. Verifiquemos que os conjuntos B = ((1, 1, 0), (0, 1, 1), (0, 0, 1)) e C =
((1, 0, 0), (1, 2, 0), (1, 2, 4)) são bases de R3 .
Como observado a seguir ao Exemplo 3.19, para verificar se B e C são conjuntos
linearmente independentes, basta condensar a matriz cujas colunas são formadas
pelos vetores de cada um destes conjuntos. Relativamente ao conjunto B, temos
1 0 0 1 0 0 1 0 0
←→ ←→
1 1 0 L2 →L2 −L1 0 1 0 L3 →L3 −L2 0 1 0 ,
0 1 1 0 1 1 0 0 1
pelo que a caracterı́stica desta matriz é 3. Logo, B é linearmente independente
Capı́tulo 3. Espaços Vetoriais 97
Logo: como
2 1 0 0 2 2
MBC→B 5 = −1 1 0 5 = 3 ,
3 1 −1 1 3 0
temos w
~ = (0, −1, 5)B .
Repetindo o processo para a base C, vem:
donde
1 − 21
0
1 1
MBC→C = 0 .
−
2 4
1
0 0
4
98 3.4. Coordenadas e mudança de base
Logo: como
2 1 − 21
1
0 2 − 2
5 = 0 1 1 7
5 = 4
MBC→C ,
2 −4
1
3
3 0 0 4
3 4
temos v~ = (− 21 , 74 , 34 )C ; como
0 1 − 12 0 12
0
−1 = 0 1 1 −1 = − 3
MBC→C ,
−
2 4 2
1
4 0 0 4 1
4
~ = ( 21 , − 32 , 1)C .
temos w
2. MB→B = In ;
Exemplo 3.39 A partir das matrizes MBC→B e MBC→C , determinadas no exemplo an-
terior, seria possı́vel determinar a matriz MB→C (ou a matriz MC→B ) recorrendo às
propriedades. De facto, pela propriedade 1,
e, pela propriedade 3,
MB→BC = (MBC→B )−1 .
Ora,
−1 T
1 0 0 1 −(−1) 0 1 0 0
1
(MBC→B )−1 = −1 1 0 = 0 1 −(−1) = 1 1 0 ,
1
1 −1 1 0 0 1 0 1 1
pelo que
1 0 0
MB→BC = 1 1 0 .
0 1 1
Capı́tulo 3. Espaços Vetoriais 99
Logo
1 − 12 1 0 0 21 − 12
0 0
1 1 1 1 0 = 1 1
MB→C = 0 − 41 .
2 −4
2 4
1 0 1 1 1 1
0 0 0
4 4 4
É fácil verificar diretamente que a matriz obtida é a correta: ela tem, nas suas colunas,
as coordenadas dos vetores da base B na base C. Por exemplo,
1 1
2 (1, 0, 0) + 2 (1, 2, 0) + 0(1, 2, 4) = (1, 1, 0) .
• São conjuntos geradores de um espaço vetorial subconjuntos de vetores a partir dos quais
qualquer elemento do espaço pode ser escrito como combinação linear; são bases de um espaço
vetorial conjuntos de geradores linearmente independentes.
• Dada uma matriz m × n, há 4 espaços vetoriais a ela associados: N (A), N (AT ), L(A) e
C(A). Tem-se dim C(A) = dim L(A) = r(A), dim N (A) = n − r(A) (grau de indeterminação
do sistema AX = O) e dim N (AT ) = m−r(A) (grau de indeterminação do sistema AT X = O).
3.5 Exercı́cios
Exercı́cio 3.4 Quais dos seguintes vetores são combinação linear dos vetores u
~ =
(0, −2, 2) e v~ = (1, 3, −1)?
Exercı́cio 3.5 Quais dos seguintes vetores são combinação linear dos vetores
" # " # " #
4 0 1 −1 0 2
~=
u , v~ = e w
~= ?
−2 −2 2 3 1 4
Capı́tulo 3. Espaços Vetoriais 101
(a) (2, 3, −7, 3) (b) (0, 0, 0, 0) (c) (1, 1, 1, 1) (d) (−4, 6, −13, 4)
Exercı́cio 3.7 Quais dos seguintes são conjuntos linearmente independentes? No caso
de serem linearmente dependentes, escreva um dos vetores como combinação linear
dos restantes.
(d) {(0, 3, 6), (1, −1, 1), (−1, 0, −2), (2, 4, 5)}
(e) {(1, 1, 7, −5), (1, 5, 3, −1), (2, −2, 2, 6), (1, 4, 0, 3)}
(g) {(0, 3, −3, −6), (−2, 0, 0, −6), (0, −4, −2, −2), (−1, 5, 7, 1)}
(h) {3 + x + x2 , 2 − x + 5x2 , 4 − x2 }
(a) (2, 2, 2), (0, 0, 3), (0, 1, 1) (c) (3, 1, 4), (2, −3, 5), (5, −2, 9), (1, 4, −1)
(b) (2, −1, 3), (4, 1, 2), (8, −1, 8) (d) (1, 2, 6), (3, 4, 1), (4, 3, 1), (3, 3, 1)
(a) X = {(1, 2, −1), (4, 1, 3), (2, 0, 2)} e Y = {(1, 2, −1), (4, 1, 3)}
(b) X = {(1, 2, −1), (4, 1, 3), (2, 0, 3)} e Y = {(1, 2, −1), (4, 1, 3)}
(c) X = {(1, 2, 3), (3, −1, 0)} e Y = {(5, 3, 6), (−8, 5, 3)}
(d) X = {(1, −3, 2), (−4, 1, −2)} e Y = {(−5, −7, 2), (−8, −3, −2)}
102 3.5. Exercı́cios
Exercı́cio 3.10 Dos conjuntos das alı́neas (d), (e), (f) e (g) do Exercı́cio 3.7, quais cons-
tituem uma base de R4 ?
(a) u
~ = (−1, 1, 1) e v~ = (3, 4, 4)
(b) u
~ = (1, 6, 4), v~ = (2, 4, −1) e w
~ = (−1, 2, 0)
(c) u
~ = (1, 6, 4), v~ = (2, 4, −1) e w
~ = (−1, 2, 5)
(d) u
~ = (3, −2, 5)
Exercı́cio 3.14 Indique, para as matrizes das alı́neas (a), (b), (c) e (f) do Exercı́cio 3.12,
a dimensão, uma base e uma(s) equação(ões) cartesiana(s) para cada um dos 4 espaços
fundamentais associados à matriz.
Exercı́cio 3.15 Determine a dimensão e uma base de cada um dos 4 espaços funda-
mentais associados à matriz.
1 4 5 2 1 4 5 2 1 4 5 6 9
(a) 2 1 3 0 (b) 2 1 3 0 3 5 12 18 27
(c)
−1 3 2 2 −1 3 2 5 1 0 1 −2 1
2 −3 5 8 8
Capı́tulo 3. Espaços Vetoriais 103
B = ((1, −1), (0, 1)) , C = ((2, 0), (1, 1)) e D = ((2, −3), (4, 1)) .
(e) Sendo w
~ = (2, 1)C , calcule as coordenadas de w
~ nas bases B e D.
B = ((1, −1, 0), (0, 1, 1), (1, 0, −1)) e C = ((2, 0, 3), (1, 1, 2), (−1, 0, 2)) .
(b) Sendo u
~ = (1, 0, 0) e v~ = (2, 1, −2), calcule as coordenadas de u
~ e v~ nas bases B e C.
3.6 Soluções
104 3.6. Soluções
Solução 3.1
Solução 3.2
Solução 3.3
Solução 3.4
Solução 3.5
Solução 3.6
Solução 3.7
Solução 3.8
Solução 3.9
Solução 3.10
Solução 3.11
x = −k + 3l
(a) (x, y, z) = k(−1, 1, 1) + l(3, 4, 4), k, l ∈ R; y = k + 4l , k, l ∈ R; y − z = 0
z = k + 4l
x = k + 2l − m
(b) (x, y, z) = k(1, 6, 4) + l(2, 4, −1) + m(−1, 2, 0), k, l, m ∈ R; y = 6k + 4l + 2m , k, l, m ∈ R
z = 4k − l
x = k + 2l
(c) (x, y, z) = k(1, 6, 4) + l(2, 4, −1), k, l ∈ R; y = 6k + 4l , k, l ∈ R; 22x − 9y + 8z = 0
z = 4k − l
x = 3k
(d) (x, y, z) = k(3, −2, 5), k ∈ R; y = −2k , k ∈ R; 2x + 3y = 0, 5y + 2z = 0
z = 5k
Solução 3.12
Solução 3.13
Solução 3.14
Solução 3.15
Solução 3.16
5
− 27 1 3
"
1 − 12
# " # " # " #
14 2 1 7 − 14
(a) MB→C = , MB→D = 1 1 , MC→B = , MC→D = 3 5
−1 1 14 7
2 2 7 14
Capı́tulo 3. Espaços Vetoriais 107
1 3
# " 5
− 27
" #"
− 12
#
7 − 14 1
(b) MC→D MB→C = 3 5 = 14
1 1 = MB→D
7 14 −1 1 14 7
" #−1
1 − 12
" #
2 1
(c) (MB→C )−1 = = = MC→B
−1 1 2 2
(d) v~ = ( 32 , −1)C = ( 37 , 27 )D
1 17
(e) w
~ = (5, 6)B = ( 14 , 14 )D
Solução 3.17
1 0 1 2 1 −1
−1 1 0 como 0 1 0 têm caracterı́stica igual a 3, pelo que B e C são
(a) Tanto
0 1 −1 3 2 2
conjuntos de (três) vetores linearmente independentes e, portanto, bases de R3 .
~ = ( 12 , 12 , 12 )B = ( 27 , 0, − 37 )C , v~ = (− 21 , 12 , 25 )B = (− 27 , 1, − 11
(b) u 7 )C
Solução 3.18
" #
1 3
(a) Se ~b1 = ~c1 + 2~c2 e ~b2 = 3~c1 + 4~c2 , então MB→C = .
2 4
(b) Se ~c1 = α"~b1 + γ~b2#e ~c2 = β~b1 + δ~b2 , então a matriz de mudança de base da base C para a
α β
base B é .
γ δ
" #
3 1
(c) Se ~b1 = (3, −2) e ~b2 = (1, 4), então MB→BCR2 = .
−2 4
" #
1 1
(d) Se ~c1 = (−1, 2) e ~c2 = (1, −1), então MBCR2 →C = .
2 1
" # " #
α ρ
(e) Se v~ = (ρ, σ )C e MB→C = , então v~ = (α, β)B .
β σ
4. Aplicações Lineares
Aplicação linear é uma correspondência entre espaços vetoriais que respeita as operações de soma
entre vetores e produto por um escalar definidas em cada um dos espaços. Neste capı́tulo vamos es-
tudar os conceitos fundamentais no que respeita a este tipo de função e, mais uma vez, as matrizes
vão surgir naturalmente como a ferramenta mais importante. À semelhança do que fizemos ante-
riormente, vamos concentrarmo-nos nas aplicações lineares entre os espaços Rn , equipados com a
estrutura usual.
1. f (~
u + v~) = f (~
u ) + f (~
v );
2. f (k u
~ ) = kf (~
u ).
f ((x, y, z) + (x0 , y 0 , z0 )) = f (x + x0 , y + y 0 , z + z0 ) = (y + y 0 , z + z0 , 0)
109
110 4.1. Definição e exemplos; Operações com aplicações lineares
e
f (x, y, z) + f (x0 , y 0 , z0 ) = (y, z, 0) + (y 0 , z0 , 0) = (y + y 0 , z + z0 , 0) ,
pelo que f ((x, y, z) + (x0 , y 0 , z0 )) = f (x, y, z) + f (x0 , y 0 , z0 );
e
kf (x, y, z) = k(y, z, 0) = (ky, kz, 0) ,
pelo que f (k(x, y, z)) = kf (x, y, z).
1. Ao contrário do que sucede com as funções em geral, numa aplicação linear o domı́nio é
obrigatoriamente todo o espaço de partida. Assim, por exemplo, a correspondência f (x, y) =
(x + y, ln x) não é uma aplicação linear pois só está definida para os vetores (x, y) com x > 0.
2. Se f é uma aplicação linear, então f (~0) = ~0. De facto, uma vez que a condição f (k u ~ ) = kf (~
u)
se verifica para todo k ∈ R, em particular verifica-se para k = 0, donde f (0~ u ) = 0f (~u ), ou
seja, f (~0) = ~0. Temos assim uma forma prática de mostrar que uma correspondência não
é uma aplicação linear: caso f (~0) , ~0, então f não é uma aplicação linear. Por exemplo,
f (x, y, z) = (x + y + z, 1) não é uma aplicação linear, pois f (0, 0, 0) = (0, 1) , (0, 0).
Mas atenção que o facto de f (~0) = ~0 não garante que f seja uma aplicação linear. Consi-
deremos, por exemplo, f (x, y) = (|x|, −y, 0). Apesar de f (x, y) = (|0|, −0, 0) = (0, 0, 0), temos
f ((−1, 0) + (1, 0)) = f (0, 0) = (0, 0, 0) enquanto que f (−1, 0) + f (1, 0) = (1, 0, 0) + (1, 0, 0) =
(2, 0, 0), pelo que f não respeita as condições da definição de aplicação linear.
3. Uma aplicação linear f : Rn → Rm pode ser vista como uma coleção de m funções fi : Rn →
R, cada uma satisfazendo a definição de aplicação linear. Consequentemente, estas funções
não podem ser mais que polinómios de grau 1 em n incógnitas com termo independente nulo,
ou seja, funções cuja expressão analı́tica é da forma a1 x1 +a2 x2 +. . .+an xn , onde a1 , a2 , . . . , an
são números reais. Com este facto em mente, é imediato distinguir as correspondências que
são aplicações lineares das que não são. Por exemplo, f (x, y, z) = (3x − 2y + z, z − 4y) é uma
aplicação linear, enquanto que g(x, y) = (3x − 2y, −4y, x − 3), h(x, y, z) = (x2 + y − z, z − 4y) e
√
k(x, y) = (3x − 2y + z, x + y + z) não são.
Teorema 4.2 A imagem dos vetores de uma base do espaço de partida definem a
aplicação linear.
f (w)
~ = f (k1 v~1 + . . . + kn v~n ) = k1 f (~
v1 ) + . . . + kn f (~
vn ) .
Exemplo 4.2 Seja f : R3 → R2 uma aplicação linear tal que f (1, 0, 0) = (1, 1), f (0, 1, 0) =
(−1, 0) e f (0, 0, 1) = (2, 1). Então
Mais geralmente,
Tal como sucede com a composição de funções, é útil ter presente o seguinte esquema
quando falamos em composição de aplicações lineares:
112 4.1. Definição e exemplos; Operações com aplicações lineares
Rn f Rm Rp
g
g(f (~u))
b b
~u
b
f (~u)
g◦f
f (x, y, z) = (x − y + 2z, x + z)
g(x, y, z) = (x + y, 2y + 2z)
h(x, y) = (2x − 3y, x + 4y, y − x)
k(x, y, x) = (x + 3y − 6z, y + 2z, −5x) .
e 2f é a aplicação linear
(2f )(x, y, z) = 2f (x, y, z) = 2(x−y +2z, x+z) = (2(x−y +2z), 2(x+z)) = (2x−2y +4z, 2x+2z) .
Observar que não seria possı́vel somar f (nem g) com nenhuma das aplicações lineares
h e k. Dado que f : R3 → R2 e h : R2 → R3 , tanto h ◦ f como f ◦ h estão definidas:
(reparar que h ◦ f : R3 → R3 ) e
~ ∈ Rm : w
Im f = {w v ) para algum v~ ∈ Rn } .
~ = f (~
Recordar que, para mostrar que Im f é um subespaço vetorial de Rm , basta mostrar que Im f
é não vazio e que
(cf. Teorema 3.2). Equivalentemente, basta mostrar que Im f é não vazio e que k u ~ +l~
v ∈ Im f
quaisquer que sejam u ~ , v~ ∈ Im f e k, l ∈ R.
Como vimos atrás, f (~0) = ~0, pelo que ~0 ∈ Im f . Logo, Im f , ∅. Tomemos então w,~ ~ z∈
Im f e k, l ∈ R e mostremos que k w ~ + l~z ∈ Im f . Ora, w,~
~ z ∈ Im f significa que w
~ = f (~
u) e
~z = f (~ ~ , v~ ∈ Rn . Deste modo,
v ) para certos u
~ + l~z = kf (~
kw u ) + lf (~
v ) = f (k u
~ + l~
v ) ∈ Im f
por definição de Im f , uma vez que k u v ∈ Rn . Fica assim provado que Im f é um espaço
~ + l~
vetorial.
Definição 4.2 (Imagem de uma aplicação linear) Dada uma aplicação linear f : Rn →
Rm , ao espaço vetorial
~ ∈ Rm : w
Im f = {w v ) para algum v~ ∈ Rn } .
~ = f (~
chamamos imagem de f .
Rn f Rm
Imf
114 4.2. Núcleo e imagem; Nulidade e caracterı́stica
Exemplo 4.4 Pelo Exemplo 4.2, f (x, y, z) = (x−y +2z, x+z) é uma aplicação linear. Logo,
Im f é um subespaço vetorial de R2 . Calculemos uma base e a dimensão deste espaço.
Por definição de espaço imagem,
pelo que {(1, 1), (−1, 0), (2, 1)} é um conjunto gerador do espaço Im f (mas seguramente
não uma base!). Dado que os vetores (1, 1) e (−1, 0) são linearmente independentes e
tendo em conta que Im f tem no máximo dimensão 2, concluı́mos que {(1, 1), (−1, 0)} é
uma base de Im f e que este tem dimensão 2 (pelo que Im f = R2 ).
Temos
pelo que {(1, 2, −1), (3, 6, −3), (3, 9, 3), (2, 7, 4)} é um conjunto gerador do espaço Im g.
Como vimos no Exemplo ?? do Capı́tulo 3, a matriz
1 3 3 2
A = 2 6 9 7
−1 −3 3 4
tem caracterı́stica 2, pelo que a dimensão do espaço gerado pelas suas colunas tem
dimensão 2. Logo, a dimensão de Im g é 2 e, portanto, a caracterı́stica de g é 2.
u ∈ Rn : f (~
{~ u ) = ~0}
é um subespaço vetorial de Rn .
Demonstração. Exercı́cio.
Capı́tulo 4. Aplicações Lineares 115
Definição 4.4 (Núcleo de uma aplicação linear) Dada uma aplicação linear f : Rn →
Rm , ao espaço vetorial
u ∈ Rn : f (~
Nuc f = {~ u ) = ~0} .
chamamos núcleo de f .
Rn f Rm
b
~0
Nucf
Logo,
Nuc f = N (A) = {(−z, z, z) : z ∈ R} = h(−1, 1, 1, )i .
Deste modo, {(−1, 1, 1)} é uma base de Nuc f .
Tal como no exemplo anterior, Nuc h é precisamente o núcleo da matriz dos coeficien-
tes do SEL homogéneo
x + 2y − z = 0
3x + 6y − 3z = 0
,
3x + 9y = 0
2x + 7y + 4z = 0
Dois conceitos bem conhecidos no contexto das funções têm, nas aplicações lineares,
caracterizações muito práticas. Recordar que uma função f : A → B se diz:
Recordar ainda que uma função se diz bijetiva se for injetiva e sobrejetiva e que as funções
bijetivas são invertı́veis, isto é, existe uma função g : B → A tal que g(f (a)) = a para todo a ∈ A
(o que implica que f (g(b)) = b para todo b ∈ B).
Dado que esta matriz tem caracterı́stica 2, o SEL homogéneo tem GI 4 − 2, ou seja, 2.
Logo, o núcleo de g tem dimensão 2, pelo que g também não é injetiva.
Pelo Exemplo 4.7, a aplicação linear h(x, y, z) = (x+2y −z, 3x+6y −3z, 3x+9y, 2x+7y +4z)
é injetiva. Não é sobrejetiva, dado que a matriz
1 2 −1
3 6 −3
.
3 9 0
2 7 4
Como é sabido, quando uma aplicação é bijetiva, podemos considerar a sua inversa:
E f F
~x y
~
−1
f
f −1 (~
y ) = x~ ⇔ f (~
x) = y~ .
118 4.3. Representação matricial; Teorema das dimensões
Exemplo 4.9 Consideremos a aplicação linear f (x, y) = (3x + 2y, 2x + y). Como
3 2 = −1 , 0 ,
2 1
o SEL homogéneo (
3x + 2y = 0
2x + y = 0
é um SPD, pelo que a solução nula é a sua única solução. Logo, Nuc f = {(0, 0)} e,
portanto, f é injetiva. Uma vez que dim Nuc f = 0, temos que a caracterı́stica da matriz
" #
3 2
2 1
pelo que
f (x, y) = (u, v) ⇔ (x, y) = (−u + 2v, 2u − 3v) .
Logo,
f −1 (u, v) = (−u + 2v, 2u − 3v) ,
ou, equivalentemente,
f −1 (x, y) = (−x + 2y, 2x − 3y) .
Na próxima secção, iremos ver uma forma muito mais prática de calcular a inversa de
uma aplicação linear.
Como vimos nos exemplos 4.5, 4.6, 4.7 e 4.8, o estudo do espaço imagem e do núcleo de uma
aplicação linear faz-se à custa da uma matriz — mais concretamente, da matriz dos coefici-
entes do SEL homogéneo que resulta de escrever a equação f = ~0 coordenada a coordenada:
Esta matriz tem assim, em cada linha, os coeficientes dos polinómios de grau ≤ 1 que definem
as coordenadas do vetor f . Evidentemente, este processo pode ser revertido, permitindo
recuperar, a partir de uma matriz, a aplicação linear que lhe daria lugar. Observar que uma
aplicação linear R3 → R2 produz uma matriz de tipo 2 × 3. Observar ainda que
f (1, 0, 0) = (1, 1)
f (0, 1, 0) = (−1, 0)
f (0, 0, 1) = (2, 1) ,
pelo que esta matriz pode igualmente ser lida por colunas: cada coluna consiste na imagem
de um vetor da base canónica.
Definição 4.6 (Matriz canónica de uma aplicação linear) Dada uma aplicação linear
f : Rn → Rm , chamamos matriz canónica de f à matriz de tipo m × n
a11 a12 ... a1n
a21 a22 ... a2n
Mf = . .. .. .. ,
.. . . .
am1 am2 . . . amn
onde
De facto: por linhas, temos os coeficientes dos polinómios y, z e x; por colunas, temos
a imagem dos vetores da base canónica de R3 : h(1, 0, 0) = (0, 0, 1), h(0, 1, 0) = (1, 0, 0) e
h(0, 0, 1) = (0, 1, 0).
1. O produto
v1
v2
Mf .
..
vn
dá a imagem do vetor v~ = (v1 , v2 , . . . , vn ) através de f (escrita na forma de matriz
coluna).
5. Nuc f = N (Mf ).
6. Im f = C(Mf ).
A propriedade 1 do Teorema 4.7 diz-nos como usar a matriz canónica de uma aplicação
linear para calcular a imagem de um dado vetor:
De facto,
f (1, 2) = (1 − 2, 2, 3) = (−1, 2, 3) .
é a matriz canónica da aplicação linear k(x, y, x) = (x+3y −6z, y +2z, −5x). De facto, pela
propriedade 1 do Teorema 4.7,
1 3 −6 x x + 3y − 6z
Mk = 0 1 2 y = y + 2z .
−5 0 0 z −5x
f (x, y, z) = (x − y + 2z, x + z)
g(x, y, z) = (x + y, 2y + 2z)
h(x, y) = (2x − 3y, x + 4y, y − x)
k(x, y, x) = (x + 3y − 6z, y + 2z, −5x)
tem-se
" # " # " #
1 −1 2 1 1 0 2 0 2
Mf +g = Mf + Mg = + = ,
1 0 1 0 2 2 1 2 3
" # " #
1 −1 2 2 −2 4
M2f = 2 Mf = 2 = ,
1 0 1 2 0 2
2 −3 " # −1 −2 1
1 −1 2
Mh◦f = Mh Mf = 1 4 = 5 −1 6 ,
1 0 1
−1 1 0 1 −1
" # 2 −3 " #
1 −1 2 −1 −5
Mf ◦h = Mf Mh = 1 4 =
e
1 0 1 1 −2
−1 1
" # 1 3 −6 " #
1 −1 2 −9 2 −8
Mf ◦k = Mf Mk = 0 1 2 = −4 3 −6 ,
1 0 1
−5 0 0
De forma idêntica, a propriedade 7 dá uma forma mais prática de calcular a inversa de
uma aplicação linear (quando esta existe).
é a matriz
−40 16 9
(Mf )−1 = 13 −5 −3
5 −2 −1
Logo,
f −1 (x, y, z) = (−40x + 16y + 9z, 13x − 5y − 3z, 5x − 2y − z) .
Comparando com o Exemplo 4.9, facilmente se vê as vantagens de recorrer a esta pro-
priedade.
Quanto às propriedades 5 e 6, estas são, como vimos no exemplos 4.5, 4.6, 4.7 e 4.8, muito
úteis no estudo do núcleo e do espaço imagem de uma aplicação linear (e, consequentemente,
na averiguação da injetividade e sobrejetividade de uma aplicação linear).
Exemplo 4.17 Consideremos a aplicação linear k(x, y, x) = (x + 3y − 6z, y + 2z, −5x), cuja
matriz canónica é
1 3 −6
Mk = 0 1 2 .
−5 0 0
concluı́mos que:
• dim Nuc k = dim N (Mk ) = 3 − r(Mk ) = 0, pelo que Nuc k = {(0, 0, 0)}.
Algumas conclusões importantes são agora fáceis de tirar. Dos teoremas 4.6 e 3.7 con-
cluı́mos que
Demonstração. De facto,
é 3, a aplicação linear f (x, y, z) = (y, z, x) (cf. Exemplo 4.10) é injetiva e sobrejetiva, pois
dim N (Mf ) = 3 − 3 = 0 e dim C(Mf ) = 3.
temos que r(Mf ) = 2, sendo f a aplicação linear f (x, y) = (x−y, y, 3x) (cf. Exemplo 4.19).
Logo, f não é sobrejetiva, pois f : R2 → R3 e r(Mf ) , 3. Uma vez que dim Nuc f =
2 − dim Im f = 2 − 2 = 0, f é injetiva.
Claro que, se forem consideradas outras bases que não a base canónica, a matriz da
aplicação linear será outra. No entanto, tudo funciona exatamente da mesma forma.
Definição 4.7 (Matriz de uma aplicação linear (caso geral)) Seja f : Rn → Rm uma
aplicação linear, B = (~b1 , . . . , ~bn ) uma base de Rn e D = (d~1 , . . . , d~m ) uma base de Rm .
Chamamos matriz de f nas bases B e D à matriz que tem, na sua j-ésima coluna, as
coordenadas do vetor f (~bj ) na base D:
c11 c12 ... c1n
c
21 c22 ... c2n
M(f , B, D) = . .. .. .. ,
.. . . .
cm1 cm2 . . . cmn
onde
Exemplo 4.20 Como vimos no Exemplo 4.19, a matriz canónica da aplicação linear
Capı́tulo 4. Aplicações Lineares 125
Consideremos agora as bases B = ((−1, 1), (1, 1)) de R2 e D = ((1, 1, 1), (0, 1, 1), (0, 0, 1)) de
R3 e calculemos M(f , B, D).
Como
vem
−2 0
M(f , B, D) = 3 1 .
−4 2
De facto,
~ = (−2, 1)B = −2(−1, 1) + 1(1, 1) = (3, −1)
u
~ na base canónica de R2 ) e f (~
(são as coordenadas de u u ) = (4, −1, 9), pois
1 −1 " # 4
3
0 1 = −1 ,
−1
3 0 9
Em particular,
M(f , B1 , D1 ) = MCRm →D1 Mf MB1 →CRn ,
ou, equivalentemente,
v
coords de ~
na base B2
1
1)
B
· · ·
2→
2
D
1,
1→
B
,B
M
D
(f
M
M coords de ~
v
na base B1
coords de f (~
v)
na base D1
coords de f (~
v)
na base D2
sendo B = ((−1, 1), (1, 1)) (base de R2 ) e D = ((1, 1, 1), (0, 1, 1), (0, 0, 1)) (base de R3 ).
De facto, por definição de matriz de mudança de base (cf. Definição 3.13), temos
" # 1 0 0
−1 1
MB→CR2 = e MD→CR3 = 1 1 0 .
1 1
1 1 1
(É boa ideia começar por estas, pois são trivialmente conhecidas.) Assim, pelas pro-
priedades das matrizes de mudança de base (cf. Teorema 3.10) e pelo Teorema 1.4,
" #−1 " # " 1 1
#
−1 −1 1 1 1 −1 −
MCR2 →B = (MB→CR2 ) = = −2 = 21 2
1 .
1 1 −1 −1 2 2
Capı́tulo 4. Aplicações Lineares 127
Logo,
1 0 0 −2 0 " 1 1
#
−
MD→CR3 M(f , B, D) MCR2 →B = 1 1 0 3 1 21 2
1
2 2
1 1 1 −4 2
1 0 0 1 −1
= 1 1 0 −1 2
1 1 1 3 −1
1 −1
= 0 1 = Mf ,
3 0
como esperado.
1. As aplicações lineares são funções entre espaços vetoriais que respeitam as respetivas operações.
Como consequência, ficam completamente determinadas pela imagem dos vetores de uma
qualquer base do espaço de partida.
2. Toda a aplicação linear admite ser representada por meio de matrizes, cujas colunas consis-
tem nas coordenadas, na base de chegada, da imagem dos vetores da base de partida.
3. Associados a cada aplicação linear, há dois espaços vetoriais a considerar: o núcleo e o espaço
imagem. O primeiro coincide com o núcleo da matriz da aplicação (nas bases canónicas)
e à sua dimensão chama-se nulidade da aplicação linear; o segundo coincide com o espaço
gerado pelas colunas desta matriz e à sua dimensão chama-se caracterı́stica da aplicação
linear. O Teorema das dimensões estabelece que dim Nuc f + dim Im f = n (dimensão do
espaço de partida). A injetividade e a sobrejetividade de uma aplicação linear podem ser
caracterizadas à custa destes espaços.
4. A matriz de uma aplicação linear em bases dadas pode ser obtida através da matriz da
aplicação linear nas bases canónicas e das matrizes de mudança de base.
4.4 Exercı́cios
Exercı́cio 4.1 Justifique que as seguintes funções não são aplicações lineares.
1
(a) f (x) = x + 2 (b) f (x, y) = x2 + y 2 (c) f (x, y, z) = x+y+z
128 4.4. Exercı́cios
(b) f (x, y, z) = 2x + y + 4z
Exercı́cio 4.5 A informação dada define uma aplicação linear? Em caso afirmativo,
indique a respetiva expressão analı́tica.
(e) f (1, 0, 3) = (−2, 10, −8), f (−2, 1, 1) = (−3, 3, 3), f (3, −2, 0) = (3, −1, −8)
(f) f (1, 0, 3) = (−2, 10, −8), f (−2, 1, 1) = (−3, 3, 3), f (5, −2, 1) = (4, 4, 14)
Exercı́cio 4.10 Determine uma base e uma descrição cartesiana do núcleo da aplicação
linear
Exercı́cio 4.11 Determine uma base e uma descrição cartesiana do espaço imagem da
aplicação linear
R3 → R3 3 × 3 2
R3 → R2 2
3×2 1
R3 → R4 S
4×4 S
2 2 S
Exercı́cio 4.14 Verifique se a aplicação linear cuja matriz canónica é a matriz indicada
é invertı́vel e, em caso afirmativo, calcule a sua inversa.
1 5 1 5 2 1 0 1
(a) 1 2 (c) 1 2 1 (e) 0 1 1
−1 1 −1 1 0 1 1 0
" # 1 4 −1 1 −1 −1
1 5 2 (d) 1 2 1 (f) 0 2 −1
(b)
1 2 1
−1 1 0
2 3 0
de R3 e R2 , respetivamente.
(c) Verifique que a matriz determinada na alı́nea anterior tem, na 1ª coluna, as coor-
denadas do vetor f (1, 1, 1) na base canónica de R2 .
(e) Verifique que a matriz determinada na alı́nea anterior tem, na 3ª coluna, as coor-
denadas do vetor f (0, 0, 1) na base B.
e
(g) Verifique que a matriz determinada na alı́nea anterior tem, na 2ª coluna, as coor-
denadas do vetor f (−1, 1, 1) na base B.
e
v ) na base canónica de R2 .
(i) Sendo v~ = (1, −4, 1)B , calcule as coordenadas de f (~
(j) Sendo w
~ = (−4, 0, 2)B , calcule as coordenadas de f (w)
~ na base B.
e
e a base ordenada
B = ((1, 1, 0), (1, 0, 1), (0, 1, 1)) .
(a) Indique a matriz canónica de f .
(e) Se f (1, 2, 3) = f (2, −1, 0) = (−2, 3), então f não é injetiva // sobrejetiva.
(f) Se f : R3 → R2 , então Im f é um espaço vetorial de dimensão 0, 1 ou 2 // 0, 1, 2
ou 3.
(g) Im f é o espaço vetorial gerado pelas linhas // colunas da matriz Mf .
(h) Nuc f é o núcleo da matriz Mf // da transposta da matriz Mf .
4.5 Soluções
Solução 4.1
Solução 4.2
1
(a) f : R → R3 , Mf = 2
3
h i
(b) f : R3 → R, Mf = 2 1 4
2 −1
(c) f : 2 3
R → R , Mf =
1 3
1 1
" #
3 2 3 −2 4
(d) f : R → R , Mf =
5 −8 1
5 −1 1
(e) f : R3 → R3 , Mf = −1 1 −7
2 −4 −1
" #
1 0 1 −2
(f) f : R4 → R2 , Mf =
3 −4 −1 1
Solução 4.3
Solução 4.4
Solução 4.5
Solução 4.6
Solução 4.7
(a) (f ◦ g)(A) = a + d
(b) Não, pois f (A) não é uma matriz 2 × 2.
Solução 4.8
Solução 4.9
Solução 4.10
Solução 4.11
Solução 4.12
Capı́tulo 4. Aplicações Lineares 135
(a) (i) 2; {(1, 5, 7), (−1, 6, 4)} (c) (i) 2; {(4, 1), (1, 2)}
(ii) Idem (ii) Idem
(iii) 1; {(−14, 19, 11)} (iii) 2; {(−4, 2, 0, 7), (−6, 0, 2, 7)}
(iv) Idem (iv) Idem
(b) (i) 1; {(1, 2, 0)} (d) (i) 3; {(1, 3, −1, 2), (4, −2, 0, 3), (0, 0, 0, 1)}
(ii) Idem (ii) Idem
(iii) 2; {(1, 0, 2), (0, 1, 0)} (iii) 2; {(1, 1, −1, 0, 0), (5, 1, 0, 0, −1)}
(iv) Idem (iv) Idem
Solução 4.13
R3 → R3 3×3 2 1 2 N N
R3 → R2 2×3 2 1 2 N S
R2 → R3 3×2 1 1 1 N N
R3 → R4 4×3 3 0 3 S N
R4 → R4 4×4 4 0 4 S S
R4 → R2 2×4 2 2 2 N S
Solução 4.14
Solução 4.15
" #
1 2 −3
(a) Mf = ; na 1ª coluna, f (1, 0, 0) = (1, 4); na 2ª coluna, f (0, 1, 0) = (2, 0); na 3ª
4 0 5
coluna, f (0, 0, 1) = (−3, 5)
" #
0 −2 −4
(b) M(f , B, BCR2 ) =
9 1 9
(c) f (1, 1, 1) = (0, 9)
− 32
" #
1 −4
(d) M(f , BCR3 , B)
e = 5
2 1 1
(e) −4 · (1, −1) + 1 · (1, 1) = (−3, 5) = f (0, 0, 1)
136 4.5. Soluções
− 92 − 32 − 13
" #
(f) M(f , B, B)
e = 2
9
2 − 12 5
2
Solução 4.16
3 −1 1
(a) Mf =
−2 4 2
−1 1 5
2 0 0
(b) (i) f (1, 1, 0) = (2, 2, 0) = (2, 0, 0)B ,
M(f , B) = 0 4 0
f (1, 0, 1) = (4, 0, 4) = (0, 4, 0)B ,
0 0 6
f (0, 1, 1) = (0, 6, 6) = (0, 0, 6)B
(ii) M(f , B) = MBC→B Mf MB→BC
(c) f (~
v ) = (0, 20, 0)B , f (w)
~ = (2, 0, 18)B
32 0 0
(d) (M(f , B))5 = 0 1024 0
0 0 7776
(g) (f ◦ f ◦ f ◦ f ◦ f )(x, y, z) =
= (528x − 496y + 496z, −3872x + 3904y + 3872z, −3376x + 3376y + 4400z)
Solução 4.17
(a) Como {(2, −1), (3, 2)} é um conjunto de 2 vetores linearmente independentes de R2 , tem-
se que constitui uma base de R2 e a conclusão pretendida sai do Teorema 4.2.
(b) f (x, y) = (2x + y, x − y, x + 3y)
Solução 4.18
(a) Como {(1, 2, 0), (0, −1, 3), (1, 0, 1)} é um conjunto de 3 vetores linearmente independentes
de R3 , tem-se que constitui uma base de R3 e a conclusão pretendida sai do Teorema 4.2.
(b) f (x, y, z) = (x + 3y, 2x − y + 4z, 2y + z)
Solução 4.19
Capı́tulo 4. Aplicações Lineares 137
Neste capı́tulo, estudamos as noções de valor e vetor próprio de uma aplicação linear (no caso mais
simples, que é o caso real), nas quais assentam inúmeras aplicações muito importantes da Álgebra
Linear às mais diversas áreas.
Vamos agora virar o problema ao contrário: que bases escolher nos espaços de partida
e de chegada de modo que matriz de f relativamente a essas bases seja tão simples quanto
possı́vel, isto é, de modo que o produto
x1
x2
M(f , B, D) ..
.
xn
seja tão fácil de calcular quanto possı́vel? O ideal é M(f , B, D) ser uma matriz diagonal, pois
139
140 5.1. Definição e exemplos
nesse caso
x1 λ1 0 ··· 0 x1 λ1 x1
x2 0 λ2 ··· 0 x2 λ2 x2
M(f , B, D) = =
.. .. .. .. .. .. ... .
.
. . . .
.
xn 0 0 · · · λn xn λn xn
É claro que, para que M(f , B, D) seja uma matriz diagonal, antes de mais é preciso que
seja quadrada. Por isso, daqui para a frente vamos restringirmo-nos a aplicações lineares
f : Rn → Rn . Recordar ainda que, quando f : Rn → Rn e a mesma base B está a ser conside-
rada tanto no espaço de partida como no espaço de chegada, em vez de M(f , B, B) escreve-
mos apenas M(f , B). Vamos então resolver o seguinte problema: dada uma matriz quadrada
M — que consideramos como sendo a matriz canónica Mf de uma certa aplicação linear
f : Rn → Rn — como encontrar uma matriz diagonal D que represente a mesma aplicação
linear relativamente a outra base, ou seja, tal que D = M(f , B) para alguma base B de Rn ?
f (~
v1 ) = (λ1 , 0, 0, . . . , 0)B
f (~
v2 ) = (0, λ2 , 0, . . . , 0)B
..
.
f (~
vn ) = (0, 0, . . . , 0, λn )B .
Por outro lado, as coordenadas dos vetores v~1 , v~2 , . . . , v~n na base B são triviais:
Assim,
f (~
v1 ) = λ1 (1, 0, 0, . . . , 0)B = λ1 v~1
f (~
v2 ) = λ2 (0, 1, 0, . . . , 0)B = λ2 v~2
..
.
f (~
vn ) = λn (0, 0, . . . , 0, 1)B = λn v~n .
Capı́tulo 5. Valores e Vetores Próprios 141
Deste modo, vamos começar por procurar números reais λ tais que f (~ u para algum u
u ) = λ~ ~ (não
nulo).
Definição 5.2 (Valor próprio & vetor próprio de uma aplicação linear) Seja f : Rn → Rn
uma aplicação linear. Dizemos que λ ∈ R é um valor próprio da aplicação linear f se
~ ∈ Rn não nulo tal que
existir u
f (~
u ) = λ~
u.
Nestas condições, dizemos que u
~ é um vetor próprio da aplicação linear f associado ao
valor próprio λ.
Para mais facilmente conseguirmos determinar que outros vetores próprios estão asso-
ciados a um dado valor próprio e que outros valores próprios uma aplicação linear tem,
traduzimos para matrizes as noções de valor próprio e vetor próprio:
Definição 5.3 (Valor próprio & vetor próprio de uma matriz) Seja M uma matriz qua-
drada (de ordem n). Dizemos que λ ∈ R é um valor próprio da matriz M se existir uma
matriz X não nula de tipo n × 1 tal que
M X = λX .
Sendo X uma matriz de tipo n×1, X T é uma matriz de tipo 1×n — ou seja, uma matriz linha. Na
definição de valor próprio e vetor próprio de uma matriz, estamos, intencionalmente, a identificar
a matriz linha X T com o vetor cujas coordenadas são as entradas da matriz X T :
h i
XT = x1 x2 · · · xn ←→ (x1 , x2 , · · · , xn ) .
temos
0 0 2 0 0 0
M X = 1 2 1 3 = 6 = 2 3 .
−1 0 3 0 0 0
M X = λX ⇔ M X − λX = O
⇔ M X − λ In X = O
⇔ (M − λ In ) X = O
⇔ det(M − λ In ) = 0 ,
onde, como habitualmente, In denota a matriz identidade de ordem n e O a matriz nula (de
tipo n×1). De facto, a equação matricial (M −λ In ) X = O corresponde a um SEL homogéneo, o
qual admite sempre, pelo menos, a solução nula. Para que a matriz M tenha valores próprios,
este sistema tem que admitir também soluções não nulas, e portanto tem que ser um SPI.
Ora, isso acontece sse o sistema não for um SPD (já que impossı́vel nunca é), pelo que a
matriz M − λ In tem que ser não invertı́vel. Resumindo, temos a forma como, na prática, se
calculam os valores próprios de uma matriz e os vetores próprios associados a cada valor
próprio:
ou seja,
−λ 0 2
M − λ In = 1 2 − λ 1 .
−1 0 3−λ
Logo,
−λ 0 2
det(M − λ In ) = 0 ⇔ det 1 2 − λ 1 = 0
−1 0 3−λ
1. A equação det(M −λ In ) = O é uma equação polinomial (de grau n igual à ordem da matriz).
Como tal, tem, em R, no máximo n soluções — são os valores próprios de M.
2. Dado que o conjunto dos vetores próprios associados a um certo valor próprio λ, juntamente
com o vetor nulo, consiste no núcleo da matriz M − λ In , tem-se que se trata de um subespaço
vetorial de Rn .
Definição 5.4 (Equação caracterı́stica & polinómio caracterı́stico de uma matriz) Seja
M uma matriz quadrada (de ordem n). À equação det(M −λ In ) = O chamamos equação
caracterı́stica de M e ao polinómio det(M −λ In ) chamamos polinómio caracterı́stico de
M.
Definição 5.5 (Subespaço próprio) Seja M uma matriz quadrada (de ordem n) e λ um
valor próprio de M. Ao espaço vetorial constituı́do pelos vetores próprios associados
a λ e pelo vetor nulo de Rn , chamamos subespaço próprio da matriz M associado ao
valor próprio λ. Representa-se por Sλ .
Para isso, há que calcular todos os valores próprios de M. Começamos assim por de-
terminar o polinómio caracterı́stico:
4 − λ 2 −2
det(M − λ In ) = 3 3−λ 0
−1 1 2−λ
e ( (
x=0 x=0
⇔ ,
y −z = 0 y=z
temos S3 = {(0, z, z) : z ∈ R} = h(0, 1, 1)i. Por fim, S6 é o núcleo da matriz M − 6 In . Como
−2 2 −2 1 −1 1 ←→ 1 −1 1
←→ L2 ↔L2 −3L1 ←→
M−6 In = 3 −3 0 L1 →− 21 L1 3 −3 0 0 0 −3
L3 ↔L3 +L1
−1 1 −4 −1 1 −4 0 0 −3
1 −1 1 1 −1 1 1 −1 0
←→ 0 ←→ ←→
0 −3 0 0 1 0 0 1
1
L3 →L3 +L2 L2 →− 3 L2 L1 →L1 −L2
0 0 0 0 0 0 0 0 0
e ( (
x−y = 0 y=x
⇔ ,
z=0 z=0
concluı́mos que S6 = {(x, x, 0) : x ∈ R} = h(1, 1, 0)i.
Logo, os subespaços próprios de M são
Teorema 5.2 Uma matriz A uma matriz (quadrada) é invertı́vel sse 0 não é um valor
próprio de A.
Demonstração. De facto,
Exemplo 5.6 A matriz do exemplos 5.3 & 5.4 é invertı́vel e a matriz do Exemplo 5.5
não é invertı́vel.
Temos
1 − λ −3 3
det(M − λ In ) = 3 −5 − λ 3
6 −6 4 − λ
Dado que −2 é raiz do polinómio −λ3 +12λ+16, pois −(−2)3 +12(−2)+16 = 8−24+16 = 0,
recorremos à regra de Rufini para fatorizar o polinómio:
−1 0 12 16
−2 2 −4 −16
−1 2 8 0
Dado que ( (
x−y = 0 x=y
⇔ ,
−2y + z = 0 z = 2y
temos
S4 = {(y, y, 2y) : y ∈ R} = h(1, 1, 2)i .
Quanto a S−2 , temos
3 −3 3 ←→ 3 −3 3 1 −1 1
L2 →L2 −L1 ←→
M − (−2) In = 3 −3 3 0 0 0 0 0 0
L3 →L3 −2L1 L1 → 31 L1
6 −6 6 0 0 0 0 0 0
Como x − y + z = 0 ⇔ y = x + z, temos
Repare-se que as três matrizes dos exemplos 5.3 & 5.4, 5.5 e 5.7,
Exemplos 5.3 & 5.4 Exemplo 5.5 Exemplo 5.7
0 0 2 4 2 −2 1 −3 3
M = 1 2 1 M = 3 3 0 M = 3 −5 3
−1 0 3 −1 1 2 6 −6 4
É imediato verificar, nomeadamente, que uma raiz dupla do polinómio caracterı́stico tanto
por dar origem a um subespaço vetorial de dimensão 1 ou 2.
148 5.3. Diagonalização
Definição 5.6 (Multiplicidade algébrica & multiplicidade geométrica) Seja M uma ma-
triz quadrada e λ um valor próprio de M. Chamamos:
Prova-se que
1 ≤ m.g.(λ) ≤ m.a.(λ) .
Como qualquer polinómio, o polinómio caracterı́stico de uma matriz pode não ter apenas raı́zes
reais como também complexas. Contando com possı́veis raı́zes complexas, tem-se que a soma da
m.a. dos valores próprios de M é, pelo Teorema Fundamental da Álgebra, igual n.
5.3 Diagonalização
Recordemos que uma aplicação linear f : Rn → Rn se diz diagonalizável se existir uma base
B de Rn tal que M(f , B) é uma matriz diagonal (cf. Definição 5.1).
Uma vez que não estudamos matrizes com entradas complexas, iremos considerar que as matrizes
com valores próprios complexos não são diagonalizáveis. É, por exemplo, o caso da matriz
4 −3 0
M = 1 2 0 .
0 1 2
Como
4 − λ −3 0
det(M − λ In ) = 1 2−λ 0
0 1 2−λ
e
√
λ2 − 6λ + 11 = 0 ⇔ (λ − 3)2 + 2 = 0 ⇔ λ = 3 ± j 2 ,
Deixando de fora as matrizes que têm algum valor próprio complexo, temos uma forma
muito prática de verificar se uma matriz é diagonalizável:
Teorema 5.4 Seja f : Rn → Rn uma aplicação linear, e Mf a sua matriz canónica, tal
que todos os valores próprios são reais. Então:
f / Mf é diagonalizável ⇔ todos os valores próprios de f / Mf têm m.a. igual à m.g. .
Neste caso, sendo B = (~ v1 , v~2 , . . . , v~n ) uma base de Rn formada por vetores próprios de
f / Mf , com v~i associado a λi , tem-se
λ1 0 · · · 0
0 λ2 · · · 0
M(f , B) = . .. . . ..
.
.. .
. .
0 0 ··· λn
150 5.3. Diagonalização
Como vimos nos Exemplos 5.3 e 5.4, os valores próprios desta matriz — e, portanto,
desta aplicação linear — são todos reais: 1 e 2. Como m.a.(2) = 2 e m.g.(2) = 1, conclui-
se que f não é diagonalizável.
Se todos os valores próprios de uma aplicação linear são raı́zes simples do seu polinómio carac-
terı́stico, f é diagonalizável, pois, como vimos no Teorema 5.3, m.a.(λ) ≤ 1 implica que m.a.(λ) =
m.g.(λ).
Pelo Exemplo 5.5, os valores próprios desta matriz — e, portanto, da aplicação linear
g — são todos reais: 0, 3 e 6. Como todos eles têm m.a. igual a 1, então também a m.g.
de cada um é igual a 1. Logo, g é diagonalizável. Dado que, como vimos,
segue-se que B = ((−1, 1, −1), (0, 1, 1), (1, 1, 0)) é uma base de R3 relativamente à qual a
matriz de g é diagonal, concretamente,
0 0 0
M(g, B) = 0 3 0 .
0 0 6
Claro que poderı́amos ter escolhido outra ordenação dos vetores da base de vetores
próprios. Tomando, por exemplo, B
e = ((0, 1, 1), (−1, 1, −1), (1, 1, 0)), ficava
3 0 0
e = 0 0 0 .
M(g, B)
0 0 6
Além disso, outros vetores próprios podiam ser escolhidos, pois apenas importa que
sejam vetores próprios linearmente independentes do espaço próprio correspondente.
Capı́tulo 5. Valores e Vetores Próprios 151
Como vimos no Exemplo 5.7, os valores próprios desta matriz são 4, com m.a.(4) =
m.g.(4) = 1, e −2, com m.a.(−2) = m.g.(−2) = 2, pelo que h é diagonalizável, e
donde B = ((1, 1, 2), (1, 1, 0), (0, 1, 1)) é uma base de R3 relativamente à qual a matriz de
h é diagonal, a saber,
4 0 0
M(h, B) = 0 −2 0 .
0 0 −2
Recordemos que, pelo Teorema 4.11, é possı́vel determinar a matriz de uma aplicação
linear f : Rn → Rm nas bases B de Rn e C de Rm à custa da matriz canónica de f e das
matrizes de mudança de base:
D = MBCRn →B Mf MB→BCRn ,
ou seja,
D = (MB→BCRn )−1 Mf MB→BCRn
(cf. Teorema 3.10). Recordar ainda que é trivial determinar a matriz MB→CRn : é a matriz que
tem, em cada coluna, as coordenadas dos vetores da base B.
Definição 5.8 (Matriz diagonalizadora) Seja M uma matriz quadrada. A uma matriz P
(invertı́vel) tal que P −1 MP é uma matriz diagonal chamamos matriz diagonalizadora
da matriz M.
dos exemplos 5.5 e 5.9, a qual sabemos ser diagonalizável. Determinemos uma matriz
diagonalizadora de Mg .
Como vimos nos exemplos 5.5 e 5.9, os valores próprios desta matriz são 0, 3 e 6 e os
respetivos subespaços próprios
pelo que B = ((−1, 1, −1), (0, 1, 1), (1, 1, 0)) é uma base de R3 relativamente à qual a matriz
de g é diagonal:
0 0 0
M(g, B) = 0 3 0 .
0 0 6
Ora, uma possı́vel matriz P tal que M(g, B) = P −1 Mg P é a matriz de mudança de base
MB→BCRn , ou seja,
−1 0 1
P = 1 1 1 .
−1 1 0
De facto,
T
−1 −1 2 −1 1 −1
P −1 = 1
adj (P ) = 13 (cof (P ))T = 1 1 1 1 = 1 −1 1 2
det P 3 3
−1 2 −1 2 1 −1
e
−1 1 −1 4 2 −2 −1 0 1
P −1 Mg P = 1
−1 1 2 3 3 0 1 1 1
3
2 1 −1 −1 1 2 −1 1 0
−1 1 −1 0 0 6
1
= −1 1 2 0 3 6
3
2 1 −1 0 3 0
0 0 0
1
= 0 9 0
3
0 0 18
0 0 0
= 0 3 0 .
0 0 6
Como é óbvio, a matriz P indicada no exemplo anterior não é única. Pelo contrário, qualquer
matriz que tenha, na 1ª coluna, um vetor do espaço próprio S0 , na 2ª coluna, um vetor do espaço
próprio S3 , e, na 3ª coluna, um vetor do espaço próprio S6 , é igualmente uma matriz diagonaliza-
dora. Ou seja: qualquer matriz que tenha, na coluna i, um vetor próprio associado ao valor próprio
da coluna i da matriz diagonal M(g, B) é uma matriz diagonalizadora da matriz Mg .
Capı́tulo 5. Valores e Vetores Próprios 153
Observar que, se existe uma matriz P tal que A = P −1 BP , então também existe uma matriz Q tal
que B = Q−1 AQ: é a matriz Q = P −1 .
Em particular,
tem-se
2
λ1 0 ··· 0 λ1 0 ··· λ1
0 0 ··· 0
0 λ2 ··· 0 0 λ2 ··· 0 0 λ2 2 ··· 0
2
D = =
.. .. .. .. .. .. .. .. .. .. .. ..
. . .
. . .
. . . .
. .
0 0 · · · λn 0 0 · · · λn 0 0 · · · λn 2
2 3
λ1 0 ··· 0 λ1 0 ··· 0 λ1 0 ··· 0
0 λ2 2 ··· 0 0 λ2 ··· 0 0 λ2 3 ··· 0
D 3 = . .. .. ..
.. .. .. ..
=
.. .. .. ..
.. . . .
. .
. . . .
. .
0 0 · · · λn 2 0 0 · · · λn 0 0 · · · λn 3
..
.
154 5.3. Diagonalização
k
0 0
λ1
···
0 λ2 k ··· 0
D k = . .. .. ..
.
.. .
. .
0 0 · · · λn k
Assim,
M 10 = P D 10 P −1
10
−1 0 1 0 0 0 −1 1 −1
1
= 1 1 1 0 3 0 3 −1 1 2
−1 1 0 0 0 6 2 1 −1
−1 0 1 0 0 0 −1 1 −1
= 1 1 1 0 59049 0 13 −1 1 2
−1 1 0 0 0 60466176 2 1 −1
−1 0 1 0 0 0
= 1 1 1 −18683 18683 37366
−1 1 0 40332784 20166392 −20166392
40332784 20166392 −20166392
= 40314101 20185075 −20129026 .
−18683 18683 37366
• Vetores próprios de uma aplicação linear f são vetores cuja imagem é um múltiplo escalar
do próprio vetor: f (~ v . São as soluções não nulas do SEL homogéneo (Mf − λIn )X = O,
v ) = λ~
onde λ são as raı́zes do polinómio det(Mf − λI) (polinómio caracterı́stico), às quais chama-
mos valores próprios de Mf (e de f ). Ao espaço vetorial formado pelo vetor nulo e pelos
vetores próprios associados a um valor próprio λ chama-se subespaço próprio (associado a
λ).
• À custa dos valores e vetores próprios, é possı́vel determinar se, dada uma matriz (quadrada)
M, existe uma matriz diagonal que represente, noutra base, a mesma aplicação linear que
M representa na base canónica. A resposta é afirmativa sse todos os valores próprios de
M são reais e têm multiplicidade geométria (que é a dimensão do subespaço próprio) igual
Capı́tulo 5. Valores e Vetores Próprios 155
M diagonalizável?
• Matriz diagonalizadora de uma matriz M (quando existe), é toda a matriz P tal que P −1 MP
é uma matriz diagonal. Em particular, podemos tomar P = MB→BCRn , a matriz de mudança
de base da base B para a base canónica.
5.4 Exercı́cios
(a) Justifique que B = ((0, 1, 0), (−1, 2, 2), (1, −1, −1)) é uma base de R3 .
(b) Calcule f (0, 1, 0), f (−1, 2, 2) e f (1, −1, −1) e mostre que os vetores da base B são
vetores próprios de f .
(a) Mostre que so vetores v~1 = (2, 2) e v~2 = (2, −2) são vetores próprios de h e indique
o valor próprio associado a cada um deles.
Exercı́cio 5.4 Determine a equação caracterı́stica de cada uma das seguintes matrizes.
" # " # " #
3 0 3 1 0 0
(a) (c) (e)
8 −1 −5 −3 0 0
" # " # " #
10 −9 −2 −7 1 0
(b) (d) (f)
4 −2 1 2 0 1
Exercı́cio 5.5 Calcule os valores próprios (reais) de cada uma das matrizes do
Exercı́cio 5.4.
Exercı́cio 5.6 Determine uma base de cada um dos subespaços próprios das matrizes
do Exercı́cio 5.4.
Exercı́cio 5.7 Determine a equação caracterı́stica de cada uma das seguintes matrizes.
4 0 1 5 6 2 5 0 1
(a) −2 1 0 (e) 0 −1 −8 (i) 1 1 0
−2 0 1 1 0 −2 −7 1 0
3 0 0 3 0 0 4 0 0
(b) −2 7 0 (f) 0 2 0 (j) 1 4 0
4 8 1 0 1 2 0 1 4
0 0 −2 4 0 0 −2 0 1
(c) 1 2 1 (g) 0 4 0 (k) −6 −2 0
1 0 3 0 0 4 19 5 −4
3 1 −2 4 0 0 −1 0 1
(d) −2 0 4 (h) 0 4 0 (l) −1 3 0
3 3 −4 1 0 4 −4 13 −1
Exercı́cio 5.8 Calcule os valores próprios (reais) de cada uma das matrizes do
Exercı́cio 5.7.
Exercı́cio 5.9 Determine uma base de cada um dos subespaços próprios das matrizes
do Exercı́cio 5.7.
Capı́tulo 5. Valores e Vetores Próprios 157
Exercı́cio 5.10 Preencha a seguinte tabela, relativamente às alı́neas do Exercı́cio 5.4.
Em “D”, indique uma matriz diagonal que represente, noutra base, a aplicação linear
representada pela matriz M na base canónica; em “P ”, indique uma matriz diagonali-
zadora de M tal que P −1 MP = D.
Exercı́cio 5.11 Preencha a seguinte tabela, relativamente às alı́neas do Exercı́cio 5.7.
Em “D”, indique uma matriz diagonal que represente, noutra base, a aplicação linear
representada pela matriz M na base canónica; em “P ”, indique uma matriz diagonali-
zadora de M tal que P −1 MP = D.
Indique:
(a) Mostre que (1, 1, 0), (3, 2, −1) e (7, −2, 3) são vetores próprios de M linearmente
158 5.5. Soluções
independentes.
f (x, y, z) = (x − z, 2y, −x + z) .
Exercı́cio 5.17 Determine uma aplicação linear g : R3 → R3 cujos valores próprios são
4, com vetor próprio associado (1, −1, 0), e 2, com vetores próprios associados (1, 1, 0) e
(0, 0, 1).
5.5 Soluções
Solução 5.1
(b) f (0, 1, 0) = (0, 1, 0) = 1(0, 1, 0), pelo que (0, 1, 0) é um vetor próprio de f associado
ao valor próprio 1;
Capı́tulo 5. Valores e Vetores Próprios 159
f (−1, 2, 2) = (−2, 4, 4) = 2(−1, 2, 2), pelo que (−1, 2, 2) é um vetor próprio de f as-
sociado ao valor próprio 2;
f (1, −1, −1) = (3, −3, −3) = 3(1, −1, −1), pelo que (1, −1, −1) é um vetor próprio de
f associado ao valor próprio 3.
1 0 0
(c) M(f , B) = 0 2 0 .
0 0 3
Solução 5.2
(a) a = − 75 .
(b) g(−1, 4, 5) = (−3, 12, 15) = 3(−1, 4, 5), pelo que (−1, 4, 5) é um vetor próprio de g
associado ao valor próprio 3.
Solução 5.3
(a) h(2, 2) = (6, 6) = 3(2, 2), pelo que v~1 é um vetor próprio de h associado ao valor
próprio 3; h(2, −2) = (−6, 6) = −3(2, −2), pelo que v~2 é um vetor próprio de h
associado ao valor próprio −3.
" #
3 0
(b) M(h, B) = .
0 −3
Solução 5.4
Solução 5.5
Solução 5.6
Solução 5.7
Solução 5.8
Solução 5.9
(a) Base de S1 : {(0, 1, 0)}; base de S2 : {(−1, 2, 2)}; base de S3 : {(−1, 1, 1)}
(b) Base de S1 : {(0, 0, 1)}; base de S3 : {(2, 1, 8)}; base de S7 : {(0, 3, 4)}
(d) Base de S−5 : {(1, −2, 3)}; base de S2 : {(2, 0, 1), (−1, 1, 0)}
Solução 5.10
Solução 5.11
(i) 2 3 1 N
(j) 4 3 1 N
162 5.5. Soluções
(l) 2 1 1 N
Solução 5.12
Todas, uma vez que nenhuma tem 0 como valor próprio.
Solução 5.13
(a) 0, 1 e 2.
(b) m.a.(0) = 2, m.g.(0) ∈ {1, 2}; m.a.(1) = m.g.(1) = 1; m.a.(2) = 3, m.g.(0) ∈ {1, 2, 3}.
Solução 5.14
Solução 5.15
1 0 1
(a) M 1 = 0 = 0 1 , pelo que (1, 1, 0) é um vetor próprio de M (associado ao
0 0 0
3 −3 3
valor próprio 0); M 2 = −2 = (−1) 2 , pelo que (3, 2, −1) é um vetor
−1 1 −1
7 21 7
próprio de M (associado ao valor próprio −1); M −2 = −6 = 3 −2 , pelo
3 9 3
que (7, −2, 3) é um vetor próprio de M (associado ao valor próprio 3). Sendo
vetores próprios associados a valores próprios distintos, estes três vetores são
linearmente independentes.
(b) Sendo M uma matriz 3 × 3 com três valores próprios reais e distintos,
M é diago-
1 3 7
nalizável. Uma matriz diagonalizadora de M é, por exemplo, 1 2 −2 .
0 −1 3
0 0 0
(c) P −1 MP = 0 −1 0 .
0 0 3
Capı́tulo 5. Valores e Vetores Próprios 163
Solução 5.16
(a) M tem apenas valores próprios reais, 0 e 2, com m.a.(0) = m.g.(0) = 1 e m.a.(2) =
m.g.(2) = 2.
2 0 0
(b) B = ((0, 1, 0), (1, 0, −1), (1, 0, 1)) e M(f , B) = 0 2 0 .
0 0 0
(c) Não, pois, caso fosse bijetiva, teria que ser invertı́vel e, nesse caso, Mf também
seria invertı́vel (o que é impossı́vel visto que 0 é valor próprio de M).
Solução 5.17
−1
1 1 0 4 0 0 1 1 0 3 −1 0
Dado que Mg = −1 1 0 0 2 0 −1 1 0 = −1 3 0 , g(x, y, z) =
0 0 1 0 0 2 0 0 1 0 0 2
(3x − y, −x + 3y, 2z).
Solução 5.18
(b) Não, pois 1, apesar de ser um valor próprio de M, tem multiplicidade algébrica
(e geométrica) igual a 1.
Solução 5.19
" #
1 0 −1 −22 8 −1 10237 −2047
(a)
(b) 0 −1 0 (c) 0 1 0
−2047 2048
0 0 1 0 10245 −2048
6. Espaços Euclideanos
Espaços como R2 e R3 — ou, mais geralmente, Rn — admitem, além das operações internas de
soma de vetores e produto de um vetor por um escalar, outras operações que permitem resolver
outros problemas. Uma delas, o produto interno, é já conhecida, mas veremos novas aplicações
para ela; outras duas, o produto externo e o produto misto, serão agora introduzidas.
Os espaços vetoriais Rn , aos quais prestámos especial atenção nos capı́tulos anteriores, são
também chamados de espaços Euclideanos. Ao contrário de outros espaços vetoriais, os
espaços Euclideanos têm aplicações geométricas muito úteis. Comecemos por recordar dois
conceitos já conhecidos: norma e distância.
Como qualquer espaço vetorial, os espaços Euclideanos admitem bases — conjuntos de
vetores linearmente independentes (isto é, não é possı́vel escrever nenhum deles à custa
dos restantes) como combinação dos quais é possı́vel escrever todos os vetores do espaço. E
geometricamente, o que representa uma base?
Tomemos R2 e a sua base canónica, BCR2 = {~e1 ,~e2 } (recorde-se que ~e1 = (1, 0) e ~e2 = (0, 1)).
Representando, como habitualmente, ~e1 na horizontal, orientado da esquerda para a direita,
e ~e2 na vertical, orientado de baixo para cima, fica:
~e1
~e2 y~e2
x~e1
(aqui com x e y números reais positivos). Deste modo, se v~ = (x, y), ou, equivalentemente,
v~ = x~e1 + y~e2 , tem-se
165
166 6.1. Definição; Norma e distância
y~e2
~v
~e2
~e1 x~e1
O facto de representarmos ~e1 e ~e2 perpendiculares entre si torna esta representação muito
mais simples. No entanto, é igualmente possı́vel representar qualquer vetor de R2 à custa de
vetores não perpendiculares, desde que os mesmo formem uma base. Tomando, em alterna-
tiva, a base B = {~e1 , u
~ = (1, 1)}, temos, por exemplo, v~ = (1, 2) = (−1)(1, 0) + 2(1, 1) = (−1, 2)B :
~v 2~u
~u
−~e1 ~e1
~v = x̃~u1 + ỹ~u2
y~e2
ỹ~u2
~e2 ~v = x~e1 + y~e2 ~u2
x̃~u1
~u1
~e1 x~e1
Assumindo, como é razoável, que os vetores ~e1 e ~e2 têm comprimento 1, o Teorema de
Pitágoras diz-nos a que é igual o comprimento de qualquer vetor:
~e1 x~e1
|x|
Capı́tulo 6. Espaços Euclideanos 167
~ = (v1 , . . . , vn ) ∈ Rn , norma de
Definição 6.1 (Norma de um vetor; vetor unitário) Dado v
v~ é o número real q
v || = v12 + . . . + vn2 .
||~
p √
Exemplo 6.1 Seja v
~ = (2, −1, 3). Então ||~
v || = 22 + (−1)2 + 32 = 14.
3~e3
~e3
−~e2 y
~e2
~e1
2~e1
x
v~
Dado um vetor v~ , ~0, existe um vetor unitário que tem a direção e sentido de v~: v ||
||~
.
Exemplo 6.2 O versor de v ~v~ = √1 (2, −1, 3) = √2 , √−1 , √3
~ = (2, −1, 3) é o vetor u .
14 14 14 14
1. ||~ v || = 0 ⇔ v~ = ~0.
v || ≥ 0 e ||~
2. ||k~
v || = |k| ||~
v ||.
4. ||~
v + w||
~ + ||~ ~ = 2||~
v − w|| v || + 2||w||.
~
y
B
b2
−−→
AB b 2 − a2
a2
A b 1 − a1
~e2
~e1 a1 b1 x
−−→
(por isso escrevemos AB = B − A). Logo,
−−→
q
distância entre A e B = || AB || = (b1 − a1 )2 + (b2 − a2 )2 .
−−→
Analogamente, se A = (a1 , a2 , a3 ) e B = (b1 , b2 , b3 ) são pontos de R3 , então AB = (b1 − a1 , b2 −
a2 , b3 − a3 ) e
−−→
q
distância entre A e B = || AB || = (b1 − a1 )2 + (b2 − a2 )2 + (b3 − a3 )2 .
Exemplo 6.3 Para calcular a distância entre os pontos (2, 0, 5) e (−1, 3, 7), pomos A =
(2, 0, 5) e B = (−1, 3, 7) (ou vice-versa), e temos
−−→
AB = (−1, 3, 7) − (2, 0, 5) = (−3, 3, 2) ,
donde
−−→
q √
distância entre A e B = || AB || = (−3)2 + 32 + 22 = 22 .
Quando falamos em vetores ortogonais, falamos, evidentemente, de vetores que fazem entre si um
ângulo de 90o . Informalmente, o ângulo entre dois vetores v~ e w
~ é a medida da abertura que fica
definida por v~ e w
~ quando estes têm o mesmo ponto inicial.
w
~
w
~
~v ~v w
~ ~v ~v ~v
w
~
w
~
Capı́tulo 6. Espaços Euclideanos 169
~v − w
~
w
~ ~v
v~ e w
~ ortogonais ⇔ v~ · w
~ = 0.
~ = 2 × 1 + (−1) × 2 + 5 × 0 = 2 − 2 + 0 = 0
v~ · w
v~ · ~z = 2 × 4 + (−1) × 3 + 5 × (−1) = 8 − 3 − 5 = 0
~ · ~z = 1 × 4 + 2 × 3 + 0 × (−1) = 4 + 6 − 0 = 10 ,
w
pelo que v~ ⊥ w
~ e v~ ⊥ ~z, mas w
~ 6⊥ ~z.
1. Propriedade comutativa: v~ · w
~ =w
~ · v~.
170 6.2. Produto interno; Ortogonalidade; Método de ortogonalização Gram-Schimdt
2. Propriedade distributiva: (~
v + w)
~ · ~z = v~ · ~z + w
~ · ~z e v~ · (w
~ + ~z) = v~ · w
~ + v~ · ~z.
3. v~ · (k w)
~ = (k~
v) · w
~ = k(~
v · w).
~
6. Desigualdade de Cauchy-Schwarz: |~
v · w|
~ ≤ ||~
v || ||w||.
~
(w1 , w2 )
y
~v − w
~
w
~
θw~ (v1 , v2 )
α ~v
θ~v
x
A igualdade
v~ · w ~
cos α = ,
v || ||w||
||~ ~
que usámos na demonstração da propriedade 5, é importante por si só: permite-nos calcular o
ângulo formado pelos vetores v~ e w.
~
Capı́tulo 6. Espaços Euclideanos 171
temos
10
cos α = √ √ ' 0.877 .
5 26
Logo,
10
α = arccos √ √ ' 0.5 rad ,
5 26
ou seja, α ' 28.71o .
Na Definição 6.3, chamámos “produto interno canónico” ao produto interno. A razão para esta
terminologia aparentemente desnecessária tem a ver com o facto de outros produtos internos pode-
rem ser definidos em Rn . Por exemplo, se λ = (λ1 , · · · , λn ) ∈ Rn é tal que λi > 0 para todo i, então
a operação (usada em médias pesadas)
~ = λ1 v1 wn + . . . + λn vn wn ,
v~ ·λ w
A · B = tr(BT A)
(recordar que tr (M), o traço da matriz M, é a soma dos elementos da diagonal principal de M;
cf. Definição 1.22) verifica as propriedades enumeradas no Teorema 6.3, e dizemos por isso que se
trata de um produto interno. Outro exemplo é a operação
Z b
f (x) · g(x) = f (x)g(x) dx ,
a
~v − projw~ ~v
~v
w
~
projw~ ~v
3. A projeção ortogonal determina o ponto P sobre a reta definida pelo ponto O e pelo vetor w
~
que se encontra a menor distância do ponto A:
~v
w
~
P
O projw~ ~v
v~ · w
~
projw~ v~ = w
~.
~ 2
||w||
projw~ v~ = k w
~
~ · (~
w v − projw~ v~) = 0 ,
donde
~ · (~
w ~ = 0,
v − k w)
Capı́tulo 6. Espaços Euclideanos 173
~ · (~
w ~ =0⇔w
v − k w) ~ · (k w)
~ · v~ − w ~ =0
⇔w
~ · v~ − k(w ~ =0
~ · w)
v~ · w
~
⇔k= .
w~ ·w~
Logo,
v~ · w
~ v~ · w
~
projw~ v~ = ~=
w w
~.
w~ ·w~ ~ 2
||w||
u~ · v~ 5 1 1 3
projv~ u
~= v
~ = (1, 3) = (1, 3) = , ;
v ||2
||~ 10 2 2 2
u ||2 = 22 + 12 = 5 (e v~ · u
como ||~ ~=u
~ · v~ = 5), temos
u~ · v~ 5
proju~ v~ = 2
~ = (2, 1) = (2, 1)(= u
u ~) .
u ||
||~ 5
~v
proj~v ~u
~u = proju~ ~v
u
~ ·w ~ 0
proju~ w
~= ~=
u ~ = ~0 = projw~ u
u ~.
u ||2
||~ u ||2
||~
u~ · ~z −5 −1 3 1
proj~z u
~= ~
z = (−3, 1) = (−3, 1) = , −
||~z||2 10 2 2 2
e
u
~ · ~z −5
proju~ ~z = 2
~=
u (2, 1) = (−2, −1) .
u ||
||~ 5
174 6.2. Produto interno; Ortogonalidade; Método de ortogonalização Gram-Schimdt
~z ~u
projz~ ~u
proju~ ~z
No inı́cio desta secção, mencionámos que alguns cálculos ficam simplificados quando
uma base é constituı́da por vetores ortogonais entre si. Um exemplo disso é a tarefa de escre-
ver qualquer vetor como combinação linear dos elementos da base, como mostra o próximo
teorema. Comecemos por fixar a seguinte terminologia:
Capı́tulo 6. Espaços Euclideanos 175
Definição 6.5 (Base ortogonal & base ortonormada) Seja B uma base de Rn . Dizemos
que B é ortogonal se for constituı́da por vetores ortogonais entre si e dizemos que é
ortonormada (o.n.) se, além disso, todos os vetores de B são unitários.
v~
Recordar que dado qualquer vetor v~, o vetor tem a mesma direção e sentido que v~ e é unitário.
v ||
||~
v1 , . . . , v~n } é uma base ortogonal, então ||~vv~1 || , . . . , ||~vv~n || é uma base ortonormada.
n o
Assim, se {~
1 n
v~ = (~
v ·u ~ n )N .
~1 , . . . , v~ · u
v~ = k1 u
~ 1 + . . . + kn u
~n
~i = (k1 u
v~ · u ~ 1 + . . . + kn u
~n ) · u
~i
= (k1 u
~1 ) · u
~i + . . . + (kn u
~n ) · u
~i
= k1 (~ ~i ) + . . . + kn (~
u1 · u ~i ) .
un · u
Ora, sendo B uma base ortonormada, temos u ~i = 1 para todo i (pois ||~
~i · u ui || = 1) e u ~j = 0
~i · u
sempre que i , j (pois, nesse caso, u ~i e u ~j são ortogonais). Substituindo na igualdade acima,
vem
~i = 0 + · · · + 0 + ki × 1 + 0 + · · · + 0 = ki ,
v~ · u
como pretendido.
Antes de darmos um exemplo deste resultado, observemos o seguinte facto, que, quando
aplicável, é de grande utilidade:
k1 v~1 + . . . + km v~m = ~0
ki (~
vi · v~i ) = 0 ,
ou seja, ki = 0, pois v~i · v~i = 1. Logo, pelo Teorema 3.4, S é um conjunto linearmente indepen-
dente.
~2 = (− 45 , 0, 53 ) e u
~1 = (0, 1, 0) , u
u ~3 = ( 35 , 0, 45 ) .
Dado que
u ~2 = (0, 1, 0) · (− 54 , 0, 35 ) = 0
~1 · u
u ~3 = (0, 1, 0) · ( 35 , 0, 45 ) = 0
~1 · u
u ~3 = (− 45 , 0, 53 ) · ( 35 , 0, 45 ) = − 12
~2 · u 12
25 + 25 = 0 ,
u1 || = 1
||~
q q q
u2 || = (− 5 ) + ( 5 ) = 25 + 25 = 25
||~ 4 2 3 2 16 9
25 = 1
q q
u3 || = ( 35 )2 + ( 54 )2 = 25
||~ 9
+ 16
25 = 1 ,
~1 = (1, 1, 1) · (0, 1, 0) = 1
v~ · u
~2 = (1, 1, 1) · (− 45 , 0, 35 ) = − 54 + 35 = − 51
v~ · u
~3 = (1, 1, 1) · ( 35 , 0, 54 ) =
v~ · u 3
5 + 45 = 75 ,
Para concluir esta secção, vejamos um processo para construir uma base ortogonal a par-
tir de uma base arbitrária.
~ 1 = v~1
w
~ 2 = v~2 − projw~1 v~2
w
w~ 3 = v~3 − projw~1 v~3 − projw~2 v~3
..
.
~ n = v~n − projw~1 v~n − projw~2 v~n − · · · − projw~n−1 v~n ,
w
Não iremos detalhar todas as verificações necessárias, mas os seguintes esquemas dão
uma ideia da razão por que o método produz uma base ortogonal:
~1 ⊥ w
w ~2 ~1 ⊥ w
w ~1 ⊥ w
~2 , w ~2 ⊥ w
~3 , w ~3
1. Vejamos que B = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} é uma base de R3 , ou seja, que B é um
conjunto linearmente independente (observar que não é um conjunto ortogonal,
pois (1, 1, 1) · (0, 1, 1) = 2 , 0). Uma vez que a matriz
1 1 1
0 1 1
0 0 1
temos:
~ 1 = v~1 = (1, 1, 1)
w
~ 2 = v~2 − proju~1 v~2
w
(0, 1, 1) · (1, 1, 1)
= (0, 1, 1) − (1, 1, 1)
||(1, 1, 1)||2
= (0, 1, 1) − 32 (1, 1, 1)
= (0, 1, 1) − ( 23 , 23 , 23 )
= (− 23 , 13 , 13 )
~ 3 = v~3 − proju~1 v~3 − proju~2 v~3
w
(0, 0, 1) · (1, 1, 1) (0, 0, 1) · (− 32 , 31 , 13 ) 2 1 1
= (0, 0, 1) − (1, 1, 1) − (− 3 , 3 , 3 )
||(1, 1, 1)||2 ||(− 23 , 13 , 13 )||2
1
= (0, 0, 1) − 13 (1, 1, 1) − 3 2 1 1
4 1 1 (− 3 , 3 , 3 )
9+9+9
1
= (0, 0, 1) − ( 13 , 13 , 13 ) − 36 (− 32 , 13 , 13 )
9
1 1 1
= (0, 0, 1) − ( 3 , 3 , 3 ) + 12 (− 23 , 13 , 13 )
= (0, 0, 1) − ( 13 , 13 , 31 ) + (− 26 , 16 , 16 )
= (0, 0, 1) − (0, 12 , 12 )
= (0, − 12 , 12 ) .
w
~1 (1, 1, 1)
~1 =
u = √ = ( √1 , √1 , √1 )
||w
~ 1 || 3 3 3 3
w
~ (− 2 , 1 , 1 )
~2 = 2 = 3√ 3 3 = (− √2 , √1 , √1 )
u
||w
~ 2 || 6 6 6 6
3
w
~3 (0, − 12 , 12 )
~3 =
u = = (0, − √1 , √1 ) ,
||w
~ 3 || √1 2 2
2
obtemos a base ortonormada N = √1 , √1 , √1 , − √2 , √1 , √1 , 0, − √1 , √1 .
3 3 3 6 6 6 2 2
Capı́tulo 6. Espaços Euclideanos 179
y z
r r
x y
r⊥
x r⊥
Repare-se que, dado um plano no espaço contendo a origem, existem infinitos planos con-
tendo a origem perpendiculares ao primeiro, mas nenhum que satisfaça a condição verifi-
cada pelos subespaços vetoriais r e r ⊥ : qualquer vetor do primeiro é ortogonal a todos os
vetores do segundo.
1. S ⊥ é um subespaço vetorial de E.
3. (S ⊥ )⊥ = S.
(k u
~ + l~
v) · w
~ = (k u
~) · w
~ + (l~
v) · w
~ = k(~ ~ + l(~
u · w) ~ = k0 + l0 = 0 ,
v · w)
O resultado seguinte estabelece uma relação geométrica entre o núcleo e o espaço ge-
rado pelas colunas de uma matriz. É um resultado de grande utilidade prática, pois dá-nos
uma forma de determinar uma base para o complemento ortogonal de um dado subespaço
vetorial.
v~1 = (2, 2, −1, 0, 1) , v~2 = (−1, −1, 2, −3, 1) , v~3 = (1, 1, −2, 0, −1) e v~4 = (0, 0, 1, 1, 1) .
Como vimos no Exemplo 3.31, {(1, −1, 0, 0, 0), (−1, 0, −1, 0, 1)} é uma base de N (A) e,
portanto, uma base de S ⊥ .
Definição 6.7 (Produto externo) Dados v ~ ∈ R3 , chamamos produto externo (ou pro-
~, w
duto vetorial) do vetor v~ pelo vetor w
~ ao vetor v~ × w
~ que:
• tem o sentido dado pela regra da mão direita: pondo o dedo indicador solidário
com o vetor v~ e o dedo médio solidário com o vetor w,
~ o polegar indica o sentido
do vetor v~ × w
~ (ou, alternativamente, encostando a parte de fora da mão direita
ao vetor v~ e movimentando-a de encontro ao vetor w ~ pelo caminho mais curto, o
sentido é dado pelo polegar);
Capı́tulo 6. Espaços Euclideanos 181
w
~
w
~ w
~ ~v
~v
~v
z z z
bem como
z z z
Naturalmente, a definição não é uma forma prática de calcular o produto externo de dois
vetores. O seguinte resultado dá-nos, entre outras propriedades desta operação, um processo
alternativo para o fazermos:
1. Propriedade anti-comutativa: v~ × w
~ = −(w
~ × v~).
2. Propriedade distributiva: (~
v + w)
~ × ~z = v~ × ~z + w
~ × ~z e v~ × (w
~ + ~z) = v~ × w
~ + v~ × ~z.
3. v~ × (k w)
~ = (k~
v) × w
~ = k(~
v × w).
~
6. v~ · (~ ~ =w
v × w) ~ · (~ ~ = ~0.
v × w)
7. Identidade de Jacobi: (~ ~ × ~z + (w
v × w) ~ = ~0.
~ × ~z) × v~ + (~z × v~) × w
8. ||~ ~ = ||~
v × w|| ~ sin α, sendo α o ângulo formado por v~ e w.
v || ||w|| ~
Mais adiante veremos que o vetor calculado por este determinante simbólico é de facto
Capı́tulo 6. Espaços Euclideanos 183
ortogonal a v~ e w.
~
Exemplo 6.12 Determinemos uma equação cartesiana do plano que contém o ponto
A = (5, −2, 1) e é paralelo aos vetores v~ = (1, 0, 2) e w
~ = (3, −1, 4). Como sabemos, a
equação procurada é da forma
onde (a, b, c) são as coordenadas de um vetor normal ao plano e, logo, ortogonal a ambos
v~ e w.
~ Pelo exemplo anterior, o vetor (2, 2, −1) está nestas condições. Logo,
ou, equivalentemente,
2(x − 5) + 2(y + 2) − (z − 1) = 0 ,
ou ainda
2x + 2y − z = 5
é uma tal equação.
Exemplo 6.14 Calculemos a área do triângulo de vértices (2, 2, 0), (−1, 0, 2) e (0, 4, 3).
Pondo A = (2, 2, 0), B = (−1, 0, 2) e C = (0, 4, 3),
184 6.4. Produto externo e produto misto
C
B
−−→
AB −→
~e3 AC
y
~e2
~e1
A
x
−−→
a área procurada é igual a metade da área do paralelogramo definido pelos vetores AB
−−→
e AC (por exemplo!). Ora,
−−→
AB = B − A = (−1, 0, 2) − (2, 2, 0) = (−3, −2, 2)
−−→
AC = C − A = (0, 4, 3) − (2, 2, 0) = (−2, 2, 3) ,
donde
~e1 ~e2 ~e3
−−→ −−→
AB × AC = −3 −2 2
−2 2 3
−2 2 −3 2 −2 −3
= ~e1 − ~e + ~e
2 3 2 −2 3 3 −2
2
= −10~e1 − (−5)~e2 + (−10)~e3
= (−10, 5, −10) .
Logo, por definição de produto externo, a área do paralelogramo definido pelos vetores
−−→ −−→
AB e AC é q √
||(−10, 5, −10)|| = (−10)2 + 52 + (−10)2 = 225 = 15 ,
15
pelo que a área do triângulo de vértices A, B e C é 2 .
" #
v1 v2
w1 w2
~v × w
~
~e3
~e2 y
w
~
~e1
~v
x
e, portanto,
q
~ =
v × w||
||~ 02 + 02 + (v1 w2 − v2 w1 )2 = |v1 w2 − v2 w1 | .
v1 v2 v3
w1 w2 w3
z1 z2 z3
~ × ~z
w
~v
projw×~
~ z~v = ~p ~z
w
~
lipı́pedo, temos
Definição 6.8 (Produto misto) Dados v ~ z ∈ R3 , chamamos produto misto (ou pro-
~, w,~
duto escalar triplo) dos vetores v~, w
~ e ~z ao número real
v~ · (w
~ × ~z) .
Como vimos,
v · (w
e |~ ~ × ~z) | é o volume do paralelipı́pedo definido pelos vetores v~, w
~ e ~z.
Recorrendo ao produto misto, é agora fácil verificar que o vetor calculado pelo determi-
nante simbólico
~e1 ~e2 ~e3
v1 v2 v3 ,
w1 w2 w3
~ · (~
e, analogamente, w ~ = 0.
v × w)
e √ √
k(6, 6, 2)k = 62 + 62 + 22 = 76 .
Exemplo 6.17 O volume do paralelipı́pedo definido pelos vetores (4, 0, 0), (1, 0, 3) e
(2, 2, 0) é 24, pois
4 0 0 " #
0 3
~ × ~z) = det 1 0 3 = (−1)1+1 × 4 × det
v · (w = |4 × (−6)| = |−24| = 24 .
~
2 0
2 2 0
Uma outra utilidade do produto misto é uma forma prática de identificar se três vetores são
complanares, isto é, se, dados três vetores v~, w
~ e ~z, existe algum plano simultaneamente paralelos
aos três — útil, por exemplo, no estudo da posição relativa de retas no espaço.
De facto,
~ e ~z são complanares ⇔ v~ · (w
v~, w ~ × ~z) = 0 ,
uma vez que, de outra forma, o volume do paralelipı́pedo definido pelos vetores v~, w
~ e ~z não seria
zero.
Tem-se
√ √ y
2 2
f (1, 0) = ( 2 , 2 )
√ √
f (0, 1) = (− 22 , 22 ) .
Observemos que f (1, 0) e f (0, 1) são veto-
f (~e2 ) f ~e f (~e1 )
res unitários: 2
r
√ 2 √ 2 f
2
||f (1, 0)|| = + 22 x
2 ~e1
q
= 24 + 24
√
= 1
= 1 = ||f (0, 1)|| .
~v × f (~v ) f (~v )
45o
~v
y x
f (~v )
~v
x
Temos assim g(1, 0) = (2, 0), g(0, 1) = (0, 2) e, mais geralmente, g(x, y) = (2x, 2y). Logo,
g(x, y) = 2(x, y), pelo que g associa, a cada v~ ∈ R2 , o seu múltiplo escalar 2~
v.
f (~v )
~v f
x
O facto de uma aplicação linear ficar completamente determinada pela imagem dos vetores de uma
qualquer base do espaço de partida (cf. Teorema 4.2) ajuda, como vemos, a interpretar geometrica-
mente as aplicações lineares. Em sentido inverso, esta propriedade também nos permite definir a
aplicação a partir do efeito que queremos que esta produza.
temos "#
0 1
Mh = .
−1 0
Logo, " # " #" # " #
x 0 1 x y
Mh = = .
y −1 0 y −x
e, portanto,
h(x, y) = (y, −x) .
Se, além da rotação, quizéssemos que h produzisse um vetor com metade do tamanho
do vetor original, terı́amos
0 12
" #
Mh = 1 ,
−2 0
donde
h(x, y) = ( 21 y, − 12 x) .
x
Capı́tulo 6. Espaços Euclideanos 191
0 ≤ u ≤ u0 ∨ 0 ≤ v ≤ v0 − uv0 u ,
0
onde
y
v
v0
u
u0
x
Escolhendo u0 = v0 = 1, fica
0 ≤ u ≤ 1 ∨ 0 ≤ v ≤ 1−u,
A aplicação linear k que produz esta transformação é a aplicação definida por: k(1, 0) =
(3, 1) e k(0, 1) = (−2, 3), ou seja, " #
3 −2
Mk = .
1 3
• A norma de v~ = (v1 , . . . , vn ) ∈ Rn é
q
v || =
||~ v12 + . . . + vn2 .
~ = (w1 , . . . , wn ) ∈ Rn é o número
• O produto interno (usual ou canónico) dos v~ = (v1 , . . . , vn ), w
real
~ = v1 w1 + . . . + vn wn = ||~
v~ · w ~ cos α
v || ||w||
onde α é o ângulo formado por v~ e w.
~
• v~ ⊥ w
~ sse v~ · w
~ = 0.
• A projeção ortogonal do vetor v~ sobre o vetor w
~ é o vetor
v~ · w
~
projw~ v~ = w
~,
~ 2
||w||
o qual é paralelo a w
~ e tal que v~ − projw~ v~ é ortogonal a w.
~
• Uma base de Rn diz-se ortogonal se os seus vetores são ortogonais dois a dois e ortonormada
se, além disso, os vetores são unitários.
192 6.6. Exercı́cios
v~ = (~
v ·u ~n )N .
~1 , . . . , v~ · u
• Dados v~ = (v1 , v2 , v3 ) e w
~ = (w1 , w2 , w3 ), as coordenadas do vetor v~ × w
~ podem ser calculadas
através do determinante simbólico
~e1 ~e2 ~e3
~ = v1 v2 v3 .
v~ × w
w1 w2 w3
• v~ · (w
~ × ~z) = 0 sse os vetores v~, w
~ e ~z são complanares.
6.6 Exercı́cios
(a) v~1 = (3, 6) (d) v~4 = (5, −4) (g) v~7 = (3, 4, 5)
(b) v~2 = (−4, −8) (e) v~5 = (3, 0) (h) v~8 = (3, 3, 0)
(c) v~3 = (−4, −3) (f) v~6 = (0, −7) (i) v~9 = (0, 0, 3)
Capı́tulo 6. Espaços Euclideanos 193
(a) A = (3, 4), B = (5, 7) (c) A = (7, −5, 1), B = (−7, −2, −1)
(b) ||~
u || + ||~
v || (f) ||3~
u − 5~
v + w||
~
1
(j)
||w||
~
w
~
(c) 2||~
v || (g) || − 3w
~ + 3w||
~
(d) ||2~
v || (h) || − 3w||
~ + ||3w||
~ (l)
||~u +1w||
~
(~
u + w)
~
(e) ... com a direção e sentido do vetor (r cos t, r sin t) (sendo r ≥ 0).
(a) u
~ = (2, 3), v~ = (5, −7) (c) u
~ = (1, −5, 4), v~ = (3, 3, 3)
(b) u
~ = (−6, −2), v~ = (4, 0) (d) u
~ = (−2, 2, 3), v~ = (1, 7, −4)
(a) u
~ = (6, 1, 4), v~ = (2, 0, −3) (e) u
~ = (−2, 0, 4), v~ = (1, 0, −2)
(b) u
~ = (0, 0, −1), v~ = (1, 1, 1) (f) u
~ = (1, 2, 3), v~ = (1, 2, 0)
(c) u
~ = (−6, 0, 4), v~ = (3, 1, 6) ~ = (2, −2, 3), v~ = (1, −1, 32 )
(g) u
(d) u
~ = (2, 4, −8), v~ = (5, 3, 7) (h) u
~ = (2, 3, 5), v~ = (−3, 2, 0)
(a) p
~e~
q sejam colineares (c) o ângulo entre p q seja π4 .
~e~
(b) p
~e~
q sejam ortogonais
~v
w
~
~v
w
~
(a) (c)
~v
w
~
w
~
~v
(b) (d)
Capı́tulo 6. Espaços Euclideanos 195
(a) u
~ = (1, −2), ~
a = (−4, −3) (d) u
~ = (3, 0, 4), ~
a = (2, 3, 3)
(b) u
~ = (5, 6), ~
a = (2, −1) (e) u
~ = (3, −2, 6), ~
a = (1, 2, −7)
(c) u
~ = (2, −1), ~
a = (5, 6) (f) u
~ = (1, 2, −7), ~
a = (3, −2, 6)
Exercı́cio 6.19 Calcule as coordenadas dos vetores dados na base da alı́nea (e) do
exercı́cio anterior.
(a) (1, −2, −3) (b) (5, 0, −1) (c) (2, −1, 4)
Exercı́cio 6.20 Obtenha uma base ortonormada de R3 a partir dos vetores dados
(a) (1, 1, 0), (1, 0, 1) e (0, 1, 1) (b) (1, 0, 1), (1, 0, −2) e (0, 3, 4)
196 6.6. Exercı́cios
(a) S = h(1, 2, 3, 4), (0, 0, 1, 0)i (b) S = h(−1, 0, 1, 1), (1, 0, 1, 2), (0, −2, 0, 1)i
(a) S = h(1, −1, 3), (5, −4, −4), (7, −6, 2)i
(d) S = h(1, 4, 5, 6, 9), (3, −2, 1, 4, −1), (−1, 0, −1, −2, −1), (2, 3, 5, 7, 8)i
(a) v~ × w
~ (c) u
~ × (~
v × w)
~ (e) (~
u × v~) × (~
v × w)
~ (g) u
~ × (~
v − 2w)
~
(b) w
~ × v~ (d) (~
u × v~) × w
~ (f) (~
u × v~) · (~
v × w)
~ (h) (~
u × v~) − 2w
~
(a) u
~ = (−1, 2, 4), v~ = (3, 4, −2), w
~ = (−1, 2, 5)
(b) u
~ = (3, −1, 6), v~ = (2, 4, 3), w
~ = (5, −1, 2)
Capı́tulo 6. Espaços Euclideanos 197
(a) u
~ · (w
~ × v~) (c) w
~ · (~
u × v~) (e) v~ · (w
~ × w)
~
(b) (~
v × w)
~ ·u
~ (d) v~ · (~
u × w)
~ (f) u
~ × (~
v · w)
~
(a) u
~ = (2, −6, 2), v~ = (0, 4, −2), w
~ = (2, 2, −4)
(b) u
~ = (3, 1, 2), v~ = (4, 5, 1), w
~ = (1, 2, 4)
(a) u
~ = (5, −2, 1), v~ = (4, −1, 1), w
~ = (1, −1, 0)
(b) u
~ = (4, −8, 1), v~ = (2, 1, −2), w
~ = (3−, 4, 12)
6.7 Soluções
Solução 6.1
~v1
~v5
x
z
~v3
~v4
~v2 ~v6
~v9 ~v7
y
~v8
x
198 6.7. Soluções
Solução 6.2
√ √ √
(a) 3 5 (d) 41 (g) 5 2
√ √
(b) 4 5 (e) 3 (h) 3 2
(c) 5 (f) 7 (i) 3
Solução 6.3
√ √ √ √
(a) 13 (b) 2 26 (c) 209 (d) 3 2
Solução 6.4
√ √
(a) 83 (e) 2 26 (i) √3 , √6 , √−4
√ √ √ 61 61 61
(b) 17 + 26 (f) 466
√ (j) 1
(c) 2 26 (g) 0
√ √
(d) 2 26 (h) 6 61 (l) 1
Solução 6.5
Solução 6.6
(a) 35 , 45 (d) 2 −3 6
7, 7 , 7
(b) √1 , √−2 , √3 (e) (cos t, sin t)
14 14 14
!
−y
(c) −1 √2
√ , (f) √ −x , √ , √ −z
5 5 x2 +y 2 +z2 x2 +y 2 +z2 x2 +y 2 +z2
Solução 6.7
Solução 6.8
(a) √ −11
√ (b) √−3 (c) 0 (d) 0
13 74 10
Solução 6.9
Solução 6.10
Solução 6.11 Por exemplo, (0, 3, 2), (−3, 0, 5), (1, 1, −1), (2, 2, −2), (1, −5, −5) e (−3, 3, 7).
Solução 6.12
10
(a) 3 (b) − 65 (c) 1
2
Solução 6.13
~v
projw~ ~v
w
~
~v
projw~ ~v
w
~
(a) (c)
~v
w
~
projw~ ~v w
~
projw~ ~v
~v
(b) (d)
Solução 6.14
8 12
(a) (0, 0) (b) 13 , − 13 (c) − 16 80
13 , 0, − 13 (d) 16 12 32
89 , 89 , 89
Solução 6.15
(a) (6, 2) (b) − 21
13 , − 14
13 (c) 55 11
13 , 1, − 13 (d) 73 12 32
89 , − 89 , − 89
Solução 6.16
(a) v~// w~ = 56 , − 35 , v~⊥w~ = 45 , 85 (b) v~// w~ = − 72 , 17 , 74 , v~⊥w~ = 23 6 10
7 , 7, 7
200 6.7. Soluções
Solução 6.17
2 √4 √43
(a) 5 (c) (e)
61 54
Solução 6.18
Solução 6.19
(a) − √6 , − √3 , − √23 (b) √2 , √9 , − √
23
(c) √15 , √7 , − √1
11 11 11 6 6 6 50 50 50
Solução 6.20
(a) √1 , √1 , 0 , √1 , − √1 , √2 , − √1 , √1 , √1 (b) √1 , 0, √1 , √1 , 0, − √1 , (0, 1, 0)
2 2 6 6 6 3 3 3 2 2 2 2
Solução 6.21
(a) (0, 0, 1, 0), √1 , √2 , 0, √4
21 21 21
(b) − √1 , 0, √1 , √1 , √5 , 0, √1 , √4 , √ 1 , √14 , √ 3 , − √ 2
3 3 3 42 42 42 210 210 210 210
Solução 6.22
Solução 6.23
(a) (32, −6, −4) (c) (−14, −20, −82) (e) (0, 176, −264) (g) (−44, 55, −22)
(b) (−32, 6, 4) (d) (27, 40, −42) (f) −206 (h) (−8, −3, −8)
Solução 6.24
Capı́tulo 6. Espaços Euclideanos 201
Solução 6.25
√ √ √
(a) 213 (b) 59 (c) 101 (d) 0
Solução 6.26
√
374
√
(a) 2
(b) 285
Solução 6.27
Solução 6.28
Solução 6.29
Solução 6.30
(a) 16 (b) 45
Solução 6.31
Em engenharia, os números complexos proporcionam uma maneira muito mais rápida e fácil de fazer
certos cálculos do que o processo direto. Para isso, as diferentes formas de representar números complexos e
as operações com complexos têm que ser bem conhecidas.
O termo “complexo” não significa complicado. Tal como um complexo de edifı́cios é formado por um certo
número de edifı́cios, possivelmente com funções diferentes, também um número complexo é um número
formado por dois números de tipos distintos: um real, outro imaginário.
Assim que os números complexos entram em cena, muitas equações que não tinham solução —
ou melhor, que não tinham solução em R — passam a ter:
203
204 7.1. Definição e operações
x2 + 1 = 0 ⇔ x2 = −1
√
⇔ x = ± −1
⇔ x = ±j ,
Mais geralmente, todas as equações têm agora as n soluções previstas pelo Teorema Fundamental
da Álgebra, onde n é o grau do polinómio:
23 − 2 × 2 − 4 = 8 − 4 − 4 = 0 ,
Capı́tulo 7. Números Complexos 205
1 0 −2 −4
2 2 4 4
1 2 2 0
Recordemos uma outra forma de determinar as raı́zes de um polinómio de 2ª grau: construindo o caso
notável. Por exemplo: como
x2 + 2x + 2 = (x2 + 2x + 1) + 1 = (x + 1)2 + 1 ,
tem-se
√
x2 + 2x + 2 = 0 ⇔ (x + 1)2 + 1 = 0 ⇔ (x + 1)2 = −1 ⇔ x + 1 = ± −1 ⇔ x = −1 ± j ;
como
x2 − 4x − 5 = (x2 − 4x + 4) − 5 − 4 = (x − 2)2 − 9 ,
tem-se
√
x2 − 4x − 5 = 0 ⇔ (x − 2)2 − 9 = 0 ⇔ (x − 2)2 = 9 ⇔ x − 2 = ± 9 ⇔ x = 2 ± 3 ⇔ x = −1 ∨ x = 5 .
Definição 7.2 (Parte real e parte imaginária) Dado z = a + bj ∈ C, chamamos parte real de
z ao número real a e parte imaginária de z ao número real b. Denotam-se, respetivamente, por
Re(z) e Im(z).
z1 × z2 = (a1 + b1 j) × (a2 + b2 j)
= a1 a2 + (b1 j)a2 + a1 (b2 j) + (b1 j)(b2 j)
= (a1 a2 − b1 b2 ) + (a2 b1 + a1 b2 )j ;
z1 a1 + b1 j
=
z2 a2 + b2 j
a + b1 j a2 − b2 j
= 1 ×
a2 + b2 j a2 − b2 j
(a + b1 j) × (a2 − b2 j)
= 1
(a2 + b2 j) × (a2 − b2 j)
(a a + b1 b2 ) + (a2 b1 − a1 b2 )j
= 1 2 .
a2 2 + b 2 2
z∗ = (a + bj)∗ = a − bj .
z2 = (2 + 3j) × (2 + 3j)
= 4 + 6j + 6j + 9j 2
= 4 + 12j − 9
= −5 + 12j ;
z 2 + 3j
=
w −4 + 5j
2 + 3j −4 − 5j
= ×
−4 + 5j −4 − 5j
(2 + 3j) × (−4 − 5j)
=
(−4 + 5j) × (−4 − 5j)
−8 − 12j − 10j − 15j 2
=
(−4)2 + 52
−8 − 22j + 15
=
16 + 25
7 − 22j
=
41
7 22
= 41 − 41 j;
1 1
=
w −4 + 5j
1 −4 − 5j
= ×
−4 + 5j −4 − 5j
−4 − 5j
=
(−4 + 5j) × (−4 − 5j)
−4 − 5j
=
41
4 5
= − 41 − 41 j.
j 1 = j , j 2 = −1 , j 3 = (−1)j = −j , j 4 = (−j) = −j 2 = 1 ,
j 5 = j , j 6 = −1 , j 7 = −j , j8 = 1 , ···
208 7.2. Plano complexo e formas polar e exponencial
e, mais geralmente,
1 se n = 0, 4, 8, 12, . . .
j se n = 1, 5, 9, 13, . . .
n
j =
−1 se n = 2, 6, 10, 14, . . .
−j se n = 3, 7, 11, 15, . . .
É muito importante ter sempre presente a seguinte diferença. Enquanto que, na soma (e na subtração) de
números complexos, é indiferente tomar a parte real antes ou depois de efetuar a operação, isto é,
pois
Re((a + bj) + (c + dj)) = Re((a + c) + (b + d)j) = a + c = Re(a + bj) + Re(c + dj) = Re(z) + Re(w) ,
mas
Re(a + bj) × Re(c + dj) = ac .
Deste modo, podemos identificar o número complexo a + bj com o vetor de coordenadas (a, b); ao
fazê-lo, estamos a identificar o conjunto C, equipado com as operações de soma e produto por um
número real, com o espaço vetorial R2 . Implicitamente, estamos ainda a identificar o eixo horizontal
com o eixo da parte real e o eixo vertical com o eixo da parte imaginária.
Im Im
(a, b) z
b Im(z)
a Re Re
Re(z)
Im
u
1
Re
1 z
v
w
Im
q
p 1
Re
1
s
são:
p = −3 + j , q = 2j , r = 1 − 3j e s = 3 − j .
Se z = a + bj, então
z × j = (a + bj) × j = aj + bj 2 = −b + aj . b
a
Im
z × j = (3 + 2j) × j = 3j + 2j 2 = −2 + 3j z×j
z × j 2 = (3 + 2j) × (−1) = −3 − 2j ×j z
Im
−3 + 3j
3π
4
Re
p √ 3π
concluı́mos que |z| = (−3)2 + 32 = 18 e que θz = 4 .
De facto,
Im
z
|z|
θz
Re
θ z∗
|z ∗ |
z∗
Teorema 7.3 (Relação entre parte real & parte imaginária e módulo & argumento) Seja
z ∈ C.
1. Cálculo do módulo e do argumento à custa da parte real e da parte imaginária:
Im(z)
q
|z| = (Re(z))2 + (Im(z))2 e tan θz = .
Re(z)
Im
z
|z|
Im(z)
θz
Re
Re(z)
Im(z)
Em geral, nada mais se pode afirmar sobre θz para além de tan θz = Re(z)
. De facto, como − π2 < arctan α <
π
2 , há dois casos a considerar:
Im(z)
arctan Re(z)
se Re(z) > 0
θz =
π + arctan Im(z)
se Re(z) < 0 .
Re(z)
212 7.2. Plano complexo e formas polar e exponencial
√ p
Exemplo
√ 7.9 Sejam z = −3 + 3j e w = 1 + 3j. Como vimos no Exemplo 7.8, |z| = (−3)2 + 32 =
3π
18 e θz = 4 . De facto,
3 3π
tan θz = −3 = −1 ⇒ θz = π + arctan(−1) = π − π4 = 4 ,
e √ √
3 π
tan θw = 1 = 3 ⇒ θw = 3 ,
pois w encontra-se no 1º quadrante.
Em sentido inverso,
e
Re(v) = 2 cos π = −2 e Im(v) = 2 sin π = 0 .
Definição 7.6 (Forma algébrica & forma trigonométrica (ou polar)) Seja z ∈ C. À
representação de z na forma
z = Re(z) + Im(z)j
chamamos forma algébrica ou forma retangular; à representação de z na forma
z = |z|(cos θz + j sin θz ) ,
Nem sempre é necessário recorrer às fórmulas do Teorema 7.3 para determinar o argumento de um número
complexo. Especialmente fácil é o caso dos complexos que se situam nos eixos:
Capı́tulo 7. Números Complexos 213
Im
π
θ= 2
θ=π θ=0
Re
θ = − π2
Im
1
w u
Re
1
z
Temos assim:
u = 2.5 + 0j = 2.5 0
v = 0 + 2j = 2 π/2 = 2 90°
w = −3 + 0j = 3 π = 3 180°
z = 0 − 1.5j = 1.5 −π/2 = 1.5 −90° .
Como consequência dos desenvolvimentos em série de MacLaurin das funções ex , sin x e cos x, a
saber
X xn x2 x3
ex = = 1+x+ + + ...
n! 2! 3!
n≥0
X (−1)n x2n+1 x3 x5 x7
sin x = =x− + − + ···
(2n + 1)! 3! 5! 7!
n≥0
X (−1)n x2n x2 x4 x6
cos x = = 1− + − + ··· ,
(2n)! 2! 4! 6!
n≥0
tem-se
214 7.3. Operações com complexos na forma polar/exponencial
z = |z| ejθz
e
z Aejα A A
= jβ = ejα−jβ = ej(α−β) .
w Be B B
implica que
√ √ j arctan
3
z = 13 arctan(3/2) ou, equivalentemente, z = 13 e 2
implica que
√ √ j
5
π−arctan 4
w = 41 π − arctan(5/4) ou, equivalentemente, w = 41 e
1 1 0
=√
w 41 π − arctan(5/4)
1
=√ 0 − (π − arctan /5/4)
41
' 0.156 −2.246 rad
' 0.156 −128.7° .
1
' 0.156 −2.246 rad
w
' 0.156 cos(−2.246) + j0.156 sin(−2.246)
7 5
= − 41 − 41 j,
A principal razão pela qual esta revisão sobre números complexos é importante, prende-se com o facto
de ser fundamental em algumas unidades curriculares da especialidade dominar as operações básicas com
números complexos. Em particular, é fundamental saber calcular expressões da forma z + w, 1z + w1 , z × w,
z z×w
w ou z+w , onde z e w são números complexos que tanto podem ser dados na forma algébrica como na forma
polar/exponencial. Como vimos, regra geral, somas e subtrações calculam-se na forma algébrica e produtos
e quocientes calculam-se na forma polar ou exponencial.
Logo,
zT = zR + zL = (50 + 0j) + (0 + 300j) = 50 + 300j ' 304.138 80.537° .
zR zC
Exemplo 7.16 Sendo zR = 75 e zC = −60j, calculemos zT = zR +zC .
Comecemos por calcular zR zC . Dado que zR é real e zC é um imaginário puro, este produto é
Capı́tulo 7. Números Complexos 217
Alternativamente, podı́amos ter começado por converter zR e zC à forma polar antes de calcular
o produto. Como
zR = 75 + 0j = 75 0°
e
zC = 0 − 60j = 60 −90° ,
vinha
zR zC = (75 0°) × (60 −90°) = (75 × 60) 0° − 90° = 4500 −90° ,
já na forma polar.
Por outro lado,
Logo,
v
Exemplo 7.17 Sendo zR = 30, zC = −15j, v = 0.005, calculemos zT = zR + zC , i = zT , vR = zR i e
vC = zC i.
Temos
zT = zR + zC = (30 + 0j) + (0 − 15j) = 30 − 15j ' 33.541 −26.565° .
Assim, dado que
v = 0.005 = 0.005 0° ,
temos
v 0.005 0° 0.005
i= ' ' 0° − (−26.565°) ' 0.000149 26.565° .
zT 33.541 −26.565° 33.541
Deste modo, como
zR = 30 = 30 0° ,
vem
vR = zR i ' (30 0°) × (0.000149 26.565°)
' (30 × 0.000149) 0° + 26.565°
' 0.00447 26.565° .
Por seu turno, como
zC = −15j = 15 −90° ,
vem
vC = zC i ' (15 −90°) × (0.000149 26.565°)
' (15 × 0.000149) −90° + 26.565°
' 0.002235 −63.4356° .
218 7.3. Operações com complexos na forma polar/exponencial
Do ponto de vista matemático, a diferença entre a forma polar e a forma exponencial é meramente gráfica:
ambas exibem o módulo e o argumento do número, ao invés da forma algébrica, que recorre à parte real e à
parte imaginária do número.
No entanto, a forma exponencial é muito útil nas aplicações, pelo facto de certas operações serem mais
fáceis de calcular em C do que em R. É o que acontece nos circuitos LRC, onde, sabendo-se que V (t) =
V0 cos(ωt) (ou seja, V0 e ω são conhecidos), se pretende determinar
R I(t) = I0 cos(ωt −φI ) (ou seja, pretende-
se determinar I0 e φI ) através da equação V = RI + C1 T dt + L dI dt . O problema é solúvel usando apenas
identidades trigonométricas como
mas com trabalho considerável. Alternativamente, as quantidades (reais) V (t) e I(t) são consideradas como
a parte real de quantidades complexas:
De facto,
Re(V0 ejωt ) = Re(V0 cos(ωt) + jV0 sin(ωt)) = V0 cos(ωt) = V (t)
e
Ie0 ejωt = I0 e−jφI ejωt = I0 ejωt−jφI = I0 ej(ωt−φI ) = I0 cos(ωt − φI ) + jI0 sin(ωt − φI )
implica que
Tirando partido do facto de a soma ser linear em C (isto é, Re(z + w) = Re(z) + Re(w)), bem como a
diferenciação e a integração (!!!), fica mais vantajoso confundir temporariamente V (t) com V0 ejωt e I(t)
com Ie0 ejωt , fazer os cálculos em C e tomar a parte real do resultado final.
• As fórmulas do Teorema 7.3 permitem calcular o módulo e o argumento à custa da parte real e da
parte imaginária e vice-versa.
forma forma
operação algébrica polar
7.4 Exercı́cios
(a) Re(z) (d) Re(z) + Re(w) (g) Re(z × w) (j) Re(z) ÷ Re(w)
(b) Re(w) (e) Re(z − w) (h) Re(z) × Re(w) (k) Re(1 ÷ w)
(c) Re(z + w) (f) Re(z) − Re(w) (i) Re(z ÷ w) (l) 1 ÷ Re(w).
Exercı́cio 7.5 Represente no plano complexo e indique a forma polar dos complexos:
Exercı́cio 7.6 Converta para a forma polar e exponencial. Na forma polar, apresente o resul-
tado em radianos e em graus.
1
(a) z + w (c) z × w (e) z ÷ w (g) z+w
1
(b) z − w (d) z2 (f) w ÷ z (h) z + w1
zR = 60 e zL = 250 90° .
1 1
(a) zT = zR + zL (b) zR (c) zL .
zR = 50 e zC = −40j .
zR = 40 , zC = −20j e v = 0.002 .
Calcule:
1
(a) zT = zR + zC (c) f = v (e) vC = zC i
v zR zC
(b) i = zT (d) vR = zR i (f) zR +zC .
7.5 Soluções
Solução 7.1
√
(a) 3 + 2j (b) 5 − 7j (c) 3j (d) 3 + j3 2.
Solução 7.2
√
(a) ±5j (b) ±j3 5 (c) 2 ± j (d) −1 ± 3j.
Solução 7.3
38
(a) 10 + 9j (d) 65 − j 34
65 (g) −22 − 3j (j) 3 − 7j
18
(b) 2 − 5j (e) −1 + 9j (h) 17 + j 13
17 (k) 20 + 15j
4
(c) 10 + 50j (f) −3 + j (i) 3 + j (l) 5 + j 35 .
Solução 7.4
222 7.5. Soluções
3
(a) 3 (d) 7 (g) 16 (j) 4
1
(b) 4 (e) −1 (h) 12 (k) 5
2 1
(c) 7 (f) −1 (i) 5 (l) 4.
Solução 7.5
√
Im (a) 2 45° (e) 2 0°
√
4j (b) 8 135° (f) 4 90°
√
(c) 18 225° (g) 5 180°
−2 + 2j √
1+j (d) 32 −45° (h) 2 −90°.
1
−5 2
Re
1
−2j
−3 − 3j
4 − 4j
Solução 7.6
√
(a) 41 arctan(4/5) ' 6.403 0.675 rad ' 6.403 38.66°
√ 4
41e j arctan 5 ' 6.403e j0.675
√
(b) 41 π − arctan(4/5) ' 6.403 2.467 rad ' 6.403 141.34°
√ 4
41e j(π−arctan 5 ) ' 6.403e j2.467
(c) 5 − arctan(4/3) ' 5 −0.927 rad ' 5 −53.13°
4
5e j(− arctan 3 ) ' 5e −j0.927
(d) 5 π + arctan(4/3) ' 5 4.069 rad ' 5 233.13°
4
5e j(π+arctan 3 ) ' 5e j4.069 .
Solução 7.7
√ √ √
3
(a) 2 3 + 2j (c) −2 (e) 1 + j 3 (g) − 21 + j 2
√ √ √ √
(b) − 322 − j 322 (d) − 5 2 3 − j 52 (f) 3
4 − j 3 3
4 (h) −j.
Solução 7.8
Capı́tulo 7. Números Complexos 223
√ √
(a) (3 + 3) + 4j (f) (2/ 18) −15°
√ p √ √
(b) (3 − 3) + 2j (g) (1/ 20 + 2 3) arctan(4/(1 + 3))
√
(c) 2 18 75° ' 0.0426 −0.976 rad
(d) 18 90° = 18j ' 0.0426 −55.67°
√ √
3 3−2 5
(e) ( 18/2) 15° (h) 12 − j 12 .
Solução 7.9
Im
z1
z3
1
Re
1
z2
z4
(a)
3
(b) (i) 8 150° (iv) 2 −90° (vii) 2 −130°
1 8
(ii) 18 −150° (v) 2 90° (viii) 3 200°
1 1
(iii) 12 20° (vi) 6 100° (ix) 4 140°.
Solução 7.10
224 7.5. Soluções
Im
z1
z3
1
Re
1
z2
z4
(a)
1 jπ/4
(b) (i) 2ej5π/12 (vi) 2e
√ √ √
(ii) 5ej11π/6
(vii) ( 2 − 12 ) + j( 23 − 2)
(iii) 10ej11π/12 √ √
5 3−1 3+5
(iv) 15 e−jπ/2 (viii) 2 + j 2
√ √ √ √
1− 2−5 3 2−5− 3
(v) 5ejπ/2 (ix) 2 + j 2 .
Solução 7.11
√
(a) 66100 arctan(25/6) ≈ 257.1 76.5°
1
(b) 60
1
(c) 250 −90°.
Solução 7.12
Solução 7.13
√
(a) 2000 − arctan(1/2) ≈ 44.721 −26.57°
(b) √0.002 arctan(1/2) ≈ 0.0000447 26.57°
2000
(c) 500
(d) √0.08 arctan(1/2) ≈ 0.00179 26.57°
2000
[1] H. Anton, C. Rorres, “Elementary Linear Algebra: Applications Version”, Wiley, 10ª edição,
2010.
[2] C. Dias, C. Leandro, L. Suárez, “Notas teóricas”, ISEL, 2014/2015.
[3] G. Strang, “Linear Algebra and its Applications”, Brooks/Cole, 4ª edição, 2005.
226
Aij , 49 condensação superior de uma matriz, 28
C θ, 212 conjugado de um número complexo, 206
C, 203 conjunto de geradores de um espaço vetorial, 76
Rm×n , 21 conjunto de solução de um SEL, 8
Im(x), 205 conjunto linearmente dependente, 81
Re(x), 205 conjunto linearmente independente, 81
Arg(z), arg(z), θz , 210 coordenadas de um vetor numa base, 92
coordenadas de um vetor numa base ortonormada,
aplicação linear, 109 175
aplicação linear bijetiva, 116 CS, 8
aplicação linear diagonalizável, 140
aplicação linear injetiva, 116 Desigualdade de Cauchy-Schwarz, 170
aplicação linear invertı́vel, 116 Desigualdade triangular, 167
aplicação linear sobrejetiva, 116 determinante de uma matriz 2 × 2, 45
argumento de um número complexo, 210 determinante de uma matriz 3 × 3, 46
determinante de uma matriz n × n, 48
base canónica de Rn , 86 diagonal principal, 26
base de um espaço vetorial, 84 dimensão de um espaço vetorial, 85
base o.n., 175
base ortogonal, 175 entrada de uma matriz, 21
base ortonormada, 175 equação caracterı́stica de uma matriz, 144
equação vetorial de um espaço vetorial, 78
cálculo da matriz inversa através da matriz ad- equações cartesianas de um espaço vetorial, 78
junta, 61 equações paramétricas de um espaço vetorial, 78
caracterı́stica alternativa de base, 84 espaço Euclideano, 171
caracterı́stica de uma aplicação linear, 114 espaço gerado pelas colunas de uma matriz, 89
caracterı́stica de uma matriz, 30 espaço gerado pelas linhas de uma matriz, 89
caracterização alternativa de subespaço vetorial, espaço imagem de uma aplicação linear, 113
73 espaço vetorial, 70
classificação de um SEL, 11 espaço vetorial gerado, 76
classificação de um SEL recorrendo à caracterı́stica, espaços fundamentais de uma matriz, 89
30
coeficientes de um SEL, 8 forma algébrica, 212
combinação linear, 75 forma exponencial, 214
combinação linear nula, 82 forma polar, 212
complemento ortogonal, 179 forma trigonométrica, 212
228
Índice 229
SEL equivalentes, 9
SEL homogéneo, 8
SEL impossı́vel, 11
SEL possı́vel e determinado, 11
SEL possı́vel e indeterminado, 11
SI, 11
sinal de uma permutação, 47
sistema de equações lineares, 7
sistema em escada, 13
solução de um SEL, 8
solução de um SEL recorrendo à matriz inversa,
38
soma de matrizes, 22
soma de números complexos, 206
SPD, 11
SPI, 11
subespaço próprio, 144
subespaço vetorial, 72
subespaço vetorial constituı́do pelo CS de um SEL
homogéneo, 74
subespaço vetorial gerado, 76
subtração de números complexos, 206