Você está na página 1de 231

Álgebra Linear e Geometria Analı́tica

Texto de Apoio

Filipa Soares de Almeida

ISEL
Copyright © 2019 Filipa Soares de Almeida

Copying prohibited

All rights reserved. No part of this publication may be reproduced or transmitted in any
form or by any means, electronic or mechanical, including photocopying and recording, or
by any information storage or retrieval system, without the prior written permission of the
publisher.

Art. No xxxxx
ISBN xxx–xx–xxxx–xx–x
Edition 0.0

Cover design by the tstextbook document class

Published by ISEL
Printed in Lisboa
Conteúdo

1 Sistemas de Equações Lineares e Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7


1.1 Sistemas de equações lineares 7
1.2 Classificação de sistemas de equações lineares 9
1.3 Método de Gauss 14
1.4 Noção de matriz; Operações com matrizes 21
1.5 Mais alguma terminologia 26
1.6 Condensação de matrizes 28
1.7 Matriz inversa 33
1.8 Exercı́cios 39
1.9 Soluções 42

2 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.1 Noção de determinante 45
2.2 Regra de Laplace 49
2.3 Propriedades dos determinantes 51
2.4 Regra de Cramer 54
2.5 Cálculo da matriz inversa através da matriz adjunta 57
2.6 Exercı́cios 62
2.7 Soluções 65

3
3 Espaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.1 Definição e exemplos 69
3.2 Combinação linear, base e dimensão 75
3.3 Os 4 espaços fundamentais de uma matriz 87
3.4 Coordenadas e mudança de base 92
3.5 Exercı́cios 99
3.6 Soluções 103

4 Aplicações Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109


4.1 Definição e exemplos; Operações com aplicações lineares 109
4.2 Núcleo e imagem; Nulidade e caracterı́stica 113
4.3 Representação matricial; Teorema das dimensões 118
4.4 Exercı́cios 127
4.5 Soluções 133

5 Valores e Vetores Próprios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139


5.1 Definição e exemplos 139
5.2 Multiplicidade algébrica e geométrica 146
5.3 Diagonalização 148
5.4 Exercı́cios 155
5.5 Soluções 158

6 Espaços Euclideanos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165


6.1 Definição; Norma e distância 165
6.2 Produto interno; Ortogonalidade; Método de ortogonalização Gram-Schimdt 168
6.3 Complemento ortogonal 179
6.4 Produto externo e produto misto 180
6.5 Interpretação geométrica de aplicação linear 187
6.6 Exercı́cios 192
6.7 Soluções 197

7 Números Complexos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203


7.1 Definição e operações 203
7.2 Plano complexo e formas polar e exponencial 208
7.3 Operações com complexos na forma polar/exponencial 214
7.4 Exercı́cios 219
7.5 Soluções 221

Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226

Índice remissivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227


1. Sistemas de Equações Lineares e Matrizes

1.1 Sistemas de equações lineares 7

1.2 Classificação de sistemas de equações lineares 9

1.3 Método de Gauss 14

1.4 Noção de matriz; Operações com matrizes 21

1.5 Mais alguma terminologia 26

1.6 Condensação de matrizes 28

1.7 Matriz inversa 33

1.8 Exercı́cios 39

1.9 Soluções 42

Neste capı́tulo, começamos por recordar algumas noções relativas aos já mais que conhecidos
sistemas de equações lineares. Em seguida, iremos ver como os codificar através de uma ferramenta
chamada matriz, a qual vai permitir sistematizar a sua resolução. Como veremos neste e nos
próximos capı́tulos, as matrizes desempenham um papel fundamental na resolução de inúmeros
problemas.

1.1 Sistemas de equações lineares

Definição 1.1 (Sistema de equações lineares) Um sistema de equações lineares (SEL)


é um conjunto de igualdades entre polinómios de 1º grau.

Por exemplo, são SEL os seguintes sistemas:


 
(  2x + y = 1  x + y + 2z = 9
x + 2y = 3 
 

,  −2x − y = −1 ou 2x − 3z = 1 .
 
4x + 5y = 6  

 4x + 2y = 2
  3x + 6y = 0

Já os sistemas ( ( 1
x + 2y = 3 =9
x+y
ou
x2 + y 2 = 4 x+y = 1
não são SEL: o primeiro porque x2 + y 2 não é um polinómio de grau 1 e o segundo porque
1
x+y não é um polinómio.
Um SEL é portanto um conjunto de equações da forma



 a11 x1 + a12 x2 + . . . + a1n xn = b1
 a21 x1 + a22 x2 + . . . + a2n xn = b2



 .. , (1.1)
.




 a x + a x + ... + a x = b

m1 1 m2 2 mn n m

7
8 1.1. Sistemas de equações lineares

onde os a’s de uma mesma equação não podem ser todos nulos.

Definição 1.2 (Incógnitas; coeficientes; termos independentes) No SEL (1.1),

• x1 , x2 , . . . , xn são as incógnitas;

• a11 , a12 , . . . , amn são os coeficientes;

• b1 , b2 , . . . , bm são os termos independentes.

O facto de os coeficientes terem um ı́ndice duplo serve para facilitar a sua localização,
sempre de acordo com a seguinte regra: o 1º ı́ndice identifica a equação (ou linha) e o 2º
identifica a incógnita (ou coluna).



 a11 x1 + a12 x2 + . . . + a1j xj + . . . + a1n xn = b1
a21 x1 + a22 x2 + . . . + a2j xj + . . . + a2n xn = b2




..




 .
aij −→ linha i , coluna j

ai1 x1 + ai2 x2 + . . . + aij xj + . . . + ain xn = bi






 ..



 .
am1 x1 + am2 x2 + . . . + amj xj + . . . + amn xn = bm

Definição 1.3 (Sistema homogéneo) Um SEL diz-se homogéneo se todos os termos


independentes são nulos.

Definição 1.4 (Solução de um SEL & conjunto de solução de um SEL) Solução de um SEL
é toda a atribuição de valores às incógnitas que verifica todas as equações do sistema.
Conjunto de solução (CS) de um SEL é o conjunto formado por todas as soluções do
SEL.

Exemplo 1.1 O SEL (


x + 2y = 3
4x + 5y = 6
admite a solução x = −1, y = 2, pois

1 · (−1) + 2 · 2 = −1 + 4 = 3
4 · (−1) + 5 · 2 = −4 + 10 = 6 .

Já x = 3, y = 0 não é solução deste SEL, uma vez que

1 · 3 + 2 · 0 = 3 mas 4 · 3 + 5 · 0 = 12 , 6 .

Definição 1.5 (Resolução de um SEL) Resolver um SEL é determinar todas as suas


soluções, ou, equivalentemente, o seu conjunto de solução.

Habitualmente, na resolução de um SEL fazemos:


Capı́tulo 1. Sistemas de Equações Lineares e Matrizes 9

(
x + 2y = 3
4x + 5y = 6
(
x = 3 − 2y
⇔ 1º) Resolve-se uma equação em ordem a uma incógnita.
4x + 5y = 6
(
x = 3 − 2y
⇔ 2º) Substitui-se noutra equação.
4(3 − 2y) + 5y = 6
(
x = 3 − 2y
⇔ 3º) Resolve-se esta 2ª equação.
12 − 8y + 5y = 6
(
x = 3 − 2y

−3y = −6
(
x = 3 − 2y

y=2
(
x = 3−2·2
⇔ 4º) Substitui-se na 1ª equação.
y=2
(
x = −1
⇔ 5º) Determina(m)-se a(s) solução(soluções).
y = 2.

Daqui se conclui que o CS deste SEL é {(−1, 2)}.


A esta forma de resolver sistemas chama-se método de substituição. O sı́mbolo “⇔”
assinala que todos estes sistemas têm precisamente as mesmas soluções — dizemos que são
equivalentes.

1.2 Classificação de sistemas de equações lineares


Geometricamente, a solução de um SEL determina interseções entre certos conjuntos de pon-
tos. Concretamente, um SEL com 2 incógnitas pode ser interpretado como a interseção entre
retas em R2 e um SEL com 3 incógnitas pode ser interpretado como a interseção entre planos
em R3 .

Voltando ao SEL do Exemplo 1.1, cada y


uma das duas equações representa, em R2 ,
uma reta: a equação x + 2y = 3 representa b
2
a reta que contém, por exemplo, os pontos
4x + 5y = 6
de coordenadas (−1, 2) e (1, 1) e a equação x + 2y = 3
4x + 5y = 6 representa a reta que contém, por 1 b

exemplo, os pontos de coordenadas (−1, 2) e


( 23 , 0). A solução deste sistema corresponde b

−1 1 3 x
às coordenadas do ponto (único, neste caso, 2
como mostrou a nossa resolução do sistema)
onde as duas retas se encontram.
10 1.2. Classificação de sistemas de equações lineares

Exemplo 1.2 Caso o sistema fosse


(
x + 2y = 3
4x + 8y = 6

vinha
( ( ( (
x + 2y = 3 x = 3 − 2y x = 3 − 2y x = 3 − 2y
⇔ ⇔ ⇔ ,
4x + 8y = 6 4(3 − 2y) + 8y = 6 12 − 8y + 8y = 6 12 = 6

o que é impossı́vel, pelo que o CS deste SEL é o conjunto vazio, ∅. Claro: tanto a
equação x + 2y = 3 como a equação 4x + 8y = 6 representam retas de declive 21 (logo
paralelas), mas com ordenadas na origem distintas (logo estritamente paralelas).
y

3
2
x + 2y = 3
4x + 8y = 6 3
4

Exemplo 1.3 Já para o sistema


(
x + 2y = 3
4x + 8y = 12

temos
( ( ( (
x + 2y = 3 x = 3 − 2y x = 3 − 2y x = 3 − 2y
⇔ ⇔ ⇔ ,
4x + 8y = 12 4(3 − 2y) + 8y = 12 12 − 8y + 8y = 12 12 = 12

o que é sempre verdade. Deste modo, todos os pontos cujas coordenadas sejam da
forma (3−2y, y) pertencem a ambas as retas, correspondendo assim a infinitas soluções
do SEL. Assim, o CS deste SEL é {(3 − 2y, y) : y ∈ R}. De facto, as equações x + 2y = 3 e
4x + 8y = 12 definem a mesma reta — ou, mais rigorosamente, retas coincidentes.

No exemplo anterior, onde escrevemos {(3 − 2y, y) : y ∈ R} podı́amos ter escrito {(3 − 2u, u) : u ∈ R}
ou {(3 − 2λ, λ) : λ ∈ R}, pois a letra escolhida não altera o conjunto. Observar ainda que a letra
escolhida representa uma variável que pode assumir qualquer valor (isto é, qualquer número real)
— chamamos-lhe, por isso, parâmetro.

No que respeita ao conjunto de solução de um SEL, importa distinguir três casos:


Capı́tulo 1. Sistemas de Equações Lineares e Matrizes 11

Definição 1.6 (Classificação de um SEL) Um SEL diz-se:

• impossı́vel (SI) se não admitir qualquer solução;

• possı́vel e determinado (SPD) se admitir uma única solução;

• possı́vel e indeterminado (SPI) se admitir mais que uma solução.

Assim, o SEL do Exemplo 1.1 é um SPD, o SEL do Exemplo 1.2 é um SI e o SEL do


Exemplo 1.3 é um SPI.

Um SEL homogéneo tem sempre, pelo menos, uma solução: a solução nula.

Exatamente as mesmas ideias se aplicam a sistemas com mais equações e/ou mais incóg-
nitas.

Exemplo 1.4 Consideremos o SEL





 2x + y = 1
−3x + 2y = −5



 −x + 3y = −4 ,

que tem 3 equações e 2 incógnitas. Temos:


  


 2x + y = 1 

 y = 1 − 2x 

 —
−3x + 2y = −5 ⇔  −3x + 2(1 − 2x) = −5 ⇔  −3x + 2 − 4x = −5
  

  
 −x + 3y = −4
  —
  —

   


 — 

 y = 1 − 2 · 1 

 y = −1 

 y = −1
⇔ −7x = −7 ⇔  x=1 ⇔ x=1 ⇔ x=1 ,
   
   
 —
  —
  −1 + 3 · (−1) = −4
  −4 = −4

pelo que x = 1, y = −1 é a única solução do SEL. Trata-se, assim, de um SPD. Geometri-


camente, este SEL traduz a interseção entre as retas representadas na figura:
y

2x + y = 1
−3x + 2y = −5
1
x

−1 b

−x + 3y = −4
12 1.2. Classificação de sistemas de equações lineares

Exemplo 1.5 Consideremos agora o SEL





 2x + y = 1
−3x + 2y = −5



 −x + 3y = 4 ,

novamente com 3 equações e 2 incógnitas. É fácil ver que


 


 2x + y = 1 

 y = −1
−3x + 2y = −5 ⇔  x=1
 

 
 −x + 3y = 4
  −4 = 4 ,

pelo que este SEL não tem solução. Trata-se, assim, de um SI. Geometricamente, este
SEL traduz a interseção entre as retas representadas na figura:
y
2x + y = 1

−3x + 2y = −5
−x + 3y = 4
x

Exemplo 1.6 Já no SEL 




 2x + y = 1
−2x − y = −1



 4x + 2y = 2 ,

ainda de 3 equações e 2 incógnitas, obtém-se


  


 2x + y = 1 

 y = 1 − 2x 

 —
−2x − y = −1 ⇔  −2x − (1 − 2x) = −1 ⇔  −2x − 1 + 2x = −1
  

  
 4x + 2y = 2
  —
  —

   


 — 

 — 

 — 

 y = 1 − 2x
⇔ −1 = −1 ⇔ — ⇔ — ⇔ −1 = −1 ,
   
 
 
 

 4x + 2(1 − 2x) = 2
  4x + 2 − 4x = 2
  2=2
  2=2

pelo que x = u, y = 1 − 2u, com u ∈ R, são solução do SEL. Trata-se, assim, de um SPI.
Geometricamente, este SEL traduz a interseção entre 3 retas coincidentes.

Exemplo 1.7 Consideremos o SEL


(
2x + y + z = 4
y − z = 0,
Capı́tulo 1. Sistemas de Equações Lineares e Matrizes 13

agora de 2 equações e 3 incógnitas. Temos


( ( ( (
2x + y + z = 4 2x + y + z = 4 2x + z + z = 4 x = 2−z
⇔ ⇔ ⇔ .
y −z = 0 y=z y=z y=z

Logo, trata-se de um SPI com CS {(2 − z, z, z) : z ∈ R}.

O SEL do exemplo anterior é de um tipo especial, e importante:

Definição 1.7 (Sistema em escada) Um SEL diz-se um sistema em escada se, sempre
que uma incógnita xi é a primeira que aparece numa equação, então as incógnitas
x1 , . . . , xi não aparecem em qualquer nas equações seguintes.

É também o caso dos sistemas





 2x + y + z = 4
y −z = 0



z=2

ou ( (
2x + y + z = 4 y + 2x + z = 4
⇔ ,
x−z = 0 x−z = 0

mas não do sistema 




 2x + y + z = 4
y −z = 0 .



x+z = 2

Exemplo 1.8 Consideremos agora o SEL


(
x+y +z = 1
.
2x + 2y + 2z = 2

Como
( ( ( (
x+y +z = 1 x = 1−y −z — —
⇔ ⇔ ⇔
2x + 2y + 2z = 2 2(1 − y − z) + 2y + 2z = 2 2 − 2y − 2z + 2y + 2z = 2 2=2

trata-se de um SPI com CS {(1 − y − z, y, z) : y, z ∈ R}.

Geometricamente, a solução de um SEL com 3 incógnitas corresponde à interseção entre


os planos definidos por cada uma das equações do SEL. No SEL do Exemplo 1.7, trata-se
de uma reta — a reta de equação vetorial (x, y, z) = (2, 0, 0) + z(−1, 1, 1) (z ∈ R) — e, no SEL
do exemplo anterior, trata-se de um plano — o plano de equação vetorial (x, y, z) = (1, 0, 0) +
y(−1, 1, 0) + z(−1, 0, 1) (y, z ∈ R). Pode, evidentemente, ser também o conjunto vazio.

Definição 1.8 (Grau de indeterminação de um SEL) Chama-se grau de indeterminação


(GI) de um SEL ao número de parâmetros do seu conjunto de solução, quando este é
14 1.3. Método de Gauss

não vazio.

O grau de indeterminação caracteriza o “tamanho” do conjunto de solução — mais adi-


ante ficará mais claro que tamanho é este. Nos exemplos anteriores: o GI do SEL dos Exem-
plos 1.1 e 1.4 é 0, o GI do SEL dos Exemplos 1.3, 1.6 e 1.7 é 1 e o GI do SEL do exemplo
anterior é 2.

As equações lineares representam retas em


R2 e planos em R3 . Os SEL com 2 incógnitas
representam interseções de retas em R2 (tan-
tas retas quantas as equações) e os SEL com 3
incógnitas representam interseções de planos em
R3 (tantos planos quantas as equações).

A tabela abaixo resume a relação entre tipo de SEL, conjunto de solução e grau de indeterminação:

SEL CS GI
SI ∅ –
SPD ponto 0
SPI reta, plano, ... ≥1

1.3 Método de Gauss

O método de substituição é útil para SEL pequenos ou em escada; caso contrário, pode ser
impraticável. O método que vamos introduzir serve para transformar qualquer sistema num
sistema em escada, ao qual a substituição ascendente pode sempre ser aplicada sem incon-
venientes.

Método 1.1 (Método de Gauss ou Método da eliminação ou Método da adição


ordenada) Transformar um SEL num SEL em escada, aplicando, tantas ve-
zes quantas o necessário e pela ordem que se quiser, as seguintes operações:
Ei ↔ Ej Trocar a equação da linha i com a equação da linha j.
Ei → kEi Multiplicar a equação da linha i por uma constante não nula.
Ei → Ei + kEj Substituir a equação da linha i pela própria somada à equação da
linha j, eventualmente multiplicada por uma constante não nula.
Capı́tulo 1. Sistemas de Equações Lineares e Matrizes 15

Definição 1.9 (Operações elementares) Às operações permitidas no Método de Gauss


chamamos operações elementares.

Exemplo 1.9 Consideremos o sistema:


(
3x − 2y = 6
.
x + 2y = 2

O processo fica mais simples se a incógnita x (estamos a tomá-la como a primeira


incógnita da primeira equação) tiver coeficiente 1. Das duas formas mais óbvias para
o conseguir, dividir a equação por 3 ou trocar as duas equações, vamos escolher a
segunda, que não produz denominadores:
( (
3x − 2y = 6 ⇔ x + 2y = 2
E1 ↔E2 .
x + 2y = 2 3x − 2y = 6

Para obter um SEL em escada, resta fazer desaparecer a incógnita x da segunda


equação, o que se consegue subtraindo à segunda equação o triplo da primeira:
( (
x + 2y = 2 ⇔ x + 2y = 2
E2 →E2 −3E1 .
3x − 2y = 6 −8y = 0

Agora, a solução do SEL obtém-se facilmente por substituição ascendente:


( ( (
x + 2y = 2 x+0 = 2 x=2
⇔ ⇔ .
−8y = 0 y=0 y=0

O sistema dado é, portanto, um SPD, com CS {(2, 0)}.

Exemplo 1.10 Consideremos o sistema:





 2x + y + z = 5
4x − 6y = −2 .



 −2x + 7y + 2z = 9

Comecemos por fazer desaparecer a incógnita x na segunda equação, subtraindo-lhe o


dobro da primeira:
 

 2x + y + z = 5 
 2x + y + z = 5
 ⇔ 
4x − 6y = −2 E2 →E2 −2E1  −8y − 2z = −12 .
 

 
 −2x + 7y + 2z = 9
  −2x + 7y + 2z = 9

Em seguida, para fazer desaparecer a incógnita x na terceira equação, somamos-lhe a


primeira:
 

 2x + y + z = 5 
 2x + y + z = 5
 ⇔ 
−8y − 2z = −12 −8y − 2z = −12 .
 

 E 3 →E 3 +E1 

 −2x + 7y + 2z = 9
  8y + 3z = 14

16 1.3. Método de Gauss

Por último, para fazer desaparecer a incógnita y na terceira equação, somamos-lhe a


segunda:  

 2x + y + z = 5 
 2x + y + z = 5
 ⇔ 
−8y − 2z = −12 E3 →E3 +E2  −8y − 2z = −12 .
 

 
 8y + 3z = 14
 
 z = 2
Aplicando ao SEL obtido a substituição ascendente, vem:
  


 2x + y + z = 5 

 2x + y + 2 = 5 

 2x + y = 3
−8y − 2z = −12 ⇔ 
 −8y − 4 = −12 ⇔ 
 −8y = −8 ⇔
  


z = 2 z = 2 z = 2

 
 

  


 2x + 1 = 3 

 2x = 2 

 x = 1
⇔ y = 1 ⇔ y = 1 ⇔ y = 1 .
  
  
z = 2  z = 2  z = 2

  

Trata-se assim um SPD, com CS {(1, 1, 2)}.

Exemplo 1.11 Consideremos agora o sistema:





 u +v +w = 0
2u + 2v + 5w = 6 .



 4u + 4v + 8w = 8

Temos
 

 u +v +w = 0 
 u+v +w = 0

3w = 6 E3 →E⇔3 −4E1
 
2u + 2v + 5w = 6
 

 E2 →E2 −2E1 

 4u + 4v + 8w = 8
  4u + 4v + 8w = 8

 

 u +v +w = 0 
 u +v +w = 0
 ⇔ 
⇔  3w = 6 E3 →E3 − 3 E2  3w = 6 ,
 4

 
4w = 8 0 = 0

 

o qual é um SEL em escada, com CS {(u, −2 − u, 2) : u ∈ R}, uma vez que


( ( (
u +v +w = 0 u +v +2 = 0 v = −2 − u
⇔ ⇔ .
3w = 6 w = 2 w = 2

O exemplo anterior mostra que o Método de Gauss também se aplica a SPI; facilmente se
vê que o mesmo acontece a SI:

Exemplo 1.12 Consideremos então o sistema:





 u +v +w = 0
2u + 2v + 5w = 6 .



 4u + 4v + 8w = 2

Capı́tulo 1. Sistemas de Equações Lineares e Matrizes 17

Temos
 

 u +v +w = 0 
 u+v +w = 0
= 6 E2 →E⇔2 −2E1 3w = 6 E3 →E⇔3 −4E1
 
2u + 2v + 5w
 

 

 4u + 4v + 8w = 2
  4u + 4v + 8w = 2

 
 u +v +w
 = 0  u +v +w = 0

 ⇔ 
⇔ 3w = 6 E3 →E3 − 34 E2  3w = 6 ,
 
 
4w = 2 0 = −6

 

o que é impossı́vel. Trata-se, assim, de um SI.

No processo ilustrado nos exemplos anteriores, o que importa é o que acontece aos coeficientes e
aos termos independentes. Deste modo, e considerando uma certa ordenação nas incógnitas — à
escolha, mas a mesma em todas as equações — não há necessidade de as escrever, mas apenas de
registar a evolução dos coeficientes e dos termos independentes.
Assim, no Exemplo 1.9, bastaria escrever

3 −2 6 ←→ 1 2 2 ←→ 1 2 2
L1 ↔L2 L2 →L2 −3L1
1 2 2 3 −2 6 0 −8 0

para ficarmos a saber que o SEL original era equivalente ao SEL em escada

(
x + 2y = 2
;
−8y = 0

no Exemplo 1.11, bastaria escrever

1 1 1 0 1 1 1 0 1 1 1 0 1 1 1 0
←→ ←→ ←→
2 2 5 6 L2 →L2 −2L1 0 0 3 6 L3 →L3 −4L1 0 0 3 6 L3 →L3 − 43 L2 0 0 3 6
4 4 8 8 4 4 8 8 0 0 4 8 0 0 0 0

para ficarmos a saber que o SEL original era equivalente ao SEL em escada




 u+v +w = 0
3w = 6 .



0=0

Como é óbvio, as operações que podemos fazer às linhas da tabela são exatamente aquelas que
podemos fazer às equações, ou seja, as operações elementares. Quanto à linha vertical que separa a
última coluna das restantes, é útil para uma melhor compreensão e visualização do processo.
18 1.3. Método de Gauss

Definição 1.10 (Matriz dos coeficientes & matriz ampliada) Dado um SEL



 a11 x1 + a12 x2 + . . . + a1n xn = b1


 a21 x1 + a22 x2 + . . . + a2n xn = b2
,

 ..
.




am1 x1 + am2 x2 + . . . + amn xn = bm

chamamos matriz dos coeficientes à tabela


 
 a11 a12 ... a1n 
 a21 a22 ... a2n 
 
 .. .. .. .. 
 
 .
 . . . 
am1 am2 . . . amn

e chamamos matriz ampliada à tabela


 
 a11 a12 ... a1n b1 
 a21 a22 ... a2n b2
 

 .
 .. .. .. .. ..

.

 . . . . 
 
am1 am2 . . . amn bm

A matriz dos coeficientes de um SEL tem tantas linhas quantas as equações do sistema e tantas
colunas quantas as incógnitas; a matriz ampliada tem o mesmo número de linhas e mais uma
coluna que a matriz dos coeficientes.

Exemplo 1.13 Consideremos o sistema





 x1 + 3x2 − 2x3 + 2x5 = 0

 2x1 + 6x2 − 5x3 − 2x4 + 4x5 − 3x6 = −1
.

5x3 + 10x4 + 15x6 = 5





 2x1 + 6x2 + 8x4 + 4x5 + 18x6 = 6

A matriz dos coeficientes deste SEL é


 
1 3 −2 0 2 0
2 6 −5 −2 4 −3
 
 
0 0 5 10 0 15

2 6 0 8 4 18

(atenção aos coeficientes nulos!) e a matriz ampliada é


 
 1 3 −2 0 2 0 0 
 2 6 −5 −2 4 −3 −1 
 
 .
 0 0 5 10 0 15 5 

2 6 0 8 4 18 6

Capı́tulo 1. Sistemas de Equações Lineares e Matrizes 19

Para resolvermos o sistema, aplicamos o método de Gauss à matriz ampliada:


   
 1 3 −2 0 2 0 0   1 3 −2 0 2 0 0 
 2 6 −5 −2 4 −3 −1  L →L
  ←→  0

0 −1 −2 0 −3 −1 

  2 2 −2L1   ←→
 0 0 5 10 0 15 5  L 4 →L 4 −2L 1  0 0 5 10 0 15 5 
 
2 6 0 8 4 18 6 0 0 4 8 0 18 6
 
   
 1 3 −2 0 2 0 0   1 3 −2 0 2 0 0 
 0 0

1 2 0 3 1  L →L
 ←→ 
0 0 1 2 0 3 1 

←→
3 −5L2  ←→

L2 →−L2 
 0 0  3 
 5 10 0 15 5  L4 →L4 −4L2 
 0 0 0 0 0 0 0 
0 0 4 8 0 18 6 0 0 0 0 0 6 2
  
 
 1 3 −2 0 2 0 0 
 0 0 1 2 0 3 1 
 
←→
L3 ↔L4 
 0 0

 0 0 0 6 2 
0 0 0 0 0 0 0

Determinado um sistema em escada equivalente ao sistema dado, determina-se o CS


deste por substituição ascendente:
 
x + 3x2 − 2x3 + 2x5 = 0 x1 + 3x2 − 2x3 + 2x5 = 0
 1

 

1
 
x3 + 2x4 + 3x6 = 1 ⇔  x3 + 2x4 + 3 3 = 1 ⇔



 6x = 2 x6 = 31
 

6
 

 x1 + 3x2 − 2x3 + 2x5 = 0 
 x1 = −3x2 + 2x3 − 2x5
x4 = − 21 x3
 
⇔ x3 + 2x4 = 0 ⇔
 
 1

x = x6 = 31

 

6 3

O CS é assim
{(−3x2 + 2x3 − 2x5 , x2 , x3 , − 12 x3 , x5 , 13 ) : x2 , x3 , x5 ∈ R} .
Trata-se pois de um SPI com GI igual a 3.

A este processo de resolver um SEL chamamos eliminação de Gauss.


Um vez obtida uma matriz correspondente a um sistema em escada, podemos, em alter-
nativa à substituição ascendente, aplicar novamente as operações elementares — mas, agora,
de baixo para cima — para obter um sistema com o número mı́nimo de incógnitas por linha.
Mais precisamente, aplicamos operações elementares de modo a que todas as entradas que
sejam a primeira entrada não nula da sua linha sejam iguais a 1 e sejam a única não nula da
sua coluna. A esta outra forma de resolver um SEL chamamos eliminação de Gauss–Jordan.

   
 1 3 −2 0 2 0 0   1 3 −2 0 2 0 0 
←→
 0 0 1 2 0 3 1 0 0 1 2 0 3 1  ←→
   
 L3 → 1 L3 
6
1
   
0 0 0 0 0 6 2 0 0 0 0 0 1 3
   
 1 3 −2 0 2 0 0   1 3 0 4 2 0 0 
←→  0 0 ←→
1 2 0 0 0  L1 →L  0 0 1 2 0 0 0  ,
   
L2 →L2 −3L3 1 +2L2
1  1
  
0 0 0 0 0 1 3 0 0 0 0 0 1 3
20 1.3. Método de Gauss

matriz à qual corresponde o sistema


 

 x1 + 3x2 + 4x4 + 2x5 = 0 
 x1 = −3x2 − 4x4 − 2x5
 x4 = − 12 x3
 
x + 2x = 0 ⇔ .
 

 3 4
1

1
 x = 3 x6 = 3
 

6

Como vemos, a resolução de sistemas pode ser sistematizada recorrendo ao Método de


Gauss, e a sua escrita simplificada recorrendo a tabelas construı́das à custa dos coeficientes
do sistema. Estas tabelas dão-nos uma representação alternativa para sistemas de equações
lineares:
Definição 1.11 (Representação matricial de um SEL) Dado um SEL



 a11 x1 + a12 x2 + . . . + a1n xn = b1



 a21 x1 + a22 x2 + . . . + a2n xn = b2
 ..
.




am1 x1 + am2 x2 + . . . + amn xn = bm ,

a sua representação matricial é

x1   b1 
     
 a11 a12 ... a1n  x   
 a21 a22

... a2n 
  2   b 
   2 
 ..

.. .. .. 
  .  =  .  .
 . .  .   . 
 . .   .   . 
   
am1 am2 . . . amn bm
  
xn

Para recuperar a equação i do sistema, basta multiplicar, entrada a entrada, a linha i da matriz
dos coeficientes pela matriz das incógnitas
 
x1 
i x2 
 
h
ai1 ai2 . . . ain  .  = ai1 x1 + ai2 x2 + . . . + aij xj + . . . + ain xn
 .. 
 
xn

— ou seja, calcular o produto interno entre os vetores (ai1 , ai2 , . . . , ain ) e (x1 , x2 , . . . , xn ) de Rn — e
igualar o resultado à linha (ou entrada) i da matriz dos termos independentes:

ai1 x1 + ai2 x2 + . . . + aij xj + . . . + ain xn = bi .

O Método de Gauss é um processo que transforma um SEL (equivalentemente, a matriz ampliada


de um SEL) num SEL em escada (equivalentemente, numa matriz correspondente a um SEL em
escada). As transformações permitidas são as que resultam das operações elementares. Usa-se para
simplificar a resolução destes sistemas e pode ser seguido a) do método da substituição ascendente
ou b) novas operações elementares que simplifiquem ainda mais a matriz e, assim, a determinação
da solução do SEL.
Capı́tulo 1. Sistemas de Equações Lineares e Matrizes 21

A estratégia introduzida para resolver sistemas de equações lineares conduziu-nos a uns


objetos matemáticos aos quais chamámos matrizes. O resto do capı́tulo, e boa parte do pro-
grama, é dedicada ao estudo destes objetos e da sua relação, não só com sistemas, como
também com diversos outros assuntos.

1.4 Noção de matriz; Operações com matrizes

Definição 1.12 (Matriz; entrada de uma matriz; Rm×n ) Chamamos matriz de tipo m × n
(lê-se “m por n”), onde m, n ∈ N, a uma tabela com m linhas e n colunas, a qual se
representa por
   
 a11 a12 ... a1n   a11 a12 ... a1n 
 a21 a22 ... a2n   a21 a22 ... a2n 
   
 ..

.. .. .. 
 ou  ..

.. .. ..  .

 .
 . . .   .
 . . . 
am1 am2 . . . amn am1 am2 . . . amn
 

Aos elementos da matriz chamamos entradas. Se todas as entradas da matriz são


números reais, a matriz diz-se real; se são números complexos, a matriz diz-se com-
plexa.
O conjunto de todas as matrizes reais de tipo m × n representa-se por Rm×n , Rm,n ou
Mm×n (R) (e analogamente para o conjunto de todas as matrizes complexas de tipo
m × n).

Habitualmente, as matrizes representam-se por letras maiúsculas do nosso alfabeto e


as entradas por letras minúsculas. Abreviadamente, escrevemos A = [aij ]i=1,...,m ou A =
j=1,...,n
(aij )i=1,...,m , ou apenas A = [aij ] ou A = (aij ), quando o tipo estiver subentendido ou não
j=1,...,n
for relevante.

Tal como fixámos a propósito dos SEL, o ı́ndice duplo em aij tem sempre a seguinte interpretação:
linha i, coluna j.

Definição 1.13 (Matriz linha & matriz coluna) A uma matriz de tipo 1 × n,
h i
a11 a12 . . . a1n ,

chamamos matriz linha; a uma matriz de tipo m × 1,


 
 a11 
 a21 
 
 ..  ,
 
 . 
 
am1

chamamos matriz coluna.

Evidentemente, matrizes linha e matrizes coluna são outra forma de representar vetores
22 1.4. Noção de matriz; Operações com matrizes

— e uma matriz m×n é uma forma de representar um conjunto de vetores. Aliás, uma matriz
m×n pode ser vista como um conjunto de m vetores de Rn ou como um conjunto de n vetores
de Rm , consoante a interpretarmos por linhas ou por colunas. A interligação entre vetores e
matrizes vai ser uma constante em todo o curso.
A começar pelas operações entre matrizes. Tal como é possı́vel somar vetores (desde que
estes tenham a mesma dimensão) e multiplicar um vetor por um escalar, o mesmo sucede às
matrizes — e de forma inteiramente análoga:

Definição 1.14 (Soma de matrizes) Se A = [aij ] e B = [bij ] são duas matrizes m × n,


então A + B é a matriz m × n
 
 a11 + b11 a12 + b12 ... a1n + b1n 
 a21 + b21 a22 + b22 ... a2n + b2n 
 
A + B =  .. .. .. ..
 .
.


 . . . 

am1 + bm1 am2 + bm2 . . . amn + bmn

Definição 1.15 (Produto de uma matriz por um escalar) Se A = [aij ] é uma matriz m × n
e k um número real, então kA é a matriz m × n
 
 ka11 ka12 ... ka1n 
 ka21 ka22 ... ka2n 
 
kA =  . .. .. ..  .

 .. . . . 

kam1 kam2 . . . kamn

Exemplo 1.14 Sejam


   
1 2 −1 0
A = 3 4 e B = −3 0 .
   
5 6 −5 7
   

Então      
0 2   4 8   −5 −10
A + B = 0 4  , 4A = 12 16 , −5A = −15 −20
     
0 13 20 24 −25 −30
     

e      
 4 8  1 0   5 8 
4A − B = 12 16 + 3 0  = 15 16 .
     
20 24 5 −7 25 17
     

Sem surpresa, as propriedades das operações com matrizes imitam as propriedades das
operações com vetores:

Teorema 1.1 (Propriedades da soma de matrizes e do produto por um escalar) Sejam


A, B e C matrizes de tipo m × n e k, l ∈ R. Então:

1. Propriedade comutativa da soma: A + B = B + A.

2. Propriedade associativa da soma: (A + B) + C = A + (B + C).


Capı́tulo 1. Sistemas de Equações Lineares e Matrizes 23

3. Existência de elemento neutro para a soma: A+O = O+A = A, onde O é a matriz


m × n cujas entradas são todas nulas.

4. Existência de simétrico: A + (−A) = O.

5. Propriedade distributiva da multiplicação relativamente à soma (de matrizes):


k(A + B) = kA + kB.

6. Propriedade distributiva da soma (de números reais) relativamente à


multiplicação: (k + l)A = kA + lA.

7. k(lA) = (kl)A.

8. 1A = A.

9. 0A = O.

Definição 1.16 (Matriz nula) Chamamos matriz nula (de tipo m × n) à matriz cujas
entradas são todas nulas.

Como vimos a seguir à Definição 1.11, para recuperar um SEL a partir da sua representação
matricial há que multiplicar cada linha da matriz dos coeficientes pela matriz (coluna) das
incógnitas. Mais geralmente,

Definição 1.17 (Produto de matrizes) Se A = [aij ] é uma matriz m × n e B = [bij ] é uma


matriz n × p, então AB é a matriz m × p que tem, na entrada ij, o produto da linha i da
matriz A pela coluna j da matriz B, entrada a entrada:
 
 a11 a12 ... a1n 
 a21 a22

... a2n  b11 b12
  .. 
. . . b1j . . . b1p  

. 
 .. .. ..  b

..
 
 . . . .   21 b22 . . . b2j . . . b2p  
  .. 
.

AB =   = 
. . . ain   ... .. .. . .. .
 
. .. ..  . . . . . . . . . c

 ai1 ai2 . .
 
ij . . .

 .. .. .. ..  b
    
 . . . .  n1 bn2 . . . bnj . . . bnp  .. 
.


am1 am2 . . . amn

com
cij = ai1 b1j + ai2 b2j + . . . + ain bnj .

Tal como não é possı́vel somar duas matrizes quaisquer, também não é possı́vel multiplicar duas
matrizes quaisquer: como se vê na definição desta operação, é preciso que o número de colunas da
matriz à esquerda seja igual ao número de linhas da matriz à direita. Deste modo, esta operação
não vai, garantidamente, ser comutativa — de facto, o produto AB pode estar definido sem que BA
esteja.
24 1.4. Noção de matriz; Operações com matrizes

Exemplo 1.15 Sejam


   
1 2 " #  0 1 −1
1 1 2
A = 3 4 , B = e C = −2 0 2  .
   
9 9 1
5 6 3 −3 3
   

Como A é de tipo 3 × 2, B é de tipo 2 × 3 e C é de tipo 3 × 3, os produtos que estão


definidos são: AB, BA, BC, CA e CC. Temos:
   
1 2 " # 19 19 4 
 1 1 2  
AB = 3 4 = 39 39 10 (matriz tipo 3 × 3) ,
 
 9 9 1
5 6 59 59 16
  
 
" # 1 2 " #
1 1 2   14 18
BA = 3 4 =  (matriz tipo 2 × 2) ,
9 9 1   41 60
5 6
 
" # 0 1 −1 " #
1 1 2   4 −5 7
BC = −2 0 2  = (matriz tipo 2 × 3) ,

 
9 9 1  −15 6 12
3 −3 3

    
 0 1 −1 1 2 −2 −2
CA = −2 0 2  3 4 =  8 8  (matriz tipo 3 × 2) ,
    
3 −3 3 5 6 9 12
    
    
 0 1 −1  0 1 −1 −5 3 −1
CC = −2 0 2  −2 0 2  =  6 −8 8  (matriz tipo 3 × 3) .
    
3 −3 3 3 −3 3 15 −6 0
    

Como habitualmente noutros contextos, escrevemos A2 em vez de AA. Observar que, para que
este produto esteja definido, A tem que ter tantas linhas quantas as colunas, ou seja, tem que ser
de tipo n × n. Mais geralmente, dado n ∈ N, definimos

(
n A, se n = 1
A =
An−1 A, se n > 1 .

Para enunciarmos as propriedades das operações envolvendo produto de matrizes preci-


samos da seguinte noção:

Definição 1.18 (Matriz identidade) Chamamos matriz identidade de ordem n à matriz


n × n com (
1, se i = j
aij = .
0, se i , j
Capı́tulo 1. Sistemas de Equações Lineares e Matrizes 25

Representa-se por In .
1 0 0 ... 0
 
0 1 0 ... 0
 

In = 0 0 1 ... 0


 
 .. .. .. . . .. 
 .
 . . . . 
0 0 0 ... 1

Teorema 1.2 (Propriedades envolvendo produto de matrizes) Sejam A, B e C matrizes


(tais que os produtos indicados estão definidos) e k, l ∈ R. Então:

1. Propriedade associativa: (AB)C = A(BC).

2. Existência de elemento absorvente: AO = O, OA = O, onde O é qualquer matriz


nula de tipo apropriado.

3. Existência de elemento neutro: Sendo A de tipo m × n, Im A = A e AIn = A.

4. Propriedade distributiva do produto relativamente à soma (de matrizes): A(B +


C) = AB + AC e (A + B)C = AC + BC.

5. (kA)B = A(kB) = k(AB).

Mas, como vimos a propósito a resolução de sistemas de equações lineares através da


respetiva matriz ampliada, há outro tipo de operações que importa considerar quando tra-
balhamos com matrizes:
Definição 1.19 (Operações elementares em matrizes) Dada uma matriz (de um tipo
qualquer), chamamos operações elementares em linhas às operações:

Li ↔ Lj trocar as linhas i e j da matriz;


Li → kLi multiplicar a linha i da matriz por uma constante k , 0;
Li → Li + kLj substituir a linha i da matriz pela própria somada à linha j,
eventualmente multiplicada por uma constante;

e chamamos operações elementares em colunas às operações Ci ↔ Cj , Ci → kCi e


Ci → Ci + kCj que se definem de forma análoga relativamente às colunas da matriz.

Definição 1.20 (Matrizes equivalentes) As matrizes A e B dizem-se matrizes equiva-


lentes por linhas (respetivamente, por colunas) se for possı́vel obter A a partir de B
usando operações elementares em linhas (respetivamente, em colunas). As matrizes
A e B dizem-se matrizes equivalentes se for possı́vel obter A a partir de B usando
operações elementares em linhas e/ou colunas.

É claro que, se for possı́vel obter A a partir de B usando operações elementares em linhas/colunas,
então também é possı́vel obter B a partir de A usando operações elementares em linhas/colunas.
26 1.5. Mais alguma terminologia

1.5 Mais alguma terminologia

Definição 1.21 (Matriz quadrada) Chamamos matriz quadrada (de ordem n) a uma
matriz de tipo n × n.

Definição 1.22 (Diagonal principal & traço) Dada matriz quadrada A (de tipo n × n),
chamamos diagonal principal à sequência (a11 , a22 , . . . , ann )

a11 a12 . . . a1n


a21 a22 . . . a2n
.. .. .. .
. . . ..
an1 an2 . . . ann

e chamamos traço da matriz à sua soma:

tr (A) = a11 + a22 + . . . + ann .

Definição 1.23 (Matriz diagonal) Uma matriz quadrada diz-se diagonal se todos os
elementos fora da diagonal principal são nulos.

Exemplo 1.16 Qualquer uma das matrizes


   
h i 2
" # 2 0 0 1 0 0
0
2 , , 0 1 0 e 0 0 0
   
0 −4    
0 0 3 0 0 3

é uma matriz diagonal.

Na secção 1.3 anterior, usámos as operações elementares (em linhas) para transformar a
matriz ampliada do SEL original numa matriz que correspondesse a um sistema em escada.
O conceito de sistema em escada transporta-se naturalmente para matrizes:

Definição 1.24 (Matriz em escada) Matriz em escada ou matriz escalonada por linhas
é uma matriz em que:

• se, numa determinada linha, a primeira entrada não nula é a da coluna j, então
todas as linhas seguintes têm pelo menos as j primeiras entradas nulas;

• se houver linhas nulas, elas ocorrem depois das linhas não nulas.
Capı́tulo 1. Sistemas de Equações Lineares e Matrizes 27

Exemplo 1.17 São matrizes em escada as matrizes


   
" # " # " # 1 0 0 2 1 0
2 1 2 1 3 0 1 0 2 0 e 0 0 3
, , ,
0 −1 0 0 0 1 2    
0 0 3 0 0 0
   

e não são matrizes em escada as matrizes


 
" # " # " # 2 1 0
2 1 0 1 1 0 1 2
, , e 0 0 3 .
 
−1 0 0 2 3 3 0 1
0 0 4
 

A matriz  
1 0 0
0 0 0
 
 
0 0 3
é uma matriz diagonal, mas não é uma matriz em escada.

Definição 1.25 (Matriz triangular superior & matriz triangular inferior) Uma matriz
quadrada A = [aij ] diz-se triangular superior se aij = 0 para todo i > j e diz-se triangu-
lar inferior se aij = 0 para todo i < j.

Uma matriz triangular superior (respetivamente, inferior) é uma matriz em que todas as entradas
abaixo (respetivamente, acima) da diagonal principal são nulas. Nos esquemas abaixo, as entradas
∗ podem conter qualquer número real (incluindo 0):

   
 ∗ ∗ . . . ∗ ∗ 0 . . . 0
 . . . . .. 
0 ∗ . . . ∗
 
 . . . . . 
 .
 .. . . . . .. 
 
. . . 
 
 .

∗ . . .
 ∗ 0
0 ... 0 ∗ ∗ ... ∗ ∗
 

matriz triangular superior matriz triangular inferior

Todas as matrizes triangular superior são matrizes em escada. Uma matriz que seja, simultanea-
mente, triangular superior e triangular inferior é uma matriz diagonal.

Exemplo 1.18 Consideremos as matrizes


       
1 2 3 2 1 0 3 0 0 1 0 0
A = 0 4 5 , B = 0 0 3 , C = 0 1 0 , D = 0 2 0 .
       
0 0 6 0 0 4 0 1 2 0 0 3
       

Então: A, B e D são matrizes triangular superior; C e D são matrizes triangular inferior.


28 1.6. Condensação de matrizes

Definição 1.26 (Matriz escalar) Uma matriz A = [aij ] quadrada de ordem n diz-se
escalar se A = k In para algum k ∈ R.

Uma matriz escalar é, em particular, uma matriz diagonal.

Exemplo 1.19 São matrizes escalar as matrizes


 
" # π 0 0 
h i 3 0
2 = 2 I1 , = 3 I2 e  0 π 0  = π I3 .
 
0 3
0 0 π
 

1.6 Condensação de matrizes

Definição 1.27 (Condensação superior de uma matriz) Ao processo de efetuar


operações elementares em linhas e/ou colunas para a transformar numa matriz em
escada chama-se condensação superior.

Quando a matriz ampliada de um SEL já se encontra em escada, não só é mais fácil
determinar a solução deste, como é imediato classificá-lo. Abaixo, os ∗ representam entradas
não nulas.

• Caso a matriz ampliada seja da forma


 
 
0 ∗
 
 
0 0 ∗
 
  ,
 
.
0 0 0 ..
 
 
 
0 0 0 ... ∗

tem-se um SPD. Reparar que tal só é possı́vel se a matriz dos coeficientes for quadradra,
ou seja, se o SEL tem tantas equações quantas as incógnitas. De facto, sempre que
a matriz ampliada tenha a forma indicada, a substituição ascendente vai calculando
uma incógnita à vez, até todas estarem determinadas. Alternativamente, aplicando
as operações elementares de baixo para cima, vamos conseguir obter, na matriz dos
coeficientes, uma matriz com uma e uma só entrada não nula em cada linha e em cada
coluna, o que corresponde a um SEL que tem, evidentemente, uma única solução:



 x1 = b̃1
x2 = b̃2



.

 ..
.





 xn = b̃n
Capı́tulo 1. Sistemas de Equações Lineares e Matrizes 29

• Caso a matriz ampliada seja da forma


 
 ∗ 
0 ∗
 
 
 

 0 0 ∗ 

.
0 0 0 ..
 
 
 

 0 0 0 ... ∗ 

0 0 0 ... 0 0 0
 

temos um sistema com mais incógnitas do que equações, pelo que nunca poderia ter
uma única solução. No entanto, também não é um SI, pois vai ser possı́vel determinar
relações entre as incógnitas que nos conduzirão a um CS não vazio. Trata-se, assim, de
um SPI. Mais ainda, a diferença entre o número de colunas da matriz dos coeficientes
(ou seja, o número de incógnitas) e o número de linhas não nulas dar-nos-á o grau de
indeterminação do sistema.

• Caso a matriz ampliada seja da forma


 
 ∗ 
0 ∗
 
 
 

 0 0 ∗ 

.
0 0 0 ..
 
 
 

 0 0 0 ... ∗ 

0 0 0 ... 0 0 ∗
 

temos um sistema contendo a equação 0 = b̃n , 0, e portanto impossı́vel.

A conclusão quanto à classificação do sistema irá resultar, assim, da comparação entre o


número de incógnitas, o número de ∗ da matriz dos coeficientes e o número de ∗ da matriz
ampliada.

Definição 1.28 (Pivot) Dada uma matriz em escada, os seus pivots são o primeiro
elemento não nulo de cada linha (não nula) da matriz.

Exemplo 1.20 Consideremos as matrizes (em escada)


   
" # " # " # 2 1 0 1 0 0
2 1 2 1 3 0 1
A= , B= ,C= , D = 0 0 3 e E = 0 2 0 .
   
0 −1 0 0 0 1 2
0 0 0 0 0 3
   

Os pivots de A são 2 e −1; o (único) pivot de B é 2; os pivots de C são 3 e 1; os pivots


de D são 2 e 3; os pivots de E são 1, 2 e 3.
Quanto às matrizes
 
" # " # " # 2 1 0
2 1 0 1 1 0 1 2
, , e 0 0 3 ,
 
−1 0 0 2 3 3 0 1
0 0 4
 
30 1.6. Condensação de matrizes

não faz sentido falar em pivot, pois não são matrizes em escada.

É possı́vel provar que, se A0 e A00 são duas matrizes equivalentes a uma mesma matriz A, então A0
e A00 têm o mesmo número de pivots. Deste modo, faz sentido considerar a seguinte definição:

Definição 1.29 (Caracterı́stica de uma matriz) Dada uma matriz A (qualquer), chama-
mos caracterı́stica de A ao número de pivots de uma matriz em escada equivalente a
A. Representa-se por r(A).

A notação r(A) é a que se usa na literatura em lı́ngua inglesa (o sı́mbolo r vem de “rank”), mas
não é universal — nomeadamente em textos em português, a notação c(A) é bastante comum. Não
a adotaremos para não causar confusão com a notação C(A), que irá ser introduzida mais à frente.

Pelo que vimos anteriormente,

Teorema 1.3 (Classificação de um SEL usando a caracterı́stica) Sejam A a matriz dos


coeficientes, B a matriz dos termos independentes e A | B a matriz ampliada de um
sistema com n incógnitas. Então o sistema é um

• SPD sse r(A) = r(A | B) = n;

• SPI sse r(A) = r(A | B) = p < n (com GI n − p);

• SI sse r(A) , r(A | B).

Quando apenas estamos interessados em determinar a caracterı́stica de uma matriz, podemos


recorrer livremente às operações elementares em linhas e em colunas — como referimos atrás,
matrizes equivalentes têm sempre o mesmo número de pivots e, portanto, igual caracterı́stica. No
entanto, no estudo de SEL, não se recorrem a operações elementares em colunas pois tal exigiria
uma interpretação do resultado que nem sempre é evidente.

Exemplo 1.21 Consideremos o sistema





 2x + y + z = 1
−x + y + z = −1 .



 −3x + 2y − z = −2

Transformando a matriz ampliada do sistema a uma matriz em escada,

2 1 1 1 −1 1 1 −1 1 −1 −1 1
←→ ←→ ←→
−1 1 1 −1 L1 ↔L2 2 1 1 1 L1 →−L1 2 1 1 1
−3 2 −1 −2 −3 2 −1 −2 −3 2 −1 −2
Capı́tulo 1. Sistemas de Equações Lineares e Matrizes 31

←→
1 −1 −1 1 1 −1 −1 1
L2 →L2 −2L1 ←→ ←→
0 3 3 −1 L2 ↔L3 0 −1 −4 1
L3 →L3 +3L1
0 −1 −4 1 0 3 3 −1
1 −1 −1 1 1 −1 −1 1
←→ ←→
L2 →−L2 0 1 4 −1 L3 →L3 −3L2 0 1 4 −1 ,
0 3 3 −1 0 0 −9 2

observa-se que r(A) = r(A | B) = 3, que é o número de incógnitas do sistema, pelo que se
trata de um SPD. De facto, aplicando à matriz obtida operações elementares em linhas
(agora de baixo para cima), vem

1 −1 −1 1 1 −1 −1 1
←→
0 1 4 −1 L3 →− 19 L3 0 1 4 −1 ↔
0 0 −9 2 0 0 1 − 29
7 2
←→
1 −1 0 9 1 0 0 3
←→
L2 →L2 −4L3 0 1 0 − 19 L1 →L1 +L2 0 1 0 − 19 ,
L1 →L1 +L3
0 0 1 − 29 0 0 1 − 29

o que corresponde ao SEL


x = 23



y = − 19 .




 z = −2

9

Logo, a solução (única) do sistema é x = 23 , y = − 91 , z = − 29 .

Definição 1.30 (Matriz reduzida) A uma matriz em escada em que os pivots

• são todos iguais a 1 e

• são a única entrada não nula da respetiva coluna

chamamos matriz reduzida.

A segunda sequência de operações elementares (de baixo para cima) que levámos a cabo, por
exemplo, no exemplo anterior, tem como objetivo transformar a matriz ampliada numa matriz
reduzida, a partir da qual é muito fácil extrair a solução do sistema.

Exemplo 1.22 Consideremos o sistema





 2x + y + z = 1
−x + y + z = −1 .



 x + 2y + 2z = 0

32 1.6. Condensação de matrizes

Reduzindo a matriz ampliada do sistema a uma matriz em escada,

2 1 1 1 −1 1 1 −1 1 −1 −1 1
←→ ←→
−1 1 1 −1 L1 ↔L2 2 1 1 1 L1 →−L1 2 1 1 1 ↔
1 2 2 0 1 2 2 0 1 2 2 0
←→
1 −1 −1 1 1 −1 −1 1
L2 →L2 −2L1 ←→
0 3 3 −1 L3 →L3 −L2 0 3 3 −1 ,
L3 →L3 −L1
0 3 3 −1 0 0 0 0

vemos que r(A) = r(A | B) = 2 < 3, que é o número de incógnitas do sistema, pelo que
se trata de um SPI com GI 3 − 2, ou seja, 1. De facto, ignorando a última linha, que
é irrelevante, e aplicando à matriz obtida operações elementares em linhas (de baixo
para cima), vem
2
1 −1 −1 1 ←→ 1 −1 −1 1 ←→ 1 0 0 3
L2 ↔ 13 L2 L1 →L1 +L2 1 ,
0 3 3 −1 0 1 1 − 13 0 1 1 −3

que é a matriz ampliada do sistema

x = 23 x = 23
( (
1 ⇔ .
y + z = −3 z = − 13 − y

Logo, o CS do sistema é {( 32 , y, − 13 − y) : y ∈ R}, o qual confirma tratar-se de um SPI com


GI 1.

Exemplo 1.23 Consideremos o sistema





 x+y +z = 4
2x + 3y + 4z = 13 .



 3x + 4y + 5z = 0

Transformando a matriz ampliada do sistema a uma matriz em escada,

1 1 1 4 ←→
1 1 1 4 1 1 1 4
L2 →L2 −2L1 ←→
2 3 4 13 0 1 2 5 L3 →L3 −L2 0 1 2 5 ,
L3 →L3 −3L1
3 4 5 0 0 1 2 −12 0 0 0 −17

vemos que r(A) = 2 , 3 = r(A | B) (observar que −17 é um pivot da matriz ampliada,
mas não da matriz dos coeficientes), pelo que este é um SI.

Exemplo 1.24 Consideremos o seguinte sistema





 x + 2y − 3z = 4
3x − y + 5z = 2 ,



 4x + y + (a2 − 14)z = a + 2

onde a é um número real. Vejamos de que forma o valor de a determina o tipo de


sistema.
Capı́tulo 1. Sistemas de Equações Lineares e Matrizes 33

Transformando a matriz ampliada do sistema a uma matriz em escada,

1 2 −3 4 ←→
1 2 −3 4
3 −1 5 2 L2 →L2 −3L1 0 −7 14 −10
L3 →L3 −4L1
4 1 a2 − 14 a + 2 0 −7 a2 − 2 a − 14
1 2 −3 4
←→
L3 →L3 −L2 0 −7 14 −10 ,
0 0 a2 − 16 a − 4

concluı́mos que:

• caso a2 − 16 = 0 e a − 4 , 0, ou seja, caso a = −4, temos r(A) = 2 , 3 = r(A | B), pelo


que o sistema será impossı́vel;

• caso a2 − 16 = 0 e a − 4 = 0, ou seja, caso a = 4, temos r(A) = 2 = r(A | B) < 3, que


é o número de incógnitas, pelo que o sistema será possı́vel e indeterminado, com
GI 1;

• nos restantes casos, ou seja, para a , −4 e a , 4, teremos um sistema possı́vel e


determinado.

À análise feita no exemplo anterior chamamos discussão do sistema em função dos


parâmetros.

Como alternativa ao método da substituição para resolver SEL, temos duas possibilidades:
• Método de Gauss (ou Método da Eliminação de Gauss): aplicação de operações elementares
em linhas para transformar a matriz ampliada do sistema numa matriz em escada, após o
que se recorre à substituição ascendente para determinar o CS do sistema;
• Método de Gauss–Jordan (ou Método da Eliminação de Gauss–Jordan): aplicação de operações
elementares em linhas para transformar a matriz ampliada do sistema numa matriz em es-
cada e, em seguida, nova aplicação de operações elementares em linhas para transformar esta
numa matriz reduzida.
A noção de caracterı́stica de uma matriz permite caracterizar completamente um sistema sem
ter que o resolver.

1.7 Matriz inversa


Uma propriedade importante do produto entre números reais é a existência de inverso, que
se verifica para todos os números não nulos: se x é um número real não nulo, então 1x também
é um número real e x 1x = 1x x = 1.
Para matrizes, é fácil ver que só poderá existir B tal que AB = BA = In se A for uma matriz
quadrada. Mas nem para essas vai sempre existir tal matriz. Vejamos o caso das matrizes
2 × 2. Seja " #
a b
A= ,
c d
34 1.7. Matriz inversa

e vejamos se existe uma matriz B tal que AB = BA = I2 . Se existir, terá que ser de tipo 2 × 2,
digamos " #
x y
B= .
z w
Ora,

" #" # 

 " # " # ax + bz = 1
a b x y ax + bz ay + bw 1 0 
 ay + bw = 0
AB = I2 ⇔ = I2 ⇔ = ⇔ .

c d z w cx + dz cy + dw 0 1 

 cx + dz = 0

 cy + dw = 1

Tratando-se de um SEL (nas incógnitas x, y, z e w), podemos aplicar a resolução através de


matrizes:

a 0 b 0 1 a 0 b 0 1 a 0 b 0 1
0 a 0 b 0 ←→ 0 a 0 b 0 ←→ 0 a 0 b 0
L3 →L3 − ac L1 L4 →L4 − ac L2 bc
c 0 d 0 0 0 0 d − bc
a 0 − ac 0 0 d− a 0 − ac
0 c 0 d 1 0 c 0 d 1 0 0 0 d − bc
a 1

Assim, o sistema é um SPD sse a , 0 e d − bc a , 0. Aliás, nem é preciso exigir que a = 0: se


fosse esse o caso, começarı́amos por trocar as linhas L1 e L3 e as linhas L2 e L4 ; a matriz assim
resultante só não teria caracterı́stica 4 caso b = 0 ou c = 0, o que implicaria que ad − bc = 0.
Para determinar a solução (única) para o caso em que ad − bc , 0, vamos reduzir a matriz:

a 0 b 0 1 a 0 b 0 1
0 a 0 b 0 ←→
1
0 a 0 b 0
ad−bc L4 → ad−bc L4 ↔
0 0 a 0 − ac a 0 0 ad−bc
a 0 − ac
ad−bc a
0 0 0 a 1 0 0 0 1 ad−bc
a 0 b 0 1 a 0 b 0 1
←→ 0 a 0 b 0 −ab
1 ←→ 0 a 0 0 ad−bc
L3 → ad−bc L3 −c L2 →L2 −bL4 −c ↔
a 0 0 1 0 ad−bc 0 0 1 0 ad−bc
a a
0 0 0 1 ad−bc 0 0 0 1 ad−bc
ad d
a 0 0 0 ad−bc 1 0 0 0 ad−bc
←→ −b −b
L2 → 1a L2 0 1 0 0 ad−bc
←→ 0 1 0 0 ad−bc
−c L1 → 1a L1 −c
L1 →L1 −bL3 0 0 1 0 ad−bc 0 0 1 0 ad−bc
a a
0 0 0 1 ad−bc 0 0 0 1 ad−bc

donde se conclui que


 d

 x = ad−bc
−b

y = ad−bc


,

−c
z = ad−bc




 a
 w = ad−bc
ou seja, " #
1 d −b
B= ad−bc −c a
é a matriz que, multiplicada por A, tanto à esquerda como à direita, dá a matriz identidade.
Capı́tulo 1. Sistemas de Equações Lineares e Matrizes 35

Definição 1.31 (Matriz invertı́vel (ou regular); matriz singular; matriz inversa) Dizemos
que uma matriz quadrada (de ordem n) é invertı́vel (ou regular) se existir uma matriz
B tal que AB = BA = In e diz-se singular caso contrário. Em caso afirmativo, dizemos
que B é a matriz inversa de A e denotamo-la por A−1 .

Como vimos,

Teorema 1.4 (Matriz inversa de uma matriz 2 × 2) A matriz


" #
a b
A= ,
c d

é invertı́vel sse ad − bc , 0. Nesse caso, a sua inversa é a matriz


" #
−1 1 d −b
A = ad−bc .
−c a

Exemplo 1.25 Sejam " # " #


1 2 4 2
A= e B= .
3 4 6 3
Como 1 × 4 − 2 × 3 = −2 , 0, a matriz A é invertı́vel e, pelo Teorema 1.4, a matriz inversa
de A é " # " #
−1 1 4 −2 −2 1
A = −2 = 3 1 ;
−3 1 2 −2
como 4 × 3 − 2 × 6 = 0, a matriz B não é invertı́vel.

O Teorema 1.4 resolve completamente a caracterização da inversa das matrizes de ordem 2, mas
apenas dessas. Mais adiante nesta secção, vamos ver um método para investigar a existência e
calcular, caso exista, a inversa de uma matriz de ordem n. Na secção 2.3 (cf. Teorema 2.2) veremos
a generalização do Teorema 1.4 ao caso geral.

Teorema 1.5 (Propriedades da matriz inversa) 1. Inversa da matriz identidade:


(In )−1 = In .
Sejam A e B matrizes quadradas de ordem n.

2. Inversa da inversa: ((A)−1 )−1 = A.

3. Inversa do produto: Se A e B são invertı́veis então AB é invertı́vel e (AB)−1 =


B−1 A−1 .

4. A é invertı́vel sse r(A) = n.

5. Se AB = In , então BA = In (pelo que B = A−1 ).

6. Lei do corte: Se A é invertı́vel e os produtos estão definidos,


36 1.7. Matriz inversa

(a) AB = AC ⇒ B = C.
(b) BA = CA ⇒ B = C.

À exceção da propriedade 4, que será consequência do Método 1.2 (mais à frente nesta
secção), as restantes verificam-se facilmente à custa das definições.

Demonstração. 1. É consequência imediata da definição de matriz inversa e da definição de


matriz identidade (ou, alternativamente, da definição de produto de matrizes ou, ainda, das
propriedades deste).
2. É consequência imediata da definição de matriz inversa (e o facto de a matriz inversa,
quando existe, ser única). De facto, a inversa da matriz A−1 é a matriz B que satisfaz A−1 B =
BA−1 = In , condição que é verificada com B = A.
3. Também esta propriedade é consequência da definição de matriz inversa:

AB B−1 A−1 = AIn A−1 = AA−1 = In

e, analogamente, B−1 A−1 AB = In .


5. Suponhamos que AB = In . Então (AB)−1 = (In )−1 , pelo que, tendo em conta as proprie-
dades 3 e 1, B−1 A−1 = In . Multiplicando esta equação por B à esquerda e por A à direita, vem
BB−1 A−1 A = BIn A, ou seja, In = BA.
6. Suponhamos que A é invertı́vel e que AB = AC. Multiplicando a equação por A−1
à esquerda, obtemos A−1 AB = A−1 AC, donde B = C. Tem-se assim que (a) é verdadeira e,
analogamente, também (b).

Exemplo 1.26 Vejamos como a propriedade 6 pode falhar caso A não seja invertı́vel.
Consideremos as matrizes
" # " # " #
1 1 1 2 3 4
A= , B= e C= .
1 1 3 4 1 2

Temos " #" # " #


1 1 1 2 4 6
AB = =
1 1 3 4 4 6
e " #" # " #
1 1 3 4 4 6
AC = = .
1 1 1 2 4 6
No entanto, B , C. De facto, a propriedade 6 não se aplica pois A não é invertı́vel pelo
Teorema 1.4: 1 × 1 − 1 × 1 = 0.

O primeiro método que vamos aprender para calcular a inversa de uma matriz recorre à
condensação.
Capı́tulo 1. Sistemas de Equações Lineares e Matrizes 37

Método 1.2 (Método de Gauss–Jordan) Dada uma matriz quadrada (de ordem n)
 
a11 a12 . . . a1n 
a21 a22 . . . a2n 
 
A =  . .. .. .. 

 .. . . . 

an1 an2 . . . ann

invertı́vel, a sua inversa pode ser obtida pelo seguinte processo:

1. amplia-se A juntando-lhe (à direita) a matriz identidade de ordem n


 
 a11 a12 . . . a1n 1 0 . . . 0 
 a21 a22 . . . a2n 0 1 . . . 0
 

A | In =  . .. .. .. .. .. . . ..

 .. . . .

 . . . . 

an1 an2 . . . ann 0 0 . . . 1

2. aplicam-se operações elementares em linhas até obter (à esquerda) a matriz


identidade  
 1 0 . . . 0 ã11 ã12 . . . ã1n 
 0 1 . . . 0 ã21 ã22 . . . ã2n
 

 = I | A−1
 .. .. . . .. .. .. .. ..

 n
 . .
 . . . . . . 

0 0 . . . 1 ãn1 ãn2 . . . ãnn

3. a matriz que resulta (à direita) é a inversa de A.

Demonstração. O processo descrito corresponde a inverter o SEL





 a11 x1 + a12 x2 + . . . + a1n xn = y1
 a x + a x + ... + a x = y
 21 1 22 2 2n n 2


 .. , (1.2)
.




 a x + a x + ... + a x = y

n1 1 n2 2 nn n n

isto é, a determinar um sistema equivalente, mas escrito na forma





 x1 = ã11 y1 + ã12 y2 + . . . + ã1n yn
 2 = ã21 y1 + ã22 y2 + . . . + ã2n yn
x



 .. ,
.




 x = ã y + ã y + . . . + ã y

n n1 1 n2 2 nn n

cuja matriz dos coeficientes é precisamente a matriz A−1 .

Evidentemente, caso a matriz não seja invertı́vel, a aplicação do Método de Gauss–Jordan não
conseguirá produzir a matriz identidade à esquerda. Eis a razão por que se tem a propriedade 4
da matriz inversa (cf. Teorema 1.5): a matriz inversa de A existe sse o sistema (1.2) tem solução
única, o que é equivalente a ter-se, como vimos no Teorema 1.3, r(A) = n.
38 1.7. Matriz inversa

Exemplo 1.27 Consideremos a matriz


 
1 2 3
A = 2 5 3
 
1 0 8
 

e determinemos a sua inversa. Aplicando o Método 1.2, obtemos:


   
 1 2 3 1 0 0  ←→  1 2 3 1 0 0 
A | In =  2 5 3 0 1 0 L2 →L2 −2L1  0 1 −3 −2 1 0  ↔
   

 L3 →L3 −L1 
1 0 8 0 0 1 0 −2 5 −1 0 1
 
   
 1 2 3 1 0 0   1 2 3 1 0 0 
←→  0 1 −3  L3←→
−2 1 0  0 1 −3 −2 1 0  ↔
   
L3 →L3 +2L2   →−L 3 
0 0 −1 −5 2 1 0 0 1 5 −2 −1

   
←→  1 2 0 −14 6 3   1 0 0 −40 16 9 
L2 →L2 +3L3  0 1 0 ←→
13 −5 −3  L1 →L  0 1 0 13 −5 −3 
   
L1 →L1 −3L3  1 −2L2 
0 0 1 5 −2 −1 0 0 1 5 −2 −1
 

Concluı́mos assim que  


−40 16 9
A−1 =  13 −5 −3 .
 
5 −2 −1
 

Para os SEL cuja matriz dos coeficientes é invertı́vel, e a inversa conhecida, o sistema pode
ser resolvido exatamente da mesma forma que usamos para resolver as equações lineares em
R:

Teorema 1.6 (Solução de um SEL com matriz dos coeficientes invertı́vel) Se o SEL
AX = B, onde A denota a matriz dos coeficientes, X a matriz das incógnitas e B a
matriz dos termos independentes, é tal que A é invertı́vel, então a sua solução é

AX = B ⇔ X = A−1 B .

Demonstração. De facto,

AX = B ⇔ A−1 AX = A−1 B ⇔ X = A−1 B .

Exemplo 1.28 Consideremos o SEL





x + 2y + 3z = 0

2x + 5y + 3z = 2 .




x + 8z = −4

Capı́tulo 1. Sistemas de Equações Lineares e Matrizes 39

Atendendo a que a matriz dos coeficientes é a matriz


 
1 2 3
A = 2 5 3
 
1 0 8
 

do exemplo anterior, a solução do sistema pode obter-se multiplicando A−1 pela matriz
dos termos independentes:
    
−40 16 9  0 −4
X = A−1 B =  13 −5 −3  2 =  2 ,
    
5 −2 −1 −4 0
    

ou seja, x = −4, y = 2, z = 0.

Quando a matriz dos coeficientes de um SEL é invertı́vel, a sua inversa pode ser usada para
resolver o sistema. Para calcular a inversa de uma matriz, temos (por enquanto) o Método de
Gauss–Jordan; no caso particular das matrizes 2 × 2, temos desde já uma forma mais rápida de o
fazer.

1.8 Exercı́cios

Exercı́cio 1.1 Sendo k uma constante, indique quais das seguintes equações são line-
ares em x e y. Das que são lineares, quais são homogéneas?

(a) x − y = sin k (b) kx − 1k y = 9 (c) xk + y k+1 = 0 (d) 2k x = 7y.

Exercı́cio 1.2 Classifique os seguintes SEL e, caso sejam possı́veis, indique o respetivo
conjunto de solução.
  


 3x − 2y = −1 

 2x + 2z = 1 

 2x + 2z = 1
(a)  4x − 5y = 3 (c)  3x − y + 4z = 7  3x − y + 4z = 7
  


 7x + 3y = 2
 
 6x + y − z = 0
 (e)  x + y = −5



 5x − y + 6z = 8
  


 3x − 2y = −1 

 2x + 2z = 1 

 6x − 2y + 8z = 14
(b)  4x − 5y = 3 (d)  3x − y + 4z = 7 (f)  −3x + y − 4z = −7
  
  
 7x − 7y = 2
  x + y = −5
  9x − 3y + 12z = 21

Exercı́cio 1.3 Escreva os SEL do exercı́cio anterior na forma matricial.


40 1.8. Exercı́cios

Exercı́cio 1.4 Indique um SEL que possa ser representado matricialmente pela matriz
ampliada indicada.
  " #
 2 0 0  7 2 1 −3 5
(c)
(a)  3 −4 0 
 
1 2 4 0 1
0 1 1
 
 
   1 0 0 0 7 
 3 0 −2 5   0 1 0 0 −2 
 
(d)  
(b)  7 1 4 −3   0 0 1 0 3 
 
0 −2 1 7 0 0 0 1 4
   

Exercı́cio 1.5 Resolva os SEL recorrendo (i) à eliminação de Gauss e (ii) à eliminação
de Gauss–Jordan.
 


 2x − 3y = −2 

 4x1 − 8x2 = 12
(a)  2x +y = 1 (c)  3x1 − 6x2 = 9
 
 
 3x + 2y = 1
  −2x + 4x = −6

1 2

10y − 4z + w = 1



 


 3x + 2y − z = −15 


 x + 4y − z + w = 2
5x + 3y + 2z = 0 (d)  3x + 2y + z + 2w = 5

 
(b) 
 
3x + y + 3z = 11 −2x − 8y + 2z − 2w = −4
 


 

 
 −6x − 4y + 2z = 30  x − 6y + 3z = 1

Exercı́cio 1.6 Considere as matrizes


     
 3 0 " # " #  1 5 2  6 1 3
4 −1 1 4 2
A = −1 2 , B = ,C= , D = −1 0 1 e E = −1 1 2 .
     
0 2 3 1 5
1 1 3 2 4 4 1 3
     

Calcule se possı́vel ou indique por que razão não o é.

(a) D + E (e) 2B − C (i) AB (m) CAB

(b) D − E (f) 4E − 2D (j) BA (n) DA + A

(c) 5A (g) A − A (k) (AB)C (o) tr (A)

(d) −7C (h) 3(D + 2E) − 3D (l) A(BC) (p) tr (E).

Exercı́cio 1.7 Escreva a matriz A = (aij ) de tipo 4 × 4 tal que:



(a) aij = i + j 

1, se i − j > 0

(c) aij = 0, se i − j = 0



(b) aij = i j−1 −1, se i − j < 0

Capı́tulo 1. Sistemas de Equações Lineares e Matrizes 41

Exercı́cio 1.8 Determine a caracterı́stica das seguintes matrizes.


     
 3 0  3 0 4  1 0 4 −1
(a) −1 2 (c) −1 2 0 (e) −1 2 4 2
     
1 1 1 1 2 0 2 8 1
     

 
    1 0 4 −1
 3 0 4  1 0 4 −1 0 −2 0 3
 
(f)  
(b) −1 2 0 (d) −1 2 4 2 0 0 0 0
   
1 1 −2 0 2 0 1 0 0 0 1
     

Exercı́cio 1.9 Que condições sobre os termos independentes asseguram que o SEL é
possı́vel?
( 
6x − 4y = b1  x − 2y − z = b1
(a)


3x − 2y = b2 (c)  −4x + 5y + 2z = b2


 −4x + 7y + 4z = b

3




 x − y + 3z + 2w = b1
 x − 2y + 5z = b1  −2x + y + 5z + w = b2



 (d) 
(b)  4x − 5y + 8z = b −3x + 2y + 2z − w = b3

2


 

 −3x + 3y − 3z = b
  4x − 3y + z + 3w = b
3 4

Exercı́cio 1.10 Considere o SEL





 ax + bz = 2
ax + ay + 4z = 4 ,



 ay + 2z = b

onde a e b são parâmetros reais. Para que valores de a e b tem este sistema

(a) uma única solução?

(b) infinitas soluções, dependentes de 1 parâmetro?

(c) infinitas soluções, dependentes de 2 parâmetros?

(d) nenhuma solução?

Exercı́cio 1.11 Seja " #


2 0
A= .
4 1
Calcule A3 , A−3 e A2 − 2A + I.

Exercı́cio 1.12 Determine a matriz A sabendo que:


42 1.9. Soluções

" # " # " #


2 −1 −3 7 −1 2
(a) A−1 = (b) (7A)−1 = (c) (I + 2A)−1 = .
3 5 1 −2 4 5

Exercı́cio 1.13 Caso exista, calcule a inversa da matriz indicada.


       
3 4 −1 −1 3 −4 2 6 6 1 0 0 0
(a) 1 0 3 (b)  2 4 1 (c) 2 7 6 1 3 0 0
       
(d)  .
2 5 −4 −4 2 −9 2 7 7 1 3 5 0
     
1 3 5 7
 

Exercı́cio 1.14 Resolva os SEL à custa da inversa da matriz dos coeficientes do sistema.
 


 3x + 4y − z = 4 

 2x + 6y + 6z = 4
(a)  x + 3z = 10 (b)  2x + 7y + 6z = 8
 
 
 2x + 5y − 4z = 0
  2x + 7y + 7z = 2

1.9 Soluções

Solução 1.1

(a) linear para todo k ∈ R; homogénea para todo k = nπ (n ∈ Z)


(b) linear não homogénea para k , 0
(c) linear homogénea para k = 0, não linear para k , 0
(d) linear homogénea para todo k ∈ R

Solução 1.2

(a) SI (d) SPI GI 1; {(x, −x − 5, 12 − x) : x ∈ R}


(b) SPD; {(− 11 13
7 , − 7 )} (e) SPI GI 1; {(x, −x − 5, 12 − x) : x ∈ R}
(c) SPD; {( 11 71 5
12 , − 12 , − 12 )} (f) SPI GI 2; {(x, 3x + 4z − 7, z) : x, z ∈ R}

Solução 1.3

3 −2 "x# −1 2 0 2   x   1


        
4 −5 3 −1 4 y   7
(a)  =  3 (d)     =  
 
 y

7 3 2 1 1 0 z −5
       

2 0 2     1
   
3 3 −1 4 x  7
   
−2 " # −1
x
(b) 4 =  3
−5  y   
(e)    = 
    
 y 1 1 0   −5
7 −7 2  z
  
5 −1 6 8
  

2 0 2 x 1  6 −2 8 x  14


          
(c) 3 −1 4 y  = 7 (f) −3 1 −4 y  = −7
 
   
6 1 −1 z 0 9 −3 12 z 21
      
Capı́tulo 1. Sistemas de Equações Lineares e Matrizes 43

Solução 1.4

(a) 2x = 0, 3x − 4y = 0, y = 1 (c) 7x + 2y + z − 3w = 5, x + 2y + 4z = 1
(b) 3x − 2z = 5, 7x + y + 4z = −3, −2y + z = 7 (d) x = 7, y = −2, z = 3, w = 4

Solução 1.5

(a) SI (c) {(3 + 2y, y) : y ∈ R}


 
(b) {(−4, 2, 7)} (d) { 58 − 35 z− 35 w, 10
1 2 1
+ 5 z− 10 w, z, w : z, w ∈ R}

Solução 1.6

 7 6 5  22 −6 8  3 45 9
     
−2 1 3 4 6 11 −11 17
(a)  (f)
−2
  (k)  
7 3 7 10 0 4 7 17 13
     

0 0
 
 3 45 9
 
4 −1
 
−5 0
(b) 
 0 −1 −1
 (g)  0 (l)
11 −11 17
 
0 0
 
7 17 13
 
−1 1 1
 

 36 6 18
  " #
 15

0
 4 19
(h)
−6 6 12 (m)
(c) 
−5 10  52 1
24 6 18
  
5 5
 
 3 12
 
 12
 
" # −3 (n)
−3 3
−7 −28 −14 (i)
−4 5

(d)  
12 9

−21 −7 −35 
4 1

(o) Não é possı́vel calcular
(e) Não é possı́vel somar (j) Não é possı́vel multipli-
o traço de uma matriz
2B, que é de tipo 2 × 2, car B, que é de tipo 2×2,
que não é quadrada.
com −C, que é de tipo à esquerda, com C, que
2 × 3. é de tipo 3 × 2, à direita. (p) 10.

Solução 1.7

2 3 4 5 1 1 1 1 0 −1 −1 −1


     
3 4 5 6 1 2 4 8 1 0 −1 −1
(a)  (b)  (c) 
4 5 6 7 1 3 9 27 1 1 0 −1
  
5 6 7 8 1 4 16 64 1 1 1 0
  

Solução 1.8

(a) 2 (b) 3 (c) 2 (d) 3 (e) 2 (f) 3

Solução 1.9

(a) b1 = 2b2 (b) b1 = b2 + b3 (c) Sem restrições (d) b1 = b3 + b4 ,


b2 = 2b3 + b4
44 1.9. Soluções

Solução 1.10

(a) a , 0 e b , 2 (b) a , 0 e b = 2 (c) a = 0 e b = 2 (d) a = 0 e b , 2

" # " 1 # " #


8 0 0 1 0
Solução 1.11 A3 = −3
, A = 87 2
, A − 2A + I =
28 1 −2 1 4 0

Solução 1.12
" 5 1
# "2 # " 9 1
#
13 13 7 1 − 13 13
(a) 3 2 (b) 1 3 (c) 2 6
− 13 13 7 7 13 − 13

Solução 1.13
 3
− 11 − 65 
 7
 1 0 0 0
  
0 −3

 2 10  2
 1
(c) −1 1
(a)  −1 1 1 1 0 − 3 0 0
   
 1 (d)  3
7 2 
0 −1 1
 1 1 
−2 10 5  0 − 5 5 0
0 0 − 17 1

(b) Não invertı́vel 7

Solução 1.14

(a) (−5, 6, 5) (b) (8, 4, −6)


2. Determinantes

2.1 Noção de determinante 45

2.2 Regra de Laplace 49

2.3 Propriedades dos determinantes 51

2.4 Regra de Cramer 54

2.5 Cálculo da matriz inversa através da matriz


adjunta 57

2.6 Exercı́cios 62

2.7 Soluções 65

O determinante de uma matriz é um número real que se calcula a partir das suas entradas e que
comporta informação muito importante relativamente à matriz. Em particular, veremos como, à
custa do determinante, podem ser facilmente resolvidos sistemas de equações lineares e calculada a
matriz inversa.

2.1 Noção de determinante

Como vimos no Teorema 1.4, a matriz quadrada de ordem 2

" #
a b
A= ,
c d

é invertı́vel sse ad − bc , 0.

Definição 2.1 (Determinante de uma matriz 2 × 2) Chamamos determinante da matriz


" #
a a
A = 11 12
a21 a22

ao número real a11 a22 − a12 a21 , o qual se denota por |A| ou det A.

Exemplo 2.1 Consideremos as matrizes


" # " # " # " # " #
1 2 2 1 3 2 1 2 1 0
A= , B= ,C= ,D= e E= .
3 4 4 3 9 6 0 0 3 0

45
46 2.1. Noção de determinante

Temos

det A = 1 × 4 − 2 × 3 = −2 ,
det B = 2 × 3 − 1 × 4 = 2 ,
det C = 3 × 6 − 2 × 9 = 0 ,
det D = 1 × 0 − 2 × 0 = 0 ,
det E = 1 × 0 − 0 × 3 = 0

(pelo que A e B são invertı́veis e C, D e E não são invertı́veis).

A noção equivalente para matrizes 3 × 3 é:

Definição 2.2 (Determinante de uma matriz 3 × 3) Chamamos determinante da matriz


 
a11 a12 a13 
A = a21 a22 a23 
 
a31 a32 a33
 

ao número real

a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a12 a21 a33 − a11 a23 a32 ,

o qual se denota por |A| ou det A.

Como se pode observar, o determinante de uma matriz 3 × 3 é uma soma com seis parcelas, três
com sinal + e três com sinal −. Além disso, cada parcela é produto de três entradas da matriz,
todas de linhas e colunas diferentes. Para facilmente identificar quais, podemos recorrer à seguinte
mnemónica:

têm sinal + o produto dos elementos sobre


a11 a12 a13
a diagonal principal e os produtos dos elemen-
tos sobre os vértices dos dois triângulos com um a21 a22 a23
lado paralelo a esta diagonal; a31 a32 a33

têm sinal − o produto dos elementos sobre


a11 a12 a13
a diagonal não principal e os produtos dos ele-
mentos sobre os vértices dos dois triângulos com a21 a22 a23
um lado paralelo a esta diagonal. a31 a32 a33

Alternativamente, estes produtos também podem ser visualizados da seguinte forma:

a11 a12 a13 a11 a12 a11 a12 a13 a11 a12
a21 a22 a23 a21 a22 a21 a22 a23 a21 a22
a31 a32 a33 a31 a32 a31 a32 a33 a31 a32
Capı́tulo 2. Determinantes 47

Exemplo 2.2 Sendo


       
 1 −2 3  1 3 −2  1 −2 0  1 −2 3
A = −4 5 −6 , B = −4 −6 5 , C = −4 5 0 e D = −4 5 −6 ,
       
7 8 9 7 9 8 7 8 0 0 0 0
       

temos:

det A = 1 × 5 × 9 + (−2) × (−6) × 7 + 3 × (−4) × 8 − 3 × 5 × 7


− (−2) × (−4) × 9 − 1 × (−6) × 8 = 45 + 84 − 96 − 105 − 72 + 48 = −96 ,
det B = 1 × (−6) × 8 + 3 × 5 × 7 + (−2) × (−4) × 9 − (−2) × (−6) × 7
− 3 × (−4) × 8 − 1 × 5 × 9 = 96 ,
det C = 1 × 5 × 0 + (−2) × 0 × 7 + 0 × (−4) × 8 − 0 × 5 × 7
− (−2) × (−4) × 0 − 1 × 0 × (−8) = 0 ,
det D = 1 × 5 × 0 + (−2) × (−6) × 0 + 3 × (−4) × 0 − 3 × 5 × 0
− (−2) × (−4) × 0 − 1 × (−6) × 0 = 0 .

Para uma matriz quadrada genérica, a definição de determinante é algo elaborada e


apresenta-se em seguida apenas como curiosidade. Graças à chamada regra de Laplace, que
veremos na próxima secção, é sempre possı́vel reduzir o cálculo do determinante de uma
matriz n × n ao cálculo do determinante de matrizes (n − 1) × (n − 1) — tantas vezes quantas o
necessário até chegar a matrizes 3 × 3 (ou 2 × 2).
Para enunciarmos a definição de determinante de uma matriz n × n, precisamos de esta-
belecer os seguintes conceitos:

Definição 2.3 (Permutação & sinal de uma permutação) Seja n um número natural. A
uma função bijetiva de {1, . . . , n} em {1, . . . , n}, ou, equivalentemente, a uma reordenação
dos elementos da sequência (1, . . . , n) chamamos permutação de n. Denotamos por Sn
o conjunto de todas as permutações de n. Dizemos que o sinal de uma permutação
σ ∈ Sn é +1 se a reordenação pode ser obtida trocando duas entradas um número par
de vezes e dizemos que é −1 caso contrário, ou seja, se a reordenação pode ser obtida
trocando duas entradas um número ı́mpar de vezes.

Exemplo 2.3 Para n = 2, temos 2 permutações:

n σ1 (n) n σ2 (n)
1 1 1 2 ,
2 2 2 1

sendo
sgn(σ1 ) = 1 , sgn(σ2 ) = −1 ,
pois σ1 precisa de 0 trocas de entradas e σ2 precisa de 1 troca.
48 2.1. Noção de determinante

Exemplo 2.4 Para n = 3, temos 6 permutações:

n σ1 (n) n σ2 (n) n σ3 (n) n σ4 (n) n σ5 (n) n σ6 (n)


1 1 1 2 1 3 1 3 1 2 1 1
,
2 2 2 3 2 1 2 2 2 1 2 3
3 3 3 1 3 2 3 1 3 3 3 2

sendo
sgn(σ1 ) = 1 , sgn(σ4 ) = −1 ,
sgn(σ2 ) = 1 , sgn(σ5 ) = −1 ,
sgn(σ3 ) = 1 , sgn(σ6 ) = −1 .
De facto, por exemplo σ1 precisa de 0 trocas de entradas, σ2 precisa de 2 trocas:

(1, 2, 3) → (2, 1, 3) → (2, 3, 1) ,

e σ4 precisa de uma:
(1, 2, 3) → (3, 2, 1) .

Definição 2.4 (Determinante de uma matriz n × n) Chamamos determinante da matriz


A = [aij ] quadrada de ordem n ao número real

X n
Y 
sgn(σ ) ai,σ (i) ,
σ ∈Sn i=1

o qual se denota por |A| ou det A.

Em particular, para matrizes 2 × 2, temos, atendendo ao Exemplo 2.3,


2
Y 2
Y
det A = sgn(σ1 ) ai,σ1 (i) + sgn(σ2 ) ai,σ2 (i)
i=1 i=1
= a1,σ1 (1) × a2,σ1 (2) − a1,σ2 (1) × a2,σ2 (2)
= a11 × a22 − a12 × a21 ,
tal como indicado na Definição 2.1, e, para matrizes 3×3, temos, em virtude do Exemplo 2.4,
3
Y 3
Y 3
Y
det A = sgn(σ1 ) ai,σ1 (i) + sgn(σ2 ) ai,σ2 (i) + sgn(σ3 ) ai,σ3 (i)
i=1 i=1 i=1
3
Y 3
Y 3
Y
+ sgn(σ4 ) ai,σ4 (i) + sgn(σ5 ) ai,σ5 (i) + sgn(σ6 ) ai,σ6 (i)
i=1 i=1 i=1
= a1,σ1 (1) × a2,σ1 (2) × a3,σ1 (3) + a1,σ2 (1) × a2,σ2 (2) × a3,σ2 (3)
+ a1,σ3 (1) × a2,σ3 (2) × a3,σ3 (3) − a1,σ4 (1) × a2,σ4 (2) × a3,σ4 (3)
− a1,σ5 (1) × a2,σ5 (2) × a3,σ5 (3) − a1,σ6 (1) × a2,σ6 (2) × a3,σ6 (3)
= a11 × a22 × a33 + a12 × a23 × a31 + a13 × a21 × a32
− a13 × a22 × a31 − a12 × a21 × a33 − a11 × a23 × a32 ,
tal como indicado na Definição 2.2.
Capı́tulo 2. Determinantes 49

2.2 Regra de Laplace


Como referido na secção anterior, a definição de determinante é elaborada e, na prática, o
cálculo do determinante de uma matriz n×n reduz-se ao cálculo do determinante de matrizes
(n − 1) × (n − 1). Reparemos no seguinte:

a11 a12 a13
a21 a22 a23 = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a12 a21 a33 − a11 a23 a32
a31 a32 a33

= a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a22 a31 )

a22 a23 a21 a23 a21 a22
= a11 −a +a .
a32 a33 12 a31 a33 13 a31 a32

Reparar que cada uma das três entradas a1j da linha 1 é multiplicada por (−1)1+j e pelo deter-
minante da matriz obtida eliminando a linha 1 e a coluna j na matriz original. Não é difı́cil
verificar que se obtém o mesmo padrão selecionando os três elementos de uma qualquer
outra linha ou os três elementos de uma qualquer coluna.

Definição 2.5 (Matriz Aij ) Dada uma matriz A = [aij ], denotamos por Aij a matriz
obtida eliminando a linha i e a coluna j na matriz A.

A notação Aij não é universal e tem, para diferentes autores, interpretações distintas.

Exemplo 2.5 Seja


 
1 2 3
A = 4 5 6 .
 
7 8 9
 

Temos: " # " # " #


5 6 4 6 4 5
A11 = , A12 = , A13 = ,
"8 9# "7 9# "7 8#
2 3 1 3 1 2
A21 = , A22 = , A23 = ,
"8 9# "7 9# "7 8#
2 3 1 3 1 2
A31 = , A32 = , A33 = .
5 6 4 6 4 5

Tal como o determinante de uma matriz 3 × 3 pode ser calculado à custa do determinante
de matrizes 2 × 2, temos em geral:

Teorema 2.1 (Regra de Laplace) Seja A uma matriz n × n. Tem-se:

det A = (−1)i0 +1 ai0 1 det Ai0 1 + (−1)i0 +2 ai0 2 det Ai0 2 + . . . + (−1)i0 +n ai0 n det Ai0 n
Xn
= (−1)i0 +j ai0 j det Ai0 j ,
j=1
50 2.2. Regra de Laplace

ao qual se chama desenvolvimento de Laplace segundo a linha i0 , e

det A = (−1)1+j0 a1j0 det A1j0 + (−1)2+j0 a2j0 det A2j0 + . . . + (−1)n+j0 anj0 det Anj0
Xn
= (−1)i+j0 aij0 det Aij0 ,
i=1

ao qual se chama desenvolvimento de Laplace segundo a coluna j0 .

Exemplo 2.6 Consideremos a matriz


 
 3 1 0 2 
 2 −1 0 3 
 
A =   .
 0 −2 4 −1 
1 −5 5 −7
 

Aplicando o desenvolvimento de Laplace segundo a 1ª linha, temos:

det A = (−1)1+1 a11 det A11 + (−1)1+2 a12 det A12 + (−1)1+3 a13 det A13 + (−1)1+4 a14 det A14
   
−1 0 3  2 0 3 
= (−1)2 × 3 × det −2 4 −1 + (−1)3 × 1 × det 0 4 −1 +
   
−5 5 −7 1 5 −7
   
   
2 −1 3  2 −1 0
+ (−1)4 × 0 × det 0 −2 −1 + (−1)5 × 2 × det 0 −2 4
   
1 −5 −7 1 −5 5
   

= 3 × (28 + 0 + (−30) − (−60) − 0 − 5) − 1 × (−56 + 0 + 0 − 12 − 0 − (−10))


+ 0 − 2 × (−20 + (−4) + 0 − 0 − 0 − (−40))
= 3 × 53 − (−58) − 2 × 16
= 185 .

Melhor ideia seria aplicar o desenvolvimento de Laplace segundo a 3ª coluna, que tem
duas entradas nulas:

det A = (−1)1+3 a13 det A13 + (−1)2+3 a23 det A23 + (−1)3+3 a33 det A33 + (−1)4+3 a43 det A43
   
2 −1 3  3 1 2 
= (−1)4 × 0 × det 0 −2 −1 + (−1)5 × 0 × det 0 −2 −1 +
   
1 −5 −7 1 −5 −7
   
   
3 1 2  3 1 2 
+ (−1)6 × 4 × det 2 −1 3  + (−1)7 × 5 × det 2 −1 3 
   
1 −5 −7 0 −2 −1
   

= 4 × (21 + 3 + (−20) − (−2) − (−14) − 45) − 5 × (3 + 0 + (−8) − 0 − (−2) − (−18))


= 4 × 65 − 5 × 15
= 185 .

Em seguida, veremos como podemos facilitar ainda mais o cálculo do determinante à


Capı́tulo 2. Determinantes 51

custa das suas propriedades.

2.3 Propriedades dos determinantes


Para além da regra de Laplace, temos as seguintes propriedades do determinante:

Teorema 2.2 (Propriedades do determinante) Sejam A e B matrizes quadradras da


mesma ordem. Então:

1. Troca de linhas ou colunas: A troca de 2 linhas ou 2 colunas na matriz A produz


uma matriz com determinante − det A.

2. Multiplicação de linha ou coluna por escalar: A multiplicação de uma linha


ou coluna da matriz A por um escalar k produz uma matriz com determinante
k det A.

3. Soma de linhas ou de colunas: A soma de uma linha com outra linha (distinta)
da matriz A, possivelmente multiplicada por um escalar, produz uma matriz
com o mesmo determinante que A. Idem para as colunas.

4. Determinante do produto: det(AB) = det A det B = det(BA).

5. Determinante da inversa: Caso A seja invertı́vel (ie, caso det A , 0), det(A−1 ) =
1
det A .

Exemplo 2.7 A tı́tulo de verificação, consideremos a matriz


" #
1 2
M= ,
3 4

cujo determinante é
det M = 1 × 4 − 2 × 3 = 4 − 6 = −2 .
Tal como afirmado na propriedade 1, trocando as linhas 1 e 2 obtemos a matriz cujo
determinante é " #
3 4
det = 3 × 2 − 4 × 1 = 6 − 4 = 2 = − det M
1 2
e trocando as colunas 1 e 2 obtemos a matriz cujo determinante é
" #
2 1
det = 2 × 3 − 1 × 4 = 6 − 4 = 2 = − det M .
4 3

Multiplicando a linha 1 por k, obtemos a matriz cujo determinante é


" #
k 2k
det = k × 4 − 2k × 3 = 4k − 6k = −2k = k det M ,
3 4

em consonância com a propriedade 2, e facilmente se vê que o mesmo aconteceria se


multiplicássemos a linha 2 ou uma das colunas por k.
52 2.3. Propriedades dos determinantes

Reparar que, se multiplicássemos toda a matriz por k, o determinante da matriz resul-


tante seria k 2 det M:
" #
k 2k
det(kM) = det = k × 4k − 2k × 3k = 4k 2 − 6k 2 = −2k 2 = k 2 det M .
k3 4k

Substituindo a linha 1 pela linha 1 somada ao dobro da linha 2, obtemos a matriz cujo
determinante é
" #
7 10
det = 7 × 4 − 10 × 3 = 28 − 30 = −2 = det M .
3 4

Reparar que as propriedades 1–3 estabelecem o efeito das operações elementares no determinante
da matriz. Aliando-as à regra de Laplace, conseguimos facilitar significativamente o cálculo de de-
terminantes não triviais. É útil recordar que, como vimos a propósito da condensação de matrizes,
as operações elementares em linhas podem ser usadas para produzir entradas nulas em colunas.
De forma análoga, para produzir entradas nulas em linhas, recorremos a operações elementares em
colunas.

Exemplo 2.8 Consideremos a matriz

1 1 −1 0 2 
 


 2 1 0 2 −1 
B =  1 −1 3 0 1  ,
 
3 −2 2 0 −1 
 

0 0 1 1 −1
 

Aproveitando o facto de a coluna 4 ter já três entradas nulas, comecemos por subtrair
à linha 2 o dobro da linha 5. Obtemos assim a matriz

 1 1 −1 0 2 
 
 2 1 −2 0 1 

B0 =  1 −1 3 0 1  ,
 
 3 −2 2 0 −1 
 
0 0 1 1 −1
 

cujo determinante é igual ao da matriz original. Aplicando o desenvolvimento de La-


place segundo a coluna 4, obtemos
 
1 1 −1 2
2 1 −2 1
 
det B = det B0 = 0 + 0 + 0 + 0 + (−1)5+4 a54 det A54 = −1 × det  
1 −1 3 1
3 −2 2 −1
 

Seja C a matriz 4×4 encontrada. Ainda que pudéssemos recorrer já à regra de Laplace,
vamos primeiro simplificar a matriz. Aplicando as operações elementares L2 → L2 −
Capı́tulo 2. Determinantes 53

2L1 , L3 → L3 −L1 e L4 → L4 −3L1 e, em seguida, o desenvolvimento de Laplace segundo


a 1ª coluna, obtemos
 
1 1 −1 2  
−1 0 −3
0 −1 0 −3
 
det C = det   = (−1)1+1 a11 det A11 = det −2 4 −1
 
0 −2 4 −1   
−5 5 −7

0 −5 5 −7
 

Logo
det B = − det C = −(28 + 0 + 30 − 60 − 0 − 5) = 7 .
Em alternativa, podı́amos ter continuado a simplificar a matriz:
   
−1 0 −3 −1 0 0 " #
4 5
det C = det −2 4 −1 = det −2 4 5 = − det = −(4 × 8 − 5 × 5) = −7 ,
   
   
5 8
−5 5 −7 −5 5 8
   

pelo que det B = − det C = 7.

Outra forma de tirar partido das propriedades 1–3 é condensando a matriz, usando operações em
linhas e/ou em colunas sem restrições, até que esta fique em escada. De facto, para uma matriz
em escada, o cálculo do determinante limita-se ao cálculo do produto dos elementos da diagonal
principal.

a11 ∗ ∗ ∗ ∗
0 a ∗ ∗ ∗
22
0 0 a33 ∗ ∗ = a11 × a22 × · · · × ann
.. .. ..
. . . ∗ ∗
0 0 · · · 0 ann

Exemplo 2.9 Sendo B a matriz do exemplo anterior, temos:



1 1 −1 0 2 1 1 −1 0 2 1 1 −1 0 2
2 1 0 2 −1 0 −1 2 2 −5 0 −1 2 2 −5

det B = 1 −1 3 0 1 =
0 −2 4 0 −1 =
0 0 0 −4 9
3 −2
2 0 −1 0 −5 5 0 −7 0 0 −5 −10 18

0 0 1 1 −1 0 0 1 1 −1 0 0 1 1 −1

1 1 −1 0 2 1 1 −1 0 2 1 1 −1 0 2
0 −1 2 2 −5 0 −1 2 2 −5 0 −1 2 2 −5

= − 0 0 1 1 −1 = − 0 0 1 1 −1 = − 0 0 1 1 −1
0
0 0 −5 −10 18 0 0 0 −5 13 0 0 −5 13
0 − 57

0 0 0 −4 9 0 0 0 −4 9 0 0 0
= −1 × (−1) × 1 × (−5) × (− 57 ) = 7 .
54 2.4. Regra de Cramer

2.4 Regra de Cramer


Como vimos no Teorema 1.4, a matriz
" #
a11 a12
A= ,
a21 a22

é invertı́vel sse a11 a22 −a12 a21 , 0, ou seja, sse |A| , 0. Nesse caso, é fácil deduzir uma fórmula
geral para a solução dos SEL que têm A como matriz dos coeficientes:

a12 b1 a12 b1
a11 a12 b1 ←→ 1 a11 a11 ←→ 1 a11 a11
L1 → a 1 L1 L2 →L2 −a21 L1 =
a21 a22 b2 11 a21 a22 b2 0 a22 − a21 aa12 b2 − a21 ab1
11 11
a12 b1 a12 b1 a12 b1
1 a11 a11 1 a11 a11 ←→ 1 a11 a11
= a11 a22 −a21 a12 a11 b2 −a21 b1 = |A| a11 b2 −b1 a21
a11
L2 → |A| L2 a11 b2 −b1 a21 ↔
0 a11 a11 0 a11 a11 0 1 |A|

←→a 1 0 ab1 − aa12 a11 b2|A| −b1 a21


1 0 b1 a22 −a12 b2
|A|
L1 →L1 − a12 L2 11 11
= ,
11 0 1 a11 b2|A| −a21 b1
0 1 a11 b2|A| −a21 b1

pois

b1 a12 a11 b2 − b1 a21 b1 (a11 a22 − a12 a21 ) − a12 (a11 b2 − b1 a21 )
− =
a11 a11 |A| a11 |A|
b1 a11 a22 − b1 a12 a21 − a12 a11 b2 + a12 b1 a21
=
a11 |A|
b1 a11 a22 − a12 a11 b2
=
a11 |A|
b a −a b
= 1 22 12 2 .
|A|

Logo, a solução (única) do SEL


(
a11 x + a12 y = b1
a21 x + a22 y = b2

b1 a22 − a12 b2 a11 b2 − a21 b1
x= , y= .
|A| |A|
Observemos que

b1 a12 a11 b1
b1 a22 − a12 b2 = e a11 b2 − a21 b1 =
b2 a22 a21 b2

Logo, a solução do SEL pode obter-se da seguinte forma:



b1 a12 a11 b1
b2 a22 a21 b2
x= , y= .
|A| |A|
Capı́tulo 2. Determinantes 55

Exemplo 2.10 Consideremos o SEL


(
2x + y = 1
.
−3x + 2y = −5

Dado que
2 1 = 2 × 2 − 1 × (−3) = 4 + 3 = 7 , 0 ,
−3 2
o sistema é possı́vel e determinado. Pelo que acabámos de ver, a sua solução é

1 1
−5 2 1 × 2 − 1 × (−5) 2 + 5
x= = = = 1,
7 7 7
2 1
−3 −5 2 × (−5) − 1 × (−3) −10 + 3
y= = = = −1 .
7 7 7

A conclusão deduzida no inı́cio desta secção podia ter sido obtida, mais facilmente, recorrendo
à matriz inversa. De facto, sendo a11 a22 − a12 a21 , 0, sabemos que a matriz dos coeficientes do
sistema é invertı́vel e que a sua inversa é, como vimos no Teorema 1.4,
" #
−1 1 a22 −a12
A = .
|A| −a21 a11

Deste modo, a solução do sistema


(
a11 x + a12 y = b1
a21 x + a22 y = b2

é " # " #" # " #


x 1 a22 −a12 b1 1 a22 b1 − a12 b2
= = ,
y |A| −a21 a11 b2 |A| −a21 b1 + a11 b2

ou seja,
a22 b1 − a12 b2 −a21 b1 + a11 b2
x= , y= .
|A| |A|

No entanto, não seria tão óbvio o facto da conclusão final se generalizar a qualquer sistema
possı́vel e determinado, como indicado no resultado seguinte:

Teorema 2.3 (Regra de Cramer) Dado o SEL possı́vel e determinado





 a11 x1 + a12 x2 + . . . + a1n xn = b1


 a21 x1 + a22 x2 + . . . + a2n xn = b2
,

 ..
.




an1 x1 + an2 x2 + . . . + ann xn = bn


56 2.4. Regra de Cramer

a sua solução é

b1 a12 . . . a1n
a11 b1 . . . a1n
a11 a12 . . . b1

b2 a22 . . . a2n a21 b2 . . . a2n a21 a22 . . . b2
. .. .. . .. .. . .. .
.. .. .. .. .. ..
. . . . . . . . ..
bn an2 . . . ann an1 bn . . . ann an1 an2 . . . bn

x1 = , x2 = , . . . , xn = .
a11 a12 . . . a1n
a11 a12 . . . a1n
a11 a12 . . . a1n

a21 a22 . . . a2n a21 a22 . . . a2n a21 a22 . . . a2n
. .. .. . .. .. . .. ..
.. .. .. .. .. ..
. . . . . . . . .
an1 an2 . . . ann an1 an2 . . . ann an1 an2 . . . ann

Exemplo 2.11 Consideremos o SEL





 2y + z = 1
x − 2y + z = 0 .



 3x − 4y = 2

Dado que

0 2 1 0 2 1
1 −2 1 = 1 −2
1 (L3 → L3 − 3L2 )
3 −4 0 0 2 −3


2+1 2 1
= (−1) (desenvolvimento de Laplace segundo a 1ª coluna)
2 −3
= −(2 × (−3) − 1 × 2)
= 8 , 0,

o sistema é possı́vel e determinado. Pela regra de Cramer, a respetiva solução é



1 2 1
0 −2 1
2 −4 0 0 + 4 + 0 − (−4) − 0 − (−4) 12 3

x= = = = ,
8 8 8 2
0 1 1
1 0 1
3 2 0 0 + 3 + 2 − 0 − 0 − 0 5

y= = = ,
8 8 8


0 2 1
1 −2 0
3 −4 2 0 + 0 + (−4) − (−6) − 4 − 0 −2

1
z= = = =− .
8 8 8 4
Capı́tulo 2. Determinantes 57

2.5 Cálculo da matriz inversa através da matriz adjunta

Nesta secção vamos ver uma outra forma de calcular a matriz inversa de uma matriz, a qual
irá generalizar o resultado registado no Teorema 1.4:

" #
−1 1 a22 −a12
A = .
|A| −a21 a11

Para isso, precisamos das seguintes noções: matriz dos cofatores, matriz transposta e matriz
adjunta.

Definição 2.6 (Matriz dos cofatores) Dada uma matriz A = [aij ] de tipo n×n, chama-se
matriz dos cofatores de A à matriz cof (A) = [cij ] com

cij = (−1)i+j det Aij .

(−1)i+j det Aij

Exemplo 2.12 Sendo " #


a11 a12
A= ,
a21 a22
temos h i h i h i h i
A11 = a22 , A12 = a21 , A21 = a12 e A22 = a11 ,
pelo que
det A11 = a22 , det A12 = a21 , det A21 = a12 e det A22 = a11 .
Logo
(−1)1+1 a22 (−1)1+2 a21
" # " #
a22 −a21
cof (A) = = .
(−1)2+1 a12 (−1)2+2 a11 −a12 a11

Em particular, se " #
1 2
A= ,
−3 0
então " # " #
0 −(−3) 0 3
cof (A) = = .
2 1 2 1
58 2.5. Cálculo da matriz inversa através da matriz adjunta

Exemplo 2.13 Seja


 
1 4 5
A = 7 2 6 .
 
8 9 3
 

Temos
" # " # " #
2 6 7 6 7 2
A11 = , A12 = , A13 = ,
9 3 8 3 8 9
" # " # " #
4 5 1 5 1 4
A21 = , A22 = , A23 = ,
9 3 8 3 8 9
" # " # " #
4 5 1 5 1 4
A31 = , A32 = , A33 = ,
2 6 7 6 7 2

donde
det A11 = −48 , det A12 = −27 , det A13 = 47 ,
det A21 = −33 , det A22 = −37 , det A23 = −23 ,
det A31 = 14 , det A32 = −29 , det A33 = −26 .
Logo

(−1)1+1 (−48) (−1)1+2 (−27) (−1)1+3 47  −48


   
27 47
cof (A) = (−1)2+1 (−33) (−1)2+2 (−37) (−1)2+3 (−23) =  33 −37 23 .
   
(−1)3+1 14 (−1)3+2 (−29) (−1)3+3 (−26) 14 29 −26
   

Definição 2.7 (Matriz transposta) Dada uma matriz A = [aij ] de tipo m × n, chama-se
matriz transposta de A à matriz AT = [tij ] com

tij = aji .

Sendo A uma matriz de tipo m × n, a matriz AT é de tipo n × m.

Exemplo 2.14 Seja " #


a11 a12
A= .
a21 a22
Então
t11 = a11 , t12 = a21 , t21 = a12 e t22 = a11 ,
pelo que " #
T a11 a21
A = .
a12 a22

Em particular, se " #
1 2
A= ,
−3 0
Capı́tulo 2. Determinantes 59

então "#
1 −3
T
A = .
2 0

Exemplo 2.15 Seja


 
1 4 5
A = 7 2 6 .
 
8 9 3
 

Temos

t11 = a11 = 1 , t12 = a21 = 7 , t13 = a31 = 8 ,


t21 = a12 = 4 , t22 = a22 = 2 , t23 = a32 = 9 ,
t31 = a13 = 5 , t32 = a23 = 6 , t33 = a33 = 3 ,

donde  
1 7 8
AT = 4 2 9 .
 
5 6 3
 

Observar que, no caso das matrizes quadradas, AT resulta da reflexão das entradas de A relativa-
mente à diagonal principal de A. Em particular, A e AT têm a mesma diagonal principal.
j i
j

É claro que, no caso geral, não faz sentido falar em reflexão das entradas relativamente à diagonal
principal.

Exemplo 2.16 Se " #


1 7 8
A= ,
4 2 9
então  
1 4
AT = 7 2 .
 
8 9
 

Atendendo ao Teorema 1.4 e ao Exemplo 2.12, observa-se que, a menos da multiplicação


1
pelo escalar |A| , a diferença entre as matrizes A−1 e cof (A) está na diagonal não principal,
cujas entradas estão trocadas. Consideramos assim a seguinte noção:
60 2.5. Cálculo da matriz inversa através da matriz adjunta

Definição 2.8 (Matriz adjunta) Dada uma matriz A = [aij ] de tipo n × n, chama-se
matriz adjunta de A à transposta da matriz dos cofatores de A:
 T
adj (A) = cof (A) .

Exemplo 2.17 Sendo " #


a11 a12
A= ,
a21 a22
vimos no Exemplo 2.12 que
" #
a22 −a21
cof (A) = .
−a12 a11

Logo
" #T " #
a22 −a21 a22 −a12
adj (A) = = .
−a12 a11 −a21 a11

Exemplo 2.18 Seja


 
1 4 5
A = 7 2 6 .
 
8 9 3
 

Como vimos no Exemplo 2.12,


 
−48 27 47
cof (A) =  33 −37 23 .
 
14 29 −26
 

Logo,
 T  
−48 27 47 −48 33 14
adj (A) =  33 −37 23 =  27 −37 29 .
   
14 29 −26 47 23 −26
   

Assim, dada uma matriz quadrada de ordem 2

" #
a11 a12
A= ,
a21 a22

temos, pelo Teorema 1.4 e pelo Exemplo 2.17,

" #
−1 1 a22 −a12 1
A = det A = det A adj (A) .
−a21 a11

O resultado procurado diz que o mesmo se verifica no caso geral:


Capı́tulo 2. Determinantes 61

Teorema 2.4 (Cálculo da matriz inversa através da matriz adjunta) Dada uma matriz
A = [aij ] invertı́vel, tem-se:
A−1 = 1
det A adj (A) .

Recordar que uma matriz (necessariamente quadrada) é invertı́vel sse o seu determinante
é não nulo.

Exemplo 2.19 Seja


 
1 4 5
A = 7 2 6 .
 
8 9 3
 

Como vimos no Exemplo 2.18,


 
−48 33 14
adj (A) =  27 −37 29 .
 
47 23 −26
 

Uma vez que


 
1 4 5
det A = det 0 −26 −29 = (−26) × (−37) − (−29) × (−23) = 295 ,
 
0 −23 −37
 

pelo Teorema 2.4 segue-se que


 
−48 33 14
A−1 = 295
1   27 −37 29 .


47 23 −26
 

A propósito da noção de matriz transposta, as seguintes propriedades são de registar:

Teorema 2.5 (Propriedades da matriz transposta) Sejam A e B matrizes tais que a


operação indicada está definida, k ∈ R e n ∈ N. Então:

1. Transposta da transposta: (AT )T = A.

2. Transposta da soma: (A + B)T = AT + BT .

3. Transposta da multiplicação por escalar: (kA)T = k AT .

4. Transposta do produto: (AB)T = BT AT . Em particular, (An )T = (AT )n .

5. Transposta da inversa: Se A é invertı́vel, então AT também é invertı́vel e


(AT )−1 = (A−1 )T .

6. Determinante da transposta: det AT = det A.


62 2.6. Exercı́cios

Exemplo 2.20 Sendo A e B matrizes quadradas da mesma ordem (digamos n),


pretende-se calcular
A−1 ((B−1 )T )−1 (BT )−1 A .
Recorrendo às propriedades do produto de matrizes (cf. Teorema 1.2 do Capı́tulo 1),
da matriz inversa (cf. Teorema 1.5 1) e da matriz transposta (cf. Teorema 2.5 acima),
temos

A−1 ((B−1 )T )−1 (BT )−1 A = A−1 ((BT )−1 )−1 (BT )−1 A
= A−1 BT (BT )−1 A
= A−1 In A
= A−1 A
= In .

Para concluir, registamos ainda a seguinte terminologia:

Definição 2.9 (Matriz simétrica & matriz anti-simétrica) Uma matriz diz-se simétrica
se AT = A e anti-simétrica se AT = −A.

Exemplo 2.21 Consideremos as matrizes


" # " # " #
1 2 0 −2 1 −2
A= , B= e C= .
2 4 2 0 2 4

Então " # " # " #


T 1 2 T 0 2 1 2
A = = A, B = = −B e C = , C, C T ,
2 4 −2 0 −2 4
pelo que A é simétrica, B é anti-simétrica e C não é simétrica nem é anti-simétrica.

• Para matrizes 2×2 e 3×3, temos mnemónicas para calcular o seu determinante; para matrizes
quadradas de ordem 4 ou superior, recorremos às propriedades dos determinantes e à regra
de Laplace.
• O determinante de uma matriz é uma forma prática de averiguar se a matriz é invertı́vel:

A invertı́vel sse det A , 0 .

Recorrendo à matriz adjunta, temos uma alternativa à condensação para calcular a inversa
de uma matriz.
• A regra de Cramer resolve sistemas possı́veis e determinados.

2.6 Exercı́cios
Capı́tulo 2. Determinantes 63

Exercı́cio 2.1 Calcule.



3 5 −5 6 −2 7 6 −1 1 2
(a) (c)
−2 4 −7 −2 (e) 5 1 −2 (g) 3 0 −5
3 8 4 1 7 2


√ √ −2 1 4 3 0 0
2
√6

4 1 (f) 3 5 −7 (h) 2 −1 5
(b) (d)
4 3

8 2 1 6 2 1 9 −4

Exercı́cio 2.2 Determine todos os valores de λ para os quais det A = 0.



λ−2 1 λ − 4 0 0
(a)
−5 λ + 4 (b) 0 λ 2
0 3 λ−1

Exercı́cio 2.3 Calcule recorrendo à regra de Laplace.



3 6 9 2 1 3 1 1 3 1 5 3

(a) 0 0 −2 1 0 1 1 −2 −7 0 −4 2
(c)
−2 1 5 0 2 1 0 (d) 0 0 1 0 1


0 1 2 3 0 0 2 1 1
0 3 1
0 0 0 1 1


(b) 1 1 2
3 2 4

Exercı́cio 2.4 Calcule recorrendo à condensação.



1 −3 0
1 −2 3 1 1 3 1 5 3
(a) −2 4 1 5 −9 6 3 −2 −7 0 −4 2
(c)
5 −2 2 −1 2 −6 −2 (d) 0 0 1 0 1

2 8 6 1
0 0 2 1 1
0 3 1


0 0 0 1 1

(b) 1 1 2
3 2 4


a b c
Exercı́cio 2.5 Sabendo que d e f = −6, calcule:
g h i


d e f
3a 3b 3c a + g b + h c + i
(a) g h i (b) −d −e −f (c) d e f
a b c 4g 4h 4i g h i

64 2.6. Exercı́cios

 
 a b c 
Exercı́cio 2.6 Sabendo que A =  d e f  e que det A = −7, calcule:
 
g h i
 

(a) det(3A) (b) det(A−1 ) (c) det(2A−1 ) (d) det((2A)−1 )

Exercı́cio 2.7 Determine para que valores de k as seguintes matrizes não são in-
vertı́veis.
" #  
k−3 −2  1 2 4 
(a)
(b)  3 1 6 
 
−2 k − 2
k 3 2
 

Exercı́cio 2.8 Nos casos em que tal for possı́vel, resolva recorrendo à regra de Cramer.
(  
7x − 2y = 3  x − 4y + z = 6  x − 3y + z = 4
(a)

 

3x + y = 5 (c)  4x − y + 2z = −1 (e)  2x − y = −2
 
 
 2x + 2y − 3z = −20
  4x − 3z = 0

 


 4x + 5y = 2 

 3x − y + z = 4
(b)  11x + y + 2z = 3 (d)  −x + 2y − 2z = 1
 
 
 x + 5y + 2z = 1
  2x + y − z = 5

 
 1 −2 3 
Exercı́cio 2.9 Seja A =  6 7 −1 .
 
−3 1 4
 

(a) Indique todas as matrizes Aij .

(b) Determine a matriz cof (A).

(c) Determine a matriz adj (A).

(d) Determine a matriz A−1 .

 
 1 3 1 1 
 2 5 2 2
 
Exercı́cio 2.10 Seja A =  .

 1 3 8 9 

1 3 2 2

(a) Calcule A−1 usando a matriz adjunta.

(b) Calcule A−1 usando o método de Gauss-Jordan.

(c) Qual dos dois processos envolve menos cálculos?


Capı́tulo 2. Determinantes 65

Exercı́cio 2.11 Calcule a inversa das seguintes matrizes.


     
 2 5 5   2 0 3   2 −3 5 
(a)  −1 −1 0 (b)  0 3 2 (c)  0 1 −3 
     
 
 
2 4 3 −2 0 −4 0 0 2
   

Exercı́cio 2.12 Considere as matrizes


   
 2 −1 3   8 −3 −5 
A =  0 4 5  e B =  0 1 2  .
   
−2 1 4 4 −7 6
   

Verifique as igualdades.

(a) (A + B)T = AT + BT (b) (AB)T = BT AT (c) (BT )−1 = (B−1 )T

Exercı́cio 2.13 Calcule A sabendo que:


" #
−3 −1
(a) (5AT )−1 =
5 2
" # " #
−10 3 1 2
(b) 5I + BAT = , sendo B =
10 −3 4 −2

2.7 Soluções

Solução 2.1

(a) 22 (c) 52 (e) 0 (g) −4



(b) 0 (d) −3 6 (f) −65 (h) −123

Solução 2.2

(a) λ = −3, λ = 1 (b) λ = −2, λ = 3, λ = 4

Solução 2.3

(a) 30 (b) 5 (c) 6 (d) −2

Solução 2.4

(a) −17 (b) 5 (c) 39 (d) −2


66 2.7. Soluções

Solução 2.5

(a) −6 (b) 72 (c) −6

Solução 2.6

(a) −189 (b) − 17 (c) − 78 1


(d) − 56

Solução 2.7

5± 17 (b) k = −1
(a) k = 2

Solução 2.8

(a) x = 1, y = 2 (d) Não se aplica


3 2 1
(b) x = 11 , y = 11 , z = − 11
(c) x = − 144 61 46
55 , y = − 55 , z = 11 (e) x = − 30 38 40
11 , y = − 11 , z = − 11

Solução 2.9
" # " #
29 −21 27
 
7 −1 6 −1
(a) A11 = , A12 = ,
 
1 4 −3 4 (b) cof (A) = 
 11 13 5 

−19 19 19
" # " #  
6 7 −2 3
A13 = , A21 = ,
−3 1 1 4
 29 11
 
" # " # −19
1 3 1 −2 
A22 = , A23 = , (c) adj (A) =  −21
 13 19 
−3 4 −3 1

27 5 19
 
" # " #
−2 3 1 3
A31 = , A32 = ,
7 −1 6 −1  29

11 −19


" #
1 
1 −2 (d) A−1 = 152  −21 13 19 
A33 =  
6 7 27 5 19

 −4 3 0 −1 
 
 2 −1 0 0 
Solução 2.10 A−1 = 

 −7 0 −1 8 

6 0 1 −7
 

Solução 2.11
3  1 3 
 3 −5
 
−5 2 0 1 
 
  2   2 2
(a)  −3 4 5 (b)  2 1 2 (c)  0 3 
1
     
3 3 3 2 
 
2 −2 −3 1 
  
0
 
−1 −1 
0 0 2

Solução 2.12
Capı́tulo 2. Determinantes 67

 10 0 2 
 
 −4 5 −6 
(a) Ambos os lados da equação são iguais a  
−2 7 10
 

 28 20 0 
 
(b) Ambos os lados da equação são iguais a  −28 −31 −21 
 
10 38 32
 

 20 8
 
−4 
1 
(c) Ambos os lados da equação são iguais a 148  39 60 44 
 
−3 −16 8
 

Solução 2.13
" 2 # " #
−5 1 −1 −7
(a) (b)
− 15 35 −1 2
3. Espaços Vetoriais

3.1 Definição e exemplos 69

3.2 Combinação linear, base e dimensão 75

3.3 Os 4 espaços fundamentais de uma matriz 87

3.4 Coordenadas e mudança de base 92

3.5 Exercı́cios 99

3.6 Soluções 103

Os chamados espaços vetoriais são estruturas bastante simples onde se encaixam inúmeros conjun-
tos muito diversos (e respetivas operações). Neste capı́tulo iremos abordar as noções mais básicas
relativamente a espaços vetoriais e as matrizes rapidamente irão surgir como ferramentas funda-
mentais no estudo destas estruturas.

3.1 Definição e exemplos


A noção de vetor é bem conhecida: um vetor é caracterizado por uma direção, um sentido e
um comprimento (ou norma). Neste contexto, estamos a pensar em vetores como translações
(ou deslocamentos), no plano ou no espaço, e há duas operações que lhes estão naturalmente
associadas: a soma e a multiplicação por um escalar.

Tanto no caso dos vetores no plano como no caso dos vetores no espaço, estas operações
gozam de algumas propriedades, todas elas fáceis de verificar:

Teorema 3.1 (Propriedades da soma de vetores e do produto de um vetor por um esca-


lar) Sejam u
~ , v~ e w
~ vetores (todos no plano ou todos no espaço) e k, l ∈ R. Então:

69
70 3.1. Definição e exemplos

1. Propriedade comutativa da soma: u


~ + v~ = v~ + u
~.

2. Propriedade associativa da soma: (~


u + v~) + w
~ =u
~ + (~
v + w).
~

~ + ~0 = ~0 + u
3. Existência de elemento neutro para a soma: u ~=u
~.

4. Existência de simétrico: u u ) = ~0.


~ + (−~

5. Propriedade distributiva da multiplicação relativamente à soma (de vetores):


u + v~) = k u
k(~ ~ + k~
v.

6. Propriedade distributiva da soma (de escalares) relativamente à multiplicação:


(k + l)~
u = ku
~ + lu
~.

7. k(l u
~ ) = (kl)~
u.

8. 1~
u=u
~.

u = ~0.
9. 0~

Substituindo vetores por matrizes, estas são precisamente as propriedades de que go-
zam a soma de matrizes e o produto de uma matriz por um escalar (cf. Teorema 1.1 do
Capı́tulo 1). Consideremos então o seguinte conceito, que engloba os casos das matrizes,
vetores e inúmeros outros:

Definição 3.1 (Espaço vetorial (real); vetor; vetor nulo) Chamamos espaço vetorial real
a todo o conjunto no qual estejam definidas uma operação entre os seus elementos, de-
signada por soma, e uma operação entre um elemento do conjunto e um número real,
designada por produto por um escalar, que verifiquem as propriedades enunciadas no
Teorema 3.1. Aos elementos do conjunto chamamos vetores e ao vetor ~0 chamamos
vetor nulo.

Existe o conceito análogo de espaço vetorial complexo, onde o produto por escalar envolve números
complexos, mas não o iremos estudar. Assim, usaremos o termo “espaço vetorial” em vez de “espaço
vetorial real”.

Exemplo 3.1 O conjunto dos vetores no plano, que, como é bem conhecido, pode
ser identificado com R2 , é um portanto um espaço vetorial para a soma de vetores e
o produto por um escalar usuais. Analogamente para R3 , o conjunto dos vetores no
espaço.
Já o conjunto E = {(x, y, z) : x, y, z ∈ Z}, por exemplo, não é um espaço vetorial para estas
operações, uma vez que 21 (2, 3, −4) = (1, 32 , −2) < E apesar de (2, 3, −4) ∈ E e 12 ∈ R.
Mais geralmente, fixado n ∈ N, o conjunto Rn = {(x1 , . . . , xn ) : x1 , . . . , xn ∈ R} é um espaço
vetorial para as operações:

(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )


Capı́tulo 3. Espaços Vetoriais 71

e
k(x1 , . . . , xn ) = (kx1 , . . . , kxn ) .

Exemplo 3.2 Fixados m, n ∈ N, o conjunto das matrizes de tipo m × n com entradas


reais, que denotámos por Rm×n , Rm,n ou Mm×n (R) (cf. Definição 1.12), é um espaço
vetorial para a soma de matrizes e o produto por um escalar.
Por exemplo, os vetores do espaço vetorial R2×3 são as matrizes
" #
a b c
,
d e f

com a, b, c, d, e, f ∈ R, e, em particular, o vetor nulo é a matriz


" #
0 0 0
.
0 0 0

Exemplo 3.3 O conjunto Rn [x] = {a0 + a1 x + · · · + an xn : a0 , a1 . . . , an ∈ R} dos polinómios


de grau menor ou igual a n é um espaço vetorial para as operações:

(a0 + a1 x + · · · + an xn ) + (b0 + b1 x + · · · + bn xn ) = (a0 + b0 ) + (a1 + b1 )x + · · · + (an + bn )xn

e
k(a0 + a1 x + · · · + an xn ) = ka0 + (ka1 )x + · · · + (kan )xn .
De facto, Rn [x] é fechado para as operações consideradas, uma vez que ambas, quando
aplicadas a polinómios de grau menor ou igual a n, produzem um polinómio de grau
menor ou igual a n (o que já não é verdade, por exemplo, para o produto de po-
linómios). Além disso, têm-se as 9 propriedades que têm que ser satisfeitas, como
é fácil de verificar. Por exemplo, dados p(x) ∈ Rn [x], digamos p(x) = a0 + a1 x + · · · + an xn ,
e k, l ∈ R, temos

(k + l)p(x) = (k + l)(a0 + a1 x + · · · + an xn )
= (k + l)a0 + (k + l)a1 x + · · · + (k + l)an xn
= ka0 + la0 + ka1 x + la1 x + · · · + kan xn + lan xn
= (ka0 + ka1 x + · · · + kan xn ) + (la0 + la1 x + · · · + lan xn )
= k(a0 + a1 x + · · · + an xn ) + l(a0 + a1 x + · · · + an xn )
= kp(x) + lp(x) .

Exemplo 3.4 O conjunto C(R) das funções contı́nuas em R é um espaço vetorial para
as operações:
(f + g)(x) = f (x) + g(x)
e
(kf )(x) = kf (x) .
De facto, a soma de funções contı́nuas é uma função contı́nua e o produto de uma
72 3.1. Definição e exemplos

função contı́nua por um escalar é uma função contı́nua. Quanto às propriedades enun-
ciadas no Teorema 3.1, é mais uma vez direta a sua verificação.
O conjunto M(R) das funções monótonas em R não é um espaço vetorial para as
operações usuais de soma e produto por um escalar. De facto, por exemplo f (x) = x3 e
g(x) = −x são funções monótonas, mas f (x) + g(x) = x3 − x não é monótona, pois não é
crescente nem decrescente:

y y y
y = x3 y = −x y = x3 − x

x x x

Exemplo 3.5 Consideremos o conjunto S = {(a, b, 2a−b) : a, b ∈ R}. Vejamos que se trata
de um espaço vetorial para as operações usuais de soma e produto por um escalar.
Sejam u
~ , v~ ∈ S e k, l ∈ R.
Por definição de S, tem-se u
~ = (a, b, 2a − b) e v~ = (c, d, 2c − d) para certos a, b, c, d ∈ R.
Novamente por definição de S, temos:

~ + v~ = (a, b, 2a−b)+(c, d, 2c −d) = (a+c, b +d, 2a−b +2c −d) = (a+c, b +d, 2(a+c)−(b +d)) ,
u

onde a + c, b + d ∈ R, pelo que u


~ + v~ ∈ S;

~ = k(a, b, 2a − b) = (ka, kb, k(2a − b)) = (ka, kb, 2(ka) − (kb)) ,


ku

com ka, kb ∈ R, donde k u


~ ∈ S. Logo, S é fechado para as operações consideradas.
Resta assim verificar que as propriedades enunciadas no Teorema 3.1 são satisfeitas.
Em vez de o fazermos diretamente, que é uma tarefa muito aborrecida, vejamos uma
alternativa.

Definição 3.2 (Subespaço vetorial) Dado um espaço vetorial E e um subconjunto não


vazio S de E, dizemos que S é um subespaço vetorial de E se S é ele próprio um espaço
vetorial para as operações definidas em E.

Pelo facto de “herdar” as suas operações do espaço vetorial, na verificação de que um dado sub-
conjunto é um subespaço vetorial não há necessidade de confirmar as 9 propriedades da definição
de espaço vetorial, mas apenas que é fechado para as operações. Assim, é em geral mais fácil esta-
belecer que um subconjunto é um subespaço vetorial do que estabelecer que um conjunto é espaço
vetorial:
Capı́tulo 3. Espaços Vetoriais 73

Teorema 3.2 (Caracterização alternativa de subespaço vetorial) Sejam E um espaço


vetorial E e S um subconjunto não vazio de E. Então S é um subespaço vetorial de E
sse:

• quaisquer que sejam u ~ + v~ ∈ S;


~ , v~ ∈ S, u

• quaisquer que sejam u


~ ∈ S e k ∈ R, k u
~ ∈ S,

ou, equivalentemente,

• quaisquer que sejam u


~ , v~ ∈ S e k, l ∈ R, k u
~ + l~
v ∈ S.

Exemplo 3.6 (Continuação do Exemplo 3.5) Em virtude do resultado anterior, do facto


de S ser não vazio, pois, por exemplo, o vetor (0, 0, 0) pertence a S, e do facto de
já termos verificado, no Exemplo 3.5, que S é fechado para as operações do espaço
vetorial R3 , fica provado que S é um subespaço vetorial de R3 e, logo, que S é um
espaço vetorial.

Exemplo 3.7 Seja S o conjunto solução do SEL



x + 2y = 3



4x + 8y = 12

(cf. Exemplo 1.3 do Capı́tulo 1). Como vimos, S = {(3−2y, y) : y ∈ R}, que é um subcon-
junto do espaço vetorial R2 . No entanto, S não é um subespaço vetorial de R2 , pois, por
exemplo, u~ = (3, 0) e v~ = (1, 1) pertencem a S, enquanto que u
~ + v~ = (3, 0) + (1, 1) = (4, 1)
não pertence a S.

O facto de um subespaço vetorial ser um espaço vetorial implica, em particular, que o


vetor nulo pertence ao subespaço. Por essa razão, o conjunto de solução de um SEL não
homogéneo, como é o caso do exemplo anterior, nunca constitui um subespaço vetorial, uma
vez que não admite a solução nula.

Quando pretendemos verificar se um dado conjunto é um subespaço vetorial, é boa ideia começar
por averiguar se o vetor nulo lhe pertence. Em caso afirmativo, fica estabelecido que o espaço é não
vazio (pelo que vale a pena prosseguir a verificação); em caso negativo, fica provado que não se
trata de um espaço vetorial.

Exemplo 3.8 Vejamos que


(" # )
a a+b
S= : a, b ∈ R
0 b

é um subespaço vetorial de R2×2 .


74 3.1. Definição e exemplos

Claramente, S ⊆ R2×2 e, tomando a = b = 0, obtemos o vetor


" #
0 0
,
0 0

que é o vetor nulo de R2×2 . Logo, S , ∅. Tomemos u ~ , v~ ∈ S e k ∈ R quaisquer. Por


definição de S, " # " #
a a+b c c+d
~=
u e v~ = ,
0 b 0 d
para certos a, b, c, d ∈ R. Deste modo,
" # " # " # " #
a a+b c c+d a+c a+b+c+d a + c (a + c) + (b + d)
u~ + v~ = + = = ,
0 b 0 d 0 b+d 0 b+d

pelo que u
~ + v~ ∈ S, e
" # " # " #
a a+b ka k(a + b) ka ka + kb
~=k
ku = = ,
0 b 0 kb 0 kb

~ ∈ S. Logo, é um subespaço vetorial de R2×2 .


pelo que k u

Referimos acima que o conjunto de solução de um SEL não homogéneo, embora se trate
de um subconjunto de Rn , com n o número de incógnitas, nunca constitui um subespaço
vetorial de Rn . Já o o conjunto de solução de um SEL homogéneo constitui sempre um
subespaço vetorial:

Teorema 3.3 (Subespaço vetorial constituı́do pelo conjunto de solução de um SEL


homogéneo) O conjunto de solução de um SEL homogéneo com n incógnitas é um
subespaço vetorial de Rn .

Demonstração. Consideremos o SEL





 a11 x1 + a12 x2 + . . . + a1n xn = 0
 a21 x1 + a22 x2 + . . . + a2n xn = 0


.

 ..



 .
 a x + a x + ... + a x = 0,

m1 1 m2 2 mn n

Tratando-se de um SEL homogéneo, (0, 0, . . . , 0) é uma solução do sistema, pelo que o seu
CS é não vazio.
Sejam u ~ = (u1 , u2 , . . . , un ) e v~ = (v1 , v2 , . . . , vn ) soluções do sistema. Então, tanto u ~ como v~
satisfazem as n equações do sistema, o que matricialmente se escreve na forma
         
 a11 a12 . . . a1n   u1   0   a11 a12 . . . a1n   v1   0 
 a21 a22 . . . a2n   u2   0   a a22 . . . a2n   v2   0 
           
 =   e  21
 .. .. .. ..   ..   ..   .. .. .. ..   ..  =  ..  ,
       
 .
 . . .   .   . 
      .
 . . .   .   . 
 
am1 am2 . . . amn un 0 am1 am2 . . . amn vn 0
        

ou, denotando por A a matriz dos coeficientes do sistema, por U (respetivamente, V ) a matriz
coluna do vetor u
~ (respetivamente, v~) e por O a matriz coluna nula, AU = O e AV = O.
Capı́tulo 3. Espaços Vetoriais 75

Vejamos que também o vetor u


~ + v~ satisfaz o sistema. De facto, pelas propriedades das
operações com matrizes,

A(U + V ) = AU + AV = O + O = O .

Analogamente, dada uma solução do sistema, digamos u


~ , e um escalar k, tem-se

A(kU ) = k(AU ) = kO = O ,

pelo que k u
~ é ainda uma solução do sistema.
Deste modo, o CS do SEL acima é um conjunto não vazio e fechado para as operações do
espaço vetorial Rn . Logo, pelo Teorema 3.2, tem-se a conclusão pretendida.

Exemplo 3.9 (Ainda o Exemplo 3.5) O Teorema 3.3 dá-nos outra forma de mostrar que
o conjunto S do Exemplo 3.5 é um espaço vetorial. De facto,



 x=a
(x, y, z) ∈ S ⇔  y=b para certos a, b ∈ R ⇔ z = 2x − y ⇔ 2x − y − z = 0 .


 z = 2a − b

Assim, S é o CS do SEL (com 1 equação e 3 incógnitas) 2x − y − z = 0. Dado que este


SEL é homogéneo, pelo Teorema 3.3 concluı́mos que o seu CS, ou seja, S é um espaço
vetorial.

3.2 Combinação linear, base e dimensão


Como vimos na secção anterior, um espaço vetorial está equipado com duas operações, a
soma de vetores e o produto por um escalar. Evidentemente, estas operações podem ser
combinadas. Por exemplo em R2 , u ~ = (1, −2) e v~ = (0, −3) são vetores deste espaço, −2~ u=
(−2, 4) e 3~
v = (0, −9) também são vetores deste espaço, e −2~u + 3~v = (−2, 4) + (0, −9) = (−2, −5)
é ainda um vetor deste espaço.

Definição 3.3 (Combinação linear) Dado um espaço vetorial E, chamamos combinação


linear dos vetores v~1 , . . . , v~n ∈ E a toda a expressão da forma

k1 v~1 + . . . + kn v~n

onde k1 , . . . , kn ∈ R.

Exemplo 3.10 (i) No espaço vetorial R2 , todos os vetores podem ser escritos como
combinação linear dos vetores ~i = (1, 0) e ~
j = (0, 1). De facto,

v~ = (a, b) = (a, 0) + (0, b) = a(1, 0) + b(0, 1) = a~i + b~


j.
Menos óbvio, mas igualmente verdade, é que todos os vetores deste espaço po-
76 3.2. Combinação linear, base e dimensão

dem ser escritos como combinação linear dos vetores (2, 0) e (1, 1), pois
 
a−b
2α + β = a α = 2

 

v~ = (a, b) = α(2, 0) + β(1, 1) ⇔ (a, b) = (2α + β, β) ⇔  ⇔  ,
β = b
 β = b

o que mostra que


a−b
v~ = (a, b) = 2 (2, 0) + b (1, 1) ,
qualquer que seja o vetor v~ = (a, b) ∈ R2 . Assim, por exemplo (2, −4) = 3(2, 0) −
4(1, 1) e (1, 3) = −(2, 0) + 3(1, 1).

(ii) Consideremos agora os vetores (2, 0), (1, 1) e (1, 3). Sendo igualmente verdade
que é possı́vel escrever todos os vetores de R2 como combinação linear destes
três vetores, pois

a−b+2γ
α = 2


v~ = (a, b) = α(2, 0) + β(1, 1) + γ(1, 3) ⇔ (a, b) = (2α + β + γ, β + 3γ) ⇔ 
β = b − 3γ

tem-se a seguinte diferença: é possı́vel escrever o mesmo vetor como combinação


linear dos vetores (2, 0), (1, 1) e (1, 3) de mais que uma maneira — por exemplo,

(2, −4) = 3(2, 0) − 4(1, 1) + 0(1, 3) e (2, −4) = 4(2, 0) − 7(1, 1) + 1(1, 3) ,

— enquanto que, como combinação linear dos vetores (2, 0) e (1, 1), há uma e uma
única forma de o fazer.

(iii) Nem todos os vetores de R2 podem ser escritos como combinação linear dos ve-
tores (1, 3) e (2, 6) — de facto, apenas os vetores da forma (a, 3a), com a ∈ R,
admitem ser escritos como combinação linear dos vetores (1, 3) e (2, 6):

k(1, 3) + l(2, 6) = k(1, 3) + 2l(1, 3) = (k + 2l)(1, 3) .

Repare-se que não é possı́vel escrever os vetores (2, 0) e (1, 1) à custa um do outro, mas é
possı́vel escrever o vetor (2, 0) à custa dos vetores (1, 1) e (1, 3),

(2, 0) = 3(1, 1) − (1, 3) ,

bem como, evidentemente, escrever o vetor (1, 1) à custa dos vetores (2, 0) e (1, 3) e escrever
o vetor (1, 3) à custa dos vetores (2, 0) e (1, 1).
É fácil verificar que, dados vetores v~1 , . . . , v~n pertencentes a um espaço vetorial E, o con-
junto de todas as combinações lineares destes vetores constitui um subespaço vetorial de E
(possivelmente todo o espaço). Faz assim sentido a seguinte noção:

Definição 3.4 (Geradores de um espaço vetorial) Seja E um espaço vetorial qualquer e


sejam v~1 , . . . , v~n vetores de E. Ao (sub)espaço vetorial (de E)


v~1 , . . . , v~n = {k1 v~1 + . . . + kn v~n : k1 , . . . , kn ∈ R}

chamamos (sub)espaço vetorial gerado pelos vetores v~1 , . . . , v~n e dizemos que {~
v1 , . . . , v~n }
Capı́tulo 3. Espaços Vetoriais 77

é um conjunto de geradores do espaço.

Exemplo 3.11 São subespaços vetoriais de R2

S0 = h(0, 0)i , S1 = h(1, −1)i e S2 = h(2, 0), (1, 1)i .

O espaço S0 consiste num único ponto, (0, 0); o espaço S1 consiste em todos os pontos
da forma (x, −x), com x ∈ R, definindo portanto a reta de equação y = −x; tendo em
conta o exemplo anterior, S2 = R2 . Deste modo,

h(1, 0), (0, 1)i = h(2, 0), (1, 1)i = h(2, 0), (1, 1), (1, 3)i = · · ·

Exemplo 3.12 São subespaços vetoriais de R3

S0 = h(0, 0, 0)i , S1 = h(1, −1, 1)i , S2 = h(1, −1, 1), (0, 2, −1)i e S3 = h(1, 0, 0), (0, 1, 0), (0, 0, 1)i .

O espaço S0 consiste num único ponto, (0, 0, 0); o espaço S1 consiste em todos os pontos
da forma (x, −x, x), com x ∈ R, definindo portanto a reta de equações y = −x, z = x; o
espaço S2 consiste em todos os pontos da forma (k, −k, k) + (0, 2l, −l), ou seja, (k, −k +
2l, k − l), com k, l ∈ R. Assim,

(x, y, z) ∈ S2 ⇔ (x, y, z) = (k, −k + 2l, k − l)





 x=k
⇔  y = −k + 2l


 z = k−l




 k=x
⇔  y = −x + 2(x − z)


 l = x−z

⇔ y = −x + 2x − z
⇔ x − y − 2z = 0 ,

definindo portanto o plano de equação x − y − 2z = 0. Quanto a S3 , tem-se S3 = R3 , já


que todo o vetor de R3 pode ser escrito como combinação linear dos vetores (1, 0, 0),
(0, 1, 0) e (0, 0, 1).

Os subespaços vetoriais de R2 e R3 têm interpretações geométricas tão diretas quanto importantes:




 dim S = 0 : S = {(0, 0)}
2

S subespaço vetorial de R dim S = 1 : S é uma reta no plano contendo (0, 0)



 dim S = 2 : S = R2




 dim S = 0 : S = {(0, 0, 0)}
 dim S = 1 : S é uma reta no espaço contendo (0, 0, 0)

S subespaço vetorial de R3 



 dim S = 2 : S é um plano no espaço contendo (0, 0, 0)
 dim S = 3 : S = R3 .

78 3.2. Combinação linear, base e dimensão

Na descrição dos subespaços vetoriais de Rn , usa-se a terminologia já conhecida para as


diferentes equações das retas e planos:

Definição 3.5 (Equação vetorial, equações paramétricas & equações cartesianas de


~1 , . . . , v~m um subespaço vetorial de Rn (onde m, n ∈ N).


um espaço vetorial) Seja E = v
Chamamos equação vetorial de E à expressão

(x1 , . . . , xn ) = k1 v~1 + . . . + km v~m , k1 , . . . , km ∈ R ;

chamamos equações paramétricas de E à expansão da equação vetorial coordenada a


coordenada: 


 x1 = a11 k1 + a12 k2 + . . . + a1m km
 x2 = a21 k1 + a22 k2 + . . . + a2m km



 .. (k1 , . . . , km ∈ R)
.




 x = a k + a k + ... + a k

n n1 1 n2 2 nm m

(onde, portanto, (a1i , a2i , . . . , ani ) são, para cada i ∈ {1, . . . , m}, as coordenadas do vetor
v~i ); e chamamos equação cartesiana (respetivamente, sistema de equações cartesianas)
à equação (respetivamente, equações) que obtemos a partir das equações paramétricas
por eliminação dos parâmetros.

Exemplo 3.13 Consideremos o subespaço vetorial de R2

S1 = h(1, −1)i

(cf. Exemplo 3.11). S1 tem equação vetorial

(x, y) = k(1, −1) , k ∈ R,

equações paramétricas (
x=k
(k ∈ R)
y = −k ,
e equação cartesiana y = −x.

Exemplo 3.14 Consideremos os subespaços vetoriais de R3

S1 = h(1, −1, 1)i e S2 = h(1, −1, 1), (0, 2, −1)i

(cf. Exemplo 3.12).


O espaço S1 tem equação vetorial

(x, y, z) = k(1, −1, 1) , k ∈ R,

equações paramétricas 


 x=k
y = −k (k ∈ R) ,



 z=k

Capı́tulo 3. Espaços Vetoriais 79

e sistema de equações cartesianas


(
y = −x
.
z=x

Neste caso, é muito fácil determinar o sistema de equações cartesianas a partir das
equações paramétricas e não haveria grande vantagem em fazê-lo de outra forma.
No entanto, observemos que as equações paramétricas constituem um SEL cuja
representação matricial é:    
 1  h i  x 
 −1  k =  y  .
   
   
1 z
Assim, o SEL é possı́vel sse a caracterı́stica da matriz dos coeficientes for igual à da
matriz ampliada. Ora,
   
 1 x  ←→  1 x 
 −1 y  L2 →L2 +L1  0 y + x
   

  L3 →L3 −L1  
1 z 0 z−x

donde se conclui o sistema de equações cartesianas


(
x+y = 0
.
x−z = 0

Quanto a S2 , este tem equação vetorial

(x, y, z) = k(1, −1, 1) + l(0, 2, −1) , k, l ∈ R ,

equações paramétricas 


 x=k
y = −k + 2l (k, l ∈ R)



 z = k−l,

e equação cartesiana x − y − 2z = 0, como vimos no Exemplo 3.12. Também aqui a


equação cartesiana do espaço pode ser obtida condensando a matriz ampliada dada
pelas equações paramétricas.
    
 k = x 1 0 " #  x 
 k

 
 
  
−k + 2l = y ⇒ −1 2 =  y 
 
 

 
  l
  
k−l = z 1 −1 z

  

Tendo-se
1 0 x ←→
1 0 x 1 0 x
L2 →L2 +L1 ←→
−1 2 y 0 2 y +x L3 →L3 + 12 L2 0 2 y +x ,
L3 →L3 −L1
1 −1 z 0 −1 z − x 0 0 z − x + 12 (y + x)

resulta que

z − x + 12 (y + x) = 0 ⇔ z − x + 12 y + 12 x = 0 ⇔ z − 12 x + 12 y = 0 ⇔ x − y − 2z = 0 .
80 3.2. Combinação linear, base e dimensão

Em geral, sempre que um subespaço vetorial S de Rn é gerado pelos vetores v~1 , v~2 , . . . , v~m ,


S = v~1 , v~2 , . . . , v~m ,

as equações paramétricas de S constituem um SEL





 a11 k1 + a12 k2 + . . . + a1m km = x1



 a21 k1 + a22 k2 + . . . + a2m km = x2
 ..
.




an1 k1 + an2 k2 + . . . + anm km = xn

em que a matriz dos coeficientes tem, nas suas colunas, as coordenadas dos vetores que geram o
espaço. Além disso, neste SEL os parâmetros k1 , k2 , . . . , kn desempenham o papel de incógnitas e
x1 , x2 , . . . , xm o de termos independentes. Deste modo, a representação matricial deste SEL é

k1
     
 a11 a12 . . . a1m    x1
k2
    
 a21 a22 . . . a2m x2
     
    
..  = 
 ,
 .. .. .. .. ..
  
.
 
 . . .  
 .   . 
     
an1 an2 . . . anm   xn
km

pelo que a matriz ampliada é


 
 a11 a12 . . . a1m x1 
 a21 a22 . . . a2m x2
 

 .
 .. .. .. .. ..

.

 . . . . 
 
an1 an2 . . . anm xn

Condensando esta matriz e impondo que a caracterı́stica da matriz ampliada seja igual à da matriz
dos coeficientes, obtemos uma descrição cartesiana se S.

Como é evidente, o processo inverso, isto é, obter um conjunto de geradores a partir das
equações do espaço vetorial, também é sempre possı́vel:

Exemplo 3.15 Seja S o subespaço vetorial de R4 definido pelo sistema da equações


cartesianas (
x − 2y + z − 3w = 0
.
2x + 4y − w = 0
Uma vez que
( (
x − 2y + z − 3w = 0 x = 2y − z + 3w
⇔ ⇔
2x + 4y − w = 0 2(2y − z + 3w) + 4y − w = 0
( ( (
x = 2y − z + 3w x = 2y − z + 3w x = 2y − z + 3w
⇔ ⇔ ⇔ ⇔
4y − 2z + 6w + 4y − w = 0 8y − 2z + 5w = 0 z = 4y + 25 w
x = 2y − (4y + 52 w) + 3w x = −2y + 12 w
( (
⇔ 5 ⇔ ,
z = 4y + 2 w z = 4y + 25 w
Capı́tulo 3. Espaços Vetoriais 81

temos

S = {(−2y + 12 w, y, 4y + 52 w, w) : y, w ∈ R}
= {y(−2, 1, 4, 0) + w( 12 , 0, 52 , 1) : y, w ∈ R}
D E
= (−2, 1, 4, 0), ( 21 , 0, 52 , 1) .

Alternativamente, podı́amos ter resolvido o sistema matricialmente:

1 −2 1 −3 ←→ 1 −2 1 −3 ←→
L2 →L2 −2L1
2 4 0 −1 0 8 −2 5
1
←→ 1 −2 1 −3 ←→ 1 0 2 − 74
L2 → 18 L2 L1 →L1 +2L2 ,
0 1 − 41 5
8 0 1 − 41 5
8

donde
x + 21 z − 74 w = 0 x = − 12 z + 74 w
( (
⇔ .
y − 14 z + 58 w = 0 y = 14 z − 58 w
Logo

S = {(− 12 z + 74 w, 14 z − 85 w, z, w) : z, w ∈ R}
= {z(− 12 , 14 , 1, 0) + w( 47 , − 58 , 0, 1) : z, w ∈ R}
D E
= (− 12 , 14 , 1, 0), ( 74 , − 58 , 0, 1)

— um conjunto de geradores diferente, mas isso é irrelevante.

Como se pode observar no exemplo anterior, este processo tem tudo a ver com a resolução
de SEL homogéneos, ao qual podemos portanto aplicar as ferramentas matriciais desenvol-
vidas no Capı́tulo 1.

Quando um vetor v~3 é combinação linear dos vetores v~1 e v~2 , digamos v~3 = k~
v1 +l~
v2 , então
todos os vetores que são combinação de v~1 , v~2 e v~3 também são combinação linear apenas de
v~1 e v~2 . De facto, se w
~ = α~
v1 + β~
v2 + γ v~3 , então

~ = α~
w v1 + β~
v2 + γ(k~
v1 + l~
v2 ) = (α + kγ)~
v1 + (β + lγ)~
v2 .




Em particular, v~1 , v~2 , v~3 = v~1 , v~2 , pelo que o vetor v~3 seria, assim, um gerador redundante
(cf. Definição 3.4).
A redundância (ou não) de um vetor num conjunto de geradores será muito importante.
Ela é traduzida pela seguinte noção:

Definição 3.6 (Vetores linearmente dependentes (l.d.) vs vetores linearmente inde-


pendentes (l.i.)) Seja E um espaço vetorial qualquer e sejam v
~1 , . . . , v~n vetores de E.
Dizemos que os vetores v~1 , . . . , v~n são linearmente independentes , ou que o conjunto
v1 , . . . , v~n } é linearmente independente, se não for possı́vel escrever qualquer um deles
{~
à custa dos restantes. Caso contrário, dizemos que os vetores são linearmente depen-
dentes (ou que o conjunto por eles formado é linearmente dependente).
82 3.2. Combinação linear, base e dimensão

Exemplo 3.16 Como observámos a seguir ao Exemplo 3.10, os vetores (2, 0) e (1, 1)
são linearmente independentes, enquanto que os vetores (2, 0), (1, 1) e (1, 3) são li-
nearmente dependentes, tal como os vetores (1, 3) e (2, 6). Assim, {(2, 0), (1, 1)} é um
conjunto linearmente independente e {(2, 0), (1, 1), (1, 3)} e {(1, 3), (2, 6)} são conjuntos
linearmente dependentes.

Exemplo 3.17 Dado que não é possı́vel escrever nenhum dos polinómios 1, x e x2 como
combinação linear dos outros dois, 1, x e x2 são vetores linearmente independentes do
espaço vetorial R2 [x].

Antes de vermos mais exemplos relativos a esta noção, registemos uma outra forma de a
testar:

Teorema 3.4 (Caracterização alternativa de independência linear) Seja E um espaço


vetorial qualquer e sejam v~1 , . . . , v~n vetores de E. Tem-se que v~1 , . . . , v~n são linearmente
independentes sse a única combinação linear que dá o vetor nulo é a combinação
linear nula:
k1 v~1 + . . . + kn v~n = ~0 ⇒ k1 = . . . = kn = 0 .

Demonstração. A afirmação que queremos provar,

v~1 , . . . , v~n l.i. ⇔ (k1 v~1 + . . . + kn v~n = ~0 ⇒ k1 = . . . = kn = 0) ,

é equivalente a

v~1 , . . . , v~n l.d. ⇔ ∃k1 , . . . , kn não todos nulos t.q. k1 v~1 + . . . + kn v~n = ~0 ,

a qual é muito fácil de verificar:

v~1 , . . . , v~n l.d. ⇔ ∃k1 , . . . , kn não todos nulos t.q. v~n = k1 v~1 + . . . + kn−1 v~n−1
⇔ ∃k1 , . . . , kn não todos nulos t.q. k1 v~1 + . . . + kn−1 v~n−1 − v~n = ~0
⇔ ∃k1 , . . . , kn não todos nulos t.q. k1 v~1 + . . . + kn v~n = ~0 .

j = (0, 1, 0) e ~k = (0, 0, 1) são linearmente inde-


Exemplo 3.18 Os vetores ~i = (1, 0, 0), ~
pendentes (em R3 ). De facto,
α(1, 0, 0) + β(0, 1, 0) + γ(0, 0, 1) = ~0 ⇔ (α, 0, 0) + (0, β, 0) + (0, 0, γ) = ~0
⇔ (α, β, γ) = (0, 0, 0)
⇔ α = β = γ = 0.
mostra que a única combinação linear que dá o vetor nulo é a combinação linear nula.
Capı́tulo 3. Espaços Vetoriais 83

Exemplo 3.19 Os vetores (1, 1, 0), (2, 5, 3) e (1, 4, 3) são linearmente dependentes (em
R3 ). Temos

α(1, 1, 0) + β(2, 5, 3) + γ(1, 4, 3) = ~0 ⇔ (α, α, 0) + (2β, 5β, 3β) + (γ, 4γ, 3γ) = (0, 0, 0)
⇔ (α + 2β + γ, α + 5β + 4γ, 3β + 3γ) = (0, 0, 0)



 α + 2β + γ = 0
⇔ α + 5β + 4γ = 0 .


3β + 3γ = 0

Como
1 2 1 0 1 2 1 0 1 2 1 0
←→ ←→
1 5 4 0 L2 →L2 −L1 0 3 3 0 L3 →L3 −L2 0 3 3 0 ,
0 3 3 0 0 3 3 0 0 0 0 0

concluı́mos que r(A) = r(A | B) = 2, enquanto que o número de incógnitas é 3, pelo que
se trata de um SPI (cf. Teorema 1.3). Logo, a solução nula não é a única e, portanto, a
combinação linear nula não é a única forma de escrever o vetor nulo como combinação
linear dos vetores (1, 1, 0), (2, 5, 3) e (1, 4, 3). Pelo Teorema 3.4, estes vetores são linear-
mente dependentes.

Ao usarmos o Teorema 3.4 na averiguação da independência linear de um conjunto de vetores,


somos sempre conduzidos a um SEL homogéneo. Assim, a caracterı́stica da matriz dos coeficientes
é sempre igual à da matriz ampliada (claro: nunca poderia tratar-se de um SI). Deste modo, basta
determinar a caracterı́stica da matriz dos coeficientes — caso seja igual ao número de incógnitas
(ou, equivalentemente, o número de vetores), temos um SPD, pelo que os vetores são linearmente
independentes; caso contrário, temos um SPI, pelo que os vetores são linearmente dependentes.
Além disso, no caso de Rn , é imediata a identificação da matriz a condensar: tem, em cada coluna,
as entradas dos vetores em causa.

c(A) = no de vetores ⇒ l.i.


A= ··· ←→ · · ·
c(A) < no de vetores ⇒ l.d.

~v1 ~v2 ~vm

Exemplo 3.20 Consideremos os vetores (2, −1, 0, 3), (1, 2, 5, −1) e (7, −1, 5, 8) de R4 . Con-
densando a matriz cujas colunas são formadas por estes vetores, obtemos

2 1 7 −1 2 −1 −1 2 −1 −1 2 −1
−1 2 −1 2 1 7 ←→ 0 5 5 ←→ 0 5 5
←→ L2 →L2 +2L1 L3 →L3 −L2
L1 ↔L2 .
0 5 5 0 5 5 L4 →L4 +3L1 0 5 5 L4 →L4 −L5 0 0 0
3 −1 8 3 −1 8 0 5 5 0 0 0
84 3.2. Combinação linear, base e dimensão

Dado que a caracterı́stica desta matriz é 2 e o número de vetores é 3, concluı́mos que


estes vetores são linearmente dependentes.

Exemplo 3.21 Investiguemos a independência linear dos vetores


" # " # " # " #
1 −2 −1 2 5 0 0 1
, , e
3 1 1 −1 3 5 0 −1

em R2×2 . Temos
" # " # " # " #
1 −2 −1 2 5 0 0 1
α +β +γ +δ = ~0 ⇔
3 1 1 −1 3 5 0 −1
" # " # " # " # " #
α −2α −β 2β 5γ 0 0 δ 0 0
⇔ + + + =
3α α β −β 3γ 5γ 0 −δ 0 0
" # " #
α − β + 5γ −2α + 2β + δ 0 0
⇔ =
3α + β + 3γ α − β + 5γ − δ 0 0



 α − β + 5γ = 0

 −2α + 2β + δ = 0
⇔ .



 3α + β + 3γ = 0

 α − β + 5γ − δ = 0

Como
1 −1 5 0 1 −1 5 0 1 −1 5 0
←→
−2 2 0 1 L2 →L2 +2L1 0 0 10 1 ←→ 0 4 −12 0
L3 →L3 −3L1 L2 ↔L3 ,
3 1 3 0 L4 →L4 −L1 0 4 −12 0 0 0 10 1
1 −1 5 −1 0 0 0 −1 0 0 0 −1

concluı́mos que r(A) = 4, que é o número de vetores. Logo, estes vetores são linear-
mente independentes.

Definição 3.7 (Base de um espaço vetorial) Dado um espaço vetorial E e um subcon-


junto B = {~v1 , . . . , v~n } de E, dizemos que B é uma base de E se qualquer vetor w
~ ∈ E se
escreve de forma única como combinação linear dos vetores de B.

A unicidade exigida na definição de base implica que os vetores de uma base têm que ser
linearmente independentes. Assim,

Teorema 3.5 Sejam E um espaço vetorial e B ⊆ E. Então B é uma base de E sse

• B é um conjunto linearmente independente;

• todo o vetor de E se escreve como combinação linear dos vetores de B.

O Teorema 3.5 evidencia a diferença entre conjunto de geradores e base: o primeiro não tem que ser
um conjunto linearmente independente. Portanto, uma base é sempre um conjunto de geradores,
Capı́tulo 3. Espaços Vetoriais 85

mas um conjunto de geradores não tem que ser uma base. A ideia da noção de base é tão simples
quanto importante: menos vetores, e não seria possı́vel formar todos os vetores do espaço; mais
vetores, e haveria redundâncias (ou seja, várias maneiras diferentes de escrever o mesmo vetor).

Exemplo 3.22 Como vimos no Exemplo 3.18, os vetores ~i = (1, 0, 0), ~


j = (0, 1, 0) e
~k = (0, 0, 1) são linearmente independentes. Dado que todo o vetor de R3 se escreve
j e ~k,
como combinação linear de ~i, ~

(x, y, z) = x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1) ,

j, ~k} é uma base de R3 .


pelo Teorema 3.5 conclui-se que {~i, ~

Exemplo 3.23 Seja E = h(1, 1, 0), (2, 5, 3), (1, 4, 3)i. Claramente, {(1, 1, 0), (2, 5, 3), (1, 4, 3)}
é um conjunto de geradores de E. No entanto, estes vetores não são linearmente in-
dependentes (cf. Exemplo 3.19), pelo que não constituem uma base do espaço. Já
(1, 1, 0) e (2, 5, 3) são linearmente independentes (e suficientes para gerar E), donde
{(1, 1, 0), (2, 5, 3)} é uma base do espaço.

Exemplo 3.24 Como vimos no Exemplo 3.17, 1, x e x2 são vetores linearmente inde-
pendentes de R2 [x]. Uma vez que, claramente, todo o vetor deste espaço, ou seja, todo
o polinómio de grau menor ou igual a 2, se escreve como combinação linear dos vetores
1, x e x2 , pelo Teorema 3.5 conclui-se que {1, x, x2 } é uma base de R2 [x].

Exemplo 3.25 Pelo Exemplo 3.10, tanto B = {(1, 0), (0, 1)} como B̃ = {(2, 0), (1, 1)} são
bases de R2 .

O facto de estas duas bases terem o mesmo número de elementos não é coincidência. De
facto, não é difı́cil mostrar que:

Teorema 3.6 Quaisquer duas bases de um mesmo espaço vetorial têm o mesmo
número de elementos.

Em virtude deste resultado, a seguinte noção está bem definida:

Definição 3.8 (Dimensão de um espaço vetorial) Seja E um espaço vetorial. Caso E


admita uma base com n ∈ N elementos, dizemos que E tem dimensão n; caso contrário,
dizemos que E tem dimensão infinita. A dimensão de E denota-se por dim E.

Exemplo 3.26 Pelos exemplos 3.25 e 3.22, respetivamente, dim R2 = 2 e dim R3 = 3. É


fácil ver que dim Rn = n.
86 3.2. Combinação linear, base e dimensão

Exemplo 3.27 Tendo em conta o Exemplo 3.24, dim R2 [x] = 3. Analogamente, o con-
junto {1, x, . . . , xn } é uma base do espaço Rn [x] dos polinómios de grau menor ou igual
a n. Assim, dim Rn [x] = n + 1. Já R[x], o espaço vetorial de todos os polinómios na
variável x, tem dimensão infinita.

Nos casos em que é finita, a dimensão de um espaço vetorial diz-nos o número máximo de vetores
linearmente independentes que o espaço contém. De facto, se fosse possı́vel acrescentar um vetor
v~ linearmente independente aos vetores de uma base B, então não seria possı́vel escrevê-lo como
combinação dos vetores de B, o que é impossı́vel visto B ser uma base. Este facto é útil para
determinar se um dado conjunto de vetores constitui uma base.

Exemplo 3.28 Dado que


" # " # " # " # " #
a b 1 0 0 1 0 0 0 0
=a +b +c +d ,
c d 0 0 0 0 1 0 0 1

tem-se que todo o vetor de R2×2 se escreve como combinação linear dos vetores do
conjunto (" # " # " # " #)
1 0 0 1 0 0 0 0
B= , , , .
0 0 0 0 1 0 0 1
Além disso, é fácil ver que B é um conjunto linearmente independente. Logo, pelo
Teorema 3.5, B é uma base de R2×2 (pelo que dim R2×2 = 4). Consequentemente, tem-
se pelo Teorema 3.6 que todas as bases de R2×2 têm 4 elementos. Assim, também o
conjunto (" # " # " # " #)
1 −2 −1 2 5 0 0 1
B̃ = , , ,
3 1 1 −1 3 5 0 −1
é uma base de R2×2 , pois, como vimos no Exemplo 3.21, é um conjunto linearmente
independente e tem 4 elementos.

Vimos atrás que B = {(1, 0), (0, 1)} é uma base de R2 . Analogamente,
• {(1, 0, 0), (0, 1, 0), (0, 0, 1)} é uma base de R3 ;
• {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} é uma base de R4 ;
• etc.

Definição 3.9 (Base canónica de Rn ) Seja n ∈ N. Chamamos base canónica de Rn


à base formada pelos vetores ~e1 ,~e2 , . . . ,~en em que cada vetor ~ei tem todas as entradas
nulas à exceção da i-ésima entrada, que é igual a 1.

São igualmente usuais as seguintes notações:


• em R2 : {~i, ~
j} ou {~ ~y } em vez de {~e1 ,~e2 };
ux , u

j, ~k} ou {~
• em R3 : {~i, ~ ux , u ~z } em vez de {~e1 ,~e2 ,~e3 }.
~y , u
Capı́tulo 3. Espaços Vetoriais 87

Exemplo 3.29 A base canónica de R5 é formada pelos vetores:

~e1 = (1, 0, 0, 0, 0)
~e2 = (0, 1, 0, 0, 0)
~e3 = (0, 0, 1, 0, 0)
~e4 = (0, 0, 0, 1, 0)
~e5 = (0, 0, 0, 0, 1) .

Assim, quaisquer 2 vetores linearmente independentes de R2 formam uma base de R2 , quaisquer


3 vetores linearmente independentes de R3 formam uma base de R3 , e etc.

Exemplo 3.30 Como vimos no Exemplo 3.28, R2×2 admite uma base com 4 vetores
(e, portanto, todas as bases deste espaço são constituı́das por 4 vetores). Deste modo,
dim R2×2 = 4. (E dim Rm×n ?)

3.3 Os 4 espaços fundamentais de uma matriz


Como vimos no Teorema 3.3, o conjunto de solução de um SEL homogéneo com n incógnitas
é um subespaço vetorial de Rn .

Definição 3.10 (Núcleo de uma matriz) Dada uma matriz


 
 a11 a12 ... a1n 
 a21 a22 ... a2n
 

A =  . .. .. ..
 ,
 .. .

 . . 

am1 am2 . . . amn

chamamos núcleo de A, e denotamos por N (A), ao conjunto de solução do SEL ho-


mogéneo AX = O, ou seja, ao conjunto de solução do SEL:



 a11 x1 + a12 x2 + . . . + a1n xn = 0


 a21 x1 + a22 x2 + . . . + a2n xn = 0
.

 ..
.




am1 x1 + am2 x2 + . . . + amn xn = 0

Exemplo 3.31 Determinemos uma base e a dimensão do núcleo da matriz


 
 2 2 −1 0 1 
 −1 −1 2 −3 1 
 
A =  .
 1 1 −2 0 −1 
0 0 1 1 1
 

Uma vez que as operações elementares em linhas não alteram o conjunto de solução de
88 3.3. Os 4 espaços fundamentais de uma matriz

um SEL, vamos condensar a matriz para mais facilmente determinar o CS do sistema


AX = O. Temos
   
 2 2 −1 0 1   1 1 −2 0 −1 
 −1 −1 2 −3 1   −1 −1 2 −3 1 
   
  L1←→
↔L3   ←→
 1 1 −2 0 −1   2
 2 −1 0 1 

0 0 1 1 1 0 0 1 1 1
  
   
 1 1 −2 0 −1   1 1 −2 0 −1 
←→  0 0

0 −3 0 

 0 0

1 1 1 

L2 →L2 +L1   L2←→
↔L4   ←→
L3 →L3 −2L1  0 0 3 0 3   0 0
 3 0 3 

0 0 1 1 1 0 0 0 −3 0
  
   
 1 1 −2 0 −1   1 1 −2 0 −1 
←→
 0 0 1 1 1

 ←→

 0 0 1 1 1


  
L3 →L3 −3L2  0 0  L4 →L4 −L3  0 0 
 0 −3 0   0 −3 0 

0 0 0 −3 0 0 0 0 0 0
  

pelo que r(A) = 3. Logo, o SEL (homogéneo) cuja representação matricial é AX = O é


um SPI e, dado que tem 5 incógnitas, grau de indeterminação 5 − 3 = 2. Reduzindo a
matriz,
   
 1 1 −2 0 −1   1 1 −2 0 −1 
 0 0 1 1 1   0 0 1 1 1 
   
←→
  L3 →− 31 L3   ←→
 0 0 0 −3 0   0 0 0 1 0 
 
0 0 0 0 0 0 0 0 0 0
 
   
 1 1 −2 0 −1   1 1 0 0 1 
 0 0 1 0 1  0 0 1 0 1
   
←→ ←→
 L1 →L1 +2L2 
 
L2 →L2 −L3 
 0

 0 0 1 0  
 0 0 0 1 0 

0 0 0 0 0 0 0 0 0 0

O sistema AX = O é, assim, equivalente ao sistema



x + x2 + x5 = 0
 1




 x3 + x5 = 0
 x =0

4

ou ainda 
x = −x2 − x5
 1




 x3 = −x5 .
 x =0

4

O conjunto de solução é portanto

{(−x2 − x5 , x2 , −x5 , 0, x5 ) : x2 , x5 ∈ R} = {x2 (−1, 1, 0, 0, 0) + x5 (−1, 0, −1, 0, 1) : x2 , x5 ∈ R}


= h(−1, 1, 0, 0, 0), (−1, 0, −1, 0, 1)i .

Dado que estes geradores são linearmente independentes (caso contrário, teria sido
possı́vel condensar mais a matriz), concluı́mos que {(1, −1, 0, 0, 0), (−1, 0, −1, 0, 1)} é uma
base de N (A) e que, portanto, a sua dimensão é 2.
Capı́tulo 3. Espaços Vetoriais 89

No Capı́tulo 1, definimos grau de indeterminação de um SEL como sendo o número de parâmetros


do seu conjunto de solução, quando este é não vazio (cf. Definição 1.8) e mencionámos que este
conceito quantificava o “tamanho” do conjunto de solução, mas sem clarificar que tamanho era
este. Essa clarificação é agora possı́vel: o GI de um SEL homogéneo AX = O consiste na dimensão
do espaço vetorial N (A).

O núcleo de uma matriz é um dos 4 espaços vetoriais que interessa associar à matriz. São
eles:

Definição 3.11 (Espaços fundamentais de uma matriz; espaço gerado pelas colunas de
uma matriz; espaço gerado pelas linhas de uma matriz) Dada uma matriz
 
 a11 a12 ... a1n 
 a21 a22 ... a2n
 

A =  . .. .. ..
 ,
 .. .

. . 
 
am1 am2 . . . amn

os 4 espaços fundamentais associados à matriz A são:

N (A), espaço vetorial formado pelas soluções do sistema AX = O (núcleo de A);

N (AT ), espaço vetorial formado pelas soluções do sistema AT X = O;

L(A), espaço vetorial gerado pelas linhas de A;

C(A), espaço vetorial gerado pelas colunas de A.

Por definição, N (A) e L(A) são subespaços de Rn e N (AT ) e C(A) são subespaços de Rm . Eviden-
temente, L(A) = C(AT ) (tal como C(A) = L(AT )).

N (A)

Subespaços de Rn
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
 
N (AT )  .. .. .. ..  L(A)
 . . . . 
am1 am2 . . . amn

Subespaços de Rm

C(A)
90 3.3. Os 4 espaços fundamentais de uma matriz

Exemplo 3.32 Consideremos novamente a matriz


 
 2 2 −1 0 1 
 −1 −1 2 −3 1 
 
A =  .
 1 1 −2 0 −1 
0 0 1 1 1
 

Como vimos no Exemplo 3.31, a condensação de A resultou na matriz (em escada)


 
 1 1 −2 0 −1 
 0 0 1 1 1 
 
R =  .
 0 0 0 −3 0 
0 0 0 0 0
 

No Exemplo 3.31, vimos ainda que {(1, −1, 0, 0, 0), (0, 1, 1, 0, 1)} é uma base de N (A) e
que, portanto, a dim N (A) = 2 — de facto, dim N (A) é igual ao GI do sistema AX = O,
o qual é dado por 5 − r(A), uma vez que este sistema tem 5 incógnitas. Vamos agora
determinar a dimensão e uma base para cada um dos restantes espaços fundamentais
da matriz A.
O facto de r(A) = 3 diz-nos que tanto o espaço gerado pelas linhas como o espaço
gerado pelas colunas têm dimensão 3. Localizando os pivots,
 
 1 1 −2 0 −1 
 0 0 1 1 1 
 
R =   
 0 0 0 −3 0 
0 0 0 0 0
 

ficamos a conhecer uma base de cada um destes espaços. No caso do espaço gerado
pelas linhas da matriz A, basta selecionar as linhas da matriz R que contêm pivots, ob-
tendo assim a base {(1, 1, −2, 0, −1), (0, 0, 1, 1, 1), (0, 0, 0, −3, 0)}. No caso do espaço gerado
pelas colunas, selecionamos as colunas 1, 3 e 4 da matriz A, que são aquelas que, na
matriz R, contêm os pivots. Concluı́mos assim que {(2, −1, 1, 0), (−1, 2, −2, 1), (0, −3, 0, 1)}
é uma base de C(A).
Também é possı́vel extrair uma base de L(A) do conjunto de geradores dado original-
mente pela matriz A: basta atender às trocas de linhas que ocorreram na condensação
— neste exemplo, entre as linhas 1 e 3 e entre as linhas 2 e 4. Assim, dado que em R os
pivots se encontram nas linhas 1, 2 e 3, selecionamos as linhas 3, 4 e 1 (ou, equivalen-
temente, 1, 3 e 4). Deste modo, {(2, 2, −1, 0, 1), (1, 1, −2, 0, −1), (0, 0, 1, 1, 1)} é uma base de
L(A).
Quanto a N (AT ), há que repetir o processo de condensação da matriz, desta vez em
AT . Temos

 2 −1 1 0  2 −1 1 0   1 1 −1 1 
     

 2 −1 1 0   0 0 0 0   0 −3 0 1 
   ←→ 
T ←→ L1 ↔L5 ←→
A =  −1 2 −2 1  −1 2 −2 1   −1 2 −2 1 
     
 L2 →L2 −L1
  L2 ↔L4 
 0 −3 0 1  0 −3 0 1   0 0 0 0 
   
  
1 1 1 1 1 −1 1 2 −1 1 0
  
−1
Capı́tulo 3. Espaços Vetoriais 91

1 1 −1 1 1 1 −1 1  1 1 −1 1 
     
   
←→

 0 −3 0 1 


 0 −3 0 1  
 0 −3 0 1 
L3 →L3 +L1 ←→ ←→
0 3 −3 2 0 3 −3 2  0 0 −3 3 
     
  L5 →L5 +L3  L3 →L3 +L2 
L5 →L5 −2L1    
0 0 0 0 0 0 0 0  0 0 0 0 
     
   
0 −3 3 −2 0 0 0 0 0 0 0 0
 

pelo que r(AT ) = 3. Deste modo, o SEL (homogéneo) cuja representação matricial é
AT X = O é um SPI, pois tem 4 incógnitas, e GI 4 − 3 = 1. Logo, dim N (AT ) = 1. Como
habitualmente, prosseguimos com a redução da matriz:

1 1 −1 1   1 1 −1 1 
   

0 −3 0 1   0 1 0 − 13 
  
 ←→
 L2 →− 1 ←→
0

 0 −3 3   3 L 2  0 0

1 −1 

1
  L3 →− 3 L3 
0 0 0 0   0 0 0 0 
 

0 0 0 0
  
0 0 0 0
1 
 1 1 0 0  1 0 0
  
 3 
 0 1 0 − 13  0 − 13 

0 1
  

←→  0 0 1 −1  L1 →L
  ←→  
L1 →L1 +L3   1 −L2

 0 0 1 −1 
 0 0 0 0   0 0 0 0 

   
0 0 0 0 0 0 0 0

O sistema AT X = O é, assim, equivalente ao sistema

x1 + 31 x4 = 0 x = −1x
 
 1 13 4

 

1
 
x2 − 3 x4 = 0 ⇔  x2 = 3 x4 .


 
 x −x = 0
  x =x

3 4 3 4

O conjunto de solução é do sistema AT X = O é portanto


D E
{(− 31 x4 , 13 x4 , x4 , x4 ) : x4 ∈ R} = {x4 (− 13 , 13 , 1, 1) : x4 ∈ R} = (− 31 , 13 , 1, 1) .

{(− 13 , 13 , 1, 1)} é, assim, uma base de N (AT ).


Repare-se que, como seria de esperar, N (A) e L(A) são subespaços vetoriais de R5 e
N (AT ) e C(A) são subespaços vetoriais de R4 .

Como é fácil de ver,

Teorema 3.7 Seja A uma matriz m × n. Então:

1. dim C(A) = dim L(A) = r(A);

2. dim N (A) = n − r(A);

3. dim N (AT ) = m − r(A).


92 3.4. Coordenadas e mudança de base

Exemplo 3.33 Consideremos as matrizes


   
 1 3 3 2   1 3 3 2 
A =  2 6 9 7  e B =  2 6 9 7  .
   
−1 −3 3 4 −1 −3 0 4
   

Vamos determinar a dimensão de cada um dos espaços fundamentais destas matrizes.


Condensando a matriz A,
     
 1 3 3 2  ←→  1 3 3 2   1 3 3 2 
L2 →L2 −2L1 ←→
A =  2 6 9 7   0 0 3 3   0 0 3 3  .
     
L3 →L3 −2L2
L3 →L3 +L1    
−1 −3 3 4 0 0 6 6 0 0 0 0
 

Logo r(A) = 2, pelo que dim C(A) = dim L(A) = 2, e, como A é uma matriz de tipo 3 × 4,
dim N (A) = 4 − 2 = 2 e dim N (AT ) = 3 − 2 = 1.
Quanto à matriz B,
     
 1 3 3 2  ←→  1 3 3 2   1 3 3 2 
 L →L ←→
B =  2 6 9 7  2 −2L1

2
 0 0 3 3 
   0 0 3 3  .

L3 →L3 −L2
 L3 →L3 +L1 

 
  
−1 −3 0 4 0 0 3 6 0 0 0 3
   

Assim, r(B) = 3, donde dim C(B) = dim L(B) = 3, dim N (B) = 4 − 3 = 1 e dim N (BT ) =
3 − 3 = 0 (pelo que N (BT ) = {(0, 0, 0)}).

Não confundir o núcleo com o espaço gerado pelas colunas de uma matriz A é crucial, não só
quando falamos de espaços vetoriais como nos dois próximos capı́tulos, dedicados às aplicações
lineares. Atenção em especial à informação, distinta, que a matriz condensada dá sobre cada um
destes espaços.

3.4 Coordenadas e mudança de base

Recordemos a noção de base de um espaço vetorial (cf. Definição 3.7): trata-se de um sub-
conjunto de vetores do espaço à custa dos quais qualquer vetor do espaço se escreve de forma
única. Ou seja: se E é um um espaço vetorial, B = {~ v1 , . . . , v~n } uma base de E e w ~ ∈ E, então
existem k1 , . . . , kn ∈ R únicos tais que w
~ = k1 v~1 + . . . + kn v~n .
À partida, uma base é apenas um conjunto de vetores e, como tal, a ordem por que
escrevemos os vetores é irrelevante — se B = {~ v1 , v2 } é base de E, então {~ v2 , v1 } é (a mesma)
base de E. No entanto, no que segue, a ordem pela qual escrevemos os vetores da base
vai ser importante. Por essa razão, consideramos bases ordenadas e denotamo-las por B =
(~
v1 , . . . , v~n ).

Definição 3.12 (Coordenadas de um vetor numa base) Se B = (~


v1 , . . . , v~n ) é uma base
(ordenada) de um espaço vetorial E e w ~ ∈ E é tal que w
~ = k1 v~1 + . . . + kn v~n , dizemos que
(k1 , . . . , kn ) são as coordenadas de w
~ na base B e escrevemos w ~ = (k1 , . . . , kn )B .
Capı́tulo 3. Espaços Vetoriais 93

Exemplo 3.34 Atendendo ao Exemplo 3.25, B = ((1, 0), (0, 1)) e C = ((2, 0), (1, 1)) são
bases (ordenadas) de R2 . Dado que

(1, 3) = (1, 0) + 3(0, 1) ,

temos
(1, 3) = (1, 3)B ;
dado que
(1, 3) = −(2, 0) + 3(1, 1) ,
temos
(1, 3) = (−1, 3)C .

Quando o espaço vetorial em causa é Rn e a base considerada é a base canónica, as coordenadas


do vetor copiam as suas entradas. Por essa razão, não há necessidade de indicar a base em ı́ndice.
De facto, quando escrevemos, por exemplo, v~ = (3, 0, −1), estamos a dizer quais são as coordenadas
de v~ na base canónica (de R3 , evidentemente).

Exemplo 3.35 Como vimos no Exemplo 3.28, o conjunto


(" # " # " # " #)
1 −2 −1 2 5 0 0 1
B̃ = , , ,
3 1 1 −1 3 5 0 −1

é uma base de R2×2 . Dado que


" # " # " # " # " # " # " #
1 −2 −1 2 5 0 1 −2 3 −6 10 0 14 −8
−3 +2 = + + = ,
3 1 1 −1 3 5 3 1 −3 3 6 10 6 14

tem-se que as coordenadas do vetor


" #
14 −8
~=
w
6 14

de R2×2 na base B̃ são (1, −3, 2, 0). Escrevemos portanto w


~ = (1, −3, 2, 0)B̃ .

Quando olhamos para a expressão “w ~ = (−2, 3, 1, 0)B̃ ”, é tentador assumir que w


~ é um ve-
tor de R4 . Apesar de ser falso, na verdade não há problema. De facto, atendendo à definição
de base, tem-se:

Teorema 3.8 Sejam E um espaço vetorial (de dimensão finita, digamos n), B ⊆ E uma
base de E, u
~ = (α1 , . . . , αn )B , v~ = (β1 , . . . , βn )B ∈ E e k ∈ R. Então

• u
~ + v~ = (α1 + β1 , . . . , αn + βn )B ;

• ku
~ = (kα1 , . . . , kαn )B .
94 3.4. Coordenadas e mudança de base

Exemplo 3.36 Como vimos no exemplo anterior, as coordenadas do vetor de R2×2


" #
14 −8
~=
w
6 14

~ = (1, −3, 2, 0)B̃ . Consideremos um outro vetor de


na base B̃ são (1, −3, 2, 0), ou seja, w
2×2
R , " #
−1 4
~z = .
1 −3
Dado que " # " # " #
−1 4 −1 2 0 1
~z = = +2 ,
1 −3 1 −1 0 −1
temos ~z = (0, 1, 0, 2)B̃ . Vejamos que temos duas formas de calcular as coordenadas do
vetor w
~ + ~z an base B̃. De facto, por um lado,
" # " #
14 −8 −1 4
~ + ~z =
w +
6 14 1 −3
" #
13 −4
=
7 11
" # " # " # " #
1 −2 −1 2 5 0 0 1
= −2 +2 +2 ;
3 1 1 −1 3 5 0 −1

pelo que w
~ + ~z = (1, −2, 2, 2)B̃ ; por outro,

~ + ~z = (1, −3, 2, 0)B̃ + (0, 1, 0, 2)B̃ = (1, −2, 2, 2)B̃ .


w

Deste modo, qualquer espaço vetorial de dimensão n comporta-se como Rn . Por exemplo, R4 é
um modelo para R2×2 e R3 é um modelo para R2 [x]. Assim, os espaços Rn servem de modelo para
todos os espaços vetoriais de dimensão finita. Por essa razão, vamos-nos concentrar neles daqui em
diante.

O problema que vamos agora estudar é o seguinte: se P (de “partida”) e C (de “chegada”)
são duas bases de Rn , como descobrir as coordenadas de um vetor na base C à custa das suas
coordenadas na base P ? Para simplificar ao máximo a dedução da resposta a este problema,
vamos fazê-la para n = 2; depois, restará generalizar ao caso Rn .
Suponhamos assim que P = (~ ~2 ) e C = (~c1 ,~c2 ) são duas bases de R2 e que o vetor w
p1 , p ~ ∈ R2
tem as seguintes coordenadas nestas bases:

~ = (β1 , β2 )P
w e ~ = (γ1 , γ2 )C ,
w

o que, recorde-se, significa que

~ = β1 p
w ~ 1 + β2 p
~2 e ~ = γ1~c1 + γ2~c2 .
w

Vejamos então como descobrir o par (γ1 , γ2 ) à custa do par (β1 , β2 ). A resposta é: basta
Capı́tulo 3. Espaços Vetoriais 95

conhecer as coordenadas dos vetores da base de partida na base de chegada. De facto, se

~1 = λ11~c1 + λ21~c2
p
~2 = λ12~c1 + λ22~c2 ,
p

então

~ = (β1 , β2 )P ⇒ w
w ~ = β1 p
~1 + β2 p
~2
~ = β1 (λ11~c1 + λ21~c2 ) + β2 (λ12~c1 + λ22~c2 )
⇒w
~ = β1 λ11~c1 + β1 λ21~c2 + β2 λ12~c1 + β2 λ22~c2
⇒w
~ = (β1 λ11 + β2 λ12 )~c1 + (β1 λ21 + β2 λ22 )~c2
⇒w
~ = (β1 λ11 + β2 λ12 , β1 λ21 + β2 λ22 )C .
⇒w

Mas então
(
γ1 = β1 λ11 + β2 λ12
,
γ2 = β1 λ21 + β2 λ22

dado que as coordenadas são únicas, ou, equivalentemente,


" # " #" #
γ1 λ11 λ12 β1
= .
γ2 λ21 λ22 β2

Observar que

coords. de ~
p2 na base C
coords. de ~
p1 na base C coords. de w
~ na base P

    
γ1 λ λ12 β1
= 11
γ2 λ21 λ22 β2

coords. de w
~ na base C

Em resumo: multiplicando a matriz que tem, em cada coluna, as coordenadas dos vetores
da base de partida na base de chegada pela matriz das coordenadas do vetor w
~ na base de
partida, obtém-se a matriz das coordenadas de w
~ na base de chegada.

Exemplo 3.37 Consideremos as bases P = ((1, 0), (0, 1)) e C = ((2, 0), (1, 1)) de R2 e o
vetor w ~ = (1, 3). Dado que P é a base canónica de R2 , as coordenadas de w
~ na base P
são (1, 3); vejamos quais as suas coordenadas na base C.
Como vimos, há que determinar as coordenadas dos vetores de P na base C:

(1, 0) = 21 (2, 0) + 0(1, 1)


(0, 1) = − 12 (2, 0) + 1(1, 1)
96 3.4. Coordenadas e mudança de base

e calcular o seguinte produto de matrizes:


" 1 1
#" # " #
2 −2 1 −1
= ,
0 1 3 3

o que confirma o resultado obtido no Exemplo 3.34.

Definição 3.13 (Matriz de mudança de base) Sejam E um espaço vetorial e P =


(~ ~n ) e C = (~c1 , . . . ,~cn ) bases de E. Chamamos matriz de mudança de base, da
p1 , . . . , p
base P para a base C, à matriz
 
 λ11 λ12 . . . λ1n 
 λ21 λ22 . . . λ2n
 

MP →C =  . .. .. ..
 ,
 .. .

 . . 

λn1 λn2 . . . λnn

onde

~1 = (λ11 , λ21 , . . . , λn1 )C


p
~2 = (λ12 , λ22 , . . . , λn2 )C
p
..
.
~n = (λ1n , λ2n , . . . , λnn )C .
p

Generalizando a dedução feita para R2 ,

Teorema 3.9 Sejam P = (~ ~n ) e C = (~c1 , . . . ,~cn ) duas bases de Rn e w


p1 , . . . , p ~ =
n
(β1 , . . . , βn )P ∈ R . Então o produto

β1
 
 
MP →C
 .. 

 . 

βn
 

dá-nos as coordenadas do vetor w


~ na base C.

Exemplo 3.38 1. Verifiquemos que os conjuntos B = ((1, 1, 0), (0, 1, 1), (0, 0, 1)) e C =
((1, 0, 0), (1, 2, 0), (1, 2, 4)) são bases de R3 .
Como observado a seguir ao Exemplo 3.19, para verificar se B e C são conjuntos
linearmente independentes, basta condensar a matriz cujas colunas são formadas
pelos vetores de cada um destes conjuntos. Relativamente ao conjunto B, temos

1 0 0 1 0 0 1 0 0
←→ ←→
1 1 0 L2 →L2 −L1 0 1 0 L3 →L3 −L2 0 1 0 ,
0 1 1 0 1 1 0 0 1
pelo que a caracterı́stica desta matriz é 3. Logo, B é linearmente independente
Capı́tulo 3. Espaços Vetoriais 97

e, portanto, uma base de R3 , dado que dim R3 = 3. Quanto a C, é imediato que


também
1 1 1
0 2 2
0 0 4
tem caracterı́stica 3, donde C é igualmente uma base de R3 .

2. Calculemos as coordenadas dos vetores v~ = (2, 5, 3) e w~ = (0, −1, 4) nas bases B e


C. (Recordar que, sem indicação em contrário, as coordenadas são dadas na base
canónica).
Comecemos por determinar a matriz de mudança de base da base canónica para a
base B. Para isso, temos que calcular as coordenadas dos vetores da base canónica
na base B. Ora,

~e1 = (1, 0, 0) = (1, 1, 0) − (0, 1, 1) + (0, 0, 1) = (1, −1, 1)B


~e2 = (0, 1, 0) = 0(1, 1, 0) + (0, 1, 1) − (0, 0, 1) = (0, 1, −1)B
~e3 = (0, 0, 1) = 0(1, 1, 0) + 0(0, 1, 1) + (0, 0, 1) = (0, 0, 1)B ,

pelo que, denotando a base canónica por BC, temos


 
 1 0 0 
MBC→B =  −1 1 0  .
 
1 −1 1
 

Logo: como       
 2   1 0 0   2   2 
MBC→B  5  =  −1 1 0   5  =  3  ,
      
3 1 −1 1 3 0
      

temos v~ = (2, 3, 0)B ; como


      
 0   1 0 0   0   0 
MBC→B  −1  =  −1 1 0   −1  =  −1  ,
      
4 1 −1 1 4 5
      

temos w
~ = (0, −1, 5)B .
Repetindo o processo para a base C, vem:

~e1 = (1, 0, 0) = (1, 0, 0) + 0(1, 2, 0) + 0(1, 2, 4) = (1, 0, 0)C


~e2 = (0, 1, 0) = − 12 (1, 0, 0) + 21 (1, 2, 0) + 0(1, 2, 4) = (− 12 , 12 , 0)C
~e3 = (0, 0, 1) = 0(1, 0, 0) − 14 (1, 2, 0) + 14 (1, 2, 4) = (0, − 14 , 14 )C ,

donde
 1 − 21
 
0 
1 1
MBC→C =  0  .



2 4
1

0 0

4
98 3.4. Coordenadas e mudança de base

Logo: como
 2   1 − 21
      1 
0   2   − 2 
 5  =  0 1 1     7
  5  =  4
MBC→C  ,
  
2 −4

1
       3 
3 0 0 4
3 4

temos v~ = (− 21 , 74 , 34 )C ; como

 0   1 − 12   0   12
      
0 
 −1  =  0 1 1   −1  =  − 3
MBC→C  ,
  


2 4     2
1
   
4 0 0 4 1
  
4

~ = ( 21 , − 32 , 1)C .
temos w

Teorema 3.10 (Propriedades das matrizes de mudança de base) Sejam B, C e D bases


de Rn . Temos

1. MB→D = MC→D MB→C ;

2. MB→B = In ;

3. MC→B = (MB→C )−1 .

Demonstração. A propriedade 1 é consequência de dar o mesmo resultado mudar da base B


para a base D diretamente ou mudar da base B para a base C e, em seguida, mudar da base
C para a base D (atenção apenas à ordem do produto). A propriedade 2 é evidente: nada
há a fazer ao mudar de uma base para a própria. A propriedade 3 pode ser deduzida como
consequência das anteriores: (MB→C )−1 é a matriz que multiplicada por MB→C dá a matriz
identidade.

Exemplo 3.39 A partir das matrizes MBC→B e MBC→C , determinadas no exemplo an-
terior, seria possı́vel determinar a matriz MB→C (ou a matriz MC→B ) recorrendo às
propriedades. De facto, pela propriedade 1,

MB→C = MBC→C MB→BC ,

e, pela propriedade 3,
MB→BC = (MBC→B )−1 .
Ora,
 −1  T  
 1 0 0   1 −(−1) 0   1 0 0 
1
(MBC→B )−1 =  −1 1 0  =  0 1 −(−1)  =  1 1 0  ,
     
1
1 −1 1 0 0 1 0 1 1
    

pelo que  
 1 0 0 
MB→BC =  1 1 0  .
 
0 1 1
 
Capı́tulo 3. Espaços Vetoriais 99

Logo
 1 − 12   1 0 0   21 − 12
    
0 0 
1 1   1 1 0  =  1 1
MB→C =  0 − 41  .

2 −4

    2 4
1 0 1 1 1 1 
0 0 0
   
4 4 4

É fácil verificar diretamente que a matriz obtida é a correta: ela tem, nas suas colunas,
as coordenadas dos vetores da base B na base C. Por exemplo,
1 1
2 (1, 0, 0) + 2 (1, 2, 0) + 0(1, 2, 4) = (1, 1, 0) .

• Os espaços vetoriais, que consistem de um conjunto de elementos e duas operações (soma e


produto por um escalar), generalizam estruturas já conhecidas, como os espaços Rn ou os
espaços das matrizes de um tipo fixado.

• Combinação linear é uma expressão envolvendo somas de vetores do espaço possivelmente


multiplicados por um escalar. A noção de independência linear de vetores identifica a im-
possibilidade de um vetor poder ser escrito à custa de outros.

• São conjuntos geradores de um espaço vetorial subconjuntos de vetores a partir dos quais
qualquer elemento do espaço pode ser escrito como combinação linear; são bases de um espaço
vetorial conjuntos de geradores linearmente independentes.

• As equações de um espaço vetorial (vetorial, paramétricas e cartesianas) podem ser deduzidas


a partir de uma base (ou de um conjunto de geradores) do espaço e vice-versa.

• As matrizes de mudança de base permitem determinar as coordenadas de um vetor numa


base C à custa das suas coordenadas numa base B e das coordenadas dos vetores de B em C.

• Dada uma matriz m × n, há 4 espaços vetoriais a ela associados: N (A), N (AT ), L(A) e
C(A). Tem-se dim C(A) = dim L(A) = r(A), dim N (A) = n − r(A) (grau de indeterminação
do sistema AX = O) e dim N (AT ) = m−r(A) (grau de indeterminação do sistema AT X = O).

3.5 Exercı́cios

Exercı́cio 3.1 Para o conjuntos e as operações indicados, verifique se se trata de um


espaço vetorial.

(a) Todos os triplos (x, y, z) de números reais com as operações

(x, y, z) + (x0 , y 0 , z0 ) = (x + x0 , y + y 0 , z + z0 ) e k(x, y, z) = (kx, y, z)


100 3.5. Exercı́cios

(b) Todos os triplos (x, y, z) de números reais com as operações

(x, y, z) + (x0 , y 0 , z0 ) = (x + x0 , y + y 0 , z + z0 ) e k(x, y, z) = (0, 0, 0)

(c) Todos os pares (x, y, z) de números reais com as operações

(x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 , z + z0 ) e k(x, y) = (2kx, 2ky)

(d) Todos os pares de números reais da forma (x, 0) com as operações de R2 .


" #
a 1
(e) Todas as matrizes 2 × 2 da forma com as operações de R2×2 .
1 b
" #
a 0
(f) Todas as matrizes 2 × 2 da forma com as operações de R2×2 .
0 b

Exercı́cio 3.2 Verifique se cada um dos seguintes conjuntos constitui um subespaço


vetorial de R3 .

(a) Todos os vetores da forma (a, 0, 0).

(b) Todos os vetores da forma (a, 1, 0).

(c) Todos os vetores da forma (a, b, c) em que b = a + c.

(d) Todos os vetores da forma (a, b, c) em que b = a + c + 1.

Exercı́cio 3.3 Verifique se cada um dos seguintes conjuntos constitui um subespaço


vetorial de R2×2 .

(a) Todas as matrizes 2 × 2 com entradas inteiras.


" #
a b
(b) Todas as matrizes com a + b + c + d = 0.
c d

(c) Todas as matrizes 2 × 2 com determinante nulo.

Exercı́cio 3.4 Quais dos seguintes vetores são combinação linear dos vetores u
~ =
(0, −2, 2) e v~ = (1, 3, −1)?

(a) (2, 2, 2) (b) (3, 1, 5) (c) (0, 4, 5) (d) (0, 0, 0)

Exercı́cio 3.5 Quais dos seguintes vetores são combinação linear dos vetores
" # " # " #
4 0 1 −1 0 2
~=
u , v~ = e w
~= ?
−2 −2 2 3 1 4
Capı́tulo 3. Espaços Vetoriais 101

" # " # " # " #


6 −8 0 2 6 0 −1 5
(a) (b) (c) (d)
−1 −8 1 4 3 8 7 1

Exercı́cio 3.6 Sejam u


~ = (2, 1, 0, 3), v~ = (3, −1, 5, 2) e w
~ = (−1, 0, 2, 1). Quais dos seguintes


vetores pertencem a u ~ ?
~ , v~, w

(a) (2, 3, −7, 3) (b) (0, 0, 0, 0) (c) (1, 1, 1, 1) (d) (−4, 6, −13, 4)

Exercı́cio 3.7 Quais dos seguintes são conjuntos linearmente independentes? No caso
de serem linearmente dependentes, escreva um dos vetores como combinação linear
dos restantes.

(a) {(4, −1, 2), (−4, 10, 2)}

(b) {(−3, 0, 4), (5, −1, 2), (1, 1, 3)}

(c) {(−6, 7, 2), (3, 2, 4), (4, −1, 2)}

(d) {(0, 3, 6), (1, −1, 1), (−1, 0, −2), (2, 4, 5)}

(e) {(1, 1, 7, −5), (1, 5, 3, −1), (2, −2, 2, 6), (1, 4, 0, 3)}

(f) {(0, 0, 2, 2), (3, 3, 0, 0), (1, 1, 0, −1)}

(g) {(0, 3, −3, −6), (−2, 0, 0, −6), (0, −4, −2, −2), (−1, 5, 7, 1)}

(h) {3 + x + x2 , 2 − x + 5x2 , 4 − x2 }

(i) {1 + 3x + 3x2 , x + 4x2 , 5 + 6x + 3x2 , 7 + 2x − x2 }

Exercı́cio 3.8 Quais dos seguintes conjuntos de vetores geram R3 ?

(a) (2, 2, 2), (0, 0, 3), (0, 1, 1) (c) (3, 1, 4), (2, −3, 5), (5, −2, 9), (1, 4, −1)

(b) (2, −1, 3), (4, 1, 2), (8, −1, 8) (d) (1, 2, 6), (3, 4, 1), (4, 3, 1), (3, 3, 1)

Exercı́cio 3.9 Verifique se os conjuntos de vetores dados geram o mesmo subespaço


de R3 .

(a) X = {(1, 2, −1), (4, 1, 3), (2, 0, 2)} e Y = {(1, 2, −1), (4, 1, 3)}

(b) X = {(1, 2, −1), (4, 1, 3), (2, 0, 3)} e Y = {(1, 2, −1), (4, 1, 3)}

(c) X = {(1, 2, 3), (3, −1, 0)} e Y = {(5, 3, 6), (−8, 5, 3)}

(d) X = {(1, −3, 2), (−4, 1, −2)} e Y = {(−5, −7, 2), (−8, −3, −2)}
102 3.5. Exercı́cios

Exercı́cio 3.10 Dos conjuntos das alı́neas (d), (e), (f) e (g) do Exercı́cio 3.7, quais cons-
tituem uma base de R4 ?

Exercı́cio 3.11 Determine as equações (vetorial, paramétricas e cartesiana(s)) do


subespaço de R3 gerado pelos vetores indicados.

(a) u
~ = (−1, 1, 1) e v~ = (3, 4, 4)

(b) u
~ = (1, 6, 4), v~ = (2, 4, −1) e w
~ = (−1, 2, 0)

(c) u
~ = (1, 6, 4), v~ = (2, 4, −1) e w
~ = (−1, 2, 5)

(d) u
~ = (3, −2, 5)

Exercı́cio 3.12 Determine se o conjunto de solução do SEL homogéneo AX = O con-


siste num plano, numa linha ou apenas na origem. No caso de ser um plano ou uma
linha, indique uma(s) equação(ões) cartesiana(s) e uma base desse espaço.
     
 −1 1 1   1 2 3   1 −1 1 
(a)  3 −1 0  (c)  2 5 3  (e)  2 −1 4 
     
2 −4 −5 1 0 8 3 1 11
     
     
 1 −2 3   3 10 6   1 −3 1 
(b)  −3 6 9  (d)  1 4 4  (f)  2 −6 2 
     
−2 4 −6 1 2 −6 3 −9 3
     

Exercı́cio 3.13 Recorrendo à informação fornecida, indique a dimensão de cada um


dos 4 espaços fundamentais associados à matriz.

(a) (b) (c) (d) (e) (f) (g)


Tipo 3×3 3×3 3×3 5×9 9×5 4×4 6×2
Caracterı́stica 3 2 1 2 2 0 2

Exercı́cio 3.14 Indique, para as matrizes das alı́neas (a), (b), (c) e (f) do Exercı́cio 3.12,
a dimensão, uma base e uma(s) equação(ões) cartesiana(s) para cada um dos 4 espaços
fundamentais associados à matriz.

Exercı́cio 3.15 Determine a dimensão e uma base de cada um dos 4 espaços funda-
mentais associados à matriz.
     
 1 4 5 2   1 4 5 2   1 4 5 6 9 
(a)  2 1 3 0  (b)  2 1 3 0  3 5 12 18 27 
     

 (c)  
−1 3 2 2 −1 3 2 5  1 0 1 −2 1 
  
2 −3 5 8 8
 
Capı́tulo 3. Espaços Vetoriais 103

Exercı́cio 3.16 Considere as seguintes bases ordenadas de R2 :

B = ((1, −1), (0, 1)) , C = ((2, 0), (1, 1)) e D = ((2, −3), (4, 1)) .

(a) Recorrendo à definição de matriz de mudança de base, calcule as matrizes MB→C ,


MB→D , MC→B e MC→D .

(b) Verifique que MB→D = MC→D MB→C .

(c) Verifique que MC→B = (MB→C )−1 .

(d) Sendo v~ = (2, 1)B , calcule as coordenadas de v~ nas bases C e D.

(e) Sendo w
~ = (2, 1)C , calcule as coordenadas de w
~ nas bases B e D.

Exercı́cio 3.17 Considere as seguintes bases ordenadas de R3 :

B = ((1, −1, 0), (0, 1, 1), (1, 0, −1)) e C = ((2, 0, 3), (1, 1, 2), (−1, 0, 2)) .

(a) Verifique que B e C constituem efetivamente bases de R3 .

(b) Sendo u
~ = (1, 0, 0) e v~ = (2, 1, −2), calcule as coordenadas de u
~ e v~ nas bases B e C.

(c) Sendo w ~ = (−1, 1, 1)B e ~z = (0, 1, 2)B , calcule as coordenadas de w


~ e ~z na base
canónica e na base e C.

Exercı́cio 3.18 Sejam B = (~b1 , ~b2 ) e C = (~


c1 ,~c2 ) bases ordenadas de R2 . Complete as
afirmações seguintes:
" #
(a) Se ~b1 = ~c1 + 2~c2 e ~b2 = 3~c1 + 4~c2 , então M = .

(b) Se = + e " = # + , então a matriz de mudança de base


α β
da base C para a base B é .
γ δ
# "
3 1
(c) Se ~b1 = (3, −2) e ~b2 = (1, 4), então M = .
−2 4
" #
(d) Se ~c1 = (−1, 2) e ~c2 = (1, −1), então MBCR2 →C = .
" # " #
α ρ
(e) Se v~ = (ρ, σ ) e MB→C = , então v~ = (α, β) .
β σ

3.6 Soluções
104 3.6. Soluções

Solução 3.1

(a) Não (c) Não (e) Não


(b) Não (d) Sim (f) Sim

Solução 3.2

(a) Sim (b) Não (c) Sim (d) Não

Solução 3.3

(a) Não (b) Sim (c) Não

Solução 3.4

(a) Sim (b) Sim (c) Não (d) Sim

Solução 3.5

(a) Sim (b) Sim (c) Sim (d) Não

Solução 3.6

(a) Sim (b) Sim (c) Não (d) Sim

Solução 3.7

(a) Linearmente independentes


(b) Linearmente independentes
(c) Linearmente dependentes;
(−6, 7, 2) = 2 × (3, 2, 4) + (−3) × (4, −1, 2)
(d) Linearmente dependentes;
(2, 4, 5) = (−1) × (0, 3, 6) + (−7) × (1, −1, 1) + (−9) × (−1, 0, −2)
(e) Linearmente dependentes;
(1, 1, 7, −5) = 2 × (1, 5, 3, −1) + 12 × (2, −2, 2, 6) + (−2) × (1, 4, 0, 3)
(f) Linearmente independentes
(g) Linearmente independentes
(h) Linearmente independentes
(i) Linearmente dependentes;
7 + 2x − x2 = (− 17 2 5 2 9 2
4 ) × (1 + 3x + 3x ) + 4 × (x + 4x ) + 4 × (5 + 6x + 3x )
Capı́tulo 3. Espaços Vetoriais 105

Solução 3.8

(a) Sim (b) Não (c) Não (d) Sim

Solução 3.9

(a) Sim (b) Não (c) Sim (d) Não

Solução 3.10

(d) Não (e) Não (f) Não (g) Sim

Solução 3.11



 x = −k + 3l
(a) (x, y, z) = k(−1, 1, 1) + l(3, 4, 4), k, l ∈ R;  y = k + 4l , k, l ∈ R; y − z = 0


 z = k + 4l




 x = k + 2l − m
(b) (x, y, z) = k(1, 6, 4) + l(2, 4, −1) + m(−1, 2, 0), k, l, m ∈ R;  y = 6k + 4l + 2m , k, l, m ∈ R


 z = 4k − l




 x = k + 2l
(c) (x, y, z) = k(1, 6, 4) + l(2, 4, −1), k, l ∈ R;  y = 6k + 4l , k, l ∈ R; 22x − 9y + 8z = 0


 z = 4k − l




 x = 3k
(d) (x, y, z) = k(3, −2, 5), k ∈ R;  y = −2k , k ∈ R; 2x + 3y = 0, 5y + 2z = 0


 z = 5k

Solução 3.12

(a) Linha; −x + y + z = 0, 2y + 3z = 0; {(1, 3, −2)}


(b) Linha; x − 2y = 0, z = 0; {(2, 1, 0)}
(c) Origem
(d) Origem
(e) Linha; x − y + z = 0, y + 2z = 0; {(−3, −2, 1)}
(f) Plano; x − 3y + z = 0; {(1, 0, −1), (0, 1, 3)}

Solução 3.13

(a) dim C(A) = dim L(A) = 3, dim N (A) = dim N (AT ) = 0


(b) dim C(A) = dim L(A) = 2, dim N (A) = dim N (AT ) = 1
(c) dim C(A) = dim L(A) = 1, dim N (A) = dim N (AT ) = 2
(d) dim C(A) = dim L(A) = 2, dim N (A) = 7, dim N (AT ) = 3
(e) dim C(A) = dim L(A) = 2, dim N (A) = 3, dim N (AT ) = 7
106 3.6. Soluções

(f) dim C(A) = dim L(A) = 0, dim N (A) = dim N (AT ) = 4


(g) dim C(A) = dim L(A) = 2, dim N (A) = 0, dim N (AT ) = 4

Solução 3.14

(a) N (A): dimensão 1; base {(1, 3, −2)}; equações −x + y + z = 0, 2y + 3z = 0


C(A): dimensão 2; base {(−1, 3, 2), (1, −1, −4)}; equação 5x + y + z = 0
L(A): dimensão 2; base {(−1, 1, 1), (0, 2, 3)}; equação x + 3y − 2z = 0
N (AT ): dimensão 1; base {(5, 1, 1)}; equações x − 5z = 0, y − z = 0
(b) N (A): dimensão 1; base {(2, 1, 0)}; equações x − 2y = 0, z = 0
C(A): dimensão 2; base {(1, −3, −2), (3, 9, −6)}; equação 2x + z = 0
L(A): dimensão 2; base {(1, −2, 3), (−3, 6, 9)}; equação 2x + y = 0
N (AT ): dimensão 1; base {(2, 0, 1)}; equações x − 2z = 0, y = 0
(c) N (A) = N (AT ) = {(0, 0, 0)}, C(A) = L(A) = R3
(f) N (A): dimensão 2; base {(1, 0, −1), (0, 1, 3)}; equação x − 3y + z = 0
C(A): dimensão 1; base {(1, 2, 3)}; equações 2x − y = 0, 3x − z = 0
L(A): dimensão 1; base {(1, −3, 1)}; equação 3x + y = 0, x − z = 0
N (AT ): dimensão 2; base {(−2, 1, 0), (−3, 0, 1)}; equação x + 2y + 3x = 0

Solução 3.15

(a) N (A): dimensão 2; base {(−2, 4, 0, −7), (−6, 0, 4, −7)}


C(A): dimensão 2; base {(1, 2, −1), (4, 1, 3)}
L(A): dimensão 2; base {(1, 4, 5, 2), (2, 1, 3, 0)}
N (AT ): dimensão 1; base {(−1, 1, 1)}
(b) N (A): dimensão 1; base {(1, 1, −1, 0)}
C(A): dimensão 3; base {(1, 2, −1), (4, 1, 3), (2, 0, 5)}
L(A): dimensão 3; base {(1, 4, 5, 2), (2, 1, 3, 0), (−1, 3, 2, 5)}
N (AT ): dimensão 0 (N (AT ) = {(0, 0, 0)})
(c) N (A): dimensão 1; base {(−8, 3, 1, −3, 1)}
C(A): dimensão 4; base {(1, 3, 1, 2), (4, 5, 0, −3), (5, 12, 1, 5), (6, 18, −2, 8)}
L(A): dimensão 4; base {(1, 4, 5, 6, 9), (3, 5, 12, 18, 27), (1, 0, 1, −2, 1), (2, −3, 5, 8, 8)}
N (AT ): dimensão 0 (N (AT ) = {(0, 0, 0)})

Solução 3.16
5
− 27 1 3
"
1 − 12
# " # " # " #
14 2 1 7 − 14
(a) MB→C = , MB→D = 1 1 , MC→B = , MC→D = 3 5
−1 1 14 7
2 2 7 14
Capı́tulo 3. Espaços Vetoriais 107

1 3
# " 5
− 27
" #"
− 12
#
7 − 14 1
(b) MC→D MB→C = 3 5 = 14
1 1 = MB→D
7 14 −1 1 14 7
" #−1
1 − 12
" #
2 1
(c) (MB→C )−1 = = = MC→B
−1 1 2 2

(d) v~ = ( 32 , −1)C = ( 37 , 27 )D
1 17
(e) w
~ = (5, 6)B = ( 14 , 14 )D

Solução 3.17

 1 0 1   2 1 −1 
   
 −1 1 0  como  0 1 0  têm caracterı́stica igual a 3, pelo que B e C são
(a) Tanto 
 
0 1 −1 3 2 2
   
conjuntos de (três) vetores linearmente independentes e, portanto, bases de R3 .
~ = ( 12 , 12 , 12 )B = ( 27 , 0, − 37 )C , v~ = (− 21 , 12 , 25 )B = (− 27 , 1, − 11
(b) u 7 )C

~ = (0, 2, 0)BC = (− 78 , 2, − 27 )C , ~z = (2, 1, −1)BC = (− 17 , 1, − 97 )C


(c) w

Solução 3.18
" #
1 3
(a) Se ~b1 = ~c1 + 2~c2 e ~b2 = 3~c1 + 4~c2 , então MB→C = .
2 4

(b) Se ~c1 = α"~b1 + γ~b2#e ~c2 = β~b1 + δ~b2 , então a matriz de mudança de base da base C para a
α β
base B é .
γ δ
" #
3 1
(c) Se ~b1 = (3, −2) e ~b2 = (1, 4), então MB→BCR2 = .
−2 4
" #
1 1
(d) Se ~c1 = (−1, 2) e ~c2 = (1, −1), então MBCR2 →C = .
2 1
" # " #
α ρ
(e) Se v~ = (ρ, σ )C e MB→C = , então v~ = (α, β)B .
β σ
4. Aplicações Lineares

4.1 Definição e exemplos; Operações com aplicações


lineares 109

4.2 Núcleo e imagem; Nulidade e caracterı́stica 113

4.3 Representação matricial; Teorema das dimensões


118

4.4 Exercı́cios 127

4.5 Soluções 133

Aplicação linear é uma correspondência entre espaços vetoriais que respeita as operações de soma
entre vetores e produto por um escalar definidas em cada um dos espaços. Neste capı́tulo vamos es-
tudar os conceitos fundamentais no que respeita a este tipo de função e, mais uma vez, as matrizes
vão surgir naturalmente como a ferramenta mais importante. À semelhança do que fizemos ante-
riormente, vamos concentrarmo-nos nas aplicações lineares entre os espaços Rn , equipados com a
estrutura usual.

4.1 Definição e exemplos; Operações com aplicações lineares


Habitualmente, chamamos função a uma correspondência entre conjuntos, o conjunto de
partida e o conjunto de chegada, que, a cada elemento do conjunto de partida, associa um
(e um único) elemento do conjunto de chegada. Quando estes conjuntos são espaços vetori-
ais, não usamos o termo função (podia ficar confuso termos uma função entre conjuntos de
funções!). Denominações à parte, o mais importante é: as correspondências entre espaços
vetoriais irão respeitar as operações definidas nos espaços.

Definição 4.1 (Aplicação linear) Uma correspondência f : Rn → Rm diz-se uma


~ , v~ ∈ Rn e k ∈ R,
aplicação (ou transformação) linear se, quaisquer que sejam u

1. f (~
u + v~) = f (~
u ) + f (~
v );

2. f (k u
~ ) = kf (~
u ).

Exemplo 4.1 Vejamos que a correspondência f : R3 → R3 definida por f (x, y, z) =


(y, z, 0) é uma aplicação linear. De facto, temos:
1. quaisquer que sejam (x, y, z), (x0 , y 0 , z0 ) ∈ R3 ,

f ((x, y, z) + (x0 , y 0 , z0 )) = f (x + x0 , y + y 0 , z + z0 ) = (y + y 0 , z + z0 , 0)

109
110 4.1. Definição e exemplos; Operações com aplicações lineares

e
f (x, y, z) + f (x0 , y 0 , z0 ) = (y, z, 0) + (y 0 , z0 , 0) = (y + y 0 , z + z0 , 0) ,
pelo que f ((x, y, z) + (x0 , y 0 , z0 )) = f (x, y, z) + f (x0 , y 0 , z0 );

2. quaisquer que sejam (x, y, z) ∈ R3 e k ∈ R,

f (k(x, y, z)) = f (kx, ky, kz) = (ky, kz, 0)

e
kf (x, y, z) = k(y, z, 0) = (ky, kz, 0) ,
pelo que f (k(x, y, z)) = kf (x, y, z).

1. Ao contrário do que sucede com as funções em geral, numa aplicação linear o domı́nio é
obrigatoriamente todo o espaço de partida. Assim, por exemplo, a correspondência f (x, y) =
(x + y, ln x) não é uma aplicação linear pois só está definida para os vetores (x, y) com x > 0.

2. Se f é uma aplicação linear, então f (~0) = ~0. De facto, uma vez que a condição f (k u ~ ) = kf (~
u)
se verifica para todo k ∈ R, em particular verifica-se para k = 0, donde f (0~ u ) = 0f (~u ), ou
seja, f (~0) = ~0. Temos assim uma forma prática de mostrar que uma correspondência não
é uma aplicação linear: caso f (~0) , ~0, então f não é uma aplicação linear. Por exemplo,
f (x, y, z) = (x + y + z, 1) não é uma aplicação linear, pois f (0, 0, 0) = (0, 1) , (0, 0).
Mas atenção que o facto de f (~0) = ~0 não garante que f seja uma aplicação linear. Consi-
deremos, por exemplo, f (x, y) = (|x|, −y, 0). Apesar de f (x, y) = (|0|, −0, 0) = (0, 0, 0), temos
f ((−1, 0) + (1, 0)) = f (0, 0) = (0, 0, 0) enquanto que f (−1, 0) + f (1, 0) = (1, 0, 0) + (1, 0, 0) =
(2, 0, 0), pelo que f não respeita as condições da definição de aplicação linear.

3. Uma aplicação linear f : Rn → Rm pode ser vista como uma coleção de m funções fi : Rn →
R, cada uma satisfazendo a definição de aplicação linear. Consequentemente, estas funções
não podem ser mais que polinómios de grau 1 em n incógnitas com termo independente nulo,
ou seja, funções cuja expressão analı́tica é da forma a1 x1 +a2 x2 +. . .+an xn , onde a1 , a2 , . . . , an
são números reais. Com este facto em mente, é imediato distinguir as correspondências que
são aplicações lineares das que não são. Por exemplo, f (x, y, z) = (3x − 2y + z, z − 4y) é uma
aplicação linear, enquanto que g(x, y) = (3x − 2y, −4y, x − 3), h(x, y, z) = (x2 + y − z, z − 4y) e

k(x, y) = (3x − 2y + z, x + y + z) não são.

Diretamente da definição de aplicação linear, é fácil deduzir a seguinte propriedade:

Teorema 4.1 Se f : Rn → Rm é uma aplicação linear, então

f (k1 v~1 + . . . + kl v~l ) = k1 f (~


v1 ) + . . . + kl f (~
vl ) ,

para todos v~1 , . . . , v~l ∈ Rn e k1 , . . . , kl ∈ R.


Capı́tulo 4. Aplicações Lineares 111

Deste facto resultam duas consequências muito importantes. A primeira é:

Teorema 4.2 A imagem dos vetores de uma base do espaço de partida definem a
aplicação linear.

Demonstração. Sendo Rn o espaço de partida e {~ v1 , . . . , v~n } uma base de Rn , todo o vetor do


espaço de partida se escreve como combinação linear destes vetores. Assim, dado w ~ ∈ Rn ,
temos w~ = k1 v~1 + . . . + kn v~n para certos k1 , . . . , kn ∈ R. Deste modo,

f (w)
~ = f (k1 v~1 + . . . + kn v~n ) = k1 f (~
v1 ) + . . . + kn f (~
vn ) .

Logo, as imagens dos vetores da base determinam a imagem de qualquer vetor.

Exemplo 4.2 Seja f : R3 → R2 uma aplicação linear tal que f (1, 0, 0) = (1, 1), f (0, 1, 0) =
(−1, 0) e f (0, 0, 1) = (2, 1). Então

f (1, 2, 3) = f (1(1, 0, 0) + 2(0, 1, 0) + 3(0, 0, 1))


= f (1, 0, 0) + 2f (0, 1, 0) + 3f (0, 0, 1)
= (1, 1) + 2(−1, 0) + 3(2, 1)
= (1, 1) + (−2, 0) + (6, 3)
= (5, 4) .

Mais geralmente,

f (x, y, z) = f (x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1))


= xf (1, 0, 0) + yf (0, 1, 0) + zf (0, 0, 1)
= x(1, 1) + y(−1, 0) + z(2, 1)
= (x, x) + (−y, 0) + (2z, z)
= (x − y + 2z, x + z) .

Da segunda consequência, iremos falar na próxima secção. Antes disso, observemos


que as operações mais naturais que podemos definir entre aplicações lineares resultam em
aplicações lineares:

Teorema 4.3 1. Se f , g : Rn → Rm são aplicações lineares, então f + g : Rn → Rm


definida por (f + g)(~
u ) = f (~
u ) + g(~
u ) é uma aplicação linear.

2. Se f : Rn → Rm é uma aplicação linear e k ∈ R, então kf : Rn → Rm definida por


(kf )(~
u ) = kf (~
u ) é uma aplicação linear.

3. Se f : Rn → Rm e g : Rm → Rp são aplicações lineares, então g ◦ f : Rn → Rp


definida por (g ◦ f )(~
u ) = g(f (~
u )) é uma aplicação linear.

Tal como sucede com a composição de funções, é útil ter presente o seguinte esquema
quando falamos em composição de aplicações lineares:
112 4.1. Definição e exemplos; Operações com aplicações lineares

Rn f Rm Rp
g
g(f (~u))
b b

~u
b

f (~u)

g◦f

Exemplo 4.3 Consideremos as aplicações lineares

f (x, y, z) = (x − y + 2z, x + z)
g(x, y, z) = (x + y, 2y + 2z)
h(x, y) = (2x − 3y, x + 4y, y − x)
k(x, y, x) = (x + 3y − 6z, y + 2z, −5x) .

Então f + g é a aplicação linear

(f + g)(x, y, z) = f (x, y, x) + g(x, y, z)


= (x − y + 2z, x + z) + (x + y, 2y + 2z)
= (x − y + 2z + x + y, x + z + 2y + 2z)
= (2x + 2z, x + 2y + 3z)

e 2f é a aplicação linear

(2f )(x, y, z) = 2f (x, y, z) = 2(x−y +2z, x+z) = (2(x−y +2z), 2(x+z)) = (2x−2y +4z, 2x+2z) .

Observar que não seria possı́vel somar f (nem g) com nenhuma das aplicações lineares
h e k. Dado que f : R3 → R2 e h : R2 → R3 , tanto h ◦ f como f ◦ h estão definidas:

(h ◦ f )(x, y, z) = h(f (x, y, z))


= h(x − y + 2z, x + z)
= (2(x − y + 2z) − 3(x + z), x − y + 2z + 4(x + z), x + z − (x − y + 2z))
= (−x − 2y + z, 5x − y + 6z, y − z)

(reparar que h ◦ f : R3 → R3 ) e

(f ◦ h)(x, y) = f (h(x, y))


= f (2x − 3y, x + 4y, y − x)
= (2x − 3y − (x + 4y) + 2(y − x), 2x − 3y + y − x)
= (−x − 5y, x − 2y)

(reparar que f ◦ h : R2 → R2 ). No que respeita a f e k, apenas f ◦ k está definida, pois


f : R3 → R2 e k : R3 → R3 , sendo

(f ◦ k)(x, y, z) = f (k(x, y, z))


= f (x + 3y − 6z, y + 2z, −5x)
= (x + 3y − 6z − (y + 2z) + 2(−5x), x + 3y − 6z − 5x)
= (−9x + 2y − 8z, −4x + 3y − 6z) .
Capı́tulo 4. Aplicações Lineares 113

4.2 Núcleo e imagem; Nulidade e caracterı́stica

A segunda consequência muito importante do Teorema 4.1 é a seguinte:

Teorema 4.4 Se f : Rn → Rm é uma aplicação linear, então o contradomı́nio de f é


um subespaço vetorial de Rm .

Demonstração. Denotemos o contradomı́nio de f por Im f :

~ ∈ Rm : w
Im f = {w v ) para algum v~ ∈ Rn } .
~ = f (~

Recordar que, para mostrar que Im f é um subespaço vetorial de Rm , basta mostrar que Im f
é não vazio e que

• quaisquer que sejam u


~ , v~ ∈ Im f , u
~ + v~ ∈ Im f ;

• quaisquer que sejam u


~ ∈ Im f e k ∈ R, k u
~ ∈ Im f

(cf. Teorema 3.2). Equivalentemente, basta mostrar que Im f é não vazio e que k u ~ +l~
v ∈ Im f
quaisquer que sejam u ~ , v~ ∈ Im f e k, l ∈ R.
Como vimos atrás, f (~0) = ~0, pelo que ~0 ∈ Im f . Logo, Im f , ∅. Tomemos então w,~ ~ z∈
Im f e k, l ∈ R e mostremos que k w ~ + l~z ∈ Im f . Ora, w,~
~ z ∈ Im f significa que w
~ = f (~
u) e
~z = f (~ ~ , v~ ∈ Rn . Deste modo,
v ) para certos u

~ + l~z = kf (~
kw u ) + lf (~
v ) = f (k u
~ + l~
v ) ∈ Im f

por definição de Im f , uma vez que k u v ∈ Rn . Fica assim provado que Im f é um espaço
~ + l~
vetorial.

Definição 4.2 (Imagem de uma aplicação linear) Dada uma aplicação linear f : Rn →
Rm , ao espaço vetorial

~ ∈ Rm : w
Im f = {w v ) para algum v~ ∈ Rn } .
~ = f (~

chamamos imagem de f .

Rn f Rm
Imf
114 4.2. Núcleo e imagem; Nulidade e caracterı́stica

Exemplo 4.4 Pelo Exemplo 4.2, f (x, y, z) = (x−y +2z, x+z) é uma aplicação linear. Logo,
Im f é um subespaço vetorial de R2 . Calculemos uma base e a dimensão deste espaço.
Por definição de espaço imagem,

Im f = {(u, v) ∈ R2 : (u, v) = f (x, y, z) com (x, y, z) ∈ R3 }


= {(x − y + 2z, x + z) ∈ R2 : x, y, z ∈ R}
= {x(1, 1) + y(−1, 0) + z(2, 1) ∈ R2 : x, y, z ∈ R}
= h(1, 1), (−1, 0), (2, 1)i ,

pelo que {(1, 1), (−1, 0), (2, 1)} é um conjunto gerador do espaço Im f (mas seguramente
não uma base!). Dado que os vetores (1, 1) e (−1, 0) são linearmente independentes e
tendo em conta que Im f tem no máximo dimensão 2, concluı́mos que {(1, 1), (−1, 0)} é
uma base de Im f e que este tem dimensão 2 (pelo que Im f = R2 ).

Definição 4.3 (Caracterı́stica de uma aplicação linear) À dimensão do espaço imagem


de uma aplicação linear f chama-se caracterı́stica de f .

Exemplo 4.5 Determinemos a caracterı́stica da aplicação linear

g(x, y, z, w) = (x + 3y + 3z + 2w, 2x + 6y + 9z + 7w, −x − 3y + 3z + 4w) .

Temos

Im g = {(x + 3y + 3z + 2w, 2x + 6y + 9z + 7w, −x − 3y + 3z + 4w) ∈ R3 : x, y, z, w ∈ R}


= {x(1, 2, −1) + y(3, 6, −3) + z(3, 9, 3) + w(2, 7, 4) ∈ R3 : x, y, z, w ∈ R}
= h(1, 2, −1), (3, 6, −3), (3, 9, 3), (2, 7, 4)i ,

pelo que {(1, 2, −1), (3, 6, −3), (3, 9, 3), (2, 7, 4)} é um conjunto gerador do espaço Im g.
Como vimos no Exemplo ?? do Capı́tulo 3, a matriz
 
 1 3 3 2
A =  2 6 9 7
 
−1 −3 3 4
 

tem caracterı́stica 2, pelo que a dimensão do espaço gerado pelas suas colunas tem
dimensão 2. Logo, a dimensão de Im g é 2 e, portanto, a caracterı́stica de g é 2.

Também o espaço de partida tem um subespaço vetorial importante:

Teorema 4.5 Se f : Rn → Rm é uma aplicação linear, então o subconjunto de Rn

u ∈ Rn : f (~
{~ u ) = ~0}

é um subespaço vetorial de Rn .

Demonstração. Exercı́cio.
Capı́tulo 4. Aplicações Lineares 115

Definição 4.4 (Núcleo de uma aplicação linear) Dada uma aplicação linear f : Rn →
Rm , ao espaço vetorial
u ∈ Rn : f (~
Nuc f = {~ u ) = ~0} .
chamamos núcleo de f .

Rn f Rm
b
~0
Nucf

Exemplo 4.6 Calculemos uma base e a dimensão do núcleo da aplicação linear


f (x, y, z) = (x − y + 2z, x + z).
Por definição de núcleo,

Nuc f = {(x, y, z) ∈ R3 : f (x, y, z) = ~0}


= {(x, y, z) ∈ R3 : (x − y + 2z, x + z) = (0, 0)} .

O núcleo de f é, portanto, o conjunto de solução do SEL homogéneo


(
x − y + 2z = 0
,
x+z = 0

cuja matriz dos coeficientes é " #


1 −1 2
A= .
1 0 1
Logo, Nuc f = N (A), o núcleo da matriz A (observar que A é do tipo 2 × 3). Ora, dado
que " # " #
1 −1 2 ←→ 1 −1 2
L2 →L2 −L1 ,
1 0 1 0 1 −1
conclui-se que r(A) = 2, pelo que dim Nuc f = dim N (A) = 3 − 2 = 1. Além disso,
( ( (
x − y + 2z = 0 x = y − 2z x = z − 2z = −z
⇔ ⇔
y −z = 0 y=z y=z

Logo,
Nuc f = N (A) = {(−z, z, z) : z ∈ R} = h(−1, 1, 1, )i .
Deste modo, {(−1, 1, 1)} é uma base de Nuc f .

Definição 4.5 (Nulidade de uma aplicação linear) À dimensão do núcleo de uma


aplicação linear f chama-se nulidade de f .
116 4.2. Núcleo e imagem; Nulidade e caracterı́stica

Exemplo 4.7 Determinemos a nulidade da aplicação linear

h(x, y, z) = (x + 2y − z, 3x + 6y − 3z, 3x + 9y, 2x + 7y + 4z) .

Tal como no exemplo anterior, Nuc h é precisamente o núcleo da matriz dos coeficien-
tes do SEL homogéneo



 x + 2y − z = 0
 3x + 6y − 3z = 0


,
3x + 9y = 0





 2x + 7y + 4z = 0

ou seja, o núcleo da matriz


 
1 2 −1
3 6 −3
 
 .
3 9 0
2 7 4
 

Como vimos no Exemplo ?? do Capı́tulo 3 (esta matriz é a transposta da matriz B),


dim N (BT ) = 0, pelo que a nulidade de h é 0.

Dois conceitos bem conhecidos no contexto das funções têm, nas aplicações lineares,
caracterizações muito práticas. Recordar que uma função f : A → B se diz:

• injetiva se objetos distintos têm imagens diferentes, ou seja,

∀a1 , a2 ∈ A , a1 , a2 ⇒ f (a1 ) , f (a2 ) ;

• sobrejetiva se todo o elemento do conjunto de chegada é imagem de algum elemento


(do domı́nio), ou seja,
∀b ∈ B , ∃b ∈ B , b = f (a) .

Recordar ainda que uma função se diz bijetiva se for injetiva e sobrejetiva e que as funções
bijetivas são invertı́veis, isto é, existe uma função g : B → A tal que g(f (a)) = a para todo a ∈ A
(o que implica que f (g(b)) = b para todo b ∈ B).

Teorema 4.6 Se f : Rn → Rm é uma aplicação linear, então

1. f é injetiva sse Nuc f = {~0} sse dim Nuc f = 0;

2. f é sobrejetiva sse Im f = Rm sse dim Im f = m.

Demonstração. A única afirmação que não é completamente trivial é a primeira: f é injetiva


sse Nuc f = {~0}.
Suponhamos que f é injetiva, ou seja, que vetores distintos têm imagens distintas, e
mostremos que Nuc f = {~0}. É claro que ~0 ∈ Nuc f ; resta mostrar que é o único. De facto, se
~ ∈ Nuc f , com u
u ~ , ~0, ter-se-ia f (~u ) = f (~0), o que é impossı́vel dado que f é injetiva. Logo,
Nuc f = {~0}.
Em sentido oposto, suponhamos que Nuc f = {~0} e mostremos que f é injetiva. De facto,
caso não fosse, existiriam u~ , v~ ∈ Rn , com u~ , v~, tais que f (~
u ) = f (~
v ). Mas então f (~ v ) = ~0,
u )−f (~
Capı́tulo 4. Aplicações Lineares 117

donde f (~ u − v~) = ~0 pelo Teorema 4.1. Assim, u ~ − v~ = ~0, ou


~ − v~ ∈ Nuc f , o que implica que u
seja, u
~ = v~, que é uma contradição. Logo, f é injetiva.

Exemplo 4.8 A aplicação linear f (x, y, z) = (x − y + 2z, x + z) não é sobrejetiva, pelo


Exemplo 4.4, nem injetiva, pelo Exemplo 4.6.
A aplicação linear g(x, y, z, w) = (x + 3y + 3z + 2w, 2x + 6y + 9z + 7w, −x − 3y + 3z + 4w) não
é sobrejetiva, pelo Exemplo 4.5. Reparar que a matriz
 
 1 3 3 2
 2 6 9 7 ,


−1 −3 3 4
 

cujas colunas são formadas pelos geradores do espaço Im g, é precisamente a matriz


dos coeficientes do SEL homogéneo



 x + 3y + 3z + 2w = 0
2x + 6y + 9z + 7w = 0 ,



 −x − 3y + 3z + 4w = 0

Dado que esta matriz tem caracterı́stica 2, o SEL homogéneo tem GI 4 − 2, ou seja, 2.
Logo, o núcleo de g tem dimensão 2, pelo que g também não é injetiva.
Pelo Exemplo 4.7, a aplicação linear h(x, y, z) = (x+2y −z, 3x+6y −3z, 3x+9y, 2x+7y +4z)
é injetiva. Não é sobrejetiva, dado que a matriz
 
1 2 −1
3 6 −3
 
 .
3 9 0

2 7 4

tem caracterı́stica 3, pelo que dim Im h = 3 < 4.


Nenhuma destas aplicações lineares é, portanto, bijetiva.

Como é sabido, quando uma aplicação é bijetiva, podemos considerar a sua inversa:

E f F
~x y
~
−1
f

que é a aplicação f −1 : E → F definida por

f −1 (~
y ) = x~ ⇔ f (~
x) = y~ .
118 4.3. Representação matricial; Teorema das dimensões

Exemplo 4.9 Consideremos a aplicação linear f (x, y) = (3x + 2y, 2x + y). Como

3 2 = −1 , 0 ,
2 1

o SEL homogéneo (
3x + 2y = 0
2x + y = 0
é um SPD, pelo que a solução nula é a sua única solução. Logo, Nuc f = {(0, 0)} e,
portanto, f é injetiva. Uma vez que dim Nuc f = 0, temos que a caracterı́stica da matriz
" #
3 2
2 1

é 2. Logo, f é sobrejetiva. Deste modo, f é bijetiva e, assim, invertı́vel; calculemos a


sua inversa. Pela regra de Cramer,

( u 2 3 u
3x + 2y = u v 1 2 v
⇔ x = e y =
2x + y = v

3 2 3 2
2 1 2 1
u − 2v 3v − 2u
⇔ x= e y=
−1 −1
⇔ x = −u + 2v e y = 2u − 3v ,

pelo que
f (x, y) = (u, v) ⇔ (x, y) = (−u + 2v, 2u − 3v) .
Logo,
f −1 (u, v) = (−u + 2v, 2u − 3v) ,
ou, equivalentemente,
f −1 (x, y) = (−x + 2y, 2x − 3y) .

Na próxima secção, iremos ver uma forma muito mais prática de calcular a inversa de
uma aplicação linear.

4.3 Representação matricial; Teorema das dimensões

Como vimos nos exemplos 4.5, 4.6, 4.7 e 4.8, o estudo do espaço imagem e do núcleo de uma
aplicação linear faz-se à custa da uma matriz — mais concretamente, da matriz dos coefici-
entes do SEL homogéneo que resulta de escrever a equação f = ~0 coordenada a coordenada:

Aplicação linear → SEL f = ~0 → Matriz


( " #
x − y + 2z = 0 1 −1 2
f (x, y, z) = (x − y + 2z, x + z) → →
x+z = 0 1 0 1
Capı́tulo 4. Aplicações Lineares 119

Esta matriz tem assim, em cada linha, os coeficientes dos polinómios de grau ≤ 1 que definem
as coordenadas do vetor f . Evidentemente, este processo pode ser revertido, permitindo
recuperar, a partir de uma matriz, a aplicação linear que lhe daria lugar. Observar que uma
aplicação linear R3 → R2 produz uma matriz de tipo 2 × 3. Observar ainda que

f (1, 0, 0) = (1, 1)
f (0, 1, 0) = (−1, 0)
f (0, 0, 1) = (2, 1) ,

pelo que esta matriz pode igualmente ser lida por colunas: cada coluna consiste na imagem
de um vetor da base canónica.

Definição 4.6 (Matriz canónica de uma aplicação linear) Dada uma aplicação linear
f : Rn → Rm , chamamos matriz canónica de f à matriz de tipo m × n
 
 a11 a12 ... a1n 
 a21 a22 ... a2n 
 
Mf =  . .. .. ..  ,

 .. . . . 

am1 am2 . . . amn

onde

(a11 , a21 , . . . , am1 ) = f (~e1 )


(a12 , a22 , . . . , am2 ) = f (~e2 )
..
.
(a1n , a2n , . . . , amn ) = f (~en ) .

Exemplo 4.10 A matriz canónica da aplicação linear h(x, y, z) = (y, z, x) é


 
0 1 0
Mh = 0 0 1 .
 
1 0 0
 

De facto: por linhas, temos os coeficientes dos polinómios y, z e x; por colunas, temos
a imagem dos vetores da base canónica de R3 : h(1, 0, 0) = (0, 0, 1), h(0, 1, 0) = (1, 0, 0) e
h(0, 0, 1) = (0, 1, 0).

Exemplo 4.11 A matriz canónica da aplicação linear f (x, y) = (x − y, y, 3x) é


 
1 −1
Mf = 0 1 .
 
3 0
 
120 4.3. Representação matricial; Teorema das dimensões

Exemplo 4.12 A matriz  


 1 3 −6
Mk =  0 1 2 ,
 
−5 0 0
 

é a matriz canónica da aplicação linear k(x, y, x) = (x + 3y − 6z, y + 2z, −5x).

Teorema 4.7 (Propriedades da matriz canónica de uma aplicação linear) Seja f : Rn →


Rm é uma aplicação linear e Mf a sua matriz canónica.

1. O produto
 
v1 
v2 
 
Mf  . 
 .. 
 
vn
dá a imagem do vetor v~ = (v1 , v2 , . . . , vn ) através de f (escrita na forma de matriz
coluna).

2. Mf +g = Mf + Mg , qualquer que seja g : Rn → Rm .

3. Mkf = k Mf , qualquer que seja k ∈ R.

4. Mg◦f = Mg Mf , qualquer que seja g : Rm → Rp .

5. Nuc f = N (Mf ).

6. Im f = C(Mf ).

7. Se f é invertı́vel (e f −1 a sua inversa), então Mf −1 = (Mf )−1 .

A propriedade 1 do Teorema 4.7 diz-nos como usar a matriz canónica de uma aplicação
linear para calcular a imagem de um dado vetor:

Exemplo 4.13 Sendo f (x, y) = (x − y, y, 3x), tem-se


   
" #  1 −1  " #  −1 
1  1
Mf =  0 1  =  2  .
  
2 2
3 0 3
   

De facto,
f (1, 2) = (1 − 2, 2, 3) = (−1, 2, 3) .

Em particular, esta propriedade confirma a dedução da expressão analı́tica de uma aplicação


linear a partir da sua matriz canónica:
Capı́tulo 4. Aplicações Lineares 121

Exemplo 4.14 Como vimos no Exemplo 4.12,


 
 1 3 −6 
Mk =  0 1 2 
 
−5 0 0
 

é a matriz canónica da aplicação linear k(x, y, x) = (x+3y −6z, y +2z, −5x). De facto, pela
propriedade 1 do Teorema 4.7,
    
 1 3 −6   x   x + 3y − 6z 
Mk =  0 1 2   y  =  y + 2z  .
    
−5 0 0 z −5x
    

As propriedades 2, 3 e 4 dão outra forma, frequentemente mais prática, de calcular


aplicações lineares que resultam de operações entre outras já conhecidas.

Exemplo 4.15 No Exemplo 4.3, considerámos as seguintes aplicações lineares:

f (x, y, z) = (x − y + 2z, x + z)
g(x, y, z) = (x + y, 2y + 2z)
h(x, y) = (2x − 3y, x + 4y, y − x)
k(x, y, x) = (x + 3y − 6z, y + 2z, −5x)

e calculámos f + g, 2f , h ◦ f , f ◦ h e f ◦ k diretamente a partir da definição.


Tendo em conta que
   
" # " #  2 −3  1 3 −6
1 −1 2 1 1 0
Mf = , Mg = , Mh =  1 4 e Mk =  0 1 2 ,
   
1 0 1 0 2 2
−1 1 −5 0 0
   

tem-se
" # " # " #
1 −1 2 1 1 0 2 0 2
Mf +g = Mf + Mg = + = ,
1 0 1 0 2 2 1 2 3
" # " #
1 −1 2 2 −2 4
M2f = 2 Mf = 2 = ,
1 0 1 2 0 2
   
 2 −3 " # −1 −2 1
 1 −1 2 
Mh◦f = Mh Mf =  1 4 =  5 −1 6 ,
 
 1 0 1
−1 1 0 1 −1
  
 
" #  2 −3 " #
1 −1 2    −1 −5
Mf ◦h = Mf Mh =  1 4 =
 e
1 0 1  1 −2
−1 1

 
" #  1 3 −6 " #
1 −1 2    −9 2 −8
Mf ◦k = Mf Mk =  0 1 2  = −4 3 −6 ,


1 0 1 
−5 0 0

em sintonia com as conclusões do Exemplo 4.3.


122 4.3. Representação matricial; Teorema das dimensões

De forma idêntica, a propriedade 7 dá uma forma mais prática de calcular a inversa de
uma aplicação linear (quando esta existe).

Exemplo 4.16 Consideremos a aplicação linear

f (x, y, z) = (x + 2y + 3z, 2x + 5y + 3z, x + 8z) .

Como vimos no Exemplo 1.27, a matriz


 
 1 2 3 
Mf =  2 5 3 
 
1 0 8
 

é a matriz  
 −40 16 9 
(Mf )−1 =  13 −5 −3 
 
5 −2 −1
 

Logo,
f −1 (x, y, z) = (−40x + 16y + 9z, 13x − 5y − 3z, 5x − 2y − z) .

Comparando com o Exemplo 4.9, facilmente se vê as vantagens de recorrer a esta pro-
priedade.
Quanto às propriedades 5 e 6, estas são, como vimos no exemplos 4.5, 4.6, 4.7 e 4.8, muito
úteis no estudo do núcleo e do espaço imagem de uma aplicação linear (e, consequentemente,
na averiguação da injetividade e sobrejetividade de uma aplicação linear).

Exemplo 4.17 Consideremos a aplicação linear k(x, y, x) = (x + 3y − 6z, y + 2z, −5x), cuja
matriz canónica é  
 1 3 −6
Mk =  0 1 2 .
 
−5 0 0
 

Tendo em conta que


     
 1 3 −6 1 3 −6 1 3 −6
 0 1 ←→ ←→
2 0 1 2 0 1 2 ,
     
 L3 →L3 +5L1  L3 →L3 −15L2 
−5 0 0 0 15 −30 0 0 −60
  

concluı́mos que:

• dim Im k = dim C(Mk ) = r(Mk ) = 3, pelo que Im k = R3 ;

• dim Nuc k = dim N (Mk ) = 3 − r(Mk ) = 0, pelo que Nuc k = {(0, 0, 0)}.

Assim, k é sobrejetiva e injetiva, pelo que é bijetiva (e, logo, invertı́vel).

Evidentemente, dos teoremas 4.6 e 4.7 resulta que

Teorema 4.8 Se f : Rn → Rm é uma aplicação linear e Mf a sua matriz canónica,


então
Capı́tulo 4. Aplicações Lineares 123

1. f é injetiva sse dim N (Mf ) = 0;

2. f é sobrejetiva sse dim C(Mf ) = m.

Algumas conclusões importantes são agora fáceis de tirar. Dos teoremas 4.6 e 3.7 con-
cluı́mos que

Teorema 4.9 (Teorema das dimensões) Se f : Rn → Rm é uma aplicação linear, então

dim Nuc f + dimIm f = n .

Demonstração. De facto,

dim Nuc f + dim Im f = dim N (Mf ) + dim C(Mf ) = n − r(Mf ) + r(Mf ) = n .

Exemplo 4.18 Dado que a caracterı́stica da matriz


 
0 1 0
0 0 1
 
 
1 0 0

é 3, a aplicação linear f (x, y, z) = (y, z, x) (cf. Exemplo 4.10) é injetiva e sobrejetiva, pois
dim N (Mf ) = 3 − 3 = 0 e dim C(Mf ) = 3.

Exemplo 4.19 Dado que


     
1 −1 1 −1 1 −1
0 ←→ ←→
1 0 1 0 1 .
     
 L3 →L3 −3L1  L3 →L3 −3L2 
3 0 0 3 0 0
  

temos que r(Mf ) = 2, sendo f a aplicação linear f (x, y) = (x−y, y, 3x) (cf. Exemplo 4.19).
Logo, f não é sobrejetiva, pois f : R2 → R3 e r(Mf ) , 3. Uma vez que dim Nuc f =
2 − dim Im f = 2 − 2 = 0, f é injetiva.

1. Se f : Rn → Rn , então f é injetiva sse f é sobrejetiva, pois, pelo Teorema das dimensões,

f injetiva ⇔ dim Nuc f = 0 ⇔ 0 + dim Im f = n ⇔ dim Im f = n ⇔ f sobrejetiva.

2. Se f : Rn → Rm com m > n, então f não pode ser sobrejetiva, pois

dim Im f = n − dim Nuc f ≤ n < m .


124 4.3. Representação matricial; Teorema das dimensões

3. Se f : Rn → Rm com n > m, então f não pode ser injetiva, pois

dim Nuc f = n − dim Im f ≥ n − m > 0 .

Consequentemente, apenas aplicações lineares f : Rn → Rn podem ser bijetivas e, portanto, in-


vertı́veis (claro: apenas as matrizes quadradas podem ser invertı́veis).

Claro que, se forem consideradas outras bases que não a base canónica, a matriz da
aplicação linear será outra. No entanto, tudo funciona exatamente da mesma forma.

Definição 4.7 (Matriz de uma aplicação linear (caso geral)) Seja f : Rn → Rm uma
aplicação linear, B = (~b1 , . . . , ~bn ) uma base de Rn e D = (d~1 , . . . , d~m ) uma base de Rm .
Chamamos matriz de f nas bases B e D à matriz que tem, na sua j-ésima coluna, as
coordenadas do vetor f (~bj ) na base D:
 
 c11 c12 ... c1n 
 c
 21 c22 ... c2n 

M(f , B, D) =  . .. .. ..  ,

 .. . . . 

cm1 cm2 . . . cmn

onde

f (~b1 ) = (c11 , c21 , . . . , cm1 )D


f (~b2 ) = (c12 , c22 , . . . , cm2 )D
..
.
f (~bn ) = (c1n , c2n , . . . , cmn )D .

Quando f : Rn → Rn e a mesma base B estiver a ser considerada no espaço de partida e no espaço


de chegada, M(f , B, B) abrevia-se para M(f , B).

Tal como para a matriz canónica, tem-se

Teorema 4.10 Seja f : Rn → Rm uma aplicação linear, B uma base de Rn e D uma


base de Rm . Se v~ = (v1 , v2 , · · · , vn )B e f (~
v ) = (w1 , w2 , · · · , wm )D , então
   
v1   w1 
v2   w2 
   
M(f , B, D)  .  =  .  .
 ..   .. 
   
vn wm

Exemplo 4.20 Como vimos no Exemplo 4.19, a matriz canónica da aplicação linear
Capı́tulo 4. Aplicações Lineares 125

f : R2 → R3 definida por f (x, y) = (x − y, y, 3x) é


 
1 −1
Mf = 0 1 .
 
3 0
 

Consideremos agora as bases B = ((−1, 1), (1, 1)) de R2 e D = ((1, 1, 1), (0, 1, 1), (0, 0, 1)) de
R3 e calculemos M(f , B, D).
Como

f (−1, 1) = (−2, 1, −3) = −2(1, 1, 1) + 3(0, 1, 1) − 4(0, 0, 1) = (−2, 3, −4)D


f (1, 1) = (0, 1, 3) = 0(1, 1, 1) + 1(0, 1, 1) + 2(0, 0, 1) = (0, 1, 2)D ,

vem  
−2 0
M(f , B, D) =  3 1 .
 
−4 2
 

Assim, por exemplo, se u


~ = (−2, 1)B , então f (~
u ) = (4, −5, 10)D :
   
−2 0 " #  4
 −2
 3 1
 1 = −5 .
  
 

−4 2 10

De facto,
~ = (−2, 1)B = −2(−1, 1) + 1(1, 1) = (3, −1)
u
~ na base canónica de R2 ) e f (~
(são as coordenadas de u u ) = (4, −1, 9), pois
   
1 −1 " #  4
 3
0 1 = −1 ,
  
  −1
3 0 9
 

que são as coordenadas do vetor (4, −5, 10)D na base canónica de R3 :

(4, −5, 10)D = 4(1, 1, 1) − 5(0, 1, 1) + 10(0, 0, 1) = (4, −1, 9) = f (~


u) .

Como seria de esperar, é possı́vel determinar a matriz de uma aplicação em determinadas


bases à custa das matrizes de mudança de base:

Teorema 4.11 Sejam f : Rn → Rm uma aplicação linear, B1 e B2 bases de Rn e D1 e


D2 bases de Rm . Então

M(f , B2 , D2 ) = MD1 →D2 M(f , B1 , D1 ) MB2 →B1 .

Em particular,
M(f , B1 , D1 ) = MCRm →D1 Mf MB1 →CRn ,
ou, equivalentemente,

Mf = MD1 →CRm M(f , B1 , D1 ) MCRn →B1 ,


126 4.3. Representação matricial; Teorema das dimensões

onde CRn (respetivamente, CRm ) denota a base canónica de Rn (respetivamente, Rm ).

v
coords de ~
na base B2
1
1)

B
· · ·

2→
2
D

1,
1→

B
,B

M
D

(f
M

M coords de ~
v
na base B1

coords de f (~
v)
na base D1

coords de f (~
v)
na base D2

Exemplo 4.21 Do exemplo anterior, temos, para f : R2 → R3 definida por f (x, y) =


(x − y, y, 3x),    
1 −1 −2 0
Mf = 0 1 e M(f , B, D) =  3 1 ,
   
3 0 −4 2
   

sendo B = ((−1, 1), (1, 1)) (base de R2 ) e D = ((1, 1, 1), (0, 1, 1), (0, 0, 1)) (base de R3 ).
De facto, por definição de matriz de mudança de base (cf. Definição 3.13), temos
 
" # 1 0 0
−1 1
MB→CR2 = e MD→CR3 = 1 1 0 .
 
1 1
1 1 1
 

(É boa ideia começar por estas, pois são trivialmente conhecidas.) Assim, pelas pro-
priedades das matrizes de mudança de base (cf. Teorema 3.10) e pelo Teorema 1.4,
" #−1 " # " 1 1
#
−1 −1 1 1 1 −1 −
MCR2 →B = (MB→CR2 ) = = −2 = 21 2
1 .
1 1 −1 −1 2 2
Capı́tulo 4. Aplicações Lineares 127

Logo,
  
1 0 0 −2 0 " 1 1
#
 −
MD→CR3 M(f , B, D) MCR2 →B = 1 1 0  3 1 21 2
  
1
 2 2
1 1 1 −4 2
 
  
1 0 0  1 −1
= 1 1 0 −1 2
  
1 1 1 3 −1
  
 
1 −1
= 0 1 = Mf ,
 
3 0
 

como esperado.

1. As aplicações lineares são funções entre espaços vetoriais que respeitam as respetivas operações.
Como consequência, ficam completamente determinadas pela imagem dos vetores de uma
qualquer base do espaço de partida.

2. Toda a aplicação linear admite ser representada por meio de matrizes, cujas colunas consis-
tem nas coordenadas, na base de chegada, da imagem dos vetores da base de partida.

3. Associados a cada aplicação linear, há dois espaços vetoriais a considerar: o núcleo e o espaço
imagem. O primeiro coincide com o núcleo da matriz da aplicação (nas bases canónicas)
e à sua dimensão chama-se nulidade da aplicação linear; o segundo coincide com o espaço
gerado pelas colunas desta matriz e à sua dimensão chama-se caracterı́stica da aplicação
linear. O Teorema das dimensões estabelece que dim Nuc f + dim Im f = n (dimensão do
espaço de partida). A injetividade e a sobrejetividade de uma aplicação linear podem ser
caracterizadas à custa destes espaços.

4. A matriz de uma aplicação linear em bases dadas pode ser obtida através da matriz da
aplicação linear nas bases canónicas e das matrizes de mudança de base.

4.4 Exercı́cios

Exercı́cio 4.1 Justifique que as seguintes funções não são aplicações lineares.

1
(a) f (x) = x + 2 (b) f (x, y) = x2 + y 2 (c) f (x, y, z) = x+y+z
128 4.4. Exercı́cios

Exercı́cio 4.2 Indique o conjunto de partida, o conjunto de chegada e a matriz da


aplicação linear f , sendo:

(a) f (x) = (x, 2x, 3x)

(b) f (x, y, z) = 2x + y + 4z

(c) f (x, y) = (2x − y, x + 3y, x + y)

(d) f (x, y, z) = (3x − 2y + 4z, 5x − 8y + z)

(e) f (x, y, z) = (5x − y + z, −x + y − 7z, 2x − 4y − z)

(f) f (x, y, z, w) = (x + z − 2w, 3x − 4y − z + w)

Exercı́cio 4.3 Para cada aplicação linear do exercı́cio anterior, calcule f (~


v ) diretamente
e usando a matriz da aplicação linear, sendo:

(a) v~ = −1 (c) v~ = (2, 1) (e) v~ = (1, 0, 0)

(b) v~ = (1, −2, 3) (d) v~ = (3, 0, −1) (f) v~ = (0, 1, 0, −1)

Exercı́cio 4.4 Indique o conjunto de partida, o conjunto de chegada e a expressão


analı́tica da aplicação linear f , sendo:
  " #  
 1 −1  1 2 3  −1 3 0
(b)

(a)  2 0  (c)  2 1 2
   
−1 0 −4 

3 −4 4 5 −3
  

Exercı́cio 4.5 A informação dada define uma aplicação linear? Em caso afirmativo,
indique a respetiva expressão analı́tica.

(a) f (2, 1) = (0, 3, −1)

(b) f (2, 1) = (0, 3, −1), f (−1, 0) = (−1, 0, 1)

(c) f (2, 1) = (0, 3, −1), f (−1, 0) = (−1, 0, 1), f (1, 3) = (−5, 9, 2)

(d) f (2, 1) = (0, 3, −1), f (−1, 0) = (−1, 0, 1), f (1, 3) = (−5, 0, 2)

(e) f (1, 0, 3) = (−2, 10, −8), f (−2, 1, 1) = (−3, 3, 3), f (3, −2, 0) = (3, −1, −8)

(f) f (1, 0, 3) = (−2, 10, −8), f (−2, 1, 1) = (−3, 3, 3), f (5, −2, 1) = (4, 4, 14)

(g) f (1, 0, 3) = (−2, 10, −8), f (−2, 1, 1) = (−3, 3, 3)

Exercı́cio 4.6 Considere as aplicações lineares


f (x, y) = (−2y, 3x, x − 2y) , g(x, y, z) = (y, z, x) e h(x, y, z) = (x + z, y − z) .
Calcule, caso esteja definida:
Capı́tulo 4. Aplicações Lineares 129

(a) f + g (d) g + g −1 (g) f ◦ g (j) g ◦ h

(b) f −1 (e) g ◦ g −1 (h) f ◦ h (k) h ◦ f

(c) g −1 (f) g ◦ g ◦ g (i) g ◦ f (l) h ◦ g

Exercı́cio 4.7 Considere as aplicações lineares f : R2×2 → R e g : R2×2 → R2×2 defini-


das por
f (A) = tr (A) e g(A) = AT .
" #
a b
(a) Calcule (f ◦ g)(A), sendo A = .
c d

(b) É possı́vel calcular (g ◦ f )(A)? Justifique.

Exercı́cio 4.8 Considere a aplicação linear f (x, y) = (2x − y, −8x + 4y).

(a) Quais dos seguintes vetores pertencem ao espaço Im f ?

(i) (1, −4) (ii) (5, 0) (iii) (−3, 12)

(b) Quais dos seguintes vetores pertencem ao espaço Nuc f ?

(i) (5, 10) (ii) (3, 2) (iii) (1, 1)

Exercı́cio 4.9 Considere a aplicação linear

g(x1 , x2 , x3 , x4 ) = (4x1 + x2 − 2x3 − 3x4 , 2x1 + x2 + x3 − 4x4 , 6x1 − 9x3 + 9x4 ) .

(a) Quais dos seguintes vetores pertencem ao espaço Im g?

(i) (0, 0, 6) (ii) (1, 3, 0) (iii) (2, 4, 1)

(b) Quais dos seguintes vetores pertencem ao espaço Nuc g?

(i) (3, −8, 2, 0) (ii) (0, 0, 0, 1) (iii) (0, −4, 1, 0)

Exercı́cio 4.10 Determine uma base e uma descrição cartesiana do núcleo da aplicação
linear

(a) do Exercı́cio 4.8 (b) do Exercı́cio 4.9

Exercı́cio 4.11 Determine uma base e uma descrição cartesiana do espaço imagem da
aplicação linear

(a) do Exercı́cio 4.8 (b) do Exercı́cio 4.9


130 4.4. Exercı́cios

Exercı́cio 4.12 Seja f a aplicação linear com a matriz A indicada.


  " #
 1 −1 3  4 1 5 2
(c)
(a)  5 6 −4 
 
1 2 3 0
7 4 2
 
 
   1 4 5 0 9 
 2 0 −1   3 −2 1 0 −1 
 
(d)   
(b)  4 0 −2   −1 0 −1 0 −1 
 
0 0 0 2 3 5 1 8
   

Para cada alı́nea,

(i) indique a caracterı́stica e uma base do espaço gerado pelas colunas de A.

(ii) indique a caracterı́stica e uma base do espaço imagem de f .

(iii) indique a dimensão e uma base do núcleo de A.

(iv) indique a nulidade e uma base do núcleo de f .

Exercı́cio 4.13 Complete a tabela.

f Mf r(Mf ) dim Nuc f dim Im f Injetiva? Sobrejetiva?

R3 → R3 3 × 3 2
R3 → R2 2
3×2 1
R3 → R4 S
4×4 S
2 2 S

Exercı́cio 4.14 Verifique se a aplicação linear cuja matriz canónica é a matriz indicada
é invertı́vel e, em caso afirmativo, calcule a sua inversa.
     
 1 5   1 5 2   1 0 1 
(a)  1 2  (c)  1 2 1  (e)  0 1 1
     


−1 1 −1 1 0 1 1 0
    
   
" #  1 4 −1   1 −1 −1 
1 5 2 (d)  1 2 1  (f)  0 2 −1
   

(b) 
1 2 1 
−1 1 0
 
2 3 0

Exercı́cio 4.15 Considere a aplicação linear f (x, y, z) = (x + 2y − 3z, 4x + 5z) e as bases


ordenadas
B = ((1, 1, 1), (−1, 1, 1), (1, −1, 1)) e e = ((1, −1), (1, 1))
B
Capı́tulo 4. Aplicações Lineares 131

de R3 e R2 , respetivamente.

(a) Indique a matriz canónica de f e interprete-a por colunas.

(b) Determine a matriz de f relativamente à base B (no espaço de partida) e à base


canónica (no espaço de chegada).

(c) Verifique que a matriz determinada na alı́nea anterior tem, na 1ª coluna, as coor-
denadas do vetor f (1, 1, 1) na base canónica de R2 .

(d) Determine a matriz de f relativamente à base canónica (no espaço de partida) e


à base B
e (no espaço de chegada).

(e) Verifique que a matriz determinada na alı́nea anterior tem, na 3ª coluna, as coor-
denadas do vetor f (0, 0, 1) na base B.
e

(f) Determine a matriz de f relativamente à base B (no espaço de partida) e à base B


e
(no espaço de chegada).

(g) Verifique que a matriz determinada na alı́nea anterior tem, na 2ª coluna, as coor-
denadas do vetor f (−1, 1, 1) na base B.
e

(h) Calcule as coordenadas de f (2, −3, 1) na base B.


e

v ) na base canónica de R2 .
(i) Sendo v~ = (1, −4, 1)B , calcule as coordenadas de f (~

(j) Sendo w
~ = (−4, 0, 2)B , calcule as coordenadas de f (w)
~ na base B.
e

Exercı́cio 4.16 Considere a aplicação linear

f (x, y, z) = (3x − y + z, −2x + 4y + 2z, −x + y + 5z)

e a base ordenada
B = ((1, 1, 0), (1, 0, 1), (0, 1, 1)) .
(a) Indique a matriz canónica de f .

(b) Determine (M(f , B)), ou seja, a matriz de f relativamente à base B (tanto no


espaço de partida como no espaço de chegada)

(i) por definição.


(ii) usando as matrizes de mudança de base.

(c) Sendo v~ = (0, 5, 0)B e w


~ = (1, 0, 3)B , calcule as coordenadas dos vetores f (~
v ) e f (w)
~
na base B.

(d) Calcule (M(f , B))5 .

(e) Escreva (Mf )5 à custa de (M(f , B))5 .

(f) Calcule (Mf )5 .

(g) Escreva a expressão analı́tica de f ◦ f ◦ f ◦ f ◦ f .


132 4.4. Exercı́cios

Exercı́cio 4.17 Seja f : R2 → R3 tal que

f (2, −1) = (3, 3, −1) e f (3, 2) = (8, 1, 9) .

(a) Justifique que as condições dadas definem uma aplicação linear R2 → R3 .

(b) Determine a expressão analı́tica de f .

Exercı́cio 4.18 Seja f : R3 → R3 tal que

f (1, 2, 0) = (7, 0, 4) , f (0, −1, 3) = (−3, 13, 1) e f (1, 0, 1) = (1, 6, 1) .

(a) Justifique que as condições dadas definem uma aplicação linear R3 → R3 .

(b) Determine a expressão analı́tica de f .

Exercı́cio 4.19 Selecione a opção correta.

(a) Se f : R4 → R3 , então Mf é uma matriz de tipo 4 × 3 // 3 × 4.


(b) Se n > m, então f : Rn → Rm não pode ser injetiva // sobrejetiva.
(c) Se n < m, então f : Rn → Rm não pode ser injetiva // sobrejetiva.
(d) Se f (x, y, z) = (2x − y + 4z, x + 2y, 2y + 3z), então
   
 2 −1 4   2 1 0 
Mf =  1 2 0  // Mf =  −1 2 2  .
   
0 2 3 4 0 3
   

(e) Se f (1, 2, 3) = f (2, −1, 0) = (−2, 3), então f não é injetiva // sobrejetiva.
(f) Se f : R3 → R2 , então Im f é um espaço vetorial de dimensão 0, 1 ou 2 // 0, 1, 2
ou 3.
(g) Im f é o espaço vetorial gerado pelas linhas // colunas da matriz Mf .
(h) Nuc f é o núcleo da matriz Mf // da transposta da matriz Mf .

(i) Se f : R3 → R2 e r(Mf ) = 2, então a caracterı́stica // nulidade de f é 2.

(j) Se f : R3 → R3 e r(Mf ) = 3, então f é // não é invertı́vel.

(k) Se f : R3 → R4 , então dim Nuc f + dim Im f é igual a 3 // 4.


(l) Se f : R5 → R3 e B é uma base de R5 , então M(f , B, BCR3 ) é igual a

Mf MB→BCR3 // Mf MB→BCR5 // MB→BCR3 Mf // MB→BCR5 Mf .

(m) Se f : R3 → R3 e B é uma base de R3 , então

M(f , B) = MB→BC Mf (MB→BC )−1 // M(f , B) = (MB→BC )−1 Mf MB→BC .


Capı́tulo 4. Aplicações Lineares 133

4.5 Soluções

Solução 4.1

(a) f (0) = 2 , 0 ou f (1) + f (2) = 7 , 5 = f (1 + 2) ou f (2) = 4 , 6 = 2f (1)


(b) f (1, 1) + f (−1, −1) = 4 , 0 = f ((1, 1) + (−1, −1)) ou f (3, 3) = 18 , 6 = 3f (1, 1)
(c) f não está definida em todo o conjunto de partida (R3 )

Solução 4.2

 1 
 
(a) f : R → R3 , Mf =  2 
 
3
 
h i
(b) f : R3 → R, Mf = 2 1 4

 2 −1 
 
(c) f : 2 3
R → R , Mf = 
 1 3 
1 1
 
" #
3 2 3 −2 4
(d) f : R → R , Mf =
5 −8 1

 5 −1 1
 

(e) f : R3 → R3 , Mf =  −1 1 −7
 

2 −4 −1
 
" #
1 0 1 −2
(f) f : R4 → R2 , Mf =
3 −4 −1 1

Solução 4.3

(a) (−1, −2, −3) (c) (3, 5, 3) (e) (5, −1, 2)


(b) 12 (d) (5, 14) (f) (2, −5)

Solução 4.4

(a) f : R2 → R3 , f (x, y) = (x − y, 2x, 3x − 4y)


(b) f : R3 → R2 , f (x, y, z) = (x + 2y + 3z, −x − 4z)
(c) f : R3 → R3 , f (x, y, z) = (−x + 3y, 2x + y + 2z, 4x + 5y − 3z)

Solução 4.5

(a) Não (informação insuficiente)


(b) f (x, y) = (x − 2y, 3y, −x + y)
(c) f (x, y) = (x − 2y, 3y, −x + y)
(d) Não (informação inconsistente)
134 4.5. Soluções

(e) f (x, y, z) = (x − z, x + 2y + 3z, −2x + y − 2z)


(f) Não (informação insuficiente)
(g) Não (informação insuficiente)

Solução 4.6

(c) g −1 (x, y, z) = (z, x, y)


(d) (g + g −1 )(x, y, z) = (y + z, x + z, x + y)
(e) (g ◦ g −1 )(x, y, z) = (x, y, z)
(f) (g ◦ g ◦ g)(x, y, z) = (x, y, z)
(h) (f ◦ h)(x, y, z) = (−2y + 2z, 3x + 3z, x − 2y + 2z)
(i) (g ◦ f )(x, y) = (3x, x − 2y, −2y)
(k) (h ◦ f )(x, y) = (x − 4y, 2x + 2y)
(l) (h ◦ g)(x, y, z) = (x + y, −x + z)

Solução 4.7

(a) (f ◦ g)(A) = a + d
(b) Não, pois f (A) não é uma matriz 2 × 2.

Solução 4.8

(a) (i) e (iii) (b) (i)

Solução 4.9

(a) (i), (ii) e (iii) (b) (i)

Solução 4.10

(a) {(1, 2)}; 2x − y = 0


(b) {( 32 , −4, 1, 0)}; 2x1 − 3x3 = 0, x2 + 4x3 = 0, x4 = 0

Solução 4.11

(a) {(1, −4)}; 4x + y = 0


(b) {(4, 2, 6), (1, 1, 0), (−3, −4, 9)}; Im g = R3

Solução 4.12
Capı́tulo 4. Aplicações Lineares 135

(a) (i) 2; {(1, 5, 7), (−1, 6, 4)} (c) (i) 2; {(4, 1), (1, 2)}
(ii) Idem (ii) Idem
(iii) 1; {(−14, 19, 11)} (iii) 2; {(−4, 2, 0, 7), (−6, 0, 2, 7)}
(iv) Idem (iv) Idem
(b) (i) 1; {(1, 2, 0)} (d) (i) 3; {(1, 3, −1, 2), (4, −2, 0, 3), (0, 0, 0, 1)}
(ii) Idem (ii) Idem
(iii) 2; {(1, 0, 2), (0, 1, 0)} (iii) 2; {(1, 1, −1, 0, 0), (5, 1, 0, 0, −1)}
(iv) Idem (iv) Idem

Solução 4.13

f Mf r(Mf ) dim Nuc f dim Im f Injetiva? Sobrejetiva?

R3 → R3 3×3 2 1 2 N N
R3 → R2 2×3 2 1 2 N S
R2 → R3 3×2 1 1 1 N N
R3 → R4 4×3 3 0 3 S N
R4 → R4 4×4 4 0 4 S S
R4 → R2 2×4 2 2 2 N S

Solução 4.14

(a) Não invertı́vel


(b) Não invertı́vel
(c) Não invertı́vel
y y 5y
(d) Invertı́vel; f −1 (x, y, z) = ( 8x + 8 − 3z x z 3x
4 , 8 + 8 + 4,− 8 + 8 + 4z )
y y y
(e) Invertı́vel; f −1 (x, y, z) = ( 2x − 2 + 2z , − 2x + 2 + 2z , 2x + 2 − 2z )
(f) Invertı́vel; f −1 (x, y, z) = (3x + 3y − z, −2x − 2y + z, −4x − 5y + 2z)

Solução 4.15
" #
1 2 −3
(a) Mf = ; na 1ª coluna, f (1, 0, 0) = (1, 4); na 2ª coluna, f (0, 1, 0) = (2, 0); na 3ª
4 0 5
coluna, f (0, 0, 1) = (−3, 5)
" #
0 −2 −4
(b) M(f , B, BCR2 ) =
9 1 9
(c) f (1, 1, 1) = (0, 9)
− 32
" #
1 −4
(d) M(f , BCR3 , B)
e = 5
2 1 1
(e) −4 · (1, −1) + 1 · (1, 1) = (−3, 5) = f (0, 0, 1)
136 4.5. Soluções

− 92 − 32 − 13
" #
(f) M(f , B, B)
e = 2
9
2 − 12 5
2

(g) − 23 · (1, −1) − 12 · (1, 1) = (−2, 1) = f (−1, 1, 1)


(h) f (2, −3, 1) = (−10, 3)Be
(i) f (~
v ) = (−12, 4)
(j) f (w)
~ = (5, −13)Be

Solução 4.16

 3 −1 1 
 
(a) Mf = 
 −2 4 2 
−1 1 5
 

 2 0 0
 
(b) (i) f (1, 1, 0) = (2, 2, 0) = (2, 0, 0)B , 
M(f , B) =  0 4 0
 
f (1, 0, 1) = (4, 0, 4) = (0, 4, 0)B , 
0 0 6
 
f (0, 1, 1) = (0, 6, 6) = (0, 0, 6)B
(ii) M(f , B) = MBC→B Mf MB→BC

(c) f (~
v ) = (0, 20, 0)B , f (w)
~ = (2, 0, 18)B
 32 0 0 
 
(d) (M(f , B))5 =  0 1024 0 

0 0 7776
 

(e) (Mf )5 = MB→BC (M(f , B))5 MBC→B


528 −496 496 
 

(f) (Mf )5 =  −3872 3904 3872 
 
−3376 3376 4400
 

(g) (f ◦ f ◦ f ◦ f ◦ f )(x, y, z) =
= (528x − 496y + 496z, −3872x + 3904y + 3872z, −3376x + 3376y + 4400z)

Solução 4.17

(a) Como {(2, −1), (3, 2)} é um conjunto de 2 vetores linearmente independentes de R2 , tem-
se que constitui uma base de R2 e a conclusão pretendida sai do Teorema 4.2.
(b) f (x, y) = (2x + y, x − y, x + 3y)

Solução 4.18

(a) Como {(1, 2, 0), (0, −1, 3), (1, 0, 1)} é um conjunto de 3 vetores linearmente independentes
de R3 , tem-se que constitui uma base de R3 e a conclusão pretendida sai do Teorema 4.2.
(b) f (x, y, z) = (x + 3y, 2x − y + 4z, 2y + z)

Solução 4.19
Capı́tulo 4. Aplicações Lineares 137

(a) 3 × 4 (g) colunas


(b) injetiva (h) núcleo da matriz Mf
(c) sobrejetiva (i) caracterı́stica
 2 −1 4 
 
(j) é
(d) Mf =  1 2 0 


0 2 3
 (k) 3

(e) injetiva (l) Mf MB→BCR5

(f) 0, 1 ou 2 (m) M(f , B) = (MB→BC )−1 Mf MB→BC


5. Valores e Vetores Próprios

5.1 Definição e exemplos 139

5.2 Multiplicidade algébrica e geométrica 146

5.3 Diagonalização 148

5.4 Exercı́cios 155

5.5 Soluções 158

Neste capı́tulo, estudamos as noções de valor e vetor próprio de uma aplicação linear (no caso mais
simples, que é o caso real), nas quais assentam inúmeras aplicações muito importantes da Álgebra
Linear às mais diversas áreas.

5.1 Definição e exemplos


Na última secção do capı́tulo anterior, vimos como uma mesma aplicação linear pode ser
representada por diferentes matrizes, consoante as bases escolhidas nos espaços de partida
e de chegada. Recordar que, sendo B uma base de Rn e D uma base de Rm , a matriz da
aplicação f : Rn → Rm relativamente a estas bases, que se denota por M(f , B, D), é tal que: se
~ = (x1 , x2 , · · · , xn )B e f (~
u u ) = (y1 , y2 , · · · , ym )D , então
   
 x1   y1 
x2 y2
   
   
M(f , B, D)   =   .
..   .. 

 .  
  . 

xn ym

Vamos agora virar o problema ao contrário: que bases escolher nos espaços de partida
e de chegada de modo que matriz de f relativamente a essas bases seja tão simples quanto
possı́vel, isto é, de modo que o produto
 
 x1 
x2
 
 
M(f , B, D)  ..



 . 

xn

seja tão fácil de calcular quanto possı́vel? O ideal é M(f , B, D) ser uma matriz diagonal, pois

139
140 5.1. Definição e exemplos

nesse caso       
 x1   λ1 0 ··· 0   x1   λ1 x1 
x2 0 λ2 ··· 0 x2   λ2 x2 
       
    
M(f , B, D)   =   = 
.. .. .. .. .. ..   ...  .
  
 .  
  . . . .  
  .   

xn 0 0 · · · λn xn λn xn
     

É claro que, para que M(f , B, D) seja uma matriz diagonal, antes de mais é preciso que
seja quadrada. Por isso, daqui para a frente vamos restringirmo-nos a aplicações lineares
f : Rn → Rn . Recordar ainda que, quando f : Rn → Rn e a mesma base B está a ser conside-
rada tanto no espaço de partida como no espaço de chegada, em vez de M(f , B, B) escreve-
mos apenas M(f , B). Vamos então resolver o seguinte problema: dada uma matriz quadrada
M — que consideramos como sendo a matriz canónica Mf de uma certa aplicação linear
f : Rn → Rn — como encontrar uma matriz diagonal D que represente a mesma aplicação
linear relativamente a outra base, ou seja, tal que D = M(f , B) para alguma base B de Rn ?

Definição 5.1 (Aplicação linear diagonalizável) Seja f : Rn → Rn uma aplicação linear.


Dizemos que f é diagonalizável se existir uma base B de Rn tal que M(f , B) seja uma
matriz diagonal.

Quando a matriz da aplicação linear f : Rn → Rn na base B = (~ v1 , v~2 , . . . , v~n ) é diagonal, digamos


 
 λ1 0 · · · 0 
 0 λ2 · · · 0 
 
M(f , B) =  .
.. . . ..  ,

 .. . . . 
 
0 0 · · · λn
isto significa que

f (~
v1 ) = (λ1 , 0, 0, . . . , 0)B
f (~
v2 ) = (0, λ2 , 0, . . . , 0)B
..
.
f (~
vn ) = (0, 0, . . . , 0, λn )B .

Por outro lado, as coordenadas dos vetores v~1 , v~2 , . . . , v~n na base B são triviais:

v~1 = (1, 0, 0, . . . , 0)B


v~2 = (0, 1, 0, . . . , 0)B
..
.
v~n = (0, 0, . . . , 0, 1)B .

Assim,

f (~
v1 ) = λ1 (1, 0, 0, . . . , 0)B = λ1 v~1
f (~
v2 ) = λ2 (0, 1, 0, . . . , 0)B = λ2 v~2
..
.
f (~
vn ) = λn (0, 0, . . . , 0, 1)B = λn v~n .
Capı́tulo 5. Valores e Vetores Próprios 141

Deste modo, vamos começar por procurar números reais λ tais que f (~ u para algum u
u ) = λ~ ~ (não
nulo).

Definição 5.2 (Valor próprio & vetor próprio de uma aplicação linear) Seja f : Rn → Rn
uma aplicação linear. Dizemos que λ ∈ R é um valor próprio da aplicação linear f se
~ ∈ Rn não nulo tal que
existir u
f (~
u ) = λ~
u.
Nestas condições, dizemos que u
~ é um vetor próprio da aplicação linear f associado ao
valor próprio λ.

Exemplo 5.1 Sendo f (x, y, z) = (2z, x + 2y + z, −x + 3z), temos

f (0, 3, 0) = (0, 6, 0) = 2(0, 3, 0) .

Logo, 2 é um valor próprio da aplicação linear f e (0, 3, 0) é um vetor próprio de f


associado ao valor próprio 2.

Para mais facilmente conseguirmos determinar que outros vetores próprios estão asso-
ciados a um dado valor próprio e que outros valores próprios uma aplicação linear tem,
traduzimos para matrizes as noções de valor próprio e vetor próprio:

Definição 5.3 (Valor próprio & vetor próprio de uma matriz) Seja M uma matriz qua-
drada (de ordem n). Dizemos que λ ∈ R é um valor próprio da matriz M se existir uma
matriz X não nula de tipo n × 1 tal que

M X = λX .

Nestas condições, dizemos que o vetor X T é um vetor próprio da matriz M associado


ao valor próprio λ.

Sendo X uma matriz de tipo n×1, X T é uma matriz de tipo 1×n — ou seja, uma matriz linha. Na
definição de valor próprio e vetor próprio de uma matriz, estamos, intencionalmente, a identificar
a matriz linha X T com o vetor cujas coordenadas são as entradas da matriz X T :

h i
XT = x1 x2 · · · xn ←→ (x1 , x2 , · · · , xn ) .

Exemplo 5.2 Sendo  


 0 0 2 
M =  1 2 1 
 
−1 0 3
 
142 5.1. Definição e exemplos

(a matriz canónica da aplicação linear do exemplo anterior) e


 
 0 
X =  3 
 
0
 

temos       
 0 0 2   0   0   0 
M X =  1 2 1   3  =  6  = 2  3  .
      
    
−1 0 3 0 0 0
 

Logo, 2 é um valor próprio da matriz M e X T = (0, 3, 0) é um vetor próprio de M


associado ao valor próprio 2.

Em termos de matrizes, é fácil calcular o conjunto de todos valores próprios:

M X = λX ⇔ M X − λX = O
⇔ M X − λ In X = O
⇔ (M − λ In ) X = O
⇔ det(M − λ In ) = 0 ,

onde, como habitualmente, In denota a matriz identidade de ordem n e O a matriz nula (de
tipo n×1). De facto, a equação matricial (M −λ In ) X = O corresponde a um SEL homogéneo, o
qual admite sempre, pelo menos, a solução nula. Para que a matriz M tenha valores próprios,
este sistema tem que admitir também soluções não nulas, e portanto tem que ser um SPI.
Ora, isso acontece sse o sistema não for um SPD (já que impossı́vel nunca é), pelo que a
matriz M − λ In tem que ser não invertı́vel. Resumindo, temos a forma como, na prática, se
calculam os valores próprios de uma matriz e os vetores próprios associados a cada valor
próprio:

Teorema 5.1 Seja M uma matriz quadrada (de ordem n).

1. λ é um valor próprio de M sse det(M − λ In ) = 0.

2. X T é um vetor próprio de M, associado a um valor próprio λ, sse X é solução do


sistema homogéneo (M − λ In )X = O.

Exemplo 5.3 Consideremos a matriz


 
 0 0 2 
M =  1 2 1  .
 
−1 0 3
 

Vamos calcular todos os valores próprios de M e os vetores próprios associados a cada


valor próprio.
Capı́tulo 5. Valores e Vetores Próprios 143

Começamos por calcular todos os valores próprios de M. Temos:


       
 0 0 2   1 0 0   0 0 2   λ 0 0 
M − λ In =  1 2 1  − λ  0 1 0  =  1 2 1  −  0 λ 0  ,
       

−1 0 3 0 0 1 −1 0 3 0 0 λ
      

ou seja,  
 −λ 0 2 
M − λ In =  1 2 − λ 1  .
 

−1 0 3−λ

Logo,
 
 −λ 0 2 
det(M − λ In ) = 0 ⇔ det  1 2 − λ 1  = 0
 

−1 0 3−λ

⇔ −λ(2 − λ)(3 − λ) + 0 + 0 − 2(2 − λ)(−1) − 0 − 0 = 0


⇔ (2 − λ)(−3λ + λ2 + 2) = 0
⇔ (2 − λ)(λ − 1)(λ − 2) = 0
⇔ λ = 2 ∨ λ = 1.

Concluı́mos assim que as soluções da equação det(M − λ In ) = 0 são 1 (simples) e 2


(dupla), pelo que os valores próprios de M são 1 e 2. Para determinarmos os vetores
próprios associados ao valor próprio 2 e os vetores próprios associados ao valor próprio
1, resolvemos o sistema (M − λ In )X = O para cada um destes valores de λ. Para λ = 2,
vem:
     
 −2 0 2   1 0 −1  ←→  1 0 −1 
←→ 
M − 2In =  1 0 1  L1 →− 12 L1  1 0 1  L2 →L2 −L1  0 0 2 
     
L 3 ↔L 3 +L 1
−1 0 1 −1 0 1 0 0 0
     

Logo, o conjunto de solução do sistema (M − 2In )X = O é {(0, y, 0) : y ∈ R}, pois


( (
x−z = 0 x=0
⇔ .
2z = 0 z=0

Deste modo, os vetores próprios de M associados ao valor próprio 2 são os vetores da


forma (0, y, 0) com y , 0. Para λ = 1, vem:
   
 −1 0 2  ←→ 
 −1 0 2 
M − In =  1 1 1  L2 →L2 +L1  0 1 3 
   
L 3 →L 3 −L 1
−1 0 2 0 0 0
   

Logo, o conjunto de solução do sistema (M − In )X = O é {(2z, −3z, z) : z ∈ R}, pois


( (
−x + 2z = 0 x = 2z
⇔ .
y + 3z = 0 y = −3z

Assim, os vetores próprios de M associados ao valor próprio 1 são os vetores da forma


(2z, −3z, z) com z , 0.
144 5.1. Definição e exemplos

1. A equação det(M −λ In ) = O é uma equação polinomial (de grau n igual à ordem da matriz).
Como tal, tem, em R, no máximo n soluções — são os valores próprios de M.

2. Dado que o conjunto dos vetores próprios associados a um certo valor próprio λ, juntamente
com o vetor nulo, consiste no núcleo da matriz M − λ In , tem-se que se trata de um subespaço
vetorial de Rn .

Definição 5.4 (Equação caracterı́stica & polinómio caracterı́stico de uma matriz) Seja
M uma matriz quadrada (de ordem n). À equação det(M −λ In ) = O chamamos equação
caracterı́stica de M e ao polinómio det(M −λ In ) chamamos polinómio caracterı́stico de
M.

Definição 5.5 (Subespaço próprio) Seja M uma matriz quadrada (de ordem n) e λ um
valor próprio de M. Ao espaço vetorial constituı́do pelos vetores próprios associados
a λ e pelo vetor nulo de Rn , chamamos subespaço próprio da matriz M associado ao
valor próprio λ. Representa-se por Sλ .

Exemplo 5.4 A matriz M do exemplo anterior tem dois subespaços próprios:

S1 = {(2z, −3z, z) : z ∈ R} = h(2, −3, 1)i


S2 = {(0, y, 0) : y ∈ R} = h(0, 1, 0)i .

Exemplo 5.5 Determinemos os subespaços próprios da matriz


 
 4 2 −2 
M =  3 3 0  .
 
−1 1 2
 

Para isso, há que calcular todos os valores próprios de M. Começamos assim por de-
terminar o polinómio caracterı́stico:

4 − λ 2 −2

det(M − λ In ) = 3 3−λ 0
−1 1 2−λ

= (4 − λ)(3 − λ)(2 − λ) − 6 − 2(3 − λ) − 6(2 − λ)


= 24 − 26λ + 9λ2 − λ3 − 6 − 6 + 2λ − 12 + 6λ
= −λ3 + 9λ2 − 18λ
= −λ(λ − 3)(λ − 6)

e, em seguida, as suas raı́zes:

det(M − λ In ) = 0 ⇔ −λ(λ − 3)(λ − 6) = 0 ⇔ λ = 0 ∨ λ = 3 ∨ λ = 6 .


Capı́tulo 5. Valores e Vetores Próprios 145

Concluı́mos assim que as raı́zes do polinómio caracterı́stico são 0, 3 e 6 (todas simples),


pelo que os valores próprios de M são 0, 3 e 6.
Por definição, o subespaço S0 é o CS do sistema homogéneo (M − 0 In )X = O, ou seja, o
núcleo da matriz M. Como
     
 4 2 −2   −1 1 2  ←→  −1 1 2 
M =  3 3 0  L1←→  3 3 0  L2 →L2 +3L1  0 6 6  ←→
     
↔L3  L 3 ↔L3 +4L 1
−1 1 2 4 2 −2 0 6 6
     
     
 −1 1 2  ←→  1 −1 −2   1 1 0 
←→  0 6 6  L1 →−L ←→
 L2 → 16 L2  0 1 1  L1 →L  0 1 1  ,
  1
   
L3 →L3 −L2 1 +2L2

  
0 0 0 0 0 0 0 0 0
 

temos S0 = {(−y, y, −y) : y ∈ R} = h(−1, 1, −1)i, uma vez que


( (
x+y = 0 x = −y
⇔ .
y +z = 0 z = −y

Analogamente, S3 é o núcleo da matriz M − 3 In . Como


     
 1 2 −2  ←→  1 2 −2   1 2 −2 
L2 →L2 −3L1 ←→ ←→
M−3 In =  3 0 0  0 −6 6  0 1 −1
     

 L3 →L3 +L1  L2 ↔− 61 L2

 


−1 1 −1 0 3 −3 0 3 −3

   
 1 2 −2   1 0 0 
←→  0 ←→
1 −1  L1 →L  0 1 −1 
   
L3 →L3 −3L2  1 −2L2 
0 0 0 0 0 0
 

e ( (
x=0 x=0
⇔ ,
y −z = 0 y=z
temos S3 = {(0, z, z) : z ∈ R} = h(0, 1, 1)i. Por fim, S6 é o núcleo da matriz M − 6 In . Como
     
 −2 2 −2   1 −1 1  ←→  1 −1 1 
←→ L2 ↔L2 −3L1 ←→
M−6 In =  3 −3 0  L1 →− 21 L1  3 −3 0  0 0 −3 
     

 L3 ↔L3 +L1 
−1 1 −4 −1 1 −4 0 0 −3
   
     
 1 −1 1   1 −1 1   1 −1 0 
←→  0 ←→ ←→
0 −3 0 0 1   0 0 1 
     
 1
L3 →L3 +L2   L2 →− 3 L2  L1 →L1 −L2 
0 0 0 0 0 0 0 0 0
    

e ( (
x−y = 0 y=x
⇔ ,
z=0 z=0
concluı́mos que S6 = {(x, x, 0) : x ∈ R} = h(1, 1, 0)i.
Logo, os subespaços próprios de M são

S0 = {(−y, y, −y) : y ∈ R} = h(−1, 1, −1)i


S3 = {(0, z, z) : z ∈ R} = h(0, 1, 1)i
S6 = {(x, x, 0) : x ∈ R} = h(1, 1, 0)i .
146 5.2. Multiplicidade algébrica e geométrica

Antes de prosseguirmos na resolução do problema de diagonalização de uma matriz,


observemos o seguinte:

Teorema 5.2 Uma matriz A uma matriz (quadrada) é invertı́vel sse 0 não é um valor
próprio de A.

Demonstração. De facto,

A invertı́vel ⇔ det A , 0 ⇔ det(A − 0In ) , 0 ⇔ 0 não é um valor próprio de A .

Exemplo 5.6 A matriz do exemplos 5.3 & 5.4 é invertı́vel e a matriz do Exemplo 5.5
não é invertı́vel.

5.2 Multiplicidade algébrica e geométrica


Vejamos ainda um outro exemplo de subespaços próprios de uma matriz 3 × 3:

Exemplo 5.7 Consideremos a matriz


 
 1 −3 3 
M =  3 −5 3  .
 
6 −6 4
 

Temos

 1 − λ −3 3
det(M − λ In ) =  3 −5 − λ 3

6 −6 4 − λ

= (1 − λ)(−5 − λ)(4 − λ) − 54 − 54 − 18(−5 − λ) + 9(4 − λ) + 18(1 − λ)


= −λ3 + 12λ + 16 .

Dado que −2 é raiz do polinómio −λ3 +12λ+16, pois −(−2)3 +12(−2)+16 = 8−24+16 = 0,
recorremos à regra de Rufini para fatorizar o polinómio:

−1 0 12 16
−2 2 −4 −16
−1 2 8 0

donde −λ3 + 12λ + 16 = (λ + 2)(−λ2 + 2λ + 8). Recorrendo agora à fórmula resolvente,


p √
2 −2 ± 4 − 4 × (−1) × 8 2 ± 36 2 ± 6
−λ + 2λ + 8 = 0 ⇔ λ = = = ⇔ λ = −2 ∨ λ = 4 .
2 × (−1) 2 2
Conclui-se assim que as raı́zes do polinómio caracterı́stico são 4 (simples) e −2 (dupla),
pelo que os valores próprios de M são 4 e −2.
Capı́tulo 5. Valores e Vetores Próprios 147

Determinemos agora os subespaços próprios de M. Relativamente a S4 , temos


   
 −3 −3 3  ←→  −3 −3 3 
M − 4 In =  3 −9 3
 
 L2 →L2 +L1  0 −12 6
 
 ←→
 L3 →L3 +2L1  
6 −6 0 0 −12 6

     
←→  1 1 −1   1 1 −1   1 −1 0 
←→ ←→
L1 →− 31 L1  0 −12 6  0 −2 1  0 −2 1  .
   
  L2 → 16 L2   L1 →L1 +L2
L3 →L3 −L2    
0 0 0 0 0 0 0 0 0
 

Dado que ( (
x−y = 0 x=y
⇔ ,
−2y + z = 0 z = 2y
temos
S4 = {(y, y, 2y) : y ∈ R} = h(1, 1, 2)i .
Quanto a S−2 , temos
     
 3 −3 3  ←→  3 −3 3   1 −1 1 
L2 →L2 −L1 ←→
M − (−2) In =  3 −3 3   0 0 0   0 0 0 
     
L3 →L3 −2L1  L1 → 31 L1 
6 −6 6 0 0 0 0 0 0
   

Como x − y + z = 0 ⇔ y = x + z, temos

S−2 = {(x, x + z, z) : x, z ∈ R} = h(1, 1, 0), (0, 1, 1)i .

Repare-se que as três matrizes dos exemplos 5.3 & 5.4, 5.5 e 5.7,
Exemplos 5.3 & 5.4 Exemplo 5.5 Exemplo 5.7
     
 0 0 2   4 2 −2   1 −3 3 
M =  1 2 1  M =  3 3 0  M =  3 −5 3 
     
−1 0 3 −1 1 2 6 −6 4
     

apesar de todas serem de tipo 3 × 3, exibem comportamentos diferentes. Abreviando para


“m.a.” a multiplicidade de λ como raiz do polinómio caracterı́stico, temos:
Exemplo det(M − λI) λ m.a. dim Sλ

5.3 & 5.4 −(λ − 1)(λ − 2)2 1 1 1


2 2 1

5.5 −λ(λ − 3)(λ − 6) 0 1 1


3 1 1
6 1 1

5.7 −(λ − 4)(λ + 2)2 4 1 1


−2 2 2

É imediato verificar, nomeadamente, que uma raiz dupla do polinómio caracterı́stico tanto
por dar origem a um subespaço vetorial de dimensão 1 ou 2.
148 5.3. Diagonalização

Definição 5.6 (Multiplicidade algébrica & multiplicidade geométrica) Seja M uma ma-
triz quadrada e λ um valor próprio de M. Chamamos:

• multiplicidade algébrica (m.a.) de λ à multiplicidade de λ como raiz do po-


linómio caracterı́stico de M; representa-se por m.a.(λ).

• multiplicidade geométrica (m.g.) de λ à dimensão do espaço Sλ ; representa-se


por m.g.(λ).

Evidentemente, a multiplicidade geométrica de um valor próprio diz-nos quantos vetores linear-


mente independentes é possı́vel encontrar no subespaço próprio a ele associado.

Prova-se que

Teorema 5.3 Seja M uma matriz quadrada de ordem n.

1. Vetores próprios associados a valores próprios distintos são linearmente inde-


pendentes.

2. Seja λ um valor próprio de M. Então

1 ≤ m.g.(λ) ≤ m.a.(λ) .

Em particular, se λ tem multiplicidade algébrica igual a 1, então também a sua


multiplicidade geométrica é igual a 1.

Como qualquer polinómio, o polinómio caracterı́stico de uma matriz pode não ter apenas raı́zes
reais como também complexas. Contando com possı́veis raı́zes complexas, tem-se que a soma da
m.a. dos valores próprios de M é, pelo Teorema Fundamental da Álgebra, igual n.

5.3 Diagonalização
Recordemos que uma aplicação linear f : Rn → Rn se diz diagonalizável se existir uma base
B de Rn tal que M(f , B) é uma matriz diagonal (cf. Definição 5.1).

Definição 5.7 (Matriz diagonalizável) Seja M uma matriz n × n. Dizemos que M é


diagonalizável se a aplicação f : Rn → Rn tal que M = Mf é uma aplicação linear
diagonalizável.

Como observámos a seguir à Definição 5.1,


 
 λ1 0 ··· 0 
0 λ2 ··· 0
 
 
M(f , B) =  .. .. .. ..

.

 . . . 
 
0 0 · · · λn
Capı́tulo 5. Valores e Vetores Próprios 149

implica, atendendo à definição de valor próprio e de vetor próprio, que λ1 , λ2 , · · · , λn são


valores próprios de f / Mf (não necessariamente todos distintos) e que B é constituı́da por
vetores próprios, com cada v~i ∈ Sλi . Assim,

f / Mf diagonalizável ⇔ existe uma base B de Rn formada por vetores próprios de f / Mf


⇔ existem n vetores próprios de f / Mf linearmente independentes
⇔ a soma da m.g. dos valores próprios de f / Mf é n ,

sendo a última equivalência consequência do teorema anterior.

Uma vez que não estudamos matrizes com entradas complexas, iremos considerar que as matrizes
com valores próprios complexos não são diagonalizáveis. É, por exemplo, o caso da matriz
 
 4 −3 0 
M =  1 2 0  .
 
0 1 2
 

Como

4 − λ −3 0
det(M − λ In ) = 1 2−λ 0
0 1 2−λ

= (−1)3+3 (2 − λ)((4 − λ)(2 − λ) − (−3)) (Regra de Laplace, coluna 3)


= (2 − λ)(11 − 6λ + λ2 )

e

λ2 − 6λ + 11 = 0 ⇔ (λ − 3)2 + 2 = 0 ⇔ λ = 3 ± j 2 ,

tem-se que o polinómio


√ caracterı́stico
√ de M tem uma raiz real, 2, e um par de raı́zes complexas
conjugadas: 3 − j 2 e 3 + j 2. Logo, M não é diagonalizável.

Deixando de fora as matrizes que têm algum valor próprio complexo, temos uma forma
muito prática de verificar se uma matriz é diagonalizável:

Teorema 5.4 Seja f : Rn → Rn uma aplicação linear, e Mf a sua matriz canónica, tal
que todos os valores próprios são reais. Então:
f / Mf é diagonalizável ⇔ todos os valores próprios de f / Mf têm m.a. igual à m.g. .
Neste caso, sendo B = (~ v1 , v~2 , . . . , v~n ) uma base de Rn formada por vetores próprios de
f / Mf , com v~i associado a λi , tem-se
 
 λ1 0 · · · 0 
 0 λ2 · · · 0
 

M(f , B) =  . .. . . ..
 .
 .. .

 . . 

0 0 ··· λn
150 5.3. Diagonalização

Exemplo 5.8 Seja f : R3 → R3 a aplicação linear cuja matriz canónica é


 
 0 0 2 
Mf =  1 2 1  .
 
−1 0 3
 

Como vimos nos Exemplos 5.3 e 5.4, os valores próprios desta matriz — e, portanto,
desta aplicação linear — são todos reais: 1 e 2. Como m.a.(2) = 2 e m.g.(2) = 1, conclui-
se que f não é diagonalizável.

Se todos os valores próprios de uma aplicação linear são raı́zes simples do seu polinómio carac-
terı́stico, f é diagonalizável, pois, como vimos no Teorema 5.3, m.a.(λ) ≤ 1 implica que m.a.(λ) =
m.g.(λ).

Exemplo 5.9 Seja g : R3 → R3 a aplicação linear cuja matriz canónica é


 
 4 2 −2 
Mg =  3 3 0  .
 
−1 1 2
 

Pelo Exemplo 5.5, os valores próprios desta matriz — e, portanto, da aplicação linear
g — são todos reais: 0, 3 e 6. Como todos eles têm m.a. igual a 1, então também a m.g.
de cada um é igual a 1. Logo, g é diagonalizável. Dado que, como vimos,

S0 = h(−1, 1, −1)i , S3 = h(0, 1, 1)i e S6 = h(1, 1, 0)i ,

segue-se que B = ((−1, 1, −1), (0, 1, 1), (1, 1, 0)) é uma base de R3 relativamente à qual a
matriz de g é diagonal, concretamente,
 
 0 0 0 
M(g, B) =  0 3 0  .
 
0 0 6
 

Claro que poderı́amos ter escolhido outra ordenação dos vetores da base de vetores
próprios. Tomando, por exemplo, B
e = ((0, 1, 1), (−1, 1, −1), (1, 1, 0)), ficava
 
 3 0 0 
e =  0 0 0  .
M(g, B)  
0 0 6

Além disso, outros vetores próprios podiam ser escolhidos, pois apenas importa que
sejam vetores próprios linearmente independentes do espaço próprio correspondente.
Capı́tulo 5. Valores e Vetores Próprios 151

Exemplo 5.10 Seja h : R3 → R3 a aplicação linear cuja matriz canónica é


 
 1 −3 3 
Mh =  3 −5 3  .
 
6 −6 4
 

Como vimos no Exemplo 5.7, os valores próprios desta matriz são 4, com m.a.(4) =
m.g.(4) = 1, e −2, com m.a.(−2) = m.g.(−2) = 2, pelo que h é diagonalizável, e

S4 = h(1, 1, 2)i e S−2 = h(1, 1, 0), (0, 1, 1)i ,

donde B = ((1, 1, 2), (1, 1, 0), (0, 1, 1)) é uma base de R3 relativamente à qual a matriz de
h é diagonal, a saber,  
 4 0 0 
M(h, B) =  0 −2 0  .
 

0 0 −2

Recordemos que, pelo Teorema 4.11, é possı́vel determinar a matriz de uma aplicação
linear f : Rn → Rm nas bases B de Rn e C de Rm à custa da matriz canónica de f e das
matrizes de mudança de base:

M(f , B, C) = MBCRm →C Mf MB→BCRn .

Assim, quando f : Rn → Rn (ou, equivalentemente, Mf ) é diagonalizável, e D = M(f , B) uma


matriz diagonal de f , tem-se

D = MBCRn →B Mf MB→BCRn ,

ou seja,
D = (MB→BCRn )−1 Mf MB→BCRn

(cf. Teorema 3.10). Recordar ainda que é trivial determinar a matriz MB→CRn : é a matriz que
tem, em cada coluna, as coordenadas dos vetores da base B.

Definição 5.8 (Matriz diagonalizadora) Seja M uma matriz quadrada. A uma matriz P
(invertı́vel) tal que P −1 MP é uma matriz diagonal chamamos matriz diagonalizadora
da matriz M.

Evidentemente, existe uma matriz diagonalizadora de M sse M é diagonalizável.

Exemplo 5.11 Consideremos novamente a matriz


 
 4 2 −2 
Mg =  3 3 0 
 
−1 1 2
 
152 5.3. Diagonalização

dos exemplos 5.5 e 5.9, a qual sabemos ser diagonalizável. Determinemos uma matriz
diagonalizadora de Mg .
Como vimos nos exemplos 5.5 e 5.9, os valores próprios desta matriz são 0, 3 e 6 e os
respetivos subespaços próprios

S0 = h(−1, 1, −1)i , S3 = h(0, 1, 1)i e S6 = h(1, 1, 0)i ,

pelo que B = ((−1, 1, −1), (0, 1, 1), (1, 1, 0)) é uma base de R3 relativamente à qual a matriz
de g é diagonal:  
 0 0 0 
M(g, B) =  0 3 0  .
0 0 6
 

Ora, uma possı́vel matriz P tal que M(g, B) = P −1 Mg P é a matriz de mudança de base
MB→BCRn , ou seja,
 
 −1 0 1 
P =  1 1 1  .
−1 1 0
 

De facto,
 T  
 −1 −1 2   −1 1 −1 
P −1 = 1
adj (P ) = 13 (cof (P ))T = 1  1 1 1  = 1  −1 1 2 
   
det P 3   3 
−1 2 −1 2 1 −1

e
   
 −1 1 −1   4 2 −2   −1 0 1 
P −1 Mg P = 1
−1 1 2   3 3 0   1 1 1 
     
3

     
2 1 −1 −1 1 2 −1 1 0
  
 −1 1 −1   0 0 6 
1
= −1 1 2   0 3 6 
  
3


2 1 −1 0 3 0
 
 
 0 0 0 
1
= 0 9 0 
 
3


0 0 18

 
 0 0 0 
=  0 3 0  .
 
0 0 6
 

Como é óbvio, a matriz P indicada no exemplo anterior não é única. Pelo contrário, qualquer
matriz que tenha, na 1ª coluna, um vetor do espaço próprio S0 , na 2ª coluna, um vetor do espaço
próprio S3 , e, na 3ª coluna, um vetor do espaço próprio S6 , é igualmente uma matriz diagonaliza-
dora. Ou seja: qualquer matriz que tenha, na coluna i, um vetor próprio associado ao valor próprio
da coluna i da matriz diagonal M(g, B) é uma matriz diagonalizadora da matriz Mg .
Capı́tulo 5. Valores e Vetores Próprios 153

Mais geralmente, tem-se a seguinte noção:

Definição 5.9 (Matrizes semelhantes) Dizemos que as matrizes A e B (quadradas) são


semelhantes se existir uma matriz P (invertı́vel) tal que A = P −1 BP .

Observar que, se existe uma matriz P tal que A = P −1 BP , então também existe uma matriz Q tal
que B = Q−1 AQ: é a matriz Q = P −1 .

Em particular,

Teorema 5.5 Seja M uma matriz n × n. Então

M é diagonalizável ⇔ M é semelhante a uma matriz diagonal .

Uma aplicação importante da diagonalização de matrizes é ao cálculo de potências de


uma matriz, uma vez que, dada uma matriz M (diagonalizável), a potência M k — em ge-
ral difı́cil de calcular quando k é grande — pode ser facilmente calculada recorrendo à
diagonalização de M. De facto, sendo M diagonalizável, tem-se P −1 MP = D, onde D é dia-
gonal e P uma matriz diagonalizadora. Mas então M = P DP −1 , donde
M 2 = (P DP −1 )2 = P DP −1 × P DP −1 = P D 2 P −1
M 3 = (P DP −1 )2 × P DP −1 = P D 2 P −1 × P DP −1 = P D 3 P −1
..
.
M k = P D k P −1 .

A vantagem está no facto de ser trivial calcular D k com D diagonal: sendo


 
 λ1 0 · · · 0 
 0 λ · · · 0 
2
D =  .
 
. .. . . .. 
 .
 . . . 
0 0 · · · λn

tem-se
    2 
 λ1 0 ··· 0   λ1 0 ···   λ1
0 0 ··· 0 
0 λ2 ··· 0 0 λ2 ··· 0  0 λ2 2 ··· 0
     
 
2
D =   = 
 
.. .. .. .. .. .. .. ..   .. .. .. ..
  
. . .


 . . .  
  . . .   .
  . . 

0 0 · · · λn 0 0 · · · λn 0 0 · · · λn 2


 2    3 
 λ1 0 ··· 0   λ1 0 ··· 0  λ1 0 ··· 0 
 0 λ2 2 ··· 0 0 λ2 ··· 0   0 λ2 3 ··· 0
     
  
D 3 =  . .. .. ..
 
.. .. .. ..
 = 
  .. .. .. ..

 .. . . .
  
 . .  
  . . .   .
  . . 

0 0 · · · λn 2 0 0 · · · λn 0 0 · · · λn 3

..
.
154 5.3. Diagonalização

k
0 0

 λ1

··· 
 0 λ2 k ··· 0
 

D k =  . .. .. ..
 .
 .. .

 . . 

0 0 · · · λn k

Exemplo 5.12 Calculemos M 10 , sendo


 
 4 2 −2 
M =  3 3 0  .
 
−1 1 2
 

Como vimos no Exemplo 5.11, D = P −1 MP sendo


     
 0 0 0   −1 0 1   −1 1 −1 
D =  0 3 0  , P =  1 1 1  e P −1 = 1  −1 1 2  .
     
3 
0 0 6 −1 1 0 2 1 −1
    

Assim,

M 10 = P D 10 P −1
  10  
 −1 0 1   0 0 0   −1 1 −1 
 1 
=  1 1 1   0 3 0  3  −1 1 2 
   
−1 1 0 0 0 6 2 1 −1
    
    
 −1 0 1   0 0 0   −1 1 −1 
=  1 1 1   0 59049 0  13  −1 1 2
    


−1 1 0 0 0 60466176 2 1 −1
   
  
 −1 0 1   0 0 0 
=  1 1 1   −18683 18683 37366 
  
−1 1 0 40332784 20166392 −20166392
  
 
 40332784 20166392 −20166392 
=  40314101 20185075 −20129026  .
 
−18683 18683 37366
 

• Vetores próprios de uma aplicação linear f são vetores cuja imagem é um múltiplo escalar
do próprio vetor: f (~ v . São as soluções não nulas do SEL homogéneo (Mf − λIn )X = O,
v ) = λ~
onde λ são as raı́zes do polinómio det(Mf − λI) (polinómio caracterı́stico), às quais chama-
mos valores próprios de Mf (e de f ). Ao espaço vetorial formado pelo vetor nulo e pelos
vetores próprios associados a um valor próprio λ chama-se subespaço próprio (associado a
λ).

• À custa dos valores e vetores próprios, é possı́vel determinar se, dada uma matriz (quadrada)
M, existe uma matriz diagonal que represente, noutra base, a mesma aplicação linear que
M representa na base canónica. A resposta é afirmativa sse todos os valores próprios de
M são reais e têm multiplicidade geométria (que é a dimensão do subespaço próprio) igual
Capı́tulo 5. Valores e Vetores Próprios 155

à multiplicidade algébrica (que é a multiplicidade do valor próprio como raiz do polinómio


caracterı́stico). Nesse caso, tomamos B uma base formada por vetores próprios de f e M(f , B)
é a matriz diagonal que tem, na entrada ii, o valor próprio associado ao vetor v~i da base B.

M diagonalizável?

M tem valores pps Todos os valores pps


complexos: Não de M são reais

Algum valor pp tem Todos os valores pps


m.g.6=m.a.: Não têm m.g.=m.a.: Sim

• Matriz diagonalizadora de uma matriz M (quando existe), é toda a matriz P tal que P −1 MP
é uma matriz diagonal. Em particular, podemos tomar P = MB→BCRn , a matriz de mudança
de base da base B para a base canónica.

• A diagonalização de matrizes tem utilidade, por exemplo, no cálculo de potências de uma


matriz: se P −1 MP = D, então M k = P D k P −1 .

5.4 Exercı́cios

Exercı́cio 5.1 Considere a aplicação linear

f (x, y, z) = (4x − z, −2x + y, −2x + z) .

(a) Justifique que B = ((0, 1, 0), (−1, 2, 2), (1, −1, −1)) é uma base de R3 .

(b) Calcule f (0, 1, 0), f (−1, 2, 2) e f (1, −1, −1) e mostre que os vetores da base B são
vetores próprios de f .

(c) Determine a matriz de f na base B e conclua que f é diagonalizável.

Exercı́cio 5.2 Considere a aplicação linear

g(x, y, z) = (ax + 3y, −2y + 4z, −x + y + 2z) .


(a) Determine todos os valores reais de a para os quais 1 é um valor próprio de g.
(b) Considerando a = 15, prove que o vetor (−1, 4, 5) é um vetor próprio de g e indi-
que o valor próprio associado.
156 5.4. Exercı́cios

Exercı́cio 5.3 Considere a aplicação linear

h(x, y) = (3y, 3x) .

(a) Mostre que so vetores v~1 = (2, 2) e v~2 = (2, −2) são vetores próprios de h e indique
o valor próprio associado a cada um deles.

(b) Calcule a matriz de h na base B = (~


v1 , v~2 ).

Exercı́cio 5.4 Determine a equação caracterı́stica de cada uma das seguintes matrizes.
" # " # " #
3 0 3 1 0 0
(a) (c) (e)
8 −1 −5 −3 0 0
" # " # " #
10 −9 −2 −7 1 0
(b) (d) (f)
4 −2 1 2 0 1

Exercı́cio 5.5 Calcule os valores próprios (reais) de cada uma das matrizes do
Exercı́cio 5.4.

Exercı́cio 5.6 Determine uma base de cada um dos subespaços próprios das matrizes
do Exercı́cio 5.4.

Exercı́cio 5.7 Determine a equação caracterı́stica de cada uma das seguintes matrizes.
     
 4 0 1   5 6 2   5 0 1 
(a)  −2 1 0  (e)  0 −1 −8 (i)  1 1 0 
     
 

−2 0 1 1 0 −2 −7 1 0
    
     
 3 0 0   3 0 0   4 0 0 
(b)  −2 7 0  (f)  0 2 0  (j)  1 4 0 
     
4 8 1 0 1 2 0 1 4
     
     
 0 0 −2   4 0 0   −2 0 1 
(c)  1 2 1  (g)  0 4 0  (k)  −6 −2 0 
     
1 0 3 0 0 4 19 5 −4
     
     
 3 1 −2   4 0 0   −1 0 1 
(d)  −2 0 4  (h)  0 4 0  (l)  −1 3 0 
     
3 3 −4 1 0 4 −4 13 −1
     

Exercı́cio 5.8 Calcule os valores próprios (reais) de cada uma das matrizes do
Exercı́cio 5.7.

Exercı́cio 5.9 Determine uma base de cada um dos subespaços próprios das matrizes
do Exercı́cio 5.7.
Capı́tulo 5. Valores e Vetores Próprios 157

Exercı́cio 5.10 Preencha a seguinte tabela, relativamente às alı́neas do Exercı́cio 5.4.
Em “D”, indique uma matriz diagonal que represente, noutra base, a aplicação linear
representada pela matriz M na base canónica; em “P ”, indique uma matriz diagonali-
zadora de M tal que P −1 MP = D.

Alı́nea λ m.a. m.g. diagonalizável? (S/N) matriz D matriz P


(...)

Exercı́cio 5.11 Preencha a seguinte tabela, relativamente às alı́neas do Exercı́cio 5.7.
Em “D”, indique uma matriz diagonal que represente, noutra base, a aplicação linear
representada pela matriz M na base canónica; em “P ”, indique uma matriz diagonali-
zadora de M tal que P −1 MP = D.

Alı́nea λ m.a. m.g. diagonalizável? (S/N) matriz D matriz P


(...)

Exercı́cio 5.12 Das matrizes do Exercı́cio 5.7, quais são invertı́veis?

Exercı́cio 5.13 Seja M uma matriz 6 × 6 com polinómio caracterı́stico

p(λ) = λ2 (λ − 1)(λ − 2)3 .

Indique:

(a) os valores próprios de M.

(b) a multiplicidade algébrica e as possı́veis multiplicidades geométricas de cada


valor próprio de M.

(c) a multiplicidade geométrica de cada valor próprio de M de modo a que M seja


diagonalizável.

Exercı́cio 5.14 Considere a aplicação linear

f (x, y, z) = (2x + 2y + z, y + z, 4y − 2z) .

(a) Mostre que 2 é um valor próprio de f e calcule a sua multiplicidade geométria.

(b) Mostre que f não é diagonalizável.

Exercı́cio 5.15 Considere a matriz


 
 1 −1 4 
M =  −1 1 1  .
 
1 −1 0
 

(a) Mostre que (1, 1, 0), (3, 2, −1) e (7, −2, 3) são vetores próprios de M linearmente
158 5.5. Soluções

independentes.

(b) Justifique que M é diagonalizável e indique uma matriz diagonalizadora de M.

(c) Sendo P a matriz diagonalizadora indicada em (b), calcule P −1 MP .

Exercı́cio 5.16 Considere a aplicação linear

f (x, y, z) = (x − z, 2y, −x + z) .

(a) Mostre que f é diagonalizável.

(b) Indique uma base B relativamente à qual a matriz de f é diagonal e indique a


matriz M(f , B).

(c) Tendo em conta a alinea (a), indique se f é bijetiva.

Exercı́cio 5.17 Determine uma aplicação linear g : R3 → R3 cujos valores próprios são
4, com vetor próprio associado (1, −1, 0), e 2, com vetores próprios associados (1, 1, 0) e
(0, 0, 1).

Exercı́cio 5.18 Quais das seguintes matrizes são semelhantes à matriz


 
 −5 12 24 
M =  2 −7 −12  ?
 

−2 6 11

     
 −1 0 0   −1 0 0   −1 0 0 
(a)  0 1 0  (b)  0 1 0 (c)  0 −1 0 
     


0 0 2 0 0 1 0 0 1
    

Exercı́cio 5.19 Calcule A11 , sendo A a matriz


" #    
1 0  1 −2 8  −1 7 −1 
(a)

(b)  0 −1 0 (c)  0 1 0 .
   
−1 2 

0 0 −1 0 15 −2
  

5.5 Soluções

Solução 5.1

(a) B é formado por 3 vetores de R3 linearmente independentes e dim R3 = 3.

(b) f (0, 1, 0) = (0, 1, 0) = 1(0, 1, 0), pelo que (0, 1, 0) é um vetor próprio de f associado
ao valor próprio 1;
Capı́tulo 5. Valores e Vetores Próprios 159

f (−1, 2, 2) = (−2, 4, 4) = 2(−1, 2, 2), pelo que (−1, 2, 2) é um vetor próprio de f as-
sociado ao valor próprio 2;

f (1, −1, −1) = (3, −3, −3) = 3(1, −1, −1), pelo que (1, −1, −1) é um vetor próprio de
f associado ao valor próprio 3.
 
 1 0 0 
(c) M(f , B) =  0 2 0 .
 
0 0 3
 

Solução 5.2

(a) a = − 75 .

(b) g(−1, 4, 5) = (−3, 12, 15) = 3(−1, 4, 5), pelo que (−1, 4, 5) é um vetor próprio de g
associado ao valor próprio 3.

Solução 5.3

(a) h(2, 2) = (6, 6) = 3(2, 2), pelo que v~1 é um vetor próprio de h associado ao valor
próprio 3; h(2, −2) = (−6, 6) = −3(2, −2), pelo que v~2 é um vetor próprio de h
associado ao valor próprio −3.
" #
3 0
(b) M(h, B) = .
0 −3

Solução 5.4

(a) λ2 − 2λ − 3 = 0 (c) λ2 − 4 = 0 (e) λ2 = 0

(b) λ2 − 8λ + 16 = 0 (d) λ2 + 3 = 0 (f) λ2 − 2λ + 1 = 0

Solução 5.5

(a) λ = 3, λ = −1 (c) λ = 2, λ = −2 (e) λ = 0 (raiz dupla)

(b) λ = 4 (raiz dupla) (d) Não tem (f) λ = 1 (raiz dupla)

Solução 5.6

(a) Base de S3 : {(1, 2)}; base de S−1 : {(0, 1)}

(b) Base de S4 : {(3, 2)}

(c) Base de S2 : {(−1, 1)}; base de S−2 : {(−1, 5)}

(d) Não tem subespaços próprios


160 5.5. Soluções

(e) Base de S0 : {(1, 0), (0, 1)}

(f) Base de S1 : {(1, 0), (0, 1)}

Solução 5.7

(a) λ3 − 6λ2 + 11λ − 6 = 0 (e) λ3 −2λ2 −15λ+36 = 0 (i) λ3 − 6λ2 + 12λ − 8 = 0

(b) (λ−3)(λ−7)(λ−1) = 0 (f) (λ − 3)(λ − 2)2 = 0 (j) (λ − 4)3 = 0

(c) λ3 − 5λ2 + 8λ − 4 = 0 (g) (λ − 4)3 = 0 (k) λ3 + 8λ2 + λ + 8 = 0

(d) λ3 + λ2 − 16λ − 20 = 0 (h) (λ − 4)3 = 0 (l) λ3 − λ2 − λ − 2 = 0

Solução 5.8

(a) λ = 1, λ = 2, λ = 3 (e) λ = −4, λ = 3 (dupla) (i) λ = 2 (tripla)

(b) λ = 1, λ = 3, λ = 7 (f) λ = 2 (dupla), λ = 3 (j) λ = 4 (tripla)

(c) λ = 1, λ = 2 (dupla) (g) λ = 4 (tripla) (k) λ = −8 (simples)

(d) λ = −5, λ = 2 (dupla) (h) λ = 4 (tripla) (l) λ = 2 (simples)

Solução 5.9

(a) Base de S1 : {(0, 1, 0)}; base de S2 : {(−1, 2, 2)}; base de S3 : {(−1, 1, 1)}

(b) Base de S1 : {(0, 0, 1)}; base de S3 : {(2, 1, 8)}; base de S7 : {(0, 3, 4)}

(c) Base de S1 : {(−2, 1, 1)}; base de S2 : {(1, 0, −1), (0, 1, 0)}

(d) Base de S−5 : {(1, −2, 3)}; base de S2 : {(2, 0, 1), (−1, 1, 0)}

(e) Base de S−4 : {(−6, 8, 3)}; base de S3 : {(5, −2, 1)}

(f) Base de S2 : {(0, 0, 1)}; base de S3 : {(1, 0, 0)}

(g) Base de S4 : {(1, 0, 0), (0, 1, 0), (0, 0, 1)}

(h) Base de S4 : {(0, 1, 0), (0, 0, 1)}

(i) Base de S2 : {(−1, −1, 3)}

(j) Base de S4 : {(0, 0, 1)}

(k) Base de S−8 : {(−1, −1, 6)}

(l) Base de S2 : {(1, 1, 3)}


Capı́tulo 5. Valores e Vetores Próprios 161

Solução 5.10

Alı́nea λ m.a. m.g. diagonalizável? matriz D! matriz P!


3 1 1 3 0 1 0
(a) S
−1 1 1 0 −1 2 1
(b) 4 2 1 N
! !
2 1 1 2 0 −1 −1
(c) S
−2 1 1 0 −2 1 5
(d) — N
! !
0 0 1 0
(e) 0 2 2 S
0 0 ! 0 1 !
1 0 1 0
(f) 1 2 2 S
0 1 0 1

Solução 5.11

Alı́nea λ m.a. m.g. diagonalizável? matriz D matriz P


   
1 1 1  1 0 0   0 −1 −1 
(a) 2 1 1 S  0 2 0   1 2 1 
   
  
3 1 1 0 0 3 0 2 1

   
1 1 1  1 0 0   0 2 0 
(b) 3 1 1 S  0 3 0   0 1 3 
   
   
7 1 1 0 0 7 1 8 4
   
 1 0 0   −2 1 0 
1 1 1
(c) S  0 2 0   1 0 1 
   
2 2 2   
0 0 2 1 −1 0

   
 −5 0 0   1 2 −1 
−5 1 1  0 2 0   −2 0
(d) S 1 

2 2 2   
0 0 2 3 1 0
   
−4 1 1
(e) N
3 2 1
2 2 1
(f) N
3 1 1
   
 4 0 0   1 0 0 
(g) 4 3 3 S  0 4 0   0 1 0 
   
   
0 0 4 0 0 1
(h) 4 3 2 N

(i) 2 3 1 N

(j) 4 3 1 N
162 5.5. Soluções

Alı́nea λ m.a. m.g. diagonalizável? matriz D matriz P


(k) −8 1 1 N

(l) 2 1 1 N

Solução 5.12
Todas, uma vez que nenhuma tem 0 como valor próprio.

Solução 5.13

(a) 0, 1 e 2.

(b) m.a.(0) = 2, m.g.(0) ∈ {1, 2}; m.a.(1) = m.g.(1) = 1; m.a.(2) = 3, m.g.(0) ∈ {1, 2, 3}.

(c) m.g.(0) = 2, m.g.(1) = 1 e m.g.(2) = 3.

Solução 5.14

(a) det(Mf − 2I) = 0, pelo que 2 é valor próprio de f ; m.g.(2) = dim S2 = 1.

(b) m.a.(2) = 2 , 1 = m.g.(2).

Solução 5.15
     
 1   0   1 
(a) M  1  =  0  = 0  1 , pelo que (1, 1, 0) é um vetor próprio de M (associado ao
     
   
0 0 0
     
     
 3   −3   3 
valor próprio 0); M  2  =  −2  = (−1)  2 , pelo que (3, 2, −1) é um vetor
     
−1 1 −1
     
     
 7   21   7 
próprio de M (associado ao valor próprio −1); M  −2  =  −6  = 3  −2 , pelo
     
3 9 3
     
que (7, −2, 3) é um vetor próprio de M (associado ao valor próprio 3). Sendo
vetores próprios associados a valores próprios distintos, estes três vetores são
linearmente independentes.

(b) Sendo M uma matriz 3 × 3 com três valores próprios reais e distintos,
 M é diago-

 1 3 7 
nalizável. Uma matriz diagonalizadora de M é, por exemplo,  1 2 −2 .
 
0 −1 3
 
 
 0 0 0 
(c) P −1 MP =  0 −1 0 .
 
0 0 3
 
Capı́tulo 5. Valores e Vetores Próprios 163

Solução 5.16

(a) M tem apenas valores próprios reais, 0 e 2, com m.a.(0) = m.g.(0) = 1 e m.a.(2) =
m.g.(2) = 2.
 
 2 0 0 
(b) B = ((0, 1, 0), (1, 0, −1), (1, 0, 1)) e M(f , B) =  0 2 0 .
 
0 0 0
 

(c) Não, pois, caso fosse bijetiva, teria que ser invertı́vel e, nesse caso, Mf também
seria invertı́vel (o que é impossı́vel visto que 0 é valor próprio de M).

Solução 5.17
   −1  
 1 1 0   4 0 0   1 1 0   3 −1 0 
Dado que Mg =  −1 1 0   0 2 0   −1 1 0  =  −1 3 0 , g(x, y, z) =
     
0 0 1 0 0 2 0 0 1 0 0 2
     
(3x − y, −x + 3y, 2z).

Solução 5.18

(a) Não, pois 2 não é um valor próprio de M.

(b) Não, pois 1, apesar de ser um valor próprio de M, tem multiplicidade algébrica
(e geométrica) igual a 1.

(c) Sim, pois −1 e 1 são os valores próprios de M, com m.a.(−1) = m.g.(−1) = 2,


m.a.(1) = m.g.(1) = 1.

Solução 5.19
" #    
1 0  −1 −22 8   −1 10237 −2047
(a)

(b)  0 −1 0  (c)  0 1 0
   
−2047 2048 

0 0 1 0 10245 −2048
  
6. Espaços Euclideanos

6.1 Definição; Norma e distância 165

6.2 Produto interno; Ortogonalidade; Método de


ortogonalização Gram-Schimdt 168

6.3 Complemento ortogonal 179

6.4 Produto externo e produto misto 180

6.5 Interpretação geométrica de aplicação linear 187

6.6 Exercı́cios 192

6.7 Soluções 197

Espaços como R2 e R3 — ou, mais geralmente, Rn — admitem, além das operações internas de
soma de vetores e produto de um vetor por um escalar, outras operações que permitem resolver
outros problemas. Uma delas, o produto interno, é já conhecida, mas veremos novas aplicações
para ela; outras duas, o produto externo e o produto misto, serão agora introduzidas.

6.1 Definição; Norma e distância

Os espaços vetoriais Rn , aos quais prestámos especial atenção nos capı́tulos anteriores, são
também chamados de espaços Euclideanos. Ao contrário de outros espaços vetoriais, os
espaços Euclideanos têm aplicações geométricas muito úteis. Comecemos por recordar dois
conceitos já conhecidos: norma e distância.
Como qualquer espaço vetorial, os espaços Euclideanos admitem bases — conjuntos de
vetores linearmente independentes (isto é, não é possı́vel escrever nenhum deles à custa
dos restantes) como combinação dos quais é possı́vel escrever todos os vetores do espaço. E
geometricamente, o que representa uma base?
Tomemos R2 e a sua base canónica, BCR2 = {~e1 ,~e2 } (recorde-se que ~e1 = (1, 0) e ~e2 = (0, 1)).
Representando, como habitualmente, ~e1 na horizontal, orientado da esquerda para a direita,
e ~e2 na vertical, orientado de baixo para cima, fica:

~e1

~e2 y~e2
x~e1

(aqui com x e y números reais positivos). Deste modo, se v~ = (x, y), ou, equivalentemente,
v~ = x~e1 + y~e2 , tem-se

165
166 6.1. Definição; Norma e distância

y~e2
~v
~e2

~e1 x~e1

O facto de representarmos ~e1 e ~e2 perpendiculares entre si torna esta representação muito
mais simples. No entanto, é igualmente possı́vel representar qualquer vetor de R2 à custa de
vetores não perpendiculares, desde que os mesmo formem uma base. Tomando, em alterna-
tiva, a base B = {~e1 , u
~ = (1, 1)}, temos, por exemplo, v~ = (1, 2) = (−1)(1, 0) + 2(1, 1) = (−1, 2)B :

~v 2~u

~u
−~e1 ~e1

Associada à noção de base está assim a de referencial, ortogonal ou não.

~v = x̃~u1 + ỹ~u2
y~e2
ỹ~u2
~e2 ~v = x~e1 + y~e2 ~u2
x̃~u1
~u1
~e1 x~e1

Assumindo, como é razoável, que os vetores ~e1 e ~e2 têm comprimento 1, o Teorema de
Pitágoras diz-nos a que é igual o comprimento de qualquer vetor:

y~e2 ( comprimento de v~ )2 = (|x|)2 + (|y|)2


~v |y| p
~e2 comprimento de v~ = x2 + y 2

~e1 x~e1
|x|
Capı́tulo 6. Espaços Euclideanos 167

~ = (v1 , . . . , vn ) ∈ Rn , norma de
Definição 6.1 (Norma de um vetor; vetor unitário) Dado v
v~ é o número real q
v || = v12 + . . . + vn2 .
||~

Um vetor diz-se unitário se ||~


v || = 1.

p √
Exemplo 6.1 Seja v
~ = (2, −1, 3). Então ||~
v || = 22 + (−1)2 + 32 = 14.

3~e3

~v = 2~e1 − ~e2 + 3~e3

~e3
−~e2 y
~e2
~e1
2~e1
x

v~
Dado um vetor v~ , ~0, existe um vetor unitário que tem a direção e sentido de v~: v ||
||~
.

~ ∈ Rn , ao vetor ||~vv~|| chamamos versor de v~.


Definição 6.2 (Versor de um vetor) Dado v
Representamo-lo por u
~v~ .
v~
~v~ =
u .
v ||
||~

 
Exemplo 6.2 O versor de v ~v~ = √1 (2, −1, 3) = √2 , √−1 , √3
~ = (2, −1, 3) é o vetor u .
14 14 14 14

Teorema 6.1 (Propriedades da norma) Sejam v ~ ∈ Rn e k ∈ R. Então:


~, w

1. ||~ v || = 0 ⇔ v~ = ~0.
v || ≥ 0 e ||~

2. ||k~
v || = |k| ||~
v ||.

3. Desigualdade triangular: ||~


v + w|| v || + ||w||.
~ ≤ ||~ ~

4. ||~
v + w||
~ + ||~ ~ = 2||~
v − w|| v || + 2||w||.
~

À custa da norma de um vetor, é muito fácil calcular distâncias em R2 e R3 . Se A = (a1 , a2 )


−−→
e B = (b1 , b2 ), então as coordenadas do vetor AB , que vai de A a B, são (b1 − a1 , b2 − a2 ):
168 6.2. Produto interno; Ortogonalidade; Método de ortogonalização Gram-Schimdt

y
B
b2
−−→
AB b 2 − a2
a2
A b 1 − a1
~e2
~e1 a1 b1 x

−−→
(por isso escrevemos AB = B − A). Logo,
−−→
q
distância entre A e B = || AB || = (b1 − a1 )2 + (b2 − a2 )2 .
−−→
Analogamente, se A = (a1 , a2 , a3 ) e B = (b1 , b2 , b3 ) são pontos de R3 , então AB = (b1 − a1 , b2 −
a2 , b3 − a3 ) e
−−→
q
distância entre A e B = || AB || = (b1 − a1 )2 + (b2 − a2 )2 + (b3 − a3 )2 .

Exemplo 6.3 Para calcular a distância entre os pontos (2, 0, 5) e (−1, 3, 7), pomos A =
(2, 0, 5) e B = (−1, 3, 7) (ou vice-versa), e temos
−−→
AB = (−1, 3, 7) − (2, 0, 5) = (−3, 3, 2) ,

donde
−−→
q √
distância entre A e B = || AB || = (−3)2 + 32 + 22 = 22 .

6.2 Produto interno; Ortogonalidade; Método de ortogonalização Gram-


Schimdt
Como referimos na secção anterior, o facto de os vetores de uma base de um espaço Eu-
clideano serem perpendiculares entre si facilita a representação gráfica dos vetores desse
espaço, além de facilitar também inúmeros cálculos. Conseguir averiguar se dois vetores são
perpendiculares, ou, o que é o mesmo, ortogonais, é portanto muito importante.

Quando falamos em vetores ortogonais, falamos, evidentemente, de vetores que fazem entre si um
ângulo de 90o . Informalmente, o ângulo entre dois vetores v~ e w
~ é a medida da abertura que fica
definida por v~ e w
~ quando estes têm o mesmo ponto inicial.

w
~
w
~
~v ~v w
~ ~v ~v ~v

w
~
w
~
Capı́tulo 6. Espaços Euclideanos 169

Varia, por isso, entre 0o e 180o .


Como habitualmente, escrevemos v~ ⊥ w
~ para denotar que v~ e w
~ são ortogonais e v~ 6⊥ w
~ caso
contrário.

No que respeita à ortogonalidade, a norma e o Teorema de Pitágoras dão-nos a resposta.


De facto, v~ e w v ||2 + ||w||
~ são ortogonais sse ||~ ~ 2 = ||~
v − w||2 :

~v − w
~

w
~ ~v

Ora, pondo v~ = (v1 , v2 ) e w


~ = (w1 , w2 ), temos v~ − w
~ = (v1 − w1 , v2 − w2 ) e
   
v ||2 + ||w||
||~ ~ 2 = ||~
v − w||2 ⇔ v12 + v22 + w12 + w22 = (v1 − w1 )2 + (v2 − w2 )2
⇔ v12 + v22 + w12 + w22 = v12 − 2v1 w1 + w12 + v22 − 2v2 w2 + w22
⇔ 2v1 w1 + 2v2 w2 = 0
⇔ v1 w1 + v2 w2 = 0 .

Definição 6.3 (Produto interno (canónico)) Dados v ~ = (w1 , . . . , wn ) ∈ Rn ,


~ = (v1 , . . . , vn ), w
chamamos produto interno (usual ou canónico) ou ainda produto escalar dos vetores
v~ e w
~ ao número real
~ = v1 w1 + . . . + vn wn .
v~ · w

Como acabámos de ver,

Teorema 6.2 (Critério de ortogonalidade) Sejam v ~ ∈ Rn . Então:


~, w

v~ e w
~ ortogonais ⇔ v~ · w
~ = 0.

Exemplo 6.4 Consideremos os vetores v


~ = (2, −1, 5), w
~ = (1, 2, 0) e ~z = (4, 3, −1). Temos

~ = 2 × 1 + (−1) × 2 + 5 × 0 = 2 − 2 + 0 = 0
v~ · w
v~ · ~z = 2 × 4 + (−1) × 3 + 5 × (−1) = 8 − 3 − 5 = 0
~ · ~z = 1 × 4 + 2 × 3 + 0 × (−1) = 4 + 6 − 0 = 10 ,
w

pelo que v~ ⊥ w
~ e v~ ⊥ ~z, mas w
~ 6⊥ ~z.

Teorema 6.3 (Propriedades do produto interno) Sejam v ~ z ∈ Rn e k ∈ R. Então:


~, w,~

1. Propriedade comutativa: v~ · w
~ =w
~ · v~.
170 6.2. Produto interno; Ortogonalidade; Método de ortogonalização Gram-Schimdt

2. Propriedade distributiva: (~
v + w)
~ · ~z = v~ · ~z + w
~ · ~z e v~ · (w
~ + ~z) = v~ · w
~ + v~ · ~z.

3. v~ · (k w)
~ = (k~
v) · w
~ = k(~
v · w).
~

v ||2 . Em particular, v~ · v~ ≥ 0 e v~ · v~ = 0 ⇔ v~ = ~0.


4. v~ · v~ = ||~

5. Definição equivalente de produto interno: v~ · w


~ = ||~ ~ cos α, sendo α o ângulo
v || ||w||
formado por v~ e w.
~

6. Desigualdade de Cauchy-Schwarz: |~
v · w|
~ ≤ ||~
v || ||w||.
~

Demonstração. As propriedades 1, 2, 3 e 4 são fáceis de verificar diretamente; mostraremos


aqui a propriedade 5 e a 6 fica adiada até ser introduzida uma noção à custa da qual se
tornará mais fácil demonstrá-la.
~ ∈ R2 , digamos v~ = (v1 , v2 ) e w
5. Para simplificar a escrita, suponhamos que v~, w ~ = (w1 , w2 ).

(w1 , w2 )
y
~v − w
~
w
~
θw~ (v1 , v2 )
α ~v
θ~v
x

Uma vez que


v1 v2
cos θv~ = v ||
||~
sin θv~ = v ||
||~
,
w1 w2
cos θw~ = ||w||
~
sin θw~ = ||w||
~
aplicando a fórmula trigonométrica
cos(x − y) = cos x cos y + sin x sin y ,
vem
w1 v 1 w v v w + v 2 w2 v~ · w ~
cos α = cos(θw~ − θv~ ) = + 2 2 = 1 1 = ,
||w||
~ ||~
v || ||w||
~ ||~
v || v || ||w||
||~ ~ v || ||w||
||~ ~
donde
~ = ||~
v~ · w ~ cos α .
v || ||w||

A igualdade
v~ · w ~
cos α = ,
v || ||w||
||~ ~
que usámos na demonstração da propriedade 5, é importante por si só: permite-nos calcular o
ângulo formado pelos vetores v~ e w.
~
Capı́tulo 6. Espaços Euclideanos 171

Exemplo 6.5 Como vimos no exemplo anterior, sendo w


~ = (1, 2, 0) e ~z = (4, 3, −1), tem-
se w
~ · z = 10. Dado que
√ √
~ = 12 + 22 + 02 = 5
||w||
q √
||~z|| = 42 + 32 + (−1)2 = 26 ,

temos
10
cos α = √ √ ' 0.877 .
5 26
Logo,
10
 
α = arccos √ √ ' 0.5 rad ,
5 26
ou seja, α ' 28.71o .

Na Definição 6.3, chamámos “produto interno canónico” ao produto interno. A razão para esta
terminologia aparentemente desnecessária tem a ver com o facto de outros produtos internos pode-
rem ser definidos em Rn . Por exemplo, se λ = (λ1 , · · · , λn ) ∈ Rn é tal que λi > 0 para todo i, então
a operação (usada em médias pesadas)

~ = λ1 v1 wn + . . . + λn vn wn ,
v~ ·λ w

~ = (w1 , . . . , wn ) ∈ Rn , goza exatamente das mesmas propriedades que o pro-


onde v~ = (v1 , . . . , vn ), w
duto interno canónico (cf. Teorema 6.3). Dependendo do problema em estudo, pode ter interesse
consider o produto interno ·λ , ou outro, em vez do produto interno canónico. De facto, chama-se
espaço Euclideano a um espaço vetorial Rn onde se considera o produto interno canónico. Como
não iremos estudar outros produtos internos além do produto interno canónico, não existe perigo
de confusão e tomamos a liberdade de não especificar que é deste que estamos a falar.
Já agora, mencionamos ainda que o produto interno não é um exclusivo dos espaços Rn . Por
exemplo no espaço Rm×n , a operação

A · B = tr(BT A)

(recordar que tr (M), o traço da matriz M, é a soma dos elementos da diagonal principal de M;
cf. Definição 1.22) verifica as propriedades enumeradas no Teorema 6.3, e dizemos por isso que se
trata de um produto interno. Outro exemplo é a operação

Z b
f (x) · g(x) = f (x)g(x) dx ,
a

definida no espaço das funções integráveis no intervalo [a, b].


172 6.2. Produto interno; Ortogonalidade; Método de ortogonalização Gram-Schimdt

Definição 6.4 (Projeção ortogonal) Dados v ~ ∈ Rn , chamamos projeção ortogonal de


~, w
v~ sobre w
~ ao vetor projw~ v~ que é paralelo a w
~ e tal que v~ − projw~ v~ é ortogonal a w.
~

~v − projw~ ~v
~v
w
~
projw~ ~v

1. Como é bem conhecido, o facto de projw~ v~ ser paralelo a w


~ significa que projw~ v~ = k w
~ para
algum k ∈ R (não nulo). Atenção que isso apenas significa que w ~ e projw~ v~ têm a mesma
direção e não garante que tenham o mesmo sentido.

2. Em geral, projw~ v~ , projv~ w.


~

3. A projeção ortogonal determina o ponto P sobre a reta definida pelo ponto O e pelo vetor w
~
que se encontra a menor distância do ponto A:

~v
w
~
P
O projw~ ~v

Vejamos como calcular a projeção ortogonal de um vetor noutro.

Teorema 6.4 Sejam v ~ ∈ Rn . Então:


~, w

v~ · w
~
projw~ v~ = w
~.
~ 2
||w||

Demonstração. Como observámos acima,

projw~ v~ = k w
~

para algum k ∈ R (não nulo). Por outro lado, dado que w


~ e v~ − projw~ v~ são ortogonais, temos

~ · (~
w v − projw~ v~) = 0 ,

donde
~ · (~
w ~ = 0,
v − k w)
Capı́tulo 6. Espaços Euclideanos 173

Pelas propriedades do produto interno,

~ · (~
w ~ =0⇔w
v − k w) ~ · (k w)
~ · v~ − w ~ =0
⇔w
~ · v~ − k(w ~ =0
~ · w)
v~ · w
~
⇔k= .
w~ ·w~

Logo,
v~ · w
~ v~ · w
~
projw~ v~ = ~=
w w
~.
w~ ·w~ ~ 2
||w||

Exemplo 6.6 Sejam u


~ = (2, 1), v~ = (1, 3), w
~ = (−1, 2) e ~z = (−3, 1). Dado que u
~ · v~ =
v ||2 = 12 + 32 = 10, temos
2 × 1 + 1 × 3 = 5 e ||~

u~ · v~ 5 1 1 3
 
projv~ u
~= v
~ = (1, 3) = (1, 3) = , ;
v ||2
||~ 10 2 2 2

u ||2 = 22 + 12 = 5 (e v~ · u
como ||~ ~=u
~ · v~ = 5), temos

u~ · v~ 5
proju~ v~ = 2
~ = (2, 1) = (2, 1)(= u
u ~) .
u ||
||~ 5

~v

proj~v ~u
~u = proju~ ~v

Dado que u ~ = 2 × (−2) + 1 × 4 = 0, temos


~ ·w

u
~ ·w ~ 0
proju~ w
~= ~=
u ~ = ~0 = projw~ u
u ~.
u ||2
||~ u ||2
||~

~ · ~z = 2 × (−3) + 1 × 1 = −5 e ||~z||2 = (−3)2 + 12 = 10, temos


Como u

u~ · ~z −5 −1 3 1
 
proj~z u
~= ~
z = (−3, 1) = (−3, 1) = , −
||~z||2 10 2 2 2
e
u
~ · ~z −5
proju~ ~z = 2
~=
u (2, 1) = (−2, −1) .
u ||
||~ 5
174 6.2. Produto interno; Ortogonalidade; Método de ortogonalização Gram-Schimdt

~z ~u

projz~ ~u
proju~ ~z

Estamos agora em condições de justificar a propriedade 6 do produto interno (cf. Teo-


rema 6.3):

Demonstração da Desigualdade de Cauchy-Schwarz. Sejam v~, w ~ ∈ Rn . Pela propriedade 1 da


norma (cf. Teorema 6.1), temos
2
~v − projw~ v~ ≥ 0 ,
donde    
v~ − projw~ v~ · v~ − projw~ v~ ≥ 0 .
Assim, pela propriedade distributiva do produto interno, temos
v~ · v~ − v~ · projw~ v~ − v~ · projw~ v~ + projw~ v~ · projw~ v~ ≥ 0 ,
ou seja,
2 2
v − 2~
~ v · projw~ v~ + projw~ v~ ≥ 0 .
Recorrendo ao Teorema 6.4, obtemos
 2
v~ · w
~ v~ · w
~
2 
v − 2~
v· ~ +
w ~ ≥ 0.
w
~ 2 ~ 2
~
||w|| ||w||
Ora, novamente pelas propriedades do produto interno,
 2 !2
v~ · w
~ v~ · w
~ v~ · w
~ v~ · w
~

v ||2 − 2~
||~ v· 2
w
~ + 2
w
~ v ||2 − 2
≥ 0 ⇔ ||~ (~ ~ +
v · w) w~ ≥ 0
||w||
~ ||w||
~ ~ 2
||w|| ~ 2
||w||
(~
v · w)~ 2 (~ ~ 2 2
v · w)
⇔ ||~v ||2 − 2 + w~ ≥ 0
~ 2
||w|| ~ 4
||w||
(~
v · w)~ 2 (~ ~ 2
v · w)
⇔ ||~v ||2 − 2 + ≥0
~ 2
||w|| ~ 2
||w||
(~ ~ 2
v · w)
⇔ ||~v ||2 − ≥0
~ 2
||w||
(~ ~ 2
v · w)
⇔ ≤ ||~ v ||2
~ 2
||w||
⇔ (~ ~ 2 ≤ ||~
v · w) v ||2 ||w||
~ 2

⇔ ~ v·w ~ ≤ ||~
v || ||w||
~ ,
como pretendido.

No inı́cio desta secção, mencionámos que alguns cálculos ficam simplificados quando
uma base é constituı́da por vetores ortogonais entre si. Um exemplo disso é a tarefa de escre-
ver qualquer vetor como combinação linear dos elementos da base, como mostra o próximo
teorema. Comecemos por fixar a seguinte terminologia:
Capı́tulo 6. Espaços Euclideanos 175

Definição 6.5 (Base ortogonal & base ortonormada) Seja B uma base de Rn . Dizemos
que B é ortogonal se for constituı́da por vetores ortogonais entre si e dizemos que é
ortonormada (o.n.) se, além disso, todos os vetores de B são unitários.

v~
Recordar que dado qualquer vetor v~, o vetor tem a mesma direção e sentido que v~ e é unitário.
v ||
||~
v1 , . . . , v~n } é uma base ortogonal, então ||~vv~1 || , . . . , ||~vv~n || é uma base ortonormada.
n o
Assim, se {~
1 n

Teorema 6.5 (Coordenadas de um vetor numa base ortonormada) Seja N = (~ ~n )


u1 , . . . , u
uma base ortonormada de Rn e seja v~ ∈ Rn . Então:

v~ = (~
v ·u ~ n )N .
~1 , . . . , v~ · u

Demonstração. Sendo {~ ~n } uma base de Rn e que v~ ∈ Rn , temos


u1 , . . . , u

v~ = k1 u
~ 1 + . . . + kn u
~n

para certos k1 , . . . , kn ∈ R (únicos). Vejamos que ki = v~ · u


~i para todo i ∈ {1, . . . , n}. De facto,
pelas propriedades do produto interno,

~i = (k1 u
v~ · u ~ 1 + . . . + kn u
~n ) · u
~i
= (k1 u
~1 ) · u
~i + . . . + (kn u
~n ) · u
~i
= k1 (~ ~i ) + . . . + kn (~
u1 · u ~i ) .
un · u

Ora, sendo B uma base ortonormada, temos u ~i = 1 para todo i (pois ||~
~i · u ui || = 1) e u ~j = 0
~i · u
sempre que i , j (pois, nesse caso, u ~i e u ~j são ortogonais). Substituindo na igualdade acima,
vem
~i = 0 + · · · + 0 + ki × 1 + 0 + · · · + 0 = ki ,
v~ · u
como pretendido.

Antes de darmos um exemplo deste resultado, observemos o seguinte facto, que, quando
aplicável, é de grande utilidade:

Teorema 6.6 Se S ⊆ Rn é um conjunto de vetores ortogonais, então S é um conjunto


linearmente independente.

Demonstração. Suponhamos que S = {~ v1 , . . . , v~m } ⊆ Rn é um conjunto de vetores ortogonais.


Para verificarmos que S é linearmente independente, tomemos a combinação linear

k1 v~1 + . . . + km v~m = ~0

e mostremos que k1 = . . . = km = 0. Pelas propriedades do produto interno,

(k1 v~1 + . . . + km v~m ) · v~i = ~0 · v~i = 0

para todo i, donde


k1 (~
v1 · v~i ) + . . . + km (~
vm · v~i ) = 0 .
176 6.2. Produto interno; Ortogonalidade; Método de ortogonalização Gram-Schimdt

Como v~i · v~j = 0 sempre que i , j, obtemos

ki (~
vi · v~i ) = 0 ,

ou seja, ki = 0, pois v~i · v~i = 1. Logo, pelo Teorema 3.4, S é um conjunto linearmente indepen-
dente.

Exemplo 6.7 Consideremos os vetores

~2 = (− 45 , 0, 53 ) e u
~1 = (0, 1, 0) , u
u ~3 = ( 35 , 0, 45 ) .

Dado que

u ~2 = (0, 1, 0) · (− 54 , 0, 35 ) = 0
~1 · u
u ~3 = (0, 1, 0) · ( 35 , 0, 45 ) = 0
~1 · u
u ~3 = (− 45 , 0, 53 ) · ( 35 , 0, 45 ) = − 12
~2 · u 12
25 + 25 = 0 ,

tem-se que N = {~u1 , u ~3 } é um conjunto de vetores ortogonais e, portanto, um con-


~2 , u
junto linearmente independente de R3 . Dado que contém 3 vetores, trata-se de uma
base (ortogonal) de R3 . Além disso, como

u1 || = 1
||~
q q q
u2 || = (− 5 ) + ( 5 ) = 25 + 25 = 25
||~ 4 2 3 2 16 9
25 = 1
q q
u3 || = ( 35 )2 + ( 54 )2 = 25
||~ 9
+ 16
25 = 1 ,

concluı́mos que N é uma base ortonormada de R3 .


Seja v~ = (1, 1, 1) e determinemos as coordenadas de v~ na base N . Como

~1 = (1, 1, 1) · (0, 1, 0) = 1
v~ · u
~2 = (1, 1, 1) · (− 45 , 0, 35 ) = − 54 + 35 = − 51
v~ · u
~3 = (1, 1, 1) · ( 35 , 0, 54 ) =
v~ · u 3
5 + 45 = 75 ,

pelo Teorema 6.5,


v~ = (1, − 51 , 75 )N .

Para concluir esta secção, vejamos um processo para construir uma base ortogonal a par-
tir de uma base arbitrária.

Método 6.1 (Método de ortonormalização de Gram-Schmidt) Seja B = {~


v1 , . . . , v~n } uma
Capı́tulo 6. Espaços Euclideanos 177

base de Rn . Então G = {w ~ n }, com


~ 1, . . . , w

~ 1 = v~1
w
~ 2 = v~2 − projw~1 v~2
w
w~ 3 = v~3 − projw~1 v~3 − projw~2 v~3
..
.
~ n = v~n − projw~1 v~n − projw~2 v~n − · · · − projw~n−1 v~n ,
w

é uma base ortogonal de Rn .

Não iremos detalhar todas as verificações necessárias, mas os seguintes esquemas dão
uma ideia da razão por que o método produz uma base ortogonal:

~ 2 = ~v2 − projw~1 v~2


w
~v2 ~v3
w
~1 ~ 3 = ~v3 − projw~1 v~3 − projw~2 v~3
w
projw~1 v~2 w
~2
w
~1
projw~1 v~3 + projw~2 v~3

~1 ⊥ w
w ~2 ~1 ⊥ w
w ~1 ⊥ w
~2 , w ~2 ⊥ w
~3 , w ~3

Exemplo 6.8 Consideremos os vetores

(1, 1, 1) , (0, 1, 1) e (0, 0, 1) .

1. Vejamos que B = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} é uma base de R3 , ou seja, que B é um
conjunto linearmente independente (observar que não é um conjunto ortogonal,
pois (1, 1, 1) · (0, 1, 1) = 2 , 0). Uma vez que a matriz
 
1 1 1
0 1 1
 
 
0 0 1

tem caracterı́stica 3, confirma-se que B é linearmente independente.

2. Como referido acima, B não é uma base ortogonal. Apliquemos o Método de


ortonormalização de Gram-Schmidt para obter uma base ortogonal a partir de B.
Pondo
v~1 = (1, 1, 1) , v~2 = (0, 1, 1) e v~3 = (0, 0, 1) ,
178 6.2. Produto interno; Ortogonalidade; Método de ortogonalização Gram-Schimdt

temos:

~ 1 = v~1 = (1, 1, 1)
w
~ 2 = v~2 − proju~1 v~2
w
(0, 1, 1) · (1, 1, 1)
= (0, 1, 1) − (1, 1, 1)
||(1, 1, 1)||2
= (0, 1, 1) − 32 (1, 1, 1)
= (0, 1, 1) − ( 23 , 23 , 23 )
= (− 23 , 13 , 13 )
~ 3 = v~3 − proju~1 v~3 − proju~2 v~3
w
(0, 0, 1) · (1, 1, 1) (0, 0, 1) · (− 32 , 31 , 13 ) 2 1 1
= (0, 0, 1) − (1, 1, 1) − (− 3 , 3 , 3 )
||(1, 1, 1)||2 ||(− 23 , 13 , 13 )||2
1
= (0, 0, 1) − 13 (1, 1, 1) − 3 2 1 1
4 1 1 (− 3 , 3 , 3 )
9+9+9
1
= (0, 0, 1) − ( 13 , 13 , 13 ) − 36 (− 32 , 13 , 13 )
9
 
1 1 1
= (0, 0, 1) − ( 3 , 3 , 3 ) + 12 (− 23 , 13 , 13 )
 
= (0, 0, 1) − ( 13 , 13 , 31 ) + (− 26 , 16 , 16 )
= (0, 0, 1) − (0, 12 , 12 )
= (0, − 12 , 12 ) .

Logo, G = {(1, 1, 1), (− 23 , 13 , 13 ), (0, − 12 , 12 )} é uma base ortogonal de R3 . (Alternativa-


mente, podı́amos tomar w ~ 2 = (−2, 1, 1) e w ~ 3 = (0, −1, 1) — sendo colineares com
os originais, a base continua a ser ortogonal e os cálculos que se seguem ficariam
simplificados.)

3. Por fim, determinemos uma base ortonormada de R3 . Tomando

w
~1 (1, 1, 1)
~1 =
u = √ = ( √1 , √1 , √1 )
||w
~ 1 || 3 3 3 3

w
~ (− 2 , 1 , 1 )
~2 = 2 = 3√ 3 3 = (− √2 , √1 , √1 )
u
||w
~ 2 || 6 6 6 6
3
w
~3 (0, − 12 , 12 )
~3 =
u = = (0, − √1 , √1 ) ,
||w
~ 3 || √1 2 2
2
   
obtemos a base ortonormada N = √1 , √1 , √1 , − √2 , √1 , √1 , 0, − √1 , √1 .
3 3 3 6 6 6 2 2
Capı́tulo 6. Espaços Euclideanos 179

6.3 Complemento ortogonal


Dada uma reta no plano contendo a origem, existe uma única reta contendo a origem per-
pendicular à primeira; dada uma reta no espaço contendo a origem, existe um único plano
contendo a origem perpendicular à reta (mas infinitas retas contendo a origem perpendicu-
lares à primeira).

y z

r r

x y

r⊥
x r⊥

Repare-se que, dado um plano no espaço contendo a origem, existem infinitos planos con-
tendo a origem perpendiculares ao primeiro, mas nenhum que satisfaça a condição verifi-
cada pelos subespaços vetoriais r e r ⊥ : qualquer vetor do primeiro é ortogonal a todos os
vetores do segundo.

Definição 6.6 (Complemento ortogonal) Dado um subespaço vetorial S de um espaço


vetorial E, chamamos complemento ortogonal de S ao subconjunto de E formado pelos
vetores de E que são ortogonais a todos os vetores de S. Representa-se por S ⊥ .

Teorema 6.7 (Propriedades do complemento ortogonal) Seja S um subespaço vetorial


de um espaço vetorial E. Então:

1. S ⊥ é um subespaço vetorial de E.

2. ~0 é o único vetor que S e S ⊥ têm em comum.

3. (S ⊥ )⊥ = S.

Demonstração. As propriedades 1 e 2 são fáceis de verificar e fá-lo-emos já de seguida; a


propriedade 3, apesar de intuitiva, é mais elaborada de demonstrar e não o faremos.

1. Vamos mostrar que S ⊥ é um subespaço vetorial de E recorrendo ao Teorema 3.2. Dado


que ~0 · v~ = 0, qualquer que seja v~ ∈ S, tem-se que ~0 ∈ S ⊥ , pelo que S ⊥ é não vazio.
Sejam então u ~ , v~ ∈ S e k, l ∈ R, k u
~ + l~
v ∈ S. Para mostrarmos que k u v ∈ S ⊥ , é preciso
~ + l~
provar que k u ~ + l~ v é ortogonal a qualquer vetor de S. De facto, sendo w ~ ∈ S, pelas
propriedades do produto interno, temos

(k u
~ + l~
v) · w
~ = (k u
~) · w
~ + (l~
v) · w
~ = k(~ ~ + l(~
u · w) ~ = k0 + l0 = 0 ,
v · w)

dado que u ~ Logo, S ⊥ é um subespaço vetorial de E.


~ e v~ são ortogonais a w.
180 6.4. Produto externo e produto misto

2. Claramente, ~0 pertende S e S ⊥ , pelo facto de serem espaços vetoriais; vejamos que é o


único. Seja v~ ∈ S ∩ S ⊥ . Então v~ é ortogonal a si próprio, pelo que v~ · v~ = 0. Logo, v~ = ~0.

O resultado seguinte estabelece uma relação geométrica entre o núcleo e o espaço ge-
rado pelas colunas de uma matriz. É um resultado de grande utilidade prática, pois dá-nos
uma forma de determinar uma base para o complemento ortogonal de um dado subespaço
vetorial.

Teorema 6.8 Seja A uma matriz m × n. Então:

1. N (A) é o complemento ortogonal de L(A) em Rn ;

2. N (AT ) é o complemento ortogonal de C(A) em Rm .

Exemplo 6.9 Seja S o subespaço vetorial de R5 gerado pelos vetores

v~1 = (2, 2, −1, 0, 1) , v~2 = (−1, −1, 2, −3, 1) , v~3 = (1, 1, −2, 0, −1) e v~4 = (0, 0, 1, 1, 1) .

Então S é o espaço gerado pelas linhas da matriz


 
 2 2 −1 0 1
−1 −1 2 −3 1
 
A =   .
 1 1 −2 0 −1
0 0 1 1 1
 

Como vimos no Exemplo 3.31, {(1, −1, 0, 0, 0), (−1, 0, −1, 0, 1)} é uma base de N (A) e,
portanto, uma base de S ⊥ .

6.4 Produto externo e produto misto


Ao contrário das operações de soma entre vetores, de produto por um escalar e de produto
interno, que fazem sentido em qualquer espaço Rn , as operações que vamos introduzir nesta
secção definem-se apenas em R3 .

Definição 6.7 (Produto externo) Dados v ~ ∈ R3 , chamamos produto externo (ou pro-
~, w
duto vetorial) do vetor v~ pelo vetor w
~ ao vetor v~ × w
~ que:

• tem direção ortogonal a v~ e w;


~

• tem o sentido dado pela regra da mão direita: pondo o dedo indicador solidário
com o vetor v~ e o dedo médio solidário com o vetor w,
~ o polegar indica o sentido
do vetor v~ × w
~ (ou, alternativamente, encostando a parte de fora da mão direita
ao vetor v~ e movimentando-a de encontro ao vetor w ~ pelo caminho mais curto, o
sentido é dado pelo polegar);
Capı́tulo 6. Espaços Euclideanos 181

• tem norma igual à área do paralelogramo definido pelos vetores v~ e w.


~

w
~
w
~ w
~ ~v
~v
~v

Exemplo 6.10 Temos

~e1 × ~e2 = ~e3


~e2 × ~e3 = ~e1
~e3 × ~e1 = ~e2 ,

z z z

~e3 = ~e1 × ~e2 ~e3 ~e3


y ~e2 y y
~e2 ~e2 = ~e3 × ~e1
~e1 ~e1 = ~e2 × ~e3 ~e1
x x x

bem como

~e2 × ~e1 = −~e3


~e3 × ~e2 = −~e1
~e1 × ~e3 = −~e2 .
182 6.4. Produto externo e produto misto

z z z

~e3 ~e3 × ~e2 = −~e1 ~e3


~e2 y y y
~e1 ~e2 ~e1 × ~e3 = −~e2
~e2 × ~e1 = −~e3 ~e1
x x x

Naturalmente, a definição não é uma forma prática de calcular o produto externo de dois
vetores. O seguinte resultado dá-nos, entre outras propriedades desta operação, um processo
alternativo para o fazermos:

Teorema 6.9 (Propriedades do produto externo) Sejam v ~ z ∈ R3 e k ∈ R. Temos:


~, w,~

1. Propriedade anti-comutativa: v~ × w
~ = −(w
~ × v~).

2. Propriedade distributiva: (~
v + w)
~ × ~z = v~ × ~z + w
~ × ~z e v~ × (w
~ + ~z) = v~ × w
~ + v~ × ~z.

3. v~ × (k w)
~ = (k~
v) × w
~ = k(~
v × w).
~

4. v~ × (k~ v ) × v~ = ~0. Aliás, v~ × w


v ) = (k~ ~ = ~0 ⇔ v~ e w
~ são colineares.

5. Existência de elemento absorvente: v~ × ~0 = ~0 × v~ = ~0.

6. v~ · (~ ~ =w
v × w) ~ · (~ ~ = ~0.
v × w)

7. Identidade de Jacobi: (~ ~ × ~z + (w
v × w) ~ = ~0.
~ × ~z) × v~ + (~z × v~) × w

8. ||~ ~ = ||~
v × w|| ~ sin α, sendo α o ângulo formado por v~ e w.
v || ||w|| ~

9. Identidade de Lagrange: ||~ ~ 2 = ||~


v × w|| v ||2 ||w||
~ 2 − (~ ~ 2.
v · w)

10. Definição equivalente de produto externo: Sendo v~ = (v1 , v2 , v3 ) e w


~ =
(w1 , w2 , w3 ), temos

~e1 ~e2 ~e3
v v3 v v3 v v2
~ = ~e1 2 − ~e 1 + ~e 1

v~ × w = v v2 v3 .
w2 w3 2 w1 w3 3 w1 w2 1
w1 w2 w3

Dizemos que o “determinante”


~e1 ~e2 ~e3
v1 v2 v3
w1 w2 w3

é um determinante simbólico: apesar de não ser um determinante, pois as entradas da primeira


linha da matriz são vetores e não números reais, comporta-se como um determinante.

Mais adiante veremos que o vetor calculado por este determinante simbólico é de facto
Capı́tulo 6. Espaços Euclideanos 183

ortogonal a v~ e w.
~

Exemplo 6.11 Dados v


~ = (1, 0, 2) e w
~ = (3, −1, 4), temos

~e1 ~e2 ~e3
~ = 1 0 2
v~ × w
3 −1 4


0 2 1 2 1 0
= ~e1 − ~e + ~e
−1 4 2 3 4 3 3 −1

= 2~e1 − (−2)~e2 + (−1)~e3


= (2, 2, −1) .

Exemplo 6.12 Determinemos uma equação cartesiana do plano que contém o ponto
A = (5, −2, 1) e é paralelo aos vetores v~ = (1, 0, 2) e w
~ = (3, −1, 4). Como sabemos, a
equação procurada é da forma

a(x − 5) + b(y − (−2)) + c(z − 1) = 0 ,

onde (a, b, c) são as coordenadas de um vetor normal ao plano e, logo, ortogonal a ambos
v~ e w.
~ Pelo exemplo anterior, o vetor (2, 2, −1) está nestas condições. Logo,

2(x − 5) + 2(y − (−2)) + (−1)(z − 1) = 0 ,

ou, equivalentemente,
2(x − 5) + 2(y + 2) − (z − 1) = 0 ,
ou ainda
2x + 2y − z = 5
é uma tal equação.

Exemplo 6.13 Determinemos a área do paralelogramo definido pelos vetores v~ =


(1, 0, 2) e w
~ = (3, −1, 4). Por definição de produto externo, a área procurada é igual à
norma do vetor v~ × w.~ Logo, pelo Exemplo 6.11, esta área é igual a
q √
||(2, 2, −1)|| = 22 + 22 + (−1)2 = 9 = 3 .

Exemplo 6.14 Calculemos a área do triângulo de vértices (2, 2, 0), (−1, 0, 2) e (0, 4, 3).
Pondo A = (2, 2, 0), B = (−1, 0, 2) e C = (0, 4, 3),
184 6.4. Produto externo e produto misto

C
B
−−→
AB −→
~e3 AC
y
~e2
~e1
A
x

−−→
a área procurada é igual a metade da área do paralelogramo definido pelos vetores AB
−−→
e AC (por exemplo!). Ora,
−−→
AB = B − A = (−1, 0, 2) − (2, 2, 0) = (−3, −2, 2)
−−→
AC = C − A = (0, 4, 3) − (2, 2, 0) = (−2, 2, 3) ,

donde

~e1 ~e2 ~e3
−−→ −−→
AB × AC = −3 −2 2
−2 2 3


−2 2 −3 2 −2 −3
= ~e1 − ~e + ~e
2 3 2 −2 3 3 −2

2
= −10~e1 − (−5)~e2 + (−10)~e3
= (−10, 5, −10) .

Logo, por definição de produto externo, a área do paralelogramo definido pelos vetores
−−→ −−→
AB e AC é q √
||(−10, 5, −10)|| = (−10)2 + 52 + (−10)2 = 225 = 15 ,
15
pelo que a área do triângulo de vértices A, B e C é 2 .

É agora fácil dar uma interpretação geométrica ao determinante de matrizes 2 × 2 e 3 × 3.


No que respeita aos primeiros, o módulo do determinante da matriz

" #
v1 v2
w1 w2

corresponde à área do paralelogramo definido pelos vetores v~ = (v1 , v2 ) e w


~ = (w1 , w2 ):
Capı́tulo 6. Espaços Euclideanos 185

~v × w
~

~e3
~e2 y
w
~
~e1
~v
x

uma vez que



~e1 ~e2 ~e3
~ = v1 v2 0 = (0, 0, v1 w2 − v2 w1 )
v~ × w
w1 w2 0

e, portanto,
q
~ =
v × w||
||~ 02 + 02 + (v1 w2 − v2 w1 )2 = |v1 w2 − v2 w1 | .

Quanto ao determinante de uma matriz 3 × 3

 
 v1 v2 v3 
w1 w2 w3 
 
 
z1 z2 z3

o seu módulo traduz o volume do paralelipı́pedo definido pelos vetores v~ = (v1 , v2 , v3 ), w


~ =
(w1 , w2 , w3 ) e ~z = (z1 , z2 , z3 ):

~ × ~z
w
~v
projw×~
~ z~v = ~p ~z

w
~

De facto, entendendo-se por altura a altura medida na perpendicular à base do parale-


186 6.4. Produto externo e produto misto

lipı́pedo, temos

volume = área da base × altura


= ||w ~ × ~z|| ||~ p||

= ||w ~ × ~z|| projw×~ ~ zv
~

v~ · (w~ × ~z)
= ||w ~ × ~z|| (w~ × ~
z ) (cf. Teorema 6.4)
~ × ~z||2
||w

v~ · (w ~ × ~z)
= ||w ~ × ~z|| ||w~ × ~z|| (||k u
~ || = |k| ||~
u ||)
||w~ × ~z||2
|~ v · (w ~ × ~z)|
= ||w ~ × ~z|| ||w~ × ~z||
||w ~ × ~z||2

= ~ v · (w ~ × ~z)
!
w2 w3 w1 w3 w1 w2
= (v1 , v2 , v3 ) · ,− ,
z2 z3 z1 z3 z1 z2

w2 w3 w1 w3 w1 w2
= v1
−v +v
z2 z3 2 z1 z3 3 z1 z2

 
 v1 v2 v3 
= det w1 w2 w3  .
 
z1 z2 z3
 

Definição 6.8 (Produto misto) Dados v ~ z ∈ R3 , chamamos produto misto (ou pro-
~, w,~
duto escalar triplo) dos vetores v~, w
~ e ~z ao número real

v~ · (w
~ × ~z) .

Como vimos,

Teorema 6.10 Sejam v


~ = (v1 , v2 , v3 ), w
~ = (w1 , w2 , w3 ),~z = (z1 , z2 z3 ) ∈ R. Então
 
 v1 v2 v3 
v~ · (w
~ × ~z) = det w1 w2 w3  .
 
z1 z2 z3
 

v · (w
e |~ ~ × ~z) | é o volume do paralelipı́pedo definido pelos vetores v~, w
~ e ~z.

Recorrendo ao produto misto, é agora fácil verificar que o vetor calculado pelo determi-
nante simbólico
~e1 ~e2 ~e3
v1 v2 v3 ,
w1 w2 w3

que, pela propriedade 10 do Teorema 6.9, dá o vetor v~ × w, ~ é de facto ortogonal a v~ e w.


~ De
facto, atendendo às propriedades dos determinantes,
   
 v1 v2 v3   v1 v2 v3 
v~ · (~ ~ = det  v1 v2 v3  = det  0
v × w) 0 0  = 0
   
w1 w2 w3 w1 w2 w3
   
Capı́tulo 6. Espaços Euclideanos 187

~ · (~
e, analogamente, w ~ = 0.
v × w)

Exemplo 6.15 A área do paralelogramo definido pelos vetores v


~ = (3, 1) e w
~ = (2, −1) é
" #
3 1
det 2 −1 = |3 × (−1) − 1 × 2| = |−5| = 5 .

Exemplo √6.16 A área do paralelogramo definido pelos vetores v~ = (1, 0, −3) e w


~ =
(2, 2, 0) é 76, pois

~e1 ~e2 ~e3
0 −3 1 −3 1 0
~ = 1
v~ × w 0 −3 = ~e1 − ~e2 + ~e3 = (6, 6, 2)
2 0 2 0 2 2
2 2 0

e √ √
k(6, 6, 2)k = 62 + 62 + 22 = 76 .

Exemplo 6.17 O volume do paralelipı́pedo definido pelos vetores (4, 0, 0), (1, 0, 3) e
(2, 2, 0) é 24, pois
 
4 0 0 " #
0 3
~ × ~z) = det 1 0 3 = (−1)1+1 × 4 × det

v · (w = |4 × (−6)| = |−24| = 24 .
 
~
2 0
2 2 0
 

Uma outra utilidade do produto misto é uma forma prática de identificar se três vetores são
complanares, isto é, se, dados três vetores v~, w
~ e ~z, existe algum plano simultaneamente paralelos
aos três — útil, por exemplo, no estudo da posição relativa de retas no espaço.
De facto,
~ e ~z são complanares ⇔ v~ · (w
v~, w ~ × ~z) = 0 ,
uma vez que, de outra forma, o volume do paralelipı́pedo definido pelos vetores v~, w
~ e ~z não seria
zero.

Exemplo 6.18 Verifiquemos se os vetores v


~ = (−1, −2, 1), w
~ = (3, 0, −2) e ~z = (5, −4, 0)
são complanares. Como
 
 −1 −2 1 
~ × ~z) = det  3
v~ · (w 0 −2  = 0 + 20 + (−12) − 0 − 0 − (−8) = 16 , 0 ,
 
5 −4 0
 

concluı́mos que v~, w


~ e ~z não são complanares.

6.5 Interpretação geométrica de aplicação linear


Geometricamente, as aplicações lineares, que estudámos nos capı́tulos 4 e 5, têm uma inter-
pretação muito fácil e importante nos casos R2 → R2 e R3 → R3 : elas representam funções
188 6.5. Interpretação geométrica de aplicação linear

que estabelecem transformações entre vetores no plano ou no espaço.


√ √ √ √ 
2 2 2 2
Exemplo 6.19 Consideremos a aplicação linear f (x, y) = 2 x − 2 y, 2 x + 2 y .

Tem-se
√ √ y
2 2
f (1, 0) = ( 2 , 2 )
√ √
f (0, 1) = (− 22 , 22 ) .
Observemos que f (1, 0) e f (0, 1) são veto-
f (~e2 ) f ~e f (~e1 )
res unitários: 2
r
 √ 2  √ 2 f
2
||f (1, 0)|| = + 22 x
2 ~e1
q
= 24 + 24

= 1
= 1 = ||f (0, 1)|| .

Mais geralmente, os vetores (x, y) e f (x, y) têm a mesma norma,


r
√ √ 2  √ √ 2
2 2 2 2
||f (x, y)|| = 2 x − 2 y + 2 x + 2 y
q
= 24 x2 − xy + 24 y 2 + 24 x2 + xy + 24 y 2
q
= x2 + y 2
= ||(x, y)|| ,
e o ângulo por eles formado é de 45°:
(x, y) · f (x, y)
cos α =
||(x, y)|| ||f (x, y)||
√ √ √ √
2 2 2 2 2 2
2 x − 2 xy + 2 xy + 2 y
=
||(x, y)||2
√ √
2 2 2 2
2 x + 2 y
=
x2 + y 2

2
= 2 .
Deste modo, o vetor f (x, y) resulta da rotação do vetor (x, y) em 45°, no sentido direto,
pois, considerando os vetores (x, y) e f (x, y) como vetores de R3 paralelos ao plano
z = 0, temos

√ √ √ √  ~
e1 ~
e2 ~e3
(x, y, 0) × 22 x − 22 y, 22 x + 22 y, 0 = √ x √ √
y √
0

2 2 2 2
2 x− 2 y 2 x+ 2 y 0
 √ √ √ √ 
= 0, 0, 22 x2 + 22 xy − 22 xy − 22 y 2
 √ √ 
= 0, 0, 22 x2 + 22 y 2 ,
Capı́tulo 6. Espaços Euclideanos 189

o qual aponta para cima.


y
z

~v × f (~v ) f (~v )

45o
~v
y x
f (~v )
~v
x

Exemplo 6.20 Consideremos agora a aplicação linear g cuja matriz canónica é


" #
2 0
Mg = .
0 2

Temos assim g(1, 0) = (2, 0), g(0, 1) = (0, 2) e, mais geralmente, g(x, y) = (2x, 2y). Logo,
g(x, y) = 2(x, y), pelo que g associa, a cada v~ ∈ R2 , o seu múltiplo escalar 2~
v.

f (~v )
~v f
x

O facto de uma aplicação linear ficar completamente determinada pela imagem dos vetores de uma
qualquer base do espaço de partida (cf. Teorema 4.2) ajuda, como vemos, a interpretar geometrica-
mente as aplicações lineares. Em sentido inverso, esta propriedade também nos permite definir a
aplicação a partir do efeito que queremos que esta produza.

Exemplo 6.21 Determinemos a expressão analı́tica da aplicação linear h que produz


uma rotação de 90° no sentido indireto. Dado que

h(1, 0) = (0, −1)


h(0, 1) = (1, 0) ,
190 6.5. Interpretação geométrica de aplicação linear

temos "#
0 1
Mh = .
−1 0
Logo, " # " #" # " #
x 0 1 x y
Mh = = .
y −1 0 y −x
e, portanto,
h(x, y) = (y, −x) .
Se, além da rotação, quizéssemos que h produzisse um vetor com metade do tamanho
do vetor original, terı́amos
0 12
" #
Mh = 1 ,
−2 0
donde
h(x, y) = ( 21 y, − 12 x) .

Exemplo 6.22 Consideremos a seguinte região do plano:


y

Descrevê-la em termos de x e y requer algum trabalho. Fica:


   
− 2 ≤ x ≤ 0 ∧ − 3x
2 ≤ y ≤ 11−2x
5 ∨ 0 ≤ x ≤ 3 ∧ 3x ≤ y ≤ 11−2x
5 .

Alternativamente, podemos escolher um referencial de R2 que facilite a tarefa. Por


exemplo,
y
v

x
Capı́tulo 6. Espaços Euclideanos 191

Aqui, o mesmo triângulo fica definido pelas condições

0 ≤ u ≤ u0 ∨ 0 ≤ v ≤ v0 − uv0 u ,
0

onde
y
v

v0
u
u0
x

Escolhendo u0 = v0 = 1, fica

0 ≤ u ≤ 1 ∨ 0 ≤ v ≤ 1−u,

A aplicação linear k que produz esta transformação é a aplicação definida por: k(1, 0) =
(3, 1) e k(0, 1) = (−2, 3), ou seja, " #
3 −2
Mk = .
1 3

• A norma de v~ = (v1 , . . . , vn ) ∈ Rn é
q
v || =
||~ v12 + . . . + vn2 .

~ = (w1 , . . . , wn ) ∈ Rn é o número
• O produto interno (usual ou canónico) dos v~ = (v1 , . . . , vn ), w
real
~ = v1 w1 + . . . + vn wn = ||~
v~ · w ~ cos α
v || ||w||
onde α é o ângulo formado por v~ e w.
~
• v~ ⊥ w
~ sse v~ · w
~ = 0.
• A projeção ortogonal do vetor v~ sobre o vetor w
~ é o vetor
v~ · w
~
projw~ v~ = w
~,
~ 2
||w||
o qual é paralelo a w
~ e tal que v~ − projw~ v~ é ortogonal a w.
~
• Uma base de Rn diz-se ortogonal se os seus vetores são ortogonais dois a dois e ortonormada
se, além disso, os vetores são unitários.
192 6.6. Exercı́cios

• Se N = (~ ~n ) é uma base ortonormada de S ⊆ Rn e v~ ∈ S, tem-se


u1 , . . . , u

v~ = (~
v ·u ~n )N .
~1 , . . . , v~ · u

• O Método de ortonormalização de Gram-Schimdt produz, a partir de qualquer base, uma


base ortogonal.

• O módulo do determinante " #


v v2
det 1
w1 w2

é igual à área do paralelogramo definido (em R2 ) pelos vetores v~ = (v1 , v2 ) e w


~ = (w1 , w2 ).

• O produto externo do vetor v~ pelo vetor w ~ é o vetor ortogonal a v~ e a w,


~ com sentido dado
pela regra da mão direita, e cujo módulo é igual à área do paralelogramo definido (em R3 )
pelos vetores v~ e w.
~ Representa-se por v~ × w
~ e é uma operação anti-comutativa.

• Dados v~ = (v1 , v2 , v3 ) e w
~ = (w1 , w2 , w3 ), as coordenadas do vetor v~ × w
~ podem ser calculadas
através do determinante simbólico
 
 ~e1 ~e2 ~e3 
~ =  v1 v2 v3  .
v~ × w
 
w1 w2 w3
 

• O produto misto dos vetores v~ = (v1 , v2 , v3 ), w


~ = (w1 , w2 , w3 ) e ~z = (z1 , z2 , z3 ) é dado por
 
 v1 v2 v3 
v~ · (w
~ × ~z) = w1 w2 w3 
 
z1 z2 z3
 

e o seu módulo é igual ao volume do paralelipı́pedo definido pelos vetores v~, w


~ e ~z.

• v~ · (w
~ × ~z) = 0 sse os vetores v~, w
~ e ~z são complanares.

6.6 Exercı́cios

Exercı́cio 6.1 Represente os seguintes vetores num referencial apropriado, situando o


ponto inicial na origem.

(a) v~1 = (3, 6) (d) v~4 = (5, −4) (g) v~7 = (3, 4, 5)

(b) v~2 = (−4, −8) (e) v~5 = (3, 0) (h) v~8 = (3, 3, 0)

(c) v~3 = (−4, −3) (f) v~6 = (0, −7) (i) v~9 = (0, 0, 3)
Capı́tulo 6. Espaços Euclideanos 193

Exercı́cio 6.2 Calcule a norma de cada um dos vetores do exercı́cio anterior.

Exercı́cio 6.3 Calcule a distância entre os pontos A e B.

(a) A = (3, 4), B = (5, 7) (c) A = (7, −5, 1), B = (−7, −2, −1)

(b) A = (−3, 6), B = (−1, −4) (d) A = (3, 3, 3), B = (6, 0, 3)

Exercı́cio 6.4 Determine o valor da expressão dada, sendo u


~ = (2, −2, 3), v~ = (1, −3, 4) e
~ = (3, 6, −4).
w
1
(a) ||~
u + v~|| (e) || − 2~
v || (i) ||w||
~
w
~

(b) ||~
u || + ||~
v || (f) ||3~
u − 5~
v + w||
~
1
(j) ||w||
~
w
~
(c) 2||~
v || (g) || − 3w
~ + 3w||
~

(d) ||2~
v || (h) || − 3w||
~ + ||3w||
~ (l) ||~u +1w||
~
(~
u + w)
~

Exercı́cio 6.5 Seja v


~ = (−1, 2, 5). Calcule para que valores de k se tem ||k~
v || igual a:

(a) 1. (b) 4. (c) −4. (d) 5. (e) 0.

Exercı́cio 6.6 Determine um vetor unitário...

(a) ... com a direção e sentido do vetor (3, 4).

(b) ... com a direção e sentido do vetor (1, −2, 3).

(c) ... com a direção e sentido oposto do vetor (1, −2).

(d) ... com a direção e sentido oposto do vetor (−2, 3, −6).

(e) ... com a direção e sentido do vetor (r cos t, r sin t) (sendo r ≥ 0).

(f) ... com a direção e sentido oposto do vetor (x, y, z).

Exercı́cio 6.7 Calcule u


~ · v~.

(a) u
~ = (2, 3), v~ = (5, −7) (c) u
~ = (1, −5, 4), v~ = (3, 3, 3)

(b) u
~ = (−6, −2), v~ = (4, 0) (d) u
~ = (−2, 2, 3), v~ = (1, 7, −4)

Exercı́cio 6.8 Calcule o cosseno do ângulo formado pelos vetores u


~ e v~ em cada uma
das alı́neas do exercı́cio anterior.
194 6.6. Exercı́cios

Exercı́cio 6.9 Determine se os vetores u


~ e v~ dados definem um ângulo nulo, agudo,
reto, obtudo ou raso.

(a) u
~ = (6, 1, 4), v~ = (2, 0, −3) (e) u
~ = (−2, 0, 4), v~ = (1, 0, −2)

(b) u
~ = (0, 0, −1), v~ = (1, 1, 1) (f) u
~ = (1, 2, 3), v~ = (1, 2, 0)

(c) u
~ = (−6, 0, 4), v~ = (3, 1, 6) ~ = (2, −2, 3), v~ = (1, −1, 32 )
(g) u

(d) u
~ = (2, 4, −8), v~ = (5, 3, 7) (h) u
~ = (2, 3, 5), v~ = (−3, 2, 0)

Exercı́cio 6.10 Relativamente ao Teorema 6.3, verifique as propriedades indicadas


para os vetores v~ = (5, −2, 1), w
~ = (1, 6, 3) e ~z = (−1, 0, 2) e o escalar k = −4.

(a) Propriedade 2 (b) Propriedade 3 (c) Propriedade 6

Exercı́cio 6.11 Determine seis vetores distintos ortogonais ao vetor v


~ = (5, −2, 3), todos
não nulos e pelo menos quatro sem qualquer coordenada nula.

Exercı́cio 6.12 Sejam p


~ = (2, k) e ~
q = (3, 5). Determine k de modo que:

(a) p
~e~
q sejam colineares (c) o ângulo entre p q seja π4 .
~e~
(b) p
~e~
q sejam ortogonais

Exercı́cio 6.13 Represente a projeção ortogonal do vetor v


~ sobre o vetor w
~ (sem efetuar
quaisquer cálculos).

~v

w
~
~v

w
~
(a) (c)

~v
w
~
w
~

~v
(b) (d)
Capı́tulo 6. Espaços Euclideanos 195

Exercı́cio 6.14 Calcule a projeção ortogonal do vetor v


~ sobre o vetor w.
~

(a) v~ = (6, 2), w


~ = (3, −9) (c) v~ = (3, 1, −7), w
~ = (1, 0, 5)

(b) v~ = (−1, −2), w


~ = (−2, 3) (d) v~ = (1, 0, 0), w
~ = (4, 3, 8)

Exercı́cio 6.15 Para cada alı́nea do exercı́cio anterior, calcule a componente de v


~ orto-
gonal a w.
~

Exercı́cio 6.16 Determine v


~// w~ e v~⊥w~ tais que v~ = v~// w~ + v~⊥w~ , sendo v~// w~ colinear com w
~
e v~⊥w~ ortogonal a w.
~

(a) v~ = (2, 1), w


~ = (2, −1) (b) v~ = (3, 1, 2), w
~ = (−2, 1, 4)

Exercı́cio 6.17 Calcule ||proj~a u


~ ||.

(a) u
~ = (1, −2), ~
a = (−4, −3) (d) u
~ = (3, 0, 4), ~
a = (2, 3, 3)

(b) u
~ = (5, 6), ~
a = (2, −1) (e) u
~ = (3, −2, 6), ~
a = (1, 2, −7)

(c) u
~ = (2, −1), ~
a = (5, 6) (f) u
~ = (1, 2, −7), ~
a = (3, −2, 6)

Exercı́cio 6.18 Verifique se os seguintes conjuntos constituem bases ortonormadas de


R3 . Em caso negativo, indique se constituem bases ortogonais ou normadas.

(a) {(1, 0, 2), (1, 1, 1), (1, 2, 0)}

(b) {(1, 0, 2), (2, 1, −1), (−2, 5, 1)}

(c) {(1, 0, 2), (2, 1, −1), (−2, 4, 1)}


     
(d) √1 , − √1 , √3 , √2 , √1 , √1 , 0, √3 , √1
11 11 11 6 6 6 10 10
     
(e) √1 , − √1 , √3 , √2 , √1 , √1 , − √4 , √1 , √3
11 11 11 6 6 6 50 2 50

Exercı́cio 6.19 Calcule as coordenadas dos vetores dados na base da alı́nea (e) do
exercı́cio anterior.

(a) (1, −2, −3) (b) (5, 0, −1) (c) (2, −1, 4)

Exercı́cio 6.20 Obtenha uma base ortonormada de R3 a partir dos vetores dados

(a) (1, 1, 0), (1, 0, 1) e (0, 1, 1) (b) (1, 0, 1), (1, 0, −2) e (0, 3, 4)
196 6.6. Exercı́cios

Exercı́cio 6.21 Obtenha uma base ortonormada de S a partir da base dada.

(a) S = h(1, 2, 3, 4), (0, 0, 1, 0)i (b) S = h(−1, 0, 1, 1), (1, 0, 1, 2), (0, −2, 0, 1)i

Exercı́cio 6.22 Determine uma base de S ⊥ .

(a) S = h(1, −1, 3), (5, −4, −4), (7, −6, 2)i

(b) S = h(2, 0, −1), (4, 0, −2)i

(c) S = h(1, 4, 5, 2), (2, 1, 3, 0), (−1, 3, 2, 2)i

(d) S = h(1, 4, 5, 6, 9), (3, −2, 1, 4, −1), (−1, 0, −1, −2, −1), (2, 3, 5, 7, 8)i

Exercı́cio 6.23 Determine o valor da expressão indicada, sendo u


~ = (3, 2, −1), v~ =
(0, 2, −3) e w
~ = (2, 6, 7).

(a) v~ × w
~ (c) u
~ × (~
v × w)
~ (e) (~
u × v~) × (~
v × w)
~ (g) u
~ × (~
v − 2w)
~

(b) w
~ × v~ (d) (~
u × v~) × w
~ (f) (~
u × v~) · (~
v × w)
~ (h) (~
u × v~) − 2w
~

Exercı́cio 6.24 Determine um vetor ortogonal a ambos os vetores dados.

(a) v~ = (−1, 2, 4), w


~ = (3, 1, −2) (b) v~ = (−2, 1, 5), w
~ = (3, 0, −3)

Exercı́cio 6.25 Calcule a área do paralelogramo definido pelos vetores v


~ e w.
~

(a) v~ = (−1, 2, 4), w


~ = (3, 1, −2) (c) v~ = (2, 3, 0), w
~ = (−1, 2, −2)

(b) v~ = (1, −1, 2), w


~ = (0, 3, 1) (d) v~ = (3, −1, 4), w
~ = (6, −2, 8)

Exercı́cio 6.26 Calcule a área do triângulo de vértices P , Q e R.

(a) P = (2, 6, −1), Q = (1, 1, 1), R = (4, 6, 2)

(b) P = (1, −1, 2), Q = (0, 3, 4), R = (6, 1, 8)

Exercı́cio 6.27 Relativamente ao Teorema 6.9, verifique as propriedades indicadas


para os vetores v~ = (5, −1, 2), w
~ = (6, 0, −2) e ~z = (1, 2, −1) e o escalar k = −4.

(a) Propriedade 2 (b) Propriedade 7 (c) Propriedade 9

Exercı́cio 6.28 Calcule u


~ · (~
v × w).
~

(a) u
~ = (−1, 2, 4), v~ = (3, 4, −2), w
~ = (−1, 2, 5)

(b) u
~ = (3, −1, 6), v~ = (2, 4, 3), w
~ = (5, −1, 2)
Capı́tulo 6. Espaços Euclideanos 197

Exercı́cio 6.29 Sabendo que u


~ · (~ ~ = 3, calcule, se possı́vel, o valor da expressão
v × w)
dada.

(a) u
~ · (w
~ × v~) (c) w
~ · (~
u × v~) (e) v~ · (w
~ × w)
~

(b) (~
v × w)
~ ·u
~ (d) v~ · (~
u × w)
~ (f) u
~ × (~
v · w)
~

Exercı́cio 6.30 Calcule o volume do paralelipı́pedo definido pelos vetores u


~ , v~ e w.
~

(a) u
~ = (2, −6, 2), v~ = (0, 4, −2), w
~ = (2, 2, −4)

(b) u
~ = (3, 1, 2), v~ = (4, 5, 1), w
~ = (1, 2, 4)

Exercı́cio 6.31 Verifique se u


~ , v~ e w
~ são complanares.

(a) u
~ = (5, −2, 1), v~ = (4, −1, 1), w
~ = (1, −1, 0)

(b) u
~ = (4, −8, 1), v~ = (2, 1, −2), w
~ = (3−, 4, 12)

6.7 Soluções

Solução 6.1

~v1

~v5
x
z
~v3
~v4

~v2 ~v6

~v9 ~v7
y
~v8

x
198 6.7. Soluções

Solução 6.2
√ √ √
(a) 3 5 (d) 41 (g) 5 2
√ √
(b) 4 5 (e) 3 (h) 3 2
(c) 5 (f) 7 (i) 3

Solução 6.3
√ √ √ √
(a) 13 (b) 2 26 (c) 209 (d) 3 2

Solução 6.4
√ √  
(a) 83 (e) 2 26 (i) √3 , √6 , √−4
√ √ √ 61 61 61
(b) 17 + 26 (f) 466
√ (j) 1
(c) 2 26 (g) 0
√ √
(d) 2 26 (h) 6 61 (l) 1

Solução 6.5

(a) ± √1 (b) ± √4 (c) Nenhum (d) ± √5 (d) 0


30 30 30

Solução 6.6
   
(a) 35 , 45 (d) 2 −3 6
7, 7 , 7
 
(b) √1 , √−2 , √3 (e) (cos t, sin t)
14 14 14
!
−y
 
(c) −1 √2
√ , (f) √ −x , √ , √ −z
5 5 x2 +y 2 +z2 x2 +y 2 +z2 x2 +y 2 +z2

Solução 6.7

(a) −11 (b) −24 (c) 0 (d) 0

Solução 6.8

(a) √ −11
√ (b) √−3 (c) 0 (d) 0
13 74 10

Solução 6.9

(a) Reto (c) Agudo (e) Raso (g) Nulo


(b) Obtuso (d) Obtuso (f) Agudo (h) Reto
Capı́tulo 6. Espaços Euclideanos 199

Solução 6.10

(a) Ambos os membros iguais a 2 e −7, respetivamente.


(b) Todos iguais a 16.
√ √
(c) |~ ~ = 4 e ||~
v · w| ~ = 30 46 ' 38.15.
v || ||w||

Solução 6.11 Por exemplo, (0, 3, 2), (−3, 0, 5), (1, 1, −1), (2, 2, −2), (1, −5, −5) e (−3, 3, 7).

Solução 6.12

10
(a) 3 (b) − 65 (c) 1
2

Solução 6.13

~v

projw~ ~v

w
~
~v
projw~ ~v

w
~
(a) (c)

~v
w
~
projw~ ~v w
~
projw~ ~v

~v
(b) (d)

Solução 6.14
     
8 12
(a) (0, 0) (b) 13 , − 13 (c) − 16 80
13 , 0, − 13 (d) 16 12 32
89 , 89 , 89

Solução 6.15
     
(a) (6, 2) (b) − 21
13 , − 14
13 (c) 55 11
13 , 1, − 13 (d) 73 12 32
89 , − 89 , − 89

Solução 6.16
       
(a) v~// w~ = 56 , − 35 , v~⊥w~ = 45 , 85 (b) v~// w~ = − 72 , 17 , 74 , v~⊥w~ = 23 6 10
7 , 7, 7
200 6.7. Soluções

Solução 6.17

2 √4 √43
(a) 5 (c) (e)
61 54

(b) √4 (d) √18 (f) 43


5 22 7

Solução 6.18

(a) Não, pois nem sequer constitui base.


(b) Base ortogonal (não normada).
(c) Base não ortogonal e não normada.
(d) Base normada (não ortogonal).
(e) Base ortonormada.

Solução 6.19
     
(a) − √6 , − √3 , − √23 (b) √2 , √9 , − √
23
(c) √15 , √7 , − √1
11 11 11 6 6 6 50 50 50

Solução 6.20
          
(a) √1 , √1 , 0 , √1 , − √1 , √2 , − √1 , √1 , √1 (b) √1 , 0, √1 , √1 , 0, − √1 , (0, 1, 0)
2 2 6 6 6 3 3 3 2 2 2 2

Solução 6.21
  
(a) (0, 0, 1, 0), √1 , √2 , 0, √4
21 21 21
     
(b) − √1 , 0, √1 , √1 , √5 , 0, √1 , √4 , √ 1 , √14 , √ 3 , − √ 2
3 3 3 42 42 42 210 210 210 210

Solução 6.22

(a) {(16, 19, 1)}


(b) {(0, 1, 0), (1, 0, 2)}
(c) {(−1, −1, 1, 0), (2, −4, 0, 7)}
(d) {(−1, −1, 1, 0, 0), (−2, −1, 0, 1, 0), (−1, −2, 0, 0, 1)}

Solução 6.23

(a) (32, −6, −4) (c) (−14, −20, −82) (e) (0, 176, −264) (g) (−44, 55, −22)
(b) (−32, 6, 4) (d) (27, 40, −42) (f) −206 (h) (−8, −3, −8)

Solução 6.24
Capı́tulo 6. Espaços Euclideanos 201

(a) (−8, 10, −7) (b) (−3, 9, −3)

Solução 6.25
√ √ √
(a) 213 (b) 59 (c) 101 (d) 0

Solução 6.26

374

(a) 2
(b) 285

Solução 6.27

(a) (~v + w)×~


~ z = (11, −1, 0)×(1, 2, −1) = (1, 11, 23) e v~ ×~z + w×~
~ z = (−3, 7, 11)+(4, 4, 12) = (1, 11, 23);
v~ × (w~ + ~z) = (5, −1, 2) × (7, 2, −3) = (−1, 29, 17) e v~ × w
~ + v~ × ~z = (2, 22, 6) + (−3, 7, 11) =
(−1, 29, 17).
(b) (~ ~ × ~z = (2, 22, 6) × (1, 2, −1) = (−34, 8, −18), (w
v × w) ~ × ~z) × v~ = (4, 4, 12) × (5, −1, 2) =
(20, 52, −14), (~z×~
v )×w~ = (3, −7, −11)×(6, 0, −2) = (14, −60, 42) e (−34, 8, −18)+(20, 52, −14)+
(14, −60, 42) = (0, 0, 0).
(c) ||~ ~ 2 = ||(2, 22, 6)||2 = 524 e ||~
v ×w|| v ||2 ||w||
~ 2 = 30×40 = 1200, (~ ~ 2 = 262 = 676 e 1200−676 =
v ·w)
524.

Solução 6.28

(a) −10 (b) −110

Solução 6.29

(a) −3 (c) 3 (e) 0


(b) 3 (d) −3 (f) Não faz sentido

Solução 6.30

(a) 16 (b) 45

Solução 6.31

(a) Sim (b) Não


7. Números Complexos

7.1 Definição e operações 203

7.2 Plano complexo e formas polar e exponencial 208

7.3 Operações com complexos na forma


polar/exponencial 214

7.4 Exercı́cios 219

7.5 Soluções 221

Em engenharia, os números complexos proporcionam uma maneira muito mais rápida e fácil de fazer
certos cálculos do que o processo direto. Para isso, as diferentes formas de representar números complexos e
as operações com complexos têm que ser bem conhecidas.

7.1 Definição e operações


Evidentemente, a equação x2 = −1 não tem quaisquer soluções em R, pois qualquer número
√ real tem
quadrado maior ou igual a zero. Em 1777, Leonhard Euler atribuiu o sı́mbolo i à solução −1 desta
equação. De facto, √
x2 = −1 ⇔ x = ± −1 .
Em contextos relacionados com engenharia, nomeadamente engenharia eletrotécnica, convém reser-
var o sı́mbolo i para outras
√ finalidades, pelo que se usa j. Assim, neste texto iremos usar j para
representar o número −1 (ou pelo menos assim tentaremos!):

j = −1 .

Definição 7.1 (Número imaginário; imaginário puro; √ número complexo; C) Chamamos


número imaginário, e representamos por j, ao número −1. A um número da forma bj, onde
b ∈ R, chamamos imaginário puro. A um número da forma a + bj (ou, equivalentemente,
a+jb), onde a, b ∈ R, chamamos número complexo. O conjunto de todos os números complexos
denota-se por C:
C = {a + bj : a, b ∈ R} .

O termo “complexo” não significa complicado. Tal como um complexo de edifı́cios é formado por um certo
número de edifı́cios, possivelmente com funções diferentes, também um número complexo é um número
formado por dois números de tipos distintos: um real, outro imaginário.

Assim que os números complexos entram em cena, muitas equações que não tinham solução —
ou melhor, que não tinham solução em R — passam a ter:

203
204 7.1. Definição e operações

Exemplo 7.1 Temos

x2 + 1 = 0 ⇔ x2 = −1

⇔ x = ± −1
⇔ x = ±j ,

pelo que j e −j são duas as soluções de x2 + 1 = 0. Temos


p
2 4 ± (−4)2 − 4 × 5
x − 4x + 5 = 0 ⇔ x =
2×1

4 ± 16 − 20
⇔x=
2

4 ± −4
⇔x=
2
p
4 ± (−1) × 4
⇔x=
2
√ √
4 ± −1 × 4
⇔x=
2
4±j2
⇔x=
2
⇔ x = 2±j,

pelo que 2 − j e 2 + j são as duas soluções de x2 − 4x + 5 = 0. Temos



2 −8 ± 82 − 4 × 4 × 7
4x + 8x + 7 = 0 ⇔ x =
2×4

−8 ± 64 − 112
⇔x=
8

−8 ± −48
⇔x=
8
p
−8 ± (−1) × 48
⇔x=
8
p √
−8 ± (−1) × 48
⇔x=
8

−8 ± j 4 3
⇔x=
8√
3
⇔ x = −1 ± j 2 ,
√ √
3 3
pelo que x = −1 − j 2 e x = −1 + j 2 são as duas soluções de 4x2 + 8x + 7 = 0.

Mais geralmente, todas as equações têm agora as n soluções previstas pelo Teorema Fundamental
da Álgebra, onde n é o grau do polinómio:

Exemplo 7.2 Determinemos as soluções da equação x3 − 2x − 4 = 0 (ou, equivalentemente, as


raı́zes do polinómio x3 − 2x − 4). Observando que

23 − 2 × 2 − 4 = 8 − 4 − 4 = 0 ,
Capı́tulo 7. Números Complexos 205

recorremos à regra de Rufini para fatorizar o polinómio:

1 0 −2 −4
2 2 4 4
1 2 2 0

donde x3 − 2x − 4 = (x − 2)(x2 + 2x + 2). Recorrendo agora à fórmula resolvente,


√ √
−2 ± 4 − 4 × 2 −2 ± −4 −2 ± 2j
x2 + 2x + 2 = 0 ⇔ x = = = ⇔ x = −1 − j ∨ x = −1 + j .
2 2 2
Logo, as três solução da equação x3 − 2x − 4 = 0 são 2, −1 − j e −1 + j.

Recordemos uma outra forma de determinar as raı́zes de um polinómio de 2ª grau: construindo o caso
notável. Por exemplo: como

x2 + 2x + 2 = (x2 + 2x + 1) + 1 = (x + 1)2 + 1 ,

tem-se

x2 + 2x + 2 = 0 ⇔ (x + 1)2 + 1 = 0 ⇔ (x + 1)2 = −1 ⇔ x + 1 = ± −1 ⇔ x = −1 ± j ;

como
x2 − 4x − 5 = (x2 − 4x + 4) − 5 − 4 = (x − 2)2 − 9 ,

tem-se

x2 − 4x − 5 = 0 ⇔ (x − 2)2 − 9 = 0 ⇔ (x − 2)2 = 9 ⇔ x − 2 = ± 9 ⇔ x = 2 ± 3 ⇔ x = −1 ∨ x = 5 .

Definição 7.2 (Parte real e parte imaginária) Dado z = a + bj ∈ C, chamamos parte real de
z ao número real a e parte imaginária de z ao número real b. Denotam-se, respetivamente, por
Re(z) e Im(z).

Reparar que a parte imaginária de um número complexo é um número real!

Exemplo 7.3 Sendo:


1. z1 = 2 − j, temos Re(z1 ) = 2 e Im(z1 ) = −1;
√ √
3 3
2. z2 = −1 + j 2 , temos Re(z2 ) = −1 e Im(z2 ) = 2 ;
3. z3 = 4j, temos Re(z3 ) = 0 e Im(z3 ) = 4 (z3 é um imaginário puro);
4. z4 = π, temos Re(z4 ) = π e Im(z4 ) = 0 (z4 é um número real).
206 7.1. Definição e operações

Definição 7.3 (Operações em C) Em C, as operações de soma, subtração, produto e quoci-


ente são dadas, respetivamente, por: sendo z1 = a1 + b1 j e z2 = a2 + b2 j,

z1 + z2 = (a1 + b1 j) + (a2 + b2 j) = (a1 + a2 ) + (b1 + b2 )j ;

z1 − z2 = (a1 + b1 j) − (a2 + b2 j) = (a1 − a2 ) + (b1 − b2 )j ;

z1 × z2 = (a1 + b1 j) × (a2 + b2 j)
= a1 a2 + (b1 j)a2 + a1 (b2 j) + (b1 j)(b2 j)
= (a1 a2 − b1 b2 ) + (a2 b1 + a1 b2 )j ;

z1 a1 + b1 j
=
z2 a2 + b2 j
a + b1 j a2 − b2 j
= 1 ×
a2 + b2 j a2 − b2 j
(a + b1 j) × (a2 − b2 j)
= 1
(a2 + b2 j) × (a2 − b2 j)
(a a + b1 b2 ) + (a2 b1 − a1 b2 )j
= 1 2 .
a2 2 + b 2 2

Definição 7.4 (Conjugado) Dado z = a + bj ∈ C, chamamos conjugado de z ao número com-


plexo que tem a mesma parte real e parte imaginária simétrica. Denota-se por z∗ ou z̄:

z∗ = (a + bj)∗ = a − bj .

As seguintes propriedades são fáceis de verificar.

Teorema 7.1 (Propriedades do conjugado) Seja z = a + bj ∈ C. Então:


1. z + z∗ = 2a = 2 Re(z).
2. z − z∗ = 2b = 2 Im(z).
3. z × z∗ = a2 + b2 = Re(z)2 + Im(z)2 .
Capı́tulo 7. Números Complexos 207

Exemplo 7.4 Sejam z = 2 + 3j e w = −4 + 5j. Temos

z + w = (2 + 3j) + (−4 + 5j) = (2 − 4) + (3 + 5)j = −2 + 8j ;

z − w = (2 + 3j) − (−4 + 5j) = (2 − (−4)) + (3 − 5)j = 6 − 2j ;

z × w = (2 + 3j) × (−4 + 5j)


= 2 × (−4) + (3j) × (−4) + 2 × (5j) + (3j) × (5j)
= −8 − 12j + 10j + 15j 2
= −8 − 2j − 15
= −23 − 2j ;

z2 = (2 + 3j) × (2 + 3j)
= 4 + 6j + 6j + 9j 2
= 4 + 12j − 9
= −5 + 12j ;

z 2 + 3j
=
w −4 + 5j
2 + 3j −4 − 5j
= ×
−4 + 5j −4 − 5j
(2 + 3j) × (−4 − 5j)
=
(−4 + 5j) × (−4 − 5j)
−8 − 12j − 10j − 15j 2
=
(−4)2 + 52
−8 − 22j + 15
=
16 + 25
7 − 22j
=
41
7 22
= 41 − 41 j;
1 1
=
w −4 + 5j
1 −4 − 5j
= ×
−4 + 5j −4 − 5j
−4 − 5j
=
(−4 + 5j) × (−4 − 5j)
−4 − 5j
=
41
4 5
= − 41 − 41 j.

Exemplo 7.5 Temos

j 1 = j , j 2 = −1 , j 3 = (−1)j = −j , j 4 = (−j) = −j 2 = 1 ,
j 5 = j , j 6 = −1 , j 7 = −j , j8 = 1 , ···
208 7.2. Plano complexo e formas polar e exponencial

e, mais geralmente, 


 1 se n = 0, 4, 8, 12, . . .
 j se n = 1, 5, 9, 13, . . .

n

j =


 −1 se n = 2, 6, 10, 14, . . .
 −j se n = 3, 7, 11, 15, . . .

É muito importante ter sempre presente a seguinte diferença. Enquanto que, na soma (e na subtração) de
números complexos, é indiferente tomar a parte real antes ou depois de efetuar a operação, isto é,

Re(z + w) = Re(z) + Re(w) ,

pois

Re((a + bj) + (c + dj)) = Re((a + c) + (b + d)j) = a + c = Re(a + bj) + Re(c + dj) = Re(z) + Re(w) ,

o mesmo já não se verifica para o produto (e para o quociente):

Re((a + bj) × (c + dj)) = Re((ac − bd) + (ad + bc)j) = ac − bd

mas
Re(a + bj) × Re(c + dj) = ac .

7.2 Plano complexo e formas polar e exponencial


Por definição, a soma de números complexos comporta-se como a soma de vetores em R2 . Além disso,
o mesmo acontece ao produto de um complexo por um número real:

c × (a + bj) = (c + 0j) × (a + bj) = (ca) + (cb)j .

Deste modo, podemos identificar o número complexo a + bj com o vetor de coordenadas (a, b); ao
fazê-lo, estamos a identificar o conjunto C, equipado com as operações de soma e produto por um
número real, com o espaço vetorial R2 . Implicitamente, estamos ainda a identificar o eixo horizontal
com o eixo da parte real e o eixo vertical com o eixo da parte imaginária.

Im Im
(a, b) z
b Im(z)

a Re Re
Re(z)

a + bj ←→ (a, b) z ←→ (Re(z), Im(z))

Dizemos que estamos a representar z no plano complexo ou plano de Argand.


Capı́tulo 7. Números Complexos 209

Exemplo 7.6 A representação dos números complexos


5
u = 1 + 2j , v = −3 − 2j , w = −3j e z = 2

no plano de Argand é:

Im

u
1

Re
1 z
v
w

Os números complexos representados no plano de Argand

Im

q
p 1

Re
1
s

são:
p = −3 + j , q = 2j , r = 1 − 3j e s = 3 − j .

Se z = a + bj, então

z × j = (a + bj) × j = aj + bj 2 = −b + aj . b
a

Assim, a multiplicação por j produz uma rotação de −b a


90º no sentido direto.
210 7.2. Plano complexo e formas polar e exponencial

Exemplo 7.7 Seja z = 3 + 2j. Então

Im

z × j = (3 + 2j) × j = 3j + 2j 2 = −2 + 3j z×j
z × j 2 = (3 + 2j) × (−1) = −3 − 2j ×j z

z × j 3 = (3 + 2j) × (−j) = −3j − 2j 2 = 2 − 3j . ×j


Re
×j
×j
z × j2
z × j3

Definição 7.5 (Módulo e argumento) Seja z ∈ C.

Chamamos módulo de z à distância a que z se Im


encontra da origem, denotada por |z|.

Chamamos argumento de z ao ângulo que o w


z
segmento que une a origem a z faz com a parte
positiva do eixo horizontal, medido no sentido
direto. Denota-se por Arg(z), arg(z) ou, para
simplificar, θz . Re

Exemplo 7.8 Seja z = −3 + 3j. Representando z no plano complexo,

Im

−3 + 3j

4

Re

p √ 3π
concluı́mos que |z| = (−3)2 + 32 = 18 e que θz = 4 .

O módulo e o argumento de z∗ deduzem-se facilmente à custa do módulo e do argumento de z,


respetivamente:
Capı́tulo 7. Números Complexos 211

Teorema 7.2 (Módulo & argumento do conjugado) Seja z ∈ C. Então

|z∗ | = |z| e θz∗ = −θz .

De facto,

Im

z
|z|
θz
Re
θ z∗
|z ∗ |
z∗

As seguintes relações são consequência fácil do teorema de Pitágoras.

Teorema 7.3 (Relação entre parte real & parte imaginária e módulo & argumento) Seja
z ∈ C.
1. Cálculo do módulo e do argumento à custa da parte real e da parte imaginária:

Im(z)
q
|z| = (Re(z))2 + (Im(z))2 e tan θz = .
Re(z)

2. Cálculo da parte real e da parte imaginária à custa do módulo e do argumento:

Re(z) = |z| cos θz e Im(z) = |z| sin θz .

Im

z
|z|
Im(z)
θz
Re
Re(z)

Im(z)
Em geral, nada mais se pode afirmar sobre θz para além de tan θz = Re(z)
. De facto, como − π2 < arctan α <
π
2 , há dois casos a considerar:

Im(z)

 arctan Re(z)

 se Re(z) > 0
θz = 
 π + arctan Im(z)
 se Re(z) < 0 .
Re(z)
212 7.2. Plano complexo e formas polar e exponencial

√ p
Exemplo
√ 7.9 Sejam z = −3 + 3j e w = 1 + 3j. Como vimos no Exemplo 7.8, |z| = (−3)2 + 32 =

18 e θz = 4 . De facto,
3 3π
tan θz = −3 = −1 ⇒ θz = π + arctan(−1) = π − π4 = 4 ,

dado que z se encontra no 2º quadrante. Quanto a w,


q √ √
|w| = 12 + ( 3)2 = 4 = 2

e √ √
3 π
tan θw = 1 = 3 ⇒ θw = 3 ,
pois w encontra-se no 1º quadrante.

Em sentido inverso,

Exemplo 7.10 Se u, v ∈ C são tais que |u| = 3, θu = π3 , |v| = 2 e θv = π, então



3
Re(u) = 3 cos π3 = 3 21 = 3
2 e Im(u) = 3 sin π3 = 3 2

e
Re(v) = 2 cos π = −2 e Im(v) = 2 sin π = 0 .

Definição 7.6 (Forma algébrica & forma trigonométrica (ou polar)) Seja z ∈ C. À
representação de z na forma
z = Re(z) + Im(z)j
chamamos forma algébrica ou forma retangular; à representação de z na forma

z = |z|(cos θz + j sin θz ) ,

ou, mais abreviadamente,


z = |z| θz ,
chamamos forma trigonométrica ou forma polar.

Alguns autores escrevem C ∠ θ em vez de C θ ; neste texto, damos preferência à segunda.

Exemplo 7.11 Atendendo aos Exemplos 7.9 e 7.10, temos:

Forma algébrica Forma polar



z −3 + 3j 18 3π/4 ' 4.24 135°

w 1 + 3j 2 π/3 = 2 60°

u 3
2 + 323 j 3 π/3
v −2 2 π

Nem sempre é necessário recorrer às fórmulas do Teorema 7.3 para determinar o argumento de um número
complexo. Especialmente fácil é o caso dos complexos que se situam nos eixos:
Capı́tulo 7. Números Complexos 213

Im

π
θ= 2

θ=π θ=0
Re

θ = − π2

Exemplo 7.12 Consideremos os números complexos

Im

1
w u
Re
1
z

Temos assim:

u = 2.5 + 0j = 2.5 0
v = 0 + 2j = 2 π/2 = 2 90°
w = −3 + 0j = 3 π = 3 180°
z = 0 − 1.5j = 1.5 −π/2 = 1.5 −90° .

Como consequência dos desenvolvimentos em série de MacLaurin das funções ex , sin x e cos x, a
saber

X xn x2 x3
ex = = 1+x+ + + ...
n! 2! 3!
n≥0
X (−1)n x2n+1 x3 x5 x7
sin x = =x− + − + ···
(2n + 1)! 3! 5! 7!
n≥0
X (−1)n x2n x2 x4 x6
cos x = = 1− + − + ··· ,
(2n)! 2! 4! 6!
n≥0

tem-se
214 7.3. Operações com complexos na forma polar/exponencial

Teorema 7.4 (Fórmula de Euler) Para todo θ ∈ R,

ejθ = cos θ + j sin θ .

Multiplicando a Fórmula de Euler por C, vem

Cejθ = C cos θ + jC sin θ = C θ ,

obtendo-se assim outra representação dos números complexos:

Definição 7.7 (Forma exponencial) Seja z ∈ C. À representação de z na forma

z = |z| ejθz

chamamos forma exponencial.

Exemplo 7.13 Completando o Exemplo 7.11, temos:

Forma algébrica Forma polar Forma exponencial


√ √
z −3 + 3j 18 3π/4 ' 4.24 135° 18 ej 3π/4

w 1 + 3j 2 π/3 = 2 60° 2 ej π/3

3 3 3
u 2 + 2 j 3 π/3 3 ej π/3
v −2 2 π 2 ej π

Como consequência do módulo e argumento do conjugado (cf. Teorema 7.2), tem-se:

Teorema 7.5 (Forma trigonométrica/polar/exponencial do conjugado) Seja z ∈ C. Pondo


|z| = C e θz = θ, temos

z∗ = C (cos(−θ) + j sin(−θ)) = C −θ = C e−jθ .

7.3 Operações com complexos na forma polar/exponencial


Uma das principais vantagens da representação dos números complexos na forma polar/exponencial
é transformar o cálculo do produto e da divisão de números complexos, trabalhosa na forma algébrica,
em operações muito simples:

Teorema 7.6 (Operações na forma polar/exponencial) Sejam z, w ∈ C com z = A α = Aejα


e w = B β = Bejβ . Então:
1. z × w = (AB) α + β = AB ej(α+β) .
z A A j(α−β)
2. w = b α−β = Be .

Demonstração. De facto, atendendo às propriedade das potências,

z × w = Aejα × Bejβ = AB ejα+jβ = AB ej(α+β)


Capı́tulo 7. Números Complexos 215

e
z Aejα A A
= jβ = ejα−jβ = ej(α−β) .
w Be B B

Exemplo 7.14 No Exemplo 7.4, calculámos z × w, z2 , wz e w1 , sendo z = 2 + 3j e w = −4 +


5j. Vejamos como, em alternativa, estas operações podem ser calculadas recorrendo à forma
polar/exponencial.
Em primeiro lugar, há que passar z e w da forma algébrica para a forma polar. Ora,
√ √
|z| = 22 + 33 = 13
 
tan θz = 32 ⇒ θz = arctan 32

implica que
 
√ √ j arctan
3
z = 13 arctan(3/2) ou, equivalentemente, z = 13 e 2

(observar que z está no 1º quadrante) e


q √
|w| = (−4)2 + 53 = 41
   
5
tan θw = −4 ⇒ θw = π + arctan − 54 = π − arctan 54

implica que
  
√ √ j
5
π−arctan 4
w = 41 π − arctan(5/4) ou, equivalentemente, w = 41 e

(observar que w está no 2º quadrante).


Em seguida, recorre-se ao Teorema 7.6 (e à máquina de calcular):
√  √ 
z × w = 13 arctan(3/2) × 41 π − arctan(5/4)

= 13 × 41 arctan(3/2) + π − arctan(5/4)

= 533 arctan(3/2) + π − arctan(5/4)
' 23.087 3.228 rad
' 23.087 185°
√  √ 
2
z = 13 arctan(3/2) × 13 arctan(3/2)
√ 2
= 13 arctan(3/2) + arctan(3/2)
= 13 2 arctan(3/2)
' 13 1.966 rad
' 13 112.6°

z 13 arctan(3/2)
=√
w 41 π − arctan(5/4)

13
=√ arctan(3/2) − (π − arctan(5/4))
41
' 0.563 −1.263 rad
' 0.563 −72.35°
216 7.3. Operações com complexos na forma polar/exponencial

1 1 0
=√
w 41 π − arctan(5/4)
1
=√ 0 − (π − arctan /5/4)
41
' 0.156 −2.246 rad
' 0.156 −128.7° .

Por fim, caso necessário, retorna-se à forma algébrica:

z × w ' 23.087 3.228 rad


' 23.087 cos(3.228) + j23.087 sin(3.228)
= −23 − 2j
2
z ' 13 1.966 rad
' 13 cos(1.966) + j13 sin(1.966)
= −5 + 12j
z
' 0.563 −1.263 rad
w
' 0.563 cos(−1.263) + j0.563 sin(−1.263)
7 22
= 41 − 41 j

1
' 0.156 −2.246 rad
w
' 0.156 cos(−2.246) + j0.156 sin(−2.246)
7 5
= − 41 − 41 j,

confirmando-se assim os resultados obtidos no Exemplo 7.4.

A principal razão pela qual esta revisão sobre números complexos é importante, prende-se com o facto
de ser fundamental em algumas unidades curriculares da especialidade dominar as operações básicas com
números complexos. Em particular, é fundamental saber calcular expressões da forma z + w, 1z + w1 , z × w,
z z×w
w ou z+w , onde z e w são números complexos que tanto podem ser dados na forma algébrica como na forma
polar/exponencial. Como vimos, regra geral, somas e subtrações calculam-se na forma algébrica e produtos
e quocientes calculam-se na forma polar ou exponencial.

Exemplo 7.15 Sendo zR = 50 e zL = 300 90°, calculemos zT = zR + zL .


Dado que se trata de uma soma, convertemos zL para a forma algébrica:

zL = 300 cos(90°) + j300 sin(90°) = j300 .

Logo,
zT = zR + zL = (50 + 0j) + (0 + 300j) = 50 + 300j ' 304.138 80.537° .

zR zC
Exemplo 7.16 Sendo zR = 75 e zC = −60j, calculemos zT = zR +zC .

Comecemos por calcular zR zC . Dado que zR é real e zC é um imaginário puro, este produto é
Capı́tulo 7. Números Complexos 217

fácil de calcular na forma algébrica:

zR zC = (75 + 0j) × (0 − 60j) = −4500j .

Uma vez que se seguirá um quociente, convertemos zR zC para a forma polar:

zR zC = −4500j = 4500 −90° .

Alternativamente, podı́amos ter começado por converter zR e zC à forma polar antes de calcular
o produto. Como
zR = 75 + 0j = 75 0°
e
zC = 0 − 60j = 60 −90° ,
vinha
zR zC = (75 0°) × (60 −90°) = (75 × 60) 0° − 90° = 4500 −90° ,
já na forma polar.
Por outro lado,

zR + zC = (75 + 0j) + (0 − 60j) = 75 − 60j ' 96.047 −38.66° .

Logo,

zR zC 4500 −90° 4500


zT = ' ' −90° − (−38.66°) ' 46.852 −51.341° .
zR + zC 96.047 −38.66° 96.047

v
Exemplo 7.17 Sendo zR = 30, zC = −15j, v = 0.005, calculemos zT = zR + zC , i = zT , vR = zR i e
vC = zC i.
Temos
zT = zR + zC = (30 + 0j) + (0 − 15j) = 30 − 15j ' 33.541 −26.565° .
Assim, dado que
v = 0.005 = 0.005 0° ,
temos
v 0.005 0° 0.005
i= ' ' 0° − (−26.565°) ' 0.000149 26.565° .
zT 33.541 −26.565° 33.541
Deste modo, como
zR = 30 = 30 0° ,
vem
vR = zR i ' (30 0°) × (0.000149 26.565°)
' (30 × 0.000149) 0° + 26.565°
' 0.00447 26.565° .
Por seu turno, como
zC = −15j = 15 −90° ,
vem
vC = zC i ' (15 −90°) × (0.000149 26.565°)
' (15 × 0.000149) −90° + 26.565°
' 0.002235 −63.4356° .
218 7.3. Operações com complexos na forma polar/exponencial

Do ponto de vista matemático, a diferença entre a forma polar e a forma exponencial é meramente gráfica:
ambas exibem o módulo e o argumento do número, ao invés da forma algébrica, que recorre à parte real e à
parte imaginária do número.
No entanto, a forma exponencial é muito útil nas aplicações, pelo facto de certas operações serem mais
fáceis de calcular em C do que em R. É o que acontece nos circuitos LRC, onde, sabendo-se que V (t) =
V0 cos(ωt) (ou seja, V0 e ω são conhecidos), se pretende determinar
R I(t) = I0 cos(ωt −φI ) (ou seja, pretende-
se determinar I0 e φI ) através da equação V = RI + C1 T dt + L dI dt . O problema é solúvel usando apenas
identidades trigonométricas como

cos(α − β) = cos α cos β + sin α sin β ,

mas com trabalho considerável. Alternativamente, as quantidades (reais) V (t) e I(t) são consideradas como
a parte real de quantidades complexas:

V (t) = Re(V0 ejωt ) e I(t) = Re(Ie0 ejωt ) , com Ie0 = I0 e−jφI .

De facto,
Re(V0 ejωt ) = Re(V0 cos(ωt) + jV0 sin(ωt)) = V0 cos(ωt) = V (t)

e
Ie0 ejωt = I0 e−jφI ejωt = I0 ejωt−jφI = I0 ej(ωt−φI ) = I0 cos(ωt − φI ) + jI0 sin(ωt − φI )

implica que

Re(Ie0 ejωt ) = Re(I0 cos(ωt − φI ) + jI0 sin(ωt − φI )) = I0 cos(ωt − φI ) = I(t) .

Tirando partido do facto de a soma ser linear em C (isto é, Re(z + w) = Re(z) + Re(w)), bem como a
diferenciação e a integração (!!!), fica mais vantajoso confundir temporariamente V (t) com V0 ejωt e I(t)
com Ie0 ejωt , fazer os cálculos em C e tomar a parte real do resultado final.

• Os números complexos podem ser representados nas seguintes formas:

algébrica a + bj a é a parte real (Re(z)) e


b a parte imaginária (Im(z))

trigonométrica ou polar C(cos θ + j sin θ) ou C θ C é o módulo e


θ o argumento

exponencial C ejθ idem

• As fórmulas do Teorema 7.3 permitem calcular o módulo e o argumento à custa da parte real e da
parte imaginária e vice-versa.

• Em C, o conjunto dos números complexos, consideramos as seguintes operações: soma (e subtração),


produto, quociente e conjugação. A soma e subtração calculam-se na forma algébrica; o produto e
o quociente podem ser calculados em qualquer uma das formas, mas são, em geral, mais fáceis de
calcular nas formas polar e exponencial; a conjugação é igualmente fácil de calcular em qualquer
uma das formas.

• Dados z = az + jbz = |z| θz e w = aw + jbw = |w| θw , temos


Capı́tulo 7. Números Complexos 219

forma forma
operação algébrica polar

z+w (az + aw ) + j(bz + bz ) —

z−w (az − aw ) + j(bz − bz ) —

z×w (az aw − bz bw ) + j(az bw + aw bz ) (|z| × |w|) θz + θw

z (az aw + bz bw ) + j(aw bz − az bw ) |z|


θ − θw
w a2w 2
+ bw |w| z

z∗ az − jbz |z| −θz

7.4 Exercı́cios

Exercı́cio 7.1 Escreva na forma algébrica:


√ √ √ √
(a) 3 + −4 (b) 5 − −49 (c) −9 (d) 3 + −18.

Exercı́cio 7.2 Determine o conjunto de solução das equações:

(a) z2 + 25 = 0 (b) z2 + 45 = 0 (c) z2 − 4z + 5 (d) z2 + 2z + 10.

Exercı́cio 7.3 Calcule na forma algébrica:

(a) (6 + 2j) + (4 + 7j) (e) (−2 + 5j) + (1 + 4j) (i) (3 − 4j) + 5j


(b) (6 + 2j) − (4 + 7j) (f) (−2 + 5j) − (1 + 4j) (j) −2j + (3 − 5j)
(c) (6 + 2j) × (4 + 7j) (g) (−2 + 5j) × (1 + 4j) (k) (3 − 4j) × 5j
(d) (6 + 2j) ÷ (4 + 7j) (h) (−2 + 5j) ÷ (1 + 4j) (l) (3 − 4j) ÷ 5j.

Exercı́cio 7.4 Sejam z = 3 + 2j e w = 4 − 2j. Calcule:

(a) Re(z) (d) Re(z) + Re(w) (g) Re(z × w) (j) Re(z) ÷ Re(w)
(b) Re(w) (e) Re(z − w) (h) Re(z) × Re(w) (k) Re(1 ÷ w)
(c) Re(z + w) (f) Re(z) − Re(w) (i) Re(z ÷ w) (l) 1 ÷ Re(w).

Exercı́cio 7.5 Represente no plano complexo e indique a forma polar dos complexos:

(a) 1 + j (c) −3 − 3j (e) 2 (g) −5


(b) −2 + 2j (d) 4 − 4j (f) 4j (h) −2j.
220 7.4. Exercı́cios

Exercı́cio 7.6 Converta para a forma polar e exponencial. Na forma polar, apresente o resul-
tado em radianos e em graus.

(a) 5 + 4j (b) −5 + 4j (c) 3 − 4j (d) −3 − 4j.

Exercı́cio 7.7 Converta para a forma algébrica:

(a) 4 30° (c) 2 π (e) 2ejπ/3 (g) ej2π/3


3 −jπ/3
(b) 3 −135° (d) 5 7π/6 (f) 2e (h) ej3π/2 .

Exercı́cio 7.8 Sejam z = 3 + 3j e w = 2 30° . Calcule

1
(a) z + w (c) z × w (e) z ÷ w (g) z+w
1
(b) z − w (d) z2 (f) w ÷ z (h) z + w1

na forma mais apropriada.

Exercı́cio 7.9 Considere os complexos

z1 = 4 30° , z2 = 3 −50° , z3 = 2 120° e z4 = 6 −100° .

(a) Represente z1 , z2 , z3 e z4 no plano complexo.


(b) Calcule:

(i) z1 × z3 (iv) z1 ÷ z3 (vii) z4 ÷ z1


(ii) z2 × z4 (v) z3 ÷ z1 (viii) z1 × z3 ÷ z2
(iii) z3 × z4 (vi) 1 ÷ z4 (ix) (z2 × z3 ) ÷ (z1 × z4 ).

(c) Expresse z1 , z2 , z3 e z4 na forma algébrica.


(d) Calcule:

(i) (z1 + z3 ) × z4 (iii) (z1 + z3 )2 (v) (z3 − z1∗ ) × (z1 + z3 )


(ii) (z1 + z3 ) ÷ z4 (iv) z2 ÷ (z3 − z1∗ ) (vi) (z1 × z3 ) ÷ (z1 + z3 ).

Exercı́cio 7.10 Considere os complexos

w1 = ej2π/3 , w2 = 2e−jπ/4 e w3 = 5ej7π/6 .

(a) Represente w1 , w2 e w3 no plano complexo.


(b) Calcule:

(i) w1 × w2 (iv) w1 ÷ w3 (vii) w1 + w2


(ii) w1 × w3 (v) w3 ÷ w1 (viii) w2 − w3
(iii) w2 × w3 (vi) 1 ÷ w2 (ix) w3 − w1 − w2 .
Capı́tulo 7. Números Complexos 221

Exercı́cio 7.11 Considere os complexos

zR = 60 e zL = 250 90° .

Calcule e apresente na forma polar:

1 1
(a) zT = zR + zL (b) zR (c) zL .

Exercı́cio 7.12 Considere os complexos

zR = 50 e zC = −40j .

Calcule e apresente na forma polar:


zR zC
(a) zR zC (b) zR + zC (c) zT = zR +zC .

Exercı́cio 7.13 Considere os complexos

zR = 40 , zC = −20j e v = 0.002 .

Calcule:

1
(a) zT = zR + zC (c) f = v (e) vC = zC i
v zR zC
(b) i = zT (d) vR = zR i (f) zR +zC .

7.5 Soluções

Solução 7.1

(a) 3 + 2j (b) 5 − 7j (c) 3j (d) 3 + j3 2.

Solução 7.2

(a) ±5j (b) ±j3 5 (c) 2 ± j (d) −1 ± 3j.

Solução 7.3

38
(a) 10 + 9j (d) 65 − j 34
65 (g) −22 − 3j (j) 3 − 7j
18
(b) 2 − 5j (e) −1 + 9j (h) 17 + j 13
17 (k) 20 + 15j
4
(c) 10 + 50j (f) −3 + j (i) 3 + j (l) 5 + j 35 .

Solução 7.4
222 7.5. Soluções

3
(a) 3 (d) 7 (g) 16 (j) 4
1
(b) 4 (e) −1 (h) 12 (k) 5
2 1
(c) 7 (f) −1 (i) 5 (l) 4.

Solução 7.5

Im (a) 2 45° (e) 2 0°

4j (b) 8 135° (f) 4 90°

(c) 18 225° (g) 5 180°
−2 + 2j √
1+j (d) 32 −45° (h) 2 −90°.
1
−5 2
Re
1

−2j
−3 − 3j
4 − 4j

Solução 7.6

(a) 41 arctan(4/5) ' 6.403 0.675 rad ' 6.403 38.66°
√ 4
41e j arctan 5 ' 6.403e j0.675

(b) 41 π − arctan(4/5) ' 6.403 2.467 rad ' 6.403 141.34°
√ 4
41e j(π−arctan 5 ) ' 6.403e j2.467
(c) 5 − arctan(4/3) ' 5 −0.927 rad ' 5 −53.13°
4
5e j(− arctan 3 ) ' 5e −j0.927
(d) 5 π + arctan(4/3) ' 5 4.069 rad ' 5 233.13°
4
5e j(π+arctan 3 ) ' 5e j4.069 .

Solução 7.7
√ √ √
3
(a) 2 3 + 2j (c) −2 (e) 1 + j 3 (g) − 21 + j 2
√ √ √ √
(b) − 322 − j 322 (d) − 5 2 3 − j 52 (f) 3
4 − j 3 3
4 (h) −j.

Solução 7.8
Capı́tulo 7. Números Complexos 223

√ √
(a) (3 + 3) + 4j (f) (2/ 18) −15°
√ p √ √
(b) (3 − 3) + 2j (g) (1/ 20 + 2 3) arctan(4/(1 + 3))

(c) 2 18 75° ' 0.0426 −0.976 rad
(d) 18 90° = 18j ' 0.0426 −55.67°
√ √
3 3−2 5
(e) ( 18/2) 15° (h) 12 − j 12 .

Solução 7.9

Im

z1
z3
1
Re
1

z2

z4

(a)

3
(b) (i) 8 150° (iv) 2 −90° (vii) 2 −130°
1 8
(ii) 18 −150° (v) 2 90° (viii) 3 200°
1 1
(iii) 12 20° (vi) 6 100° (ix) 4 140°.

(c) z1 = 4 cos(π/6) + j4 sin(π/6) ≈ 3.464 + 2j


z2 = 3 cos(−5π/18) + j3 sin(−5π/18) ≈ 1.928 − 2.298j
z3 = 2 cos(2π/3) + j2 sin(2π/3) ≈ −1 + 1.732j
z4 = 6 cos(−5π/9) + j6 sin(−5π/9) ≈ −1.042 − 5.909j.
√ √
(d) (i) 12 3 −2π/9 (iii) 12 2π/3 (v) 3 7π/6
√ √
3 1 2 3
(ii) 3 8π/9 (iv) 2 −10π/9 (vi) 9 19π/18.

Solução 7.10
224 7.5. Soluções

Im

z1
z3
1
Re
1

z2

z4

(a)

1 jπ/4
(b) (i) 2ej5π/12 (vi) 2e
√ √ √
(ii) 5ej11π/6
(vii) ( 2 − 12 ) + j( 23 − 2)
(iii) 10ej11π/12 √ √
5 3−1 3+5
(iv) 15 e−jπ/2 (viii) 2 + j 2
√ √ √ √
1− 2−5 3 2−5− 3
(v) 5ejπ/2 (ix) 2 + j 2 .

Solução 7.11

(a) 66100 arctan(25/6) ≈ 257.1 76.5°
1
(b) 60
1
(c) 250 −90°.

Solução 7.12

(a) 2000 −90°



(b) 4100 − arctan(4/5) ≈ 64.03 −38.66°
(c) √2000 arctan(4/5) − π ≈ 31.235 −141.3°.
4100

Solução 7.13

(a) 2000 − arctan(1/2) ≈ 44.721 −26.57°
(b) √0.002 arctan(1/2) ≈ 0.0000447 26.57°
2000

(c) 500
(d) √0.08 arctan(1/2) ≈ 0.00179 26.57°
2000

(e) √0.04 arctan(1/2) − π ≈ 0.000894 −153.4°


2000

(f) √800 − arctan(1/2) − π ≈ 17.889 −206.6°.


2000
Capı́tulo 7. Números Complexos 225
Bibliografia

[1] H. Anton, C. Rorres, “Elementary Linear Algebra: Applications Version”, Wiley, 10ª edição,
2010.
[2] C. Dias, C. Leandro, L. Suárez, “Notas teóricas”, ISEL, 2014/2015.
[3] G. Strang, “Linear Algebra and its Applications”, Brooks/Cole, 4ª edição, 2005.

226
Aij , 49 condensação superior de uma matriz, 28
C θ, 212 conjugado de um número complexo, 206
C, 203 conjunto de geradores de um espaço vetorial, 76
Rm×n , 21 conjunto de solução de um SEL, 8
Im(x), 205 conjunto linearmente dependente, 81
Re(x), 205 conjunto linearmente independente, 81
Arg(z), arg(z), θz , 210 coordenadas de um vetor numa base, 92
coordenadas de um vetor numa base ortonormada,
aplicação linear, 109 175
aplicação linear bijetiva, 116 CS, 8
aplicação linear diagonalizável, 140
aplicação linear injetiva, 116 Desigualdade de Cauchy-Schwarz, 170
aplicação linear invertı́vel, 116 Desigualdade triangular, 167
aplicação linear sobrejetiva, 116 determinante de uma matriz 2 × 2, 45
argumento de um número complexo, 210 determinante de uma matriz 3 × 3, 46
determinante de uma matriz n × n, 48
base canónica de Rn , 86 diagonal principal, 26
base de um espaço vetorial, 84 dimensão de um espaço vetorial, 85
base o.n., 175
base ortogonal, 175 entrada de uma matriz, 21
base ortonormada, 175 equação caracterı́stica de uma matriz, 144
equação vetorial de um espaço vetorial, 78
cálculo da matriz inversa através da matriz ad- equações cartesianas de um espaço vetorial, 78
junta, 61 equações paramétricas de um espaço vetorial, 78
caracterı́stica alternativa de base, 84 espaço Euclideano, 171
caracterı́stica de uma aplicação linear, 114 espaço gerado pelas colunas de uma matriz, 89
caracterı́stica de uma matriz, 30 espaço gerado pelas linhas de uma matriz, 89
caracterização alternativa de subespaço vetorial, espaço imagem de uma aplicação linear, 113
73 espaço vetorial, 70
classificação de um SEL, 11 espaço vetorial gerado, 76
classificação de um SEL recorrendo à caracterı́stica, espaços fundamentais de uma matriz, 89
30
coeficientes de um SEL, 8 forma algébrica, 212
combinação linear, 75 forma exponencial, 214
combinação linear nula, 82 forma polar, 212
complemento ortogonal, 179 forma trigonométrica, 212

228
Índice 229

GI, 13 núcleo de uma aplicação linear, 115


grau de indeterminação, 13 núcleo de uma matriz, 87
número complexo, 203
Identidade de Jacobi, 182 número imaginário, 203
imaginário puro, 203 norma, 167
incógnitas de um SEL, 8 nulidade de uma aplicação linear, 115
interpretação geométrica do determinante de ma-
trizes 2 × 2, 184 o.n., 175
interpretação geométrica do determinante de ma- operações elementares, 15
trizes 3 × 3, 185 operações elementares em colunas, 25
operações elementares em linhas, 25
m.a., 148 operações em C na forma algébrica, 206
m.g., 148 operações em C na forma polar/exponencial, 214
Método de Gauss, 14
Método de ortonormalização Gram-Schmidt, 176 parâmetro, 10
Método de substituição, 9 parte imaginária de um número complexo, 205
módulo de um número complexo, 210 parte real de um número complexo, 205
módulo e argumento do conjugado, 211 permutação, 47
matriz, 21 pivot, 29
matriz Aij , 49 plano complexo, 208
matriz adjunta, 60 plano de Argand, 208
matriz ampliada, 18 polinómio caracterı́stico de uma matriz, 144
matriz anti-simétrica, 62 produto de matrizes, 23
matriz canónica de uma aplicação linear, 119 produto de números complexos, 206
matriz coluna, 21 produto de uma matriz por um escalar, 22
matriz de mudança de base, 96 produto escalar, 169
matriz de uma aplicação linear (caso geral), 124 produto externo, 180
matriz diagonal, 26 produto interno (canónico), 169
produto misto, 186
matriz diagonalizável, 148
projeção ortogonal, 172
matriz diagonalizadora, 151
propriedades da matriz canónica de uma aplicação
matriz dos coeficientes, 18
linear, 120
matriz dos cofatores, 57
propriedades da matriz inversa, 35
matriz em escada, 26
propriedades da matriz transposta, 61
matriz escalar, 28
propriedades da norma, 167
matriz identidade, 24
propriedades da soma de matrizes e do produto
matriz inversa, 35
por um escalar, 22
matriz inversa de uma matriz 2 × 2, 35
propriedades das matrizes de mudança de
matriz invertı́vel, 35
base, 98
matriz linha, 21
propriedades das operações com vetores, 69
matriz nula, 23
propriedades do complemento ortogonal, 179
matriz quadrada, 26
propriedades do conjugado, 206
matriz reduzida, 31
propriedades do determinante, 51
matriz regular, 35
propriedades do produto de matrizes, 25
matriz simétrica, 62
propriedades do produto externo, 182
matriz singular, 35
propriedades do produto interno, 169
matriz transposta, 58
matriz triangular inferior, 27 quociente de números complexos, 206
matriz triangular superior, 27
matrizes equivalentes, 25 Regra de Cramer, 55
matrizes equivalentes por colunas, 25 Regra de Laplace, 49
matrizes equivalentes por linhas, 25 representação matricial de um SEL, 20
matrizes semelhantes, 153 resolução de um SEL, 8
multiplicidade algébrica, 148
multiplicidade geométrica, 148 SEL, 7
230 Índice

SEL equivalentes, 9
SEL homogéneo, 8
SEL impossı́vel, 11
SEL possı́vel e determinado, 11
SEL possı́vel e indeterminado, 11
SI, 11
sinal de uma permutação, 47
sistema de equações lineares, 7
sistema em escada, 13
solução de um SEL, 8
solução de um SEL recorrendo à matriz inversa,
38
soma de matrizes, 22
soma de números complexos, 206
SPD, 11
SPI, 11
subespaço próprio, 144
subespaço vetorial, 72
subespaço vetorial constituı́do pelo CS de um SEL
homogéneo, 74
subespaço vetorial gerado, 76
subtração de números complexos, 206

Teorema das dimensões, 123


termos independentes de um SEL, 8
traço, 26

valor próprio de uma aplicação linear, 141


valor próprio de uma matriz, 141
versor de um vetor, 167
vetor, 70
vetor nulo, 70
vetor próprio de uma aplicação linear, 141
vetor próprio de uma matriz, 141
vetor unitário, 167
vetores l.d., 81
vetores l.i., 81
vetores linearmente dependentes, 81
vetores linearmente independentes, 81
vetores ortogonais, 168
Índice 231

Você também pode gostar