Você está na página 1de 33

Tópicos de Teoria - Espaços Vectoriais (Matemática)

Diana Aldea Mendes, DMQGE, ISCTE-IUL

0.1 Espaços Vectoriais


0.1.1 Generalidades
Definição 1 Chama-se vector n-dimensional (de dimensão n) um sis-
tema ordenado de n números reais − →
v = (x1 , x2 , ..., xn ), onde os números
xi , 1 ≤ i ≤ n, se designam por componentes de − →v.

v 1 = (x1 , x2 , ..., xn ) e −
Dois vectores −
→ →
v 2 = (y1 , y2 , ..., yn ) são iguais se
para qualquer i, 1 ≤ i ≤ n se tem xi = yi . Chama-se vector nulo, o vector


com todas as componentes iguais a zero e designa-se por 0 = (0, 0, ..., 0) . A
soma (adição) de dois vectores − →v 1 = (x1 , x2 , ..., xn ) e −

v 2 = (y1 , y2 , ..., yn )
define-se como sendo

→ v1+−
u =−
→ →
v 2 = (x1 + y1 , x2 + y2 , ..., xn + yn )

e a diferença (subtracção) é dada por



→ v1−−
w =−
→ →
v 2 = (x1 − y1 , x2 − y2 , ..., xn − yn ) .

Chama-se oposto de um vector − →v = (x1 , x2 , ..., xn ) o vector (−−



v ) que


existe sempre e tem a forma (− v ) = (−x1 , −x2 , ..., −xn ) . Sendo assim, a
diferença de dois vectores −→v1e− →v 2 é equivalente à soma do vector − →
v 1 com


o oposto do vector v 2 .
Tendo em conta estas questões, é fácil ver que quaisquer que sejam

− →

v , v 1, −

v2 e−→
v 3 , elementos de um conjunto V, a soma (adição) de vectores
verifica as seguintes propriedades:

v1+−
A1. →
− →
v 2 é um elemento de V (a operação de adição é fechada)

v1+−
A2. →
− →
v2=−

v2+−

v 1 (comutatividade)

A3. (→

v1+−

v 2) + −

v3=−

v 1 + (−

v2+−

v 3 ) (associatividade)
→ −
− → → −
A4. →

v + 0 = 0 +−
v =→
v (elemento neutro)


A5. →

v + (−−

v ) = (−−

v)+−

v = 0 (elemento oposto)

1
Note-se em especial a propriedade A1, ou seja, fazendo a soma de dois
vectores obtém-se sempre um vector do mesmo conjunto (fechado sob adição).

Chama-se multiplicação (produto) do vector −



v 1 = (x1 , x2 , ..., xn ) pelo


escalar α, ao vector α v 1 definido por

α−

v 1 = (αx1 , αx2 , ..., αxn ) .

Deduz-se de imediato que quaisquer que sejam os vectores − → v1 e−


v ,−
→ →
v2
de um conjunto V e os escalares reais α, α1 e α2 , verificam-se as seguintes
propriedades:

M1. α−→
v é um elemento de V (a operação de multiplicação por um escalar
é fechada)

v1+−
M2. α (−
→ →
v 2 ) = α−

v 1 + α−

v 2 (distributiva em relação à adição de vec-
tores)

M3. (α1 + α2 ) v = α1 v +α2 v (distributiva em relação à adição de escalares)

v ) = (α1 α2 ) −
M4. α1 (α2 −
→ →
v (distributiva em relação à multiplicação por
escalares)

M5. 1 · −

v =−

v (elemento neutro)

Definição 2 Um conjunto de elementos (vectores) V, dotado com as op-


erações de adição e de multiplicação por um escalar que verificam as pro-
priedades (A1 − A5) e (M 1 − M 5), designa-se por espaço vectorial.

Exemplo 3 O conjunto constituido só pelo vector nulo é um espaço vector-


ial. Para ver isto é preciso verificar as propriedades das operações induzidas
→ −
− → − →
no conjunto dado. Para adição: 0 + 0 = 0 e para multiplicação por um

− →

escalar: α 0 = 0 , ∀α ∈ R. Um espaço vectorial deve ter pelo menos um
elemento, o seu elemento nulo. Portanto um espaço vectorial que consiste
de um único elemento é o menor espaço vectorial possível.

Exemplo 4 O conjunto R dos números reais é um espaço vectorial. O con-


junto R2 dos pares de números reais é um espaço vectorial. Mais geral:
todas as sequências ordenadas de números reais, de n elementos, isto é
(x1 , x2 , ..., xn ) , onde n ∈ N, designa-se por Rn e forma um espaço vectorial
se as operações induzidas são as operações usuais de adição e multiplicação
dos números reais.

2
Exemplo 5 O conjunto V dos todos os vectores de tipo − →v = (a, b, 1) não
forma um espaço vectorial, porque os elementos desse conjunto não são
v 1 = (a1 , b1 , 1) e −
fechados sob adição. Para ver isto, considerem-se −
→ →
v2 =
(a2 , b2 , 1) elementos de V e a soma deles dá


v1+−

v 2 = (a1 , b1 , 1) + (a2 , b2 , 1) = (a1 + a2 , b1 + b2 , 2) ∈
/ V,

logo V não é um espaço vectorial.

Definição 6 Se V é um espaço vectorial, então o subconjunto de vectores


V1 ⊆ V diz-se um subespaço vectorial em V (de V ) se − →
v1 +−

v2 ∈

− →
− →
− →

V1 , ∀ v 1 , v 2 ∈ V1 ⊆ V e α v ∈ V1 , ∀ v ∈ V1 ⊆ V, ∀α ∈ R.

Portanto, dado um espaço vectorial V , um subconjunto V1 de V forma


um subespaço vectorial se as duas operações definidas no espaço ficam
fechadas para todos os elementos de V1 . Note-se que um subespaço vec-
torial contém sempre o vector nulo do espaço vectorial do qual provém
(ao qual pertence). O vector nulo é sempre um subespaço vectorial.
n−
→o
Exemplo 7 Os subespaços do espaço vectorial R2 são: o espaço nulo 0 ,
uma recta que passa pela origem e o espaço inteiro R2 .

Exemplo
n− 8 Os possíveis subespaços do espaço vectorial R3 são: o espaço
→o
nulo 0 , uma recta que passa pela origem, um plano que passa pela origem
e o espaço inteiro R3 .

Exemplo 9 Mostra-se a seguir que uma recta L que passa pela origem
forma um subespaço vectorial de R3 . É evident do ponto de vista geométrico
que a soma de dois vectores situados na recta ainda pertence a recta e que o
produto de um vector da recta por um escalar continua a pertencer a recta
L. Logo L é fechado sob adição e multiplicação por um escalar e o vector
nulo pertence a recta pela construção o que implica que L é um subespaço
vectorial de R3 . Nota-se que uma recta qualquer que não passa pela origem
não pode gerar um subespaço vectorial, apesar de estar fechado sob adição e
multiplicação por um escalar.

Exemplo 10 O conjunto R+ não é um subespaço vectorial de R porque as


operações de R não são fechadas em R+ . Por exemplo, se −

v = 2 ∈ R+ e
α = −1 escalar real então α−
→ / R+ .
v = −1 · 2 = −2 ∈

3
0.1.2 Dependência e Independência Linear de Vectores. Bases
e Dimensão de um Espaço Vectorial
Definição 11 Sejam − →
v 1, −

v 2 , ..., −

v m vectores de V e sejam α1 , α2 , ..., αm
escalares de R. Então, o elemento
m
X


v = αi −

v i = α1 −

v 1 + α2 −

v 2 + ... + αm −

vm
i=1

designa-se combinação linear dos vectores − →v i , 1 ≤ i ≤ m. O conjunto


W de todas as combinações lineares dos vectores − →v 1, −

v 2 , ..., −

v m é o menor

− →
− →

subespaço de V que contém os vectores v 1 , v 2 , ..., v m . O subespaço W
chama-se espaço gerado (span) de − v 1, −
→ →
v 2 , ..., −

v m , e os vectores dizem-
se geradores de W

v 1, −
W = span {−
→ → v m } = {α1 −
v 2 , ..., −
→ →
v 1 + ... + αm −

v m , ∀α1 , ..., αm ∈ R}

Exemplo 12 O subconjunto S de R3 definido por

S = {(x, y, z) : x − 3y + 4z = 0}

é um subespaço de R3 sob as operações usuais de adição e multiplicação por


escalares. Para parametrizar este subespaço, toma-se a equação x−3y+4z =
0 como sendo um sistema linear homogéneo de uma equação a três incógnitas
e expressa-se a incógnita principal x em função das incógnitas não principais
y e z, isto é
x = 3y − 4z.

Assim, o subespaço vectorial S toma a seguinte forma parametrizada

S = {(3y − 4z, y, z) : y, z ∈ R} = {(3y, y, 0) + (−4z, 0, z) : y, z ∈ R}


= {y (3, 1, 0) + z (−4, 0, 1) : y, z ∈ R}

e portanto está descrito por uma colecção sem restrições de combinações lin-
eares dos vectores (3, 1, 0) e (−4, 0, 1) ou seja S = span {(3, 1, 0) , (−4, 0, 1)}

Exemplo 13 Os vectores − →
v = (1, 1) e −

u = (1, −1) são geradores do espaço
vectorial R . Para ver isto é preciso mostrar que qualquer elemento −
2 →w =
2
(x, y) de R é uma combinação linear destes dois vectores, isto é, existem
escalares reais a1 , a2 tal que

a1 −

u + a2 −

v =−

w

4
ou seja
a1 (1, 1) + a2 (1, −1) = (x, y)

o que é equivalente ao sistema


½
a1 + a2 = x
a1 − a2 = y.
¡ x+y ¢
A solução deste sistema é (a1 , a2 ) = x−y 2 , 2 , portanto quaisquer que
sejam x, y ∈ R, existem coeficientes a1 , a2 ∈ R tal que a equação vectorial
seja possível, ou seja, qualquer vector de R2 pode ser escrito como uma
combinação linear dos vectores −→
u e− →
v.

Exemplo 14 Seja U = span {(1, 1) , (2, 0)} . Verifica se o vector −



v = (−3, 5)
pertence ao span {(1, 1) , (2, 0)} = U.

O vector −→v = (−3, 5) ∈ span {(1, 1) , (2, 0)} se o vector →



v é uma com-
binação linear dos vectores do span {(1, 1) , (2, 0)} , isto é


v = α1 (1, 1) + α2 (2, 0) ⇔ (−3, 5) = α1 (1, 1) + α2 (2, 0)
⎧ ⎧
⎨ α1 + 2α2 = −3 ⎨ α2 = −4
⎩ ⎩
α1 = 5 α1 = 5

Portanto →

v = (−3, 5) ∈ span {(1, 1) , (2, 0)} ,nomeadamente


v = α1 (1, 1) + α2 (2, 0) = 5 (1, 1) − 4 (2, 0)

Definição 15 Dados os vectores − →v 1, −



v 2 , ..., −

v n , diz-se que são linear-
mente dependentes se existem os números reais α1 , α2 , ..., αn , não todos
nulos, tal que se verifica a seguinte relação
n
X
αi −

v i = α1 −

v 1 + α2 −

v 2 + ... + αn −

v n = 0.
i=1
P
Definição 16 Se a igualdade ni=1 αi − →v i = α1 −

v 1 + α2 −

v 2 + ... + αn −

vn=0
se verifica se e só se α1 = α2 = ... = αn = 0, então diz-se que os vectores

−v 1, −

v 2 , ..., −

v n são linearmente independentes.
Pn −

Note-se que a relação i=1 αi v i = 0 pode ser dada na seguinte forma
n
X
αi −

v i = α1 −

v 1 + α2 −

v 2 + ... + αn −

vn=
i=1

5
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
x11 x12 x1n 0
⎢ x21 ⎥ ⎢ x22 ⎥ ⎢ x2n ⎥ ⎢ 0 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
= α1 ⎢ .. ⎥ + α2 ⎢ .. ⎥ + ... + αn ⎢ .. ⎥=⎢ .. ⎥
⎣ . ⎦ ⎣ . ⎦ ⎣ . ⎦ ⎣ . ⎦
xm1 xm2 xmn 0
o que conduz a um sistema linear homogéneo, sobre o qual sabemos que
admite sempre a solução nula. O conjunto das soluções de um sistema
homogéneo com n incógnitas é um subespaço vectorial do espaço Rn . Seja
A(m×n) a matriz das coordenadas dos vectores, isto é
⎡ ⎤
x11 x12 · · · x1n
£ → ¤ ⎢ ⎢ x21 x22 · · · x2n ⎥

A= − v 1| −→
v 2 | ... |−

vm =⎢ . .. .. .. ⎥
⎣ .. . . . ⎦
xm1 xm2 · · · xmn

e designa-se por r (A) a característica dessa matriz. Obtém-se a seguinte


classificação:

• se n > m (o número de vectores é superior à dimensão do espaço ao


qual pertencem), então os vectores −

v 1, −

v 2 , ..., −

v n são sempre linear-
mente dependentes;

• se n ≤ m (o número de vectores é inferior ou igual à dimensão do


espaço ao qual pertencem), então os vectores − v 1, −
→ →
v 2 , ..., −

v n são lin-
earmente dependentes se e só se r (A) < n. Se r (A) = n, então os
v 1, −
vectores −
→ →
v 2 , ..., −

v n são linearmente independentes.

Exemplo 17 Os vectores → −
u = (1, 1/2), →

v = (2, 1) e →

w = (−2, −1) são
linearmente dependentes.

- Graficamente (veja Figura 1)


- Analiticamente tem-se a seguinte combinação linear

α1 −

u + α2 −

v + α3 −

w = 0 ⇒ α1 (1, 1/2) + α2 (2, 1) + α3 (−2, −1)
¡ ¢
= α1 + 2α2 − 2α3 , 12 α1 + α2 − α3 = (0, 0)

o que é equivalente ao sistema homogéneo



⎨ α1 + 2α2 − 2α3 = 0
⎩ 1
2 α1 + α2 − α3 = 0.

Saliente-se que o sistema é duplamente indeterminado e a sua solução é


dada pela família (α1 , α2 , α3 ) = (2α3 − 2α2 , α2 , α3 ) , ∀α2 , α3 ∈ R. A sua

6
r
R u = (1,1 / 2)
r
v = (2,1)
r
1 w = (− 2,−1)
1/2 r
v
-2 -1
r
u R
r 1 2
w
-1

Figura 1: Vectores linearmente dependentes

resolução também é equivalente ao estudo da dependência linear das filas da


matriz das coordenadas dos vectores (ou dos coeficientes do sistema), isto é:
⎡ ⎤
1 2 −2
A=⎣ ⎦
1/2 1 −1

Como n = 3 > m = 2, logo os vectores são linearmente dependentes. Como


consequência, escreve-se
α2 − α3 →
α1 −

u + α2 −

v + α3 −

w = 0 ⇒ α1 −

u = −α2 −

v − α3 −

w ⇒−

u =− →
v − −
w
α1 α1
portanto →

u é uma combinação linear de →

v e→

w.

Exemplo 18 Os vectores →

u = (1, 2) e →

v = (2, 4) são linearmente depen-
dentes.

- Graficamente (veja Figura 2):


- Analiticamente, tem-se a seguinte combinação linear

α1 −

u + α2 −

v = 0 ⇒ α1 (1, 2) + α2 (2, 4) = (0, 0)

o que é equivalente ao sistema homogéneo



⎨ α1 + 2α2 = 0

2α1 + 4α2 = 0

Note-se que o sistema é indeterminado e a sua solução é dada pela família


(α1 , α2 ) = (−2α2 , α2 ) , ∀α2 ∈ R. A resolução também é equivalente à

7
R

r
u = (1 , 2 )
4

r
v = (2 , 4 )
3
r
v
2

1 r
u

O 1 2 R

Figura 2: Vectores linearmente dependentes

do estudo da dependência linear das filas da matriz das coordenadas dos


vectores (ou dos coeficientes do sistema), isto é:
⎡ ⎤
1 2
A=⎣ ⎦
2 4

A característica desta matriz é 1 (a matriz tem filas proporcionais), logo


n = 1 < m = 2, pelo que os vectores são linearmente dependentes. Como
consequência, escreve-se

α1 −

u + α2 −

v = 0 ⇒ −2α2 −

u + α2 −

v =0 ⇒ →

v = 2−

u

portanto →

v é uma combinação linear de →

u.

Exemplo 19 Os vectores →

u = (1, −1) e →

v = (2, 1) são linearmente inde-
pendentes.

- Graficamente (veja Figura 3):


- Analiticamente tem-se a seguinte combinação linear

α1 −

u + α2 −

v = 0 ⇒ α1 (1, −1) + α2 (2, 1) = 0,

de onde se obtém o sistema linear homogéneo



⎨ α1 + 2α2 = 0

−α1 + α2 = 0

8
R
r
2
r u = (1,−1)
v r
v = (2,1)
1

-1 O 1 2 R

-1 r
u

Figura 3: Vectores linearmente independentes

cuja matriz dos coeficientes tem determinante não nulo, isto é


¯ ¯
¯ 1 2 ¯
¯ ¯
¯ −1 1 ¯ = 3 6= 0,

logo o sistema é possível e determinado, admitindo como solução única a


solução trivial α1 = 0 e α2 = 0 e, portanto, os vectores são linearmente
independentes.

Observação 20 Se os vectores − →v 1, −

v 2 , ..., −

v n são linearmente dependentes,
então um deles pode ser escrito como uma combinação linear dos outros e
reciprocamente.

Observação 21 Dois vectores são linearmente independentes se nenhum


deles for um múltiplo escalar do outro.

Observação 22 Se um conjunto finito de vectores contém o vector nulo,


então os vectores são linearmente dependentes.

Observação 23 Seja V = {− v 1 , ..., −


→ →
v n } um conjunto de n vectores. Se

− →

alguns dos vectores v 1 , ..., v n são linearmente dependentes, então todos
também o são.

Exemplo 24 Os vectores − →u = (1, −3) e →



v = (−1/3, 1) são linearmente

− →

dependentes porque v = 3 u .

Exemplo 25 Os vectores − →
u = (1, 1, 2) , −

v = (−1, 4, 3) e →

w = (5, −5, 0)
são linearmente dependentes porque −

w = 3− →
u − 2−

v.

9
Definição 26 Um conjunto de vectores que geram um espaço vectorial e
são linearmente independentes, designa-se por base do espaço. Diz-se
que um espaço vectorial tem dimensão n quando contém uma base com n
elementos.
n−→ → o

Teorema 27 Se B = b 1 , ..., b n é uma base de um espaço vectorial V ,
então cada vector −

v = (x , ..., x ) ∈ V vem unicamente representado por
1 n
uma combinação linear das suas coordenadas e dos vectores da base, isto é

→ →
− →

v = x1 b 1 + ... + xn b n .

Exemplo 28 O conjunto dos vectores {(2, 4) , (1, 1)} forma uma base do
espaço R2 . Para ver isso precisamos verificar se os vectores são linearmente
independentes. Os vectores são linearmente independentes porque
⎧ ⎧
⎨ 2α1 + α2 = 0 ⎨ α1 = 0
α1 (2, 4) + α2 (1, 1) = (0, 0) ⇒ ⇒
⎩ ⎩
4α1 + α2 = 0 α2 = 0

logo, formam uma base para R2 . Analogamente pode-se verificar que os vec-
tores {(1, 1) , (2, 4)} e os vectores {(1, 0) , (0, 1)} formam também bases para
o espaço vectorial R2 .

Definição 29 Para qualquer espaço vectorial Rn o conjunto de vectores

En = {(1, 0, ..., 0) , (0, 1, ..., 0) , ..., (0, 0, ..., 1)}

forma uma base designada por base canónica (ou natural). Designemos
e 1, −
os vectores da base canónica por −
→ →
e 2 , ...., −

e n.

Exemplo 30 A base canónica do espaço R4 é dada por

E4 = {(1, 0, 0, 0) , (0, 1, 0, 0) , (0, 0, 1, 0) , (0, 0, 0, 1)} .

Exemplo 31 O espaço vectorial nulo tem uma única base que consiste
no conjunto vazio.

Exemplo 32 Determine a dimensão do subespaço S de R4 , onde

S = {(x, y, z, w) : x − y − w = 0 e z + 2w = 0} .

10
Para determinar a dimensão do subespaço S é preciso parametrizar a
descrição do subespaço, isto é
⎧ ⎧
⎨ x−y−w =0 ⎨ x=y+w

⎩ ⎩
z + 2w = 0 z = −2w

logo

S = {(x, y, z, w) : x = y + w = 0 e z = −2w} = {(y + w, y, −2w, w) : y, w ∈ R} =


= {(y, y, 0, 0) + (w, 0, −2w, w) : y, w ∈ R} = {y (1, 1, 0, 0) + w (1, 0, −2, 1) : y, w ∈ R} .

Portanto, definimos o subespaço S como o espaço gerado pelos vectores


(1, 1, 0, 0) , (1, 0, −2, 1) isto é

span {(1, 1, 0, 0) , (1, 0, −2, 1)} .

É fácil ver que estes dois vectores são linearmente independentes, logo for-
mam uma base de S, de onde vem que S é um subespaço vectorial de di-
mensão 2 do espaço R4 .

Teorema 33 Qualquer base de um espaço vectorial tem o mesmo número


de elementos.

Teorema 34 Num espaço vectorial de dimensão n, quaisquer n vectores


linearmente independentes formam uma base. Num espaço vectorial de di-
mensão n, quaisquer (n + 1) vectores são sempre linearmente dependentes.

Definição
n− 35 Seja Vo um espaço vectorial de dimensão n. Dada uma base
→ − → →

B = b 1 , b 2 , ..., b n do espaço vectorial, qualquer vector −

v do espaço V,


→ →
− →
− →

v = α1 b 1 + α2 b 2 + ... + αn b n

vem representado pela matriz (vector) coluna dos coeficientes utilizados na


combinação linear que o define, isto é,
⎡ ⎤
α1
⎢ α2 ⎥

− ⎢ ⎥
vB=⎢ . ⎥ .
⎣ .. ⎦
αn B

Estes coeficientes designam-se por coordenadas de →



v em relação à base B.

11
Exemplo 36 Encontre a representação do vector − →
v = (1, 2) em relação à
base canónica E2 = {(1, 0) , (0, 1)} e em relação à base B = {(2, 0) , (1, 1)} .

Em relação à base canónica, o vector − →v define-se pela seguinte combi-


nação linear dos vectores da base e dos coeficientes (escalares) a1 , a2

a1 (1, 0) + a2 (0, 1) = (1, 2)

pelo que ⎧ ⎡ ⎤
⎨ a1 = 1 1
⇒ −

v E2 = ⎣ ⎦ .

a2 = 2 2 E2
Em relação à base B = {(2, 0) , (1, 1)} o vector →

v define-se pela seguinte
combinação linear dos vectores da base e dos coeficientes (escalares) c1 , c2

c1 (2, 0) + c2 (1, 1) = (1, 2)

de onde
⎧ ⎧ ⎡ ⎤
⎨ 2c1 + c2 = 1 ⎨ c1 = −1/2 −1/2
⇒ ⇒ −

vB=⎣ ⎦ .
⎩ ⎩
c2 = 2 c2 = 2 2 B
n−→ − → −→ o
Exemplo 37 Seja B = b 1 , b 2 , b 3 = {(1, 2, 1) , (2, 9, 0) , (3, 3, 4)} uma
base de R3 . Encontre as coordenadas do vector −

v = (5, −1, 9) na base B. En-
contre o vector u de R cujas coordenadas na base B são −

→ 3 →u = (−1, 3, 2) . B

Para a primeira questão temos que determinar os escalares x1 , x2 , x3 tal


que

→ →
− →
− →

v = x1 b 1 + x2 b 2 + x3 b 3
ou, em termos das suas componentes

(5, −1, 9) = x1 (1, 2, 1) + x2 (2, 9, 0) + x3 (3, 3, 4)

o que implica o seguinte sistema


⎧ ⎧
⎨ x1 + 2x2 + 3x3 = 5 ⎨ x1 = 1
2x1 + 9x2 + 3x3 = −1 ⇒ x = −1 .
⎩ ⎩ 2
x1 + 4x3 = 9 x3 = 2

A solução do sistema dá as coordenadas do vector − →v na base B, isto é




v B = (1, −1, 2) .
Na segunda questão utiliza-se a definição do vector − →u e obtém-se

− →
− →
− →

u = −1 b 1 + 3 b 2 + 2 b 3 = −1 (1, 2, 1) + 3 (2, 9, 0) + 2 (3, 3, 4) = (11, 31, 7) .

12
0.1.3 Matriz de Mudança de Base
Um vector −→v pode ser representado em bases diferentes. Fazendo a conver-
são do vector −

v de uma base B para uma base D o vector não muda, o que
muda é a sua representação relativa às bases.

Definição 38 Seja V um espaço vectorial de dimensão n e sejam


n−→ − → → o
− n−
→ − → → o

B = b 1 , b 2 , ..., b n e D = d 1 , d 2 , ..., d n

duas bases de V. A matriz de mudança de base MBD é a matriz quadrada


de ordem n cujas elementos são as coordenadas dos vectores da base D em
relação a base B. Cada vector de D em relação a base B representa uma
coluna da matriz da mudança de base.


Concretamente: considera-se que o vector d 1 pode ser representado pela
seguinte combinação linear de vectores da base B

→ →
− →
− →

d 1 = a11 b 1 + a21 b 2 + ... + an1 b n = (a11 , a21 , ..., an1 )

e, analogamente

→ →
− →
− →

d 2 = a12 b 1 + a22 b 2 + ... + an2 b n = (a12 , a22 , ..., an2 )
..
.

→ →
− →
− →

d n = a1n b 1 + a2n b 2 + ... + ann b n = (a1n , a2n , ..., ann )

o que gera a seguinte matriz de mudança de base


⎡ ⎤
a11 a12 ... a1n
⎢ a21 a22 ... a2n ⎥
⎢ ⎥
MBD = ⎢ .. ⎥.
⎣ ··· ··· . ··· ⎦
an1 an2 ... ann

Sendo assim, a relação entre a representação de um vector →



v em duas
bases diferentes B e D é dada por

→ vD ⇒ −
v B = MBD −
→ → −1 −
v D = MBD →
vB

Exemplo 39 Considere o vector − →


v = (3, 4, −1) definido na base canónica
do espaço vectorial R . Determine as coordenadas do vector −
3 →v na base B =
{(1, 1, 0) , (2, 2, −1) , (0, 1, 1)} .

13
Para determinar as coordenadas do vector − →v na base B é preciso con-
hecer a matriz de mudança de base. Por isso vejamos as coordenadas
de cada um dos vectores da base B em relação a base canónica E3 =
{(1, 0, 0) , (0, 1, 0) , (0, 0, 1)} .


b 1 = 1− →e 1 + 1−

e 2 + 0−

e 3 = (1, 1, 0)


b 2 = 2− →e 1 + 2−

e 2 + (−1) −

e 3 = (2, 2, −1)

− →
− →
− →

b 3 = 0 e 1 + 1 e 2 + 1 e 4 = (0, 1, 1)

de onde ⎡ ⎤
1 2 0
ME3 B = ⎣ 1 2 1 ⎦.
0 −1 1
Então
v E3 = ME3 B −

→ →
vB
de onde


v B = ME−1 →

v E3
3B

Portanto, ainda é preciso determinar a inversa da matriz de mudança de


base, isto é ⎡ ⎤
c 3 −2 2
ME3 B
ME−13B
= = ⎣ −1 1 −1 ⎦ .
|ME3 B |
−1 1 0
Então ⎡ ⎤⎡ ⎤ ⎡ ⎤
3 −2 2 3 −1


v B = ⎣ −1 1 −1 ⎦ ⎣ 4 ⎦ = ⎣ 2 ⎦
−1 1 0 −1 1
Note-se que, quando o vector é dado na base canónica, a matriz de
mudança de base é simplesmente a matriz cujas elementos são os vectores
da nova base.
n−
→ − → o
Exemplo 40 Considere o vector −
→v = (−2, 5) definido na base B = b 1 , b 2 =
vectorial R2 . Determine as coordenadas do vector
{(2, 1) , (1, 0)} don espaço o

− →
− →

v na base D = d 1 , d 2 = {(−1, 1) , (1, 1)} .

Matriz de mudança de base:



− →
− →

d 1 = a11 b 1 + a21 b 2 = a11 (2, 1) + a21 (1, 0) = (−1, 1)
⎧ ⎧
⎨ 2a11 + a21 = −1 ⎨ a21 = −3
⇒ ⇒
⎩ ⎩
a11 = 1 a11 = 1
³−
→ ´
d1 = (a11 , a21 ) = (1, −3)
B

14

→ →
− →

d2 = a12 b 1 + a22 b 2 = a12 (2, 1) + a22 (1, 0) = (1, 1)
⎧ ⎧
⎨ 2a12 + a22 = 1 ⎨ a22 = −1
⇒ ⇒
⎩ ⎩
a12 = 1 a12 = 1
→ ´
³−
d2 = (a12 , a22 ) = (1, −1)
B

logo ∙ ¸ ∙ ¸
1 1 −1 −1/2 −1/2
MBD = ⇒ MBD =
−3 −1 3/2 1/2
e ∙ ¸∙ ¸ ∙ ¸

→ −1/2 −1/2 −2 −3/2
vD= = .
3/2 1/2 5 −1/2

0.2 Transformações Lineares


0.2.1 Generalidades
Definição 41 Dados dois espaços vectoriais V e W diz-se que uma apli-
cação T : V → W é uma transformação linear se preserva as operações
de adição e de multiplicação por escalares, isto é

T (−

u +−

v ) = T (−

u ) + T (−

v ) e T (α−

u ) = αT (−

u ), ∀→

u,−

v ∈ V, ∀α ∈ K,

ou, equivalentemente

T (α−

u + β−

v ) = αT (−

u ) + βT (−

v ), ∀→

u,−

v ∈ V, ∀α, β ∈ K.

Uma transformação linear também se designa por homomorfismo.

Exemplo 42 A aplicação T : R3 → R definida por

T (x, y, z) = −3x + 4y + z

é uma transformação linear, mas a aplicação S : R3 → R definida por

S (x, y, z) = −3x + 4y + z + 8

não é uma transformação linear.

15
No primeiro caso: sejam −

u = (x1 , y1 , z1 ),−

v = (x2 , y2 , z2 ) vectores quais-
3
quer de R e sejam α, β escalares reais. Então

T (α−

u + β−

v ) = T (α (x1 , y1 , z1 ) + β (x2 , y2 , z2 )) =
= T ((αx1 , αy1 , αz1 ) + (βx2 , βy2 , βz2 ))
= T (αx1 + βx2 , αy1 + βy2 , αz1 + βz2 )
= −3αx1 − 3βx2 + 4αy1 + 4βy2 + αz1 + βz2
= (−3αx1 + 4αy1 + αz1 ) + (−3βx2 + 4βy2 + βz2 )
= α (−3x1 + 4y1 + z1 ) + β (−3x2 + 4y2 + z2 )
= αT (x1 , y1 , z1 ) + βT (x2 , y2 , z2 ) = αT (−

u ) + βT (→

v ),

o que mostra a linearidade da transformação T .


No segundo caso: para demonstrar que uma transformação não é linear
basta encontrar dois vectores que não verificam a definição de linearidade.
Sejam −→
u = (1, 2, 3) , −

v = (4, 5, 6) ∈ R3 e sejam α, β escalares reais. Então

S(α−

u + β−

v ) = S (α (1, 2, 3) + β (4, 5, 6)) =
= S ((α, 2α, 3α) + (4β, 5β, 6β))
= S (α + 4β, 2α + 5β, 3α + 6β)
= −3(α + 4β) + 4(2α + 5β) + 3α + 6β + 8
= −3α − 12β + 8α + 20β + 3α + 6β + 8
= 8α + 14β + 8 6= 16α + 22β
= α (−3 · 1 + 4 · 2 + 3 + 8) + β (−3 · 4 + 4 · 5 + 6 + 8)
= αS (1, 2, 3) + βS (4, 5, 6) = αS (−

u ) + βS (− →
v ),

o que mostra a não-linearidade da transformação S.

Nota 43 Observe-se que para uma transformação ser linear as suas coor-
denadas devem ser combinações lineares dos argumentos.

Sejam V e W dois espaços vectoriais quaisquer e seja T : V → W


uma transformação linear. A imagem T (− →v ) de um vector −
→v ∈ V pela
transformação T (quando a expressão da transformação linear é conhecida)
obtém-se substituindo o vector dado nas expressões da transformação.
É interessante observar que a cada transformação linear T se faz asso-
ciar uma matriz A de tipo (m × n) , onde m é a dimensão do contradomínio
e n é a dimensão do domínio da transformação. O domínio da transfor-
mação linear é o espaço V, que tem sempre dimensão bem definida. O

16
contradomínio de T define-se como sendo o conjunto de todos os vectores
do espaço de chegada W que são imagens sob T de pelo menos um vector
de V e designa-se por Im (T ). O contradomínio de T é um subespaço de
W e a dimensão de Im (T ) designa-se por característica da transformação.
A matriz A determina completamente a transformação à qual está associ-
ada. Sendo assim, todas as propriedades da transformação linear
transitam para a matriz que a representa.

Definição 44 Sejam V e W dois espaços vectoriais e seja T : V → W


uma transformação linear onde a dimensão do domínio V é n e a dimensão
do contradomínio W é m. A imagem T (− →v ) de um vector −

v ∈ V pela


transformação T (ou o transformado de v ∈ V ) é dada por:

T (−

v ) = A−

v

onde
⎡ ⎤
a11 a12 ··· a1n
£ ¤ ⎢⎢ a21 a22 ··· a2n ⎥

A= e 1 )| T (−
T (−
→ →
e 2 )| ... |T (−

e n) = ⎢ .. .. .. ⎥
⎣ . . . ⎦
am1 am2 · · · amn

é uma matriz do tipo (m × n) que define a transformação linear, sendo



→e 1, −

e 2 , ..., −

e n os vectores da base canónica do espaço V. Portanto, a im-
agem de um vector − →v = (x1 , x2 , ..., xn ) ∈ V determina-se pela seguinte
multiplicação matricial
⎡ ⎤⎡ ⎤ ⎡ ⎤
a11 a12 · · · a1n x1 y1
⎢ a21 a22 · · · a2n ⎥ ⎢ x2 ⎥ ⎢ y2 ⎥

− →
− ⎢ ⎥⎢ ⎥ ⎢ ⎥
T( v ) = A v = ⎢ . .. .. ⎥ ⎢ .. ⎥ = ⎢ .. ⎥ .
⎣ .. . . ⎦ ⎣ . ⎦ ⎣ . ⎦
am1 am2 · · · amn xn yn

Conclui-se que uma transformação linear pode ser representada e que


é completamente determinada por uma matriz cujos elementos são as im-
agens dos vectores da uma base qualquer do espaço domínio dadas pela
transformação.

Exemplo 45 Seja T : R3 → R2 uma transformação linear definida por


T (x, y, z) = (x − y + z, x + y − z) . Determine a matriz A que representa
a transformação T (na base canónica) e calcule a imagem do vector − →v =
(8, −2, 1) por T.

17
A matriz A que representa a transformação T é de tipo (2 × 3) e as suas
colunas são as imagens por T dos vectores da base canónica do espaço R3 ,
isto é

T (1, 0, 0) = (1, 1) , T (0, 1, 0) = (−1, 1) , T (0, 0, 1) = (1, −1)

logo ∙ ¸
1 −1 1
A= .
1 1 −1
Tem-se então que
⎡ ⎤
∙ ¸ 8 ∙ ¸
1 −1 1 ⎣ −2 ⎦ = 11 .
T (→

v ) = A−

v ⇔ T (8, −2, 1) =
1 1 −1 5
1

Definição 46 Sejam S : V → W e T : V → W duas transformações


lineares dos espaços vectoriais V e W , sobre o corpo real R. Define-se a
soma S + T como sendo a transformação

(S + T )(−

v ) = S(−

v ) + T (−

v ), ∀−

v ∈ V.

Facilmente se prova que S + T é uma transformação linear e que, sendo A


a matriz de S e B a matriz de T,

(S + T )(−

v ) = (A + B)(−

v)

ou seja S + T é dada por A + B.

Note-se que a soma de duas transformações lineares é sempre possível


quando as matrizes associadas são do mesmo tipo. A transformação resul-
tante da soma é uma transformação linear.

Exemplo 47 Sejam T : R2 → R3 e S : R2 → R3 duas transformações


lineares definidas por

T (x, y) = (x + 2y, y, −3x) e S (x, y) = (−2x, x + y, −x − y) .

Calcule a soma das duas transformações lineares.

Com transformações

T (x, y) + S (x, y) = (x + 2y, y, −3x) + (−2x, x + y, −x − y)


= (−x + 2y, x + 2y, −4x − y) .

18
Em termos das matrizes associadas, as transformações lineares são
⎡ ⎤
¾ 1 2
T (1, 0) = (1, 0, −3)
⇒ A=⎣ 0 1 ⎦
T (0, 1) = (2, 1, 0)
−3 0
⎡ ⎤
¾ −2 0
S (1, 0) = (−2, 1, −1)
⇒ B=⎣ 1 1 ⎦
S (0, 1) = (0, 1, −1)
−1 −1

donde

(T + S) (x, y) = T (x, y) + S (x, y) = (A + B) (x, y)


⎛⎡ ⎤ ⎡ ⎤⎞
1 2 −2 0 ∙ ¸
x
= ⎝⎣ 0 1 ⎦ + ⎣ 1 1 ⎦⎠
y
−3 0 −1 −1
⎡ ⎤ ⎡ ⎤
−1 2 ∙ ¸ −x + 2y
x
= ⎣ 1 2 ⎦ = ⎣ x + 2y ⎦
y
−4 −1 −4x − y
= (−x + 2y, x + 2y, −4x − y) .

Definição 48 Seja T : V → W (com dim (V ) = n e dim (W ) = m)


uma transformação linear definida pela matriz A(m×n) e seja S : W → U
(dim (W ) = p) uma transformação linear definida pela matriz B(p×m) . A
composição de S por T designa-se por S ◦ T e é dada pela fórmula

(S ◦ T ) (−

v ) = S (T (−

v )) , ∀→

v ∈W

Em notação matricial, a composição da transformação linear S com a trans-


formação linear T é dada pelo produto das matrizes associadas, isto é

C(p×n) = B(p×m) · A(m×n) .

Observe-se que esta definição requer que o domínio de S e o contradomínio


de T tenham a mesma dimensão, para tornar possível a operação definida
(em particular, a multiplicação das matrizes associadas). A composição de
duas transformações lineares gera uma nova transformação linear.

Exemplo 49 Sejam T : R2 → R3 e S : R3 → R duas transformações


lineares definidas por

T (x, y) = (x + 2y, y, −3x + 4y) e S (x, y, z) = 2x − y + 3z.

Calcule a composição (S ◦ T ) (x, y) das duas transformações lineares.

19
Em termos das transformações, determina-se (S ◦ T ) : R2 → R como
sendo

(S ◦ T ) (x, y) = (S (T (x, y))) = S (x + 2y, y, −3x + 4y)


= 2 (x + 2y) − (y) + 3 (−3x + 4y) = −7x + 15y.

Em termos das matrizes associadas as transformações lineares


⎡ ⎤
¾ 1 2
T (1, 0) = (1, 0, −3)
⇒ A=⎣ 0 1 ⎦
T (0, 1) = (2, 1, 4)
−3 4

S (1, 0, 0) = 2 ⎬ £ ¤
S (0, 1, 0) = −1 ⇒ B = 2 −1 3

S (0, 0, 1) = 3

de onde

(S ◦ T ) (x, y) = S (T (x, y)) = (B × A) (x, y)


⎡ ⎤
£ ¤ 1 2 ∙ ¸
x
= 2 −1 3 ⎣ 0 1 ⎦
y
−3 4
∙ ¸
£ ¤ x
= −7 15 = [−7x + 15y] = −7x + 15y.
y

Definição 50 Seja T : V → W uma transformação linear, onde dim (V ) =


n e dim (W ) = m. Chama-se núcleo da transformação linear T e designa-se
por N uc (T ) o conjunto dos todos os vectores −

v de V cuja imagem por T é
o vector nulo, isto é


N uc (T ) = {−

v ∈ V : T (−

v ) = 0 }.

O núcleo é um subespaço vectorial de V. A dimensão do núcleo chama-se


nulidade de T e designa-se por nul (T ) .

Exemplo 51 Determine o núcleo e a nulidade da seguinte transformação


linear: T : R2 → R2 , onde T (x, y) = (x − y, 2x + y) .

Considere-se →

v = (x, y) ∈ R2 o vector genérico do espaço dado, então
tem-se que

Nuc (T ) = {(x, y) ∈ R2 : T (x, y) = (0, 0)}


= {(x, y) ∈ R2 : (x − y, 2x + y) = (0, 0)}

20
o que é equivalente ao sistema homogéneo determinado
½ ½
x−y =0 x=0
⇔ ,
2x + y = 0 y=0

logo
Nuc (T ) = {(0, 0)}

e a dimensão do núcleo nul (T ) = 0.

Exemplo 52 Determine o núcleo e a nulidade da seguinte transformação


linear: T : R2 → R2 , onde T (x, y) = (−x + y, 2x − 2y) .

Considere-se →

v = (x, y) ∈ R2 o vector genérico do espaço dado, então
tem-se que

N uc (T ) = {(x, y) ∈ R2 : T (x, y) = (0, 0)}


= {(x, y) ∈ R2 : (−x + y, 2x − 2y) = (0, 0)}

o que é equivalente ao sistema homogéneo indeterminado de grau 1


½ ½
−x + y = 0 x=y
⇔ ⇒ (x, y) = (y, y) , ∀y ∈ R
2x − 2y = 0 0=0

logo
N uc (T ) = {(y, y) , ∀y ∈ R}

e a dimensão do núcleo nul (T ) = 1.

Teorema 53 (de dimensão). Se T : V → W é uma transformação linear,


onde dim (V ) = n, então

dim(Im (T )) + dim(N uc (T )) = dim (V ) ⇔ r (A) + nul (A) = n.

Doutro modo, a dimensão do espaço domínio de uma transformação lin-


ear é igual a soma entre característica da matriz A que representa a trans-
formação (que é a dim (Im (T ))) e a dimensão do núcleo (nulidade).

Exemplo 54 Seja T : R3 → R3 uma transformação linear definida por

T (x1 , x2 , x3 ) = (−x1 + 2x2 , 3x1 − 7x2 + 2x3 , 2x1 − 5x2 + 2x3 ) .

Determine a característica (dim (Im (T ))) e a nulidade (dim (Nuc(t))) da


transformação linear T .

21
Convém trabalhar com a matriz associada à transformação linear, isto é
⎫ ⎡ ⎤
T (1, 0, 0) = (−1, 3, 2) ⎬ −1 2 0
T (0, 1, 0) = (2, −7, −5) ⇒ A = ⎣ 3 −7 2 ⎦ .

T (0, 0, 1) = (0, 2, 2) 2 −5 2

A característica da transformação linear é igual à característica da matriz


A. Por isso, para determinar r (A) procedemos à condensação da matriz
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
−1 2 0 −1 2 0 −1 2 0
L (3)+L
A = ⎣ 3 −7 2 ⎦ −→L11 (2)+L23 ⎣ 0 −1 2 ⎦ −→L2 (−1)+L3 ⎣ 0 −1 2 ⎦
2 −5 2 0 −1 2 0 0 0

donde se tem que a característica da matriz A é 2.


A nulidade da matriz A é o grau de indeterminação do sistema homogé-
neo cuja matriz dos coeficientes é a matriz A, isto é
⎡ ⎤⎡ ⎤ ⎡ ⎤
−1 2 0 x1 0
⎣ 3 −7 2 ⎦ ⎣ x2 ⎦ = ⎣ 0 ⎦
2 −5 2 x3 0

Como a matriz A tem característica 2, e considerando


¯ ¯
¯ −1 2 ¯¯
∆=¯ ¯ 6= 0
0 −1 ¯

o determinate principal do sistema, têm-se 2 incógnitas principais: x1 , x2 e


uma incógnita não-principal: x3 . O sistema homogéneo indeterminado de
grau 1 toma a forma ⎧
⎨ −x1 + 2x2 = 0
−x2 = −2x3

∀x3 ∈ R
de onde (x1 , x2 , x3 ) = (2x3 , 2x3 , x3 ) , ∀x3 ∈ R é a solução indeterminada do
sistema o que implica que

N uc (T ) = {(2x3 , 2x3 , x3 ) , ∀x3 ∈ R}

e donde a nulidade é obviamente igual a 1.

Definição 55 Uma transformação linear T : V → W diz-se injectiva se


a vectores distintos se fazem corresponder imagens distintas pela transfor-
mação T , isto é

∀−

u,−

v ∈ V, →
− 6 −
u = →
v ⇔ T (−

u ) 6= T (−

v ).

22
Definição 56 Uma transformação linear T : V → W diz-se invertível se
é injectiva. A transformação inversa designa-se por T −1 e tem como
domínio o espaço vectorial W e como contradomínio o espaço vectorial V.

Note-se, mais uma vez que as propriedades das transformações lineares


transitam para as matrizes associadas e reciprocamente. Obviamente que
só são invertíveis as transformações cuja domínio e contradomínio têm a
mesma dimensão. Sendo assim, T é invertível se e só se A também o fôr.
Mais, se T é uma transformação linear invertível dada pela matriz
⎡ ⎤
a11 a12 · · · a1n
⎢ a21 a22 · · · a2n ⎥
⎢ ⎥
A=⎢ . .. . .. ⎥ ,
⎣ .. . . . . ⎦
an1 an2 · · · ann

então a transformação inversa T −1 é dada pela matriz inversa A−1 . Todas


as propriedades da inversa de uma matriz são válidas para a transformação
linear inversa.

Teorema 57 Se T : V → W é uma transformação linear, então as seguintes


são equivalentes

a. T é injectiva
→o
n−
b. O núcleo só contém o vector nulo, isto é N (T ) = 0

c. A dimensão do núcleo é zero, isto é nul (T ) = 0

d. T é invertível

Exemplo 58 Verifique se a transformação linear T : R3 → R3 , definida por


T (x, y, z) = (x − 2y + z, −x + y, 3y − 2z) é invertível. Em caso afirmativo,
determine a transformação inversa.

Seguindo o último teorema, existem várias vias para verificar se uma


transformação é invertível. Vejamos algumas delas.
Primeiro escreve-se a matriz A associada à transformação, isto é
⎫ ⎡ ⎤
T (1, 0, 0) = (1, −1, 0) ⎬ 1 −2 1
T (0, 1, 0) = (−2, 1, 3) ⇒ A = ⎣ −1 1 0 ⎦.

T (0, 0, 1) = (1, 0, −2) 0 3 −2

23
Se a matriz é invertível, então a transformação é invertível. Para que a ma-
triz A seja invertível é preciso ser uma matriz regular, isto é, a característica
seja igual à ordem, ou equivalentemente det (A) 6= 0. Então
¯ ¯
¯ 1 −2 1 ¯¯
¯
det (A) = ¯¯ −1 1 0 ¯¯ = −1 6= 0
¯ 0 3 −2 ¯

de onde vem que a transformação linear é invertível.


Agora, para calcular a transformação inversa, basta calcular a inversa
da matriz A, isto é ⎡ ⎤
2 1 1
 ⎣
−1
A = = 2 2 1 ⎦
|A|
3 3 1
de onde

⎤ ⎡ ⎤⎡ ⎤
x 2 1 1 x
−1 ⎣ ⎦ ⎣ ⎦ ⎣
−1
T (x, y, z) = A y = 2 2 1 y ⎦
z 3 3 1 z
⎡ ⎤
2x + y + z
= ⎣ 2x + 2y + z ⎦ = (2x + y + z, 2x + 2y + z, 3x + 3y + z) .
3x + 3y + z

De outra maneira, determinamos o núcleo ou a nulidade da transfor-


mação linear:

N uc (T ) = {(x, y, z) : (x − 2y + z, −x + y, 3y − 2z) = (0, 0, 0)}

o que gera o sistema homogéneo


⎧ ⎧
⎨ x − 2y + z = 0 ⎨ x=0
−x + y = 0 ⇒ y=0
⎩ ⎩
3y − 2z = 0 z=0

pelo que Nuc (T ) = {(0, 0, 0)} o que implica que a nulidade (dim (N uc (T )))
é zero e portanto a transformação é invertível.

0.2.2 Transformações lineares de um espaço vectorial nele


próprio em bases diferentes
Seja V um espaço vectorial (de dimensão n) e seja T : V → V uma
transformação linear definida pela matriz Abc na base canónica. Considere

24
n−→ −→ → o
− n−
→ − → → o

B = b 1 , b 2 , ..., b n e D = d 1 , d 2 , ..., d n duas bases de V . Então,
temos
M (T, bc, bc) = Abc
M (T, B, B) = B −1 Abc B
M (T, D, D) = D−1 Abc D
M (T, B, D) = D−1 Abc B
M (T, D, B) = B −1 Abc D
onde B é a matriz cujas colunas são os vectores da base B e D é a matriz
cujas colunas são os vectores da base D.
Exemplo 59 Seja T : R3 → R3 uma transformação linear definida por
T (x, y, z) = (2y + z, x − 4y, 3x)nna base canónica. Determine a matriz da
→ −
− → − → o →
− →

transformação T na base D = d 1 , d 2 , d 3 onde d 1 = (1, 1, 1) , d 2 =


(1, 1, 0) e d 3 = (1, 0, 0) .
A matriz da transformação na base D é dada pela seguinte fórmula
à = M (T, D, D) = D−1 Abc D.
Para determinar a matriz Abc , matriz que representa a transformação na
base canónica, temos
⎫ ⎡ ⎤
T (1, 0, 0) = (0, 1, 3) ⎬ 0 2 1
T (0, 1, 0) = (2, −4, 0) ⇒ Abc = ⎣ 1 −4 0 ⎦.

T (0, 0, 1) = (1, 0, 0) 3 0 0
A matriz D (dos vectores da base D), é dada por
⎡ ⎤
1 1 1
D=⎣ 1 1 0 ⎦.
1 0 0
A inversa é dada por
⎡ ⎤
b 0 0 1
D
D−1 = = ⎣ 0 1 −1 ⎦ .
|D|
1 −1 0
Então, a matriz da transformação é
⎡ ⎤⎡ ⎤⎡ ⎤
0 0 1 0 2 1 1 1 1
à = M (T, D, D) = D−1 Abc D = ⎣ 0 1 −1 ⎦ ⎣ 1 −4 0 ⎦ ⎣ 1 1 0 ⎦
1 −1 0 3 0 0 1 0 0
⎡ ⎤
3 3 3
= ⎣ −6 −6 −2 ⎦ .
6 5 −1

25
0.3 Valores e vectores próprios
0.3.1 Definições e generalidades
Definição 60 Seja A uma matriz quadrada de ordem n. O escalar λ diz-se
um valor próprio (ou valor característico) da matriz A se existe um vector
não-nulo −→
v tal que A− →
v = λ−→
v . O vector −

v diz-se o vector próprio ou
vector característico de A associado a λ.

No que se segue são considerados apenas valores próprios reais. Pelo ex-
posto, a equação fundamental para o estudo dos valores próprios é a equação
vectorial
A−
→v = λ− →
v.

Nesta equação − →
v é um vector desconhecido, λ é um escalar também de-
sconhecido e o objectivo é determinar ambos. Uma solução trivial para esta


equação, válida qualquer que seja o escalar λ, é −→
v = 0 . No entanto, o prob-
lema dos valores próprios não tem como objectivo encontrar estas soluções
triviais. Aliás, o vector nulo não é considerado vector próprio de uma matriz,
conforme é referido na definição.

Exemplo 61 Sejam ∙ ¸
1 4
A= ,
2 3
v1 = (1, 1), e −

→ →v2 = (2, −1). Pretendemos averiguar se λ1 = 5 é um valor
próprio de A associada ao vector − →
v1 e se λ2 = −1 é um valor próprio de A


relativo ao vector v2 . Há que proceder às seguintes operações de matrizes,
∙ ¸ ∙ ¸ ∙ ¸ ∙ ¸

− 1 4 1 5 1
A v1 = · = =5 = λ1 −

v1
2 3 1 5 1

e, analogamente,
∙ ¸ ∙ ¸ ∙ ¸ ∙ ¸

− 1 4 2 −2 2
A v2 = · = = −1 = λ2 −

v2 .
2 3 −1 1 −1

0.3.2 Determinação dos valores e vectores próprios


Seja A uma matriz quadrada de ordem n e seja In a matriz identidade de
ordem n. Então
1. Construir a matriz característica, isto é

A − λIn

26
2. Construir o polinómio (ou equação) característica, isto é

det (A − λIn ) = 0

Os n valores próprios de A são as n raízes da equação característica

det (A − λIn ) = 0

Os n valores próprios de A podem ser todos distintos ou podem ser repeti-


dos. Um valor próprio distinto (que não se repete) tem multiplicidade
algébrica (m.a) =1, um valor próprio que se repete 2 vezes (é uma raiz
dupla do polinómio caraterístico) tem multiplicidade algébrica (m.a) =2,
um valor próprio que se repete 3 vezes (é uma raiz tripla do polinómio
caraterístico) tem multiplicidade algébrica (m.a) =3, etc...
Os vectores
n− próprios de A associados a λ são as soluções não-nulas

− n →o
v ∈ R \ 0 do sistema linear homogéneo de n equações



(A − λIn )−

v = 0.

Para cada valor próprio distinto, deve-se determinar os vectores próprios


associados (resolvendo sempre o sistema homogéneo acima apresentado).
O conjunto de todos os vectores próprios de um certo valor próprio formam
um subespaço que se denota por subespaço próprio. A dimensão do
subespaço próprio de cada valor próprio λ denota-se por multiplicidade
geométrica (m.g) do valor próprio respectivo (isto é equivalente a afirmar
que a multiplicidade geométrica associada a um valor próprio é igual ao
número máximo de vectores próprios linearmente independentes (base do
subespaço próprio) que lhe estão associados).
Para uma matriz A de ordem n, visto que o polinómio característico
tem grau n, a soma de todas as multiplicidades algébricas é igual a n. A
multiplicidade algébrica de um valor próprio λ é sempre maior ou igual que
a multiplicidade geométrica que lhe está associada, isto é, é maior ou igual
que a dimensão do seu subespaço próprio.

Definição 62 Duas matrizes A e A0 de ordem n dizem-se matrizes semel-


hantes ou equivalentes se existe uma matriz invertível P de ordem n tal
que
A0 = P −1 · A · P.

O problema da diagonalização questiona portanto a existência de uma


matriz diagonal semelhante a uma dada matriz quadrada A.

27
Definição 63 Uma matriz quadrada A de ordem n diz-se matriz diago-
nalizável se A é semelhante a uma matriz diagonal. Isto é, A é matriz
diagonalizável se existe uma matriz invertível P tal que

P −1 · A · P. é uma matriz diagonal.

Teorema 64 Valores e vectores próprios de matrizes semelhantes.


Sejam A e B matrizes de ordem n. Se A e B são matrizes semelhantes então
elas têm os mesmos valores próprios. Além disso, para B = P −1 ·A·P,
se −
→v é um vector próprio da matriz A então − v 0 = P −1 −
→ →
v é um vector
próprio da matriz B para o mesmo valor próprio

Teorema 65 Condição necessária e suficiente para diagonalização.


Uma matriz quadrada A de ordem n é diagonalizável se e só se tem n
vectores próprios linearmente independentes.

Nota 66 Tudo isto reduz-se na prática ao seguinte resultado

• Uma matriz A é diagonalizável se e só se m.a = m.g (multiplici-


dade algébrica = multiplicidade geometrica) para cada valor próprio

• Para A - matriz dada, A0 é a matriz diagonal semelhante e P é matriz


diagonalizadora se satisfazem

A0 = P −1 · A · P

• A matriz semelhante A0 é dada pela matriz diagonal dos valores próprios,


isto é, a matriz cujas elementos diagonais são os valores próprios
⎡ ⎤
λ1 0 ... 0
⎢ 0 λ2 ... 0 ⎥
⎢ ⎥
A0 = ⎢ . .. .. ⎥
⎣ .. . ... . ⎦
0 0 ... λn

e a matriz diagonalizadora P é dada pela matriz dos vectores próprios,


isto é, cada coluna de P é um vector próprio (base) associado a um
valor próprio, respeitando a ordem dada na matriz A0 (os vectores
próprios devem ser linearmente independentes).

Exemplo. Seja A a matriz de ordem 2


∙ ¸
−5 2
A= .
2 −2

28
Vamos determinar os valores próprios de A. Para tal há que determinar o
polinómio característico de A
∙ ¸
−5 − λ 2
det (A − λI2 ) = det = (λ + 5)(λ + 2) − 4 = λ2 + 7λ + 6
2 −2 − λ

e resolver a equação característica de A

det (A − λI2 ) = 0 ⇔ λ2 + 7λ + 6 = 0 ⇔ (λ + 1)(λ + 6) = 0

que tem como soluções λ1 = −1 ou λ2 = −6, ou seja, temos dois valores


próprios distintos, então cada um tem multiplicidade algébrica m.a. = 1.
Os vectores próprios correspondentes ao valor próprio λ1 = −1 são as


soluções do sistema linear homogéneo (A − λ1 I2 )−

v = 0 , enquanto os vec-
tores próprios correspondentes ao valor próprio λ2 = −6 são as soluções do


sistema (A − λ2 I2 )−
→v = 0.
Como det (A − λI2 ) = 0, estes sistemas são possíveis indeterminados
pelo que, a cada λ, está associada uma família de vectores próprios. Para
λ1 = −1 temos
∙ ¸ ∙ ¸ ∙ ¸

− →
− −5 + 1 2 a 0
(A − (−1) I2 ) v = 0 ⇔ · =
2 −2 + 1 b 0
½ ½
−4a + 2b = 0 0=0→a∈R
⇔ ⇔ .
2a − b = 0 b = 2a

As soluções não-nulas deste sistema possível e indeterminado são os vectores


da forma (a, 2a),onde a é um número real diferente de zero. Assim, os
vectores próprios correspondentes ao valor próprio λ1 = −1 são (1, 2)


v1 = (a, b) = (a, 2a) = a (1, 2)

para a 6= 0. O subespaço próprio de λ1 = −1 (conjunto de todos os vectores


próprios) é {a (1, 2) , ∀a} = span {(1, 2)} , isto é, um subespaço de dim 1
contido em R2 , logo λ1 = −1 tem m.g = 1 (multiplicidade geometrica). O
vector (1, 2) chama-se base do subespaço próprio.
Para λ2 = −6 temos analogamente
∙ ¸ ∙ ¸ ∙ ¸

− →
− −5 + 6 2 a 0
(A − −6I2 ) v = 0 ⇔ · =
2 −2 + 6 b 0
½ ½
a + 2b = 0 a = −2b
⇔ ⇔ .
2a + 4b = 0 0=0→b∈R

cujas soluções não-triviais formam a família de vectores (−2b, b), onde b é um


número real diferente de zero. Concluímos assim que os vectores próprios

29
associados ao valor próprio λ2 = −6 são


v2 = (a, b) = (−2b, b) = b (−2, 1)

para b 6= 0. O subespaço próprio de λ1 = −6 (conjunto de todos os vectores


próprios) é {b (−2, 1) , ∀b} = span {(−2, 1)} , isto é, um subespaço de dim 1
contido em R2 , logo λ1 = −6 tem m.g = 1 (multiplicidade geometrica). O
vector (−2, 1) chama-se base do subespaço próprio
Exemplo: Seja a matriz A de ordem 3 definida por
⎡ ⎤
1 −2 1
A = ⎣ 0 0 0 ⎦.
0 1 1
Para determinar os valores próprios de A há que determinar o polinómio
característico de A
¯ ¯
¯ 1 − λ −2 1 ¯
¯ ¯
¯
det (A − λI3 ) = ¯ 0 −λ 0 ¯¯ = −λ (1 − λ)2
¯ 0 1 1−λ ¯
e resolver a equação característica de A

det (A − λI3 ) = 0 ⇔ −λ (1 − λ)2 = 0 ⇔ λ = 0 ∨ λ = 1

que fornece os valores próprios λ1 = 0 (raiz simples, m.a = 1) e λ2 = 1 (raiz


dupla, repete-se 2 vezes, m.a = 2).
Os vectores próprios associados ao valor próprio λ1 = 0 são as soluções


do sistema linear homogéneo (A − λ1 I3 )−→v = 0 . Assim, temos
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 −2 1 a 0


(A − λ1 I3 )−

v = 0 ⇔⎣ 0 0 0 ⎦·⎣ b ⎦=⎣ 0 ⎦
0 1 1 c 0
⎧ ⎧
⎨ a − 2b + c = 0 ⎨ a = −3c
⇔ 0=0 .⇔ 0=0→c∈R
⎩ ⎩
b+c =0 b = −c
As soluções não-nulas deste sistema são os vectores da forma (−3c, −c, c),onde
c é um número real diferente de zero. Assim, os vectores próprios associados
ao valor próprio λ1 = 0 são da forma


v1 = (−3c, −c, c) = c (−3, −1, 1)

para c 6= 0. Assim, a λ1 = 0 corresponde o subespaço próprio gerado


pelo vector (−3, −1, 1) sendo, portanto, um subespaço vectorial de R3 de
dimensão 1 (m.g = 1)

30
Os vectores próprios associados ao valor próprio λ2 = 1 são as soluções


do sistema linear homogéneo (A − λ2 I3 )−

v = 0 . Assim, temos
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 −2 1 a 0


(A − λ2 I3 )−

v = 0 ⇔ ⎣ 0 −1 0 ⎦ · ⎣ b ⎦ = ⎣ 0 ⎦
0 1 0 c 0
⎧ ⎧
⎨ −2b + c = 0 ⎨ c=0
⇔ −b = 0 .⇔ 0=0→a∈R
⎩ ⎩
b=0 b=0
As soluções não-nulas deste sistema são os vectores da forma (a, 0, 0),onde a
é um número real diferente de zero. Assim, os vectores próprios associados
ao valor próprio λ2 = 1 são da forma


v2 = (a, b, c) = (a, 0, 0) = a (1, 0, 0)
para a 6= 0. Assim, a λ2 = 1 corresponde o subespaço próprio gerado pelo
vector (1, 0, 0) sendo, portanto, um subespaço vectorial de R3 de dimensão
1 (m.g = 1)
Como m.a = 2 6= m.g = 1 para o valor próprio λ2 = 1, a matriz dada
não é diagonalizável.
Exemplo: Seja A uma matriz de ordem 3 definida por
⎡ ⎤
2 1 0
A = ⎣ 0 2 0 ⎦.
0 0 2
Para determinar os valores próprios de A há que determinar o polinómio
característico de A
⎡ ⎤
2−λ 1 0
det (A − λI3 ) = det ⎣ 0 2−λ 0 ⎦ = (2 − λ)3
0 0 2−λ
e resolver a equação característica de A
det (A − λI3 ) = 0 ⇔ (2 − λ)3 = 0 ⇔ 2 − λ = 0
que tem como única solução λ = 2 (solução tripla, repete-se 3 vezes, logo
m.a = 3). Os vectores próprios associados ao único valor próprio λ = 2 são


as soluções do sistema linear homogéneo (A − λI3 )−

v = 0 . Assim, temos
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2−2 1 0 a 0

− →
− ⎣ ⎦
(A − λI3 ) v = 0 ⇔ 0 2−2 0 · b = 0 ⎦
⎣ ⎦ ⎣
0 0 2−2 c 0
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎧
0 1 0 a 0 ⎨ b=0
⇔ ⎣ 0 0 0 ⎦·⎣ b ⎦=⎣ 0 ⎦⇔ 0=0 .

0 0 0 c 0 0=0

31
As soluções não-nulas deste sistema (possível e indeterminado) são os vec-
tores da forma (a, 0, c),onde a e c são números reais diferentes de zero. Assim,
os vectores próprios associados ao valor próprio λ = 2 são os vectores não-
nulos múltiplos de − →v = (1, 0, 1). Os vectores próprios associados a λ = 2
são, portanto, da forma


v = (a, 0, c) = (a, 0, 0) + (0, 0, c) = a (1, 0, 0) + c (0, 0, 1)

para a 6= 0 ou c 6= 0, ou seja, podem escrever-se como combinação linear de


dois vectores (próprios) linearmente independentes, (1, 0, 0) e (0, 0, 1). As-
sim, a λ = 2 corresponde o subespaço próprio gerado pelos vectores (1, 0, 0)
e (0, 0, 1) isto é, span {(1, 0, 0), (0, 0, 1)} , sendo, portanto, um subespaço
vectorial de R3 de dimensão 2 (logo, m.g = 2)
Como m.a = 3 6= m.g = 2, a matriz dada não é diagonalizável.
Exemplo. Uma matriz de ordem 2 para diagonalizar. Seja a
matriz ∙ ¸
5 4
A= .
1 2
Pretendemos averiguar se A é diagonalizável. O cálculo dos valores próprios
∙ ¸
5−λ 4
det (A − λI2 ) = det
1 2−λ
= (5 − λ) (2 − λ) − 4
= λ2 − 7λ + 6 = (λ − 1) (λ − 6)

conduz a λ1 = 1 e λ1 = 6. Para λ1 = 1 obtemos a matriz característica


∙ ¸ ∙ ¸
4 4 0 0
A − 1I2 = −→
1 1 1 1

donde o sistema homogéneo


∙ ¸ ∙ ¸ ∙ ¸

→ 0 0 a 0
(A − 1I2 ) →

v = 0 ⇐⇒ · =
1 1 b 0
½ ½
0=0 0=0
⇐⇒ ⇐⇒ .
a+b =0 b = −a

A família de vectores próprios de λ1 = 1 é − →


v = (a, −a) = a (1, −1) para
a 6= 0. Para λ1 = 6 a matriz característica é
∙ ¸ ∙ ¸
−1 4 −1 4
A − 6I2 = −→
1 −4 0 0

32
a que corresponde o sistema homogéneo
∙ ¸ ∙ ¸ ∙ ¸

− →
− −1 4 a 0
(A − 6I2 ) v = 0 ⇐⇒ · =
0 0 b 0
½ ½
−a + 4b = 0 a = 4b
⇐⇒ ⇐⇒ .
0=0 0=0

Assim, a família de vectores próprios de λ2 = 6 é − →v = (4b, b) = b (4, 1) para


b 6= 0. Os vectores próprios , (4, 1) e (1, −1) são linearmente independentes,
logo pode afirmar-se que a matriz A é diagonalizável. A matriz invertível P
é a matriz dos vectores próprios
∙ ¸ ∙ ¸
4 1 −1 −1
P = com inversa P −1 = .
1 −1 −1 4

e a matriz diagonal D semelhante à matriz A é a matriz cuja diagonal é


constituída pelos valores próprios obtidos
∙ ¸ ∙ ¸ ∙ ¸
−1 −1 −1 5 4 4 1
D =P ·A·P = · ·
−1 4 1 2 1 −1
∙ ¸
6 0
D= .
0 1

33

Você também pode gostar