Você está na página 1de 132

Álgebra linear

1o ano, UA

António João Breda d’Azevedo

Outubro 24, 2021


2
Conteúdo

1 Equações Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2 Sistemas de equações lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
i Classificação das equações lineares quanto às suas soluções . . . . . . . . . 6
ii Soluções na forma paramétrica . . . . . . . . . . . . . . . . . . . . . . . . . 7
iii Sistemas de equações lineares com parâmetros . . . . . . . . . . . . . . . . 8
iv Resolução de sistemas de equações lineares . . . . . . . . . . . . . . . . . . 8
v Soluções de sistemas de equações lineares com parâmetros . . . . . . . . . . 12
3 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
i Matrizes por blocos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
ii Matrizes especiais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
iii Adição de matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
iv Multiplicação escalar de matrizes . . . . . . . . . . . . . . . . . . . . . . . 18
v Propriedades da multiplicação escalar . . . . . . . . . . . . . . . . . . . . . 19
vi Multiplicação de uma matriz por um escalar . . . . . . . . . . . . . . . . . 19
vii Multiplicação de matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
viii Multiplicação de uma (matriz) linha por uma (matriz) coluna . . . . . . . 19
ix Multiplicação de duas matrizes . . . . . . . . . . . . . . . . . . . . . . . . 20
x Multiplicação de matrizes por blocos . . . . . . . . . . . . . . . . . . . . . 21
xi Casos particulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
xii Propriedades da multiplicação . . . . . . . . . . . . . . . . . . . . . . . . . 21
xiii Não válido na multiplicação de matrizes . . . . . . . . . . . . . . . . . . . 22
xiv Potências de matrizes (quadradas) . . . . . . . . . . . . . . . . . . . . . . . 22
xv Matriz transposta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
xvi Matrizes simétricas e anti-simétricas . . . . . . . . . . . . . . . . . . . . . . 24
xviiTraço de uma matriz quadrada . . . . . . . . . . . . . . . . . . . . . . . . 25
xviiiMatrizes de sistemas de equações lineares . . . . . . . . . . . . . . . . . . . 26
xix Matrizes elementares por linha . . . . . . . . . . . . . . . . . . . . . . . . . 32
xx Inversa de matrizes (quadradas) . . . . . . . . . . . . . . . . . . . . . . . . 35
xxi Permutações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
xxiiDeterminantes (de matrizes quadradas) . . . . . . . . . . . . . . . . . . . . 37
4 Corpos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5 Espaços Vectoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
6 Subespaços Vectoriais Gerados . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
7 Dependência e independência linear . . . . . . . . . . . . . . . . . . . . . . . . 52
8 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
i Geradores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4 CONTEÚDO

ii Conjunto minimal de geradores de V . . . . . . . . . . . . . . . . . . . . . 56


iii Conjunto maximal de vectores linearmente independentes . . . . . . . . . . 56
iv Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
v Dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
vi Bases canónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
vii Componentes e coordenadas relativamente uma base ordenada . . . . . . . 60
viii Prolongamento de uma base . . . . . . . . . . . . . . . . . . . . . . . . . . 62
9 Soma de subespaços. Subespaços complementares . . . . . . . . . . . . . . . . 62
10 Aplicações lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
i Propriedades elementares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
ii Composição de aplicações lineares . . . . . . . . . . . . . . . . . . . . . . . 68
iii Imagem de uma aplicação linear . . . . . . . . . . . . . . . . . . . . . . . . 69
iv Isomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
v Imagem recı́proca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
vi O núcleo e injectividade de uma aplicação linear . . . . . . . . . . . . . . . 74
vii Espaços vectoriais de mesma dimensão . . . . . . . . . . . . . . . . . . . . 77
viii Espaços vectoriais quocientes . . . . . . . . . . . . . . . . . . . . . . . . . . 77
ix Caracterı́stica e nulidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
11 Aplicações Lineares versus Matrizes . . . . . . . . . . . . . . . . . . . . . . . . 82
i Caracterı́stica de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 86
ii Matriz de mudança de bases . . . . . . . . . . . . . . . . . . . . . . . . . . 90
12 Valores e Vectores próprios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
i Polinómio caracterı́stico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
ii Vectores próprios associados a valores próprios distintos . . . . . . . . . . . 101
iii Valores e vectores próprios de matrizes . . . . . . . . . . . . . . . . . . . . 103
iv Matrizes diagonalizáveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
v Aplicações lineares diagonalizáveis . . . . . . . . . . . . . . . . . . . . . . . 109
13 Produtos internos em espaços vectoriais reais . . . . . . . . . . . . . . . . . . . 111
i Propriedades. Desigualdade de Schwarz . . . . . . . . . . . . . . . . . . . . 114
ii Espaços euclidianos e matriz da métrica . . . . . . . . . . . . . . . . . . . 116
iii Ângulo de dois vectores não nulos . . . . . . . . . . . . . . . . . . . . . . . 118
iv Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
v Sistemas ortogonais, normados e ortonormados . . . . . . . . . . . . . . . . 120
vi Espaço ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
vii Complemento ortogonal de um subespaço . . . . . . . . . . . . . . . . . . . 123
viii Projecção ortogonal de um vector sobre um subespaço vectorial . . . . . . 125
ix Cálculo da projecção ortogonal num espaço euclidiano . . . . . . . . . . . . 126
x Distâncias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
xi Últimos exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
1. EQUAÇÕES LINEARES 5

1 Equações Lineares
Uma equação é uma igualdade entre duas expressões algébricas. Exemplos de equações são

2x + 3y = 1
sen(x + tg(y)) = cotg(8 + x)

x7 + y 2 = 5
R4 2
log(x + 2) = −2 x y+1 dy
2
5= 3
6x + 4 = 9
12x + 5y + 7z = 37

Muitas destas equações não são lineares. Uma equação linear é uma igualdade entre dois
polinómios do 1o grau, isto é, polinómios em que todas as incógnitas são de grau 1. Das
equações exemplificadas em cima só duas, as duas últimas, são equações lineares. A ante-
penúltima equação é uma equação “impossı́vel”.
Uma equação linear em K (leia K = Q, R ou C) é uma equação linear em que os
polinómios do 1o grau envolvidos têm os coeficientes em K. Portanto, uma equação linear
nas incógnitas (ou variáveis) x1 , x2 , . . . , xn , com coeficientes em K, é uma equação da
forma
a1 x1 + a2 x2 + · · · + an xn = c (1)
em que os coeficientes a1 , a2 , . . . , an ∈ K. Se K = Q (corpo dos racionais), (1) diz-se
uma equação linear com coeficientes racionais, se K = R (corpo dos reais) diz-se equação
linear com coeficientes reais e se K = C (corpo dos complexos) diz-se equação linear com
coeficientes complexos.
Atenção: Em equações lineares é mais comum chamar-se variáveis às incógnitas dos
polinómios do primeiro grau aı́ envolvidos. Para dar continuidade a essa tradição, será esse
o nome que adoptaremos aqui também.

Solução de uma equação linear


Uma solução de (1) é um n-uplo (tantas quantas as variáveis)

(k1 , k2 , . . . , kn ) ∈ K n = K × K × . . . × K (n vezes)

tal que a1 k1 + a2 k2 + · · · + an kn = c, isto, quando substituindo as variáveis x1 , x2 , . . . , xn


respectivamente por k1 , k2 , . . . , kn , (1) dá lugar a uma proposição (ou expressão) verdadeira.

2 Sistemas de equações lineares


Em vez de uma equação podemos ter duas, três ou mais equações. Um sistema de equações
lineares não é mais do que conjunto de equações lineares. Um sistema de m equações lineares
6 CONTEÚDO

a n variáveis com coeficientes em K é um conjunto de m equações, que representaremos da


seguinte maneira
 

 eq1 (x1 , . . . , xn ) 
 a11 x1 + · · · + a1n xn = c1

 eq2 (x1 , . . . , xn ) 
 a21 x1 + · · · + a2n xn = c2
.. := .. (2)

 . 
 .

 eq (x , . . . , x ) 
 a x + ··· + a x
m 1 n m1 1 mn n = cm ,

cujos coeficientes aij estão em K (se não conseguir lidar com K, substitua K por Q, R ou
C, conforme lhe for mais conveniente).

Solução de uma sistema de equações lineares


Uma equação linear eq(x1 , . . . , xn ) = c em x1 , x2 , . . . , xn com coeficientes em K pode ser
vista como uma condição em K n onde o n-uplo das variáveis (x1 , x2 , . . . , xn ) desempenha
o papel de um elemento genérico de K n que satisfaz a condição eq(x1 , . . . , xn ) = c. Neste
ponto de vista um sistema linear é uma conjunção de condições,


 eq1

 eq2
.. ⇔ eq1 ∧ eq2 ∧ . . . ∧ eqm

 .

 eq
m

em que as equações eq1 , eq2 , . . . , eqm são vistas como condições em x1 , x2 , . . . , xn . Uma
solução de um sistema de equações lineares (2) é um n-uplo (k1 , k2 , . . . , kn ) ∈ Kn tal que

a11 k1 + · · · + a1n kn = c1 ∧ a21 k1 + · · · + a2n kn = c2 ∧ . . . ∧ am1 k1 + · · · + amn kn = cm

é verdadeiro, isto é, tal que




 a11 k1 + · · · + a1n kn = c1 é verdadeiro


 a21 k1 + · · · + a2n kn = c2 é verdadeiro
(3)

 ..

 .
 a k + ··· + a k = cm é verdadeiro
m1 1 mn n

i Classificação das equações lineares quanto às suas soluções


Um sistema de equações lineares pode ter uma, duas ou mais soluções, ou mesmo nenhuma
solução. Quando um sistema de equações tiver uma ou mais soluções o sistema diz-se possı́vel
(ou consistente), caso contrário, se não tiver nenhuma solução, o sistema diz-se impossı́vel
(ou inconsistente). No caso de um sistema de equações lineares ter uma só solução o sistema
diz-se possı́vel e determinado; a equação linear determina a única solução que tem. Se pelo
contrário, o sistema tiver mais do que uma solução ele diz-se possı́vel mas indeterminado.

Exemplo 1
2. SISTEMAS DE EQUAÇÕES LINEARES 7


 x+y+z = 0
(a) x−y+z = 10

x+y = −2
é um sistema de 3 equações lineares com coeficientes em R que é possı́vel e determinado. A solução é
(3, −5, 2). Se substituir (x, y, z) por (3, −5, 2) verificamos que todas aquelas equações se transformam
em expressões verdadeiras. Não há mais nenhuma porque a resolução daquele sistema conduz a uma
só solução. De facto, da última equação tiramos que y = −x−2, que, quando substituı́do na penúltima
equação, dá origem a
x + x + 2 + z = 10 ⇔ z = 8 − 2x .
Substituindo agora y e z na primeira equação temos:
x − x − 2 + 8 − 2x = 0 ⇔ 2x = 6 ⇔ x = 3 .
A solução deste sistema de equações lineares é x = 3, y = −3 − 2 = −5 e z = 8 − 2 × 3 = 2, única
portanto.


 x + 2y = 6
(b) 2x + y = 6

x+y = 6
é um sistema de 3 equações lineares com coeficientes em R que é impossı́vel. De facto, da última
equação sai que y = 6 − x pelo que substituindo este valor na equação anterior temos,
2x + 6 − x = 6 ⇔ x = 0 .
Só que agora x = 0 e y = 6 − 0 = 6 na primeira equação dá uma expressão falsa
0 + 2 × 6 = 6 ⇔ 12 = 6 .

2x + y + z = 12
(c)
x+y = 0
é um sistema de 2 equações lineares com coeficientes em R que é possı́vel e indeterminado. De facto,
y = −x (2a equação) pelo que
2x − x + z = 12 ⇔ x + z = 12 ⇔ z = 12 − x .
De modo que todo o triplo (x, −x, 12 − x) com x ∈ R, por exemplo (0, 0, 12), (3, −3, 9), etc, é solução
do sistema. Este sistema de equações lineares possui portanto mais do que uma solução, é por
conseguinte um sistema possı́vel e indeterminado. Notemos que todas as soluções têm uma expressão
comum (k, −k, 12 − k); a esta expressão comum dizemos solução parametrizada pelo parâmetro k (ou
x na escrita anterior).

ii Soluções na forma paramétrica


Uma solução na forma paramétrica é uma solução parametrizada por vários parâmetros, tal
como no último exemplo em que as soluções vieram expressas por uma solução na forma
paramétrica, nesse caso com um só parâmetro k (ou x, é indiferente a letra que se usa,
contudo é útil distinguirmos a variável x do parâmetro que parametriza as soluções). À
solução na forma paramétrica também se chama a solução geral do sistema.
Exemplo 2 x − y − z = 0 é um sistema de equações lineares com uma equação que é possı́vel e inde-
terminado. As soluções são representadas pela solução na forma paramétrica (β + γ, β, γ), em que os dois
parâmetros β, γ ∈ R (são reais). Note que o conjunto solução do sistema é
{(α, β, γ) | (α, β, γ) é solução de x − y − z = 0} = {(α, β, γ) | α − β − γ = 0} = {(β + γ, β, γ) | β, γ ∈ R}
Podemos também escrever que a solução geral deste sistema é x = β + γ, y = β e z = γ em que β, γ ∈ R.
8 CONTEÚDO

iii Sistemas de equações lineares com parâmetros


A introdução de parâmetros não se reduz somente às soluções. Um determinado fenómeno
nalguma circunstância pode ser descrito pelo sistema

 x−y = 1
x−z = 2

x+y = 3

mas se as circunstâncias se alterarem já é o sistema de equações lineares



 x−y+z = 1
x−z = 2

x + y + 3z = 4

que melhor o descreve, ou ainda



 x − y + 2z = 1
x−z = 2

x + y + 8z = 5

se a situação voltar a alterar-se. Bom, não podemos continuar com este procedimento
indefinidamente. Isto significa que o comportamento do fenómeno está dependente de
parâmetros, pelo que os sistema de equações lineares que o representa vem também de-
pendente de parâmetros. Os três casos anteriores são casos particulares (t = 1 e k = 2, t = 2
e k = 3, t = 3 e k = 4) do seguinte sistema de 3 equações lineares em R com 2 parâmetros
reais t e k: 
 x − y + (k − 2)z = 1
x−z = 2

x + y + k(t − 1)z = t + 2
Aqui o t e o k não são variáveis, as variáveis são x, y e z. Os parâmetros t e k devem ser
encarados como números reais da mesma forma como o são 10, -1, 2, 5 e 6.
Portanto num sistema de equações lineares com parâmetros, os parâmetros represen-
tam os diferentes sistemas de equações lineares que se obtém concretizando os respectivos
parâmetros.

iv Resolução de sistemas de equações lineares


Duas equações eq1 e eq2 dizem-se equivalentes, e escrevemos

eq1 ⇔ eq2 ,

se as duas equações tiverem o mesmo conjunto solução. Da mesma forma, dois sistemas de
equações (lineares)  
0

 eq1 
 eq1
.. e ..
 .  .
 eq  eq 0
m m
2. SISTEMAS DE EQUAÇÕES LINEARES 9

são equivalentes, e escrevemos


 
0

 eq1 
 eq1
.. ⇔ ..
 .  .
 eq  eq 0
m m

se os dois sistemas de equações tiverem as mesmas soluções.


Designemos por eq(x, y, z) a equação linear ax + by + cz = d. Para cada triplo (α, β, γ) ∈
3
K , a notação eq(α, β, γ) designa naturalmente a proposição
aα + bβ + cγ = d,
que pode ser verdadeiro ou falso. Se eq(α, β, γ) é verdadeiro, isto significa que (α, β, γ)
é solução da equação eq(x, y, z), caso contrário, (α, β, γ) não é solução de eq(x, y, z). O
conjunto solução de eq(x, y, z) é portanto
{(α, β, γ) ∈ K 3 | eq(α, β, γ) é verdadeiro}.
Se multiplicarmos os dois membros da equação eq(x, y, z) por uma constante k 6= 0, obtemos
uma nova equação
k eq(x, y, z) : (ka)x + (kb)y + (kc)z = kd
cujo conjunto de soluções é o mesmo que o conjunto de soluções da equação eq(x, y, z), ou
seja, eq(x, y, z) e k eq(x, y, z) são equações lineares equivalentes para todo k 6= 0,
eq(x, y, z) ⇔ k eq(x, y, z).
Igualmente, se eq1 = eq1 (x, y, z) designa a equação linear a1 x + b1 y + c1 z = d1 , eq2 =
eq2 (x, y, z) designa a equação linear a2 x + b2 y + c2 z = d2 e eq1 + eq2 = (eq1 + eq2 )(x, y, z)
designa a equação linear
eq1 + eq2 : (a1 + a2 )x + (b1 + b2 )y + (c1 + c2 )z = d1 + d2
então os sistema de equações lineares {eq1 , eq2 } é equivalente ao sistema de equações lineares
{eq1 , eq1 + eq2 }, isto é,  
eq1 eq1
⇔ .
eq2 eq1 + eq2
De facto, se δ = (α, β, γ) é uma solução do primeiro sistema linear, então

eq1 (δ) é verdadeiro
eq2 (δ) é verdadeiro

a1 α + b1 β + c1 γ = d1 é verdadeiro

a2 α + b2 β + c2 γ = d2 é verdadeiro

a1 α + b1 β + c1 γ = d1 é verdadeiro

d1 + a2 α + b2 β + c2 γ = d1 + d2 é também verdadeiro (smando d1 a ambos os membros da 2a eq.)

a1 α + b1 β + c1 γ = d1 é verdadeiro

(a1 + a2 )α + (b1 + b2 )β + (c1 + c2 )γ = d1 + d2 é verdadeiro

eq1 (δ) é verdadeiro

(eq1 + eq2 )(δ) é verdadeiro
10 CONTEÚDO

Reciprocamente, se δ = (α, β, γ) é uma solução do segundo sistema linear também é solução


do primeiro, como se pode observar pelas equivalências anteriores.
Iremos dar três métodos para resolver sistemas de equações lineares: o método da substi-
tuição, o método da adição ordenada e o método da eliminação de Gauss (ou Gauss-Jordan).
O primeiro foi o método que utilizámos até agora e os dois últimos são essencialmente o
mesmo; O segundo aplica-se directamente às equações do sistema enquanto que o terceiro
separa primeiro os coeficientes do sistema, coloca-os em forma de uma matriz (sem os des-
ordenar) e aplica o método a esta matriz.

Método da substituição
Este foi o método que utilizámos até agora. Ele consiste em resolver uma das equações em
ordem a uma das variáveis xi , cujo coeficiente 6= 0, e substituir a variável xi nas restantes
equações do sistema por este valor. Procedemos desta forma consecutivamente até à ultima
equação.

Método de Gauss (da adição ordenada)


Designemos por EQn (K) o conjunto das equações lineares a n variáveis com coeficientes em
K. Em EQn (K) definimos a seguinte adição

eq1 : a1 x 1 + a2 x 2 + ... + an x n = p
+ eq2 : b1 x 1 + b2 x 2 + ... + bn x n = q
eq3 : (a1 + b1 )x1 + (a2 + b2 )x2 + ... + (an + bn )xn = p + q

e a seguinte multiplicação “escalar”: ∀α ∈ K, ∀ eq ∈ EQn (K) ,

eq : a1 x 1 + a2 x 2 + . . . + an x n = p
α eq : (αa1 )x1 + (αa2 )x2 + . . . + (αan )xn = αp

Note-se que se adicionarmos a EQn (K) a equação “zero” : 0x1 + 0x2 + · · · + 0xn = 0, o
conjunto EQn (K) é um “espaço vectorial” sobre K (vamos dar isto mais à frente).
Consideremos as seguintes 3 regras de equivalência:
(R1) Troca de ordem das equações lineares;

(R2) Multiplicar uma equação por uma constante 6= 0;

(R3) Somar a uma equação uma outra equação.

Teorema 1 (Gauss) A aplicação de uma qualquer destas regras dá origem a um sistema
de equações lineares equivalente.

Demonstração.
É claramente verdade para (R1). Para as restantes regras é só extender a n variáveis o argumento feito anteriormente para 3
variáveis, uma vez que esse argumento não dependente do número de variáveis. 2

Um variável diz-se variável lı́der se na equação onde ela estiver for a primeira variável com
coeficiente não zero. A qualquer variável com coeficiente não nulo chamaremos um variável
2. SISTEMAS DE EQUAÇÕES LINEARES 11

efectiva. Um sistema de equações lineares diz-se na forma escalonada se em cada equação


seguinte, portanto com a excepção da primeira equação, a variável lı́der estiver à direita da
variável lı́der da equação anterior, como no seguinte exemplo:

 x + y − z + w = 1

2y + 4z − w = −6


8z + 3w = 5

O método de Gauss para resolver um sistema de equações lineares




 eq1
..
 .
 eq
2

consiste em 2 passos:
- O primeiro passo consiste na aplicação consecutiva daquelas 3 regras de equivalência de
modo a obter um sistema de equações lineares na forma escalonada:


 eq10

 eq 0
2
.. .

 .

 eq 0
m

- O segundo passo consiste numa resolução “desdobrada” das equações de baixo para
cima, nomeadamente:
0
(1) Se a última equação linear eqm assim obtida não tiver nenhuma variável efectiva, então
ela é da forma const1 = const2 e portanto o sistema é impossı́vel se a igualdade não
for verdadeira (e o procedimento pára aqui).
0
(2) Se eqm tiver apenas uma variável efectiva então resolve-se esta equação em relação a
0
essa variável e transporta-se este valor para a equação linear anterior eqm−1 .
0
(3) Se eqm tiver mais do que uma variável efectiva, então resolve-se esta equação em
função a uma (qualquer) variável efectiva, passando as restantes variáveis efectivas a
0
parâmetros, e transporta-se este valor para a equação anterior eqm−1 .
0
A seguir volta-se a aplicar o mesmo procedimento, agora à equação anterior eqm−1 , eventual-
mente afectada pelo transporte de valores ocorrido pelo procedimento anterior. Procedendo
desta forma consecutiva, chegaremos a uma solução do sistema (que poderá ser na forma
paramétrica). Siga este método com os exemplos que se seguem.

Exemplo 3 Vamos resolver pelo método de Gauss o seguinte sistema de equações lineares


 x + y − 3z = 3
2x + y = 4

 4x + 2y + 3z = 10
12 CONTEÚDO

Passo 1:
 

 x + y − 3z = 3 
 x + y − 3z = 3
2x + y = 4 ⇔ 2x + y = 4

 4x + (eq3′ =eq3 −2eq2 ) 

2y + 3z = 10 3z = 2


 x + y − 3z = 3
⇔ − y + 6z = −2
(eq2′ =eq2 −2eq1 ) 
 3z = 2

Passo 2:
  

 x + y − 3z = 3 
 x + y − 3z = 3 
 x + 6 − 3 3 = 3 ⇔ x = −1
2

−y + 6z = −2 ⇔ −y + 6 3 = −2 ⇔ y = 6
2
⇔ y=6

 3z = 2 ⇔ z = 2 (transp.) 
 z=2 (transp.) 
 z=2
3 3 3

Logo o sistema é possı́vel e determinado. A solução é (x, y, z) = (−1, 6, 23 ).

Método da eliminação de Gauss com matrizes


É um método que será explicado mais tarde quando introduzirmos o conceito de matriz.

v Soluções de sistemas de equações lineares com parâmetros


Quando um sistema de equações lineares sem parâmetros for possı́vel mas indeterminado,
as suas soluções vêm descritas por uma solução na forma paramétrica. Os parâmetros que
aparecem na solução geral representam as diferentes soluções, e não as diferentes equações lin-
eares como acontece com os parâmetros de um sistema de equações lineares com parâmetros.

Exemplo 4 Resolver pelo método de Gauss o seguinte sistema de equações lineares


(
x + y − 3z = 3
2x + y = 4

Resolução:
( (
x + y − 3z = 3 x + y − 3z = 3

2x + y = 4 (eq2′ =eq2 −2eq1 ) − y + 6z = −2
(
x + y − 3z = 3

(eq2′ =−eq2 ) y − 6z = 2
(
x + y − 3z = 3

y = 2 + 6z
(
x = 3 − y + 3z = 1 − 3z

y = 2 + 6z

A solução do sistema (1 − 3z , 2 + 6z) é pois uma solução parametrizada no parâmetro z. Esta solução
parametrizada representa uma famı́lia de soluções; para cada valor de z temos uma solução.
2. SISTEMAS DE EQUAÇÕES LINEARES 13

Quando temos um sistema de equações lineares com parâmetros, o sistema pode ser
possı́vel para algumas concretizações dos parâmetros e ser impossı́vel para outras. Pode ainda
ser possı́vel e determinado numas concretizações dos parâmetros e possı́vel e indeterminado
noutras.
Quando um sistema de equações lineares com parâmetros for possı́vel e determinado a
única solução depende apenas dos parâmetros do sistema de equações. Se for possı́vel e
indeterminado já a solução geral vem parametrizada com outros parâmetros para além dos
parâmetros do próprio sistema.
Exemplo 5 Discuta, em função dos parâmetros reais k e t, o sistema de equações lineares seguinte e
determine o conjunto de soluções para cada caso.

 x − y + (k − 2)z = 1
x−z = 2

x + y + k(t − 1)z = t+2
Passo 1:
 
 x − y + (k − 2)z = 1  x − y + (k − 2)z = 1
x−z = 2 ⇔ x−z = 2
 (eq3′ =eq3 +eq1 ) 
x + y + k(t − 1)z = t+2 2x + (kt − 2)z = t+3

 x − y + (k − 2)z = 1
⇔ x−z = 2
(eq3′ =eq3 −2eq2 ) 
ktz = t−1
Passo 2:
Como não podemos dividir por 0 teremos que distinguir dois casos: quando kt = 0 e quando kt 6= 0.
A) kt = 0. Neste caso temos 
 x − y + (k − 2)z = 1
x−z = 2

0 = t−1
que é um sistema impossı́vel quando t 6= 1. Portanto,
(A1) kt = 0 e t 6= 1 : sistema é impossı́vel.
(A2) kt = 0 e t = 1, o que é equivalente a k = 0 e t = 1. Neste caso temos
  
x − y − 2z = 1 z + 2 − y − 2z = 1 ⇔ y + z = 1 y =1−z
⇔ ⇔
x − z = 2 ⇔ x = z + 2 (transp.) x=z+2 x=z+2

Sistema possı́vel e indeterminado.


A solução geral (forma paramétrica) é (x, y, z) = (a + 2, 1 − a, a), a ∈ R.
B) kt 6= 0. Neste caso
 
 x − y + (k − 2)z = 1 
 x − y + (k − 2)z = 1
x−z =2 ⇔ kt = 2 ⇔ x = 2 +
x − t−1 t−1
 (transp.) 
 z = t−1
kt
ktz = t − 1 ⇔ z = t−1
kt kt

 2 + kt − y + (k − 2) kt = 1
t−1 t−1

⇔ x = 2 + t−1
(transp.) 
kt

z = t−1
kt

 y = 1 + kt + (k − 2) kt
t−1 t−1

⇔ x = 2 + t−1


kt
z = t−1
kt
14 CONTEÚDO

Sistema possı́vel e determinado.


A solução é (x, y, z) = (2 + t−1
kt , 1 + t−1
kt + (k − 2), t−1
kt ).

3 Matrizes
Uma matriz m × n em K (ou com entradas em K) é um conjunto ordenado de m n-uplos
(a11 , . . . , a1n ), . . . , (am1 , . . . , amn ) ∈ K n dispostos verticalmente de forma a formarem um
quadro rectangular,
 
a11 . . . a1n
 ..  = [ a ]
M = Mm,n =  ... .  i,j i = 1, 2, . . . , m
j = 1, 2, . . . , n
am1 . . . amn

Uma matriz diz-se real se K = R (portanto, todos os ai,j ∈ R), e complexa se K = C


(portanto, todos os ai,j ∈ C). A matriz M diz-se uma matriz quadrada se m = n e uma
matriz rectangular nos restantes casos. Se n = 1 a matriz M diz-se uma matriz linha e se
m = 1 ela diz-se uma matriz coluna. A diagonal a11 , a22 , . . . é a diagonal principal de M ,
enquanto que a diagonal am,1 , am−1,2 , am−2,3 , . . . é a diagonal secundária de M .
Uma submatriz r × s de M é uma matriz
 
b11 . . . b1s
 .. 
B = Br,s =  ... . 
br1 . . . brs

resultante da matriz M por eliminação (não necessariamente consecutiva) de algumas linhas


e algumas colunas. Por exemplo, se
 
1 2 3 4 5
 6 7 8 9 10 
 
A=  11 12 13 14 15 

 16 17 18 19 20 
21 22 23 24 25

então    
  6 8 9 1 2 3
2 4
,  16 18 19  ,  6 7 8 
12 14
21 23 24 11 12 13
são exemplos de submatrizes de A.
Designemos por Mm,n (K) ao conjunto das matrizes m × n em K, e por por Mn (K) ao
conjunto das matrizes quadradas de ordem n (isto é n × n).
Observação.
" a Existe
# uma aplicação bijectiva de Mm,n (K) para K mn , que a cada matriz M =
... a
11 1n
.. ..
. . faz corresponder o (mn)-uplo ordenado (a11 , . . . , a1n , . . . , am1 , . . . , amn ).
am1 ... amn
3. MATRIZES 15

i Matrizes de blocos
Consideremos a matriz
 
a11 . . . a1n
 ..  = [ a ]
M = Mm,n =  ... .  i,j i = 1, 2, . . . , m
j = 1, 2, . . . , n
am1 . . . amn
Um bloco de M é uma submatriz de M cuja linhas e colunas resultam de linhas e colunas
consecutivas em M . Por exemplo, se M for a matriz A dada por
 
1 2 3 4 5
 6 7 8 9 10 
 
A=  11 12 13 14 15  
 16 17 18 19 20 
21 22 23 24 25
então das seguintes submatrizes
   
  6 8 9 1 2 3
2 4
,  16 18 19  ,  6 7 8 
12 14
21 23 24 11 12 13
apenas o último é um bloco.
Em particular temos as matrizes linhas
L = [a1 a2 . . . an ]
quando m = 1, e as matrizes colunas
 
b1
 b2 
C= 
 ... 
bn
quando n = 1.
Podemos alternativamente escrever uma matriz M como uma matriz “linha” composta
de matrizes colunas:
M = [C1 C2 . . . Cn ] ou [C1 , C2 , . . . , Cn ]
em que      
a11 a12 a1n
 a21   a22   
C1 =     , . . . , Cn =  a2n 
 . . .  , C2 =  . . .   ... 
am1 am2 amn
ou como uma matriz “coluna” composta de matrizes linhas:
 
L1
 L2 
M = 
 ... 
Lm
16 CONTEÚDO

em que

L1 = [a11 a12 . . . a1n ] , L2 = [a21 a22 . . . a2n ] , . . . , Ln = [am1 am2 . . . amn ] ,

ou ainda como uma matrizes de “blocos”. Por exemplo a matriz A pode escrever-se como a
seguinte matriz de blocos,
 
1 2 3 4 5
 6 7 8 9 10   
  B B
A =  11 12 13 14 15  =

11 12

 16 17 18  B21 B22
19 20
21 22 23 24 25
em que
   
1 2 3 4 5    
16 17 18 19 20
B11 = 6 7 8  , B12 =  9 10  , B21 = , B22 = .
21 22 23 24 25
11 12 13 14 15

ii Matrizes especiais
Das matrizes quadradas (m = n)
 
a11 . . . a1n
 .. .. 
 . . 
an1 . . . ann

destacam-se a matriz identidade (de ordem n)


 
1 0 0 ... 0
 0 1 0 ... 0 
 
 
I = In =  0 0 1 ... 0 
 .. .. .. .. .. 
 . . . . . 
0 0 0 ... 1

as matrizes diagonais (de ordem n)


 
a11 0 0 ... 0
 0 a22 0 ... 0 
 
 0 0 a33 ... 0 
D = Dn =  
 .. .. .. .. .. 
 . . . . . 
0 0 0 . . . ann

quando ai,j = 0, para i 6= j, as matrizes triangulares superiores (ai,j = 0 se i > j)


 
a11 a12 . . . a1n  
 0 a22 . . . a2n  a11 ∗
   .. 
 .. .. . . ..  =  . 
 . . . . 
0 ann
0 0 . . . ann
3. MATRIZES 17

e as matrizes triangulares inferiores (ai,j = 0 se i < j)


 
a11 0
 ... 
 
∗ ann

iii Adição de matrizes


O conjunto Mm,n (K) está munido de uma adição “componente a componente”

[ ai,j ] + [ bi,j ] = [ ai,j + bi,j ]

isto é,
     
a11 . . . a1n b11 . . . b1n a11 + b11 . . . a1n + b1n
 .. ..  +  .. ..  =  .. .. 
 . .   . .   . . 
am1 . . . amn bm1 . . . bmn am1 + bm1 . . . amn + bmn

Se as matrizes A e B estiverem ambas escritas como matrizes linhas (composta de ma-


trizes colunas do mesmo comprimento (tamanho) A1 , . . . , An e B1 , . . . , Bn respectivamente)

A = [A1 A2 . . . An ]
B = [B1 B2 . . . Bn ]

a soma A + B vem também escrita como uma matriz linha

A + B = [A1 + B1 A2 + B2 An + Bn ] .

Analogamente, se A e B estiverem ambas escritas como matrizes colunas (composta de


matrizes linhas do mesmo comprimento A1 , . . . , An e B1 , . . . , Bn respectivamente)
   
A1 B1
 A2   B2 
   
A =  ..  , B =  .. 
 .   . 
Am Bm

a soma A + B vem também escrita como matriz coluna


 
A1 + B1
 A2 + B2 
 
A+B =  .. 
 . 
Am + Bm

Mais geralmente, se A e B estiverem escritas como matrizes de blocos,


   
A11 A12 B11 B12
A= , B=
A21 A22 B21 B22
18 CONTEÚDO

e além disso os blocos correspondentes Aij e Bij são do mesmo tamanho m × n, então
 
A11 + B11 A12 + B12
A+B =
A21 + B21 A22 + B22

A matriz nula  
0 ... 0
 .. .. 
0 = [0] =  . . 
0 ... 0
como facilmente se pode ver, é o elemento neutro desta adição

M +0=0+M =M.

Propriedades da adição:

ˆ A adição é associativa: A + (B + C) = (A + B) + C.

ˆ A adição é comutativa: A + B = B + A.

ˆ A matriz nula 0 é elemento neutro da adição: 0 + A = A + 0 = A.

iv Multiplicação escalar de matrizes


O conjunto Mm,n (K) das matrizes m × n sobre K está munido de uma multiplicação escalar,
isto é, de uma multiplicação de um escalar α ∈ K por uma matriz M ∈ Mm,n (K). Mais
concretamente, se M = [aij ] e α ∈ K (número real se K = R ou número complexo se
K = C) a multiplicação escalar de α por M é a matriz m × n resultante multiplicando todas
as entradas ai,j por α:
αM = α[aij ] = [αaij ] .
Por exemplo,    
1 2 3 4 5 7 14 21 28 35
7  6 7 8 9 10  =  42 49 56 63 70 
11 12 13 14 15 77 84 91 98 105
Se M estiver escrito como uma matriz de blocos
 
B1,1 B1,2 . . . B1,k
 B2,1 B2,2 . . . B2,k 
M =  ... ...

... ... 
Bℓ,1 Bℓ,2 . . . Bℓ,k

então  
αB1,1 αB1,2 . . . αB1,k
 αB2,1 αB2,2 . . . αB2,k 
αM = 
 ...

... ... ... 
αBℓ,1 αBℓ,2 . . . αBℓ,k
Exemplo:
3. MATRIZES 19

 
1 2 3 4 5  
M =  6 7 8 9 10  = C1,1 C1,2 C1,3
11 12 13 14 15
Então,  
7M = 7C1,1 7C1,2 7C1,3

v Propriedades da multiplicação escalar


ˆ λ(A + B) = λA + λB, A, B ∈ Mm,n (K).

ˆ (λ + µ)A = λA + µA, λ, µ ∈ K, A ∈ Mm,n (K).

ˆ λA = O se e somente se λ = 0 ou A = O.

vi Multiplicação de uma matriz por um escalar


Defina-se de igual modo a multiplicação de uma matrix M ∈ Mm,n (K) por um escalar β ∈ K:

[ai,j ]β = [ai,j β] .

Assim sendo tem-se:


αM = M α .

vii Multiplicação de matrizes


Porque é que a multiplicação não se define como uma multiplicação “componente a compo-
nente” à semelhança com o que acontece com a adição? A razão principal é que a matriz
surgiu para representar aplicações lineares (e consequentemente sistemas de equações lin-
eares). No primeiro caso a composição de duas aplicações lineares traduz-se na multiplicação
de matrizes da forma como vamos definir.

viii Multiplicação de uma (matriz) linha por uma (matriz) coluna


Se L = [a1 a2 a3 . . . an ] é uma matriz linha de tamanho n e
 
b1
 b2 
 
 b3 
C= 
 .. 
 . 
bn

é uma coluna do mesmo tamanho n então


X
n
LC = a1 b1 + a2 b2 + a3 b3 + · · · + an bn = ai b i
i=1

Isto corresponde ao seguinte diagrama


20 CONTEÚDO

=´ b1
b2
b3
+
+
+... bn
+
a1 a2 a3 ... an

ix Multiplicação de duas matrizes


Seja
 A 
L1
 A 
 L2 
 
 L3 
A
A = [ aij ] =  
 
 .. 
 . 
A
Lm
A
uma matriz com m linhas, cada linha Li = [ai1 ai2 . . . ain ] de tamanho n. Seja
B B B B
B = [ bij ] = [C1 C2 C3 . . . Ck ]

uma outra matriz com k colunas, cujas colunas


 
b1j
 b2j 
B 
Cj =  .. 
 . 
bnj

tem o mesmo tamanho n que as linhas de A. Então


 A B A B A B A B

L1 C1 L1 C2 L1 C3 . . . L1 C k
 A B B 
 L2 C1 A
L2 C2
B A
L2 C3
B
. . . L2 C k 
A

  h A Bi
 A B A B A B A B 
AB =  L3 C1 L3 C2 L3 C3 . . . L3 C k  = L i C j .
 
 .. .. .. .. 
 . . . . 
A B A B A B A B
Lm C1 Lm C2 Lm C3 . . . L m Ck
Portanto
A B = [aij ] [bij ] = [cij ]

em que
A B X
n
cij = Li Cj = air brj
r=1
3. MATRIZES 21

x Multiplicação de matrizes por blocos


ˆ A[C1 . . . Cr ] = [AC1 . . . ACr ] , em que A = Am×n e Ci ’s são matrizes colunas n × 1.

ˆ A[B C] = [AB AC] , em que A = Am×n , B = Bn×k e C = Cn×r .


   
L1 L1 B
 ..   .. 
ˆ  . B =  .  , em que os Li ’s são matrizes linhas 1 × n e B = Bn×r .
Lm Lm B
" # " #
A AB
ˆ B= , em que A = Aq×n , M = Mm×n e B = n × r.
M MB

xi Casos particulares
1. O produto de duas matrizes diagonais é uma matriz diagonal.

2. O produto de duas matrizes triangulares superiores é uma matriz triangular superior.

3. O produto de duas matrizes triangulares inferiores é uma matriz triangular inferior.

4. A identidade é o elemento neutro da multiplicação de matrizes quadradas.

Se M = [aij ] = [C1 C2 . . . Cn ] é uma matriz m × n e X = [x1 x2 . . . xn ]T uma matriz


coluna então podemos escrever:
 
a11 x1 + a12 x2 + · · · + a1n xn
 a21 x1 + a22 x2 + · · · + a2n xn 
MX =  


...
am1 x1 + am2 x2 + · · · + amn xn
     
a11 x1 a12 x2 a1n xn
 a21 x1   a22 x2   
=     + · · · +  a2n xn 
 ...  +  ...   ... 
am1 x1 am2 x2 amn xn

    
a11 a12 a1n
 a21   a22   a2n 
=   x1 + 
 ...  
 x2 + · · · +  x
...   ...  n
am1 am2 amn

= C 1 x1 + C 2 x 2 + · · · + C n xn

xii Propriedades da multiplicação


ˆ A multiplicação é associativa: (AB)C = A(BC).
22 CONTEÚDO

ˆ A multiplicação é distributiva, à direita e à esquerda, relativamente à adição:


A(B + C) = AB + AC e (A + B)C = AC + BC.

ˆ Se A é uma matriz m × n então Im A = A e AIn = A .

ˆ Se A é uma matriz m × n então 0m A = 0m×n e A 0n = 0m×n , em que 0k é a matriz


quadrada k × k nula e 0m×n é a matriz rectangular n × m nula.

xiii Não válido na multiplicação de matrizes


h i
0 0
ˆ A multiplicação de matrizes não é comutativa. Exemplo A = e B = AT =
h i h i h i 1 0
0 1 0 0 1 0
0 0 temos AB = 0 1 e BA = 0 0 .

ˆ AB = 0 ⇒ A = 0 ∨ B  = 0  FALSO : AB =
 0 não implica que A = 0 ou B = 0.
Exemplo: Para A = 11 00 e B = 01 01 temos que A = 6 0, B 6= 0 e no entanto
AB = 0.
 1 0 
ˆ Para matrizes
 quadradas AB = 0
 ⇒ BA
 = 0 FALSO : Exemplo: A = 1 0 e
B = 01 01 dá AB = 0 e BA = 02 00 6= 0.

xiv Potências de matrizes (quadradas)


Como a multiplicação de duas matrizes quadradas A e B de ordem n (A, B ∈ Mn,n (K))
é uma matriz quadrada de ordem n, podemos formar potências de uma matriz quadrada:
M k = M M M . . . M (k vezes).
Note-se queh Ak =i 0 não implica necessariamente que A = 0. Por exemplo, a matriz
quadrada A = 01 00 é não nula (A 6= 0) e no entanto A2 = 0.

xv Matriz transposta
A transposta da matriz Mm,n = [ai,j ] é a matriz n × m que resulta colocando as colunas de
M em linhas, na mesma ordem, ou equivalentemente colocando as linhas em colunas.
 
a11 . . . am1
 ..  = [ a ].
M T =  ... .  j,i
a1n . . . amn

Em particular a transposta da matriz linha L = [a1 a2 . . . an ] é a matriz coluna


 
a1
 a2 
 
LT =  .. 
 . 
an
3. MATRIZES 23

enquanto que a transposta da matriz coluna


 
a1
 a2 
 
C= .. 
 . 
am

é a matriz linha C T = [a1 a2 . . . am ]. Portanto, se escrevermos a matriz M como uma


matriz coluna composta de matrizes linhas,
 
L1
 
 L2 

M = .  
 .. 
Ln
então a transposta de M é a matriz linha composta por matrizes colunas M T = [LT1 , LT2 , . . . , LTn ].
Se escrevermos a matriz M como uma matriz linha composta de matrizes colunas
M = [C1 C2 . . . Cn ]
então a sua transposta é uma matriz coluna composta de matrizes linhas
 T 
C1
 T 
 C2 
MT =   .. 

 . 
T
Cn
Exemplos:  
1 6 11 16 21  
  a1
 2 7 12 17 22   a2 
A =
T
 3 8 13 18 23  ,
 [a1 a2 . . . an ]T =  
 ...  .
 4 9 14 19 24 
an
5 10 15 20 25
A transposta de uma matriz triangular superior é uma matriz triangular inferior, e vice-versa.
Se M é uma matriz de blocos
 
A11 . . . A1n
 .. 
M =  ... . 
Am1 . . . Amn
a sua transposta é a matriz de blocos obtida transpondo primeiro cada fila de blocos na
horizontal para a vertical e depois substituir cada um dos blocos pela sua transposta.
 
A11 T . . . Am1 T
 .. 
M T =  ... . 
A1n T . . . Amn T
Esta operação é melhor visualizada pela seguinte figura:
24 CONTEÚDO

Por exemplo, tomando a matriz A definida acima,


 
1 6 11 16 21
   2 7 12 17 22 
B11 T B21 T  
T
A = = 
 3 8 13 18 23 

B12 T B22 T  
4 9 14 19 24
5 10 15 20 25

Propriedades da transposição
ˆ (AT )T = A;

ˆ (λA)T = λ(AT );

ˆ (A + B)T = AT + B T = B T + AT .

ˆ (AB)T = B T AT .

ˆ A AT = 0 ⇒ A = 0 (Verdadeiro para K = R ou Q, mas não para K = C).

xvi Matrizes simétricas e anti-simétricas


Uma matriz M ∈ Mm,n (K) diz-se simétrica se M T = M , e diz-se anti-simétrica se M T =
−M .

Exercı́cio 1 Mostre que:


1. A multiplicação de um escalar por uma matriz simétrica é uma matriz simétrica. Isto é, se M ∈
Mm,n (K) é uma matriz simétrica, então para todo α ∈ K, αM é uma matriz simétrica.

2. Se M ∈ Mm,n (K) é uma matriz anti-simétrica, então para todo α ∈ K, αM é uma matriz anti-
simétrica.

3. Para qualquer matriz M ∈ Mm,n (K), a matriz A = M + M T é simétrica enquanto que a matriz
B = M − M T é anti-simétrica.

4. Toda a matriz M ∈ Mm,n (K) se pode decompor na soma de uma matriz simétrica com uma matriz
anti-simétrica.
3. MATRIZES 25

xvii Traço de uma matriz quadrada


 a11 a12 ... a1n

a21 a22 ... a2n
O traço de uma matriz quadrada M =  .. .. ..  é a soma dos elementos da
. . ... .
an1 an2 ... ann
diagonal principal, Tr M = a11 + a22 + · · · + ann .

Se A e B são matrizes quadradas de ordem n, então Tr AB = Tr BA.

Demonstração. P Pn
De facto, sejam A = [aij ], B = [bij ] e ABP = [cij ], em que cij = n k=1 aik bkj , e BA = [dij ], em que dij = k=1 bik akj . Ora
n
os elementos
P na diagonal de AB são c ii = k=1 a ik bki , para i = 1, 2, . . . , n. Os elementos da diagonal de BA são os elementos
dii = n k=1 bik aki . Então,

X
n X
n X
n n X
X n X
n X
n X
n
Tr AB = cii = aik bki = aik bki = bki aik = dkk = Tr BA.
i=1 i=1 k=1 k=1 i=1 k=1 i=1 k=1

Propriedades do traço
ˆ Tr M = Tr M T .

ˆ Tr (A + B) = Tr A + Tr B

ˆ Tr (AB) = Tr (BA)
P
ˆ Tr (AAT ) = i,j a2ij (a soma dos quadrados dos eltos de A).

ˆ Se A, B ∈ M (n, K) e B é uma matriz invertı́vel,então Tr AB = Tr A. Aqui AB =


B A B −1 .

Demonstração.
Use a propriedade destacada anterior. 2

Técnicas de demonstração. Se uma proposição for falsa basta um exemplo que ateste
a falsidade da afirmação. Se uma proposição for verdadeira há que averiguar a veracidade
para todos os elementos! Numa maneira geral, usa-se um elemento na forma geral que seja
representativo de todos os elementos para atestar a veracidade da proposição. No caso das
matrizes temos as matrizes na forma geral. E como há várias formas gerais, deve-se escolher
aquela que nos parece ser mais conveniente. Isto não invalida a que possamos voltar atrás e
mudar de forma mais tarde. Formas gerais de matrizes:

ˆ M = [ aij ] , eventualmente com aij a ter de satisfazer alguns critérios.


 . 
..
 
ˆ M =  Li  , em que Li é uma matriz linha.
..
.
26 CONTEÚDO

ˆ M = [. . . Cj . . . ] , em que Cj é uma matriz coluna.

Para escolher um exemplo que ateste a falsidade, aconselha-se escolher matrizes pequenas,
por exemplo 2 × 2, e com muitos zeros (por exemplo, todos os elementos zero excepto um)
e alguns na diagonal principal. Evitar escolher matrizes diagonais.
Por exemplo, averigue a veracidade das seguintes afirmações (se forem falsas dê um contra-
exemplo e se forem verdadeiras demonstre-as)

ˆ AB = 0 ⇒ A = 0 ∨ B = 0 (Falso).

ˆ A AT = 0 ⇒ A = 0 (Verdadeiro se K = R ou Q mas falso se K = C).

ˆ A2 = 0 ⇒ A = 0 (Falso)

ˆ A multiplicação de matrizes é comutativa. (Falso)

xviii Matrizes de sistemas de equações lineares


Dado um sistema de m equações lineares a n variáveis x1 , . . . , xn (em K),


 a x + · · · + a1n xn = c1
 11 1
(1) ..
 .

 a x + ··· + a x = c
m1 1 mn n 1

se designarmos por X = [x1 , . . . , xn ]T , C = [c1 , . . . , cm ]T , e por


 
a11 . . . a1n
 .. 
M =  ... . 
am1 . . . amn

então o sistema de equações lineares (1) escreve-se na seguinte forma matricial


    
a11 . . . a1n x1 c1
 .. ..   ..  =  .. 
 . .  .   .  ⇔ MX = C
am1 . . . amn xn cn
que é uma equação linear no conjunto das matrizes Mm×n (K) na variável X (um n-uplo de
variáveis).
A matriz (com cabeçalho) deste sistema é a matriz
 
x1 ... xn ∗
   a 
XT ∗  11 . . . a1n c1 
(2) = 
 .. .. ..


M C  . . . 
am1 . . . amn cm
3. MATRIZES 27

ˆ Ao X T = [x1 x2 . . . xn ] chamamos o cabeçalho ou linha das variáveis.

ˆ À matriz M chamamos a matrix simples do sistema.

ˆ À matriz [M | C] chamamos a matriz ampliada do sistema.


 
X
ˆ À matriz chamamos a matriz simples com cabeçalho.
M

Da matriz do sistema (2) recuperamos o sistema de equações:

MX = C.

As regras (ou princı́pios) de equivalência de sistemas de equações lineares dão origem às
seguinte operações elementares por linhas:

Operações elementares por linhas (OEL):

(L1) Trocar a ordem das linhas da matriz ampliada do sistema .

(L2) Multiplicar uma linha da matriz ampliada por uma constante 6= 0.

(L3) Somar a uma linha da matriz ampliada uma outra outra linha (possivelmente multi-
plicada por uma constante 6= 0).

Operação elementar por colunas:

(C1) Trocar a ordem das colunas na matriz simples com cabeçalho.

Aplicando sucessivamente as 3 regras OEL mais C1, será (claramente) sempre possı́vel
reduzir uma matriz do sistema a uma das seguintes 3 formas :
 
X 0T ∗
(I)  In C 0  , com m = n;
0 0
 0T 
X1 X20T ∗
(II)  Ik B C 0 , onde B é uma matriz não nula e X 0 = X10 ∪ X20 .
0 0 0
 0T 
X1 X20T
 Ik B C10 
(III) 
 0
.
0 1 
0 0 0

O cabeçalho X 0T = [x01 , . . . , x0n ] é uma permutação do cabeçalho original X T . A forma


(I) corresponde a um sistema possı́vel e determinado, a forma (II) a um sistema possı́vel
indeterminado e a forma (III) a um sistema impossı́vel.
28 CONTEÚDO

No caso (I) temos:

  " # " # " # " #


X 0T ∗ I C 0
I X 0
C 0
 In C0  ⇔
n
X0 = ⇔
n
= ⇔ X0 = C0
0
0 0 0 0 0X 0

pelo que as soluções (que são n-uplos) obtidas pelo método de condensação (nos casos onde
o sistema é possı́vel, naturalmente) são da forma (k1 , . . . , kn ), cuja ordenação é determinada
pelo cabeçalho X 0 .
No caso (II) o sistema é possı́vel e indeterminado.

  " #" # " # " # " #


X10T X20T ∗ I B X 0
C 0
I X 0
+ BX 0
C 0
 Ik B C0  ⇔
k 1
= ⇔
k 1 2
=
0 0 0 0 0 X20 0 0X10 + 0X20 0

⇔ X10 + BX20 = C 0 ⇔ X10 = C 0 − BX20


(solução parametrizada por X20 )

Isto é, passando as variáveis X20 a parâmetros obtemos um “sistema possı́vel e determinado”

   0T 
X10T X20T ∗ X1 ∗
 Ik B C 0 
⇔  Ik C 0 − BX20 
0 0 0 0 0

Nota: poderı́amos introduzir mais uma operação (não elementar) por linhas: “Juntar ou
retirar linhas nulas na matriz ampliada”, pois linhas nulas não altera a equivalência (conjunto
solução) do sistema de equações lineares inicial. Por exemplo, no caso (II) retirando as linhas
nulas ficarı́amos com:
 0 
X1 ∗
I C 0 − BX20 T

onde as soluções parametrizadas são

I X10 = X10 = C 0 − BX20 .

A forma de passar de uma matriz de um sistema linear para uma matriz da forma (I),
(II) ou (III) chama-se condensar a matriz do sistema.

   
XT ∗ X 0T ∗
M X = C −→ −→
M C OEL+C1 M0 C0
3. MATRIZES 29

em que
  0T 
 X ∗




 (I)  In C 0  (Sis.P.D.) −→ X 0 = C 0

 Sol.

 0 0



  0T 


  
 X1 X20T ∗

X 0T ∗ (II)  Ik B C 0  (S.P.I.) −→ X10 = C 0 − BX20
= (4)
M0 0 Sol.Par.
C 
 0 0 0



  0T 



 X1 X20T

  Ik

  B C10 
 (Sist. Impossı́vel)

 (III) 


 0 0 1 
0 0 0
   
0 Ik Bk×n−k 0 In
Note-se que M = , com k ≤ n. Se k = n assumimos M = .
0 0 0
O método de condensação de Gauss-Jordan (G-J) usa apenas operações elementares por
linhas (OEL). Isto corresponde a aplicar às colunas de
 0T 
X ∗
M 0 C0

uma permutação por forma a que o cabeçalho volte a ficar na ordem original.
 0T   
X ∗ X ∗
−→
M 0 C0 C1 M 00 C 0

E como não se aplica operações elementares por colunas C1 não há necessidade de andarmos
com o cabeçalho atrás. O método de condensação de Gauss-Jordan trabalha, portanto,
directamente na matriz ampliada do sistema.
   
X ∗ X ∗
M X = C −→ −→
M C OEL M 0 C0

O resultado
 da aplicação
 do método da condensação de Gauss-Jordan é um sistema conden-
X ∗
sado em que M 0 é uma matriz “escalonada” do tipo
M 0 C0
 
1 ∗ 0 ∗ ∗ 0 ∗ ∗
 0 0 1 ∗ ∗ 0 ∗ ∗ 
 
 0 0 0 0 0 1 ∗ ∗  (5)
 
 0 0 0 0 0 0 0 0 
0 0 0 0 0 0 0 0

em que os lideres (ou pivôs) formam a diagonal de uma matriz identidade (as colunas onde
estão os lideres (ou pivôs) são as colunas de uma matriz identidade). Os lı́deres, ou pivôs,
30 CONTEÚDO

são os elementos da matriz correspondentes aos coeficientes das variáveis lı́deres do sistema
na forma escalonada. Se a esta matriz aplicarmos operações elementares por coluna (por
forma a agrupar a matriz identidade), chegamos a uma matriz do tipo:
 
Ik Bk×n−k
0 0

O método de condensação de Gauss é o método que está subjacente ao 1o passo do


método da adição ordenada (ou método de Gauss) para resolução de sistemas de equações
lineares. Tal como o método de condensação de Gauss-Jordan, o método de condensação
de Gauss usa apenas as operações elementares por linhas (OEL) e aplica-se directamente à
matriz ampliada do sistema.
   
X ∗ X ∗
M X = C −→ −→
M C OEL M 0 C0
O resultado final, contudo, é uma matriz simples M 0 que é escalonada mas não contém
necessariamente uma matriz identidade; as colunas onde estão os lideres podem não formar
uma matriz identidade. Se aplicarmos somente operações elementares por colunas a M 0 é
possı́vel transformá-la numa matriz da forma
 
Tk Bk×n−k
0 0
em que a submatriz Tk se transforma por aplicação de operações elementares por colunas
numa matriz triangular superior cuja diagonal é formada pelos lideres [1, 1, . . . , 1].

Observação 1 O método de Gauss não conduz necessariamente sempre à mesma matriz


escalonada. Por exemplo,
   
1 2 0 2 1 2 k 2−k
M −→ 0 1 3 −8  −→  0 1 3 −8  , ∀ k 6= 0 .
0 0 1 −1 0 0 1 −1

O método de condensação de Gauss-Jordan é, portanto, a continuação do método de con-


densação de Gauss até a matriz simples atingir uma forma escalonada do tipo (5) :

   
X ∗       X ∗
M X = C −→ −→ M C −→ M 0 C0 −→ M 00 C 00 −→
M C Gauss G-J M C 00
00

em que    
 00
 In Ik Bk×n−k
M −→ ou
C1 0 0 0

Como as 3 formas finais em (4) não são equivalentes, o método de condensação G-J mais
permutações de colunas (C1) transforma uma matriz M (com m linhas e n colunas) numa
matriz condensada reduzida da forma:
 
In
0
3. MATRIZES 31

no primeiro caso, e possivelmente no terceiro caso, e


 
Ik Bk×m
0 0

no segundo caso com k < n e no terceiro caso com k ≤ n. Ora o método de condensação
não força sempre a um mesmo percurso para chegar àquela forma condensada; pessoas difer-
entes certamente produzirão percursos diferentes. Questiona-se agora, será que as matrizes
identidades In ou Ik a que chegamos serão sempre da mesma ordem?
(i) - No primeiro caso (sistema possı́vel e determinado), o método de condensação produz
sempre uma matriz identidade In (de ordem n). Sistemas equivalentes têm o mesmo número
de soluções, e uma só solução corresponde à matriz In .
(ii) - No segundo caso (sistema possı́vel e indeterminado), a matriz identidade a que se
chega é sempre de ordem k < n, pois este caso dá origem a uma solução parametrizada.
Repare-se que, percursos diferentes do método de condensação não pode originar matrizes
identidades Ik e Iq diferentes; o número de parâmetros das soluções tem de ser o mesmo
visto que o método de condensação transforma uma sistema de equações lineares noutro que
lhe é equivalente (mesmo conjunto solução).
(iii) - No terceiro caso (sistema impossı́vel), introduzindo uma variável extra xn+1 e conse-
quentemente uma nova coluna correspondente a esta nova variável com entradas a 0 excepto
nas linhas correspondentes à matriz 1 onde preenchemos com 1,
 0T 
X1 X20T xn+1
 Ik B 0 C10 
 
 0 0 1 1 
0 0 0 0

transformamos aquela matriz ampliada com cabeçalho numa matriz ampliada com cabeçalho
de um sistema possı́vel. Revertendo o processo (note-se que a coluna do xn+1 permanecerá
imóvel) obtemos um sistema de equações lineares, com n + 1 variáveis, possı́vel (determinado
se k = n ou indeterminado se k < n) e cujo sistema original se recupera eliminando xn+1 .
Por (ii) a aplicação do método de condensação a este sistema conduzirá sempre a uma mesma
matriz identidade Ik (de mesma ordem). Como com a aplicação da operações elementares
de linha (OEL) e de coluna (C1) a última coluna permanece no lugar, ela não têm qualquer
influência na construção da matriz Ik . E como eliminar xn+1 corresponde a eliminar a última
coluna, que não teve nenhuma influência na construção de Ik , concluı́mos que a matriz Ik
a que se chega por aplicação do método de condensação ao sistema original é sempre da
mesma ordem k.
Portando o método de condensação G-J mais (C1) transforma uma matriz M numa
matriz condensada reduzida da forma
 
0 Ik Bk×m
M =
0 0

para algum k ≤ n fixo. Este k chama-se a caracterı́stica da matriz M e denota-se

car(M ) = k .
32 CONTEÚDO

Mais geralmente, a caracterı́stica de uma matriz M é o número de linhas não nulas da


matriz condensada reduzida obtida após a aplicação do método de Gauss-Jordan (sem trocas
de colunas). Assim sendo temos para a matriz ampliada:


 n no caso (I)
car([M C]) = k no caso (II)


k + 1 no caso (III)

Teorema 2 Seja M X = C um sistema de equações lineares com n variáveis.


ˆ Se car(M ) = car([M C]) = n o sistema é possı́vel e determinado;

ˆ Se car(M ) = car([M C]) < n o sistema é possı́vel e indeterminado;

ˆ Se car(M ) 6= car([M C]) o sistema é impossı́vel.

xix Matrizes elementares por linha

As 3 operações elementares por linhas:

(1) Permutação das linhas.

(2) Multiplicar uma linha por um escalar λ 6= 0.

(3) Adicionar a um linha uma outra linha.


Aplicar uma destas três operações elementares a uma matriz M corresponde a multiplicar
uma determinada matriz (matriz elementares por linha) à esquerda de M . Nomeadamente:

A operação elementar (1) realiza-se por uma matriz de permutação P ; uma matriz
quadrada que contém somente um 1 em cada linha e em cada coluna, sendo os restantes
elementos da linha e da coluna zeros. Exemplo:
" 1 0 0 0 #" L # " L #
1 1
0 0 0 1 L2 L4
0 1 0 0 L3 = L2
0 0 1 0 L4 L3

A matriz de permutação P = [C1 , C2 , . . . , Cn ] é uma matriz invertı́vel pois as colunas de


P são linearmente independentes. Trocar a linha Li com a linha Lj em M , considera-se a
matriz permutacional elementar Pi,j que é a matrix identidade com as linhas i e j trocadas.
Por exemplo, seja M uma matrix 5 × 5. Para trocar a segunda com a última linha de M ,
multipliquemos M por P2,5 à esquerda:
 1 0 0 0 0
 L1
  L1

0 0 0 0 1 L2 L5
P2,5 M =  0 0 1 0 0  L3 = L3 
0 0 0 1 0 L4 L4
0 1 0 0 0 L5 L2
3. MATRIZES 33

Multiplicar as linhas de uma matriz por escalares 6= 0 realiza-se por uma matriz diagonal
sem nenhum zero na diagonal principal. A operação elementar (2) realiza-se pois por uma
matriz diagonal elementar em que todos os elementos da diagonal principal são 1 excepto
um que é λ. Portanto, multiplicar a linha Li de M por um escalar λ, corresponde multiplicar
M pela matriz diagonal elementar Di (λ) à esquerda. Exemplo, multiplicar a terceira linha
de M por λ: " #" # " #
1 0 0 0 L1 L1
0 1 0 0 L2 L2
D3 (λ)M = 0 0 λ 0 L3 = λ L3
0 0 0 1 L4 L4

A operação elementar (3) realiza-se por uma matriz que se chama transvector. Esta
matriz consiste na matriz identidade com apenas um 1 fora da diagonal principal. Por
exemplo, se quisermos adicionar à linha i de M a linha j, basta multiplicar pela matriz
transvector Ti,j , que consiste na matriz identidade com um 1 na linha i e coluna j. Exemplo,
" 1 0 0 0 #" L # " L #
1 1
0 1 0 0 L2 L2
T3,1 M = 1 0 1 0 L3 = L3 + L1
0 0 0 1 L4 L4

Ti,j M : à linha i de M soma-se a linha j.


Estes três tipos de matrizes chamam-se matrizes elementares por linhas
A única operação elementar por colunas que usámos para condensar uma matriz foi a
permutação de colunas. Esta operação em M realiza-se por uma matriz permutação mas
desta vez multiplicada à direita de M . Exemplo,
 
1 0 0 0
 0 0 0 1 
 
[C1 , C2 , C3 , C4 ]  0 1 0 0  = [C1 , C3 , C4 , C2 ]
0 0 1 0
C1 C3 C4 C2

Todas estas matrizes são matrizes invertı́veis.


Seja M ∈ Mm×n (K). O método de condensação de Gauss-jordan consiste na aplicação
sucessiva das operações elementares por linhas a M de modo que esta se reduz a uma matriz
escalonada reduzida. Multiplicando à direita h esta matriz
i por uma matriz permutação é
Ik ∗
possı́vel transformá-la numa matriz do tipo 0 0 para algum k. Isto equivale a dizer
que é possı́vel multiplicar à esquerda por matrizes elementares por linhas
h e ià direita por
Ik ∗
uma matriz de permutação para transformar M numa matriz do tipo 0 0 . Por outras
palavras, existe uma matriz invertı́vel A (que é um produto de matrizes elementares por
linhas) e uma matriz permutação B tal que
h i
AM B = I0k 0∗ .

xx Inversa de matrizes (quadradas)


ˆ Uma matriz quadrada M ∈ Mn (K) diz-se invertı́vel se existem duas matrizes quadradas
A, B ∈ Mn (K) tal que
AM = I e M B = I .
34 CONTEÚDO

ˆ Se tal matrizes A e B existem e satisfazem aquelas igualdades então A = B.


De facto, multiplicando a igualdade AM = I por B à direita sai:

(AM )B = IB ⇔ A(M B) = B ⇔ AI = B ⇔ A = B .

ˆ Se M é invertı́vel então existe A tal que AM = M A = I. Tal matriz A chama-se


inversa de M e representa-se por M −1 .

ˆ Unicidade da inversa. Se M é invertı́vel então a inversa M −1 existe e é única (ver 2o


item).

ˆ Propriedades da inversa

◃ (AB)−1 = B −1 A−1
◃ (AT )−1 = (A−1 )T

ˆ Algoritmo para determinação da inversa de uma matriz:

[M I] −→ [I M −1 ]
OEL

em que OEL significa “Operações Elementares por Linhas”.


 
1 0 2
ˆ Exemplo. Seja M = −1 1 −3 . Calculo de M −1 :
1 0 1
   
1 0 2 1 0 0 1 0 2 1 0 0
 −1 1 −3 0 1 0  −→ L2 + L1  0 1 −1 1 1 0 
1 0 1 0 0 1 L3 − L1 0 0 −1 −1 0 1
 
1 0 2 1 0 0
−→  0 1 −1 1 1 0 
−L3 0 0 1 1 0 −1
 
L1 − 2L3 1 0 0 −1 0 2
−→ L2 + L3  0 1 0 2 1 −1 
0 0 1 1 0 −1

 
−1 0 2
−1 −1
Logo M = 2 1 .
1 0 −1

xxi Permutações
Uma permutação σ de {1, 2, 3, . . . , n} é uma aplicação bijectiva de {1, 2, 3, . . . , n} −→
{1, 2, 3, . . . , n}:
 
1 2 ... n
σ= ↓ ↓ ... ↓ 
σ(1) σ(2) . . . σ(3)
3. MATRIZES 35

que é determinado pela n-uplo ordenado (σ(1), σ(2), . . . , σ(n)). Tal representação representa-
se por  
1 2 ... n
σ = σ(1) σ(2) . . . σ(3)
Exemplo, se  
1 2 3 4 5 6
σ= 2 5 4 1 3 6

isto significa que σ(1) = 2 , σ(2) = 5 , σ(3) = 4 , σ(4) = 1 , σ(5) = 3 e σ(6) =


6. Portanto, uma permutação de n objectos corresponde a uma reordenação dos mesmos
objectos.
Chamemos desordem de σ ao número de falhas que a imagem (σ(1), σ(2), . . . , σ(n)) possui
em acompanhar a ordem estabelecida pelo domı́nio (1, 2, . . . , n). No domı́nio, qualquer
número é menor que qualquer outro número à sua direita. Esta regra pode falhar na imagem.
Por exemplo, na permutação σ do exemplo anterior, o 2 é menor do que 5 (correcto), é menor
do que 4 (correcto) mas é maior do que 1 (falha). O 5 é maior do que 4 (falha), é maior do
que 1 (falha), é maior do que 3 (falha) e é menor do que 6 (correcto). Contando as falhas
todas quando percorremos σ(1), . . . , σ(6) temos
desordem(σ) = 1 + 3 + 2 + 0 + 0 + 0 = 6 .
Uma permutação σ diz-se par se desordem(σ) é par e diz-se ı́mpar se desordem(σ) é ı́mpar.
Designemos por (
1 se σ é par
sinal(σ) = (−1)desordem(σ) =
−1 se σ é ı́mpar
Seja Sn o conjunto das permutações de 1, 2, . . . , n. Este conjunto contém n! permutações.
Por exemplo, S2 contém 2 permutações: S2 = {ι, α} em que
 
1 2
ι= 1 2

é a permutação identidade, e  
1 2
α= 2 1

Como desordem(ι) = 0 e desordem(α) = 1, temos


sinal(ι) = 1 e sinal(α) = −1 .
S3 = {σ1 , σ2 , σ3 , σ4 , σ5 , σ6 } contém 3! = 3 × 2 × 1 = 6 permutações:
     
σ1 = 11 22 33 , σ2 = 11 23 32 , σ3 = 12 21 3
3
     
σ4 = 12 23 31 , σ5 = 13 21 32 , σ6 = 13 22 3
1
com
desordem(σ1 ) = 0 , desordem(σ2 ) = 1 , desordem(σ3 ) = 1
desordem(σ4 ) = 2 , desordem(σ5 ) = 2 , desordem(σ6 ) = 3
e portanto
sinal(σ1 ) = 1 , sinal(σ2 ) = −1 , sinal(σ3 ) = −1
sinal(σ4 ) = 1 , sinal(σ5 ) = 1 , sinal(σ6 ) = −1
36 CONTEÚDO

xxii Determinantes (de matrizes quadradas)


Teorema 3 Seja Mn (K) o conjunto das matrizes quadradas n×n com entradas em K = Q,
R, C. Então existe uma e uma só função

det : Mn (K) −→ K
M 7−→ det(M )

tal que

(1) O determinante det(C1 , C2 , . . . , Cn ), como função de colunas (ou linhas), é uma função
multilinear alternada.

(2) det(In ) = 1.

—————————————————————
Uma função f (x) diz-se linear, ou 1-linear, se f (x1 + x2 ) = f (x1 ) + f (x2 ) e f (λx) =
λf (x). Por exemplo f (x) = 9x é uma função linear. Uma função f (x, y) diz-se bilinear, ou
2-linear, se f (x, y) é linear na entrada x e é linear na entrada y; isto é, se

ˆ f (x1 + x2 , y) = f (x1 , y) + f (x2 , y) e f (λx, y) = λf (x, y) (f linear na entrada x);

ˆ f (x, y1 + y2 ) = f (x, y1 ) + f (x, y2 ) e f (x, λy) = λf (x, y) (f linear na entrada y).

Por exemplo, a função f (x, y) = 12xy é bilinear. E assim por diante, f (x, y, z) é 3-linear
se f (x, y, z) é linear na entrada x, é linear na entrada y e é linear na entrada z. A função
f (x, y, z) = 5xyz é uma função 3-linear. Portanto, f (x1 , . . . , xn ) diz-se multilinear, ou n-
linear, se f (x1 , . . . , xn ) é linear em cada uma das entradas x1 , . . . , xn .
Uma função bilinear f (x, y) diz-se alternada se f (y, x) = −f (x, y). Uma função 3-linear
f (x, y, z) diz-se alternada se f (y, x, z) = −f (x, y, z), f (z, y, x) = −f (x, y, z) e f (x, z, y) =
−f (x, y, z). Mais geralmente, uma função multilinear f (x1 , . . . , xn ) diz-se alternada se tro-
cando duas coordenadas xi com xj resulta

f (x1 , . . . , xi , . . . , xj , . . . , xn ) = −f (x1 , . . . , xj , . . . , xi , . . . , xn ) .

—————————————————————

Cálculo do determinante (fórmula de Leibniz)

Seja M = [ aij ] uma matriz em Mn (K). O determinante de M , det(M ) ou (notação alter-


nativa) |M |, é dado por (fórmula de Leibniz)
X
det(M ) = sinal(σ) a1σ(1) a2σ(2) . . . anσ(n) .
σ∈Sn
3. MATRIZES 37

 
Exemplo 1: n = 2. M = a11
a21
a12
a22 , |S2 |=2, logo duas parcelas para o determinante:

det(M ) = sinal(ι)a1ι(1) a2ι(2) + sinal(α)a1α(1) a2α(2)


= a11 a22 − a12 a21 .

Ou seja,
a11 a12
|M | = = a11 a22 − a12 a21 .
a21 a22
 
a11 a12 a13
Exemplo 2: n = 3. M = a21 a22 a23 , |S3 |=6, logo 6 parcelas para o determinante:
a31 a32 a33

det(M ) = sinal(α1 )a1α1 (1) a2α1 (2) a3α1 (3) + sinal(α2 )a1α2 (1) a2α2 (2) a3α2 (3) +
sinal(α3 )a1α3 (1) a2α3 (2) a3α3 (3) + sinal(α4 )a1α4 (1) a2α4 (2) a3α4 (3) +
sinal(α5 )a1α5 (1) a2α5 (2) a3α5 (3) + sinal(α6 )a1α6 (1) a2α6 (2) a3α6 (3)
= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 .

Ou seja

Cálculo de determinantes de matrizes 3 × 3 pela regra de Sarrus:

p1 + p2 + p3 - ( p1 + p2 + p3 )
a11 a12 a13 a11 a12 a13 a11 a12 a13
a21 a22 a23 = a21 a22 a23 a21 a22 a23
a31 a32 a33 a31 a32 a33 a31 a32 a33

= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − (a11 a23 a32 + a12 a21 a33 + a13 a22 a31 )

Cálculo de determinantes pelo método de Laplace


Seja M = [ aij ] uma matriz quadrada.

- Desenvolvimento por uma coluna

Escolhe-se uma coluna Cj (a que tiver mais zeros naturalmente). Então

|M | = a1j (−1)1+j |M1̂ĵ | + a2j (−1)2+j |M2̂ĵ | + . . . + anj (−1)n+j |Mn̂ĵ |

em que Mîĵ é a submatriz obtida retirando a M a linha i e a coluna j.


38 CONTEÚDO

- Desenvolvimento por uma linha

Escolhe-se uma linha Li (a que tiver mais zeros naturalmente). Então

|M | = ai1 (−1)i+1 |Mî1̂ | + ai2 (−1)i+2 |Mî2̂ | + . . . + ain (−1)i+n |Mîn̂ |


sendo Mîĵ a submatriz obtida retirando a M a linha i e a coluna j.

Nota. Ao escalar (−1)i+j Mîĵ chama-se o cofactor do elemento aij . Designemos por

Cofij = (−1)i+j Mîĵ

Propriedades do determinante
ˆ det como função de colunas, det(C1 , . . . , Cn ), é uma função multilinear alternada :

I det(αC1 , C2 . . . , Cn ) = α det(C1 , C2 , . . . , Cn ). O mesmo para C2 , . . . , Cn .


1 12 −5 1 3 −5
Exemplo: 3 4 8 =4 3 1 8
−7 8 1 −7 2 1

I det(C1 + C10 , C2 . . . , Cn ) = det(C1 , C2 , . . . , Cn ) + det(C10 , C2 , . . . , Cn ). O mesmo


para C2 , . . . , Cn .
1 −5 12 1 −5 12 1 −5 0 1 −5 0
Exemplo: 3 8 4 = 3 8 0 + 3 8 4 + 3 8 0
−7 1 8 −7 1 0 −7 1 0 −7 1 8

I det(C1 , C2 , C3 , . . . , Cn ) = −det(C2 , C1 , C3 , . . . , Cn ). O mesmo para a troca de


duas quaisquer outras colunas.
1 −5 12 12 −5 1
Exemplo: 3 8 4 =− 4 8 3
−7 1 8 8 1 −7

———— Consequências da multilinearidade alternada: ———————


I det(C1 , . . . , 0, . . . , Cn ) = 0.
1 0 −5
Exemplo: 3 0 8 =0
−7 0 1

I det(C1 , C2 , . . . , C, . . . , C, . . . , Cn ) = 0.
1 −5 −5
Exemplo: 3 8 8 =0
−7 1 1

I det(C1 , C2 , . . . , C, . . . , αC, . . . , Cn ) = 0.
1 −5 −15 1 −5 3 × −5
Exemplo: 3 8 24 = 3 8 3×8 =0
−7 1 3 −7 1 3×1
3. MATRIZES 39

I det(C1 + αCi , C2 , . . . , Ci , . . . , Cn ) = det(C1 , C2 , . . . , Ci , . . . , Cn ). O mesmo para


C2 , . . . , C n .
1 −5 12 1 −5 12 − 2 × 1 1 −5 10
Exemplo: 3 8 4 = 3 8 4−2×3 = 3 8 −2
6 1 8 6 1 8−2×6 6 1 −4

ˆ O mesmo para linhas: O det como função de linhas, det(L1 , . . . , Ln ), é uma função
multilinear alternada.
Em todos os exemplos anteriores substituir colunas por linhas. Isto corresponde a
tomar nos exemplos as transpostas das matrizes consideradas.
ˆ det(M T ) = det(M ).
1 2 3 1 4 7
Exemplo: 4 5 6 = 2 5 8
7 8 9 3 6 9

ˆ det(AB) = det(A) det(B).


ˆ det(M −1 ) = 1
det(M )
.

ˆ det(αM ) = αn det(M ).

ˆ Se M ∈ Mn (C), temos: det M = det(M ), em que a barra significa conjugado, e
M = [ aij ] = [ aij ] é a matriz dos conjugados.
   
i 2+i −1 + 4i −i 2−i −1 − 4i
Exemplo: M = 1 + i 3i 0 , M = 1 − i −3i 0
4 6 − 4i 0 4 6 + 4i 0
i 2+i −1 + 4i −i 2−i −1 − 4i
|M | = 1+i 3i 0 = 10(3+5i) , |M | = 1−i −3i 0 = 10(3−5i) = |M | .
4 6 − 4i 0 4 6 + 4i 0

ˆ |AM A−1 | = |M |.
ˆ |AM A−1 − λI| = |M − λI|.
d1 ∗ ∗ ∗
0 d2 ∗ ∗
ˆ .. = d1 d2 . . . dn .
0 0 . ∗
0 0 0 dn

d1 0 0 0
∗ d2 0 0
ˆ .. = d1 d2 . . . dn .
∗ ∗ . 0
∗ ∗ ∗ dn

Determinante de matrizes de blocos


As duas primeiras propriedades são úteis, a terceira está aqui apenas a tı́tulo exemplificativo.
An×n Bn×m
ˆ = |An×n | |Dm×m |
0 Dm×m
An×n 0
ˆ = |An×n | |Dm×m |
Cm×n Dm×m
An×n Bn×m
ˆ = |An×n | |Dm×m − Cm×n A−1
n×n Bn×m |
Cm×n Dm×m
40 CONTEÚDO

Matrizes invertı́veis
ˆ Uma matriz M é invertı́vel se e só se |M | 6= 0.
Demonstração: ( ⇒ ) Consequência da aplicação do determinante à igualdade M M −1 = I. ( ⇐ ) Se det(M ) 6= 0
Adj(M )
então podemos formar a matriz B = det(M )
, em que Adj(M ) = [ Cofij ]T . Então M B = BM = I. Logo M é invertı́vel.

ˆ Aplicação a sistemas de equações lineares possı́veis e determinados:

– Um sistema M X = C é possı́vel e determinado se e só se M é invertı́vel.


Se M é invertı́vel a solução do sistema M X = C é X = M −1 C.
– Regra de Laplace (não dado) para calcular soluções de sistemas possı́veis e deter-
minados
MX = C .
Seja M = [C1M , C2M , . . . , CnM ] escrita em função das colunas. Para cada i =
1, . . . , n,
1
xi = det([C1M , . . . , Ci−1
M M
, C, Ci+1 , . . . , CnM ])
|M |

4 Corpos
Um corpo é uma estrutura com duas operações (binárias) internas, adição e multiplicação,
na qual podemos somar, subtrair, multiplicar e dividir (desde que o denominador não seja
igual a zero). Relativamente a uma das suas operações um corpo é um “grupo comutativo”
(definição mais precisa em baixo).
Grupo comutativo (G, ⋆): Um conjunto não vazio G munido de uma operação (binária)
interna ⋆ diz-se um grupo comutativo se

1. ⋆ é associativa. I.e., (x ⋆ y) ⋆ z = x ⋆ (y ⋆ z) para todo x, y, z ∈ G.

2. G possui o elemento neutro η. Para a adição (+) elemento neutro é o zero 0 e para a multiplicação (×) o
elemento neutro é 1. O elemento neutro é o elemento η que satisfaz: η ⋆ x = x ⋆ η = x , ∀ x ∈ G

3. Todo o elemento x ∈ G possui oposto x0 ∈ G. Para a adição o oposto é o simétrico, e para a


multiplicação o oposto é o inverso. O oposto de x define-se como sendo o elemento x′ tal que x ∗ x′ = x′ ∗ x = η.

4. ⋆ é comutativa. I.e., a ⋆ b = b ⋆ a , ∀ a, b ∈ G.

Corpo (K, +, ×): Um corpo é um conjunto K com pelos menos 2 elementos, munido de
duas operações (binárias) internas + e × tais que:

ˆ (K, +) é um grupo comutativo (ou abeliano);

ˆ (K ∗ , ×) é um grupo comutativo; ( K ∗ = K\{0} )

ˆ A multiplicação é distributiva (à direita e à esquerda) relativamente à adição.

Exemplos:
4. CORPOS 41

ˆ Q e R com a adição e multiplicação usuais são corpos.


ˆ O conjunto C = {a + ib | a, b ∈ R}, em que i satisfaz i2 = −1 (isto é, i é uma raiz
do polinómio x2 + 1), é um corpo, o corpo dos complexos. O zero é 0 = 0 + i0 e a
identidade é 1 = 1 + 0i.
Adição de dois complexos:
a + ib
+ c + id
a + c + i(b + d)

Subtracção de dois complexos:


a + ib
− c + id
a − c + i(b − d)

Multiplicação de dois complexos:


a + ib
× c + id
iad − bd
ac + ibc
ac − bd + i(ad + bc)

Divisão de a + ib por c + id em que c + id 6= 0 ⇔ c2 + d2 6= 0 :


a + ib c + id
−cx −idx x + yi
a − cx i(b − dx)
−(−dy) −icy
a − cx + dy i(b − dx − cy)
Agora é só calcular x e y de modo a que o resto seja zero, isto é,
      
a − cx + dy = 0 cx − dy = a c −d x a
⇔ ⇔ =
b − dx − cy = 0 dx + cy = b d c y b
 
c −d
Como a matriz M = tem determinante c2 + d2 6= 0, esta matriz é invertı́vel
d c
pelo que
        −1  
c −d x a x c −d a
= ⇔ =
d c y b y d c b
    
x c d a
⇔ = 1
y c2 +d2 −d c b
   
x ac + bd
⇔ = 1
y c2 +d2 bc − ad
42 CONTEÚDO

Ou seja,
ac + bd bc − ad
x + iy = 2 2
+i 2
c +d c + d2

Observação: Uma outra (e mais rápida) maneira de proceder à divisão:

a + ib (a + ib)(c − id) (ac + bd + i(bc − ad)


= =
c + id (c + id)(c − id) c2 + d2

ˆ Se p é um número primo, o conjunto dos “resı́duos módulo p”, Zp = {0̄, 1̄, 2̄, . . . , p − 1},
em que 0̄ = pZ, 1̄ = 1 + pZ, 2̄ = 2 + pZ, . . . , p − 1 = p − 1 + pZ, é um corpo para a
adição e multiplicação módulo p.

5 Espaços Vectoriais
Um espaço vectorial é um conjunto V = (V, +, ·) munido de duas operações binárias, uma
interna + (chamada adição) e uma externa · (chamada multiplicação escalar) tal que:



 + é associativa






 V possui o vector zero ⃗0 (elto neutro)
1- (V, +) é um grupo comutativo

 Todo o elto x possui simétrico −x em V






 + é comutativa

2- A multiplicação escalar é distributiva relativamente às duas adições (em V e em K)

3- A multiplicação escalar é associativa relativamente à multiplicação em K.

4- ∀ v ∈ V , 1 · v = v.

Notação: Usualmente escrevemos αv em vez de α · v.

Exemplos:
ˆ K é um espaço vectorial sobre K.
A multiplicação escalar de K sobre K é a multiplicação de K. A distributividade da mult. escalar relativamente às
duas adições (em V e em K) traduzem-se na distributividade da multiplicação relativamente à adição (à direita e à
esquerda). Portanto:

– Q é um espaço vectorial sobre Q.


– R é um espaço vectorial sobre R.
– C é um espaço vectorial sobre C.
– Zp é um espaço vectorial sobre Zp , p primo.
5. ESPAÇOS VECTORIAIS 43

ˆ C é um espaço vectorial sobre R.


C = {a + ib | a, b ∈ R} ≡ {(a, b) | a, b ∈ R} = R2 .

Nesta identificação, a adição em C coincide com a adição em R2 e a multiplicação escalar por reais em C coincide com
a multiplicação escalar em R2 . Logo C ∼
= R2 .

ˆ Se V1 , V2 , . . . , Vn são espaços vectoriais sobre K então

V1 × V2 × . . . × Vn = {(v1 , . . . , vn ) | v1 ∈ V1 , v2 ∈ V2 , . . . , vn ∈ Vn }
é um espaço vectorial sobre K.
A adição e a multiplicação escalar são definidas componente a componente:

(v1 , v2 , . . . , vn ) + (v1′ , v2′ , . . . , vn


′ ) := (v + v ′ , v + v ′ , . . . , v + v ′ )
1 1 2 2 n n
α(v1 , v2 , . . . , vn ) := (αv1 , αv2 , . . . , αvn )

O vector nulo é ⃗0 = (⃗01 , ⃗02 , . . . , ⃗0n ), em que ⃗0i é o vector nulo de Vi .

ˆ Se V é um espaço vectorial sobre K então V n = {(x1 , . . . , xn ) | x1 , . . . , xn ∈ V } é um


espaço vectorial sobre K.
A adição e a multiplicação escalar são definidas componente a componente.

Portanto:

– K 2 = {(a, b) | a, b ∈ K} é um espaço vectorial sobre K.


– K 3 = {(a, b, c) | a, b, c ∈ K} é um espaço vectorial sobre K.
– R2 é um espaço vectorial sobre R.
– R3 é um espaço vectorial sobre R.
– C2 é um espaço vectorial sobre C.
– C3 é um espaço vectorial sobre C.
– C é um espaço vectorial sobre R (exercı́cio).
– C2 é um espaço vectorial sobre R.
– C3 é um espaço vectorial sobre R.
ˆ Mm,n (K), o conjunto das matrizes m × n sobre K, é um espaço vectorial sobre K
Cada matriz  
L1
 L2 
 
 . 
 .. 
Lm

identifica-se ao mn-uplo ordenado (L1 , L2 , . . . , Lm ), portanto Mm,n (K) ≡ K mn . Como a adição e multiplicação escalar
em Mm,n (K) se procede componente a componente, então:

     
L1 L′1 L1 + L′1
 L2   L′2   L2 + L′2 
     
 .. + .. = ..  ! (L1 , L2 , . . . , Lm ) + (L′1 , L′2 , . . . , L′m ) = (L1 + L′1 , L2 + L′2 , . . . , Lm + L′m )
 .   .   . 
Lm L′m Lm + L′m
   
L1 αL1
 L2   αL2 
   
α . = ..  ! α(L1 , L2 , . . . , Lm ) = (αL1 , αL2 , . . . , αLm )
 ..   . 
Lm αLm
44 CONTEÚDO

pelo que a adição e multiplicação escalar em Mm,n (K) coincide com a adição e multiplicação escalar em K mn . Logo
Mm,n (K) ∼
= K mn .

Portanto:

– Mm,n (R) é um espaço vectorial sobre R.


– Mm,n (C) é um espaço vectorial sobre C.
– Mm,n (C) é um espaço vectorial sobre R.

ˆ O conjunto dos polinómios em x de grau ≤ n, com coeficientes em K,

Kn [x] = {a0 + a1 x + · · · + an xn | a0 , a1 , . . . , an ∈ K} ,

é um espaço vectorial sobre K.


Um polinómio de grau ≤ n identifica-se a um (n + 1)-uplo

a0 + a1 x + · · · + an xn ! (a0 , a1 , . . . , an )

A adição de polinómios e a multiplicação escalar de polinómios corresponde à adição e multiplicação escalar de (n + 1)-
uplos ordenados:

a0 + a1 x + · · · + an xn (a0 , a1 , . . . , an )
+ b0 + b1 x + · · · + bn xn ! + (b0 , b1 , . . . , bn )
a0 + b0 + (a1 + b1 )x + · · · + (an + bn )xn + (a0 + b0 , a1 + b1 , . . . , an + bn )

α(a0 + a1 x + · · · + an xn ) = αa0 + αa1 x + · · · + αan xn ! α(a0 , a1 , . . . , an ) = (αa0 , αa1 , . . . , αan )

Logo Kn [x] ∼
= K n+1 .

Portanto:

– Rn [x] é um espaço vectorial sobre R.


– Cn [x] é um espaço vectorial sobre C.
– Cn [x] é um espaço vectorial sobre R.

ˆ O conjunto de todos os polinómios em x com coeficientes em K,


K[x] = {a0 + a1 x + · · · + an xn | n ∈ N0 , a0 , a1 , . . . , an ∈ K},
é um espaço vectorial sobre K.
A adição é a adição de polinómios e a multiplicação escalar é a multiplicação de um polinómio constante.

ˆ Seja X um conjunto não vazio. O espaço F (X, K) das funções de X −→ K é um


espaço vectorial.
A adição f + g de duas funções f, g ∈ F (X, K) é a função definida “nas imagens”:

f + g : x 7→ f (x) + g(x) . isto é , (f + g)(x) := f (x) + g(x) .

A multiplicação escalar λf é definida “nas imagens”:

λf : x 7→ λ f (x) . isto é , (λf )(x) := λ f (x) .

ˆ Em particular, o conjunto F (R) = F (R, R) das funções reais de variável real (isto é,
de R −→ R) constitui um espaço vectorial real (exercı́cio) para a adição de funções
(f + g)(x) := f (x) + g(x) e multiplicação escalar (αf )(x) := α f (x).
5. ESPAÇOS VECTORIAIS 45

ˆ O espaço dos vectores com origem num ponto fixo P é um espaço vectorial:

A adição de 2 vectores u + v é dada da seguinte maneira:


u
u+v

v
A multiplicação escalar αv é o vector cujo comprimento é α comp(v) , no mesmo
sentido se α > 0 e no sentido contrário se α < 0:
au u u
u u -u -u
au au au

(α > 1) (0 < α < 1) (−1 < α < 0) (α < −1)

10 Propriedades elementares
1) α ⃗0 = ⃗0 , ∀ α ∈ K.

2) 0 v = ⃗0 , ∀ v ∈ V .

3) (−α) v = −(αv) , ∀ α ∈ K, ∀ v ∈ V .

4) α (−v) = −(αv) , ∀ α ∈ K, ∀ v ∈ V .

5) α (u − v) = αu − αv , ∀ α ∈ K, ∀ u, v ∈ V .

6) (α − β) v = αv − βv , ∀ α, β ∈ K, ∀ v ∈ V .

7) −(−v) = v , ∀ v ∈ V .

8) α v = ⃗0 ⇒ α = 0 ∨ v = ⃗0.

9) α v = β v ∧ v 6= ⃗0 ⇒ α = β.

10) u + v = u + w ⇒ v = w.

Subespaços vectoriais
Seja V um espaço vectorial e U um subconjunto não vazio de V . U diz-se um subespaço
vectorial de V se U munido das mesmas adição e multiplicação escalar de V é por sua vez
um espaço vectorial. Por outras palavras, U diz-se um subespaço vectorial de V se
46 CONTEÚDO

ˆ U é fechado para a adição (i.e. ∀ u, u0 ∈ U , u + u0 ∈ U ),

ˆ U é fechado para a multiplicação escalar (i.e. ∀α ∈ K, ∀ u ∈ U , α u ∈ U ),

ˆ (U, +, ·) satisfaz as propriedades de espaço vectorial.

Nota: Um subespaço vectorial é um espaço vectorial.

Teorema 4 Um subconjunto não vazio U ⊂ V é um subespaço vectorial de V se e só se U


é fechado para a adição e multiplicação escalar.

Demonstração.
( ⇒ ): Imediato.

( ⇐ ): Todas as propriedades do espaço vectorial com a excepção da “existência de elemento neutro” e da “existência de simétrico
de qualquer elemento” são propriedades hereditárias. Portanto só temos de verificar estas duas propriedades.

(a) Existência de elemento neutro: Como U 6= ∅, seja v ∈ V . Sendo U fechado para a multiplicação escalar então ⃗0 = 0v ∈ U .

(b) Existência de simétrico: Seja v um elemento qualquer de U . Pela mesma razão que anteriormente, −v = (−1)v ∈ U . 2

Teorema 5 (Teorema do Subespaço Vectorial) Um subconjunto não vazio U ⊂ V é


um subespaço vectorial de V se e só se

∀ α, β ∈ K , ∀ u, u0 ∈ U , α u + β u0 ∈ U .

Demonstração.
( ⇒ ): Se U < V então sendo U fechado para a multiplicação escalar, αu ∈ U e βu′ ∈ U , e sendo fechada para a adição de
vectores α u + β u′ ∈ U .
( ⇐ ): Se α, β ∈ K , ∀ u, u′ ∈ U , α u + β u′ ∈ U , mostremos que U < V .

1. U é fechado para a adição: é o que resulta quando se toma α = β = 1 ∈ K.

2. U é fechado para a multiplicação escalar: é o que resulta quando se toma β = 0 ∈ K.

3. (U, +, ·) satisfaz as propriedades de espaço vectorial:

(a) (U, +) é grupo comutativo:


i. + é associativa: sendo esta válida quando envolve elementos de V , em particular também é válida quando
envolve apenas elementos de U ⊂ V (a associatividade é uma propriedade hereditária).
ii. U possui o vector ⃗0: sendo U não vazio, ele possui algum elemento u. Sendo U fechado para a multiplicação
escalar então 0u = ⃗0 ∈ U .
iii. ∀ u ∈ U , −u ∈ U : sendo U fechado para a mult. escalar então −u=(−1)u ∈ U .
iv. + é comutativa: sendo esta válida quando envolve 2 quaisquer elementos de V , em particular também é
válida quando envolve 2 elementos de U ⊂ V (a comutatividade é uma propriedade hereditária).
(b) · é distributiva relativamente às duas adições (em U e em K): sendo esta válida quando envolve os elementos
de V , em particular também é válida quando envolve os elementos de U ⊂ V (distributividade da mult. escalar
(relativamente às duas adições) é uma propriedade hereditária).
(c) · é associativa relativamente à multiplicação em K: sendo esta válida quando envolve elementos de V , em
particular também é válida quando envolve elementos de U ⊂ V (a associativa da mult. escalar · é uma
propriedade hereditária).
(d) 1 · u = u ∀ u ∈ U : sendo esta válida quando envolve elementos de V , em particular também é válida quando
envolve elementos de U ⊂ V (esta propriedade é também uma propriedade hereditária).

2
5. ESPAÇOS VECTORIAIS 47

[a,b]
Exemplo 6 O subconjunto F (R) de F (R) constituı́do pelas funções R −→ R que são contı́nuas em
[a, b], é um subespaço vectorial de F (R) (exercı́cio).

Exercı́cio 2 Mostre que:


(1) {(0, x, 0) | x ∈ R} é um espaço vectorial sobre R com a adição e multiplicação escalar usuais.
(2) {(x, x, 2x) | x ∈ R} é um espaço vectorial sobre R com a adição e multiplicação escalar usuais.
(3) {(x, 2x + 3z, z) | x, z ∈ R} é um espaço vectorial sobre R com a adição e multiplicação escalar usuais.
(4) {(a, b, 0) | a, b ∈ R} é um espaço vectorial sobre R com a adição e multiplicação escalar usuais.
" #
a b c
(5) { 0 0 0 | a, b, c, d, e, f ∈ R} é um espaço vectorial sobre R com a adição e multiplicação escalar
d e f
de matrizes.
" #
0 a b
(6) { 0 c d | a, b, c, d, e, f ∈ R} é um espaço vectorial sobre R com a adição e multiplicação escalar
0 e f
de matrizes.
" #
a 0 b
(7) { 0 c 0 | a, b, c, d, e ∈ R} é um espaço vectorial sobre R com a adição e multiplicação escalar de
d 0 e
matrizes.
(8) {(a, b) ∈ R2 | 3a − b = 0 ∧ 2a + 2b = 0} é um espaço vectorial sobre R com a adição e multiplicação
escalar usuais.
(9) {(a, b, c) ∈ R3 | a + 2b + c = 0 ∧ a + 3b + 2c = 0} é um espaço vectorial sobre R com a adição e
multiplicação escalar usuais.
(10) {(a, b, c) ∈ C3 | 3a − 2bi + 4c = 0 ∧ 2ai + 2b + 2ci = 0} é um espaço vectorial sobre C com a adição e
multiplicação escalar usuais.
(11) {(a, b, c) ∈ C3 | a + b = 0 ∧ b + c = 0 ∧ c + a = 0} é um espaço vectorial sobre C com a adição e
multiplicação escalar usuais.
(12) O conjunto das soluções de um sistema homogéneo M X = 0 sobre K, a n variáveis, é um espaço
vectorial sobre K com a adição e multiplicação escalar de matrizes.

Exercı́cio 3 Averigue se:


(1) {(a, 1, b) | a, b ∈ R} é um espaço vectorial sobre R com a adição e multiplicação escalar usuais.
(2) {(a, 2a, 3a − 1) | a, b ∈ C} é um espaço vectorial sobre C com a adição e multiplicação escalar usuais.
(3) {(a, b, a + b, b2 ) | a, b ∈ R} é um espaço vectorial sobre R com a adição e multiplicação escalar usuais.
(4) {(u, v) ∈ Q2 | v 2 = u} é um espaço vectorial sobre Q com a adição e multiplicação escalar usuais.
Rx
(5) {(x, y) ∈ Q2 | y = 0 dt} é um espaço vectorial sobre Q com a adição e multiplicação escalar usuais.
(6) {(y, z) ∈ R2 | z = 2y } é um espaço vectorial sobre R com a adição e multiplicação escalar usuais.
(7) {(y, z) ∈ R2 | z = ey } é um espaço vectorial sobre R com a adição e multiplicação escalar usuais.
(8) {(a, b, c) ∈ C3 | a + b = 0 ∧ b + c = 0 ∧ c + a = 0 ∧ a + b + c = 1} é um espaço vectorial sobre C com a
adição e multiplicação escalar usuais.
(9) {(a, b, a + b, b2 ) | a, b ∈ R} é um espaço vectorial sobre R com a adição e multiplicação escalar usuais.
48 CONTEÚDO

6 Subespaços Vectoriais Gerados


Seja V um espaço vectorial sobre um corpo K.

Teorema 6 A intersecção (de qualquer número) de subespaços vectoriais de V é um espaço


vectorial de V .

Isto é, se {Ui | i ∈ I} é uma famı́lia de subespaços vectoriais de V (o conjunto I é um


conjunto de ı́ndices1 ), então
\
Ui < V .
i∈I

Demonstração.
Exercı́cio. 2

Exemplos 1 1. Seja U = {(a, b, 2a, a + b) | a, b ∈ R} < R4 e W = {(a, 2a, b, a + b) | a, b ∈ R} < R4 .


Então
U = {(x1 , x2 , x3 , x4 ) | x3 = 2x1 , x4 = x1 + x2 }
W = {(x1 , x2 , x3 , x4 ) | x2 = 2x1 , x4 = x1 + x3 }

pelo que,

U ∩W = {(x1 , x2 , x3 , x4 ) | x3 = 2x1 ∧ x4 = x1 + x2 ∧ x2 = 2x1 ∧ x4 = x1 + x3 }



 2x1 − x3 = 0

x1 + x2 − x4 = 0
= {(x1 , x2 , x3 , x4 ) | }

 2x 1 − x2 = 0

x1 + x3 − x4 = 0

Este sistema de equações lineares é homogéneo e por conseguinte tem o vector nulo ⃗0 = (0, 0, 0, 0)
como solução.

Observação Para representar o vector genérico (x1 , x2 , x3 , x4 ) não se aconselha a usar as mesmas
letras usadas no vector (a, 2a, b, a + b), pois as primeiras representam posições, ou coordenadas, en-
quanto que as segundas são parâmetros. Caso contrário, estamos sujeitos a tirar conclusões erradas:
por exemplo, no caso de W , se usarmos (a, b, c, d) como vector genérico, poderı́amos ser levados a
escrever:
a = a , b = 2a , c = b , d = a + b

e isto diz-nos que c = b, isto é, que a 3a entrada do vector é igual à 2a entrada, o que não é verdade.

Este sistema é de fácil resolução: a 1a e 3a equações dizem que x3 = x2 , pelo que a 4a equação é
reduntante (é a mesma que a 2a ). Donde temos,

U ∩W = {(x1 , x2 , x3 , x4 ) ∈ R4 | x2 = 2x1 , x3 = 2x1 , x4 = x1 + x2 = x1 + 2x1 = 3x1 }


= {(x1 , 2x1 , 2x1 , 3x1 ) | x1 ∈ R} .

1
Por exemplo, I = {1, 2}, I = {1, 2, 3, 4, 5}, I = {1, 2, 3, 4, 5, 6, . . . , n}, etc.
6. SUBESPAÇOS VECTORIAIS GERADOS 49

Em alternativa podemos resolver este sistema pelo método de condensação de Gauss-Jordan:


   
2 0 −1 0 0 1 0 1 −1 0
 1 1 0 −1 0  L4 → L1  1 1 0 −1 0 
  ⇔  
 2 −1 0 0 0  L1 → L4  2 −1 0 0 0 
1 0 1 −1 0 2 0 −1 0 0
 
1 0 1 −1 0
L2 = L2 − L1  0 1 −1 0 0 
⇔ L3 = L3 − 2L1  
L4 = L4 − 2L1
 0 −1 −2 2 0 
0 0 −3 2 0
 
1 1 0 −1 0
 0 1 −1 0 0 
⇔ L3 = L3 + L2  
 0 0 −3 2 0 
0 0 −3 2 0
 
1 1 0 −1 0
L4 = L4 − L3  0 1 −1 0 0 
⇔  
L3 = − 31 L3  0 0 1 − 32 0 
0 0 0 0 0
 
1 1 0 −1 0
 − 23 
 0 1 0 0 
⇔ L2 = L2 + L3  
 0 0 1 − 23 0 
0 0 0 0 0
 
1 0 0 − 31 0
 − 23 
 0 1 0 0 
⇔ L1 = L1 − L2  
 0 0 1 − 23 0 
0 0 0 0 0

Portanto temos
 
x1 x2 x3 x4  
 1  x1 x2 x3 x4     −1   
 0 0 − 13 0  
   1 0 0 − 31 0 

1 0 0 x1

3

0
 0 1 0 − 23 0  =   ⇔  0 1 0   x2 + − 23  [x4 ] =  0 
   0 1 0 − 23 0 
 0 0 1 − 23 0  0 0 1 x3 − 23 0
0 0 1 − 23 0
0 0 0 0 0

Ou seja,
   1

x1 3 x4
   2 
 x2  =  3 x4 
2
x3 3 x4

Logo
1 2 2
U ∩ W = {( x4 , x4 , x4 , x4 ) | x4 ∈ R} = {(x4 , 2x4 , 2x4 , 3x4 ) | x4 ∈ R} .
3 3 3

2. Seja U = {(a, 2a, b) | a, b ∈ R} < R3 e W = {(a, a + b, b) | a, b ∈ R} < R3 . Determine U ∩ W .

Seja X um conjunto não vazio de V . O subespaço vectorial gerado por X, que denotamos
50 CONTEÚDO

por h X i, é o “menor” subespaço vectorial de V que contém X. Isto é,


\
hX i = U.
U <V
X⊂U

Da definição resulta :

Se U < V e X ⊂ U , então h X i ⊂ U .

Por exemplo:
ˆ h ⃗0 i = {⃗0}
hvi
v

ˆ h v i = {αv | α ∈ K} :
Seja U = {αv | α ∈ K}. Porque h v i é um espaço vectorial, logo fechado para a mul-
tiplicação escalar, e contém v, então temos U ⊂ h v i por construção. Para mostrar a
outra inclusão, vamos usar a informação destacada anteriormente da definição. Mostremos
que U < V e que X = {v} ⊂ U , isto é, que v ∈ U . Que v ∈ U é imediato pois
v = 1 v, logo da forma αv (α = 1). Para mostrar que U < V usaremos o teorema
do subespaço vectorial, Teorema 5. Sejam λ, δ ∈ K e a = αv, b = α0 v ∈ U . Então
λa + δb = λ(αv) + δ(α0 v) = (λα)v + (δα0 )v = (λα + δα0 )v ∈ U . Logo U < V e como
v ∈ U então h v i ⊂ U . Conclusão, U = h v i.

hvi

v
hui
u

ˆ h u, v i = {αu + βv | α, β ∈ K} :
Seja U = {αu + βv | α, β ∈ K}. Analogamente, porque h u, v i é um espaço vectorial,
logo fechado para a multiplicação escalar e adição de vectores, e contém u, v, então
temos U ⊂ h u, v i por construção. Mostremos que h u, v i ⊂ U . Sejam λ, δ ∈ K
escalares quaisquer e sejam a = αu + βv, b = α0 u + β 0 v ∈ U dois vectores genéricos de
U . Então
λa + δb = λ(αu + βv) + δ(α0 u + β 0 v) = λ(αu) + λ(βv) + δ(α0 u) + δ(β 0 v)
= (λα)u + (λβ)v + (δα0 )u + (δβ 0 )v = (λα + δα0 )u + (λβ + δβ 0 )v ∈ U .
Como u = 1u + 0v ∈ U e v = 0u + 1v ∈ U então h u, v i ⊂ U . Por conseguinte,
h u, v i = U .
7. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 51

ˆ h v1 , v2 , . . . , vn i = {α1 v1 + α2 v2 + · · · + αn vn | α1 , α2 , . . . , αn ∈ K}. A demonstração é


idêntica às demonstrações anteriores.

À expressão α1 v1 +α2 v2 +· · ·+αn vn chamamos uma combinação linear dos vectores v1 , v2 , . . . , vn .


Assim sendo, o espaço vectorial gerado por v1 , . . . , vn é o conjunto das combinações lineares
dos v1 , . . . , vn . Se U = h u1 , . . . , un i então {u1 , . . . , un } é um conjunto de geradores de U .
h i h i
1 2 1 0
Exemplo 7 No espaço vectorial M2 (R) calcule o subespaço vectorial gerado por 0 1
e 1 0
.

h i h i h i h i h i
Res: h 1
0
2
1 , 1
1
0
0 i = {α 1
0
2
1 +β 1
1
0
0 | α, β ∈ R} = { α+β
β

α | α, β ∈ R}.

7 Dependência e independência linear


Dois vectores u, v dizem-se linearmente dependentes se um deles pertence ao subespaço
vectorial gerado pelo outro.
Por exemplo o vector nulo ⃗0 e qualquer outro vector v 6= ⃗0 são linearmente dependentes
pois ⃗0 ∈ h v i. Note-se que v 6∈ h ⃗0 i = {⃗0}.
Três vectores u, v, w dizem-se linearmente dependentes se um deles pertence ao subespaço
vectorial gerado pelos restantes.
Por exemplo os vectores u (azul), v (verde) e w (vermelho) nas duas figuras seguintes,
são linearmente dependentes.

u w u v
v w

Enquanto que na primeira figura, w ∈ h u, v i, assim como v ∈ h u, w i, já o vector


u 6∈ h v, w i pois v e w são linearmente dependentes. Na segunda figura, qualquer um dos
três vectores pertence ao subespaço vectorial gerado pelos restantes.
Dizemos que os vectores v1 , . . . , vn são linearmente dependentes se um deles pertencer ao
subespaço vectorial gerado pelos restantes. Por outras palavras,

v1 , . . . , vn são linearmente dependentes ⇔ vi ∈ h v1 , . . . , vbi , . . . , vn i para algum i

Mais geralmente, ∅ 6= X é um conjunto de vectores linearmente dependentes se existe


x ∈ X tal que x ∈ h X\{x} i.
Uma combinação linear nula de v1 , . . . , vn é uma combinação linear desses vectores que
dá o vector nulo. Se α1 v1 + · · · + αn vn é uma combinação linear nula então

α1 v1 + · · · + αn vn = ⃗0 .
52 CONTEÚDO

Há uma combinação linear nula que é trivial : 0v1 + · · · + 0vn , pois

0v1 + · · · + 0vn = ⃗0

Teorema 7 v1 , . . . , vn ∈ V são linearmente dependentes se e só se existe uma combinação


linear nula dos v1 , . . . , vn que é não trivial.

Demonstração.
( ⇒ ): Se v1 , . . . , vn ∈ V são linearmente dependentes então um dos vectores pertence ao subespaço vectorial gerado pelos
restantes. Sem perda de generalidade (SPdG) podemos supor que é o vector v1 que pertence ao subespaço vectorial gerado
pelos restantes:
v1 ∈ h v2 , . . . , vn i = {α2 v2 + · · · + αn vn | α2 , . . . , αn ∈ K} .

Portanto v2 = α2 v2 + · · · + αn vn para alguns α2 , . . . , αn ∈ K. Passando v2 para o segundo membro temos

−v1 + α2 v2 + · · · + αn vn = ⃗0

e portanto −v1 + α2 v2 + · · · + αn vn é uma combinação linear nula dos v1 , . . . , vn não trivial porque −1 6= 0.
( ⇐ ): Se α1 v1 + · · · + αn vn = ⃗0 para algum αi 6= 0, sem perda de generalidade suponhamos que é α1 6= 0, então

α2 αn
α1 v1 = −α2 v2 − · · · − αn vn ⇔ v1 = − v2 − · · · − vn .
α1 α1

Portanto, v1 é uma combinação linear dos restantes, isto é, v1 pertence ao subespaço vectorial gerado pelos restantes. Por
conseguinte v1 , . . . , vn são linearmente dependentes. 2

Se os vectores v1 , . . . , vn não são linearmente dependentes dizemos que eles são linear-
mente independentes. No exemplo anterior, respeitante à primeira figura (figura da es-
querda), os vectores u e v são linearmente independentes, assim como os vectores u e w
são linearmente independentes. Na segunda figura, quaisquer dois vectores são linearmente
independentes.
Note-se que o vector nulo ⃗0 é linearmente dependente, pois α⃗0 = ⃗0 para qualquer que
seja α 6= 0, ou seja, toda a combinação linear não trivial de ⃗0 dá o vector nulo.
Mais geralmente. Seja X 6= {⃗0} um subconjunto não vazio de um espaço vectorial V .

X é um conjunto de vectores linearmente independentes se ∀ x ∈ X, x 6∈ h X\{x} i.

Como consequência imediata do Teorema 7 temos o seguinte corolário:

Corolário 8 v1 , . . . , vn ∈ V são linearmente independentes se e só se só existe uma única


combinação linear nula dos v1 , . . . , vn , que é a trivial.

Isto é,

v1 , . . . , vn ∈ V são linearmente independentes se e só se :


α1 v1 + · · · + αn vn = ⃗0 ⇒ α1 = α2 = · · · = αn = 0
7. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 53

Propriedades elementares
(1) Se U < V então h U i = U .

(2) Se ∅ 6= X ⊂ Y então h X i ⊂ h Y i.

(3) v ∈ h X i ⇔ h X, v i = h X i.

(4) X é um conjunto de vectores linearmente dependentes ⇔

∃ x ∈ X, h X\{x} i = h X i .

u w u v
v w

h u, v, w i = h u, v i = h u, w i. h u, v, w i = h u, v i = h u, w i = h v, w i.

(5) X é um conjunto de vectores linearmente independentes ⇔

∀ x ∈ X, h X\{x} i 6= h X i .

Exercı́cio 4 Seja V um espaço vectorial. Sejam X e Y subconjuntos de V . Mostre que:


1) Se X ⊂ Y e X é um conjunto de vectores linearmente dependentes então Y é também um conjunto de
vectores linearmente dependentes.
2) Se X ⊂ Y e Y é um conjunto de vectores linearmente independentes então também X é um conjunto de
vectores linearmente independentes.
3) {v1 , . . . , vn } ⊂ V são vectores linearmente independentes se e só se existe apenas uma única maneira de
escrever cada vector w ∈ h v1 , . . . , vn i como uma combinação linear dos v1 , . . . , vn .

Nota: w escreve-se de modo único como combinação linear dos v1 , . . . , vn significa que existe
uma única sequência α1 , . . . , αn tal que w = α1 v1 +· · ·+αn vn . Isto é, se w = α1 v1 +· · ·+αn vn
e w = α10 v1 + · · · + αn0 vn então α1 = α10 , . . . , αn = αn0 .
O resultado patente no último exercı́cio merece ser destacado:

v1 , . . . , vn são vectores linearmente independentes se e só se cada vector w ∈ h v1 , . . . , vn i


se escreve de modo único como uma combinação linear dos v1 , . . . , vn .

Por outras palavras,


54 CONTEÚDO

Vectores linearmente independentes determinam um sistema de referência para o espaço


vectorial por eles gerado.

Exemplo 8 No espaço vectorial R1 [x] = {a + bx | a, b ∈ R} dos polinómios em x de grau ≤ 1 (ou lineares)


com coeficientes em R averigue se os polinómios 2x + 1 e x − 1 são linearmente independentes.

Res: Vamos utilizar o Corolário 8.


α(2x + 1) + β(x − 1) = 0 ⇔ 2αx + α + βx − β = 0
⇔ (2α + β)x + α − β = 0

2α + β = 0

α−β =0

3α = 0

α−β =0

α=0

β=0
A única combinação linear nula possı́vel é a trivial. Os dois vectores são portanto linearmente
independentes.

8 Bases
i Geradores
Seja V um espaço vectorial e seja X um subconjunto não vazio de v. Como vimos anterior-
mente, h X i < V . Se V = h X i dizemos que X gera V , ou que X é um conjunto gerador
de V , ou ainda que X é um conjunto de geradores de V . Seja Y um outro subconjunto (não
vazio) de V . Dizemos que X gera Y se Y ⊂ h X i.

Lema 9 Se X gera Y e Y gera Z então X gera Z.

Demonstração.
Exercı́cio. 2

Teorema 10 Se X = {v1 , . . . , vn } é um conjunto de vectores linearmente independentes e


X não gera V então ∀ v ∈ V \h X i, X ∪ {v} é ainda um conjunto de vectores linearmente
independentes.

Demonstração.
Mostremos que X ∪ {v} é um conjunto de vectores linearmente independentes. Usando o Corolário 8, suponhamos que α1 v1 +
· · · + αn vn + λv = ⃗0. Se λ 6= 0 então esta igualdade diz-nos que v é combinação linear dos vectores de X, isto é, v ∈ h X i, o
que não pode ser. Portanto λ = 0. Neste caso passaremos a ter α1 v1 + · · · + αn vn = ⃗0 o que implica, visto serem linearmente
independentes, α1 = 0, . . . , αn = 0. Portanto X ∪ {v} é um conjunto de vectores linearmente independentes. 2
8. BASES 55

ii Conjunto minimal de geradores de V


Um conjunto X de geradores de V diz-se minimal se retirando um elemento qualquer a X
obtém um conjunto que não gera V . Portanto X é um conjunto minimal de geradores de V
se
hX i = V ∧ ∀ x ∈ X , h X\{x} i 6= V .
Pela propriedade elementar (5), todo o conjunto minimal de geradores de V é constituı́do
por vectores linearmente independentes, isto é,

Teorema 11 Se X é um conjunto minimal de geradores de V então X é constituı́do por


vectores linearmente independentes.

Demonstração.
Consequência da Propriedade Elementar (5) (Secção “Dependência e Independência linear”). 2

iii Conjunto maximal de vectores linearmente independentes


Seja X é um conjunto de vectores linearmente independentes. Dizemos que X é maximal se
ao juntarmos um qualquer outro vector o conjunto deixa de ser linearmente independente.
Portanto, X é um conjunto de vectores linearmente independentes maximal se ∀ v ∈ V \X,
X ∪ {v} é um conjunto de vectores linearmente dependentes.

Corolário 12 Se X = {v1 , . . . , vn } é um conjunto maximal de vectores linearmente inde-


pendentes então X gera V .

Demonstração.
Consequência imediata da Propriedade Elementar (4) (Secção “Dependência e Independência linear”). 2

Teorema 13 X é um conjunto minimal de geradores de V se e só se X é um conjunto


maximal de vectores linearmente independentes de V .

iv Base
Chamamos base de um espaço vectorial V a um conjunto maximal B de vectores linearmente
independentes de V .
Como o vector nulo ⃗0 é um vector linearmente dependente, por definição uma base de
um espaço vectorial é constituı́do por vectores não nulos. Por conseguinte, o espaço vectorial
nulo {⃗0} não tem nenhuma base.
Seja V 6= {⃗0}. Um conjunto minimal de geradores de V é um conjunto maximal de
vectores linearmente independente, e vice-versa, um conjunto maximal de vectores linear-
mente independente é um conjunto minimal de geradores. Portanto, um conjunto minimal
de geradores de V uma base de V .

Se {v1 , . . . , vn } é uma base de V então v1 6= ⃗0, . . . , vn 6= ⃗0.


56 CONTEÚDO

( 14 Seja V um espaço vectorial. Um subconjunto {b1 , . . . , bn } de V é uma base de


Teorema
{b1 , . . . , bn } gera V
V ⇔
b1 , . . . , bn sãos linearmente independentes.

Demonstração.
( ⇒ ): Imediato (já foi visto).

( ⇐ ): Seja B = {b1 , . . . , bn }. Mostremos que se B gera V e B é constituı́do por vectores linearmente independentes então B
é uma base, isto é, B é minimal. Por redução ao absurdo: se B não fosse minimal então isto significaria que existiria algum
elemento b ∈ B tal que B\{b} gera V . Mas então h B i = h B\{b} i o que contraria a independência linear dos vectores de B
(ver Propriedade Elementar (5) (Secção “Dependência e Independência linear”)). 2

Teorema 15 Seja X = {v1 , v2 , . . . , vn } um subconjunto de V . Então X é uma base de V


se e só se qualquer vector v ∈ V se escreve de forma única como combinação linear dos
elementos de X.

Demonstração.
Imediato. 2

Teorema 16 Seja X = {v1 , v2 , . . . , vn } um subconjunto de V . Seja v um vector genérico de


V . Então o sistema de equações lineares em α1 , α2 , . . . , αn :
α1 v1 + α2 v2 + · · · + αn vn = v
é possivel e determinado se e só se X é uma base de V .

Demonstração.
De facto, o sistema é possı́vel e determinado significa que todo o vector de V se escreve de forma única como combinação linear
dos elementos de X. Pelo Teorema 15, isto equivale a dizer que X é uma base de V . 2

Exemplo 9 Averigue se {2x + 1, x − 1} é uma base do espaço vectorial R1 [x] dos polinómios lineares.

Res: Já tı́nhamos visto no Exemplo 8 que estes vectores são linearmente independentes.
Falta-nos mostrar que eles geram R1 [x] = {ax + b | a, b ∈ R}. Seja ax + b um elemento
qualquer de R1 [x] e averiguemos se ele pertence h 2x+1, x−1 i, isto é, se ele é uma combinação
linear daqueles polinómios:
α(2x + 1) + β(x − 1) = ax + b ⇔ (2α + β)x + α − β = ax + b

2α + β = a

α−β =b

3α = a + b

α−β =b
(
α = a+b
⇔ 3
β = a+b
3
− b = a−2b
3

Isto diz-nos que ax + b = a+b


3
(2x + 1) + a−2b
3
(x − 1) é uma combinação linear dos 2x + 1, x − 1.
Logo eles geram R1 [x]. Portanto {2x + 1, x − 1} é uma base de R1 [x].
8. BASES 57

h i h i
1 2 1 0
Exemplo 10 Averigue se { 0 1
, 1 0
} constitui uma base do espaço vectorial das matrizes M2 (R).

Res: (1) Vejamos se eles são linearmente independentes.


h i h i h i h i h i
1 2 1 0
α 0 1 +β 1 0 = 0 0 ⇔ 0 0 α + β 2α
β α = 0
0
0
0 ⇔ α=β=0
h i h i
1 2 1 0
A única combinação linear nula é a trivial. Portanto 0 1 , 1 0 são linearmente inde-
pendentes.
(2) Vejamos agora se eles geram M2 (R). No exemplo 7 calculámos o subespaço vectorial por
eles gerado: h i h i h i
h 10 21 , 11 00 i = { α + β
β 2α
α | α, β ∈ R} .

Isto mostra que háh matrizes


i em M2 (R)h que nãoi h são geradas
i por aquelas matrizes; por
1 0 1 2 1 0
exemplo, a matriz 1 1 . Portanto { 0 1 , 1 0 } não é um conjunto gerador de
M2 (R) e por conseguinte não é uma base de M2 (R).

v Dimensão
O teorema seguinte é um corolário do Teorema 10:

Teorema 17 (Transformação de uma base) Se B = {b1 , . . . , bn } é uma base de V então


para todo v ∈ V \h b2 , . . . , bn i, B 0 = {v, b2 , . . . , bn } é uma base de V .
Demonstração.
Pelo Teorema 10 só temos que mostrar que B ′ gera V . Mas como B gera V , só temos que mostrar que B ′ gera B. O único
elemento de B que não está em B ′ , é b1 . Portanto só temos que mostrar que b1 é combinação linear dos elementos de B ′ :
Como B gera V e v ∈ V , então v é uma combinação linear dos bi s:

v = α1 b1 + α2 b2 + · · · + αn bn .

Se α1 = 0 então v ∈ h b2 , . . . , bn i o que não é verdade. Portanto α1 6= 0. Então

1 α2 αn
b1 = v− b2 − · · · − bn
α1 α1 α1

o que mostra que b1 ∈ h v, b2 , . . . , bn i = h B ′ i. Logo B ′ gera B. Concluı́mos assim que B ′ gera V . 2

Teorema 18 Seja V um espaço vectorial. Se B1 = {b1 , . . . , bn } e B2 = {b01 , . . . , b0m } são


duas bases de V então |B1 | = |B1 | (isto é, n = m).

Demonstração.
Suponhamos que n ≤ m. Comecemos por retirar b1 a B1 . Como B1 é um conjunto de geradores minimal, então {b2 , . . . , bn } não
gera V , e por conseguinte não gera B2 . Então h b2 , . . . , bn i não pode conter B2 , pelo que algum dos seus elementos encontra-se
fora deste subespaço. SPG suponhamos que é o b′1 , isto é, b′1 ∈ V \h b2 , . . . , bn i. Pelo Teorema 17, {b′1 , b2 , . . . , bn } é uma base
de V . Repetimos o processo, agora retirando b2 a esta última base. O conjunto {b′1 , b3 , . . . , bn } não gera V e portanto não gera
B2 , logo algum elemento de B2 não é gerado por eles. Esse elemento não pode ser b′1 , tem de ser outro. SPG, suponhamos que
é b′2 . Então (Teorema 17) {b′1 , b′2 , b3 , . . . , bn } é ainda uma base de V . Continuando com este processo, chegarı́amos (a menos
de uma permutação dos elementos de B2 ) a que {b′1 , b′2 , . . . , b′n } é uma base de V . Mas então se n < m isto significa que B2
não é um conjunto gerador minimal, isto é, não é uma base – o que não pode ser. Logo m = n. 2
58 CONTEÚDO

O teorema 18 diz-nos duas quaisquer bases finitas de um espaço vectorial V têm o mesmo
número de elementos. Ao número n de elementos de uma qualquer base finita de V chama-se
dimensão do espaço vectorial V , e escreve-se

dim(V ) = n = número de elementos de uma base

Se o número de elementos de uma base é infinito, todas as base de V têm um número infinito
de elementos, escrevemos dim(V ) = ∞ e dizemos que V é um espaço vectorial de dimensão
infinita. Por exemplo, o conjunto de todos os polinómios com coeficientes reais é um espaço
vectorial real de dimensão infinita: os polinómios 1, x, x2 , x3 , x4 , x5 , . . . , são linearmente
independentes e são em número infinito.
Neste texto iremos debruçar somente em espaços vectoriais de dimensão finita, pelo que
todo o espaço vectorial aqui mencionado, se nada se diz sobre a sua dimensão, é suposto ser
de dimensão finita.

Observação 2
(i) Se U < V então dim(U ) ≤ dim(V ).
(ii) Se U < V e U 6= V então dim(U ) < dim(V ).
(iii) dim({⃗0}) = 0. Em muitos textos isto é estabelecido por convenção.
Isto acontece porque uma base de U gera U e por conseguinte, se U 6= V , não pode gerar
V . Portanto, uma base de U é um conjunto de vectores linearmente independentes que é
maximal em U mas não é maximal em V .

vi Bases canónicas
Uma base de um espaço vectorial não é único, contudo para espaços vectoriais concretos uma
base em geral se destaca de entre todas de forma trivial. Essas bases chamar-se-ão bases
canónicas. Dado um corpo K, o espaço vectorial K n é um espaço vectorial que possui uma
base canónica. Todo o elemento v ∈ K n é um n-uplo que se decompões de forma trivial,
v = (α1 , α2 , . . . , αn ) = (α1 , 0, . . . , 0) + (0, α2 , . . . , 0) + · · · + (0, 0, . . . , αn )
= α1 (1, 0, . . . , 0) + α2 (0, 1, . . . , 0), . . . , αn (0, 0, . . . , 1)
como uma combinação linear dos n vectores (1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1). Estes
vectores são claramente linearmente independentes (a única combinação linear nula é a triv-
ial). Portanto
( (1, 0, . . . , 0) , (0, 1, 0, . . . , 0) , (0, 0, . . . , 1) )
é a base canónica ordenada de K n , para K = Q, R, C, Zp , etc. A ordenação da base é
também canónica.
Outro espaço vectorial com uma base canónica é o espaço vectorial das matrizes Mm×n (K).
Neste caso a base canónica é
 1 0 ... 0   0 1 ... 0   0 0 ... 1 
0 0 ... 0 0 0 ... 0 0 0 ... 0
 .. .. .. .. ,  .. .. .. .. , . . . ,  .. .. .. .. ,
. . . . . . . . . . . .
0 0 ... 0 0 0 ... 0 0 0 ... 0
8. BASES 59

 0 0 ... 0
  0 0 ... 0
  0 0 ... 0

1 0 ... 0 0 1 ... 0 0 0 ... 1
 .. .. .. .. ,  .. .. .. .. , . . . ,  .. .. .. .. ,
. . . . . . . . . . . .
0 0 ... 0 0 0 ... 0 0 0 ... 0
 0 0 ... 0
  0 0 ... 0
  0 0 ... 0

0 0 ... 0 0 0 ... 0 0 0 ... 0
 .. .. .. .. ,  .. .. .. .. , . . . ,  .. .. .. .. 
. . . . . . . . . . . .
1 0 ... 0 0 1 ... 0 0 0 ... 1

Neste caso não existe uma ordenação que se possa considerar canónica. Ainda outro espaço
vectorial com uma base canónica é o espaço vectorial Kn [x] dos polinómios em x de grau
≤ n com coeficientes em K. Analogamente ao caso K n , se identificarmos o polinómio
a0 +a1 x+a2 x2 +· · ·+an xn com o n-uplo (a0 , a1 , a2 , . . . , an ), temos que B = {1 , x, x2 , . . . , xn }
a base canónica de Kn [x], enquanto que

1 , x, x2 , . . . , xn

é a base canónica ordenada. Destas bases tiramos a seguinte informação quanto às dimensões
destes espaços vectoriais:

Corolário 19

ˆ dim(K n ) = n.

ˆ dim(Mm×n (K)) = mn.

ˆ dim(Kn [x]) = n + 1.

vii Componentes e coordenadas relativamente uma base ordenada


Seja V um espaço vectorial sobre um corpo K. Seja (b1 , b2 , . . . , bn ) uma base ordenada de V .
Porque b1 , . . . , bn geram V , qualquer vector v ∈ V escreve-se como uma combinação linear
dos b1 , . . . , bn :
v = α1 b1 + α2 b2 + · · · + αn bn = v1 + v2 + · · · + vn .
Porque b1 , . . . bn são linearmente independentes esta combinação linear é única (ver exercı́cio
4.3 - ver resultado em destaque). Por conseguinte, os escalares α1 , . . . , αn , bem como os
vectores v1 = α1 b1 , . . . , vn = αn bn , que se chamam as componentes de v segundo b1 , . . . , bn ,
respectivamente, são únicos. Ao n-uplo

(α1 , . . . , αn )

chamamos as coordenadas do vector v relativamente à base ordenada (b1 , b2 , . . . , bn ). Também


chamamos ao n-uplo
(v1 , v2 , . . . , vn )
as componentes do vector v relativamente à base ordenada (b1 , b2 , . . . , bn ).
Para ilustrar geometricamente, consideremos um espaço vectorial V de dimensão 2 gerado
por b1 e b2 (base).
60 CONTEÚDO

v2

v
b2

b1 v1

Neste caso, um vector qualquer v expressa-se por uma combinação linear


v = α 1 b1 + α 2 b2
e portanto v decompõe-se na soma de dois vectores
v = v1 + v2
em que v1 = α1 b1 é a componente de v segundo b1 , e v2 = α2 b2 é a componente de v segundo
b2 . Portanto as coordenadas e as componentes do vector v relativamente à base ordenada
(b1 , b2 ) são
(α1 , α2 ) e (v1 , v2 ) ,
respectivamente.
Exemplo 11 Calcule as componentes e as coordenadas do vector 6x − 9 relativamente à base ordenada
(2x + 1, x − 1) de R1 [x].

Res: Ora
6x − 9 = α(2x + 1) + β(x − 1) = v1 + v2
| {z } | {z }
v1 v2
em que 
v1 = 2αx + α
v2 = βx − β

v1 + v2 = (2α + β)x + α − β = 6x − 9
o que dá origem ao seguinte sistema

2α + β = 6
α−β = −9

3α = −3
cuja solução é α = −1 e β = 8. Portanto as componentes de 6x − 9 relativamente à base
ordenada (2x + 1, x − 1) é
(v1 , v2 ) = (−2x − 1 , 8x − 8) ,
enquanto que as coordenadas de 6x − 9 relativamente à base ordenada (2x + 1, x − 1) é
(α, β) = (−1, 8) .
9. SOMA DE SUBESPAÇOS. SUBESPAÇOS COMPLEMENTARES 61

viii Prolongamento de uma base


Seja V um espaço vectorial de dimensão n e seja U um subespaço vectorial de V de dimensão
m. Porque U < V , da observação 3 tira-se que dim(U ) ≤ dim(V ). Isto é, m ≤ n.
Seja B = {b1 , . . . , bm }) uma base de U . Como uma base é um conjunto de vectores
linearmente independentes e maximal em U , B não é necessariamente maximal em V . Pelo
Teorema 10, qualquer vector dm+1 ∈ V \B extende B a um conjunto de vectores linearmente
independentes B 0 = B ∪ {dm+1 } de V . Este conjunto tem m + 1 elementos. Se B 0 ainda não
é maximal em V , isto é, se dim(V ) > m + 1, novamente pelo Teorema 10, qualquer outro
vector dm+21 ∈ V \B 0 extende B 0 a um novo conjunto de vectores linearmente independentes
B 00 = B 0 ∪ {dm+2 } = B ∪ {dm+1 , dm+2 } de V . Procedendo desta maneira iterada obteremos
uma base B ∪ {dm+1 , dm+2 , . . . , dm+r } de V com m + r = dim(V ) elementos.
Isto mostra:

Teorema 20 (Teorema do completamento de bases) Se U < V e BU é uma base de


U então existem vectores v1 , . . . , vm ∈ V \U tal que B ∪ {v1 , . . . , vm } é uma base de V .

9 Soma de subespaços. Subespaços complementares


Soma de subespaços vectoriais
Seja V um espaço vectorial de dimensão finita sobre K. Sejam A < V e B < V . Definamos
o espaço soma:

A + B := {a + b | a ∈ A, b ∈ B}

Teorema 21 (Soma de subespaços) Sejam V um espaço vectorial sobre K, e A e B


subespaços de V . Então
(1) A + B < V .

(2) A + B = h A ∪ B i.

(3) Seja BA∩B = {e1 , . . . , eq } é uma base de A ∩ B. Pelo teorema da extensão de bases,
sejam BA = {e1 , . . . , eq , ak+1 , . . . , am } uma base de A e BB = {e1 , . . . , eq , bk+1 , . . . , bn }
uma base de B. Então

B = {e1 , . . . , eq , ak+1 , . . . , am , bk+1 , . . . , bn }

é uma base de A + B.

Demonstração.

1. Usando o Teorema da base (Teorema 14). Seja U = A + B. Então ∀ α, β ∈ K, ∀ u1 = a1 + b1 , u2 = a2 + b2 ∈ U ,

αu1 + βu2 = α(a1 + b1 ) + β(a2 + b2 ) = (αa1 + βa2 ) + (αb1 + βb2 ) = a′ + b′ ∈ U = A + B

onde a′ = αa1 + βa2 ∈ A e b′ = αb1 + βb2 ∈ B. Logo A + B < V .


62 CONTEÚDO

2. A + B ⊂ h A ∪ B i : de facto, h A ∪ B i contém A ∪ B, logo contém A e contém B, e como é fechado para a some,


então h A ∪ B i contém todos os elemento da forma a + b com a ∈ A e b ∈ B.
A + B ⊃ h A ∪ B i : de facto, pela alı́nea anterior A + B < V e por outro lado, A + B contém A (é só tomar b = ⃗0)
e contém B (é só tomar a = ⃗0), logo contém A ∪ B. Como h A ∪ B i é o menor subespaço vectorial que contém A ∪ B,
então h A ∪ B i ⊂ A + B.

3. Todo o elemento v ∈ A + B é da forma v = a + b com a ∈ A e b ∈ B. Como BA gera A e BB gera B então B = BB ∪ BB


gera A ∪ B e como A ∪ B gera A + B então B gera A + B (ver Lema 9). Mostremos agora que os elementos de B são
linearmente independentes. Consideremos uma combinação linear nula dos elementos de B qualquer

δ1 e1 + · · · + δq eq + αq+1 aq+1 + · · · + αm am + βq+1 bq+1 + · · · + βn bn = ⃗0 .


| {z }
b

e mostremos que δ1 = · · · = δq = βq+1 = · · · = βn = 0. Passando a parte b para o outro membro da equação temos

−b = −(βq+1 bq+1 + · · · + βn bn ) = δ1 e1 + · · · + δq eq + αq+1 aq+1 + · · · + αm am

o que nos diz que −b pertence tanto a B como a A, isto é, b ∈ A ∩ B. Como A ∩ B é gerado por BA∩B então b é uma
combinação linear dos elementos de BA∩B , isto é,

b = γ1 e1 + · · · + γq eq .

Substituindo em cima e reagrupando as parcelas temos uma combinação linear nula envolvendo os elementos da base
BA :
(δ1 + γ1 )e1 + · · · + (δq + γq )eq + αq+1 aq+1 + · · · + αm am = ⃗0

Como os elementos de BA são linearmente independentes então

δ1 + γ1 = 0 , . . . , δq + γq = 0 e αq+1 = 0 , . . . , αm = 0
| {z }

Substituindo os valores dos αi realçados acima na combinação linear nula inicial obtemos uma combinação linear nula

δ1 e1 + · · · + δq eq + βq+1 bq+1 + · · · + βn bn = ⃗0

envolvendo os vectores da base BB . Como BB é um conjunto de vectores linearmente independentes então

δ1 = 0 , . . . , δq = 0 , βq+1 = 0 , . . . , βn = 0 .

Corolário 22 (Teorema da dimensão) Se A, B são subespaços vectoriais de um espaço


vectorial de dimensão finita V então A + B é um subespaço vectorial de V de dimensão

dim(A + B) = dim(A) + dim(B) − dim(A ∩ B) .

Soma directa de subespaços vectoriais


Sejam V um espaço vectorial, A < V e B < V . Vimos atrás que a soma A + B é um
subespaço vectorial de V de dimensão dim(A + B) = dim(A) + dim(B) − dim(A ∩ B).
Todo o vector v ∈ A + B decompõe-se em v = a + b com a ∈ A e b ∈ B (não necessaria-
mente de forma única).
9. SOMA DE SUBESPAÇOS. SUBESPAÇOS COMPLEMENTARES 63

Exemplo 12 Seja A = h (1, 1, 0), (0, 1, 0) i e B = h (0, 1, 0), (0, 1, 1) i. É fácil ver que

A = h (1, 0, 0), (0, 1, 0) i e que B = h (0, 1, 0), (0, 1, 1) i ,

pelo que A + B = R3 . Consideremos o vector

v = (1, 1, 1)

e analisemos de quantas maneiras distintas podemos decompor v como soma v = a + b com a ∈ A e b ∈ B.

a ∈ A ⇔ a = α(1, 1, 0) + β(0, 1, 0) = (α, α + β, 0)

b ∈ B ⇔ b = δ(0, 1, 0) + γ(0, 1, 1) = (0, δ + γ, γ)


Então

 α=1
(1, 1, 1) = a + b = (α, α + β + δ + γ, γ)) ⇔ α+β+δ+γ =1 ⇔ α = γ = 1 ∧ δ = −1 − β

γ=1

O sistema tem uma infinidade de soluções, as soluções são parametrizadas por β. Isto significa que v = (1, 1, 1)
se pode decompor numa soma v = a + b com a ∈ A e b ∈ B de uma infinidade de maneiras diferentes, uma
maneira por cada concretização de α = 1, β (qualquer), δ = −1 − β e γ = 1 :

(1, 1, 1) = (1, 1 + β, 0) + (0, −β, 1) , ∀ β ∈ R.


| {z } | {z }
a∈A b∈B

Por exemplo, (1, 1, 1) = (1, 1, 0)+(0, 0, 1) = (1, 2, 0)+(0, −1, 1) = (1, 0, 0)+(0, 1, 1) com (1, 1, 0), (1, 2, 0), (1, 0, 0) ∈
A e (0, 0, 1), (0, −1, 1), (0, 1, 1) ∈ B. Em particular o vector nulo ⃗0 = (0, 0, 0) também se decompõe de muitas
(uma infinidade) maneiras diferentes: substituindo (1, 1, 1) por (0, 0, 0) obterı́amos como solução paramétrica
α = γ = 0 ∧ δ = 1 − β, o que dá as seguintes soluções:

(0, 0, 0) = (0, β, 0) + (0, 1 − β, 0) , ∀ β ∈ R.


| {z } | {z }
a∈A b∈B

Definição: Dizemos que A + B é uma soma directa se A ∩ B = {⃗0}.

Se A + B é soma directa escrevemos A ⊕ B.

Teorema 23 A + B é soma directa se e só se cada vector v ∈ A + B se decompõe de forma


única em v = a + b com a ∈ A e b ∈ B.
Demonstração.
( ⇒ ) Hip: A + B é soma directa.
Mostremos que (tese): todo o vector v ∈ A + B se escreve de forma única como v = a + b com a ∈ A e b ∈ B.
Suponhamos que v = a + b e v = a′ + b′ com a, a′ ∈ A e b, b′ ∈ B. Então temos a + b = a′ + b′ ⇔ a − a′ = b′ − b. Porque
b − b′ ∈ B (pois b, b′ ∈ B) a igualdade diz-nos que a − a′ ∈ B. Mas também a − a′ ∈ A, logo a − a′ ∈ A ∩ B. Mas A ∩ B = {⃗0}
logo a − a′ = ⃗0, o que implica também que b′ − b = ⃗0. Portanto a′ = a e b′ = b.
( ⇐ ) Hip: Se v ∈ A + B então v escreve-se de forma única como v = a + b com a ∈ A e b ∈ B.
Tese: A ∩ B = {⃗0}. Seja v ∈ A ∩ B qualquer. Então podemos escrever:

v = v + ⃗0 = ⃗0 + v .
|{z} |{z} |{z} |{z}
∈A ∈B ∈A ∈B

Como por hipótese a forma de escrita é única, então v = ⃗0. 2


64 CONTEÚDO

Corolário 24 A + B é soma directa se e só se o vector nulo ⃗0 se decompõe de forma única


como ⃗0 = a + b com a ∈ A e b ∈ B. Essa forma única é, naturalmente, ⃗0 = ⃗0 + ⃗0.

Demonstração.
⇒ : Teorema 23.

⇐ : Mostremos que A ∩ B = {⃗0}. Seja v ∈ A ∩ B. Então ⃗0 = v + −v . Da unicidade de escrita (hipótese) sai que v = ⃗0. 2
|{z} |{z}
∈A ∈B

Lema 25 A + B é soma directa se e só se dim(A + B) = dim(A) + dim(B)

Demonstração.
Imediato, pois {⃗0} é o único (sub)espaço vectorial de dimensão 0. 2

Soma de n subespaços vectoriais


Mais geralmente, se U1 , . . . , Un são subespaço vectoriais de V então a soma

U1 + U2 + · · · + Un = {u1 + u2 + · · · + un | u1 ∈ U1 , u2 ∈ U2 , . . . , un ∈ Un }

é um subespaço vectorial de V (exercı́cio). Mais

U1 + U2 + · · · + Un = h U1 ∪ U2 ∪ . . . ∪ Un i .

Dizemos que esta soma é direta se

Ui ∩ (U1 + · · · + Ui−1 + Ui+1 + · · · + Un ) = {⃗0}

para i = 1, 2, . . . , n. O Teorema 23 e o Corolário 24 generalizam-se:

Lema 26

ˆ U1 +U2 +· · ·+Un é soma directa se e só se cada vector v ∈ U1 +U2 +· · ·+Un se decompõe
de forma única como v = u1 + u2 + · · · + un com u1 ∈ U1 , u2 ∈ U2 , . . . , un ∈ Un .

ˆ U1 + U2 + · · · + Un é soma directa se e só se o vector nulo ⃗0 se decompõe de forma


única como ⃗0 = u1 + u2 + · · · + un com u1 ∈ U1 , u2 ∈ U2 , . . . , un ∈ Un . Essa forma
única é ⃗0 = ⃗0 + ⃗0 + · · · + ⃗0.

Subespaços vectoriais complementares


Sejam V um espaço vectorial sobre K e A < V . Um subespaço vectorial B < V diz-se um
subespaço complementar de A em V se V = A ⊕ B.

Lema 27 Um subespaço vectorial B de V é um subespaço complementar de A em V se e


só se B + A = V e dim(B) = dim(V ) − dim(A).
9. SOMA DE SUBESPAÇOS. SUBESPAÇOS COMPLEMENTARES 65

Se B é um subespaço complementar de A em V então também A é um subespaço com-


plementar de B em V .
Um subespaço complementar de A em V não é único, de facto existem uma infinidade
deles se K = Q, ou R, ou C. Por exemplo, os subespaços vectoriais de dimensão 1 (rectas que
passam pela origem) ilustradas na Figura seguinte (W a verde, E a vermelho e L a preto) são
espaços complementares de U (plano XOY que representa o espaço vectorial gerado pelos
vectores (1, 00) e (0, 1, 0)).
E
L W

Teorema 28 Se V é um espaço vectorial de dimensão finita então todo o subespaço vectorial


U de V possui um subespaço complementar.

Demonstração.
Seja BU = {e1 , . . . , em } uma base de U e seja B = {e1 , . . . , em , em+1 , . . . , en } uma base de V obtida por extensão da base
BU (Teorema 20). Seja W = h em+1 , . . . , en i < V . Então W é um subespaço complementar de U , pois dim(W ) = dim(V ) −
dim(U ). 2

Este teorema dá-nos uma maneira de construir um subespaço complementar a um sube-


spaço vectorial U de um espaço vectorial V de dimensão finita n.
......................
Exemplo 13 Tomando o exemplo anterior.
ˆ Encontre um subespaço complementar de U = h (1, 1, 0), (0, 1, 0) i em em R2 = {(x, y, 0) | x, y ∈ R}.
Procuramos por um subespaço W de dimensão dim(W ) = dim(R2 ) − dim(U ) = 2 − 2 = 0, que
juntamente com U gere R2 = {(x, y, 0) | x, y ∈ R}. O único subespaço complementar de U é portanto
W = {⃗0}.
ˆ Encontre um subespaço complementar de U = h (1, 1, 0), (0, 1, 0) i em R3 .
Procuramos por um subespaço W de dimensão dim(W ) = dim(R3 ) − dim(U ) = 3 − 2 = 1, que
juntamente com U gere R3 . Um tal espaço é W = h (0, 0, 1) i. Outro poderá ser h (1, 1, 1) i, ou
h (2, −6, 8) i, etc. Qualquer vector v = (a, b, c) com c 6= 0 gera um subespaço complementar a U em
R3 .
ˆ Encontre um subespaço complementar de U = h (1, 1, 0, 0), (0, 1, 0, 0) i em R4 .
Agora procuramos por um subespaço W de dimensão dim(W ) = dim(R4 ) − dim(U ) = 4 − 2 = 2 que
juntamente com U gere R4 . Usemos a construção usada na demonstração do Teorema 28. Ora uma
base de U é BU = {(1, 1, 0, 0), (0, 1, 0, 0)}. Um vector que esteja em R3 = {(x, y, z, 0) | x, y, z ∈ R} e
que não esteja em U é por exemplo (0, 1, 1, 0) (qualquer um serve desde que tenha a terceira coordenada
6= 0). Finalmente, um vector que esteja em R4 e que não esteja em
h (1, 1, 0, 0), (0, 1, 0, 0), (0, 1, 1, 0) i = {α(1, 1, 0, 0) + β(0, 1, 0, 0) + δ(0, 1, 1, 0) | α, β, δ ∈ R}
= {(α, α + β + δ, δ, 0) | α, β, δ ∈ R} .
66 CONTEÚDO

Como observo que a última coordenada é sempre 0, então qualquer vector com a última coordenada
6= 0 serve. Por exemplo (1, 0, 1, 1) não está neste subespaço vectorial. Então

W = h (0, 1, 1, 0), (1, 0, 1, 1) i

é um subespaço complementar de U em R4 .

Sejam V um espaço vectorial e U é um subespaço vectorial de V . Se U possui um


subespaço complementar W , então V = U ⊕ W , e cada vector v ∈ V decompõe-se de forma
única em v = u + w com u ∈ U e w ∈ W . A projecção πW : V −→ W ⊂ V , v = u + w 7→ w,
é linear e satisfaz (1) πW (u) = 0, ∀ u ∈ U , (2) v − πW (v) ∈ U , ∀ v ∈ V .
Reciprocamente,

Teorema 29 Sejam V um espaço vectorial e U < V . Se ψ : V −→ V é um endomorfismo


(aplicação linear) tal que

(1) ψ(u) = 0 , ∀ u ∈ U ,

(2) v − ψ(v) ∈ U , ∀ v ∈ V ,

então Im(ψ) é um subespaço complementar a U em V .


Demonstração.
Pretendemos mostrar que V = U ⊕ Im(ψ).
Como para todo v ∈ V , v decompõe-se em v = (v − ψ(v)) + ψ(v) em que v − ψ(v) ∈ U e ψ(v) ∈ Im(ψ), então V = U + Im(ψ).
Esta soma é directa, de facto, se ψ(v) ∈ U então, como também v − ψ(v) ∈ U ,

0 = ψ(v − ψ(v)) = ψ(v) − ψ(ψ(v)) = ψ(v) − 0 = ψ(v) .

Logo a soma é directa. 2

10 Aplicações lineares
Sejam V e V 0 dois espaços vectoriais sobre um mesmo corpo K. Uma aplicação

f : V −→ V 0

diz-se linear (ou um homomorfismo de espaços vectoriais) se

1. ∀ v1 , v2 ∈ V , f (v1 + v2 ) = f (v1 ) + f (v2 ) ;

2. ∀ v ∈ V, ∀ α ∈ K, f (αv) = αf (v) .

Exemplo 14 A aplicação f : R3 −→ R2 , (x, y, z) 7→ (x − y, y + z), é uma aplicação linear. De facto, se


v1 = (x1 , y1 , z1 ) e v2 = (x2 , y2 , z2 ) são dois elementos quaisquer de R3 então

f (v1 + v2 ) = f (x1 + x2 , y1 + y2 , z1 + z2 ) = (x1 + x2 − (y1 + y2 ), y1 + y2 + z1 + z2 )


= (x1 − y1 + x2 − y2 , y1 + z1 + y2 + z2 )
f (v1 ) + f (v2 ) = (x1 − y1 , y1 + z1 ) + (x2 − y2 , y2 + z2 )
= (x1 − y1 + x2 − y2 , y1 + z1 + y2 + z2 )
10. APLICAÇÕES LINEARES 67

Logo f (v1 + v2 ) = f (v1 ) + f (v2 ). Por outro lado, se α ∈ K = R é um escalar qualquer e v = (x, y, z) ∈ R3 é
um vector qualquer então

f (αv) = f (αx, αy, αz) = (αx − αy, αy + αz)


= α(x − y, y + z)
= αf (v) .

Teorema 30 f : V −→ V 0 é linear se e só se ∀ α, β ∈ K, ∀ v1 , v2 ∈ V se tem

f (αv1 + βv2 ) = αf (v1 ) + βf (v2 ) .

Demonstração.
( ⇒ ): É imediato (exercı́cio).

( ⇐ ): Exercı́cio. 2

i Propriedades elementares
ˆ f (⃗0) = ⃗0 .

ˆ f (−v) = −f (v) .

ˆ f (v1 − v2 ) = f (v1 ) − f (v2 ) .

Mostremos apenas a primeira propriedade: f (⃗0) = f (0 ⃗0) = 0f (⃗0) = ⃗0 .


As restantes são deixadas como exercı́cio.

ii Composição de aplicações lineares


Sejam f : V −→ V 0 e g : V 0 −→ V 00 duas aplicações lineares entre espaços vectoriais sobre
o mesmo corpo K. A composição g ◦ f : V −→ V 00 é ainda uma aplicação linear. De facto,
pelo Teorema 30,

g ◦ f (αv1 + βv2 ) = g (f (αv1 + βv2 ))


= g (αf (v1 ) + βf (v2 ))
= αg (f (v1 )) + βg (f (v2 ))
= α g ◦ f (v1 ) + β g ◦ f (v2 )

a composição f ◦ g é linear também. Aplicando isto consecutivamente temos:

Teorema 31 A composição de aplicações lineares é uma aplicação linear.

Exemplo 15 Consideremos a aplicação linear f : R3 −→ R2 , (x, y, z) 7→ (x − y, y + z), do Exemplo 14.


Seja g : R2 −→ R3 , (x, y) 7→ g(x, y) = (x + 2y, 0, y).
ˆ Mostre que g é uma aplicação linear.
ˆ Calcule ϕ = g ◦ f : R3 −→ R3 .
68 CONTEÚDO

Resolução:
ˆ g(α(x1 , y1 ) + β(x2 , y2 )) = g(αx1 + βx2 , αy1 + βy2 ) = (X + 2Y, 0, Y )
| {z } | {z }
X Y
= (αx1 + βx2 + 2(αy1 + βy2 ), 0, αy1 + βy2 ) = (αx1 + 2αy1 + βx2 + 2βy2 , 0, αy1 + βy2 ) .
Por por outro lado,
αg(x1 , y1 )+βg(x2 , y2 ) = α(x1 +2y1 , 0, y1 )+β(x2 +2y2 , 0, y2 ) = (αx1 +2αy1 +βx2 +2βy2 , 0, αy1 +βy2 ).
Confirmamos que g(α(x1 , y1 ) + β(x2 , y2 )) = αg(x1 , y1 ) + βg(x2 , y2 ). Portanto g é linear.
ˆ ϕ(x, y, z) = g(f (x, y, z)) = g(x − y, y + z) = (x − y + 2(y + z), 0, y + z) = (x + y + 2z, 0, y + z).

iii Imagem de uma aplicação linear


Sejam v1 , . . . , vn vectores de um espaço vectorial V (sobre um corpo K) e f : V −→ V 0 uma
aplicação linear.

Teorema 32 f (h v1 , . . . , vn i = h f (v1 ), . . . , f (vn ) i .

Demonstração.
De facto,
f (h v1 , . . . , vn i = f {α1 e1 + · · · + αn vn | αi ∈ K}
= {f (α1 e1 + · · · + αn vn ) | αi ∈ K}
= {α1 f (e1 ) + · · · + αn f (vn ) | αi ∈ K}
= h f (v1 ), . . . , f (vn ) i .
2

Corolário 33 Seja f : V −→ W uma aplicação linear.

(A) Se v1 , . . . , vn são linearmente dependentes então também f (v1 ), . . . , f (vn ) são linear-
mente dependentes.

(A’) Se f (v1 ), . . . , f (vn ) são linearmente independentes então também v1 , . . . , vn são linear-
mente independentes.

(B) Se f é injectiva e f (v1 ), . . . , f (vn ) são linearmente dependentes, então v1 , . . . , vn são


linearmente dependentes.

(B’) Se f é injectiva e v1 , . . . , vn são linearmente independentes, então f (v1 ), . . . , f (vn ) são


linearmente independentes

Demonstração.

(A) : Hip: v1 , . . . , vn são linearmente dependentes. Isto significa que um deles pertence ao subespaço vectorial gerado pelos
restantes. SPG, suponhamos que é v1 . Então v1 ∈ h v2 , . . . , vn i. Sendo f linear então pelo Teorema 32,

f (v1 ) ∈ f (h v2 , . . . , vn i) = h f (v2 ), . . . , f (vn ) i ,

o que significa que f (v1 ), . . . , f (vn ) são linearmente dependentes.


10. APLICAÇÕES LINEARES 69

(B) : O recı́proco de (A) não é sempre verdadeiro, isto é: f (v1 ), . . . , f (vn ) são linearmente dependentes não implica que
v1 , . . . , vn são linearmente dependentes. Por exemplo, no exemplo anterior (Exemplo 14)

f : R3 −→ R2 , (x, y, z) 7→ (x − y, y + z)

os vectores (1, 0) = f (1, 0, 0) e (2, 0) = f (0, −2, 2) em R2 são linearmente dependentes e no entanto os vectores v1 =
(1, 0, 0) e v2 = (0, −2, 2) são linearmente independentes. Isto acontece porque a aplicação não é injectiva.

Se f é injectiva então o recı́proco de (A) é também verdadeiro, isto é:


Se f é injectiva e f (v1 ), . . . , f (vn ) são linearmente dependentes então v1 , . . . , vn são linearmente dependentes.
Procedamos à demonstração: De facto, SPG se f (v1 ) ∈ h f (v2 ), . . . , f (vn ) i = f (h v2 , . . . , vn i) isto significa que f (v1 ) =
f (v) para algum v ∈ h v2 , . . . , vn i. Como f é injectiva então v1 = v e por conseguinte v1 ∈ h v2 , . . . , vn i. Ou seja,
v1 , . . . , vn são linearmente dependentes.

(A’), (B’) : Como uma implicação A ⇒ B é equivalente a ∼B ⇒ ∼A 2, (A) e (B) lidos na forma negativa (isto é, na forma
∼ B ⇒ ∼ A) fica:

(A’) Se f (v1 ), . . . , f (vn ) são linearmente independentes, então também v1 , . . . , vn são linearmente independentes.

(B’) Se f é injectiva e v1 , . . . , vn são linearmente independentes, então f (v1 ), . . . , f (vn ) são linearmente independentes

Destaquemos num corolário independente a parte a verde do corolário anterior:

Corolário 34 Seja f : V −→ W uma aplicação linear.

ˆ Se f (v1 ), . . . , f (vn ) são linearmente independentes então também v1 , . . . , vn são linear-


mente independentes.

ˆ Se f é injectiva e v1 , . . . , vn são linearmente independentes, então f (v1 ), . . . , f (vn ) são


linearmente independentes

Portanto

Se f é injectiva então :
v1 , . . . , vn são linearte independentes ⇔ f (v1 ), . . . , f (vn ) são linearte independentes.

Corolário 35 Se f : V −→ W é uma aplicação linear e V é um espaço vectorial de di-


mensão finita então f é “completamente” determinada pelas imagens de f de uma base de
V.
Isto é, se B = {b1 , b2 , . . . , bn } é uma base de V , então f é determinada pelas imagens
{f (b1 ), f (b2 ), . . . , f (bn )}.

2
O sı́mbolo ∼ significa “negação”. ∼A lê-se “não A”.
70 CONTEÚDO

iv Isomorfismos
Uma aplicação linear f : V −→ V 0 diz-se
ˆ monomorfismo se f é injectiva;

ˆ epimorfismo se f é sobrejectiva;

ˆ isomorfismo se f é bijectiva;

ˆ endomorfismo se V = V 0 ;

ˆ automorfismo se f é um endomorfismo bijectivo.


Se f : V −→ V 0 é um isomorfismo, os espaços vectoriais V e V 0 dizem-se isomorfos, e
escrevemos V ∼= V 0.

Lema 36 Se f : V −→ V 0 é uma aplicação linear bijectiva então f −1 : V 0 −→ V é também


linear.
Demonstração.
Queremos mostrar que a igualdade f −1 (αv1′ + βv2′ ) = αf −1 (v1′ ) + βf −1 (v2′ ) é verdadeira. De facto, como f é uma aplicação
(bem definida) e é injectiva temos

f −1 (αv1′ + βv2′ ) = αf −1 (v1′ ) + βf −1 (v2′ ) ⇔ f (f −1 (αv1′ + βv2′ )) = f (αf −1 (v1′ ) + βf −1 (v2′ ))

Como f ◦ f −1 = id (para o primeiro membro) e f é linear (para o segundo membro),

f −1 (αv1′ + βv2′ ) = αf −1 (v1′ ) + βf −1 (v2′ ) ⇔ f (f −1 (αv1′ + βv2′ )) = f (αf −1 (v1′ ) + βf −1 (v2′ ))


⇔ αv1′ + βv2′ = αf (f −1 (v1′ )) + βf (f −1 (v2′ ))
⇔ αv1′ + βv2′ = αv1′ + βv2′ o que é verdadeiro.

Lema 37 O isomorfismo determina uma relação de equivalência no conjuntos dos espaços


vectoriais. Isto é,
ˆ V ∼
= V; (∼
= é reflexiva)

= V 0 então V 0 ∼
ˆ V ∼ = V; (∼
= é simétrica)
ˆ Se V ∼
= V0 e V0 ∼
= V 00 então V ∼
= V 00 . (∼
= é transitiva)

Demonstração.

ˆ A aplicação identidade é um um isomorfismo.

ˆ A aplicação inversa de um isomorfismo é linear (Lema 36), logo um isomorfismo também.

ˆ A composição de isomorfismos é um isomorfismo (consequência do Teorema 31).

Teorema 38 Se f : V −→ V 0 é uma aplicação linear injectiva e B = (b1 , . . . , bn ) é uma base


(ordenada) de V então f (B) = (f (b1 ), . . . , f (bn )) é uma base (ordenada) de Im(f ) = f (V ).
10. APLICAÇÕES LINEARES 71

Demonstração.
Consequência do Teorema 32 e do Corolário 34 . 2

Corolário 39 Se f : V −→ V 0 é um isomorfismo e B = (b1 , . . . , bn ) é uma base ordenada


de V então f (B) = (f (b1 ), . . . , f (bn )) é uma base ordenada de V 0 .

v Imagem recı́proca
Dado um vector v 0 ∈ V 0 , ao conjunto

f −1 (v 0 ) = {v ∈ V | f (v) = v 0 }

chamamos a imagem recı́proca de v. Mais geralmente, se Y é um subconjunto de V 0 , a


imagem recı́proca de Y é o subconjunto de V definido por
[
f −1 (Y ) := {v ∈ V | f (v) ∈ Y } = f −1 (y).
y∈Y

Exemplo 16 Considere a aplicação linear ϕ = g ◦f : R3 −→ R3 , (x, y, z) 7→ ϕ(x, y, z) = (x+y +2z, 0, y +z)


determinada no Exemplo 15. Calcule:
ˆ ϕ−1 (1, 0, 0).
ˆ ϕ−1 (0, 0, 1).
ˆ ϕ−1 ({(1, 0, 0), (0, 1, 0), (0, 0, 1)}).
Resolução:
ˆ ϕ−1 (1, 0, 0) = {(x, y, z) ∈ R3 | ϕ(x, y, z) = (1, 0, 0)} = {(x, y, z) ∈ R3 | (x + y + 2z, 0, y + z) = (1, 0, 0)}.
 
x + y + 2z = 1 x=1−z
Ora (x + y + 2z, 0, y + z) = (1, 0, 0) ⇔ ⇔
y+z =0 y = −z

Portanto ϕ−1 (1, 0, 0) = {(1 − z, −z, z) | z ∈ R}.


ˆ ϕ−1 (0, 0, 1) = {(x, y, z) ∈ R3 | (x + y + 2z, 0, y + z) = (0, 0, 1)} = {(−1 − z, 1 − z, z) | z ∈ R}.
ˆ Note-se que (0, 1, 0) não é imagem por ϕ de nunhum elemento de R3 , isto é, ϕ−1 (0, 1, 0) = ∅. Portanto

ϕ−1 ({(1, 0, 0), (0, 1, 0), (0, 0, 1)}) = ϕ−1 ({(1, 0, 0), (0, 0, 1)})
= {v ∈ R3 | ϕ(v) ∈ {(1, 0, 0), (0, 0, 1)}}
= {v ∈ R3 | ϕ(v) = (1, 0, 0) ∨ ϕ(v) = (0, 0, 1)}
= {v ∈ R3 | ϕ(v) = (1, 0, 0)} ∪ {v ∈ R3 | ϕ(v) = (0, 0, 1)}
= ϕ−1 (1, 0, 0) ∪ ϕ−1 (0, 0, 1)
= {(1 − z, −z, z), (−1 − z, 1 − z, z) | z ∈ R} .

Teorema 40 Sejam f : V −→ V 0 uma aplicação linear, U < V e U 0 < V 0. Então

ˆ f (U ) = {f (u) | u ∈ U } < V 0 ;

ˆ f −1 (U 0 ) = {v ∈ V | f (v) ∈ U 0 } < V .
72 CONTEÚDO

ˆ f −1 (⃗0) = {v ∈ V | f (v) = ⃗0} < V .

Demonstração.
De facto, pelo Teorema 30,

ˆ ∀ α, β ∈ K, ∀ a, b ∈ f (U ) ⇔ a = f (u1 ) e b = f (u2 ) para algum u1 , u2 ∈ U , temos

αa + βb = αf (u1 ) + βf (u2 ) = f (αu1 ) + f (βu2 ) = f ( αu1 + βu2 ) ∈ f (U ) .


| {z }
∈U

ˆ Sejam α, β ∈ K quaisquer, e a, b ∈ f −1 (U ′ ). Isto significa que f (a), f (b) ∈ U ′ . Tese: αa + βb ∈ f −1 (U ′ ), ou seja


(confrontar definição de f −1 (U ′ )), desejamos provar que f (αa + βb) ∈ U ′ . Como f (αa + βb) = αf (a) + βf (b), pois f
é linear (conf. Teorema 30), f (a), f (b) ∈ U ′ e U ′ < V ′ então αf (a) + βf (b) ∈ U ′ , ou seja f (αa + βb) ∈ U ′ , o que é o
mesmo que dizer que αa + βb ∈ f −1 (U ′ ).

ˆ É só substituir U ′ do item anterior por U ′ = {⃗0} < V ′ .

Notações
Seja f : V −→ V 0 linear. Ao conjunto

Im(f ) = f (V ) = {f (v) | v ∈ V }

chamamos o espaço-imagem, ou o espaço-caracterı́stico, de f . Ao conjunto

N uc(f ) = f −1 (⃗0) = {v ∈ V | f (v) = ⃗0}

chamamos o núcleo, ou o espaço-nulidade, de f . Quando Im(f ) = f (V ) é finitamente


gerado ao número

dim(Im(f ))

chamamos a caracterı́stica de f e denotamos por c(f ) ou car(f ). Quando N uc(f ) é


finitamente gerado ao número

dim(N uc(f ))

chamamos a nulidade de f e denotamos por n(f ) ou nul(f ).


10. APLICAÇÕES LINEARES 73

vi O núcleo e injectividade de uma aplicação linear


Sejam f : V −→ V 0 uma aplicação linear e X um subconjunto de V . Designemos por

X + N uc(f ) = {x + y | x ∈ X e y ∈ N uc(f )} = {x + y | x ∈ X, y ∈ V e f (y) = 0} .

Teorema 41 Sejam f : V −→ V 0 uma aplicação linear, X ⊂ V e Y ⊂ V 0. Então

ˆ f −1 (f (X)) = X + N uc(f );

ˆ ∀ v ∈ V, f −1 (f (v)) = v + N uc(f ) .
Isto é, se designarmos por v 0 = f (v), f −1 (v 0 ) = v + N uc(f ) , para um (qualquer)
v ∈ φ−1 (v 0 ).

ˆ f (f −1 (Y ) ⊂ Y . Se f é sobrejectiva , f (f −1 (Y ) = Y

Demonstração.

ˆ X + N uc(f ) ⊂ f −1 (f (X) : Se a = x + y ∈ X + N uc(f ) então f (a) = f (x) + f (y) = f (x) ∈ f (X), ou seja,
a ∈ f −1 (f (X)) = X + N uc(f ).
f −1 (f (X) ⊂ X + N uc(f ) : Se b ∈ f −1 (f (X) ⇔ f (b) ∈ f (X) ⇔ f (b) = f (x) para algum x ∈ X. E f (b) =
f (x) ⇔ f (b) − f (x) = ⃗0 ⇔ f (b − x) = ⃗0 ⇔ b − x ∈ N uc(f ). Portanto b − x = y para algum y ∈ N uc(f ), isto é,
b = x + y ∈ X + N uc(f ).

ˆ Identificando v com {v} e fazendo X = {v} no item anterior obtemos o resultado.

ˆ Exercı́cio.

Exemplo 17 Seja f : R3 −→ R2 a aplicação linear f (x, y, z) = (x − y, y + z) definida no Exemplo 14.


ˆ Determine o núcleo de f .
ˆ Determine a nulidade de f .
ˆ Determine f −1 (−1, 5).
Resolução:
ˆ N uc(f ) = {v ∈ R3 | f (v) = ⃗0}. Como ⃗0 = (0, 0) temos

N uc(f ) = {(x, y, z) ∈ R3 | f (x, y, z) = (0, 0)}


= {(x, y, z) ∈ R3 | (x − y, y + z) = (0, 0)}

x−y =0
= {(x, y, z) ∈ R |
3
}
y+z =0

x=y
= {(x, y, z) ∈ R3 | }
z = −y
= {(y, y, −y) ∈ R3 | y ∈ R} = h (1, 1, −1) i .

ˆ nf = dim(N uc(f )) = 1.
ˆ Podemos calcular f −1 (−1, 5) directamente da definição. O cálculo é similar ao cálculo do núcleo com
a diferença de se ter (−1, 5) no lugar de (0, 0).
74 CONTEÚDO

ˆ Podemos calcular f −1 (−1, 5) usando o teorema 41. Neste caso f (v) = (−1, 5). Temos então de
calcular um (basta um) vector v que satisfaça a equação f (v) = (−1, 5). Para isso olhemos para a
simplificação: f (0, y, z) = (−y, y + z). Daqui se tira de imediato que f (0, 1, 4) = (−1, 5). Então

f −1 (−1, 5) = f −1 (f (0, 1, 4)) = (0, 1, 4) + N uc(f ) = {(y, y + 1, 4 − y) | y ∈ R} .

Lema 42 f (v1 ) = f (v2 ) ⇔ v1 − v2 ∈ N uc(f ).


Demonstração.
De facto,
f (v1 ) = f (v2 ) ⇔ f (v1 ) − f (v2 ) = ⃗0 ⇔ f (v1 − v2 ) = ⃗0 ⇔ v1 − v2 ∈ N uc(f ).

Teorema 43 Seja f : V −→ V 0 uma aplicação linear. Então

f é injectiva se e só se N uc(f ) = {⃗0} .

Demonstração.

ˆ Suponhamos que f é injectiva. Mostremos que N uc(f ) = {⃗0}. Seja v ∈ N uc(f ). Isto significa que f (v) = ⃗0. Como
⃗0 = f (⃗0) então temos f (v) = f (⃗0) o que implica, visto f ser por hipótese injectiva, v = ⃗0.

ˆ Suponhamos agora que N uc(f ) = {⃗0}. Provemos que f é injectiva. Seja f (v1 ) = f (v2 ). Pelo Lema 42, v1 − v2 ∈ N ucf .
Por hipótese N uc(f ) = {⃗0}, portanto v1 − v2 = ⃗0 ⇔ v1 = v2 .

Cálculo de f −1 (v0 )
Sejam f : V −→ V 0 uma aplicação linear e v 0 um elemento de V 0 . Vimos no Teorema 41 que
se v ∈ f −1 (v 0 ) é uma solução particular, então

f −1 (v 0 ) = v + N uc(f ).

Mostremos agora que para todo λ ∈ K com λ 6= 0 temos

f −1 (λv 0 ) = λ f −1 (v 0 ) .

Demonstração.
De facto,
f −1 (λv ′ ) = {u ∈ V | f (u) = λv ′ }
= {u ∈ V | λ−1 f (u) = v ′ }
= {u ∈ V | f (λ−1 u) = v ′ } , pois f é linear ,
= {λv ∈ V | f (v) = v ′ } , fazendo v = λ−1 u ⇔ u = λv
= λ {v ∈ V | f (v) = v ′ } = λ f −1 (v ′ ) .
2
10. APLICAÇÕES LINEARES 75

Exemplo 18 (Folha 4.2 ex. 7) Seja ϕ : R3 −→ R4 a aplicação linear definida por

ϕ(1, 0, 0) = (1, 0, 2, 0) , ϕ(0, 1, 1) = (0, 1, −2, 0) , ϕ(0, 0, 1) = (1, 1, 0, 0) .

(A) Determine ϕ(a, b, c) para todo (a, b, c) ∈ R3 .


(B) Determine o núcleo e a nulidade de ϕ.
(C) Determine a caracterı́stica de ϕ.
(D) Determine ϕ−1 (2, 2, 0, 0).
(E) Determine o subespaço complementar ao N uc(ϕ) em R3 .
Resolução:
(A) ϕ(a, b, c) = ϕ( a(1, 0, 0) + b(0, 1, 0) + c(0, 0, 1) ) = ϕ( a(1, 0, 0) + b((0, 1, 1) − (0, 0, 1)) + c(0, 0, 1) )
= ϕ( a(1, 0, 0) + b(0, 1, 1) + (c − b)(0, 0, 1) )
= aϕ((1, 0, 0)) + bϕ((0, 1, 1)) + (c − b)ϕ((0, 0, 1))
= a(1, 0, 2, 0) + b(0, 1, −2, 0) + (c − b)(1, 1, 0, 0) = (a + c − b, c, 2a − 2b, 0)

(B) N uc(ϕ) = {(a, b, c) ∈ R3 | ϕ(a, b, c) = (0, 0, 0, 0)} = {(a, b, c) ∈ R3 | (a + c − b, c, 2a − 2b, 0) =


(0, 0, 0, 0)} = {(a, b, c) ∈ R3 | b = a ∧ c = 0} = {(a, a, 0) | a ∈ R}.
Portanto,
N uc(ϕ) = {(a, a, 0) | a ∈ R} = {a(1, 1, 0) | a ∈ R} = h (1, 1, 0) i.
Logo {(1, 1, 0)} é uma base de N uc(ϕ) e por conseguinte, a nulidade n(ϕ) = dim(N uc(ϕ)) = 1.
(C) Pelo Teorema da Dimensão (ver mais à frente: Corolário 22),

dim(R3 ) = n(ϕ) + c(ϕ) ⇔ 3 = 1 + c(ϕ) ⇔ c(ϕ) = 2 .

(D) ϕ−1 (2, 2, 0, 0) = ϕ−1 (2(1, 1, 0, 0) = 2ϕ−1 (1, 1, 0, 0). Como (0, 0, 1) ∈ ϕ−1 (1, 1, 0, 0) é uma solução
particular então ϕ−1 (2, 2, 0, 0) = 2((0, 0, 1) + N uc(ϕ)) = 2(0, 0, 1) + 2 N uc(ϕ) = (0, 0, 2) + N uc(ϕ) =
(0, 0, 2) + {(a, a, 0) | a ∈ R} = {(0, 0, 2) + (a, a, 0) | a ∈ R} = {(a, a, 2) | a ∈ R} .
(E) Para calcular o subespaço complementar ao N uc(ϕ) em R3 temos de complementar a base {(1, 1, 0)} do
N uc(ϕ) até uma base de R3 . Os vectores extras que acrescentarmos geram o subespaço complementar.
Vamos buscar esses vectores extras à base canónica de R3 . Pretendemos então identificar 3 vectores
em {(1, 1, 0), (1, 0, 0), (0, 1, 0), (0, 0, 1)}, sendo um deles (1, 1, 0), que sejam linearmente independentes.
Isto equivale a procurar 3 colunas (incluindo a primeira) da seguinte matriz
 
1 1 0 0
 1 0 1 0 
0 0 0 1

que induzam caracterı́stica 3. Vamos utilizar o método de condensação de Gauss:


     
1 1 0 0 1 1 0 0 1 1 0 0
 1 0 1 0  −→  0 −1 1 0  −→  0 1 −1 0 
0 0 0 1 0 0 0 1 0 0 0 1

As 3 primeiras colunas induzem caracterı́stica 2, logo são linearmente dependentes. Mas a 1a , a 2a e


a 4a colunas induzem caracterı́stica 3, logo (1, 1, 0), (1, 0, 0) e (0, 0, 1) são linearmente independentes,
portanto {(1, 1, 0), (1, 0, 0), (0, 0, 1)} é uma base de R3 . Por conseguinte o subespaço vectorial

h (1, 0, 0), (0, 0, 1) i = {a(1, 0, 0) + b(0, 0, 1) | a, b ∈ R} = {(a, 0, b) | a, b ∈ R}

é um espaço vectorial complementar ao N uc(ϕ) em R3 .


76 CONTEÚDO

vii Espaços vectoriais de mesma dimensão


Seja V um espaço vectorial de dimensão n. Seja B = (b1 , . . . , bn ) uma base ordenada de
V . Para o que se vai seguir é importante que a base esteja ordenada. Todo o vector v ∈ V
escreve-se de modo único como uma combinação linear

v = α1 b1 + α2 b2 + . . . , +αn bn .

Ao n-uplo (α1 , α2 , . . . , αn ), que é único, chamamos as coordenadas de v relativamente à base


ordenada B e escrevemos
(v)B = (α1 , α2 , . . . , αn ) .

Teorema 44 Se V é um espaço vectorial de dimensão n então V ∼


= K n.
Demonstração.
Seja B = (b1 , . . . , bn ) uma base ordenada de V . Consideremos a seguinte aplicação

ψ: V −→ Kn
v 7−→ (v)B

ˆ ψ está bem definida e é injectiva: de facto as coordenadas de um vector relativamente a uma base são únicas; um vector
v não pode ter duas ou mais coordenadas distintas relativamente a uma mesma base. Isso diz-nos também que ψ é
injectiva.

ˆ É imediato que ψ é sobrejectiva: qualquer n-uplo (β1 , . . . , βn ) corresponde o vector v ′ = β1 b1 + · · · + βn bn que tem
como coordenadas (v ′ )B = (β1 , . . . , βn ). Portanto ψ é uma aplicação bijectiva.

ˆ Mostremos finalmente que ψ é um homomorfismo. Sejam λ, δ ∈ K e v1 , v2 ∈ V . Sejam (v1 )B = (α1 , . . . , αn ),


(v2 )B = (β1 , . . . , βn ). Então

λv1 + δv2 = λ(α1 b1 + · · · + αn bn ) + δ(β1 b1 + · · · + βn bn )


= λα1 b1 + · · · + λαn bn + δβ1 b1 + · · · + δβn bn
= (λα1 + δβ1 )b1 + · · · + (λαn + δβn )bn

o que nos diz que as coordenadas de λv1 + δv2 são:

(λv1 + δv2 )B = (λα1 + δβ1 , . . . , λαn + δβn )

Por conseguinte
ψ(λv1 + δv2 ) = (λα1 + δβ1 , . . . , λαn + δβn )
= λ(α1 , . . . , αn ) + δ(β1 , . . . , βn )
= λψ(v1 ) + δψ(v2 ) .
2

Corolário 45 Quaisquer dois espaços vectoriais com mesma dimensão finita são isomorfos.

viii Espaços vectoriais quocientes


Sejam V um espaço vectorial sobre um corpo K e U um subespaço vectorial de V . Consid-
eremos o seguinte conjunto de subconjuntos de V ,

V /U : {v + U | v ∈ V } .

Atenção, apesar de v + U = {v + u | u ∈ U }, o conjunto acima não é o conjunto V + U pois


V + U = V (se U < V , U + V = {u + v | u ∈ U, v ∈ V } = V ).
10. APLICAÇÕES LINEARES 77

v+U

v
U

v+U

v
U

Note-se que cada conjunto v + U não é um subespaço vectorial de V , a não ser que v = ⃗0,
pois não contém o vector ⃗0. O conjunto quociente V /U é o conjunto destes conjuntos. No
caso de U ser uma “recta” que passa na origem, V /U é o conjunto das rectas paralelas a U ;
os elementos de V /U são rectas.

2
R /U

No caso de U ser um “plano” que passa pela origem, então V /U é o conjunto dos planos
paralelos a U , e portanto os elementos de V /U são planos.

Teorema 46 Sejam V um espaço vectorial sobre K e U um subespaço vectorial de V . Então


o conjunto quociente V /U é um espaço vectorial sobre K para a adição de vectores

v1 + U + v2 + U := (v1 + v2 ) + U

e multiplicação escalar
α•(v + U ) := αv + U .
O vector nulo ⃗0 = ⃗0 + U = U .

Demonstração.
É preciso verificar os 4 passos da definição de espaço vectorial. Exercı́cio. 2

Portanto, no espaço quociente V /U são válidas as seguintes propriedades:


ˆ v+U + U = U + v+U = v+U.
78 CONTEÚDO

ˆ ∀ u ∈ U, u + U = U .

ˆ α(v1 + U ) + β(v2 + U ) = (αv1 + βv2 ) + U .

ˆ v+U =U ⇔ v ∈U.

Teorema 47 Sejam V um espaço vectorial de dimensão finita, U < V , B1 = (e1 , . . . , eq )


uma base ordenada de U e

(B1 , B2 ) = (e1 , . . . , eq , eq+1 , . . . , en )

uma base ordenada de V completada a partir de B1 juntando B2 = (eq+1 , . . . , en ) (Conf.


Teorema do completamento de bases 20). Então

B2 = (eq+1 + U , . . . , en + U )

é uma base ordenada do espaço quociente V /U .


Demonstração.

ˆ B2 gera V /U : todo o elemento de V /U é um conjunto da forma v + U . Como v ∈ V e V é gerado por B, então v é uma
combinação linear dos elementos de B,

v = α1 e1 + · · · + αq eq +αq+1 eq+1 + · · · + αn en = αq+1 eq+1 + · · · + αn en + u


| {z }
u∈U

pelo que
v+U = (αq+1 eq+1 + · · · + αn en + u) + U
= (αq+1 eq+1 + · · · + αn en ) + U
= αq+1 (eq+1 + U ) + · · · + αn (en + U ) .

ˆ B2 é constituı́do por vectores linearmente independentes: Não esqueçamos que o vector nulo no espaço quociente V /U
é o conjunto U . Considere-se então uma combinação linear nula dos elementos de B2 ,

αq+1 (eq+1 + U ) + · · · + αn (en + U ) = U

e mostremos que αq+1 = 0, . . . , αn = 0. Aquela combinação linear nula é equivalente a (αq+1 eq+1 + · · · + αn en ) + U =
U ⇔ αq+1 eq+1 +· · ·+αn en ∈ U . Como U = h B1 i então αq+1 eq+1 +· · ·+αn en = β1 e1 +· · ·+βq eq o que providencia
uma combinação linear nula
−β1 e1 − · · · − βq eq + αq+1 eq+1 + · · · + αn en = ⃗0

envolvendo os elementos da base B de V . Como estes elementos são linearmente independentes então todos os coeficientes
desta equação são nulos. Em particular temos αq+1 = 0, . . . , αn = 0.

Corolário 48 Se V é um espaço quociente de dimensão n e U é um subespaço vectorial de


dimensão m então
dim(V /U ) = dim(V ) − dim(U ) .

Corolário 49 Sejam V um espaço vectorial de dimensão finita e U < V . Se W é um espaço


vectorial complementar a U em V então W ∼ = V /U .
10. APLICAÇÕES LINEARES 79

Demonstração.
De facto se W é um espaço vectorial complementar a U então existe uma base B = (B1 , B2 ) de V tal que B1 é base de U e B2
é base de W . Como B2 é base de V /U e #B2 = #B2 então dim(W ) = dim(V /U ). Pelo Corolario 45, V /U ∼
= W. 2

W
2
R /U

ix Caracterı́stica e nulidade
No teorema seguinte vamos considerar o espaço quociente V /N uc(f ). Não esquecer que o
vector nulo neste espaço vectorial é N uc(f ).

Teorema 50 (Teorema do Isomorfismo) Se f : V −→ V 0 é uma aplicação linear então


V /N uc(f ) ∼
= f (V ) = Im(f ) .

Demonstração.
Consideremos a seguinte aplicação
ψ: V /N uc(f ) −→ Im(f )
v + N uc(f ) 7−→ f (v)
Esta aplicação está bem definida: de facto,

v1 + N uc(f ) = v2 + N uc(f ) ⇔ v1 + N uc(f ) − v2 + N uc(f ) = ⃗0 = N uc(f )


⇔ (v1 − v2 ) + N uc(f ) = N uc(f )
⇔ v1 − v2 ∈ N uc(f )
⇔ f (v1 − v2 ) = ⃗0
⇔ f (v1 ) = f (v2 )
⇔ ψ(v1 + N uc(f )) = ψ(v2 + N uc(f )) .

As equivalências anteriores mostram que ψ é também injectiva: ψ(v1+N uc(f )) = ψ(v2 +N uc(f )) ⇒ v1+N uc(f ) = v2 +N uc(f ).
Claramente que ψ é sobrejectiva pois

ψ(V /N uc(f )) = ψ({v + N uc(f ) | v ∈ V })


= {ψ(v + N uc(f )) | v ∈ V }
= {f (v) | v ∈ V } = f (V ) = Im(f ) .

Finalmente, ψ é linear:

ψ(α(v1 + N uc(f )) + β(v2 + N uc(f ))) = ψ((αv1 + βv2 ) + N uc(f ))


= f (αv1 + βv2 ) = αf (v1 ) + βf (v2 )
= αψ(v1 + N uc(f )) + βψ(v2 + N uc(f )) .

2
80 CONTEÚDO

Corolário 51 Se f : V −→ V 0 é uma aplicação linear e V é um espaço vectorial de dimensão


finita então
dim(V ) = dim(Im(f )) + dim(N uc(f )) .

Designando por

nf = dim(N uc(f ) = nulidade de f

e por

cf = dim(Im(f )) = dim(f (V )) = caracterı́stica de f

temos

dim(V ) = nf + cf .

No caso particular em que V e V 0 têm dimensões iguais, dim(V ) = dim(V 0 ) , a última


fórmula pode ser escrita da seguinte forma

dim(V 0 ) − dim(f (V )) = dim(N uc(f )) ,

forma esta que, juntamente como Teorema 43, permite deduzir os seguintes resultados:

Corolário 52 Sejam V , V 0 espaços vectoriais com mesma dimensão finita n e f : V −→ V 0


uma aplicação linear. Então f é injectiva se e só se f é sobrejectiva. Por outras palavras, f
é um monomorfismo se e só se f é um epimorfismo.

Corolário 53 Seja V um espaço vectorial de dimensão finita e f : V −→ V um endomor-


fismo (aplicação linear). Então f é um monomorfismo se e só se f é um epimorfismo.

h i
0 1
Exemplo 19 Seja A = 1 0
∈ M2×2 (R). Considere a seguinte aplicação ψ : M2×2 (R) −→ M2×2 (R),
M 7→ ψ(M ) = M A + AM .
ˆ Mostre que ψ é uma aplicação linear.
ˆ Calcule o núcleo de ψ. Será ψ um monomorfismo?
ˆ Calcule a caracterı́stica de ψ.
Rsolução:
ˆ ψ(αM1 + βM2 ) =
= (αM1 + βM2 )A + A(αM1 + βM2 ) = (αM1 )A + (βM2 )A + A(αM1 ) + A(βM2 )
= αM1 A + βM2 A + αAM1 + βAM2 = αM1 A + αAM1 + βM2 A + βAM2
= α(M1 A + AM1 ) + β(M2 A + AM2 )
= αψ(M1 ) + βψ(M2 ). Isto para todo α, β ∈ K e M1 , M2 ∈ M2 (R). Logo ψ é linear.
11. APLICAÇÕES LINEARES VERSUS MATRIZES 81

h i h i h i
a b a b 0 0
ˆ N uc(ψ) = {M ∈ M2 (R) | ψ(M ) = ⃗0 } = { c d | ψ( c d ) = 0 0 }
h i h i h i h i
a b a b a b 0 0
={ c d | c d A+A c d = 0 0 }
h i h ih i h ih i h i
a b a b 0 1 0 1 a b 0 0
={ c d | c d 1 0
+ 1 0 c d
= 0 0
}
h i h i h i h i  a+d=0
a b b+c a+d 0 0 a b
= { c d | a+d b+c = 0 0 } = { c d | }
b+c=0
h i h i h i
a b 1 0 0 1
= { −b −a | a, b ∈ R} = {a 0 −1 + b −1 0 | a, b ∈ R}
h i h i
1 0 0 1
= h 0 −1 , −1 0 i .

ˆ Da alı́nea anterior conclui-se que a nulidade nf = dim(N uc(f ) = 2. Então a caracterı́stica de f é

cf = dim(V ) − nf = dim(M2×2 (R)) − nf = 4 − 2 = 2 .

11 Aplicações Lineares versus Matrizes


Sejam V , W epaços vectorias de dimensão finita. Uma aplicação linear f : V −→ W
fica completamente determinada pelas imagens f (b1 ), . . . , f (bn ) de f de uma base B =
(b1 , . . . , bn ) de V . Isto é,

Teorema 54 Sejam V , W espaços vectoriais sobre um mesmo corpo K e B = (b1 , . . . , bn )


uma base (ordenada) de V .

ˆ Para cada n-uplo (w1 , . . . , wn ) ∈ W n a correspondência f (b1 ) := w1 , . . . , f (bn ) := wn


determina uma aplicação linear f : V −→ W .

ˆ Se f, g : V −→ W são duas aplicações lineares e f (b1 ) = g(b1 ), . . . , f (bn ) = g(bn )


então f = g.

Exemplo 20 Determine a aplicação linear f : R2 −→ R3 , isto é, determine f (x, y), quando é f é definida
pelas seguintes imagens de uma base B:
ˆ B =base canónica de R2 e f (1, 0) = (1, 1, 1), f (0, 1) = (−1, −1, −1).

ˆ B = ( (1, 2) , (0, −1) ) e f (1, 2) = (0, 0), f (0, −1) = (0, 1)


Resolução:
ˆ f (x, y) = f (x(1, 0) + y(0, 1)) = xf (1, 0) + yf (0, 1) = x(1, 1, 1) + y(−1, −1, −1) = (x − y, x − y, x − y).

ˆ Primeiro temos que calcular as coordenadas de (x, y) na base B. Como (x, y) = x(1, 0) + y(0, 1) é
suficiente conhecer as coordenadas de (1, 0) e de (0, 1) relativamente à base B. Facilmente se vê que
(1, 0) = (1, 2) + 2(0, −1) e que (0, 1) = −(0, −1). Portanto (x, y) = x((1, 2) + 2(0, −1)) + −y(0, −1) =
x(1, 2) + (2x − y)(0, −1). Então

f (x, y) = f (x(1, 2)+(2x−y)(0, −1)) = xf (1, 2)+(2x−y)f (0, −1) = x(0, 0)+(2x−y)(0, −1) = (0, y−2x) .
82 CONTEÚDO

A matriz de uma aplicação linear.


Sejam V e W espaços vectoriais de dimensão finita, dim(V ) = n e dim(W ) = m. Sejam
BV = (b1 , . . . , bn ) uma base ordenada de V e BW = (e1 , . . . , em ) uma base ordenada de W .
A ordenação das base é agora importante.
Seja f : V −→ W uma aplicação linear. Então as imagens da base BV , sendo vectores
de W , escrevem-se de forma única como combinações lineares dos elementos da base BW :

f (bi ) = α1i e1 + α2i e2 + · · · + αmi em , i = 1, 2, . . . , n .

Colocando as coordenadas (f (bi ))B = (α1i , α2i , . . . , αmi ) na vertical obtemos uma matriz
W
M (f, BV , BW ) ∈ Mm×n (K),

... f (bi ) ... f (b1 ) ... f (bn )


   
M (f, BV , BW ) = ...
α1i . . . e1
= α11 ... α1n e1
 : :  : : :
. . . αmi . . . em αm1 ... αmn em

que chamaremos a matriz da aplicação linear f relativamente às bases BV e BW .


Esta matriz representa f . De facto, se v ∈ V tem coordenadas (v)B = (x1 , . . . , xn ),
V
então f (v) tem coordenadas (f (v))B = (y1 , . . . , ym ) determinadas por
W

   
y1 x1
 y2   x2 
   
 ..  = M (f, B , BW 
) .. 
 .  V
 . 
ym xn

Teorema 55 Se f : V −→ W é uma aplicação linear então existe uma única matriz


M (f, BV , BW ) ∈ Mm×n (K) tal que se v ∈ V tem coordenadas (v)BV = (x1 , . . . , xn ) e f (v)
tem coordenadas (f (v)BW = (y1 , . . . , ym ) então
   
y1 x1
 ..   ..  .
 .  = M (f, BV , BW )  . 
ym xn

Demonstração.
A matriz M (f, BV , BW ) satisfaz o pretendido. Se M = [C1 , . . . , Cn ] ∈ Mm×n (K) é uma matriz tal que para todo v ∈ V com
coordenadas (v)B = (x1 , . . . , xn ) a imagem f (v) tem coordenadas (f (v))B = (y1 , . . . , ym ) determinadas por
V W

   
y1 x1
 y2   x2 
   
 . =M  . 
 ..   .. 
ym xn
11. APLICAÇÕES LINEARES VERSUS MATRIZES 83

então como as coordenadas de cada vector bi relativamente à base BV onde é originário são dadas por (bi )B = (0, 0, . . . , 0, 1, 0, . . . , 0),
V
a imagem f (vi ) tem como coordenadas relativamente à base BW a coluna Ci de M :

 
0
 .. 
 
 . 
|  
(f (vi ))V =M 1  = Ci .
 
W
 .. 
 . 
0

Logo M = M (f, BV , BW ). 2

Teorema 56 Reciprocamente, toda a matriz M ∈ Mm×n (K) determina uma única aplicação
linear ψM : V −→ W tal que M (ψM , BV , BW ) = M .

Demonstração.
Seja M = [C1 , . . . , Cn ] ∈ Mm×n (K). Para definirmos uma aplicação linear ψM : V −→ W basta definirmos as imagens dos
vectores de uma base (Teorema 54). Como um vector fica determinado pelas suas coordenadas relativamente a uma base,
tomando as colunas de M como sendo as coordenadas dos vectores imagens ψM (b1 ), . . . , ψM (bn ) relativamente à base BW ,
temos determinada uma aplicação linear ψM que satisfaz M (ψM , BV , BW ) = M . Se ϕ : V −→ W é outra aplicação linear tal
que M (ϕ, BV , BW ) = M = M (ψM , BV , BW ) então

(ϕ(bi ))B = Ci = (ψM (bi ))B ⇒ ϕ(bi ) = ψM .


W W

ˆ A matriz da aplicação nula 0 : V −→ W , v 7→ 0, é a matriz nula, isto é,

M (0, BV , BW ) = 0 .

ˆ No caso de W = V , a matriz da aplicação identidade id : V −→ V , v 7→ v relativamente


à mesma base é a matriz identidade, isto é,

M (id, BV , BV ) = In .

Matriz da composição de aplicações lineares

Sejam V1 , V2 e V3 espaços vectoriais (sobre K) de dimensão finita, e B1 = (b1 , . . . , bn ) uma


base ordenada de V1 , B2 = (d1 , . . . , dm ) uma base ordenada de V2 e B3 = (e1 , . . . , ek ) uma
base ordenada de V3 . Sejam f : V1 −→ V2 e g : V2 −→ V3 aplicações lineares. Sejam
Mf = M (f, B1 , B2 ) = [αij ] e Mg = M (g, B2 , B3 ) = [βij ] as respectivas matrizes de f e g
respectivamente.

Teorema 57 Mg◦f = Mg Mf , isto é, M (g ◦ f, B1 , B3 ) = M (g, B2 , B3 )M (f, B1 , B2 ).


84 CONTEÚDO

Demonstração. P
Seja M (g, B2 , B3 )M (f, B1 , B2 ) = [βij ][αij ] = [γij ], portanto, γij = t βit αtj . Então

g ◦ f (bj ) = g( f (bj ) )
P
= g( t αtj dt )
P
= t αtj g(dt )
P P
= t αtj i βit ei
P P
= t i αtj βit ei
P P 
= i t βit αtj ei
P
= i γij ei

ou seja, M (g ◦ f, B1 , B3 ) = [γij ] = M (g, B2 , B3 )M (f, B1 , B2 ) . 2

Consequências
Sejam V e W espaços de mesma dimensão n e f : V −→ M linear. Então M (f, BV , BW ) ∈
Mn (K) = Mn×n (K) e
(1) f é invertı́vel ⇒ M (f −1 , BW , BV ) = M (f, BV , BW )−1 .
De facto, se f é invertı́vel então f −1 : W → V é linear e M (f −1 , BW , BV ) ∈ Mn (K) satisfaz:

M (f, BV , BW ) M (f −1 , BW , BV ) = M (f ◦ f −1 , BW , BW ) = M (id, BW , BW ) = In

M (f −1 , BW , BV ) M (f, BV , BW ) = M (f −1 ◦ f, BV , BV ) = M (id, BV , BV ) = In

Isto é, M (f −1 , BW , BV ) = M (f, BV , BW )−1 .

(2) M (f, BV , BW ) é invertı́vel ⇒ f é invertı́vel.


Seja M = M (f, BV , BW )−1 ∈ Mn (K). Então pelo Teorema 56, M determina uma aplicação linear ψM : W −→ V
tal que M (ψM , BW , BV ) = M . Então a matriz da composição M (f ◦ ψM , BW , BW ) = In o que implica (unicidade
da aplicação linear) que f ◦ ψM = idW . Analogamente, M (ψM ◦ f, BV , BV ) = In ⇒ ψM ◦ f = idV . Portanto f é
invertı́vel.

(3) Logo f é invertı́vel ⇔ M (f, BV , BW ) é invertı́vel ⇔ |M (f, BV , BW )| 6= 0


ˆ Mais consequências:

– M é invertı́vel ⇒ as colunas de M = [C1 , . . . , Cn ] são vectores linearmente inde-


pendentes em K m .
Pelo Teorema 56, existe uma (única) aplicação linear ψM tal que M (ψM , BV , BW ) = M . As colunas de M
são precisamente as coordenadas de ψM (b1 ), . . . , ψM (bn ). Estes vectores são linearmente independentes pois
são imagens de vectores linearmente independentes por uma aplicação linear ψM injectiva (M invertı́vel). Do
isomorfismo W −→ K m , w 7→ (w)B , C1 , . . . , Cn são linearmente independentes.
W

– As colunas de uma matriz M = [C1 , . . . , Cn ] são vectores linearmente indepen-


dentes em K m ⇒ M é invertı́vel.
Seja ψM a aplicação linear tal que M (ψM , BV , BW ) = M . As colunas desta matriz são linearmente indepen-
dentes significa que os vectores ψM (b1 ), . . . , ψM (bn ) são linearmente independentes ⇒ o subespaço vectorial
Img(ψM ) = ψM (V ) tem dimensão n num espaço vectorial W de dimensão n também. Logo Img(ψM ) = W e
portanto ψM é sobrejectiva.Uma aplicação linear sobrejectiva entre dois espaços vectoriais de mesma dimensão
é injectiva (Corolario 52), logo ψM é invertı́vel. Pela item 3 anterior, M é invertı́vel.
11. APLICAÇÕES LINEARES VERSUS MATRIZES 85

– Conclusão: As colunas de uma matriz M = [C1 , . . . , Cn ] são vectores linearmente


independentes em K m ⇔ M é invertı́vel ⇔ |M | 6= 0.
" L #
1
..
– As linhas de uma matriz M = . são vectores linearmente independentes em
Lm
K n ⇔ M é invertı́vel ⇔ |M | 6= 0.
| |
As linhas de M são as colunas da matriz transposta M . Como |M | = |M | o resultado segue-se.

Matrizes equivalentes versus condensação de Gauss-jordan


Duas matrizes M, M 0 ∈ Mm×n (K) dizem-se equivalentes se existem matrizes invertı́veis
A ∈ Mm (K) e B ∈ Mn (K) tais que M 0 = AM B.
Seja M ∈ Mm×n (K). O método de condensação de Gauss-jordan juntamente com troca
de colunas consiste em multiplicar à esquerda por matrizes elementares por linhas
h e ià direita
Ik ∗
por uma matriz de permutação para transformar M numa matriz do tipo 0 0 . Como
a multiplicação de matrizes invertı́veis é uma matriz invertı́vel, o método de Gauss-Jordan
com trocas de colunas diz-nos que existe uma matriz invertı́vel A e uma matriz permutação
(logo invertı́vel) B tal que h i
Ik ∗
AM B = 0 0
para algum k. Por outras palavras,
h i

Corolário 58 Qualquer matriz M ∈ Mm×n (K) é equivalente a uma matriz do tipo Ik
0 0
para algum k.

i Caracterı́stica de uma matriz


Seja f : V −→ W uma aplicação linear entre espaços vectoriais de dimensão finita. Se
ψ : U −→ V é um isomorfismo, como ψ(U ) = V temos
dim(Im(f ◦ ψ)) = dim(f (ψ(U ))) = dim(f (V )) = dim(Im(f ))
ou seja, designando por Car(f ) a caracterı́stica de f ,

Para todo o isomorfismo ψ ,


Car(f ◦ ψ) = Car(f )

Um isomorfismo corresponde a uma matriz invertı́vel.

Para toda a matriz invertı́vel B ∈ Mm×m (K)


Car(M B) = Car(M )

Analogamente, se ϕ : W −→ W 0 é um isomorfismo então, para todo U < W , dim(U ) =


dim(ϕ(U )) e consequentemente,
86 CONTEÚDO

Para todo o isomorfismo ϕ ,


Car(ϕ ◦ f ) = Car(f )

Em termos de matrizes temos

Para toda a matriz invertı́vel A ∈ Mn×n (K)


Car(AM ) = Car(M )

Seja M = [C1 , . . . , Cn ] uma matriz m × n sobre K. Esta determina uma aplicação linear

ψM : Kn −→ Km
" x1
# " x #
1
..
. 7−→ M ..
.
xn xn

Aliás esta é a única aplicação linear ψM : K n −→ K m a que o Teorema 56 refere sat-


isfazer M (ψM , Bcan (K n ), Bcan (K m )) = M . Definimos caracterı́stica de M como sendo a
caracterı́stica da aplicação linear ψM ,

Car(M ) : = Car(ψM )

Seja Bcan (K n ) = (b1 , . . . , bn ) a base canónica ordenada de K n . Como


" 1
# " 0
# " 0
#
0 1 0
M b1 = M ... = C1 , M b 2 = M ... = C2 , . . . , M b n = M ... = Cn
0 0 1

temos
ψM (K n ) = ψM (h b1 , . . . , bn i) = h ψM (b1 ), . . . , ψM (bn ) i = h C1 , . . . , Cn i .
Isto mostra que dim(ψM (K n )) = número (máximo) de colunas linearmente independentes,
ou seja,

Car(M ) = número (máximo) de colunas linearmente independentes de M

|
Tomando agora a matriz transposta M , uma matriz n × m sobre K. Como as colunas de
|
M são as linhas de M temos

|
Car(M ) = número (máximo) de linhas linearmente independentes de M

|
Teorema 59 Car(M ) = Car(M )
11. APLICAÇÕES LINEARES VERSUS MATRIZES 87

Demonstração.  
Ik ∗
Pelo Corolário 58, existem matrizes invertı́veis A e B tal que AM B = . Então Car(M ) = Car(AM B) =
0 0
 
Ik ∗
Car =k e
0 0
 | !  
| | | Ik ∗ Ik 0
Car(M ) = Car(AM B) = Car((AM B) ) = Car = Car = Car(M ) .
0 0 ∗ 0

Corolário 60 Duas matrizes M, N ∈ Mm×n (K) são equivalentes se e só se Car(M ) =


Car(N ).

O espaço vectorial das aplicações lineares


Sejam V e W dois espaços vectoriais de dimensão finita sobre um corpo K. Designemos
L(V, W ) o conjunto das aplicações lineares de V em W . Se V = W designemos por L(V ) =
L(V ; V ).

Teorema 61 L(V, W ) é um espaço vectorial para a adição


(f + g)(v) := f (v) + g(v)
e multiplicação escalar
(αf )(v) := α f (v)

Demonstração.
exercı́cio 2

Lema 62 Sejam f, g ∈ L(V, W ) e λ ∈ K. Então


M (f + g, BV , BW ) = M (f, BV , BW ) + M (g, BV , BW )

M (λf, BV , BW ) = λ M (f, BV , BW ))

Demonstração.
exercı́cio. 2

Teorema 63 Sejam V , W espaços vectoriais de dimensão finita sobre um corpo K. Sejam


BV = (b1 , . . . , bn ) e BW = (e1 , . . . , em ) bases ordenadas de V e W respectivamente. Então
ψ : L(V, W ) −→ Mm×n (K), f 7→ M (f, BV , BW ), é um isomorfismo. Temos assim que

L(V, W ) ∼
= Mm×n (K) .

Demonstração.
O teorema 55 diz-nos que ψ está bem definida. O Teorema 56 diz-nos que ψ é bijectiva (possui inverso). O Lema 62 diz-nos
que ψ é linear. 2

Corolário 64 Se dim(V ) = n e dim(W ) = m então dim(L(V, W )) = mn.


88 CONTEÚDO

Aplicações lineares elementares - base canónica de L(V, W )


Uma consequência importante do isomorfismo L(V, W ) ∼= Mm×n (K) dado pelo Teorema 63
é que podemos obter uma base canónica para L(V, W ). Consideremos a base canónica de
Mm×n (K)
 1 0 ... 0   0 1 ... 0   0 0 ... 0 
0 0 ... 0 0 0 ... 0 0 0 ... 0
= ( ,  , . . . ,  )
Mm×n (K)
Bcan. .. .. .. .. .. .. .. .. .. .. .. ..
. . . . . . . . . . . .
0 0 ... 0 0 0 ... 0 0 0 ... 1

A base canónica de L(V, V ) é


Mm×n (K)
ψ −1 (Bcan. ) =
  1 0 ... 0
  0 1 ... 0
  0 0 ... 0

0 0 ... 0 0 0 ... 0 0 0 ... 0
ψ −1  . . .. .  , ψ −1  . . .. .  , . . . , ψ −1  . . .. . 
.. .. . .. .. .. . .. .. .. . ..
0 0 ... 0 0 0 ... 0 0 0 ... 1

Calculemos a função elementar


 
 i   i 
 0 ... 0 ... 0  0 ... 0 ... 0
 
  .. .. ..
   .. .. ..

ϵi,j = ψ −1   . . .   ⇔ ψ(ϵi,j ) =  . . . 
  0 ... 1 ... 0 j   0 ... 1 ... 0 j
  .. .. ..    .. .. .. 
. . . . . .
0 ... 0 ... 0 0 ... 0 ... 0

ou seja,

 ϵi,j (bi )   i 
0 ... 0 ... 0 0 ... 0 ... 0
 .. .. ..
  .. .. ..

M (ϵi,j , BV , BW ) =  . . .  =  . . . 
 0 ... 1 ... 0  ej  0 ... 1 ... 0 j
 .. .. ..   .. .. .. 
. . . . . .
0 ... 0 ... 0 0 ... 0 ... 0

o que nos diz que (


ej se k = i
ϵi,j (bk ) = .
0 se k 6= i
Por conseguinte, a base canónica de L(V, W ) respeitante às bases ordenadas fixas BV =
(b1 , . . . , bn ) e BW = (e1 , . . . , en ) de V e W respectivamente, é
L(V,W )
Bcan = (ϵ1,1 , ϵ2,1 , . . . , ϵn,1 , ϵ1,2 , ϵ2,2 , . . . , ϵn,2 , . . . . . . , ϵ1,m , ϵ2,m , . . . , ϵn,m )

em que cada função linear elementar ϵi,j é a função

(
ej se k = i
ϵi,j (bk ) = , para k = 1, 2, . . . , n .
0 se k 6= i
11. APLICAÇÕES LINEARES VERSUS MATRIZES 89

Em particular L(K n , K m ) é gerado pelas seguintes funções elementares canónicas

ϵi,j : Kn −→ Km
(x1 , x2 , . . . , xi , . . . , xn ) 7−→ (0, 0, . . . , 0, xi , 0, . . . , 0)
| {z }
xi na posição j

Isto permite-nos averiguar rapidamente se uma determinada aplicação de K n −→ K m


é linear ou não mediante uma decomposição (em combinação linear) em funções lineares
elementares canónicas.

Exemplo 21 A função f : R3 −→ R2 , definida por f (x, y, z) = (x − y, y + z) é linear porque

f = ϵ1,1 − ϵ2,1 + ϵ2,2 + ϵ3,2

em que ϵ1,1 (x, y, z) = (x, 0), ϵ2,1 (x, y, z) = (y, 0), ϵ2,2 (x, y, z) = (0, y) e ϵ3,2 (x, y, z) = (0, z) são funções
lineares elementares canónicas.

ii Matriz de mudança de bases


Sejam V um espaço vectorial de dimensão n e B1 = (b1 , . . . , bn ), B2 = (e1 , . . . , en ) duas
bases de V . Seja v um vector de V e suponhamos que conhecemos as coordenadas de v
relativamente à base B1 , isto é, conhecemos

(v)B1 = ( x1 , . . . , xn ) ,

e que pretendemos determinar as coordenadas de v relativamente à base B2 . Portanto,


pretendemos calcular
(v)B2 = ( y1 , . . . , yn )
? ?
Como v = x1 v1 + · · · + xn bn , basta determinarmos as coordenadas de cada bi na base B2
para determinarmos as coordenadas de v relativamente à base B2 . Seja

(bi )B2 = ( α1i , . . . , αni ) .

Isto significa que bi = α1i e1 + · · · + αni ei . Substituindo temos

v = x1 (α11 e1 + · · · + αn1 en ) + x2 (α12 e1 + · · · + αn2 en ) + . . . + xn (α1n e1 + · · · + αnn en )


= (x1 α11 + x2 α12 + · · · + xn α1n )e1 + . . . + (x1 αn1 + x2 αn2 + · · · + xn αnn )en
| {z } | {z }
y1 yn

Ou seja, as coordenadas (y1 , . . . , yn ) de v relativamente a B2 são


    
y1 α11 α12 . . . α1n x1
 y2   α21 α22 . . . α2n   x2 
    
 ..  =  .. .. ..   .. 
 .   . . .  . 
yn αn1 αn2 . . . αnn xn
90 CONTEÚDO

Esta matriz chama-se matriz de mudança de bases e denota-se por MB1 ,B2 , ou por
M (B1 , B2 ).
b1 ... bn
 
MB1 ,B2 = α11 ... α1n e1
 : :  :
αn1 ... αnn en

A matriz de mudança de bases MB1 ,B2 permite traduzir coordenadas (x1 , . . . , xn ) na base B1
para coordenadas (y1 , . . . , yn ) na base B2 :
   
x1 y1
 x2   y2 
   
MB1 ,B2  ..  =  .. 
 .   . 
xn yn

R3
Exemplo 22 Em R3 consideremos a base canónica Bcan. e a base

B2 = (e1 , e2 , e3 ) = ( (1, 1, 0) , (1, 0, 1) , (0, 1, 1) ) .

ˆ Calcule a matriz de mudança de bases M R3


.
B ,B2
can.

ˆ Determine as coordenas de (2, −1, −6)B1 relativamente a B2 .


Resolução:
ˆ Calculemos as coordenadas α, β, γ de (1, 0, 0) relativamente à base B2 , isto é,
 
 α = −2
1
 β+γ =1 
(1, 0, 0) = α(0, 1, 1) + β(1, 0, 1) + γ(1, 1, 0) ⇔ α+γ =0 ⇔ β = 21
 

α+β =0 γ = 12

Analogamente
  1
 β+γ =0 
 α= 2
(0, 1, 0) = α(0, 1, 1) + β(1, 0, 1) + γ(1, 1, 0) ⇔ α+γ =1 ⇔ β = − 12
 

α+β =0 γ = 12
  1
 β+γ =0 
 α= 2
(0, 0, 1) = α(0, 1, 1) + β(1, 0, 1) + γ(1, 1, 0) ⇔ α+γ =0 ⇔ β = 12
 

α+β =1 γ = − 21
Portanto    
− 12 1 1
−1 1 1
2 2 1
M R3
=  1
2 − 12 1
2
 =  1 −1 1 
2
1 1
− 12 −1
B ,B2
can.
2 2
1 1

ˆ As coordenas (y1 , y2 , y3 ) de (2, −4, −6)B1 relativamente a B2 são


      
y1 −1 1 1 2 −6
 y2  = 1  1 −1 1   −4  =  0 
2
y3 1 1 −1 −6 2
11. APLICAÇÕES LINEARES VERSUS MATRIZES 91

Nota : A matriz de mudanças de bases MB1 ,B2 é a matriz da aplicação linear identidade
id : V −→ V relativamente às bases B1 e B2 ,

MB1 ,B2 = M (id, B1 , B2 )

Consequência de id ser um isomorfismo é:

Uma matriz de mudança de bases é uma matriz invertı́vel.

Reciprocamente,

Toda a matriz invertı́vel é uma matriz de mudança de bases.

De facto, se M = [C1 , . . . , Cn ] ∈ Mn (K) é invertı́vel, então C1 , . . . , Cn são n vetores linear-


mente independentes. Como dim(K n ) = n, então C1 , . . . , Cn geram K n , por conseguinte,
B = (C1 , . . . , Cn ) constitue uma base ordenada de K n . Portanto, M = M (id, B, Bcan (K n )).
−1
Corolário 65 MB2 ,B1 = MB .
1 ,B2

Matrizes equivalentes e semelhantes como matrizes da mesma função linear


Recordemos que duas matrizes M, M 0 ∈ Mm×n (K) são equivalentes se existem matrizes
invertı́veis A ∈ Mn (K) e B = Mm (K) tais que

M 0 = AM B .

Sejam B1 a base canónica de K n e B2 a base canónica de K m .


Sem f : K n −→ K m a única aplicação linear tal que M = M (f, B1 , B2 ), ψA o único
isomorfismo linear K m −→ K m tal que A = M (ψA , B2 , B2 ) e ψB o único isomorfismo
linear K n → K n tal que B = M (ψB , B1 , B1 ). Então

AM B = M (ψA , B2 , B2 )M (f, B1 , B2 )M (ψB , B1 , B1 )


= M (ψA ◦ f ◦ ψB , B1 , B2 )
= M (f, ψB (B1 ), ψA−1 (B2 ))

Duas matrizes M, M 0 ∈ Mm×n (K) dizem-se semelhantes se existe uma matriz invertı́vel
A tal que
M 0 = AM A−1 .
Neste caso
AM A−1 = M (f, ψA−1 (B1 ), ψA−1 (B2 ))
92 CONTEÚDO

12 Valores e Vectores próprios


Seja f : V −→ V uma endomorfismo linear entre espaços vectoriais de dimensão finita. Um
vector não nulo v ∈ V diz-se um vector próprio de f se

f (h v i) ⊂ h v i.

Por outra palavras, o vector v 6= ⃗0 é vector próprio de f se existe um escalar λ ∈ K tal que

f (v) = λv.

A este escalar λ diz-se um valor próprio de f . Portanto, λ ∈ K é um valor próprio de f


se existir v ∈ V com v 6= ⃗0, tal que f (v) = λv. Aos vectores ⃗0 6= v ∈ V que satisfazem
f (v) = λv, chamam-se vectores próprios de f associados a λ.

Vetores próprios associados ao mesmo valor próprio.

Se u e v são dois vetores próprios de f associados ao mesmo valor próprio λ, então qualquer
combinação linear w = αu + βv 6= ⃗0 é vector próprio de f associado ao mesmo valor próprio λ.

Demonstração.
Exercı́cio. 2

Designemos por

Eλ (f ) = {v ∈ V | f (v) = λv}

Teorema 66 Eλ é um subespaço vectorial de V .


Demonstração.
De facto,
Eλ (f ) = {v ∈ V | f (v) = λv}
= {v ∈ V | λ id(v) − f (v) = ⃗0 }
= {v ∈ V | (λ id − f )(v) = ⃗0 }
= N uc(λ id − f ) < V .
2

Note-se que N uc(λ id − f ) = N uc(f − λf ).

Eλ (f ) = N uc(λ id − f ) .

Se λ é um valor próprio de f , a Eλ (f ) chama-se o subespaço próprio associado a λ .


12. VALORES E VECTORES PRÓPRIOS 93

Corolário 67 λ é valor próprio de f ⇔ Eλ (f ) 6= {⃗0}

Observação 3 E0 (f ) = N uc(f ). Portanto

0 é valor próprio de f ⇔ N uc(f ) 6= {⃗0} ⇔ f não é injectiva.

Endomorfismos e automorfismos
Designemos por L(V ), ou por End(V ), o espaço vectorial das aplicações lineares de V em
V (isto é, dos endomorfismos lineares de V ). Designemos por GL(V ) o conjunto dos auto-
morfismos de V , isto é, das aplicações lineares invertı́veis de L(V ). Este constitui um grupo
para a composição de aplicações, conhecido por grupo linear em V .
Note-se que ∀ f , g , ψ , ϕ ∈ L(V ) , ∀ λ ∈ K temos:
1. ψ ◦ (f + g) = ψ ◦ f + ψ ◦ g ;

2. (f + g) ◦ ϕ = f ◦ ϕ + g ◦ ϕ ;

3. ψ ◦ (λ f ) = λ (ψ ◦ f ) ;

4. (λ f ) ◦ ϕ = λ (f ◦ ϕ) .
De facto

1. ψ ◦ (f + g) (v) = ψ( (f + g)(v) ) = ψ(f (v) + g(v)) = ψ(f (v)) + ψ(g(v)) = (ψ ◦ f + ψ ◦ g)(v);

2. (f + g) ◦ ϕ (v) = (f + g)(ϕ(v)) = f (ϕ(v)) + g(ϕ(v)) = (f ◦ ϕ + g ◦ ϕ)(v);

3. Exercı́cio.

4. Exercı́cio.

Ou seja, denotando a composição f ◦ g por f g temos:

∀ f , g , ψ ∈ L(V ) , ψ(f + g) = ψf + ψg
∀ f , g , ϕ ∈ L(V ) , (f + g)ϕ = f ϕ + gϕ
∀ λ ∈ K , ∀ f , ψ ∈ L(V ) ψ(λ f ) = λ ψf
∀ λ ∈ K , ∀ f , ϕ ∈ L(V ) (λ f )ϕ = λ f ϕ .

Endomorfismos semelhantes
Sejam f, g ∈ L(V ). Se existe ψ ∈ Aut(V ) tal que g = ψf ψ −1 os endomorfismos f e g
dizem-se semelhantes e escreve-se f ≈ g. É claro que a semelhança determina uma relação
de equivalência em L(V ).

Teorema 68 Se g = ψf ψ −1 para algum automorfismo ψ ∈ Aut(V ), então todo o valor


próprio de f é valor próprio de g.
94 CONTEÚDO

Demonstração.
Note-se que g = ψ f ψ −1 ⇔ ψ −1 g ψ = f . Seja λ um valor próprio de f . Isto significa que existe um vector u 6= ⃗0 tal que
f (u) = λu. Mas então,
f (u) = λu ⇔ ψ −1 g (ψ(u)) = λ u
⇔ g (ψ(u)) = ψ(λ u)
⇔ g (ψ(u)) = λ ψ(u)

Como ψ(u) 6= ⃗0 (pois ψ é injectiva) λ também é um vector próprio de g. 2

Corolário 69 Se g = ψf ψ −1 para algum ψ ∈ Aut(V ), então Eλ (g) = ψ (Eλ (f )) .


Designemos por espectro de f o conjunto dos valores próprios de f .

Corolário 70 Aplicações lineares semelhantes possuem o mesmo espectro.

i Polinómio caracterı́stico
Fixemos uma base ordenada B = (b1 , . . . , bn ) de V . Designemos por M (f, B) a matriz de f
relativamente à base B, isto
M (f, B) := M (f, B, B) .
Se B 0 = (e1 , . . . , en ) é uma outra base ordenada de V então,

M (f, B 0 ) = MB,B′ M (f, B) MB′ ,B

Como MB,B′ = MB−1


′ ,B
então

M (f, B 0 ) = MB−1
′ ,B
M (f, B) MB′ ,B

isto é,

As matrizes de f relativamente às diferentes bases de V são matrizes semelhantes.

Notemos que se designarmos por ψ : V −→ V a aplicação linear determinada por ψ(bi ) = ei


então
M (ψ, B) = MB ′ ,B
pelo que
M (f, B 0 ) = M (ψ −1 , B) M (f, B) M (ψ, B) = M (ψ −1 f ψ, B)
ou seja,

Matrizes de f relativamente a diferentes bases de V correspondem a matrizes de


aplicações lineares semelhantes.

Designemos por Mf a matriz de f relativamente à base fixa B


12. VALORES E VECTORES PRÓPRIOS 95

Mf = M (f, B) .

Ao polinómio
Pf (x) := |x In − Mf | = det (x In − Mf )
chamamos o polinómio caracterı́stico de f . Note-se que este polinómio é um polinómio de
grau n = dim(V ). Portanto

Pf (x) ∈ Kn [x] .

O termo constante deste polinómio é | − Mf | = (−1)n |Mf |. Logo 0 é raiz de Pf (x) se e só se
|Mf | = 0 ⇔ f não é injectiva.

Teorema 71 Se f ≈ g então Pf (x) = Pg (x). Por conseguinte, o polinómio caracterı́stico


Pf (x) está bem definido, isto é, não depende da base fixada B.
Demonstração.
Seja g = ψ −1 f ψ em que ψ ∈ GL(V ). Então

Pg (x) = |xIn − Mg |

= xIn − Mψ−1 f ψ

= xIn − Mψ−1 Mf Mψ
−1
= xIn − Mψ Mf Mψ
−1 −1
= Mψ xIn Mψ − Mψ Mf Mψ
−1
= Mψ ( xIn − Mf )Mψ
−1
= Mψ xIn − Mf Mψ
−1
= Mψ xIn − Mf Mψ
−1
= Mψ Mψ xIn − Mf
= xIn − Mf
= Pf (x)
2

Corolário 72 λ é valor próprio de f ⇔ λ é raiz do polinómio caracterı́stico Pf (x) ⇔


|λIn − M | = 0.

Demonstração.

λ é valor próprio de f ⇔ N uc(λ id − f ) 6= {⃗0}


⇔ λ id − f não é injectiva
⇔ Mλ id−f = 0
⇔ Mλ id − Mf = 0
⇔ λMid − Mf = 0
⇔ λIn − Mf = 0
⇔ Pf (λ) = 0
2
96 CONTEÚDO

Exemplo 23 Seja f : R3 −→ R3 definida por f (x, y, z) = (x + y + z, x + z, y). Calculemos os valores


próprios de f . Ora a matriz de f relativamente à base canónica de R3 é
 
1 1 1
Mf =  1 0 1 
0 1 0

pelo que o polinómio caracterı́stico de f é

x−1 −1 −1
Pf (x) = |xI − Mf | = −1 x −1 = x(x2 − x − 2) = x(x + 1)(x − 2)
0 −1 x

Os valores próprios de f são as raı́zes de Pf (x), ou seja 0, −1, 2.

Multiplicidade algébrica de um valor próprio


Um valor próprio λ de f é uma raiz do polinómio caracterı́stico Pf (x). Ora

λ é raiz de Pf (x) ⇔ x − λ divide Pf (x),

isto é, Pf (x) = (x − λ)q(x) para algum polinómio q(x).


Dizemos que λ é raiz de multiplicidade m se

Pf (x) = (x − λ)m q(x) e q(λ) 6= 0 .

A multiplicidade 3 do valor próprio λ é a multiplicidade de λ como raiz de Pf (x). De-


signemos por mα a multiplicidade de λ.

Teorema 73 dim( Eλ (f ) ) ≤ mλ .
Demonstração.
Seja B1 = (b1 , . . . , br ) uma base ordenada do subespaço próprio Eλ (f ). Logo

dim( Eλ (f ) = r .

Completemos esta base a uma base ordenada B = (e1 , . . . , er , br+1 , . . . , bn ) de V .


Então como cada bi ∈ Eλ (f ) temos f (b1 ) = λb1 , . . . , f (br ) = λbr , pelo que

f (b1 ) f (b2 ) ... f (br ) f (er+1 ) ... f (en )


  b1
λ 0 ... 0 ∗ ... ∗
 0 λ ... 0 ∗ ... ∗  b2
 
  . λ. 0
 .. .. .. .. ..  ..
   0 .. λ A 
Mf =  . . . . .  
= 
  br 
 0 0 ... λ ∗ ... ∗ 
  er+1
 0 0 ... 0 ∗ ... ∗  0 0 B
  ..
 .. .. .. .. ..  .
 . . . . . 
en
0 0 ... 0 ∗ ... ∗

3
No Livro de António Monteiro ela é designada por multiplicidade algébrica.
12. VALORES E VECTORES PRÓPRIOS 97

em que B é uma matriz quadrada n − r × n − r. Então o polinómio caracterı́stico escreve-se

Pf (x) = |xIn − Mf |
   
x. 0 λ. 0
 0 .. x 0   0 .. λ A 
=  − 
   
0 0 xIn−r 0 0 B

x−λ. 0
.
. x−λ −A
= 0

0 0 xIn−r − B

x−λ. 0
= .
. x−λ |xIn−r − B|
0

= (x − λ)r q(x)

em que q(x) = |xIn−r − B|. Por conseguinte a multiplicidade mλ de λ é

mλ ≥ r = dim( Eλ (f ) .

Teorema 74 Seja dim(V ) = n, f ∈ L(V ), B uma base ordenada de V e λ um valor próprio


de f . Então
dim(Eλ (f ) = n − Car(λIn − Mf ) .

Demonstração.
Ora
dim(Eλ (f ) = dim ( N uc(λid − f ) ) = dim(V ) − Car(λid − f ) = n − Car(λid − f )
 
= n − Car Mλid−f = n − Car λMid − Mf
= n − Car(λIn − Mf )
2

Exemplos

Exemplo 24
V = espaço vectorial de dimensão n sobre K.
η = aplicação linear nula, η : V −→ V , v 7→ 0.
Relativamente a uma base ordenada fixa B em V , Mη = 0 .
Polinómio caracterı́stico de η : Pη (x) = xn .
A aplicação linear nula η possui um valor próprio distinto, que é 0, de multiplicidade n.
Subespaço vectorial próprio associado ao valor próprio 0:

E0 (η) = {v ∈ V | η(v) = 0v} = V .

O subespaço vectorial gerado pelos vectores próprios de f é V .

Exemplo 25
V = espaço vectorial de dimensão n sobre K.
id = aplicação linear identidade, id : V −→ V , v 7→ v.
98 CONTEÚDO

Relativamente a uma base ordenada fixa B em V , Mid = In .


Polinómio caracterı́stico de id : Pid (x) = (x − 1)n .
A aplicação linear identidade id possui um valor próprio distinto, que é 1, de multiplicidade n.
Subespaço vectorial próprio associado ao valor próprio 1:

E1 (id) = {v ∈ V | id(v) = 1v} = V .

O subespaço vectorial gerado pelos vectores próprios de f é V .

Exemplo 26
V = R2 espaço vectorial de dimensão 2 sobre R.
f : R2 −→ R2 , f (x, y) = (x − y, x + y). h i
1 −1
Relativamente à base ordenada canónica de R2 , Mf = 1 1
.
x−1 1
Polinómio caracterı́stico de f : Pf (x) = −1 x−1
= (x − 1)2 + 1.
A aplicação linear f não possui nenhum valor próprio (real).
f não tem vectores próprios.

Exemplo 27
V = R2 espaço vectorial de dimensão 2 sobre R.
f : R2 −→ R2 , f (x, y) = (x, x − y). h i
1 0
Relativamente à base ordenada canónica de R2 , Mf = 1 −1
.
x−1 0
Polinómio caracterı́stico de f : Pf (x) = −1 x+1
= (x − 1)(x + 1) = x2 − 1.
A aplicação linear f possui dois valores próprios distintos (cada um de multiplicidade 1) que são 1 e −1.
Subespaços vectoriais próprios associados aos valores próprios:

E1 (f ) = {(x, y) | (x, x − y) = (x, y)} = {(x, y) | x − y = y} = {(x, y) | x = 2y}


= {(2y, y) | y ∈ R} = {y(2, 1) | y ∈ R} = h (2, 1) i
E−1 (f ) = {(x, y) | (x, x − y) = (−x, −y)} = {(x, y) | x = 0} = {(0, y) | y ∈ R} = h (0, 1) i

O subespaço vectorial gerado pelos vectores próprios de f é h (2, 1), (0, 1) i = V .

Exemplo 28
V = R2 espaço vectorial de dimensão 2 sobre R.
f : R2 −→ R2 , f (x, y) = (x + y, y). h i
1 1
Relativamente à base ordenada canónica de R2 , Mf = 0 1
.
x−1 −1
Polinómio caracterı́stico de f : Pf (x) = 0 x−1
= (x − 1)2 .
A aplicação linear f possui um valor próprio distinto que é 1 (com multiplicidade 2).
Subespaço vectorial próprio associado ao valor próprio 1:

E1 (f ) = {(x, y) | (x + y, y) = (x, y)} = {(x, y) | x + y = x} = {(x, y) | y = 0} = {(x, 0) | x ∈ R} = h (1, 0) i

Logo dim(E1 (f )) = 1 apesar de 1 ser um valor próprio de multiplicidade 2. O subespaço vectorial gerado
pelos vectores próprios de f é h (1, 0) i ∼
= R.

Exemplo 29
V = R2 espaço vectorial de dimensão 2 sobre R.
f : R2 −→ R2 , f (x, y) = (y, 0).
12. VALORES E VECTORES PRÓPRIOS 99

h i
0 1
Relativamente à base ordenada canónica de R2 , Mf = 0 0
.
x −1
Polinómio caracterı́stico de f : Pf (x) = 0
= x2 .x
A aplicação linear f possui um único valor próprio distinto que é 0 com multiplicidade 2.
Subespaço vectorial próprio associado ao valor próprio 0:
E0 (f ) = N uc(f ) = {(x, y) | (y, 0) = (0, 0)} = {(x, 0) | x ∈ R} = h (1, 0) i
Logo dim(E0 (f )) = 1 apesar de 0 ser um valor próprio de multiplicidade 2. O subespaço vectorial gerado
pelos vectores próprios de f é h (1, 0) i ∼
= R.

Exemplo 30
Mais geralmente, V = Rn espaço vectorial de dimensão n sobre R.
f : Rn −→ Rn , f (x1 , x2 , . . . , xn ) = (x2 , x3 , . . . , xn , 0).
Relativamente à base ordenada canónica de Rn ,
 
0 1 0 0 ... 0
 0 0 1 0 ... 0 
 0 0 0 1 ... 0 
 
Mf =  .. .. .. .. .. .
 . . . . ... . 
 0 0 0 0 ... 1

0 0 0 0 ... 0

Polinómio caracterı́stico de f :
x −1 0 0 ... 0
0 x −1 0 ... 0
0 0 x −1 ... 0
Pf (x) = .. .. .. .. .. = xn .
. . . . ... .
0 0 0 0 ... −1
0 0 0 0 ... x

A aplicação linear f possui um único valor próprio distinto que é 0 com multiplicidade n.
Subespaço vectorial próprio associado ao valor próprio 0:
E0 (f ) = N uc(f ) = {(x1 , x2 , . . . , xn ) ∈ Rn | (x2 , x3 , . . . , xn , 0) = (0, 0, . . . , 0, 0)}
= {(x, 0, . . . , 0) | x ∈ R} = h (1, 0, . . . , 0) i
Logo dim(E0 (f )) = 1, isto é, dim(N uc(f )) = 1, apesar de 0 ser um valor próprio de multiplicidade n. O
subespaço vectorial gerado pelos vectores próprios de f é E(f ) = h (1, 0, . . . , 0) i ∼
= R.

Exemplo 31
V = R3 espaço vectorial de dimensão 3 sobre R.
f : R3 −→ R3 , f (x, y, z) = (x − 2y + 5z, 2x + y + z, 3y +"z). #
1 −2 5
Relativamente à base ordenada canónica de R , Mf = 2 2 1 1 .
0 3 1
x−1 2 −5
Polinómio caracterı́stico de f : Pf (x) = −2 x−1 −1 = (x − 4)(x2 + x + 8).
0 −3 x−1
A aplicação linear f possui um valor próprio (de multiplicidade 1) que é 4 (as outras duas raı́zes são
complexas).
Subespaço vectorial próprio associado ao valor próprio 4:

 x − 2y + 5z = 4x
E4 (f ) = {(x, y, z) | (x − 2y + 5z, 2x + y + z, 3y + z) = 4(x, y, z)} = {(x, y, z) | 2x + y + z = 4y }

3y + z = 4z
= {(x, y, z) | x = y = z} = {(x, x, x) | x ∈ R} = h (1, 1, 1) i
O subespaço vectorial gerado pelos vectores próprios de f é h (1, 1, 1) i ∼
= R.
100 CONTEÚDO

ii Vectores próprios associados a valores próprios distintos


Sejam f ∈ L(V ) e V espaço vectorial de dimensão finita sobre um corpo K.
Designemos por E(f ) o subespaço vectorial gerado pelos vectores próprios de f . Note-se
que E(f ) é gerado por vectores próprios de f e isto não significa que todo o vector de E(f )
é um vector próprio de f . Há vectores de E(f ) que não são vectores próprios de f . Se
λ1 , λ2 , . . . , λm são os valores próprios distintos de f então

E(f ) = h Eλ1 (f ) ∪ . . . ∪ Eλm (f ) i = Eλ1 (f ) + · · · + Eλm (f ) .

Vamos ver que esta soma é directa.


Sejam α, β ∈ K. Designemos por

Eα,β (f ) := Eα (f ) + Eλ (f ) = h Eα (f ) ∪ Eλ (f ) i .

Mais geralmente, designemos por

Eλ1 ,...,λm := Eλ1 (f ) + · · · + Eλm (f ) ,

ao subespaço vectorial gerado pela união Eλ1 (f ) ∪ . . . ∪ Eλm (f ).

Lema 75 Se α e λ são escalares distintos então Eα (f ) ∩ Eλ (f ) = {⃗0} .


Demonstração.
Suponhamos que Eα (f ) ∩ Eλ (f ) 6= {⃗0} e seja u 6= ⃗0 um vector pertencente a Eα (f ) ∩ Eλ (f ). Então

αu = f (u) = λu ⇔ (α − λ)u = ⃗0 ⇒ α = λ ,

o que contradiz α e β serem distintos. 2

Portanto, se α, β ∈ K são valores próprios distintos de f então

Eα,β (f ) = Eα (f ) ⊕ Eλ (f ) ∼
= Eα (f ) × Eλ (f ) .

Mais geralmente,

Teorema 76 Se λ1 , . . . , λm são valores próprios distintos de f então

Eλ1 ,...,λm = Eλ1 (f ) ⊕ . . . ⊕ Eλm (f ) ∼


= Eλ1 (f ) × . . . × Eλm (f )

Demonstração.
Por indução. Tal é trivialmente verdade para um só valor próprio. Suponhamos que o teorema é verdade para quaisquer
m − 1 valores próprios distintos. Sejam λ1 , . . . , λm m valores próprios distintos. Então sendo λ1 , . . . , λm−1 valores próprios
distintos, por hipótese de indução,
Eλ1 , ... ,λm−1 = Eλ1 (f ) ⊕ . . . ⊕ Eλm−1 (f ) (6)
Então por definição
Eλ1 ,...,λm = Eλ1 , ... ,λm−1 + Eλm (f )
12. VALORES E VECTORES PRÓPRIOS 101

Seja ⃗0 6= u ∈ Eλ1 , ... ,λm−1 ∩ Eλm (f ). Então em particular,

u = u1 + · · · + um−1

com u1 ∈ Eλ1 (f ), . . . , um−1 ∈ Eλm−1 (f ) , sendo esta decomposição única. Isto significa que

f (u1 ) = λ1 u1 , . . . , f (um−1 ) = λm−1 um−1 .

Por outro lado u ∈ Eλm (f ) e portanto

f (u) = λm u ⇔ f (u1 + · · · + um−1 ) = λm (u1 + · · · + um−1 )


⇔ f (u1 ) + · · · + f (um−1 ) = λm u1 + · · · + λm um−1
⇔ λ1 u1 + · · · + λm−1 um−1 = λm u1 + · · · + λm um−1
⇔ (λm − λ1 )u1 + · · · + (λm − λm−1 )um−1 = ⃗0

A como a soma (6) é directa só há uma única maneira de escrever ⃗0,

(λm − λ1 )u1 = · · · = (λm − λm−1 )um−1 = ⃗0

Como os valores próprios λ1 , λ2 , . . . , λm−1 , λm são distintos

u1 = u2 = · · · = um−1 = ⃗0 ⇒ u = ⃗0

o que contraria u 6= ⃗0. Logo Eλ1 , ... ,λm−1 ∩ Eλm (f ) = {⃗0} e por conseguinte

Eλ1 ,...,λm = Eλ1 , ... ,λm−1 ⊕ Eλm (f ) = Eλ1 (f ) ⊕ . . . ⊕ Eλm−1 (f ) ⊕ Eλm (f ) .

Corolário 77 Se u1 , . . . , um são vectores próprios associados a valores próprios distintos


então u1 , . . . , um são linearmente independentes.

Donde tiramos:

Se λ1 , λ2 , . . . , λm são os valores próprios distintos de f então


E(f ) = Eλ (f ) ⊕ . . . ⊕ Eλ (f ) ∼
1 = Eλ (f ) × . . . × Eλ (f ) .
m 1 m

Por conseguinte,
dim(E(F )) = dim(Eλ1 (f )) + · · · + dim(Eλm (f )) .
Uma base de E(f ) constituı́da por vectores próprios:
BE(F ) = BEλ1 (f ) ∪ . . . ∪ BEλm (f ) .

Observação 4 Voltando a reforçar, E(f ) é o subespaço de V gerado pelos vectores próprios,


isto não significa que todo o vector de E(f ) é vector próprio de f . Só o espaço próprio de
f associado a um valor próprio é composto por vectores próprios: se λ é valor próprio de f
então todo o vector do espaço próprio Eλ é vector próprio de f associado a λ. A combinação
linear de vectores próprios não é necessariamente um vector próprio, por exemplo se os
vectores próprios estão associados a valores próprios distintos.
102 CONTEÚDO

iii Valores e vectores próprios de matrizes


Seja M ∈ Mn (K) uma matriz quadrada n × n com entradas em K, então M é uma aplicação
linear M = f : K n → K n , que a cada vector u = [α1 , α2 , . . . , αn ]T faz corresponder f (u) =
M u. Mais, M coincide com a matriz de M nas bases canónicas de K n . Podemos assim
resumir para matrizes:
ˆ [α1 , α2 , . . . , αn ]T 6= [0, 0, . . . , 0]T é vector próprio de M se existe λ ∈ K, tal que
     
α1 α1 λα1
 α2   α2   λα2 
     
M  ..  = λ  ..  =  ..  .
 .   .   . 
αn αn λαn

ˆ λ ∈ K é valor próprio de M , se existe [α1 , α2 , . . . , αn ]T 6= [0, 0, . . . , 0]T , tal que


     
α1 α1 λα1
 α2   α2   λα2 
     
M  ..  = λ  ..  =  ..  .
 .   .   . 
αn αn λαn

ˆ 0 é valor próprio de uma matriz M ∈ Mn (K) se e só se |M | = 0.


ˆ Se para todo o v ∈ K n , (v matriz coluna), v é um vector próprio de M , então M = λI,
para algum λ ∈ K. Aqui I é a matriz identidade.
Demonstração.
Sejam b1 = (1, 0, . . . , 0, 0)T , b2 = (0, 1, 0, . . . , 0, 0)T , . . . , bn = (0, 0, . . . , 0, 1), os elementos da base canónica Bc de K n .
Por hipótese, M bi = λi bi , para i = 1, 2, . . . , n, e por conseguinte, M coincide com a matriz que representa a aplicação
linear M na base canónica:
M b1 M b2 ... M bn
 
λ1 0 ... 0 b1
M = 

0 λ2 ... 0 

b2
 .. .. .. ..  ..
 . . . .  .
0 0 ... λn bn
Seja b = b1 + b2 + · · · + bn = (1, 1, . . . , 1, 1)T . Então,
M b = M b1 + M b2 + · · · + M bn = λ1 b1 + λ2 b2 + · · · + λn bn = (λ1 , λ2 , . . . , λn )T .
Como b é um vector não nulo, então, também por hipótese, M b = λb, para algum λ. Então
(λ1 , λ2 , . . . , λn )T = M b = λb = (λ, λ, . . . , λ)T ,

ou seja, λ1 = λ2 = · · · = λn = λ e M = λI. 2

ˆ Se M não é um múltiplo escalar da matriz identidade (M 6= λI, ∀ λ ∈ K), então existe


v ∈ K n (matrix coluna) tal que v e M são linearmente independentes.
ˆ Se M não é um múltiplo escalar da matriz identidade, então M é semelhante a uma
matriz da forma  
0 a1,2 a1,3 . . . a1,n
 1 a2,2 a2,3 . . . a2,n 
 
 0 a3,2 a3,3 . . . a3,n 
 .
 .. .. .. .. 
 . . . ... . 
0 an,2 an,3 . . . an,n
12. VALORES E VECTORES PRÓPRIOS 103

 a11 a12 ... a1n



a21 a22 ... a2n
ˆ O valores próprios de M =  .. .. ...
 são as raı́zes do polinómio carac-
. . ...
an1 an2 ... ann
terı́stico de M

x-a11 -a12 ... -a1n


-a21 x-a22 ... -a2n
PM (x) = |xI − M | = .. .. .. .
. . ... .
-an1 -an2 . . . x-ann

ˆ Se M é uma matriz diagonal, ou uma matriz triangular (superior ou inferior), então


os valores da diagonal são os valores próprios da matriz.
Demonstração.
Uma matriz diagonal é um caso particular de uma matriz triangular. Seja

 
a11 0 0 ... 0
 a21 a22 0 ... 0 
 
 a a32 a33 ... 0 
T =  31 .
 . .. .. .. 
 .. . . ... . 
an1 an2 an3 ... ann

Então

x-a11 0 0 ... 0
-a21 x-a22 0 ... 0
-a31 -a32 x-a33 ... 0
PT (x) = |xI − T | = = (x − a11 )(x − a22 )(x − a33 ) . . . (x − ann ),
.. .. .. ..
. . . ... .
-an1 -an2 -an3 ... x-ann

cujas raı́zes são a11 , a22 , a33 , . . . , ann . 2


h i
ˆ No caso de matrizes 2 × 2, M = a
c
b
d , temos

PM (x) = x2 − x(a + d) + ad − bc = x2 − Tr M x + |M |.

No caso de K = R, isto é, M ser uma matriz real, o binómio discriminante do polinómio
caracterı́stico de M , ∆ = B 2 − 4AC = Tr M 2 − 4detM , diz-nos que:

– Se ∆ < 0, então M não tem valores próprios.


– Se ∆ = 0, então M tem um valor próprio distinto (um valor próprio de multipli-
cidade algébrica 2).
– Se ∆ > 0, então M tem dois valores próprio distintos, e consequentemente, M é
diagonalizável.
 
a1 a2 a3
ˆ No caso de matrizes 3 × 3, M = b1 b2 b3 , temos
c1 c2 c3

PM (x) = x3 − Tr M x2 + (|M1̂ | + |M2̂ | + |M3̂ |)x − |M | .

em que Mî é a matriz M sem a linha i e sem a coluna i.


104 CONTEÚDO

" a1 a2 a3 a4
#
ˆ No caso de matrizes 4 × 4, M = b1
c1
b2
c2
b3
c3
b4
c4 , temos
d1 d2 d3 d4

X X
PM (x) = x4 − Tr M x3 + ( Mîĵ )x2 − ( |Mî | )x + |M | .
i,j∈{1,2,3,4} i∈{1,2,3,4}
i<j

Aqui Mîĵ é a submatriz de M com as linhas i e j, bem como as colunas i e j, removidas,


e Mî é a submatriz de M com a linha i e coluna i removidas.

ˆ Se λ é valor próprio do produto de matrizes AB, então λ é também valor próprio do


produto BA. Por conseguinte, AB e BA têm os mesmos valores próprios.
Demonstração.
Seja λ um valor próprio de AB. Então existe u = [α1 , . . . , αn ]T 6= 0 tal que

AB u = λu.

Multiplicando por B esta igualdade temos:


(BA)Bu = λBu.

Se Bu 6= 0, esta igualdade diz-nos que λ é valor próprio de BA também. Se Bu = 0, então ABu = 0, ou seja, λu = 0.
Como u 6= 0, então λ = 0. Mas zero é valor próprio de AB se e só se AB é náo injectiva, ou seja, se e só se |AB| = 0.
Como |AB| = |BA|, então |BA| = 0 e BA é também não injectiva, ou seja, BA tem 0 = λ como valor próprio também.
2

ˆ Seja M = [ai,k ] um matriz quadrada de ordem n e designemos por In a matriz identi-


dade de ordem n. Então

PM (x) = |xIn − M | = (x − a1,1 )PM1̂ (x) + q(x),

em que q(x) é um polinómio de grau ≤ n − 2, ou eventualmente o polinómio nulo, e


PM1̂ (x) = |xIn−1 − M1 | é o polinómio caracterı́stico da submatriz M1̂ obtido retirando
a M a primeira linha e a primeira coluna.
Demonstração.
Seja P = xIn − M e designemos por Pî,ĵ a submatriz obtida retirando em P a linha i e a coluna j, designando por
Pî a submatriz obtida de P retirando a linha i e a coluna i. Desenvolvendo o determinante pela primeira linha de P
(usando o método de Laplace) temos

x-a1,1 -a1,2 -a1,3 ... -a1,n−1 -a1,n


-a2,1 x-a2,2 -a2,3 ... -a2,n−1 -a2,n
-a3,1 -a3,2 x-a3,3 ... -a3,n−1 -a3,n
PM (x) = |P | = .. .. .. .. ..
. . . ... . .
-an-1,1 -an-1,2 -an-1,3 ... x-an-1,n−1 -an-1,n
-an,1 -an,2 -an,3 ... -an,n−1 x-an,n

Pn
= (x − a1,1 ) P1̂,1̂ + j=2 (−1)
j+1 a
1,j P1̂,ĵ

em que
x-a2,2 -a2,3 ... -a2,n−1 -a2,n
-a3,2 x-a3,3 ... -a3,n−1 -a3,n
P1̂,1̂ = .. .. .. .. = |xIn−1 − M1 | = PM1 (x)
. . ... . .
-an-1,2 -an-1,3 ... x-an-1,n−1 -an-1,n
-an,2 -an,3 ... -an,n−1 x-an,n
12. VALORES E VECTORES PRÓPRIOS 105

Pn j+1 a
é o polinómio caracterı́stico de M1 . O polinómio q(x) = j=2 (−1) 1,j P1̂,ĵ , se não for o polinómio nulo tem grau
menor or igual a n − 2; de facto, cada menor P1̂,ĵ , j ≥ 2, tem menos dois termos em x: ao retirar a linha do a1,j ,
j = 2, 3, 4, . . ., isto é a primeira linha, vai-se o termo x − a1,1 , e ao retira-se a coluna j, vai-se o termo x − aj,j . Pelo
que o determinante P1̂,ĵ é um polinómio em x de grau ≤ n − 2. 2

ˆ Se M uma matriz quadrada de ordem n, então o polinómio caracterı́stico de M é

PM (x) = xn − Tr M xn−1 + · · · + (−1)n |M | .

Demonstração.
De facto, designemos por M1 = M1̂,2̂ , M2 = M11̂,2̂ a submatriz obtida retirando a M1 a primeira linha e primeira
coluna, M3 = M11̂,1̂ , etc. Seja M = [ai,j ] uma matriz quadrada de ordem n. Então PM (x) = |xI − M | é claramente
um polinómio mónico (coeficiente do termo de maior grau é 1) de grau n. Então

PM (x) = xn + c1 xn−1 + c2 xn−2 + · · · + cn−1 x + cn .

O termo constante cn é fácil de calcular tomando x = 0:

cn = PM (0) = |0 − M | = |−M | = (−1)n |M | .

Aqui 0 representa a matriz nula. Para o coeficiente c1 de xn−1 , vamos deduzir usando indução sobre a fórmula do item
anterior. Para n = 2, já vimos que PM (x) = x2 − Tr M x + |M | satisfaz a tese. Suponhamos que para toda a matriz
quadrada M de ordem m < n temos PM (x) = xm − Tr M xm−1 + q(x), em que q(x) é um polinómio nulo ou de grau
≤ m − 2. Seja M = [ai,j ] uma matriz quadrada de grau n. Pelo item anterior,

PM (x) = (x − a1,1 )PM1 (x) + q1 (x)

com q1 (x) um polinómio nulo ou de grau ≤ n − 2. Como M1 é uma matriz quadrada de grau n − 1, pela hipótese de
indução, PM1 (x) = xn−1 − Tr M1 xn−2 + q2 (x), com q2 (x) um polinómio nulo ou de grau ≤ n − 3. Substituindo temos:

PM (x) = (x − a1,1 ) xn−1 − Tr M1 xn−2 + q2 (x) + q1 (x)
= xn − a1,1 xn−1 − Tr M1 xn−1 + a1,1 Tr M1 xn−2 + (x − a1,1 )q2 (x) + q1 (x)
= xn − (a1,1 + Tr M1 )xn−1 + q3 (x)
= xn − Tr M xn−1 + q3 (x)

em que q3 (x) = a1,1 Tr M1 xn−2 + (x − a1,1 )q2 (x) + q1 (x) é um polinómio de grau ≤ n − 2, ou eventualmente o polinómio
nulo. 2

Sejam A e B duas matrizes sobre o corpo K. A e B são semelhantes se e só se existir


um matriz invertı́vel P tal que

Teorema 78 Propriedades das matrizes semelhantes:


ˆ Matrizes semelhantes têm os mesmos valores próprios (com a mesma multiplicidade,
ver item seguinte).
ˆ Matrizes semelhantes têm o mesmo polinómio caracterı́stico.
ˆ Matrizes semelhantes têm o mesmo traço.

Demonstração.
Seja B uma matriz invertı́vel. Então PBM B −1 (x) = xI − BM B −1 = xBIB −1 − BM B −1 = BxIB −1 − BM B −1 =
B(xI − M )B −1 = |xI − M | = PM (x). Atendendo a que Tr AB = Tr BA, então Tr BM B −1 = Tr (BM )B −1 = Tr B −1 (BM ) =
Tr (B −1 B)M = Tr M . 2

O conjunto das matrizes invertı́veis sobre K é um grupo e este grupo denota-se por
GL(n, K).
106 CONTEÚDO

iv Matrizes diagonalizáveis
Uma matriz M ∈ Mn (K) diz-se diagonalizável se M é semelhante a uma matriz diagonal,
isto é, se existe uma matriz invertı́vel A ∈ Mn (K) tal que
 d1 0 . . . 0 
0 d2 ... 0
A−1 M A = D =  .. .. .. .. 
. . . .
0 0 ... dn

Seja A = [C1 , C2 , . . . , Cn ]. Então

A−1 M A = D ⇔ M A = AD " #
d1 ... 0
⇔ M [C1 , . . . , Cn ] = [C1 , . . . , Cn ] ..
.
..
.
..
.
0 ... dn

⇔ [M C1 , M C2 , . . . , M Cn ] = [C1 d1 , C2 d2 , . . . , Cn dn ]

⇔ M C1 = d1 C1 , M C2 = d2 C2 , . . . , M Cn = dn Cn

⇔ C1 , C2 , . . . , Cn são vectores próprios de M :" K n # → n


"Kx #
x 1 1
..
. 7→ M ..
.
xn xn

Note-se que d1 , . . . , dn são os valores próprios associados àqueles vectores próprios. Atenção
que estes valores não são necessariamente todos distintos. Alguns dos di podem vir repetidos.
Como A é invertı́vel (C1 , . . . , Cn ) constitui uma base de K n . Portanto se λ1 , . . . , λm são os
valores próprios distintos de M então

E(f ) = Eλ1 ,...,λm (M ) = Eλ1 (M ) ⊕ . . . ⊕ Eλm (M ) = K n ⇔ dim(E(M )) = n .

Reciprocamente, se dim(E(M )) = n, isto é, se E(M ) = K n então podemos construir uma


base (C1 , . . . , Cn ) de K n constituı́do por vectores próprios C1 , . . . Cn ∈ K n de M . Para
inverter M tome-se a matriz invertı́vel A = [C1 , . . . , Cn ] e efectue-se o produto A−1 M A.
O resultado é uma matriz diagonal cuja diagonal principal d1 , . . . , dn consiste nos valores
próprios λ1 , . . . , λm de M ,
{d1 , . . . , dn } = {λ1 , . . . , λm } .
Portanto,

M ∈ Mn (K) é diagonalizável ⇔ dim (E(M )) = n .

Exemplo 32
" #
1 0 0
ˆ M= 1 1 0 ∈ M3 (R). O polinómio caracterı́stico é
0 1 −1

x−1 0 0
PM (x) = |xI3 − M | = −1 x−1 0 = (x − 1)2 (x + 1)
0 −1 x+1
12. VALORES E VECTORES PRÓPRIOS 107

M tem dois valores próprios: λ = 1 com multiplicidade 2 e λ = −1 com multiplicidade 1.


E(M ) = E1 (M ) ⊕ E−1 (M ).

" # " #
1−1 0 0 0 0 0
dim(E1 (M )) = 3 − Car(1I3 − M ) = 3 − Car −1 1−1 0 = 3 − Car −1 0 0
0 −1 1+1 0 −1 2

= 3−2=1
" # " #
−1 − 1 0 0 −2 0 0
dim(E−1 (M )) = 3 − Car(−1I3 − M ) = 3 − Car −1 −1 − 1 0 = 3 − Car −1 −2 0
0 −1 −1 + 1 0 −1 0

= 3−2=1

Logo dim(E(M )) = dim(E1 (M )) + dim(E−1 (M )) = 1 + 1 = 2 < 3. Portanto E(M ) 6= R3 e por


conseguinte M não é diagonalizável.
" #
3 −2 −2
ˆ M= 2 −1 −2 ∈ M3 (R). O polinómio caracterı́stico é
2 −2 −1

x−3 2 2
PM (x) = |xI3 − M | = −2 x+1 2 = (x − 1)2 (x + 1)
−2 21 x+1

Logo M possui dois valores próprios distintos 1 e −1 de multiplicidades 2 e 1 respectivamente.


E(M ) = E1 (M ) ⊕ E−1 (M ).

" # " #
1−3 2 2 −2 2 2
dim(E1 (M )) = 3 − Car(1I3 − M ) = 3 − Car −2 1+1 2 = 3 − Car −2 2 2
−2 2 1+1 −2 2 2

= 3−1=2

Note-se que como 1 ≤ dim(E−1 (M )) ≤ 3 = dim R3 e

dim(E(M )) = dim(E1 (M )) + dim(E−1 (M )) = 2 + dim(E−1 (M )) ≤ 3 ,

então 1 ≤ dim(E−1 (M )) ≤ 1, ou seja, dim(E−1 (M )) = 1. Podemos conferir:


" # " #
−1 − 3 2 2 −4 2 2
dim(E−1 (M )) = 3 − Car(−1I3 − M ) = 3 − Car −2 −1 + 1 2 = 3 − Car −2 0 2
−2 2 −1 + 1 −2 2 0

= 3−2=1
 
−4 2 2
Note-se que o determinante da matriz  −2 0 2  é zero, logo ela tem caracterı́stica ≤ 2. Por outro lado a matriz
−2 2 0
triangular 2 × 2 situada no canto superior direito (ou inferior esquerdo) tem determinante 6= 0, logo a caracterı́stica
da matriz é 2. Alternativamente, a coluna C1 desta matriz é igual a −(C2 + C3 ), logo uma combinação linear destas
últimas, pelo que a caracterı́stica desta matriz é ≤ 2.

Logo dim(E(M )) = dim(E1 (M )) + dim(E−1 (M )) = 2 + 1 = 3.


Portanto a matriz M é diagonalizável.
Para calcular a matriz invertı́vel A que diagonaliza M , precisamos de calcular a base de vectores
próprios
BE(M ) = B1 ∪ B−1 .
108 CONTEÚDO

em que B1 é uma base de E1 (M ) e B−1 é uma base de E−1 (M ):


" # " # " #
x x x
E1 (M ) = { y |M y =1 y }
z z z
" # " #" # " #
x 3 −2 −2 x x
= { y | 2 −1 −2 y = y }
z 2 −2 −1 z z
" # " # " #
x 3x − 2y − 2z x
= { y | 2x − y − 2z = y }
z 2x − 2y − z z
= {(x, y, z) | 2x − 2y − 2z = 0y}
= {(x, y, z) | x = y + z}
= {(y + z, y, z) | y, z ∈ R} = {(y, y, 0) + (z, 0, z) | y, z ∈ R}
= h (1, 1, 0) , (1, 0, 1) i

Logo B1 = { (1, 1, 0) , (1, 0, 1) }.


" # " # " #
x x x
E−1 (M ) = { y |M y = −1 y }
z z z
" # " #" # " #
x 3 −2 −2 x −x
= { y | 2 −1 −2 y = −y }
z 2 −2 −1 z −z
" # " # " #
x 3x − 2y − 2z −x
= { y | 2x − y − 2z = −y }
z 2x − 2y − z −z

 4x − 2y − 2z = 0
= {(x, y, z) | 2x − 2z = 0 }

2x − 2y = 0
= {(x, y, z) | x = y = z} = {(x, x, x) | x ∈ R}
= h (1, 1, 1) i

Logo B−1 = { (1, 1, 1) }. Portanto BE(M ) = ( (1, 1, 0) , (1, 0, 1) , (1, 1, 1) ) é uma base ordenada de
E(M ) = R3 constituı́da por vectores próprios. Consequentemente a matriz
   
1 1 1 1 0 −1
A =  1 0 1  , cuja inversa é A−1 =  1 −1 0 ,
0 1 1 −1 1 1

diagonaliza M :  
1 0 0
A−1 M A =  0 1 0 
0 0 −1
O primeiro elemento da diagonal (da matriz diagonal) é o valor próprio associado ao vector próprio
correspondente à primeira coluna de A, o segundo elemento da diagonal é o valor próprio associado à
segunda coluna de A enquanto que o 3o elemento da diagonal é o valor próprio associado à 3a coluna
de A.

v Aplicações lineares diagonalizáveis

Se M 0 ≈ M e M é diagonalizável, então M 0 também é diagonalizável.


12. VALORES E VECTORES PRÓPRIOS 109

De facto, se M ′ = BM B −1 para alguma matriz invertı́vel B, então B −1 M ′ B = M e por conseguinte

(BA)−1 M ′ BA = A−1 (B −1 M ′ B)A = A−1 M A = D

Sejam V um espaço vectorial de dimensão n, B = (b1 , b2 , . . . , bn ) uma base ordenada fixa


de V , e f ∈ L(V ). A seguinte definição não depende da base ordenada fixada pelo que está
bem definida.

Dizemos que f é diagonalizável se Mf é diagonalizável.

Então f é diagonalizável se e só se existe uma matriz A = [C1 , . . . , Cn ] invertı́vel tal que
−1
A Mf A = D. Seja ψ ∈ L(V ) a aplicação linear invertı́vel definida por

( ψ(bi ) )B = Ci , i = 1, . . . , n

Então temos
Mψ = A
e por conseguinte

A−1 Mf A = D ⇔ Mψ−1 Mf Mψ = D ⇔ Mψ−1 Mf Mψ = D ⇔ Mψ−1 f ψ = D

⇔ ψ −1 f ψ(bi ) = λi bi ⇔ f (ψ(bi )) = λi ψ(bi ) , i = 1, . . . , n ,


ou seja,

f é diagonalizável
⇔ existe ψ ∈ GL(V ) tal que f (ψ(bi )) = λi ψ(bi ) , i = 1, . . . , n ,
⇔ ∃ ψ ∈ GL(V ) tq ( ψ(b1 ), ψ(b2 ), . . . , ψ(bn ) ) é uma base de vectores próprios de f
⇔ V possui uma base constituı́da por vectores próprios de f

Corolário 79 f ∈ L(V ) é diagonalizável se e só se o espaço vectorial gerado pelos subespaços


próprios é V

Corolário 80 Seja f ∈ L(V ) e λ1 , . . . , λm os valores próprios de f . Então f é diagonalizável


se e só se Eλ1 ,...,λm = V .

Corolário 81 Seja f ∈ L(V ), dim(V ) = n e λ1 , . . . , λm os valores próprios de f . Então f


é diagonalizável se e só se dim(Eλ1 ,...,λm ) = n.

Corolário 82 Sejam λ1 , . . . , λm os valores próprios distintos de f . Então f é diagonalizável


se e só se
dim(Eλ1 (f )) + · · · + dim(Eλm (f )) = dim(V ) .
110 CONTEÚDO

13 Produtos internos em espaços vectoriais reais


Seja V um espaço vectorial sobre R. Vamos considerar o conjunto F (V × V, R) das funções
de V × V −→ R. Tais funções chamam-se formas4 reais. Este conjunto, o espaço das formas
em V , é um espaço vectorial real para a adição de aplicações

(f + g)(x) := f (x) + g(x)

e multiplicação escalar
(αf )(x) := α f (x) .

Um produto interno em V é uma forma ψ ∈ F (V × V, R) que verifica as 3 seguintes


propriedades:

ˆ ψ é linear na 1a entrada: isto é, ∀ v ∈ V , ψv : V −→ R, ψv (u) := ψ(u, v) é linear.

ˆ ψ é simétrica: isto é, ψ(u, v) = ψ(v, u).

ˆ ψ é definida positiva: isto é, ψ(u, u) ≥ 0 e ψ(u) = 0 ⇔ u = 0.

Notações: Na literatura encontramos diversas notações para o produto interno. Eis as mais
vulgares:

u • v := ψ(u, v) , < u, v > := ψ(u, v) , < u|v > := ψ(u, v) , u · v := ψ(u, v)


(u · v) := ψ(u, v) , (u|v) := ψ(u, v) , u|v := ψ(u, v)

Devido a uma possibilidade de confusão com subespaço vectorial gerado, de multiplicação


escalar e de divisão, decidimos adoptar a notação u • v para produto interno. A fim de nos
familiarizarmos com a nova notação vamos repetir a definição de produto interno agora
utilizando a nova notação.
Um produto interno (ou produto escalar) em V é uma aplicação (ou forma)

• : V ×V −→ R
(u, v) 7−→ u•v

tal que:

1. • é linear na 1a entrada: (αu1 + βu2 )•v = α (u1 •v) + β (u2 •v).

2. • é simétrica: v•u = u•v.

3. • é definida positiva: u•u ≥ 0 e u•u = ⃗0 ⇔ u = ⃗0.

Teorema 83 O produto interno (real) é uma aplicação bi-linear, isto é, também é linear na
segunda entrada:
u • (αv1 + βv2 ) = α (u • v1 ) + β (u • v2 )

4
Seja V um espaço vectorial sobre K. Uma forma é uma aplicação de V × V −→ K.
13. PRODUTOS INTERNOS EM ESPAÇOS VECTORIAIS REAIS 111

Demonstração.
Da simetria e da linearidade na 1a entrada sai a linearidade na 2a entrada:

u • (αv1 + βv2 ) = (αv1 + βv2 ) • u = α (v1 • u) + β (v2 • u) = α (u • v1 ) + β (u • v2 ) .

Sendo o produto interno uma aplicação bi-linear então para cada v ∈ V ela induz duas
aplicações lineares, uma fixando v na 1a entrada e a outra fixando v na 2a entrada:

ϕe : V −→ R
x 7−→ ϕev (x) := v • x

ϕd : V −→ R
x 7−→ ϕdv (x) := x • v

Exemplos 2 1. Em V = R × R a aplicação

(x1 , x2 ) •c (y1 , y2 ) := x1 y1 + x2 y2

determina um produto interno (o produto interno canónico) em R2 . De facto, o produto interno • c


é a soma de duas aplicações bilineares elementares (xi , yi ) 7→ kxi yi (k escalar), logo uma aplicação
bilinear.
Averiguação directa:

(a) Linear na 1a entrada:

( α(x1 , x2 ) + β(x′1 , x′2 ) ) •c (y1 , y2 ) = (αx1 + βx′1 , αx2 + βx′2 ) •c (y1 , y2 )


= (αx1 + βx′1 )y1 + (αx2 + βx′2 )y2
= αx1 y1 + βx′1 y1 + αx2 y2 + βx′2 y2
= αx1 y1 + αx2 y2 + βx′1 y1 + βx′2 y2
= α(x1 y1 + x2 y2 ) + β(x′1 y1 + x′2 y2 )
= α(x1 , x2 ) •c (y1 , y2 )) + β(x′1 , x′2 ) •c (y1 , y2 )

(b) Simetria: (y1 , y2 ) •c (x1 , x2 , ) = y1 x1 + y2 x2 = x1 y1 + x2 y2 = (x1 , x2 ) •c (y1 , y2 ).


(c) Definida positiva: (x1 , x2 ) •c (x1 , x2 ) = x21 + x22 ≥ 0. E (x1 , x2 ) •c (x1 , x2 ) = 0 ⇔ x21 + x22 = 0 ⇒
x1 = x2 = 0.

2. Em V = R3 a aplicação

(x1 , x2 , x3 ) • (y1 , y2 , y3 ) := 2x1 y1 + x1 y2 + x2 y1 + x2 y2 + x3 y3

é um produto interno.

ˆ O produto interno • é a soma de 5 aplicações bilineares elementares do tipo (xi , yi ) 7→ kxi yi (k


escalar), logo uma aplicação bilinear.
Averiguação directa da linearidade (na 1a entrada):
112 CONTEÚDO

Sejam x = (x1 , x2 , x3 ), a = (a1 , a2 , a3 ) e y = (y1 , y2 , y3 ). Então,


(x + a) • y = ((x1 , x2 , x3 ) + (a1 , a2 , a3 )) • (y1 , y2 , y3 )
= (x1 + a1 , x2 + a2 , x3 + a3 ) • (y1 , y2 , y3 )
= 2(x1 + a1 )y1 + (x1 + a1 )y2 + (x2 + a2 )y1 + (x2 + a2 )y2 + (x3 + a3 )y3
= 2x1 y1 + 2a1 y1 + x1 y2 + a1 y2 + x2 y1 + a2 y1 + x2 y2 + a2 y2 + x3 y3 + a3 y3
= (2x1 y1 + x1 y2 + x2 y1 + x2 y2 + x3 y3 ) + (2a1 y1 + a1 y2 + a2 y1 + a2 y2 + a3 y3 )
= (x1 , x2 , x3 ) • (y1 , y2 , y3 ) + (a1 , a2 , a3 ) • (y1 , y2 , y3 )
= x•y+a•y.
(αx) • y = (αx1 , αx2 , αx3 ) • (y1 , y2 , y3 )
= (2αx1 y1 + αx1 y2 + αx2 y1 + αx2 y2 + αx3 y3 )
= α(2x1 y1 + x1 y2 + x2 y1 + x2 y2 + x3 y3 )
= α(x • y) .

ˆ Simetria: x • y = 2x1 y1 + x1 y2 + x2 y1 + x2 y2 + x3 y3 = 2y1 x1 + y2 x1 + y1 x2 + y2 x2 + y3 x3 = y • x.


ˆ Definida positiva: x • x = 2x21 + 2x1 x2 + x22 + x23 = x21 + (x1 + x2 )2 + x23 ≥ 0 .
x • x = 0 ⇔ x21 + (x1 + x2 )2 + x23 = 0 ⇔ x1 = 0 ∧ x1 + x2 = 0 ∧ x3 = 0 ⇔ x1 = x2 = x3 =
0 ⇔ x = 0.
3. Sejam a > 0, b > 0 dois reais positivos. Em V = R × R a aplicação

(x1 , x2 ) • (y1 , y2 ) = ax1 y1 + bx2 y2

determina um produto interno. (Exercı́cio).


4. O conjunto F ([a, b], R) das aplicações reais de variável real f : [a, b] −→ R, é um espaço vectorial real
(exercı́cio) para a adição de funções (f +g)(x) := f (x)+g(x) e multiplicação escalar (αf )(x) := α f (x).
O subconjunto C([a, b], R) (ou F c ([a, b], R)) das funções [a, b] −→ R que são contı́nuas, é um subespaço
vectorial real de F ([a, b], R) (exercı́cio).
Rb
A seguinte aplicação f • g := a f (x)g(x)dx é um produto interno (real) em V = C([a, b], R). De
facto,
(a) Linear na 1a entrada:
Rb
(αf1 + βf2 ) • g = a
(αf1 + βf2 )(x)g(x)dx
Rb
= ( αf1 (x)g(x) + βf2 (x)g(x) )dx
a
Rb Rb
= α a f1 (x)g(x)dx + β a f2 (x)g(x)dx
= α f1 • g + β f2 • g

Rb Rb
(b) Simetria: Porque f (x)g(x) = g(x)f (x) temos a f (x)g(x)dx = a g(x)f (x)dx isto é, f •g = g•f .
Rb Rb
(c) Definida positiva: f • f = a (f (x))2 dx ≥ 0. Mais, f • f = 0 ⇔ a (f (x))2 dx = 0 ⇔ f (x)2 =
0, ∀ x ∈ [a, b] ⇔ f (x) = 0, ∀ x ∈ [a, b] ⇔ f = 0.
(d) Note-se que F (V × V, R) é um espaço vectorial real.
Sejam •1 , •2 ∈ F (V × V, R) dois produtos internos no espaço vectorial real V .
Então para todo a, b ∈ ]0, ∞[ , a •1 + b •2 é ainda um produto interno em V . (Exercı́cio).
Isto é,

Combinações lineares “positivas” de produtos internos dá ainda um produto interno.


13. PRODUTOS INTERNOS EM ESPAÇOS VECTORIAIS REAIS 113

No espaço vectorial real Rn , a seguinte aplicação


X
n
(x1 , x2 , . . . , xn ) •c (y1 , y2 , . . . , yn ) = x1 y1 + x2 y2 + . . . xn yn = xi y i
i=1

é um produto interno que se chama o produto interno canónico de Rn . O exemplo 1 é o


caso particular n = 2.

i Propriedades. Desigualdade de Schwarz


Teorema 84 Seja V um espaço vectorial real com um produto interno •. Então,

(1) ∀ v ∈ V , ⃗0 • v = 0 assim como v • ⃗0 = 0.

(2) Desigualdade de Schwarz: ∀ u, v ∈ V , (u • v)2 ≤ (u • u) (v • v) .


A igualdade ocorre se e só se u e v são linearmente dependentes.

Demonstração.

(1) Óbvio.

(2) A desigualdade (neste


√ caso a igualdade)
√ verifica-se trivialmente para u = ⃗0 ou v = ⃗0. Verifiquemos para u 6= ⃗0 e v 6= ⃗0.
Ponhamos a = v • v > 0 e b = u • u > 0. E consideremos as combinações lineares au + bv e au − bv. Então

(au + bv) • (au + bv) ≥ 0 ⇔ a2 (u • u) + b2 (v • v) + 2ab(u • v) ≥ 0


⇔ a2 b2 + b2 a2 + 2ab(u • v) ≥ 0
⇔ 2(ab)2 + 2ab(u • v) ≥ 0
⇔ 2(ab)(ab + u • v) ≥ 0 (2ab 6= 0)
⇔ ab + u • v ≥ 0

Analogamente, (au − bv) • (au − bv) ≥ 0 ⇔ ab − u • v ≥ 0 . Então

0 ≤ (ab + u • v)(ab − u • v) = (ab)2 − (u • v)2 ⇔ (u • v)2 ≤ (ab)2 = a2 b2 ,

ou seja, (u • v)2 ≤ (v • v)(u • u) .

Mostremos finalmente que a igualdade ocorre se e só se u e v são linearmente dependentes. Se um do vectores é o vector nulo,
isto é, se u = ⃗0 ou v = ⃗0, então (u • v)2 = (u • u) (v • v), e u e v são linearmente dependentes. Portanto, se falhar a veracidade
desta proposição só o pode acontecer quando u 6= ⃗0 e v 6= ⃗0. Sejam então u 6= ⃗0 e v 6= ⃗0.

( ⇒ ) Revertemos a demonstração anterior: (u • v)2 = (u • u) (v • v) ⇔ (ab)2 − (u • v)2 = 0 ⇔ (ab + u • v)(ab − u • v) = 0 ⇒


ab + u • v = 0 ∨ ab − u • v = 0. Sem Perda de Generalidade, suponhamos que ab + u • v = 0. Como a 6= 0 e b 6= 0 (pois
u 6= ⃗0 e v 6= ⃗0) então 2ab 6= 0 e por conseguinte multiplicando ambos os membros por 2ab temos

2(ab)(ab + u • v) = 0 ⇔ (au + bv) • (au + bv) = 0 ⇔ au + bv = ⃗0 .

( ⇐ ) Sem perda de generalidade suponhamos que v = αu. Então (u • v)2 = (u • αu)2 = α2 (u • u)(u • u) = (αu • αu)(u • u) =
(v • v)(u • u).

Seja V um espaço vectorial real munido de um produto interno


√ •. Definimos norma (ou
comprimento) de um vector v como sendo o valor positivo v • v . Denotamos este valor
por kvk.
114 CONTEÚDO


kvk := v•v.

Um versor é um vector de norma 1. Se v ∈ V , o versor de v é o vector v̂ = v


kvk
que tem
norma 1 (exercı́cio).

Teorema 85 Seja V um espaço vectorial real com um produto interno. Então

(1) kvk = 0 ⇔ v = ⃗0 .

(2) kαvk = |α| kvk .

(3) |u • v| ≤ kuk kvk . (Desigualdade de Schwarz)


( |u • v| = kuk kvk ⇔ u e v são linearmente dependentes ).

(4) ku + vk ≤ kuk + kvk . (Desigualdade triangular)


( ku + vk = kuk + kvk ⇔ v = λu ou u = λv para algum λ ≥ 0 ).

Demonstração.

1. Exercı́cio.
p √ √
2. kαvk2 = (αv) • (αv) = α2 (v • v). Logo kαvk = α2 (v • v) = α2 v • v = |α| kvk.

3. A raiz quadrada é uma função crescente5 no seu domı́nio por isso aplicando a raiz quadrada à desigualdade de Schwartz
obtemos q p p
(u • v)2 ≤ (u • u) (v • v) ⇔ |u • v| ≤ (u • u) sqrt(v • v) = kuk kvk

4. ku + vk2 = (u + v) • (u + v) = u • u + v • v + 2(u • v) ≤ u • u + v • v + 2|u • v| = kuk2 + kvk2 + 2|u • v|. Finalmente


usando a alı́nea (3), temos kuk2 + kvk2 + 2|u • v| ≤ kuk2 + kvk2 + 2kukkvk = (kuk + kvk)2 . Ou seja, tendo em conta
que a raiz quadrada é uma função crescente,

ku + vk2 ≤ (kuk + kvk)2 ⇔ ku + vk ≤ kuk + kvk .

Se ku + vk = kuk + kvk então ku + vk2 = (kuk + kvk)2 e como mostrámos

ku + vk2 ≤ kuk2 + kvk2 + 2|u • v| ≤ kuk2 + kvk2 + 2kukkvk = (kuk + kvk)2 ,

a igualdade anterior implica em particular que

kuk2 + kvk2 + 2|u • v| = kuk2 + kvk2 + 2kukkvk ⇔ |u • v| = kukkvk

ou seja, pelo ponto (3), u e v são linearmente dependentes. Sem perda de generalidade suponhamos que v = λu 6= 0
(pois a igualdade ocorre trivialmente para v = ⃗0 ou u = ⃗0). Então

ku + vk = kuk + kvk ⇔ |1 + λ| = 1 + |λ| ⇒ λ > 0 .

Reciprocamente, se v = λu ou u = λv, para algum λ ≥ 0, então a igualdade ocorre de forma imediata.

2
√ √
5
0≤ x<y ⇒ x< y.
13. PRODUTOS INTERNOS EM ESPAÇOS VECTORIAIS REAIS 115

ii Espaços euclidianos e matriz da métrica


Um espaço euclidiano é um espaço vectorial real de dimensão finita com produto interno.
Seja V um espaço euclidiano de dimensão n. Fixemos uma base ordenada B = (b1 , . . . , bn )
em V . Sejam u = α1 b1 + · · · + αn bn e v = β1 b1 + · · · + βn bn . Então

u • v = u • (β1 b1 + · · · + βn bn )
Pn
= j=1 (u • bj ) βj
Pn
= j=1 ((α1 b1 + · · · + αn bn ) • bj ) βj
Pn Pn
= j=1 ( i=1 αi (bi • bj ) ) βj

" b1 • bj
# " b1 • bj
#
Pn .. ..
= j=1 ( [α1 , . . . , αn ] . ) βj , designando Cj := .
bn • bj bn • bj
Pn
= j=1 [α1 , . . . , αn ]Cj βj

" β1
#
..
= [α1 , . . . , αn ][C1 , . . . , Cn ] .
βn
" β1
#
..
= [α1 , . . . , αn ]M .
βn

A matriz  
b1 • b1 . . . b 1 • bn
 .. .. 
M = [C1 , . . . , Cn ] =  . .  = [bi • bj ]
bn • b1 . . . b n • bn
chama-se a matriz da métrica do produto interno na base B (ou relativamente à base B).
Por este motivo designaremos por MB esta matriz M. Porque bi • bj = bj • bi , a matriz da
métrica é uma matriz simétrica, isto é,

|
MB = MB .

Portanto, se MB é a matriz da métrica na base B então para quaisquer vectores u e v


com coordenadas (u)B = (α1 , . . . , αn ) e (v)B = (β1 , . . . , bn ) relativamente a B, tem-se

" β1
#
|
u • v = (u)B MB (v)B = [α1 , . . . , αn ]MB ..
.
βn
116 CONTEÚDO

Exemplo 33 Em V = R3 ∼
= R2 [x] consideremos o produto interno

x • y = x1 y1 + 2x2 y2 + x1 y2 + x2 y1 + x3 y3

e determinemos a matriz da métrica na base ordenada canónica B = (b1 , b2 , b3 ) em que b1 = (1, 0, 0),
b2 = (0, 1, 0) e b3 = (0, 0, 1). Para isso vamos usar um mnemónica para poder calcular aquele produto
interno mais rapidamente:

x1 x2 x3 1 3 2 0 1 0 1 0 0
2 Exemplo: 2 2 2

y1 y2 y3 -1 1 0 0 1 0 0 0 1
x1y1 + x1y2 + y1x2 + 2 x2y2 + x3y3 -1+1-3+6+0=3 0+0+0+2+0=2 0+0+0+0+0=0

Então b1 • b1 = 1, b1 • b2 = 1, b1 • b3 = 0, b2 • b2 = 2, b2 • b3 = 0 e b3 • b3 = 1. A matriz da métrica na base


canónica é    
b1 • b1 b1 • b2 b1 • b3 1 1 0
MBc =  b2 • b1 b2 • b2 b2 • b3  =  1 2 0 
b3 • b1 b3 • b2 b3 • b3 0 0 1

Teorema 86 Seja V um espaço euclidiano. Sejam B1 = (b1 , . . . , bn ) e B2 = (e1 , . . . , en )


duas bases ordenadas de V . Se MB1 é a matriz da métrica na base B1 e MB2 é a matriz da
|
métrica na base B2 então MB2 = MB ,B M MB2 ,B1 .
2 1

Demonstração.
Ora MB1 = [bi • bj ] e MB2 = [ei • ej ] . Seja

e1 ... en
 
MB2 ,B1 = ε11 ... ε1n b1
 : : :
εn1 ... εnn bn

Então, (ei )B1 = (ε1i , . . . , εni ) e (ej )B1 = (ε1j , . . . , εnj ) . Por conseguinte,

 
ε1j
|  .. 
ei • ej = (ei )B1 M (ej )B [ε1i , . . . , εni ] MB1  . 
=
1
εnj
↑ ↑
linha de coluna de
|
MB MB2 ,B1
2 ,B1

Portanto
|
MB2 = [ei • ej ] = MB MB1 MB2 ,B1 .
2 ,B1

Exemplo 34 Seja V = R3 , • = •c (produto interno canónico) e


B1 = Bc = (b1 , b2 , b3 ) = ( (1, 0, 0) , (0, 1, 0) , (0, 0, 1) ) a base ordenada canónica de R3 ,
B2 = (e1 , e2 , e3 ) = ( (0, 1, 1) , (1, 0, 1) , (1, 1, 0) ).
13. PRODUTOS INTERNOS EM ESPAÇOS VECTORIAIS REAIS 117

Então    
b1 •c b1 b1 •c b2 b1 •c b3 1 0 0
MB1 = MBc = [bi •c bj ] =  b2 •c b1 b2 •c b2 b2 •c b3  =  0 1 0  = I3
b3 •c b1 b3 •c b2 b3 •c b3 0 0 1
e    
e1 •c e1 e1 •c e2 e1 •c e3 2 1 1
MB2 = [ei •c ej ] =  e2 •c e1 e2 •c e2 e2 •c e3  =  1 2 1 
e3 •c e1 e3 •c e2 e3 •c e3 1 1 2
Vamos confirmar este resultado com o Teorema 86.
e1 e2 e3
 
MB2 ,B1 = 0 1 1 b1
 1 0 1  b2
1 1 0 b3

Pelo que,
| | |
MB2 = MB2 ,B1 MB1 MB2 ,B1 = MB2 ,B1 I3 MB2 ,B1 = MB2 ,B1 MB2 ,B1
    
0 1 1 0 1 1 2 1 1
=  1 0 1  1 0 1  =  1 2 1 
1 1 0 1 1 0 1 1 2
O que confirma o resultado.

iii Ângulo de dois vectores não nulos


O ângulo de dois vectores não nulos deve ser um valor positivo entre 0 e π que, juntamente
com o comprimento (ou norma) de um vector, determine a posição de um vector relativa-
mente a outro. O vector v2 na figure seguinte fica completamente determinado pela sua
norma (comprimento) e pelo “angulo” θ que faz com o vector v1 .
v2
v2

µ
µ

v1 v1

Se u e v são dois vectores não nulos então kuk kvk 6= 0, pelo que, dividindo por kukkvk
ambos os membros da desigualdade de Schwarz, temos
|u • v| u•v
≤ 1 ⇔ −1 ≤ ≤1
kuk kvk kuk kvk
O coseno é uma função bijectiva, e decrescente, de [0, π] −→ [−1, 1], pelo que existe um
único θ ∈ [0, π] tal que
u•v u•v
cos(θ) = ⇔ θ = arccos( ). (7)
kuk kvk kuk kvk
Ao valor θ ∈ [0, π] único que satisfaz (7) chama-se ângulo dos dois vectores não nulos u e v,
e escrevemos
^(u, v) = θ .
Note-se que (7) é equivalente a
118 CONTEÚDO

u • v = kuk kvk cos(θ)

Mais,

ˆ Ângulo agudo: ^(u, v) = θ < π


2
⇔ u•v >0

ˆ Ângulo recto: ^(u, v) = θ = π


2
⇔ u•v =0

ˆ Ângulo obtuso: ^(u, v) = θ > π


2
⇔ u•v <0

Propriedades do ângulo de dois vectores:

ˆ ^(v, v) = 0 .

ˆ ^(u, v) = ^(v, u) .

ˆ ^(u, v) = ^(αu, βv) , ∀ α > 0 e β > 0 ou α < 0 e β < 0 .

ˆ ^(u, v) = π − ^(αu, βv) , ∀ α > 0 e β < 0 ou α < 0 e β > 0 .

iv Ortogonalidade
Dois vectores não nulos u e v dizem-se ortogonais (ou perpendiculares) se ^(u, v) = π
2
.
Quando u e v são ortogonais escrevemos u⊥v.

u⊥v ⇔ u • v = 0.

Propriedades da ortogonalidade de vectores:

ˆ v⊥u ⇔ u⊥v .

ˆ v⊥u ⇒ v⊥λu , ∀ λ 6= 0.

Seja U um subespaço vectorial de V . Dizemos que v ∈ V é ortogonal a U se v é ortogonal


a cada um dos vectores não nulos de U , isto é,

v⊥U ⇔ v • u = 0 , ∀ u ∈ U .

Se {⃗0} 6= U < V e U = h e1 , . . . , em i, pressuporemos sempre que e1 6= ⃗0, . . . , em 6= ⃗0.

Lema 87 Se U = h e1 , . . . , em i 6= {⃗0}, então v⊥U ⇔ v • ei = 0 , ∀ i ⇔ v⊥ei , ∀ i .

Quando θ = π2 , isto é, quando u e v fazem um ângulo “recto”, os dois vectores u e v


satisfazem o Teorema de Pitágoras.
13. PRODUTOS INTERNOS EM ESPAÇOS VECTORIAIS REAIS 119

ku+vk kvk ku-vk


kvk kvk

¼ ¼
2 2
kuk kuk

Teorema 88 (Teorema de Pitágoras) Sejam u e v vectores não nulos. Se u⊥v então

ku ± vk2 = kuk2 + kvk2 .

Demonstração.
ku ± vk2 = (u ± v) • (u ± v) = u • u + v • v ± 2(u • v) = u • u + v • v = kuk2 + kvk2 . 2

Nota: É claro que o Teorema de Pitágoras verifica-se também (e trivialmente) para u = ⃗0


(qualquer que seja v) e para v = ⃗0 (qualquer que seja u).

Exercı́cio 5 Mostre que (u + v) • (u − v) = kuk2 − kvk2 .

v Sistemas ortogonais, normados e ortonormados


Um conjunto de vectores não nulos {v1 , v2 , . . . , vn } diz-se um sistema ortogonal se vi ⊥vj
para todo i 6= j. Um vector v diz-se normado se kvk = 1. O conjunto {v1 , v2 , . . . , vn }
diz-se normado se os vectores v1 , v2 , . . . , vn têm norma 1, isto é, são normados. O conjunto
{v1 , v2 , . . . , vn } diz-se ortonormado se for um sistema normado e ortogonal. Portanto,

(
0 , se i 6= j
{v1 , v2 , . . . , vn } é ortonormado ⇔ vi • vj = .
1 , se i = j

Teorema 89 Se {v1 , v2 , . . . , vn } é um sistema ortogonal então v1 , v2 , . . . , vn são linearmente


independentes.
Demonstração.
Note-se que por definição um sistema ortogonal é constituı́do por vectores não nulos. Consideremos uma combinação linear
nula qualquer
α1 v1 + α2 v2 + · · · + an vn = ⃗0

e vejamos se a ortogonalidade do sistema implica que a combinação linear nula é a trivial. Por hipótese temos vi • vj = 0,
∀ i 6= j. Então para i = 1, . . . , n temos

X
n X
n
0 = vi • ( αj vj ) = αj (vi • vj ) = αi (vi • vi )
j=1 j=1

Como vi 6= ⃗0 então vi • vi 6= 0 e, por conseguinte, αi (vi • vi ) = 0 ⇒ αi = 0, (i = 1, . . . , n). Portanto a combinação linear nula
é a trivial, e por conseguinte, os vectores são linearmente independentes. 2
120 CONTEÚDO

Exemplo 35 Considere no espaço vectorial real R2 o produto interno

(x1 , x2 ) • (y1 , y2 ) = x1 y1 + 2x1 y2 + 2x2 y1 + 5x2 y2 .

Calcule a norma do vector u = (2, −1). Encontre um vector v que faça um ângulo de π
3 com u.
√ p √ √
Resolução: kuk = u • u = (2, −1) • (2, −1) = 4 − 4 − 4 + 5 = 1 = 1.
π
Vamos procurar um vector v de norma 1 que faz um ângulo de 3 com u. Seja v = (a, b). Então

kvk2 = (a, b) • (a, b) = a2 + 4ab + 5b2 = a2 + 2a(2b) + 4b2 + b2 = (a + 2b)2 + b2

Por conseguinte,
( ( ( (
kvk2 = 1 (a + 2b)2 + b2 = 1 (a + 2b)2 + b2 = 1 (a − 1)2 = 3
⇔ ⇔ ⇔ 4
∠(v, u) = 60o v • u = kvkkukcos(60o ) −b = 1
2 ⇔ b = − 21 b = − 21
q √ √ √
Uma solução é a − 1 = 3
4 = 2
3
⇔ a= 2+ 3
2 e b = − 12 , isto é, v = ( 2+2 3 , − 12 ).

Se o conjunto de vectores B = {v1 , v2 , . . . , vn } não é normado, o seguinte conjunto (que


se chama a normalização de B)
v1 v2 vn
B0 = { , ,..., }
kv1 k kv2 k kvn k

é normado e satisfaz h B i = h B 0 i.

vi Espaço ortogonal
Seja V um espaço vectorial real com um produto interno. Seja ∅ 6= X ⊂ V . Definimos
espaço ortogonal de X ao seguinte conjunto


X := { v ∈ V | v • x = 0 , ∀ x ∈ X } .


Se X = {x} é constituı́do por um elemento apenas ao espaço ortogonal {x} denotamos

mais simplesmente por x .
Designemos por X ∗ = X\{⃗0} e convencionemos que ⃗0⊥v para qualquer v ∈ V , uma vez
que ⃗0 • v = 0, ∀ v ∈ V . Se X ∗ 6= ∅ então

X = {v ∈ V | v⊥x , ∀ x ∈ X ∗ } .

Se X ∗ = ∅ então X = {⃗0} e
⃗0 ⊥ = V .
Lembrando que ϕdx é a aplicação linear

ϕdx : V −→ R
v 7−→ v • x
temos que,
13. PRODUTOS INTERNOS EM ESPAÇOS VECTORIAIS REAIS 121


x = {v ∈ V | v • x = 0} = {v ∈ V | ϕdx (v) = 0} = N uc(ϕdx ) < V .

Teorema 90 Seja V um espaço vectorial real com um produto interno. Seja X um subcon-
junto não vazio de V . Então:

(1) X é um subespaço vectorial de V .
⊥ ⊥
(2) X ⊂ Y então Y ⊂X
⊥ ⊥
(3) X ⊂ (X )
⊥ ⊥
(4) Se X ∩ X 6= ∅, então X ∩ X = {⃗0}.

(5) ∀ U < V , U ∩ U = {⃗0} .

Demonstração.

⊥ T T ⊥
(1) X = x∈X {v ∈ V | v • x = 0} = x∈X x < V .

(2) Seja v ∈ Y qualquer. Isto significa que v • y = 0, ∀ y ∈ Y . Como X ⊂ Y , então em particular, v • x = 0, ∀ x ∈ X ⇔

v∈X .
⊥ ⊥ ⊥ ⊥ ⊥
(3) Seja x ∈ X qualquer. ∀v ∈ X , v•x=0 ⇔ x•v =0 ⇔ x ∈ (X ) . Logo X ⊂ (X ) .
⊥ ⊥
(4) Seja x ∈ X ∩ X . Então, porque x ∈ X , e x ∈ X, x • x = 0 ⇔ x = ⃗0.

(5) Imediato porque a intersecção de subespaços vectoriais contém sempre o vector nulo.

Lema 91 Seja V um espaço vectorial e X ⊂ V qualquer (não necessariamente finito).


Então [
hX i = hAi
A⊂X
A finito

Demonstração.
S
Seja W = h A i. Então W < V (exercı́cio) e como X ⊂ W (exercı́cio) então h X i ⊂ W . Por outro lado, é óbvio que
A⊂X
finito
A
W ⊂ h X i pois trata-se de combinações lineares finitas de elementos de X. Juntando as duas informações temos, h X i = W 2

Teorema 92 Seja V um espaço vectorial real com um produto interno. Seja X um subcon-
junto não vazio de V . Então
⊥ ⊥
hX i = X .

Demonstração.

⊥ ⊥
⊂ : Como X ⊂ h X i então pelo Teorema 90.3, h X i ⊂X .
⊥ ⊥
⊃ : Seja v ∈ X qualquer. Isto significa que v • x = 0, ∀ x ∈ X. Mostremos que v ∈ h X i . Seja w ∈ h X i. Pelo Lema 91,
existe A = {x1 , . . . , xk } ⊂ X tal que w ∈ h A i. Isto é, w = α1 x1 + · · · + αk xk para alguma sequência α1 , . . . , αk ∈ R.
Então,
v • w = v • (α1 x1 + · · · + αk xk ) = α1 (v • x1 ) + · · · + αk (v • xk ) = 0.

Como w é qualquer, então v ∈ h X i . 2
122 CONTEÚDO

vii Complemento ortogonal de um subespaço


Seja V um espaço vectorial real com um produto interno. Se U e W são dois subespaços

vectoriais de V , dizemos que U é ortogonal a W , e escrevemos U ⊥W , se U ⊂ W . Se
⊥ ⊥ ⊥ ⊥ ⊥ ⊥
U ⊥W então também W ⊥U ; de facto, U ⊂ W ⇒ (W ) ⊂ U e como W ⊂ (W ) então

W ⊂U .
Um subespaço vectorial W < V diz-se um complemento de U se W é um espaço comple-
mentar a U , isto é, se V = U ⊕ W ( ⇔ V = U + W e U ∩ W = {⃗0}). Se um complemento
W de U é um espaço ortogonal dizemos que W é um complemento ortogonal de U .
Um subespaço vectorial, se não for um dos triviais ({⃗0} e V ), possui muitos complementos.
Nem todo o complemento de U é ortogonal. Por exemplo, no espaço vectorial V = R3 , o
subespaço vectorial U ilustrado na figura possui infinitos complementos.

v
x w

No entanto os complementos h w i e h x i não são complementos ortogonais, pois tanto v


como x não são ortogonais a U . Já o subespaço vectorial h v i é um complemento ortogonal
de U , pois h v i é um complemento (h v i ⊕ U = V ) e é ortogonal a U .

E quanto ao espaço ortogonal U de um subespaço vectorial U ? Será o espaço ortogonal

U de U um complemento (espaço complementar) de U ? Se a dimensão não for finita, isto
é, se tivermos na presença de um espaço vectorial real com um produto interno que não seja

euclidiano, nem todo o espaço ortogonal U de U é um complemento de U .
Exemplo 36
Por exemplo, o espaço vectorial real V = F c ([0, 1], R) = C([0, 1], R) das funções reais de [0, 1] −→ R e
R1
contı́nuas em [0, 1], é um espaço vectorial real com um produto interno f • g = 0 f (x)g(x)dx. Este espaço
vectorial não é euclidiano pois tem dimensão infinita. O subconjunto U = F0 = {f ∈ F c ([0, 1], R) | f (0) = 0}
é um subespaço vectorial de F c ([0, 1], R). Ora
⊥ ⊥
U = F0 = {h ∈ F c ([0, 1], R) | h • f = 0, ∀ f ∈ F0 }
R1
= {h ∈ F c ([0, 1], R) | 0 h(x)f (x)dx = 0, ∀ f ∈ F0 }
= {0} ,

em que 0 denota a função nula (x 7→ 0). De facto, se U 6= {0}, então existiria g 6= 0 tal que g⊥U , isto
é, g • f = 0 para todo f ∈ U . Podemos sempre construir uma função f ∈ U , isto é que comece em zero
(f (0) = 0), tal que f seja positiva (e não nula) onde g é positiva, e negativa onde g é negativa.
13. PRODUTOS INTERNOS EM ESPAÇOS VECTORIAIS REAIS 123

g
f

0 1

R1
Então f (x)g(x) ≥ 0 e não é a função nula, logo o integral f • g = 0 f (x)g(x)dx = área da função não

negativa e não nula f (x)g(x), logo f • g > 0, o que contradiz g⊥U . Portanto U = {0}. Logo a soma
⊥ ⊥
U ⊕ U = U e não V , ou seja U não é um complemento de U .

Se o espaço vectorial for de dimensão finita, isto é, no caso dos espaços euclidianos, já

todo o ortogonal U é um espaço complementar de U :

Teorema 93 Se V é um espaço euclidiano (logo de dimensão finita) então para todo o



subespaço vectorial U , V = U ⊕ U .
Demonstração.
Seja B1 = (u1 , . . . , um ) uma base ordenada de U e seja B = (B1 , B2 ) = (u1 , . . . , um , em+1 , . . . , en ) uma base de V obtida por
completamento da base B1 a uma base de V (Teorema do completamento de bases).
O método de Gram-Schmidt (que vamos dar mais adiante) permite construir a partir de uma base B de qualquer espaço
vectorial W uma base ortogonal B ′ para W .

Usando o método de Gram-Schmidt e a base B1 construimos uma base ortogonal B1′ = (u′1 , . . . , u′m ) para U e completemo-
la (continuando a usar o método Gram-Schmidt) a uma base ortogonal B ′ = (u′1 , . . . , u′m , e′m+1 , . . . , e′n ) de V . Então W =
h e′m+1 , . . . , e′n i é um complemento ortogonal de U . É um complemento por construção (V = U + W e dim(W ) = n − m =
dim(V ) − dim(U )) e é ortogonal a U por construção. 2

Este teorema diz-nos que num espaço euclidiano (dimensão finita) um espaço ortogonal

U de U é um complemento de U .

Teorema 94 Seja V um espaço real com um produto interno. Sejam U e W subespaços de


V . Então
⊥ ⊥ ⊥
ˆ U ⊕ U = V ⇒ (U ) = U .
⊥ ⊥
ˆ Se W ⊂ U e W ⊕ U = V então W = U .
Isto é, um complemento ortogonal de U é único e coincide com o espaço ortogonal

U de U .

Demonstração.

⊥ ⊥ ⊥ ⊥ ⊥ ⊥ ⊥
ˆ Como U ⊂ (U ) mostremos que (U ) ⊂ U . Seja ⃗0 6= v ∈ (U ) . Então v • w = 0, ∀ w ∈ U . Ora por hipótese,
⊥ ⊥
v = u + w para algum u ∈ U e w ∈ U . Como w ∈ U , então

v•w =0 ⇔ (u + w) • w = 0
⇔ u•w+w•w =0
⇔ w•w =0
⇒ w = ⃗0 .

Logo v = u ∈ U .
124 CONTEÚDO

⊥ ⊥
ˆ Mostremos que U ⊂ W . Seja v ∈ U . Isto significa que v • u = 0, ∀ u ∈ U . Como W + U = V e v ∈ V , seja v = w + u
com w ∈ W e u ∈ U . Então
v • u = 0 ⇔ (w + u) • u = 0
⇔ w•u+u•u=0
⇔ u•u=0
⇒ u = ⃗0 .
Logo v = w ∈ W . 2

Lema 95 Seja V um espaço vectorial real com um produto interno.


⊥ ⊥ ⊥
ˆ Para todo A, B < V , (A + B) < A ∩ B .
⊥ ⊥ ⊥
ˆ Se para todo o subespaço vectorial U , (U ) = U , então U ⊕ U = V , para todo
U <V.

Demonstração.


ˆ Seja v ∈ (A + B) . Então v • w = 0, ∀ w ∈ A + B. Como A ⊂ A + B e B ⊂ A + B então
⊥ ⊥ ⊥ ⊥
v • a = 0, ∀ a ∈ A ∧ v • b = 0, ∀ b ∈ A ⇔ v∈A ∧ v∈B ⇔ v∈ A ∩B .


ˆ Seja W = U ⊕ U < V . Então
⊥ ⊥ ⊥ ⊥ ⊥ ⊥ ⊥
W = (U ⊕ U ) ⊂ U ∩ (U ) = U ∩ U = {⃗0} .
⊥ ⊥ ⊥ ⊥
Por conseguinte, W = (W ) = ⃗0 = V , isto é, U ⊕U =V. 2

viii Projecção ortogonal de um vector sobre um subespaço vecto-


rial
Sejam V um espaço vectorial real de dimensão n > 1 com um produto interno, W < V e v
um vector não nulo de V . A projecção ortogonal de v sobre W é um vector, que denotaremos
por projW (v), de W tal que v − projW (v) é ortogonal a W .

v
v2 v2 = v - Proj (v)
W

Proj (v)
W
W

Repare-se que este vector projW (v) se existir é único. De facto, se w1 e w2 são dois vectores
de W tal que (v − w1 )⊥W e (v − w2 )⊥W , então
kw1 − w2 k2 = kw1 k2 + kw2 k2 − 2w1 • w2
Como 0 = (v − w1 ) • w2 = v • w2 − w1 • w2 , temos que w1 • w2 = v • w2 . Analogamente, de
(v − w2 ) • w1 = 0 tiramos que w1 • w2 = v • w1 . Mas de (v − w1 ) • w1 = 0 e de (v − w2 ) • w2 = 0
tiramos que v • w1 = kw1 k2 e que v • w2 = kw2 k2 . Logo w1 • w2 = kw1 k2 = kw2 k2 e por
conseguinte, kw1 − w2 k2 = 0 o que implica que w1 = w2 .
13. PRODUTOS INTERNOS EM ESPAÇOS VECTORIAIS REAIS 125

Se V não é um espaço euclidiano então a projecção de um vector v sobre um espaço


vectorial W pode não existir. Por exemplo, tomemos V = F c ([0, 1], R) e W o
subespaço vectorial composto pelas funções f ∈ V tal que f (0) = 0. Vimos atrás

que W = {0}. Mostremos que se v 6∈ W então não existe projW (v). De facto, se

tal vector w = projW (v) ∈ W existisse então v − w ∈ W = {0} ⇒ w = v 6∈ W o
que é absurdo.

Já num espaço euclidiano a projecção ortogonal de qualquer vector v sobre qualquer
subespaço vectorial W existe.
Propriedades da projecção ortogonal:

ˆ projW (⃗0) = ⃗0 ;

ˆ ∀ v ∈ V , projW (v) ∈ W ;

ˆ ∀ v ∈ V , v − projW (v) ∈ W ;

ˆ ∀v ∈ V , ∀w ∈ W , v • w = projW (v) • w ;

ix Cálculo da projecção ortogonal num espaço euclidiano


Seja V um espaço euclidiano e v ∈ V um vector não nulo.
z Comecemos com o cálculo da projecção proj⟨ w ⟩ (v) de v sobre um subespaço vectorial
W = h w i de dimensão 1.

v
v2 v2

w hwi
v1
v1= Proj (v)
hwi

Como proj⟨ w ⟩ (v) ∈ h w i então proj⟨ w ⟩ (v) = αw. E como v − proj⟨ w ⟩ (v) = v − αw ⊥h w i
temos que
v•w
(v − αw) • w = 0 ⇔ v • w = αkwk2 ⇔ α = .
kwk2
v•w
Portanto, P roj⟨ w ⟩ (v) = α w = kwk2
w.
z Calculemos agora a projecção proj⟨ w1 ,...,wm ⟩ (v) de v sobre um subespaço vectorial W =
h w1 , . . . , wm i de dimensão m.
126 CONTEÚDO

v
v2 v2

w2 Proj (v)=v1
W
w1
v1
W

Se {w1 , . . . , wm } é um sistema ortogonal então


v • w1 v • w2 v • wm
proj⟨ w1 ,...,wm ⟩ (v) = w1 + w2 + · · · + wm .
kw1 k 2 kw2 k 2 kwm k2
De facto, como proj⟨ w1 ,...,wm ⟩ (v) ∈ h w1 , . . . , wm i, então
proj⟨ w1 ,...,wm ⟩ (v) = α1 w1 + α2 w2 + · · · + αm wm ,
e como v − proj⟨ w1 ,...,wm ⟩ (v) = v − (α1 w1 + · · · + αm wm ) é ortogonal a W então para cada
i = 1, 2, . . . , m,
(v − (α1 w1 + α2 w2 + · · · + αm wm )) • wi = 0 ⇔ v • wi = (α1 w1 + α2 w2 + · · · + αm wm ) • wi
Como {w1 , w2 , . . . , wm } é um sistema ortogonal, wj • wi = 0 para j 6= i. Pelo que
(α1 w1 + · · · + αm wm ) • wi = α1 w1 • wi + α2 w2 • wi + · · · + αi wi • wi + · · · + αm wm • wi
= 0 + 0 + · · · + αi w i • w i + · · · + 0
= αi kwi k . 2

Ou seja,
v • wi
v • wi = αi kwi k2 ⇔ αi = .
kwi k2
Portanto, se {w1 , w2 , . . . , wm } é um sistema ortogonal,

proj⟨ w1 ,...,wm ⟩ (v) = α1 w1 + α2 w2 + · · · + αm wm


= v•w1
kw1 k2
w1 + v•w2
kw2 k2
w2 + · · · + v•wm
kwm k2
wm .

Se V é um espaço euclidiano e U < V não nulo então



U ⊕U = V,
e por conseguinte, todo o vector v ∈ V decompõe-se unicamente numa soma
v = v1 + v2

com v1 ∈ U e v2 ∈ U . O vector v1 é a projecção ortogonal de v sobre U e v2 a projecção

ortogonal sobre U .
13. PRODUTOS INTERNOS EM ESPAÇOS VECTORIAIS REAIS 127

v1 := projU (v) , v2 := proj ⊥


(v)
U

Portanto, num espaço euclidiano todo o vector projecta-se ortogonalmente sobre qualquer

subespaço vectorial U e sobre o seu complemento ortogonal U .

Método de ortogonalização de Gram-Schmidt


Seja V um espaço euclidiano não nulo. Seja B = (b1 , . . . , bn ) uma base de V . Então V
possui uma base ortogonal. O método de Gram-Schmidt permite transformar B numa base
ortogonal.

Teorema 96 (Gram-Schmidt) Seja V um espaço euclidiano não nulo. Se B = (b1 , . . . , vn )


é uma base ordenada, então B 0 = (b01 , . . . , b0n ) em que b10 = b1 e , para i = 2, . . . n,
X
i−1
bi • b0j 0
b0i = bi − 0 2
bi ,
j=1
kb j k

é uma base ortogonal que satisfaz h b01 , . . . , b0i i = h b1 , . . . , bi i, para cada i = 1, . . . , n.


Demonstração.

ˆ Mostremos, por indução, que B ′ é ortogonal. Vimos já na introdução anterior que (b′1 , b′2 ) é ortogonal. Suponhamos que
(b1 , . . . , b′m−1 ) é ortogonal. Mostremos que (b′1 , . . . , b′m+1 ) também é ortogonal, isto é, que b′m ⊥b′j = 0 ⇔ b′m • b′j = 0 ,
para j = 1, . . . , m − 1.
 Pm−1 
bm •b′t
b′m • b′j = bm − t=1 ∥b′t ∥2
b′t • b′j
Pm−1 bm •b′t
= bm • b′j − t=1 ∥b′t ∥2
b′t • b′j , b′t • b′j = 0 para t 6= j

bm •b′j
= bm • b′j − ∥b′j ∥2
b′j • b′j

bm •b′j
= bm • b′j − ∥b′j ∥2
kb′j k2

= bm • b′j − bm • b′j = 0 .

ˆ Mostremos agora, também por indução, que h b′1 , . . . , b′i i = h b1 , . . . , bi i. Como b′1 = b1 , é imediato que h b′1 i = h b1 i.
Suponhamos que h b′1 , . . . , b′i−1 i = h b1 , . . . , bi−1 i e mostremos que h b′1 , . . . , b′i−1 , b′i i = h b1 , . . . , bi−1 , bi i . Como

X
i−1
bi • b′j X
i−1
b′i = bi − b′i = bi − αj b′i (8)
j=1
kb′j k2 j=1

então b′i ∈ h b′1 , . . . , b′i−1 , bi i = h b1 , . . . , bi−1 , bi i o que implica que

{b′1 , . . . , b′i } ⊂ h b1 , . . . , bi i ⇒ h b′1 , . . . , b′i i < h b1 , . . . , bi i .

Por outro lado, (8) é equivalente a


X
i−1
bi = b′i + αj b′i ∈ h b′1 , . . . , b′i i
j=1

e por conseguinte
{b1 , . . . , bi } ⊂ {b′1 , . . . , b′i } ⇒ h b1 , . . . , bi i < h b′1 , . . . , b′i i .
2

Corolário 97 Se V é um espaço euclidiano e W < V então a projecção projW : V −→ V ,


v 7→ projW (v), é uma aplicação linear.
128 CONTEÚDO

x Distâncias
Seja V um espaço. Uma distância em V é uma aplicação d : V × V −→ R+ que satisfaz:
ˆ d(u, v) = d(v, u) (simétrica).
ˆ d(u, v) ≥ 0 , e d(u, v) = 0 ⇔ u = v . (“Definida positiva”).
ˆ d(u, v) ≤ d(u, w) + d(w, v), ∀ u, w, v ∈ V (Desigualdade triangular).
Teorema 98 Seja V um espaço vectorial real com um produto interno. A aplicação d :
V × V −→ R+ , definida por d(u, v) = ku − vk é uma distância em V .

Demonstração.
Consequência directa (transcrição) das propriedades das normas. Exercı́cio. 2

Exercı́cio 6 Sejam V um espaço vectorial real com um produto interno e v, u ∈ V . Mostre que:

d(u, v)2 = kuk2 + kvk2 − 2 (u • v) .

Sejam V um espaço vectorial real com um produto interno, v ∈ V e X ⊂ V . A distância


de v ao conjunto X define-se como sendo a menor distância de v a um vector de X,

d(v, X) = M in d(v, x) .
x∈X

Portanto,

se existe x0 ∈ X tal que d(v, x0 ) ≤ d(v, x), ∀ x ∈ X, então d(v, x0 ) = d(v, X).

Teorema 99 Sejam V um espaço euclidiano, v ∈ V e W < V . Então


d(v, W ) = d( v , projW (v) ) .

Demonstração.
Como projW (v) ∈ W Só temos que mostrar que d( v , projW (v) ) é a menor das distâncias d(v, w) quando w ∈ W , isto é,
d(v, projW (v)) ≤ d(v, w) ⇔ d(v, projW (v))2 ≤ d(v, w)2 , ∀w ∈ W
De facto,
d(v, projW (v))2 ≤ d(v, projW (v))2 + d(projW (v), w)2 =
= kv − projW (v)k2 + kprojW (v) − wk2
= kv − projW (v)k2 + (projW (v) − w) • (projW (v) − w)
= kv − projW (v)k2 + kprojW (v)k2 + kwk2 − 2 projW (v) • w
| {z } | {z }
teorema de Pitágoras v•w

= kv − projW (v) + projW (v)k2 + kwk2 − 2 v • w


= kvk2 + kwk2 − 2 v • w
= (v − w) • (v − w)
= kv − wk2
= d(v, w)2
2
13. PRODUTOS INTERNOS EM ESPAÇOS VECTORIAIS REAIS 129

Exemplo 37 No espaço vectorial V = R4 considere o produto interno definido por

x²y = x1y1+ -12 x1y2+ -


1
2 y1x2+ x2y2+ x3 y3 + x4 y4

x1 x2 x3 x4
1 1
2 2

y1 y2 y3 y4

Seja U = h u, v, w i em que u = (1, −1, 0, 0), v = (1, 0, 12 , 0) e w = (0, 2, 1, 2).

1. Determine uma base ortonormada de U .



2. Determine U .

3. Determine as projecções ortogonais de (2, 2, −4, 1) sobre U e sobre U .

4. Determine a distância de (2, 2, −4, 1) a u , v e w.

5. Determine a distância de (2, 2, −4, 1) a U .

Resolução: Seja B = (u, v, w). Como facilmente se constata B é uma base de U .

1. Construção de uma base ortogonal. Neste caso é de todo conveniente usar o método de Gram-
Schmidt (G-S), pois agora precisamos de modificar uma determinada base numa base ortogonal.

ˆ Usando o método de ortogonalização de G-S: Construı́mos B ′ = (u′ , v ′ , w′ ) :

u′ = u = (1, −1, 0, 0) e ku′ k = 1.


v•u′
v ′ = v − proj⟨ u′ ⟩ v = v − ∥u′ ∥2 u′ = v − (v • u′ ) u′ = v − 1
u′ = 12 (1, 1, 1, 0) e kv ′ k = 1.
| {z } 2
= 12

w • u′ ′ w • v ′ ′
w′ = w − proj⟨ u′ ,v′ ⟩ w = w − u − ′ 2 v = w + u′ − 2v ′ = (0, 0, 0, 2) e kw′ k = 2
ku′ k2 kv k
| {z } | {z }
=−1 =2

Logo (u′ , v ′ , w′ ) = ( (1, −1, 0, 0) , 12 (1, 1, 1, 0) , (0, 0, 0, 2) ) é uma base ortogonal de U .

Normalização:
√ √
ku′ k = u′ • u′ = 1=1 ∴ u′ é normado (unitário).
√ √
kv ′ k =v ′ • v ′ = 1 = 1 ∴ v ′ é normado (unitário).
√ √ w′
kw′ k = w′ • w′ = 4 = 2 seja w′′ = ∥w ′ ∥ = (0, 0, 0, 1)

Portanto
1
(u′ , v ′ , w′′ ) = ( (1, −1, 0, 0) , (1, 1, 1, 0) , (0, 0, 0, 1) )
2
é uma base ortonormada de U .
130 CONTEÚDO

2. Como U = h u, v, w i = h u, v ′ , w′′ i = h u, v ′′ , w′′ i, em que v ′′ = 4v ′ = (2, 2, 2, 0), temos


⊥ ⊥
U = {u, v ′′ , w′′ } = {x ∈ R4 | x • u = 0 ∧ x • v ′′ = 0 ∧ x • w′′ = 0}.
Seja x = (a, b, c, d) ∈ R4 . Então
 
 x • u = 0 ⇔ 2 (a − b) = 0 ⇔ b = a
1
 
 b=a
x • v ′′ = 0 ⇔ 3a + 3b + 2c = 0 ⇔ c = −3a

 

x • w′′ = 0 ⇔ d = 0 d=0

pelo que, U = {(a, b, c, d) ∈ R4 | b = a, c = −3a, d = 0} = {(a, a, −3a, 0) | a ∈ R} .
⊥ √
Isto é, U = h (1, 1, −3, 0) i , com k(1, 1, −3, 0)k = 12

3. Seja x = (2, 2, −4, 1). Então tomando a base ortonormada (u, v ′ , w′′ ) de U , temos

projU (x) = proj⟨ u′ ,v′ ,w′′ ⟩ (x)


x•u′ x•v ′ x•w′′
= ∥u′ ∥2 u′ + ∥v ′ ∥2 v′ + ∥w′′ ∥2 w′′
= (x • u′ ) u′ + (x • v ′ ) v ′ + (x • w′′ ) w′′
| {z } | {z } | {z }
=0 =1 =1

= v ′ + w′′ = ( 21 , 12 , 12 , 0) + (0, 0, 0, 1)
= ( 12 , 12 , 21 , 1)

proj ⊥
(x) = proj⟨ (1,1,−3,0) ⟩ (x)
U

x • (1, 1, −3, 0)
= (1, 1, −3, 0)
k(1, 1, −3, 0)k2
| {z }
18 3
12 = 2

2 (1, 1, −3, 0)
3
=

4. Continuando a designar por x = (2, 2, −4, 1),


p √
d(x, u) = kx−uk = k(2, 2, −4, 1)−(1, −1, 0, 0)k = k(1, 3, −4, 1)k = (1, 3, −4, 1) • (1, 3, −4, 1) = 30.
q √
d(x, v) = kx − vk = k(2, 2, −4, 1) − (1, 0, 12 , 0)k = k(1, 2, − 92 , 1)k = 113
4 = 113
2 .

d(x, v) = kx − vk = k(2, 2, −4, 1) − (0, 2, 1, 2)k = k(2, 0, −5, −1)k = 30.

5. d(x, U ) = d(x, P rojU (x)) = d((2, 2, −4, 1), ( 12 , 12 , 12 , 1)) = k(2, 2, −4, 1) − ( 12 , 12 , 12 , 1)k = k( 23 , 32 , − 92 , 0)k
√ √
= 27 = 3 3 .

xi Últimos exercı́cios
Exercı́cio 7 Seja V = T2 (R) o espaço vectorial constituı́do pelas matrizes 2 × 2 em R que são triangulares
superiores. Considere a seguinte aplicação
f: V −→ V
h i h i
a b c a+b+c
0 c
7−→ 0 a

1. Qual é base ordenada canónica de V ? Qual é a dimensão de V ?


13. PRODUTOS INTERNOS EM ESPAÇOS VECTORIAIS REAIS 131

2. Mostre que f é linear.


3. Determine o núcleo de f . Será f injectiva? Será 0 um valor próprio de f ?
4. Determine a matriz de f relativamente às bases canónicas.
5. Determine os valores próprios de f .
6. Qual é a dimensão dos subespaços próprios de f ? Será f diagonalizável?
7. Determine o subespaço gerado pelos vectores próprios de f .
Resolução:
h i h i h i
1 0 0 1 0 0
1) A base canónica de V é B = (b1 , b2 , b3 ) = ( 0 0 , 0 0 , 1 0 ). A dimensão de V é 3.
h i h i h i h i
a b c a+b+c 0 0 0 0
3) N uc(f ) = {v ∈ V | f (v) = ⃗0} = { 0 c ∈ V | 0 a
= 0 0 } = { 0 0 } = {⃗0}.
Logo f é injectiva ⇔ 0 não é valor próprio de f .
4) Ora
h i h i
1 0 0 1
f (b1 ) = f ( 0 0
)= 1 0
= b2 + b3 ∴ (f (b1 ))B = (0, 1, 1).
h i h i
0 1 0 1
f (b2 ) = f ( 0 0
)= 0 0
= b2 ∴ (f (b2 ))B = (0, 1, 0).
h i h i
0 0 1 1
f (b3 ) = f ( 1 0
)= 0 0
= b1 + b1 ∴ (f (b3 ))B = (1, 1, 0).

Logo  
0 0 1
Mf = M (f, B, B) =  1 1 1 
1 0 0

2) Como podemos observar, f é a seguinte composição de aplicações lineares:

V −→ R3 −→ R3 −→ V
| |
v 7−→ (v)B 7−→ Mf (v)B = (f (v))B 7−→ f (v)
" #  
h i a 0 0 1 " a # " c
#
h i
7−→  1 
a b c a+b+c
0 c
7−→ b 1 1 b = a+b+c 7−→ 0 a
c 1 0 0 c a
B B

Por conseguinte, f é linear.


5) Os valores próprios de f são as raı́zes do polinómio caracterı́stico de f .

x 0 −1
Pf (x) = |x I3 − Mf | = −1 x−1 −1 = (x − 1)(x2 − 1) = (x − 1)2 (x + 1)
−1 0 x

Logo o valores próprios de f são: 1 com multiplicidade 2 e −1 como multiplicidade 1.


6) λ = 1: 1 ≤ dim(E1 (f )) ≤ 2 " #
1 0 −1
dim(E1 (f )) = 3 − car(xI3 − Mf ) = 3 − car −1 0 −1 = 3 − 2 = 1.
−1 0 1

λ = −1: 1 ≤ dim(E−1 (f )) ≤ 1 ⇒ dim(E−1 (f )) = 1.


Então E1,−1 (f ) = E1 (f ) ⊕ E−1 (f ) tem dimensão 1 + 1 = 2 6= 3.
Logo o subespaço gerado pelos vectores próprios E1,−1 (f ) não coincide com V ⇒ f não é diago-
nalizável.
132 CONTEÚDO

h i h i h i h i
a b c a+b+c a b a b
7) E1 (f ) = {v ∈ V | f (v) = 1v} = { 0 c ∈ V | 0 = } = { ∈V |a=
h i h i h a i 0 c 0 c
0 b 0 1 0 1
c = 0} = { 0 0 | b ∈ R} = {b 0 0 | b ∈ R} = h 0 0 i = h b2 i.
h i h i h i h i
a b c a+b+c −a −b a b
E−1 (f ) = {v ∈ V | f (v) = −v} = { 0 c ∈ V | 0 = } = { ∈V |
h i h i a
h 0
i−c 0 c
a 0 1 0 1 0
c = −a, b = 0} = { −a 0 | a ∈ R} = {a −1 0 | a ∈ R} = h −1 0 i = h b1 − b3 i.
h i h i
0 1 1 0
Logo E1,−1 = h 0 0
, −1 0 i = h b2 , b1 − b3 i.

Você também pode gostar