Escolar Documentos
Profissional Documentos
Cultura Documentos
SEBENTAde AL
SEBENTAde AL
1o ano, UA
1 Equações Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2 Sistemas de equações lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
i Classificação das equações lineares quanto às suas soluções . . . . . . . . . 6
ii Soluções na forma paramétrica . . . . . . . . . . . . . . . . . . . . . . . . . 7
iii Sistemas de equações lineares com parâmetros . . . . . . . . . . . . . . . . 8
iv Resolução de sistemas de equações lineares . . . . . . . . . . . . . . . . . . 8
v Soluções de sistemas de equações lineares com parâmetros . . . . . . . . . . 12
3 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
i Matrizes por blocos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
ii Matrizes especiais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
iii Adição de matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
iv Multiplicação escalar de matrizes . . . . . . . . . . . . . . . . . . . . . . . 18
v Propriedades da multiplicação escalar . . . . . . . . . . . . . . . . . . . . . 19
vi Multiplicação de uma matriz por um escalar . . . . . . . . . . . . . . . . . 19
vii Multiplicação de matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
viii Multiplicação de uma (matriz) linha por uma (matriz) coluna . . . . . . . 19
ix Multiplicação de duas matrizes . . . . . . . . . . . . . . . . . . . . . . . . 20
x Multiplicação de matrizes por blocos . . . . . . . . . . . . . . . . . . . . . 21
xi Casos particulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
xii Propriedades da multiplicação . . . . . . . . . . . . . . . . . . . . . . . . . 21
xiii Não válido na multiplicação de matrizes . . . . . . . . . . . . . . . . . . . 22
xiv Potências de matrizes (quadradas) . . . . . . . . . . . . . . . . . . . . . . . 22
xv Matriz transposta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
xvi Matrizes simétricas e anti-simétricas . . . . . . . . . . . . . . . . . . . . . . 24
xviiTraço de uma matriz quadrada . . . . . . . . . . . . . . . . . . . . . . . . 25
xviiiMatrizes de sistemas de equações lineares . . . . . . . . . . . . . . . . . . . 26
xix Matrizes elementares por linha . . . . . . . . . . . . . . . . . . . . . . . . . 32
xx Inversa de matrizes (quadradas) . . . . . . . . . . . . . . . . . . . . . . . . 35
xxi Permutações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
xxiiDeterminantes (de matrizes quadradas) . . . . . . . . . . . . . . . . . . . . 37
4 Corpos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5 Espaços Vectoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
6 Subespaços Vectoriais Gerados . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
7 Dependência e independência linear . . . . . . . . . . . . . . . . . . . . . . . . 52
8 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
i Geradores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4 CONTEÚDO
1 Equações Lineares
Uma equação é uma igualdade entre duas expressões algébricas. Exemplos de equações são
2x + 3y = 1
sen(x + tg(y)) = cotg(8 + x)
√
x7 + y 2 = 5
R4 2
log(x + 2) = −2 x y+1 dy
2
5= 3
6x + 4 = 9
12x + 5y + 7z = 37
Muitas destas equações não são lineares. Uma equação linear é uma igualdade entre dois
polinómios do 1o grau, isto é, polinómios em que todas as incógnitas são de grau 1. Das
equações exemplificadas em cima só duas, as duas últimas, são equações lineares. A ante-
penúltima equação é uma equação “impossı́vel”.
Uma equação linear em K (leia K = Q, R ou C) é uma equação linear em que os
polinómios do 1o grau envolvidos têm os coeficientes em K. Portanto, uma equação linear
nas incógnitas (ou variáveis) x1 , x2 , . . . , xn , com coeficientes em K, é uma equação da
forma
a1 x1 + a2 x2 + · · · + an xn = c (1)
em que os coeficientes a1 , a2 , . . . , an ∈ K. Se K = Q (corpo dos racionais), (1) diz-se
uma equação linear com coeficientes racionais, se K = R (corpo dos reais) diz-se equação
linear com coeficientes reais e se K = C (corpo dos complexos) diz-se equação linear com
coeficientes complexos.
Atenção: Em equações lineares é mais comum chamar-se variáveis às incógnitas dos
polinómios do primeiro grau aı́ envolvidos. Para dar continuidade a essa tradição, será esse
o nome que adoptaremos aqui também.
(k1 , k2 , . . . , kn ) ∈ K n = K × K × . . . × K (n vezes)
cujos coeficientes aij estão em K (se não conseguir lidar com K, substitua K por Q, R ou
C, conforme lhe for mais conveniente).
em que as equações eq1 , eq2 , . . . , eqm são vistas como condições em x1 , x2 , . . . , xn . Uma
solução de um sistema de equações lineares (2) é um n-uplo (k1 , k2 , . . . , kn ) ∈ Kn tal que
Exemplo 1
2. SISTEMAS DE EQUAÇÕES LINEARES 7
x+y+z = 0
(a) x−y+z = 10
x+y = −2
é um sistema de 3 equações lineares com coeficientes em R que é possı́vel e determinado. A solução é
(3, −5, 2). Se substituir (x, y, z) por (3, −5, 2) verificamos que todas aquelas equações se transformam
em expressões verdadeiras. Não há mais nenhuma porque a resolução daquele sistema conduz a uma
só solução. De facto, da última equação tiramos que y = −x−2, que, quando substituı́do na penúltima
equação, dá origem a
x + x + 2 + z = 10 ⇔ z = 8 − 2x .
Substituindo agora y e z na primeira equação temos:
x − x − 2 + 8 − 2x = 0 ⇔ 2x = 6 ⇔ x = 3 .
A solução deste sistema de equações lineares é x = 3, y = −3 − 2 = −5 e z = 8 − 2 × 3 = 2, única
portanto.
x + 2y = 6
(b) 2x + y = 6
x+y = 6
é um sistema de 3 equações lineares com coeficientes em R que é impossı́vel. De facto, da última
equação sai que y = 6 − x pelo que substituindo este valor na equação anterior temos,
2x + 6 − x = 6 ⇔ x = 0 .
Só que agora x = 0 e y = 6 − 0 = 6 na primeira equação dá uma expressão falsa
0 + 2 × 6 = 6 ⇔ 12 = 6 .
2x + y + z = 12
(c)
x+y = 0
é um sistema de 2 equações lineares com coeficientes em R que é possı́vel e indeterminado. De facto,
y = −x (2a equação) pelo que
2x − x + z = 12 ⇔ x + z = 12 ⇔ z = 12 − x .
De modo que todo o triplo (x, −x, 12 − x) com x ∈ R, por exemplo (0, 0, 12), (3, −3, 9), etc, é solução
do sistema. Este sistema de equações lineares possui portanto mais do que uma solução, é por
conseguinte um sistema possı́vel e indeterminado. Notemos que todas as soluções têm uma expressão
comum (k, −k, 12 − k); a esta expressão comum dizemos solução parametrizada pelo parâmetro k (ou
x na escrita anterior).
se a situação voltar a alterar-se. Bom, não podemos continuar com este procedimento
indefinidamente. Isto significa que o comportamento do fenómeno está dependente de
parâmetros, pelo que os sistema de equações lineares que o representa vem também de-
pendente de parâmetros. Os três casos anteriores são casos particulares (t = 1 e k = 2, t = 2
e k = 3, t = 3 e k = 4) do seguinte sistema de 3 equações lineares em R com 2 parâmetros
reais t e k:
x − y + (k − 2)z = 1
x−z = 2
x + y + k(t − 1)z = t + 2
Aqui o t e o k não são variáveis, as variáveis são x, y e z. Os parâmetros t e k devem ser
encarados como números reais da mesma forma como o são 10, -1, 2, 5 e 6.
Portanto num sistema de equações lineares com parâmetros, os parâmetros represen-
tam os diferentes sistemas de equações lineares que se obtém concretizando os respectivos
parâmetros.
eq1 ⇔ eq2 ,
se as duas equações tiverem o mesmo conjunto solução. Da mesma forma, dois sistemas de
equações (lineares)
0
eq1
eq1
.. e ..
. .
eq eq 0
m m
2. SISTEMAS DE EQUAÇÕES LINEARES 9
Método da substituição
Este foi o método que utilizámos até agora. Ele consiste em resolver uma das equações em
ordem a uma das variáveis xi , cujo coeficiente 6= 0, e substituir a variável xi nas restantes
equações do sistema por este valor. Procedemos desta forma consecutivamente até à ultima
equação.
eq1 : a1 x 1 + a2 x 2 + ... + an x n = p
+ eq2 : b1 x 1 + b2 x 2 + ... + bn x n = q
eq3 : (a1 + b1 )x1 + (a2 + b2 )x2 + ... + (an + bn )xn = p + q
eq : a1 x 1 + a2 x 2 + . . . + an x n = p
α eq : (αa1 )x1 + (αa2 )x2 + . . . + (αan )xn = αp
Note-se que se adicionarmos a EQn (K) a equação “zero” : 0x1 + 0x2 + · · · + 0xn = 0, o
conjunto EQn (K) é um “espaço vectorial” sobre K (vamos dar isto mais à frente).
Consideremos as seguintes 3 regras de equivalência:
(R1) Troca de ordem das equações lineares;
Teorema 1 (Gauss) A aplicação de uma qualquer destas regras dá origem a um sistema
de equações lineares equivalente.
Demonstração.
É claramente verdade para (R1). Para as restantes regras é só extender a n variáveis o argumento feito anteriormente para 3
variáveis, uma vez que esse argumento não dependente do número de variáveis. 2
Um variável diz-se variável lı́der se na equação onde ela estiver for a primeira variável com
coeficiente não zero. A qualquer variável com coeficiente não nulo chamaremos um variável
2. SISTEMAS DE EQUAÇÕES LINEARES 11
consiste em 2 passos:
- O primeiro passo consiste na aplicação consecutiva daquelas 3 regras de equivalência de
modo a obter um sistema de equações lineares na forma escalonada:
eq10
eq 0
2
.. .
.
eq 0
m
- O segundo passo consiste numa resolução “desdobrada” das equações de baixo para
cima, nomeadamente:
0
(1) Se a última equação linear eqm assim obtida não tiver nenhuma variável efectiva, então
ela é da forma const1 = const2 e portanto o sistema é impossı́vel se a igualdade não
for verdadeira (e o procedimento pára aqui).
0
(2) Se eqm tiver apenas uma variável efectiva então resolve-se esta equação em relação a
0
essa variável e transporta-se este valor para a equação linear anterior eqm−1 .
0
(3) Se eqm tiver mais do que uma variável efectiva, então resolve-se esta equação em
função a uma (qualquer) variável efectiva, passando as restantes variáveis efectivas a
0
parâmetros, e transporta-se este valor para a equação anterior eqm−1 .
0
A seguir volta-se a aplicar o mesmo procedimento, agora à equação anterior eqm−1 , eventual-
mente afectada pelo transporte de valores ocorrido pelo procedimento anterior. Procedendo
desta forma consecutiva, chegaremos a uma solução do sistema (que poderá ser na forma
paramétrica). Siga este método com os exemplos que se seguem.
Exemplo 3 Vamos resolver pelo método de Gauss o seguinte sistema de equações lineares
x + y − 3z = 3
2x + y = 4
4x + 2y + 3z = 10
12 CONTEÚDO
Passo 1:
x + y − 3z = 3
x + y − 3z = 3
2x + y = 4 ⇔ 2x + y = 4
4x + (eq3′ =eq3 −2eq2 )
2y + 3z = 10 3z = 2
x + y − 3z = 3
⇔ − y + 6z = −2
(eq2′ =eq2 −2eq1 )
3z = 2
Passo 2:
x + y − 3z = 3
x + y − 3z = 3
x + 6 − 3 3 = 3 ⇔ x = −1
2
−y + 6z = −2 ⇔ −y + 6 3 = −2 ⇔ y = 6
2
⇔ y=6
3z = 2 ⇔ z = 2 (transp.)
z=2 (transp.)
z=2
3 3 3
Resolução:
( (
x + y − 3z = 3 x + y − 3z = 3
⇔
2x + y = 4 (eq2′ =eq2 −2eq1 ) − y + 6z = −2
(
x + y − 3z = 3
⇔
(eq2′ =−eq2 ) y − 6z = 2
(
x + y − 3z = 3
⇔
y = 2 + 6z
(
x = 3 − y + 3z = 1 − 3z
⇔
y = 2 + 6z
A solução do sistema (1 − 3z , 2 + 6z) é pois uma solução parametrizada no parâmetro z. Esta solução
parametrizada representa uma famı́lia de soluções; para cada valor de z temos uma solução.
2. SISTEMAS DE EQUAÇÕES LINEARES 13
Quando temos um sistema de equações lineares com parâmetros, o sistema pode ser
possı́vel para algumas concretizações dos parâmetros e ser impossı́vel para outras. Pode ainda
ser possı́vel e determinado numas concretizações dos parâmetros e possı́vel e indeterminado
noutras.
Quando um sistema de equações lineares com parâmetros for possı́vel e determinado a
única solução depende apenas dos parâmetros do sistema de equações. Se for possı́vel e
indeterminado já a solução geral vem parametrizada com outros parâmetros para além dos
parâmetros do próprio sistema.
Exemplo 5 Discuta, em função dos parâmetros reais k e t, o sistema de equações lineares seguinte e
determine o conjunto de soluções para cada caso.
x − y + (k − 2)z = 1
x−z = 2
x + y + k(t − 1)z = t+2
Passo 1:
x − y + (k − 2)z = 1 x − y + (k − 2)z = 1
x−z = 2 ⇔ x−z = 2
(eq3′ =eq3 +eq1 )
x + y + k(t − 1)z = t+2 2x + (kt − 2)z = t+3
x − y + (k − 2)z = 1
⇔ x−z = 2
(eq3′ =eq3 −2eq2 )
ktz = t−1
Passo 2:
Como não podemos dividir por 0 teremos que distinguir dois casos: quando kt = 0 e quando kt 6= 0.
A) kt = 0. Neste caso temos
x − y + (k − 2)z = 1
x−z = 2
0 = t−1
que é um sistema impossı́vel quando t 6= 1. Portanto,
(A1) kt = 0 e t 6= 1 : sistema é impossı́vel.
(A2) kt = 0 e t = 1, o que é equivalente a k = 0 e t = 1. Neste caso temos
x − y − 2z = 1 z + 2 − y − 2z = 1 ⇔ y + z = 1 y =1−z
⇔ ⇔
x − z = 2 ⇔ x = z + 2 (transp.) x=z+2 x=z+2
3 Matrizes
Uma matriz m × n em K (ou com entradas em K) é um conjunto ordenado de m n-uplos
(a11 , . . . , a1n ), . . . , (am1 , . . . , amn ) ∈ K n dispostos verticalmente de forma a formarem um
quadro rectangular,
a11 . . . a1n
.. = [ a ]
M = Mm,n = ... . i,j i = 1, 2, . . . , m
j = 1, 2, . . . , n
am1 . . . amn
então
6 8 9 1 2 3
2 4
, 16 18 19 , 6 7 8
12 14
21 23 24 11 12 13
são exemplos de submatrizes de A.
Designemos por Mm,n (K) ao conjunto das matrizes m × n em K, e por por Mn (K) ao
conjunto das matrizes quadradas de ordem n (isto é n × n).
Observação.
" a Existe
# uma aplicação bijectiva de Mm,n (K) para K mn , que a cada matriz M =
... a
11 1n
.. ..
. . faz corresponder o (mn)-uplo ordenado (a11 , . . . , a1n , . . . , am1 , . . . , amn ).
am1 ... amn
3. MATRIZES 15
i Matrizes de blocos
Consideremos a matriz
a11 . . . a1n
.. = [ a ]
M = Mm,n = ... . i,j i = 1, 2, . . . , m
j = 1, 2, . . . , n
am1 . . . amn
Um bloco de M é uma submatriz de M cuja linhas e colunas resultam de linhas e colunas
consecutivas em M . Por exemplo, se M for a matriz A dada por
1 2 3 4 5
6 7 8 9 10
A= 11 12 13 14 15
16 17 18 19 20
21 22 23 24 25
então das seguintes submatrizes
6 8 9 1 2 3
2 4
, 16 18 19 , 6 7 8
12 14
21 23 24 11 12 13
apenas o último é um bloco.
Em particular temos as matrizes linhas
L = [a1 a2 . . . an ]
quando m = 1, e as matrizes colunas
b1
b2
C=
...
bn
quando n = 1.
Podemos alternativamente escrever uma matriz M como uma matriz “linha” composta
de matrizes colunas:
M = [C1 C2 . . . Cn ] ou [C1 , C2 , . . . , Cn ]
em que
a11 a12 a1n
a21 a22
C1 = , . . . , Cn = a2n
. . . , C2 = . . . ...
am1 am2 amn
ou como uma matriz “coluna” composta de matrizes linhas:
L1
L2
M =
...
Lm
16 CONTEÚDO
em que
ou ainda como uma matrizes de “blocos”. Por exemplo a matriz A pode escrever-se como a
seguinte matriz de blocos,
1 2 3 4 5
6 7 8 9 10
B B
A = 11 12 13 14 15 =
11 12
16 17 18 B21 B22
19 20
21 22 23 24 25
em que
1 2 3 4 5
16 17 18 19 20
B11 = 6 7 8 , B12 = 9 10 , B21 = , B22 = .
21 22 23 24 25
11 12 13 14 15
ii Matrizes especiais
Das matrizes quadradas (m = n)
a11 . . . a1n
.. ..
. .
an1 . . . ann
isto é,
a11 . . . a1n b11 . . . b1n a11 + b11 . . . a1n + b1n
.. .. + .. .. = .. ..
. . . . . .
am1 . . . amn bm1 . . . bmn am1 + bm1 . . . amn + bmn
A = [A1 A2 . . . An ]
B = [B1 B2 . . . Bn ]
A + B = [A1 + B1 A2 + B2 An + Bn ] .
e além disso os blocos correspondentes Aij e Bij são do mesmo tamanho m × n, então
A11 + B11 A12 + B12
A+B =
A21 + B21 A22 + B22
A matriz nula
0 ... 0
.. ..
0 = [0] = . .
0 ... 0
como facilmente se pode ver, é o elemento neutro desta adição
M +0=0+M =M.
Propriedades da adição:
A adição é associativa: A + (B + C) = (A + B) + C.
A adição é comutativa: A + B = B + A.
então
αB1,1 αB1,2 . . . αB1,k
αB2,1 αB2,2 . . . αB2,k
αM =
...
... ... ...
αBℓ,1 αBℓ,2 . . . αBℓ,k
Exemplo:
3. MATRIZES 19
1 2 3 4 5
M = 6 7 8 9 10 = C1,1 C1,2 C1,3
11 12 13 14 15
Então,
7M = 7C1,1 7C1,2 7C1,3
λA = O se e somente se λ = 0 ou A = O.
[ai,j ]β = [ai,j β] .
=´ b1
b2
b3
+
+
+... bn
+
a1 a2 a3 ... an
h A Bi
A B A B A B A B
AB = L3 C1 L3 C2 L3 C3 . . . L3 C k = L i C j .
.. .. .. ..
. . . .
A B A B A B A B
Lm C1 Lm C2 Lm C3 . . . L m Ck
Portanto
A B = [aij ] [bij ] = [cij ]
em que
A B X
n
cij = Li Cj = air brj
r=1
3. MATRIZES 21
xi Casos particulares
1. O produto de duas matrizes diagonais é uma matriz diagonal.
= C 1 x1 + C 2 x 2 + · · · + C n xn
AB = 0 ⇒ A = 0 ∨ B = 0 FALSO : AB =
0 não implica que A = 0 ou B = 0.
Exemplo: Para A = 11 00 e B = 01 01 temos que A = 6 0, B 6= 0 e no entanto
AB = 0.
1 0
Para matrizes
quadradas AB = 0
⇒ BA
= 0 FALSO : Exemplo: A = 1 0 e
B = 01 01 dá AB = 0 e BA = 02 00 6= 0.
xv Matriz transposta
A transposta da matriz Mm,n = [ai,j ] é a matriz n × m que resulta colocando as colunas de
M em linhas, na mesma ordem, ou equivalentemente colocando as linhas em colunas.
a11 . . . am1
.. = [ a ].
M T = ... . j,i
a1n . . . amn
Propriedades da transposição
(AT )T = A;
(λA)T = λ(AT );
(A + B)T = AT + B T = B T + AT .
(AB)T = B T AT .
2. Se M ∈ Mm,n (K) é uma matriz anti-simétrica, então para todo α ∈ K, αM é uma matriz anti-
simétrica.
3. Para qualquer matriz M ∈ Mm,n (K), a matriz A = M + M T é simétrica enquanto que a matriz
B = M − M T é anti-simétrica.
4. Toda a matriz M ∈ Mm,n (K) se pode decompor na soma de uma matriz simétrica com uma matriz
anti-simétrica.
3. MATRIZES 25
Demonstração. P Pn
De facto, sejam A = [aij ], B = [bij ] e ABP = [cij ], em que cij = n k=1 aik bkj , e BA = [dij ], em que dij = k=1 bik akj . Ora
n
os elementos
P na diagonal de AB são c ii = k=1 a ik bki , para i = 1, 2, . . . , n. Os elementos da diagonal de BA são os elementos
dii = n k=1 bik aki . Então,
X
n X
n X
n n X
X n X
n X
n X
n
Tr AB = cii = aik bki = aik bki = bki aik = dkk = Tr BA.
i=1 i=1 k=1 k=1 i=1 k=1 i=1 k=1
Propriedades do traço
Tr M = Tr M T .
Tr (A + B) = Tr A + Tr B
Tr (AB) = Tr (BA)
P
Tr (AAT ) = i,j a2ij (a soma dos quadrados dos eltos de A).
Demonstração.
Use a propriedade destacada anterior. 2
Técnicas de demonstração. Se uma proposição for falsa basta um exemplo que ateste
a falsidade da afirmação. Se uma proposição for verdadeira há que averiguar a veracidade
para todos os elementos! Numa maneira geral, usa-se um elemento na forma geral que seja
representativo de todos os elementos para atestar a veracidade da proposição. No caso das
matrizes temos as matrizes na forma geral. E como há várias formas gerais, deve-se escolher
aquela que nos parece ser mais conveniente. Isto não invalida a que possamos voltar atrás e
mudar de forma mais tarde. Formas gerais de matrizes:
Para escolher um exemplo que ateste a falsidade, aconselha-se escolher matrizes pequenas,
por exemplo 2 × 2, e com muitos zeros (por exemplo, todos os elementos zero excepto um)
e alguns na diagonal principal. Evitar escolher matrizes diagonais.
Por exemplo, averigue a veracidade das seguintes afirmações (se forem falsas dê um contra-
exemplo e se forem verdadeiras demonstre-as)
AB = 0 ⇒ A = 0 ∨ B = 0 (Falso).
A2 = 0 ⇒ A = 0 (Falso)
MX = C.
As regras (ou princı́pios) de equivalência de sistemas de equações lineares dão origem às
seguinte operações elementares por linhas:
(L3) Somar a uma linha da matriz ampliada uma outra outra linha (possivelmente multi-
plicada por uma constante 6= 0).
Aplicando sucessivamente as 3 regras OEL mais C1, será (claramente) sempre possı́vel
reduzir uma matriz do sistema a uma das seguintes 3 formas :
X 0T ∗
(I) In C 0 , com m = n;
0 0
0T
X1 X20T ∗
(II) Ik B C 0 , onde B é uma matriz não nula e X 0 = X10 ∪ X20 .
0 0 0
0T
X1 X20T
Ik B C10
(III)
0
.
0 1
0 0 0
pelo que as soluções (que são n-uplos) obtidas pelo método de condensação (nos casos onde
o sistema é possı́vel, naturalmente) são da forma (k1 , . . . , kn ), cuja ordenação é determinada
pelo cabeçalho X 0 .
No caso (II) o sistema é possı́vel e indeterminado.
Isto é, passando as variáveis X20 a parâmetros obtemos um “sistema possı́vel e determinado”
0T
X10T X20T ∗ X1 ∗
Ik B C 0
⇔ Ik C 0 − BX20
0 0 0 0 0
Nota: poderı́amos introduzir mais uma operação (não elementar) por linhas: “Juntar ou
retirar linhas nulas na matriz ampliada”, pois linhas nulas não altera a equivalência (conjunto
solução) do sistema de equações lineares inicial. Por exemplo, no caso (II) retirando as linhas
nulas ficarı́amos com:
0
X1 ∗
I C 0 − BX20 T
A forma de passar de uma matriz de um sistema linear para uma matriz da forma (I),
(II) ou (III) chama-se condensar a matriz do sistema.
XT ∗ X 0T ∗
M X = C −→ −→
M C OEL+C1 M0 C0
3. MATRIZES 29
em que
0T
X ∗
(I) In C 0 (Sis.P.D.) −→ X 0 = C 0
Sol.
0 0
0T
X1 X20T ∗
X 0T ∗ (II) Ik B C 0 (S.P.I.) −→ X10 = C 0 − BX20
= (4)
M0 0 Sol.Par.
C
0 0 0
0T
X1 X20T
Ik
B C10
(Sist. Impossı́vel)
(III)
0 0 1
0 0 0
0 Ik Bk×n−k 0 In
Note-se que M = , com k ≤ n. Se k = n assumimos M = .
0 0 0
O método de condensação de Gauss-Jordan (G-J) usa apenas operações elementares por
linhas (OEL). Isto corresponde a aplicar às colunas de
0T
X ∗
M 0 C0
uma permutação por forma a que o cabeçalho volte a ficar na ordem original.
0T
X ∗ X ∗
−→
M 0 C0 C1 M 00 C 0
E como não se aplica operações elementares por colunas C1 não há necessidade de andarmos
com o cabeçalho atrás. O método de condensação de Gauss-Jordan trabalha, portanto,
directamente na matriz ampliada do sistema.
X ∗ X ∗
M X = C −→ −→
M C OEL M 0 C0
O resultado
da aplicação
do método da condensação de Gauss-Jordan é um sistema conden-
X ∗
sado em que M 0 é uma matriz “escalonada” do tipo
M 0 C0
1 ∗ 0 ∗ ∗ 0 ∗ ∗
0 0 1 ∗ ∗ 0 ∗ ∗
0 0 0 0 0 1 ∗ ∗ (5)
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
em que os lideres (ou pivôs) formam a diagonal de uma matriz identidade (as colunas onde
estão os lideres (ou pivôs) são as colunas de uma matriz identidade). Os lı́deres, ou pivôs,
30 CONTEÚDO
são os elementos da matriz correspondentes aos coeficientes das variáveis lı́deres do sistema
na forma escalonada. Se a esta matriz aplicarmos operações elementares por coluna (por
forma a agrupar a matriz identidade), chegamos a uma matriz do tipo:
Ik Bk×n−k
0 0
X ∗ X ∗
M X = C −→ −→ M C −→ M 0 C0 −→ M 00 C 00 −→
M C Gauss G-J M C 00
00
em que
00
In Ik Bk×n−k
M −→ ou
C1 0 0 0
Como as 3 formas finais em (4) não são equivalentes, o método de condensação G-J mais
permutações de colunas (C1) transforma uma matriz M (com m linhas e n colunas) numa
matriz condensada reduzida da forma:
In
0
3. MATRIZES 31
no segundo caso com k < n e no terceiro caso com k ≤ n. Ora o método de condensação
não força sempre a um mesmo percurso para chegar àquela forma condensada; pessoas difer-
entes certamente produzirão percursos diferentes. Questiona-se agora, será que as matrizes
identidades In ou Ik a que chegamos serão sempre da mesma ordem?
(i) - No primeiro caso (sistema possı́vel e determinado), o método de condensação produz
sempre uma matriz identidade In (de ordem n). Sistemas equivalentes têm o mesmo número
de soluções, e uma só solução corresponde à matriz In .
(ii) - No segundo caso (sistema possı́vel e indeterminado), a matriz identidade a que se
chega é sempre de ordem k < n, pois este caso dá origem a uma solução parametrizada.
Repare-se que, percursos diferentes do método de condensação não pode originar matrizes
identidades Ik e Iq diferentes; o número de parâmetros das soluções tem de ser o mesmo
visto que o método de condensação transforma uma sistema de equações lineares noutro que
lhe é equivalente (mesmo conjunto solução).
(iii) - No terceiro caso (sistema impossı́vel), introduzindo uma variável extra xn+1 e conse-
quentemente uma nova coluna correspondente a esta nova variável com entradas a 0 excepto
nas linhas correspondentes à matriz 1 onde preenchemos com 1,
0T
X1 X20T xn+1
Ik B 0 C10
0 0 1 1
0 0 0 0
transformamos aquela matriz ampliada com cabeçalho numa matriz ampliada com cabeçalho
de um sistema possı́vel. Revertendo o processo (note-se que a coluna do xn+1 permanecerá
imóvel) obtemos um sistema de equações lineares, com n + 1 variáveis, possı́vel (determinado
se k = n ou indeterminado se k < n) e cujo sistema original se recupera eliminando xn+1 .
Por (ii) a aplicação do método de condensação a este sistema conduzirá sempre a uma mesma
matriz identidade Ik (de mesma ordem). Como com a aplicação da operações elementares
de linha (OEL) e de coluna (C1) a última coluna permanece no lugar, ela não têm qualquer
influência na construção da matriz Ik . E como eliminar xn+1 corresponde a eliminar a última
coluna, que não teve nenhuma influência na construção de Ik , concluı́mos que a matriz Ik
a que se chega por aplicação do método de condensação ao sistema original é sempre da
mesma ordem k.
Portando o método de condensação G-J mais (C1) transforma uma matriz M numa
matriz condensada reduzida da forma
0 Ik Bk×m
M =
0 0
car(M ) = k .
32 CONTEÚDO
A operação elementar (1) realiza-se por uma matriz de permutação P ; uma matriz
quadrada que contém somente um 1 em cada linha e em cada coluna, sendo os restantes
elementos da linha e da coluna zeros. Exemplo:
" 1 0 0 0 #" L # " L #
1 1
0 0 0 1 L2 L4
0 1 0 0 L3 = L2
0 0 1 0 L4 L3
Multiplicar as linhas de uma matriz por escalares 6= 0 realiza-se por uma matriz diagonal
sem nenhum zero na diagonal principal. A operação elementar (2) realiza-se pois por uma
matriz diagonal elementar em que todos os elementos da diagonal principal são 1 excepto
um que é λ. Portanto, multiplicar a linha Li de M por um escalar λ, corresponde multiplicar
M pela matriz diagonal elementar Di (λ) à esquerda. Exemplo, multiplicar a terceira linha
de M por λ: " #" # " #
1 0 0 0 L1 L1
0 1 0 0 L2 L2
D3 (λ)M = 0 0 λ 0 L3 = λ L3
0 0 0 1 L4 L4
A operação elementar (3) realiza-se por uma matriz que se chama transvector. Esta
matriz consiste na matriz identidade com apenas um 1 fora da diagonal principal. Por
exemplo, se quisermos adicionar à linha i de M a linha j, basta multiplicar pela matriz
transvector Ti,j , que consiste na matriz identidade com um 1 na linha i e coluna j. Exemplo,
" 1 0 0 0 #" L # " L #
1 1
0 1 0 0 L2 L2
T3,1 M = 1 0 1 0 L3 = L3 + L1
0 0 0 1 L4 L4
(AM )B = IB ⇔ A(M B) = B ⇔ AI = B ⇔ A = B .
Propriedades da inversa
◃ (AB)−1 = B −1 A−1
◃ (AT )−1 = (A−1 )T
[M I] −→ [I M −1 ]
OEL
−1 0 2
−1 −1
Logo M = 2 1 .
1 0 −1
xxi Permutações
Uma permutação σ de {1, 2, 3, . . . , n} é uma aplicação bijectiva de {1, 2, 3, . . . , n} −→
{1, 2, 3, . . . , n}:
1 2 ... n
σ= ↓ ↓ ... ↓
σ(1) σ(2) . . . σ(3)
3. MATRIZES 35
que é determinado pela n-uplo ordenado (σ(1), σ(2), . . . , σ(n)). Tal representação representa-
se por
1 2 ... n
σ = σ(1) σ(2) . . . σ(3)
Exemplo, se
1 2 3 4 5 6
σ= 2 5 4 1 3 6
é a permutação identidade, e
1 2
α= 2 1
det : Mn (K) −→ K
M 7−→ det(M )
tal que
(1) O determinante det(C1 , C2 , . . . , Cn ), como função de colunas (ou linhas), é uma função
multilinear alternada.
(2) det(In ) = 1.
—————————————————————
Uma função f (x) diz-se linear, ou 1-linear, se f (x1 + x2 ) = f (x1 ) + f (x2 ) e f (λx) =
λf (x). Por exemplo f (x) = 9x é uma função linear. Uma função f (x, y) diz-se bilinear, ou
2-linear, se f (x, y) é linear na entrada x e é linear na entrada y; isto é, se
Por exemplo, a função f (x, y) = 12xy é bilinear. E assim por diante, f (x, y, z) é 3-linear
se f (x, y, z) é linear na entrada x, é linear na entrada y e é linear na entrada z. A função
f (x, y, z) = 5xyz é uma função 3-linear. Portanto, f (x1 , . . . , xn ) diz-se multilinear, ou n-
linear, se f (x1 , . . . , xn ) é linear em cada uma das entradas x1 , . . . , xn .
Uma função bilinear f (x, y) diz-se alternada se f (y, x) = −f (x, y). Uma função 3-linear
f (x, y, z) diz-se alternada se f (y, x, z) = −f (x, y, z), f (z, y, x) = −f (x, y, z) e f (x, z, y) =
−f (x, y, z). Mais geralmente, uma função multilinear f (x1 , . . . , xn ) diz-se alternada se tro-
cando duas coordenadas xi com xj resulta
f (x1 , . . . , xi , . . . , xj , . . . , xn ) = −f (x1 , . . . , xj , . . . , xi , . . . , xn ) .
—————————————————————
Exemplo 1: n = 2. M = a11
a21
a12
a22 , |S2 |=2, logo duas parcelas para o determinante:
Ou seja,
a11 a12
|M | = = a11 a22 − a12 a21 .
a21 a22
a11 a12 a13
Exemplo 2: n = 3. M = a21 a22 a23 , |S3 |=6, logo 6 parcelas para o determinante:
a31 a32 a33
det(M ) = sinal(α1 )a1α1 (1) a2α1 (2) a3α1 (3) + sinal(α2 )a1α2 (1) a2α2 (2) a3α2 (3) +
sinal(α3 )a1α3 (1) a2α3 (2) a3α3 (3) + sinal(α4 )a1α4 (1) a2α4 (2) a3α4 (3) +
sinal(α5 )a1α5 (1) a2α5 (2) a3α5 (3) + sinal(α6 )a1α6 (1) a2α6 (2) a3α6 (3)
= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 .
Ou seja
p1 + p2 + p3 - ( p1 + p2 + p3 )
a11 a12 a13 a11 a12 a13 a11 a12 a13
a21 a22 a23 = a21 a22 a23 a21 a22 a23
a31 a32 a33 a31 a32 a33 a31 a32 a33
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − (a11 a23 a32 + a12 a21 a33 + a13 a22 a31 )
Nota. Ao escalar (−1)i+j Mîĵ chama-se o cofactor do elemento aij . Designemos por
Propriedades do determinante
det como função de colunas, det(C1 , . . . , Cn ), é uma função multilinear alternada :
I det(C1 , C2 , . . . , C, . . . , C, . . . , Cn ) = 0.
1 −5 −5
Exemplo: 3 8 8 =0
−7 1 1
I det(C1 , C2 , . . . , C, . . . , αC, . . . , Cn ) = 0.
1 −5 −15 1 −5 3 × −5
Exemplo: 3 8 24 = 3 8 3×8 =0
−7 1 3 −7 1 3×1
3. MATRIZES 39
O mesmo para linhas: O det como função de linhas, det(L1 , . . . , Ln ), é uma função
multilinear alternada.
Em todos os exemplos anteriores substituir colunas por linhas. Isto corresponde a
tomar nos exemplos as transpostas das matrizes consideradas.
det(M T ) = det(M ).
1 2 3 1 4 7
Exemplo: 4 5 6 = 2 5 8
7 8 9 3 6 9
det(αM ) = αn det(M ).
Se M ∈ Mn (C), temos: det M = det(M ), em que a barra significa conjugado, e
M = [ aij ] = [ aij ] é a matriz dos conjugados.
i 2+i −1 + 4i −i 2−i −1 − 4i
Exemplo: M = 1 + i 3i 0 , M = 1 − i −3i 0
4 6 − 4i 0 4 6 + 4i 0
i 2+i −1 + 4i −i 2−i −1 − 4i
|M | = 1+i 3i 0 = 10(3+5i) , |M | = 1−i −3i 0 = 10(3−5i) = |M | .
4 6 − 4i 0 4 6 + 4i 0
|AM A−1 | = |M |.
|AM A−1 − λI| = |M − λI|.
d1 ∗ ∗ ∗
0 d2 ∗ ∗
.. = d1 d2 . . . dn .
0 0 . ∗
0 0 0 dn
d1 0 0 0
∗ d2 0 0
.. = d1 d2 . . . dn .
∗ ∗ . 0
∗ ∗ ∗ dn
Matrizes invertı́veis
Uma matriz M é invertı́vel se e só se |M | 6= 0.
Demonstração: ( ⇒ ) Consequência da aplicação do determinante à igualdade M M −1 = I. ( ⇐ ) Se det(M ) 6= 0
Adj(M )
então podemos formar a matriz B = det(M )
, em que Adj(M ) = [ Cofij ]T . Então M B = BM = I. Logo M é invertı́vel.
4 Corpos
Um corpo é uma estrutura com duas operações (binárias) internas, adição e multiplicação,
na qual podemos somar, subtrair, multiplicar e dividir (desde que o denominador não seja
igual a zero). Relativamente a uma das suas operações um corpo é um “grupo comutativo”
(definição mais precisa em baixo).
Grupo comutativo (G, ⋆): Um conjunto não vazio G munido de uma operação (binária)
interna ⋆ diz-se um grupo comutativo se
2. G possui o elemento neutro η. Para a adição (+) elemento neutro é o zero 0 e para a multiplicação (×) o
elemento neutro é 1. O elemento neutro é o elemento η que satisfaz: η ⋆ x = x ⋆ η = x , ∀ x ∈ G
4. ⋆ é comutativa. I.e., a ⋆ b = b ⋆ a , ∀ a, b ∈ G.
Corpo (K, +, ×): Um corpo é um conjunto K com pelos menos 2 elementos, munido de
duas operações (binárias) internas + e × tais que:
Exemplos:
4. CORPOS 41
Ou seja,
ac + bd bc − ad
x + iy = 2 2
+i 2
c +d c + d2
Se p é um número primo, o conjunto dos “resı́duos módulo p”, Zp = {0̄, 1̄, 2̄, . . . , p − 1},
em que 0̄ = pZ, 1̄ = 1 + pZ, 2̄ = 2 + pZ, . . . , p − 1 = p − 1 + pZ, é um corpo para a
adição e multiplicação módulo p.
5 Espaços Vectoriais
Um espaço vectorial é um conjunto V = (V, +, ·) munido de duas operações binárias, uma
interna + (chamada adição) e uma externa · (chamada multiplicação escalar) tal que:
+ é associativa
V possui o vector zero ⃗0 (elto neutro)
1- (V, +) é um grupo comutativo
Todo o elto x possui simétrico −x em V
+ é comutativa
4- ∀ v ∈ V , 1 · v = v.
Exemplos:
K é um espaço vectorial sobre K.
A multiplicação escalar de K sobre K é a multiplicação de K. A distributividade da mult. escalar relativamente às
duas adições (em V e em K) traduzem-se na distributividade da multiplicação relativamente à adição (à direita e à
esquerda). Portanto:
Nesta identificação, a adição em C coincide com a adição em R2 e a multiplicação escalar por reais em C coincide com
a multiplicação escalar em R2 . Logo C ∼
= R2 .
V1 × V2 × . . . × Vn = {(v1 , . . . , vn ) | v1 ∈ V1 , v2 ∈ V2 , . . . , vn ∈ Vn }
é um espaço vectorial sobre K.
A adição e a multiplicação escalar são definidas componente a componente:
Portanto:
identifica-se ao mn-uplo ordenado (L1 , L2 , . . . , Lm ), portanto Mm,n (K) ≡ K mn . Como a adição e multiplicação escalar
em Mm,n (K) se procede componente a componente, então:
L1 L′1 L1 + L′1
L2 L′2 L2 + L′2
.. + .. = .. ! (L1 , L2 , . . . , Lm ) + (L′1 , L′2 , . . . , L′m ) = (L1 + L′1 , L2 + L′2 , . . . , Lm + L′m )
. . .
Lm L′m Lm + L′m
L1 αL1
L2 αL2
α . = .. ! α(L1 , L2 , . . . , Lm ) = (αL1 , αL2 , . . . , αLm )
.. .
Lm αLm
44 CONTEÚDO
pelo que a adição e multiplicação escalar em Mm,n (K) coincide com a adição e multiplicação escalar em K mn . Logo
Mm,n (K) ∼
= K mn .
Portanto:
Kn [x] = {a0 + a1 x + · · · + an xn | a0 , a1 , . . . , an ∈ K} ,
a0 + a1 x + · · · + an xn ! (a0 , a1 , . . . , an )
A adição de polinómios e a multiplicação escalar de polinómios corresponde à adição e multiplicação escalar de (n + 1)-
uplos ordenados:
a0 + a1 x + · · · + an xn (a0 , a1 , . . . , an )
+ b0 + b1 x + · · · + bn xn ! + (b0 , b1 , . . . , bn )
a0 + b0 + (a1 + b1 )x + · · · + (an + bn )xn + (a0 + b0 , a1 + b1 , . . . , an + bn )
Logo Kn [x] ∼
= K n+1 .
Portanto:
Em particular, o conjunto F (R) = F (R, R) das funções reais de variável real (isto é,
de R −→ R) constitui um espaço vectorial real (exercı́cio) para a adição de funções
(f + g)(x) := f (x) + g(x) e multiplicação escalar (αf )(x) := α f (x).
5. ESPAÇOS VECTORIAIS 45
O espaço dos vectores com origem num ponto fixo P é um espaço vectorial:
v
A multiplicação escalar αv é o vector cujo comprimento é α comp(v) , no mesmo
sentido se α > 0 e no sentido contrário se α < 0:
au u u
u u -u -u
au au au
10 Propriedades elementares
1) α ⃗0 = ⃗0 , ∀ α ∈ K.
2) 0 v = ⃗0 , ∀ v ∈ V .
3) (−α) v = −(αv) , ∀ α ∈ K, ∀ v ∈ V .
4) α (−v) = −(αv) , ∀ α ∈ K, ∀ v ∈ V .
5) α (u − v) = αu − αv , ∀ α ∈ K, ∀ u, v ∈ V .
6) (α − β) v = αv − βv , ∀ α, β ∈ K, ∀ v ∈ V .
7) −(−v) = v , ∀ v ∈ V .
8) α v = ⃗0 ⇒ α = 0 ∨ v = ⃗0.
9) α v = β v ∧ v 6= ⃗0 ⇒ α = β.
10) u + v = u + w ⇒ v = w.
Subespaços vectoriais
Seja V um espaço vectorial e U um subconjunto não vazio de V . U diz-se um subespaço
vectorial de V se U munido das mesmas adição e multiplicação escalar de V é por sua vez
um espaço vectorial. Por outras palavras, U diz-se um subespaço vectorial de V se
46 CONTEÚDO
Demonstração.
( ⇒ ): Imediato.
( ⇐ ): Todas as propriedades do espaço vectorial com a excepção da “existência de elemento neutro” e da “existência de simétrico
de qualquer elemento” são propriedades hereditárias. Portanto só temos de verificar estas duas propriedades.
(a) Existência de elemento neutro: Como U 6= ∅, seja v ∈ V . Sendo U fechado para a multiplicação escalar então ⃗0 = 0v ∈ U .
(b) Existência de simétrico: Seja v um elemento qualquer de U . Pela mesma razão que anteriormente, −v = (−1)v ∈ U . 2
∀ α, β ∈ K , ∀ u, u0 ∈ U , α u + β u0 ∈ U .
Demonstração.
( ⇒ ): Se U < V então sendo U fechado para a multiplicação escalar, αu ∈ U e βu′ ∈ U , e sendo fechada para a adição de
vectores α u + β u′ ∈ U .
( ⇐ ): Se α, β ∈ K , ∀ u, u′ ∈ U , α u + β u′ ∈ U , mostremos que U < V .
2
5. ESPAÇOS VECTORIAIS 47
[a,b]
Exemplo 6 O subconjunto F (R) de F (R) constituı́do pelas funções R −→ R que são contı́nuas em
[a, b], é um subespaço vectorial de F (R) (exercı́cio).
Demonstração.
Exercı́cio. 2
pelo que,
2x1 − x3 = 0
x1 + x2 − x4 = 0
= {(x1 , x2 , x3 , x4 ) | }
2x 1 − x2 = 0
x1 + x3 − x4 = 0
Este sistema de equações lineares é homogéneo e por conseguinte tem o vector nulo ⃗0 = (0, 0, 0, 0)
como solução.
Observação Para representar o vector genérico (x1 , x2 , x3 , x4 ) não se aconselha a usar as mesmas
letras usadas no vector (a, 2a, b, a + b), pois as primeiras representam posições, ou coordenadas, en-
quanto que as segundas são parâmetros. Caso contrário, estamos sujeitos a tirar conclusões erradas:
por exemplo, no caso de W , se usarmos (a, b, c, d) como vector genérico, poderı́amos ser levados a
escrever:
a = a , b = 2a , c = b , d = a + b
e isto diz-nos que c = b, isto é, que a 3a entrada do vector é igual à 2a entrada, o que não é verdade.
Este sistema é de fácil resolução: a 1a e 3a equações dizem que x3 = x2 , pelo que a 4a equação é
reduntante (é a mesma que a 2a ). Donde temos,
1
Por exemplo, I = {1, 2}, I = {1, 2, 3, 4, 5}, I = {1, 2, 3, 4, 5, 6, . . . , n}, etc.
6. SUBESPAÇOS VECTORIAIS GERADOS 49
Portanto temos
x1 x2 x3 x4
1 x1 x2 x3 x4 −1
0 0 − 13 0
1 0 0 − 31 0
1 0 0 x1
3
0
0 1 0 − 23 0 = ⇔ 0 1 0 x2 + − 23 [x4 ] = 0
0 1 0 − 23 0
0 0 1 − 23 0 0 0 1 x3 − 23 0
0 0 1 − 23 0
0 0 0 0 0
Ou seja,
1
x1 3 x4
2
x2 = 3 x4
2
x3 3 x4
Logo
1 2 2
U ∩ W = {( x4 , x4 , x4 , x4 ) | x4 ∈ R} = {(x4 , 2x4 , 2x4 , 3x4 ) | x4 ∈ R} .
3 3 3
Seja X um conjunto não vazio de V . O subespaço vectorial gerado por X, que denotamos
50 CONTEÚDO
Da definição resulta :
Se U < V e X ⊂ U , então h X i ⊂ U .
Por exemplo:
h ⃗0 i = {⃗0}
hvi
v
h v i = {αv | α ∈ K} :
Seja U = {αv | α ∈ K}. Porque h v i é um espaço vectorial, logo fechado para a mul-
tiplicação escalar, e contém v, então temos U ⊂ h v i por construção. Para mostrar a
outra inclusão, vamos usar a informação destacada anteriormente da definição. Mostremos
que U < V e que X = {v} ⊂ U , isto é, que v ∈ U . Que v ∈ U é imediato pois
v = 1 v, logo da forma αv (α = 1). Para mostrar que U < V usaremos o teorema
do subespaço vectorial, Teorema 5. Sejam λ, δ ∈ K e a = αv, b = α0 v ∈ U . Então
λa + δb = λ(αv) + δ(α0 v) = (λα)v + (δα0 )v = (λα + δα0 )v ∈ U . Logo U < V e como
v ∈ U então h v i ⊂ U . Conclusão, U = h v i.
hvi
v
hui
u
h u, v i = {αu + βv | α, β ∈ K} :
Seja U = {αu + βv | α, β ∈ K}. Analogamente, porque h u, v i é um espaço vectorial,
logo fechado para a multiplicação escalar e adição de vectores, e contém u, v, então
temos U ⊂ h u, v i por construção. Mostremos que h u, v i ⊂ U . Sejam λ, δ ∈ K
escalares quaisquer e sejam a = αu + βv, b = α0 u + β 0 v ∈ U dois vectores genéricos de
U . Então
λa + δb = λ(αu + βv) + δ(α0 u + β 0 v) = λ(αu) + λ(βv) + δ(α0 u) + δ(β 0 v)
= (λα)u + (λβ)v + (δα0 )u + (δβ 0 )v = (λα + δα0 )u + (λβ + δβ 0 )v ∈ U .
Como u = 1u + 0v ∈ U e v = 0u + 1v ∈ U então h u, v i ⊂ U . Por conseguinte,
h u, v i = U .
7. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 51
h i h i h i h i h i
Res: h 1
0
2
1 , 1
1
0
0 i = {α 1
0
2
1 +β 1
1
0
0 | α, β ∈ R} = { α+β
β
2α
α | α, β ∈ R}.
u w u v
v w
α1 v1 + · · · + αn vn = ⃗0 .
52 CONTEÚDO
Há uma combinação linear nula que é trivial : 0v1 + · · · + 0vn , pois
0v1 + · · · + 0vn = ⃗0
Demonstração.
( ⇒ ): Se v1 , . . . , vn ∈ V são linearmente dependentes então um dos vectores pertence ao subespaço vectorial gerado pelos
restantes. Sem perda de generalidade (SPdG) podemos supor que é o vector v1 que pertence ao subespaço vectorial gerado
pelos restantes:
v1 ∈ h v2 , . . . , vn i = {α2 v2 + · · · + αn vn | α2 , . . . , αn ∈ K} .
−v1 + α2 v2 + · · · + αn vn = ⃗0
e portanto −v1 + α2 v2 + · · · + αn vn é uma combinação linear nula dos v1 , . . . , vn não trivial porque −1 6= 0.
( ⇐ ): Se α1 v1 + · · · + αn vn = ⃗0 para algum αi 6= 0, sem perda de generalidade suponhamos que é α1 6= 0, então
α2 αn
α1 v1 = −α2 v2 − · · · − αn vn ⇔ v1 = − v2 − · · · − vn .
α1 α1
Portanto, v1 é uma combinação linear dos restantes, isto é, v1 pertence ao subespaço vectorial gerado pelos restantes. Por
conseguinte v1 , . . . , vn são linearmente dependentes. 2
Se os vectores v1 , . . . , vn não são linearmente dependentes dizemos que eles são linear-
mente independentes. No exemplo anterior, respeitante à primeira figura (figura da es-
querda), os vectores u e v são linearmente independentes, assim como os vectores u e w
são linearmente independentes. Na segunda figura, quaisquer dois vectores são linearmente
independentes.
Note-se que o vector nulo ⃗0 é linearmente dependente, pois α⃗0 = ⃗0 para qualquer que
seja α 6= 0, ou seja, toda a combinação linear não trivial de ⃗0 dá o vector nulo.
Mais geralmente. Seja X 6= {⃗0} um subconjunto não vazio de um espaço vectorial V .
Isto é,
Propriedades elementares
(1) Se U < V então h U i = U .
(2) Se ∅ 6= X ⊂ Y então h X i ⊂ h Y i.
(3) v ∈ h X i ⇔ h X, v i = h X i.
∃ x ∈ X, h X\{x} i = h X i .
u w u v
v w
h u, v, w i = h u, v i = h u, w i. h u, v, w i = h u, v i = h u, w i = h v, w i.
∀ x ∈ X, h X\{x} i 6= h X i .
Nota: w escreve-se de modo único como combinação linear dos v1 , . . . , vn significa que existe
uma única sequência α1 , . . . , αn tal que w = α1 v1 +· · ·+αn vn . Isto é, se w = α1 v1 +· · ·+αn vn
e w = α10 v1 + · · · + αn0 vn então α1 = α10 , . . . , αn = αn0 .
O resultado patente no último exercı́cio merece ser destacado:
8 Bases
i Geradores
Seja V um espaço vectorial e seja X um subconjunto não vazio de v. Como vimos anterior-
mente, h X i < V . Se V = h X i dizemos que X gera V , ou que X é um conjunto gerador
de V , ou ainda que X é um conjunto de geradores de V . Seja Y um outro subconjunto (não
vazio) de V . Dizemos que X gera Y se Y ⊂ h X i.
Demonstração.
Exercı́cio. 2
Demonstração.
Mostremos que X ∪ {v} é um conjunto de vectores linearmente independentes. Usando o Corolário 8, suponhamos que α1 v1 +
· · · + αn vn + λv = ⃗0. Se λ 6= 0 então esta igualdade diz-nos que v é combinação linear dos vectores de X, isto é, v ∈ h X i, o
que não pode ser. Portanto λ = 0. Neste caso passaremos a ter α1 v1 + · · · + αn vn = ⃗0 o que implica, visto serem linearmente
independentes, α1 = 0, . . . , αn = 0. Portanto X ∪ {v} é um conjunto de vectores linearmente independentes. 2
8. BASES 55
Demonstração.
Consequência da Propriedade Elementar (5) (Secção “Dependência e Independência linear”). 2
Demonstração.
Consequência imediata da Propriedade Elementar (4) (Secção “Dependência e Independência linear”). 2
iv Base
Chamamos base de um espaço vectorial V a um conjunto maximal B de vectores linearmente
independentes de V .
Como o vector nulo ⃗0 é um vector linearmente dependente, por definição uma base de
um espaço vectorial é constituı́do por vectores não nulos. Por conseguinte, o espaço vectorial
nulo {⃗0} não tem nenhuma base.
Seja V 6= {⃗0}. Um conjunto minimal de geradores de V é um conjunto maximal de
vectores linearmente independente, e vice-versa, um conjunto maximal de vectores linear-
mente independente é um conjunto minimal de geradores. Portanto, um conjunto minimal
de geradores de V uma base de V .
Demonstração.
( ⇒ ): Imediato (já foi visto).
( ⇐ ): Seja B = {b1 , . . . , bn }. Mostremos que se B gera V e B é constituı́do por vectores linearmente independentes então B
é uma base, isto é, B é minimal. Por redução ao absurdo: se B não fosse minimal então isto significaria que existiria algum
elemento b ∈ B tal que B\{b} gera V . Mas então h B i = h B\{b} i o que contraria a independência linear dos vectores de B
(ver Propriedade Elementar (5) (Secção “Dependência e Independência linear”)). 2
Demonstração.
Imediato. 2
Demonstração.
De facto, o sistema é possı́vel e determinado significa que todo o vector de V se escreve de forma única como combinação linear
dos elementos de X. Pelo Teorema 15, isto equivale a dizer que X é uma base de V . 2
Exemplo 9 Averigue se {2x + 1, x − 1} é uma base do espaço vectorial R1 [x] dos polinómios lineares.
Res: Já tı́nhamos visto no Exemplo 8 que estes vectores são linearmente independentes.
Falta-nos mostrar que eles geram R1 [x] = {ax + b | a, b ∈ R}. Seja ax + b um elemento
qualquer de R1 [x] e averiguemos se ele pertence h 2x+1, x−1 i, isto é, se ele é uma combinação
linear daqueles polinómios:
α(2x + 1) + β(x − 1) = ax + b ⇔ (2α + β)x + α − β = ax + b
2α + β = a
⇔
α−β =b
3α = a + b
⇔
α−β =b
(
α = a+b
⇔ 3
β = a+b
3
− b = a−2b
3
h i h i
1 2 1 0
Exemplo 10 Averigue se { 0 1
, 1 0
} constitui uma base do espaço vectorial das matrizes M2 (R).
v Dimensão
O teorema seguinte é um corolário do Teorema 10:
v = α1 b1 + α2 b2 + · · · + αn bn .
1 α2 αn
b1 = v− b2 − · · · − bn
α1 α1 α1
Demonstração.
Suponhamos que n ≤ m. Comecemos por retirar b1 a B1 . Como B1 é um conjunto de geradores minimal, então {b2 , . . . , bn } não
gera V , e por conseguinte não gera B2 . Então h b2 , . . . , bn i não pode conter B2 , pelo que algum dos seus elementos encontra-se
fora deste subespaço. SPG suponhamos que é o b′1 , isto é, b′1 ∈ V \h b2 , . . . , bn i. Pelo Teorema 17, {b′1 , b2 , . . . , bn } é uma base
de V . Repetimos o processo, agora retirando b2 a esta última base. O conjunto {b′1 , b3 , . . . , bn } não gera V e portanto não gera
B2 , logo algum elemento de B2 não é gerado por eles. Esse elemento não pode ser b′1 , tem de ser outro. SPG, suponhamos que
é b′2 . Então (Teorema 17) {b′1 , b′2 , b3 , . . . , bn } é ainda uma base de V . Continuando com este processo, chegarı́amos (a menos
de uma permutação dos elementos de B2 ) a que {b′1 , b′2 , . . . , b′n } é uma base de V . Mas então se n < m isto significa que B2
não é um conjunto gerador minimal, isto é, não é uma base – o que não pode ser. Logo m = n. 2
58 CONTEÚDO
O teorema 18 diz-nos duas quaisquer bases finitas de um espaço vectorial V têm o mesmo
número de elementos. Ao número n de elementos de uma qualquer base finita de V chama-se
dimensão do espaço vectorial V , e escreve-se
Se o número de elementos de uma base é infinito, todas as base de V têm um número infinito
de elementos, escrevemos dim(V ) = ∞ e dizemos que V é um espaço vectorial de dimensão
infinita. Por exemplo, o conjunto de todos os polinómios com coeficientes reais é um espaço
vectorial real de dimensão infinita: os polinómios 1, x, x2 , x3 , x4 , x5 , . . . , são linearmente
independentes e são em número infinito.
Neste texto iremos debruçar somente em espaços vectoriais de dimensão finita, pelo que
todo o espaço vectorial aqui mencionado, se nada se diz sobre a sua dimensão, é suposto ser
de dimensão finita.
Observação 2
(i) Se U < V então dim(U ) ≤ dim(V ).
(ii) Se U < V e U 6= V então dim(U ) < dim(V ).
(iii) dim({⃗0}) = 0. Em muitos textos isto é estabelecido por convenção.
Isto acontece porque uma base de U gera U e por conseguinte, se U 6= V , não pode gerar
V . Portanto, uma base de U é um conjunto de vectores linearmente independentes que é
maximal em U mas não é maximal em V .
vi Bases canónicas
Uma base de um espaço vectorial não é único, contudo para espaços vectoriais concretos uma
base em geral se destaca de entre todas de forma trivial. Essas bases chamar-se-ão bases
canónicas. Dado um corpo K, o espaço vectorial K n é um espaço vectorial que possui uma
base canónica. Todo o elemento v ∈ K n é um n-uplo que se decompões de forma trivial,
v = (α1 , α2 , . . . , αn ) = (α1 , 0, . . . , 0) + (0, α2 , . . . , 0) + · · · + (0, 0, . . . , αn )
= α1 (1, 0, . . . , 0) + α2 (0, 1, . . . , 0), . . . , αn (0, 0, . . . , 1)
como uma combinação linear dos n vectores (1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1). Estes
vectores são claramente linearmente independentes (a única combinação linear nula é a triv-
ial). Portanto
( (1, 0, . . . , 0) , (0, 1, 0, . . . , 0) , (0, 0, . . . , 1) )
é a base canónica ordenada de K n , para K = Q, R, C, Zp , etc. A ordenação da base é
também canónica.
Outro espaço vectorial com uma base canónica é o espaço vectorial das matrizes Mm×n (K).
Neste caso a base canónica é
1 0 ... 0 0 1 ... 0 0 0 ... 1
0 0 ... 0 0 0 ... 0 0 0 ... 0
.. .. .. .. , .. .. .. .. , . . . , .. .. .. .. ,
. . . . . . . . . . . .
0 0 ... 0 0 0 ... 0 0 0 ... 0
8. BASES 59
0 0 ... 0
0 0 ... 0
0 0 ... 0
1 0 ... 0 0 1 ... 0 0 0 ... 1
.. .. .. .. , .. .. .. .. , . . . , .. .. .. .. ,
. . . . . . . . . . . .
0 0 ... 0 0 0 ... 0 0 0 ... 0
0 0 ... 0
0 0 ... 0
0 0 ... 0
0 0 ... 0 0 0 ... 0 0 0 ... 0
.. .. .. .. , .. .. .. .. , . . . , .. .. .. ..
. . . . . . . . . . . .
1 0 ... 0 0 1 ... 0 0 0 ... 1
Neste caso não existe uma ordenação que se possa considerar canónica. Ainda outro espaço
vectorial com uma base canónica é o espaço vectorial Kn [x] dos polinómios em x de grau
≤ n com coeficientes em K. Analogamente ao caso K n , se identificarmos o polinómio
a0 +a1 x+a2 x2 +· · ·+an xn com o n-uplo (a0 , a1 , a2 , . . . , an ), temos que B = {1 , x, x2 , . . . , xn }
a base canónica de Kn [x], enquanto que
1 , x, x2 , . . . , xn
é a base canónica ordenada. Destas bases tiramos a seguinte informação quanto às dimensões
destes espaços vectoriais:
Corolário 19
dim(K n ) = n.
dim(Kn [x]) = n + 1.
(α1 , . . . , αn )
v2
v
b2
b1 v1
Res: Ora
6x − 9 = α(2x + 1) + β(x − 1) = v1 + v2
| {z } | {z }
v1 v2
em que
v1 = 2αx + α
v2 = βx − β
v1 + v2 = (2α + β)x + α − β = 6x − 9
o que dá origem ao seguinte sistema
2α + β = 6
α−β = −9
3α = −3
cuja solução é α = −1 e β = 8. Portanto as componentes de 6x − 9 relativamente à base
ordenada (2x + 1, x − 1) é
(v1 , v2 ) = (−2x − 1 , 8x − 8) ,
enquanto que as coordenadas de 6x − 9 relativamente à base ordenada (2x + 1, x − 1) é
(α, β) = (−1, 8) .
9. SOMA DE SUBESPAÇOS. SUBESPAÇOS COMPLEMENTARES 61
A + B := {a + b | a ∈ A, b ∈ B}
(2) A + B = h A ∪ B i.
(3) Seja BA∩B = {e1 , . . . , eq } é uma base de A ∩ B. Pelo teorema da extensão de bases,
sejam BA = {e1 , . . . , eq , ak+1 , . . . , am } uma base de A e BB = {e1 , . . . , eq , bk+1 , . . . , bn }
uma base de B. Então
é uma base de A + B.
Demonstração.
e mostremos que δ1 = · · · = δq = βq+1 = · · · = βn = 0. Passando a parte b para o outro membro da equação temos
o que nos diz que −b pertence tanto a B como a A, isto é, b ∈ A ∩ B. Como A ∩ B é gerado por BA∩B então b é uma
combinação linear dos elementos de BA∩B , isto é,
b = γ1 e1 + · · · + γq eq .
Substituindo em cima e reagrupando as parcelas temos uma combinação linear nula envolvendo os elementos da base
BA :
(δ1 + γ1 )e1 + · · · + (δq + γq )eq + αq+1 aq+1 + · · · + αm am = ⃗0
δ1 + γ1 = 0 , . . . , δq + γq = 0 e αq+1 = 0 , . . . , αm = 0
| {z }
Substituindo os valores dos αi realçados acima na combinação linear nula inicial obtemos uma combinação linear nula
δ1 e1 + · · · + δq eq + βq+1 bq+1 + · · · + βn bn = ⃗0
δ1 = 0 , . . . , δq = 0 , βq+1 = 0 , . . . , βn = 0 .
Exemplo 12 Seja A = h (1, 1, 0), (0, 1, 0) i e B = h (0, 1, 0), (0, 1, 1) i. É fácil ver que
v = (1, 1, 1)
O sistema tem uma infinidade de soluções, as soluções são parametrizadas por β. Isto significa que v = (1, 1, 1)
se pode decompor numa soma v = a + b com a ∈ A e b ∈ B de uma infinidade de maneiras diferentes, uma
maneira por cada concretização de α = 1, β (qualquer), δ = −1 − β e γ = 1 :
Por exemplo, (1, 1, 1) = (1, 1, 0)+(0, 0, 1) = (1, 2, 0)+(0, −1, 1) = (1, 0, 0)+(0, 1, 1) com (1, 1, 0), (1, 2, 0), (1, 0, 0) ∈
A e (0, 0, 1), (0, −1, 1), (0, 1, 1) ∈ B. Em particular o vector nulo ⃗0 = (0, 0, 0) também se decompõe de muitas
(uma infinidade) maneiras diferentes: substituindo (1, 1, 1) por (0, 0, 0) obterı́amos como solução paramétrica
α = γ = 0 ∧ δ = 1 − β, o que dá as seguintes soluções:
v = v + ⃗0 = ⃗0 + v .
|{z} |{z} |{z} |{z}
∈A ∈B ∈A ∈B
Demonstração.
⇒ : Teorema 23.
⇐ : Mostremos que A ∩ B = {⃗0}. Seja v ∈ A ∩ B. Então ⃗0 = v + −v . Da unicidade de escrita (hipótese) sai que v = ⃗0. 2
|{z} |{z}
∈A ∈B
Demonstração.
Imediato, pois {⃗0} é o único (sub)espaço vectorial de dimensão 0. 2
U1 + U2 + · · · + Un = {u1 + u2 + · · · + un | u1 ∈ U1 , u2 ∈ U2 , . . . , un ∈ Un }
U1 + U2 + · · · + Un = h U1 ∪ U2 ∪ . . . ∪ Un i .
Lema 26
U1 +U2 +· · ·+Un é soma directa se e só se cada vector v ∈ U1 +U2 +· · ·+Un se decompõe
de forma única como v = u1 + u2 + · · · + un com u1 ∈ U1 , u2 ∈ U2 , . . . , un ∈ Un .
Demonstração.
Seja BU = {e1 , . . . , em } uma base de U e seja B = {e1 , . . . , em , em+1 , . . . , en } uma base de V obtida por extensão da base
BU (Teorema 20). Seja W = h em+1 , . . . , en i < V . Então W é um subespaço complementar de U , pois dim(W ) = dim(V ) −
dim(U ). 2
Como observo que a última coordenada é sempre 0, então qualquer vector com a última coordenada
6= 0 serve. Por exemplo (1, 0, 1, 1) não está neste subespaço vectorial. Então
é um subespaço complementar de U em R4 .
(1) ψ(u) = 0 , ∀ u ∈ U ,
(2) v − ψ(v) ∈ U , ∀ v ∈ V ,
10 Aplicações lineares
Sejam V e V 0 dois espaços vectoriais sobre um mesmo corpo K. Uma aplicação
f : V −→ V 0
2. ∀ v ∈ V, ∀ α ∈ K, f (αv) = αf (v) .
Logo f (v1 + v2 ) = f (v1 ) + f (v2 ). Por outro lado, se α ∈ K = R é um escalar qualquer e v = (x, y, z) ∈ R3 é
um vector qualquer então
Demonstração.
( ⇒ ): É imediato (exercı́cio).
( ⇐ ): Exercı́cio. 2
i Propriedades elementares
f (⃗0) = ⃗0 .
f (−v) = −f (v) .
Resolução:
g(α(x1 , y1 ) + β(x2 , y2 )) = g(αx1 + βx2 , αy1 + βy2 ) = (X + 2Y, 0, Y )
| {z } | {z }
X Y
= (αx1 + βx2 + 2(αy1 + βy2 ), 0, αy1 + βy2 ) = (αx1 + 2αy1 + βx2 + 2βy2 , 0, αy1 + βy2 ) .
Por por outro lado,
αg(x1 , y1 )+βg(x2 , y2 ) = α(x1 +2y1 , 0, y1 )+β(x2 +2y2 , 0, y2 ) = (αx1 +2αy1 +βx2 +2βy2 , 0, αy1 +βy2 ).
Confirmamos que g(α(x1 , y1 ) + β(x2 , y2 )) = αg(x1 , y1 ) + βg(x2 , y2 ). Portanto g é linear.
ϕ(x, y, z) = g(f (x, y, z)) = g(x − y, y + z) = (x − y + 2(y + z), 0, y + z) = (x + y + 2z, 0, y + z).
Demonstração.
De facto,
f (h v1 , . . . , vn i = f {α1 e1 + · · · + αn vn | αi ∈ K}
= {f (α1 e1 + · · · + αn vn ) | αi ∈ K}
= {α1 f (e1 ) + · · · + αn f (vn ) | αi ∈ K}
= h f (v1 ), . . . , f (vn ) i .
2
(A) Se v1 , . . . , vn são linearmente dependentes então também f (v1 ), . . . , f (vn ) são linear-
mente dependentes.
(A’) Se f (v1 ), . . . , f (vn ) são linearmente independentes então também v1 , . . . , vn são linear-
mente independentes.
Demonstração.
(A) : Hip: v1 , . . . , vn são linearmente dependentes. Isto significa que um deles pertence ao subespaço vectorial gerado pelos
restantes. SPG, suponhamos que é v1 . Então v1 ∈ h v2 , . . . , vn i. Sendo f linear então pelo Teorema 32,
(B) : O recı́proco de (A) não é sempre verdadeiro, isto é: f (v1 ), . . . , f (vn ) são linearmente dependentes não implica que
v1 , . . . , vn são linearmente dependentes. Por exemplo, no exemplo anterior (Exemplo 14)
f : R3 −→ R2 , (x, y, z) 7→ (x − y, y + z)
os vectores (1, 0) = f (1, 0, 0) e (2, 0) = f (0, −2, 2) em R2 são linearmente dependentes e no entanto os vectores v1 =
(1, 0, 0) e v2 = (0, −2, 2) são linearmente independentes. Isto acontece porque a aplicação não é injectiva.
(A’), (B’) : Como uma implicação A ⇒ B é equivalente a ∼B ⇒ ∼A 2, (A) e (B) lidos na forma negativa (isto é, na forma
∼ B ⇒ ∼ A) fica:
(A’) Se f (v1 ), . . . , f (vn ) são linearmente independentes, então também v1 , . . . , vn são linearmente independentes.
(B’) Se f é injectiva e v1 , . . . , vn são linearmente independentes, então f (v1 ), . . . , f (vn ) são linearmente independentes
Portanto
Se f é injectiva então :
v1 , . . . , vn são linearte independentes ⇔ f (v1 ), . . . , f (vn ) são linearte independentes.
2
O sı́mbolo ∼ significa “negação”. ∼A lê-se “não A”.
70 CONTEÚDO
iv Isomorfismos
Uma aplicação linear f : V −→ V 0 diz-se
monomorfismo se f é injectiva;
epimorfismo se f é sobrejectiva;
isomorfismo se f é bijectiva;
endomorfismo se V = V 0 ;
= V 0 então V 0 ∼
V ∼ = V; (∼
= é simétrica)
Se V ∼
= V0 e V0 ∼
= V 00 então V ∼
= V 00 . (∼
= é transitiva)
Demonstração.
Demonstração.
Consequência do Teorema 32 e do Corolário 34 . 2
v Imagem recı́proca
Dado um vector v 0 ∈ V 0 , ao conjunto
f −1 (v 0 ) = {v ∈ V | f (v) = v 0 }
ϕ−1 ({(1, 0, 0), (0, 1, 0), (0, 0, 1)}) = ϕ−1 ({(1, 0, 0), (0, 0, 1)})
= {v ∈ R3 | ϕ(v) ∈ {(1, 0, 0), (0, 0, 1)}}
= {v ∈ R3 | ϕ(v) = (1, 0, 0) ∨ ϕ(v) = (0, 0, 1)}
= {v ∈ R3 | ϕ(v) = (1, 0, 0)} ∪ {v ∈ R3 | ϕ(v) = (0, 0, 1)}
= ϕ−1 (1, 0, 0) ∪ ϕ−1 (0, 0, 1)
= {(1 − z, −z, z), (−1 − z, 1 − z, z) | z ∈ R} .
f (U ) = {f (u) | u ∈ U } < V 0 ;
f −1 (U 0 ) = {v ∈ V | f (v) ∈ U 0 } < V .
72 CONTEÚDO
Demonstração.
De facto, pelo Teorema 30,
Notações
Seja f : V −→ V 0 linear. Ao conjunto
Im(f ) = f (V ) = {f (v) | v ∈ V }
dim(Im(f ))
dim(N uc(f ))
f −1 (f (X)) = X + N uc(f );
∀ v ∈ V, f −1 (f (v)) = v + N uc(f ) .
Isto é, se designarmos por v 0 = f (v), f −1 (v 0 ) = v + N uc(f ) , para um (qualquer)
v ∈ φ−1 (v 0 ).
f (f −1 (Y ) ⊂ Y . Se f é sobrejectiva , f (f −1 (Y ) = Y
Demonstração.
X + N uc(f ) ⊂ f −1 (f (X) : Se a = x + y ∈ X + N uc(f ) então f (a) = f (x) + f (y) = f (x) ∈ f (X), ou seja,
a ∈ f −1 (f (X)) = X + N uc(f ).
f −1 (f (X) ⊂ X + N uc(f ) : Se b ∈ f −1 (f (X) ⇔ f (b) ∈ f (X) ⇔ f (b) = f (x) para algum x ∈ X. E f (b) =
f (x) ⇔ f (b) − f (x) = ⃗0 ⇔ f (b − x) = ⃗0 ⇔ b − x ∈ N uc(f ). Portanto b − x = y para algum y ∈ N uc(f ), isto é,
b = x + y ∈ X + N uc(f ).
Exercı́cio.
nf = dim(N uc(f )) = 1.
Podemos calcular f −1 (−1, 5) directamente da definição. O cálculo é similar ao cálculo do núcleo com
a diferença de se ter (−1, 5) no lugar de (0, 0).
74 CONTEÚDO
Podemos calcular f −1 (−1, 5) usando o teorema 41. Neste caso f (v) = (−1, 5). Temos então de
calcular um (basta um) vector v que satisfaça a equação f (v) = (−1, 5). Para isso olhemos para a
simplificação: f (0, y, z) = (−y, y + z). Daqui se tira de imediato que f (0, 1, 4) = (−1, 5). Então
Demonstração.
Suponhamos que f é injectiva. Mostremos que N uc(f ) = {⃗0}. Seja v ∈ N uc(f ). Isto significa que f (v) = ⃗0. Como
⃗0 = f (⃗0) então temos f (v) = f (⃗0) o que implica, visto f ser por hipótese injectiva, v = ⃗0.
Suponhamos agora que N uc(f ) = {⃗0}. Provemos que f é injectiva. Seja f (v1 ) = f (v2 ). Pelo Lema 42, v1 − v2 ∈ N ucf .
Por hipótese N uc(f ) = {⃗0}, portanto v1 − v2 = ⃗0 ⇔ v1 = v2 .
Cálculo de f −1 (v0 )
Sejam f : V −→ V 0 uma aplicação linear e v 0 um elemento de V 0 . Vimos no Teorema 41 que
se v ∈ f −1 (v 0 ) é uma solução particular, então
f −1 (v 0 ) = v + N uc(f ).
f −1 (λv 0 ) = λ f −1 (v 0 ) .
Demonstração.
De facto,
f −1 (λv ′ ) = {u ∈ V | f (u) = λv ′ }
= {u ∈ V | λ−1 f (u) = v ′ }
= {u ∈ V | f (λ−1 u) = v ′ } , pois f é linear ,
= {λv ∈ V | f (v) = v ′ } , fazendo v = λ−1 u ⇔ u = λv
= λ {v ∈ V | f (v) = v ′ } = λ f −1 (v ′ ) .
2
10. APLICAÇÕES LINEARES 75
(D) ϕ−1 (2, 2, 0, 0) = ϕ−1 (2(1, 1, 0, 0) = 2ϕ−1 (1, 1, 0, 0). Como (0, 0, 1) ∈ ϕ−1 (1, 1, 0, 0) é uma solução
particular então ϕ−1 (2, 2, 0, 0) = 2((0, 0, 1) + N uc(ϕ)) = 2(0, 0, 1) + 2 N uc(ϕ) = (0, 0, 2) + N uc(ϕ) =
(0, 0, 2) + {(a, a, 0) | a ∈ R} = {(0, 0, 2) + (a, a, 0) | a ∈ R} = {(a, a, 2) | a ∈ R} .
(E) Para calcular o subespaço complementar ao N uc(ϕ) em R3 temos de complementar a base {(1, 1, 0)} do
N uc(ϕ) até uma base de R3 . Os vectores extras que acrescentarmos geram o subespaço complementar.
Vamos buscar esses vectores extras à base canónica de R3 . Pretendemos então identificar 3 vectores
em {(1, 1, 0), (1, 0, 0), (0, 1, 0), (0, 0, 1)}, sendo um deles (1, 1, 0), que sejam linearmente independentes.
Isto equivale a procurar 3 colunas (incluindo a primeira) da seguinte matriz
1 1 0 0
1 0 1 0
0 0 0 1
v = α1 b1 + α2 b2 + . . . , +αn bn .
ψ: V −→ Kn
v 7−→ (v)B
ψ está bem definida e é injectiva: de facto as coordenadas de um vector relativamente a uma base são únicas; um vector
v não pode ter duas ou mais coordenadas distintas relativamente a uma mesma base. Isso diz-nos também que ψ é
injectiva.
É imediato que ψ é sobrejectiva: qualquer n-uplo (β1 , . . . , βn ) corresponde o vector v ′ = β1 b1 + · · · + βn bn que tem
como coordenadas (v ′ )B = (β1 , . . . , βn ). Portanto ψ é uma aplicação bijectiva.
Por conseguinte
ψ(λv1 + δv2 ) = (λα1 + δβ1 , . . . , λαn + δβn )
= λ(α1 , . . . , αn ) + δ(β1 , . . . , βn )
= λψ(v1 ) + δψ(v2 ) .
2
Corolário 45 Quaisquer dois espaços vectoriais com mesma dimensão finita são isomorfos.
V /U : {v + U | v ∈ V } .
v+U
v
U
v+U
v
U
Note-se que cada conjunto v + U não é um subespaço vectorial de V , a não ser que v = ⃗0,
pois não contém o vector ⃗0. O conjunto quociente V /U é o conjunto destes conjuntos. No
caso de U ser uma “recta” que passa na origem, V /U é o conjunto das rectas paralelas a U ;
os elementos de V /U são rectas.
2
R /U
No caso de U ser um “plano” que passa pela origem, então V /U é o conjunto dos planos
paralelos a U , e portanto os elementos de V /U são planos.
v1 + U + v2 + U := (v1 + v2 ) + U
e multiplicação escalar
α•(v + U ) := αv + U .
O vector nulo ⃗0 = ⃗0 + U = U .
Demonstração.
É preciso verificar os 4 passos da definição de espaço vectorial. Exercı́cio. 2
∀ u ∈ U, u + U = U .
v+U =U ⇔ v ∈U.
B2 = (eq+1 + U , . . . , en + U )
B2 gera V /U : todo o elemento de V /U é um conjunto da forma v + U . Como v ∈ V e V é gerado por B, então v é uma
combinação linear dos elementos de B,
pelo que
v+U = (αq+1 eq+1 + · · · + αn en + u) + U
= (αq+1 eq+1 + · · · + αn en ) + U
= αq+1 (eq+1 + U ) + · · · + αn (en + U ) .
B2 é constituı́do por vectores linearmente independentes: Não esqueçamos que o vector nulo no espaço quociente V /U
é o conjunto U . Considere-se então uma combinação linear nula dos elementos de B2 ,
e mostremos que αq+1 = 0, . . . , αn = 0. Aquela combinação linear nula é equivalente a (αq+1 eq+1 + · · · + αn en ) + U =
U ⇔ αq+1 eq+1 +· · ·+αn en ∈ U . Como U = h B1 i então αq+1 eq+1 +· · ·+αn en = β1 e1 +· · ·+βq eq o que providencia
uma combinação linear nula
−β1 e1 − · · · − βq eq + αq+1 eq+1 + · · · + αn en = ⃗0
envolvendo os elementos da base B de V . Como estes elementos são linearmente independentes então todos os coeficientes
desta equação são nulos. Em particular temos αq+1 = 0, . . . , αn = 0.
Demonstração.
De facto se W é um espaço vectorial complementar a U então existe uma base B = (B1 , B2 ) de V tal que B1 é base de U e B2
é base de W . Como B2 é base de V /U e #B2 = #B2 então dim(W ) = dim(V /U ). Pelo Corolario 45, V /U ∼
= W. 2
W
2
R /U
ix Caracterı́stica e nulidade
No teorema seguinte vamos considerar o espaço quociente V /N uc(f ). Não esquecer que o
vector nulo neste espaço vectorial é N uc(f ).
Demonstração.
Consideremos a seguinte aplicação
ψ: V /N uc(f ) −→ Im(f )
v + N uc(f ) 7−→ f (v)
Esta aplicação está bem definida: de facto,
As equivalências anteriores mostram que ψ é também injectiva: ψ(v1+N uc(f )) = ψ(v2 +N uc(f )) ⇒ v1+N uc(f ) = v2 +N uc(f ).
Claramente que ψ é sobrejectiva pois
Finalmente, ψ é linear:
2
80 CONTEÚDO
Designando por
e por
temos
dim(V ) = nf + cf .
forma esta que, juntamente como Teorema 43, permite deduzir os seguintes resultados:
h i
0 1
Exemplo 19 Seja A = 1 0
∈ M2×2 (R). Considere a seguinte aplicação ψ : M2×2 (R) −→ M2×2 (R),
M 7→ ψ(M ) = M A + AM .
Mostre que ψ é uma aplicação linear.
Calcule o núcleo de ψ. Será ψ um monomorfismo?
Calcule a caracterı́stica de ψ.
Rsolução:
ψ(αM1 + βM2 ) =
= (αM1 + βM2 )A + A(αM1 + βM2 ) = (αM1 )A + (βM2 )A + A(αM1 ) + A(βM2 )
= αM1 A + βM2 A + αAM1 + βAM2 = αM1 A + αAM1 + βM2 A + βAM2
= α(M1 A + AM1 ) + β(M2 A + AM2 )
= αψ(M1 ) + βψ(M2 ). Isto para todo α, β ∈ K e M1 , M2 ∈ M2 (R). Logo ψ é linear.
11. APLICAÇÕES LINEARES VERSUS MATRIZES 81
h i h i h i
a b a b 0 0
N uc(ψ) = {M ∈ M2 (R) | ψ(M ) = ⃗0 } = { c d | ψ( c d ) = 0 0 }
h i h i h i h i
a b a b a b 0 0
={ c d | c d A+A c d = 0 0 }
h i h ih i h ih i h i
a b a b 0 1 0 1 a b 0 0
={ c d | c d 1 0
+ 1 0 c d
= 0 0
}
h i h i h i h i a+d=0
a b b+c a+d 0 0 a b
= { c d | a+d b+c = 0 0 } = { c d | }
b+c=0
h i h i h i
a b 1 0 0 1
= { −b −a | a, b ∈ R} = {a 0 −1 + b −1 0 | a, b ∈ R}
h i h i
1 0 0 1
= h 0 −1 , −1 0 i .
Exemplo 20 Determine a aplicação linear f : R2 −→ R3 , isto é, determine f (x, y), quando é f é definida
pelas seguintes imagens de uma base B:
B =base canónica de R2 e f (1, 0) = (1, 1, 1), f (0, 1) = (−1, −1, −1).
Primeiro temos que calcular as coordenadas de (x, y) na base B. Como (x, y) = x(1, 0) + y(0, 1) é
suficiente conhecer as coordenadas de (1, 0) e de (0, 1) relativamente à base B. Facilmente se vê que
(1, 0) = (1, 2) + 2(0, −1) e que (0, 1) = −(0, −1). Portanto (x, y) = x((1, 2) + 2(0, −1)) + −y(0, −1) =
x(1, 2) + (2x − y)(0, −1). Então
f (x, y) = f (x(1, 2)+(2x−y)(0, −1)) = xf (1, 2)+(2x−y)f (0, −1) = x(0, 0)+(2x−y)(0, −1) = (0, y−2x) .
82 CONTEÚDO
Colocando as coordenadas (f (bi ))B = (α1i , α2i , . . . , αmi ) na vertical obtemos uma matriz
W
M (f, BV , BW ) ∈ Mm×n (K),
y1 x1
y2 x2
.. = M (f, B , BW
) ..
. V
.
ym xn
Demonstração.
A matriz M (f, BV , BW ) satisfaz o pretendido. Se M = [C1 , . . . , Cn ] ∈ Mm×n (K) é uma matriz tal que para todo v ∈ V com
coordenadas (v)B = (x1 , . . . , xn ) a imagem f (v) tem coordenadas (f (v))B = (y1 , . . . , ym ) determinadas por
V W
y1 x1
y2 x2
. =M .
.. ..
ym xn
11. APLICAÇÕES LINEARES VERSUS MATRIZES 83
então como as coordenadas de cada vector bi relativamente à base BV onde é originário são dadas por (bi )B = (0, 0, . . . , 0, 1, 0, . . . , 0),
V
a imagem f (vi ) tem como coordenadas relativamente à base BW a coluna Ci de M :
0
..
.
|
(f (vi ))V =M 1 = Ci .
W
..
.
0
Logo M = M (f, BV , BW ). 2
Teorema 56 Reciprocamente, toda a matriz M ∈ Mm×n (K) determina uma única aplicação
linear ψM : V −→ W tal que M (ψM , BV , BW ) = M .
Demonstração.
Seja M = [C1 , . . . , Cn ] ∈ Mm×n (K). Para definirmos uma aplicação linear ψM : V −→ W basta definirmos as imagens dos
vectores de uma base (Teorema 54). Como um vector fica determinado pelas suas coordenadas relativamente a uma base,
tomando as colunas de M como sendo as coordenadas dos vectores imagens ψM (b1 ), . . . , ψM (bn ) relativamente à base BW ,
temos determinada uma aplicação linear ψM que satisfaz M (ψM , BV , BW ) = M . Se ϕ : V −→ W é outra aplicação linear tal
que M (ϕ, BV , BW ) = M = M (ψM , BV , BW ) então
M (0, BV , BW ) = 0 .
M (id, BV , BV ) = In .
Demonstração. P
Seja M (g, B2 , B3 )M (f, B1 , B2 ) = [βij ][αij ] = [γij ], portanto, γij = t βit αtj . Então
g ◦ f (bj ) = g( f (bj ) )
P
= g( t αtj dt )
P
= t αtj g(dt )
P P
= t αtj i βit ei
P P
= t i αtj βit ei
P P
= i t βit αtj ei
P
= i γij ei
Consequências
Sejam V e W espaços de mesma dimensão n e f : V −→ M linear. Então M (f, BV , BW ) ∈
Mn (K) = Mn×n (K) e
(1) f é invertı́vel ⇒ M (f −1 , BW , BV ) = M (f, BV , BW )−1 .
De facto, se f é invertı́vel então f −1 : W → V é linear e M (f −1 , BW , BV ) ∈ Mn (K) satisfaz:
M (f, BV , BW ) M (f −1 , BW , BV ) = M (f ◦ f −1 , BW , BW ) = M (id, BW , BW ) = In
M (f −1 , BW , BV ) M (f, BV , BW ) = M (f −1 ◦ f, BV , BV ) = M (id, BV , BV ) = In
Seja M = [C1 , . . . , Cn ] uma matriz m × n sobre K. Esta determina uma aplicação linear
ψM : Kn −→ Km
" x1
# " x #
1
..
. 7−→ M ..
.
xn xn
Car(M ) : = Car(ψM )
temos
ψM (K n ) = ψM (h b1 , . . . , bn i) = h ψM (b1 ), . . . , ψM (bn ) i = h C1 , . . . , Cn i .
Isto mostra que dim(ψM (K n )) = número (máximo) de colunas linearmente independentes,
ou seja,
|
Tomando agora a matriz transposta M , uma matriz n × m sobre K. Como as colunas de
|
M são as linhas de M temos
|
Car(M ) = número (máximo) de linhas linearmente independentes de M
|
Teorema 59 Car(M ) = Car(M )
11. APLICAÇÕES LINEARES VERSUS MATRIZES 87
Demonstração.
Ik ∗
Pelo Corolário 58, existem matrizes invertı́veis A e B tal que AM B = . Então Car(M ) = Car(AM B) =
0 0
Ik ∗
Car =k e
0 0
| !
| | | Ik ∗ Ik 0
Car(M ) = Car(AM B) = Car((AM B) ) = Car = Car = Car(M ) .
0 0 ∗ 0
Demonstração.
exercı́cio 2
M (λf, BV , BW ) = λ M (f, BV , BW ))
Demonstração.
exercı́cio. 2
L(V, W ) ∼
= Mm×n (K) .
Demonstração.
O teorema 55 diz-nos que ψ está bem definida. O Teorema 56 diz-nos que ψ é bijectiva (possui inverso). O Lema 62 diz-nos
que ψ é linear. 2
ou seja,
ϵi,j (bi ) i
0 ... 0 ... 0 0 ... 0 ... 0
.. .. ..
.. .. ..
M (ϵi,j , BV , BW ) = . . . = . . .
0 ... 1 ... 0 ej 0 ... 1 ... 0 j
.. .. .. .. .. ..
. . . . . .
0 ... 0 ... 0 0 ... 0 ... 0
(
ej se k = i
ϵi,j (bk ) = , para k = 1, 2, . . . , n .
0 se k 6= i
11. APLICAÇÕES LINEARES VERSUS MATRIZES 89
ϵi,j : Kn −→ Km
(x1 , x2 , . . . , xi , . . . , xn ) 7−→ (0, 0, . . . , 0, xi , 0, . . . , 0)
| {z }
xi na posição j
em que ϵ1,1 (x, y, z) = (x, 0), ϵ2,1 (x, y, z) = (y, 0), ϵ2,2 (x, y, z) = (0, y) e ϵ3,2 (x, y, z) = (0, z) são funções
lineares elementares canónicas.
(v)B1 = ( x1 , . . . , xn ) ,
Esta matriz chama-se matriz de mudança de bases e denota-se por MB1 ,B2 , ou por
M (B1 , B2 ).
b1 ... bn
MB1 ,B2 = α11 ... α1n e1
: : :
αn1 ... αnn en
A matriz de mudança de bases MB1 ,B2 permite traduzir coordenadas (x1 , . . . , xn ) na base B1
para coordenadas (y1 , . . . , yn ) na base B2 :
x1 y1
x2 y2
MB1 ,B2 .. = ..
. .
xn yn
R3
Exemplo 22 Em R3 consideremos a base canónica Bcan. e a base
Analogamente
1
β+γ =0
α= 2
(0, 1, 0) = α(0, 1, 1) + β(1, 0, 1) + γ(1, 1, 0) ⇔ α+γ =1 ⇔ β = − 12
α+β =0 γ = 12
1
β+γ =0
α= 2
(0, 0, 1) = α(0, 1, 1) + β(1, 0, 1) + γ(1, 1, 0) ⇔ α+γ =0 ⇔ β = 12
α+β =1 γ = − 21
Portanto
− 12 1 1
−1 1 1
2 2 1
M R3
= 1
2 − 12 1
2
= 1 −1 1
2
1 1
− 12 −1
B ,B2
can.
2 2
1 1
Nota : A matriz de mudanças de bases MB1 ,B2 é a matriz da aplicação linear identidade
id : V −→ V relativamente às bases B1 e B2 ,
Reciprocamente,
M 0 = AM B .
Duas matrizes M, M 0 ∈ Mm×n (K) dizem-se semelhantes se existe uma matriz invertı́vel
A tal que
M 0 = AM A−1 .
Neste caso
AM A−1 = M (f, ψA−1 (B1 ), ψA−1 (B2 ))
92 CONTEÚDO
f (h v i) ⊂ h v i.
Por outra palavras, o vector v 6= ⃗0 é vector próprio de f se existe um escalar λ ∈ K tal que
f (v) = λv.
Se u e v são dois vetores próprios de f associados ao mesmo valor próprio λ, então qualquer
combinação linear w = αu + βv 6= ⃗0 é vector próprio de f associado ao mesmo valor próprio λ.
Demonstração.
Exercı́cio. 2
Designemos por
Eλ (f ) = {v ∈ V | f (v) = λv}
Eλ (f ) = N uc(λ id − f ) .
Endomorfismos e automorfismos
Designemos por L(V ), ou por End(V ), o espaço vectorial das aplicações lineares de V em
V (isto é, dos endomorfismos lineares de V ). Designemos por GL(V ) o conjunto dos auto-
morfismos de V , isto é, das aplicações lineares invertı́veis de L(V ). Este constitui um grupo
para a composição de aplicações, conhecido por grupo linear em V .
Note-se que ∀ f , g , ψ , ϕ ∈ L(V ) , ∀ λ ∈ K temos:
1. ψ ◦ (f + g) = ψ ◦ f + ψ ◦ g ;
2. (f + g) ◦ ϕ = f ◦ ϕ + g ◦ ϕ ;
3. ψ ◦ (λ f ) = λ (ψ ◦ f ) ;
4. (λ f ) ◦ ϕ = λ (f ◦ ϕ) .
De facto
3. Exercı́cio.
4. Exercı́cio.
∀ f , g , ψ ∈ L(V ) , ψ(f + g) = ψf + ψg
∀ f , g , ϕ ∈ L(V ) , (f + g)ϕ = f ϕ + gϕ
∀ λ ∈ K , ∀ f , ψ ∈ L(V ) ψ(λ f ) = λ ψf
∀ λ ∈ K , ∀ f , ϕ ∈ L(V ) (λ f )ϕ = λ f ϕ .
Endomorfismos semelhantes
Sejam f, g ∈ L(V ). Se existe ψ ∈ Aut(V ) tal que g = ψf ψ −1 os endomorfismos f e g
dizem-se semelhantes e escreve-se f ≈ g. É claro que a semelhança determina uma relação
de equivalência em L(V ).
Demonstração.
Note-se que g = ψ f ψ −1 ⇔ ψ −1 g ψ = f . Seja λ um valor próprio de f . Isto significa que existe um vector u 6= ⃗0 tal que
f (u) = λu. Mas então,
f (u) = λu ⇔ ψ −1 g (ψ(u)) = λ u
⇔ g (ψ(u)) = ψ(λ u)
⇔ g (ψ(u)) = λ ψ(u)
i Polinómio caracterı́stico
Fixemos uma base ordenada B = (b1 , . . . , bn ) de V . Designemos por M (f, B) a matriz de f
relativamente à base B, isto
M (f, B) := M (f, B, B) .
Se B 0 = (e1 , . . . , en ) é uma outra base ordenada de V então,
M (f, B 0 ) = MB−1
′ ,B
M (f, B) MB′ ,B
isto é,
Mf = M (f, B) .
Ao polinómio
Pf (x) := |x In − Mf | = det (x In − Mf )
chamamos o polinómio caracterı́stico de f . Note-se que este polinómio é um polinómio de
grau n = dim(V ). Portanto
Pf (x) ∈ Kn [x] .
O termo constante deste polinómio é | − Mf | = (−1)n |Mf |. Logo 0 é raiz de Pf (x) se e só se
|Mf | = 0 ⇔ f não é injectiva.
Pg (x) = |xIn − Mg |
= xIn − Mψ−1 f ψ
= xIn − Mψ−1 Mf Mψ
−1
= xIn − Mψ Mf Mψ
−1 −1
= Mψ xIn Mψ − Mψ Mf Mψ
−1
= Mψ ( xIn − Mf )Mψ
−1
= Mψ xIn − Mf Mψ
−1
= Mψ xIn − Mf Mψ
−1
= Mψ Mψ xIn − Mf
= xIn − Mf
= Pf (x)
2
Demonstração.
x−1 −1 −1
Pf (x) = |xI − Mf | = −1 x −1 = x(x2 − x − 2) = x(x + 1)(x − 2)
0 −1 x
Teorema 73 dim( Eλ (f ) ) ≤ mλ .
Demonstração.
Seja B1 = (b1 , . . . , br ) uma base ordenada do subespaço próprio Eλ (f ). Logo
dim( Eλ (f ) = r .
3
No Livro de António Monteiro ela é designada por multiplicidade algébrica.
12. VALORES E VECTORES PRÓPRIOS 97
Pf (x) = |xIn − Mf |
x. 0 λ. 0
0 .. x 0 0 .. λ A
= −
0 0 xIn−r 0 0 B
x−λ. 0
.
. x−λ −A
= 0
0 0 xIn−r − B
x−λ. 0
= .
. x−λ |xIn−r − B|
0
= (x − λ)r q(x)
mλ ≥ r = dim( Eλ (f ) .
Demonstração.
Ora
dim(Eλ (f ) = dim ( N uc(λid − f ) ) = dim(V ) − Car(λid − f ) = n − Car(λid − f )
= n − Car Mλid−f = n − Car λMid − Mf
= n − Car(λIn − Mf )
2
Exemplos
Exemplo 24
V = espaço vectorial de dimensão n sobre K.
η = aplicação linear nula, η : V −→ V , v 7→ 0.
Relativamente a uma base ordenada fixa B em V , Mη = 0 .
Polinómio caracterı́stico de η : Pη (x) = xn .
A aplicação linear nula η possui um valor próprio distinto, que é 0, de multiplicidade n.
Subespaço vectorial próprio associado ao valor próprio 0:
Exemplo 25
V = espaço vectorial de dimensão n sobre K.
id = aplicação linear identidade, id : V −→ V , v 7→ v.
98 CONTEÚDO
Exemplo 26
V = R2 espaço vectorial de dimensão 2 sobre R.
f : R2 −→ R2 , f (x, y) = (x − y, x + y). h i
1 −1
Relativamente à base ordenada canónica de R2 , Mf = 1 1
.
x−1 1
Polinómio caracterı́stico de f : Pf (x) = −1 x−1
= (x − 1)2 + 1.
A aplicação linear f não possui nenhum valor próprio (real).
f não tem vectores próprios.
Exemplo 27
V = R2 espaço vectorial de dimensão 2 sobre R.
f : R2 −→ R2 , f (x, y) = (x, x − y). h i
1 0
Relativamente à base ordenada canónica de R2 , Mf = 1 −1
.
x−1 0
Polinómio caracterı́stico de f : Pf (x) = −1 x+1
= (x − 1)(x + 1) = x2 − 1.
A aplicação linear f possui dois valores próprios distintos (cada um de multiplicidade 1) que são 1 e −1.
Subespaços vectoriais próprios associados aos valores próprios:
Exemplo 28
V = R2 espaço vectorial de dimensão 2 sobre R.
f : R2 −→ R2 , f (x, y) = (x + y, y). h i
1 1
Relativamente à base ordenada canónica de R2 , Mf = 0 1
.
x−1 −1
Polinómio caracterı́stico de f : Pf (x) = 0 x−1
= (x − 1)2 .
A aplicação linear f possui um valor próprio distinto que é 1 (com multiplicidade 2).
Subespaço vectorial próprio associado ao valor próprio 1:
Logo dim(E1 (f )) = 1 apesar de 1 ser um valor próprio de multiplicidade 2. O subespaço vectorial gerado
pelos vectores próprios de f é h (1, 0) i ∼
= R.
Exemplo 29
V = R2 espaço vectorial de dimensão 2 sobre R.
f : R2 −→ R2 , f (x, y) = (y, 0).
12. VALORES E VECTORES PRÓPRIOS 99
h i
0 1
Relativamente à base ordenada canónica de R2 , Mf = 0 0
.
x −1
Polinómio caracterı́stico de f : Pf (x) = 0
= x2 .x
A aplicação linear f possui um único valor próprio distinto que é 0 com multiplicidade 2.
Subespaço vectorial próprio associado ao valor próprio 0:
E0 (f ) = N uc(f ) = {(x, y) | (y, 0) = (0, 0)} = {(x, 0) | x ∈ R} = h (1, 0) i
Logo dim(E0 (f )) = 1 apesar de 0 ser um valor próprio de multiplicidade 2. O subespaço vectorial gerado
pelos vectores próprios de f é h (1, 0) i ∼
= R.
Exemplo 30
Mais geralmente, V = Rn espaço vectorial de dimensão n sobre R.
f : Rn −→ Rn , f (x1 , x2 , . . . , xn ) = (x2 , x3 , . . . , xn , 0).
Relativamente à base ordenada canónica de Rn ,
0 1 0 0 ... 0
0 0 1 0 ... 0
0 0 0 1 ... 0
Mf = .. .. .. .. .. .
. . . . ... .
0 0 0 0 ... 1
0 0 0 0 ... 0
Polinómio caracterı́stico de f :
x −1 0 0 ... 0
0 x −1 0 ... 0
0 0 x −1 ... 0
Pf (x) = .. .. .. .. .. = xn .
. . . . ... .
0 0 0 0 ... −1
0 0 0 0 ... x
A aplicação linear f possui um único valor próprio distinto que é 0 com multiplicidade n.
Subespaço vectorial próprio associado ao valor próprio 0:
E0 (f ) = N uc(f ) = {(x1 , x2 , . . . , xn ) ∈ Rn | (x2 , x3 , . . . , xn , 0) = (0, 0, . . . , 0, 0)}
= {(x, 0, . . . , 0) | x ∈ R} = h (1, 0, . . . , 0) i
Logo dim(E0 (f )) = 1, isto é, dim(N uc(f )) = 1, apesar de 0 ser um valor próprio de multiplicidade n. O
subespaço vectorial gerado pelos vectores próprios de f é E(f ) = h (1, 0, . . . , 0) i ∼
= R.
Exemplo 31
V = R3 espaço vectorial de dimensão 3 sobre R.
f : R3 −→ R3 , f (x, y, z) = (x − 2y + 5z, 2x + y + z, 3y +"z). #
1 −2 5
Relativamente à base ordenada canónica de R , Mf = 2 2 1 1 .
0 3 1
x−1 2 −5
Polinómio caracterı́stico de f : Pf (x) = −2 x−1 −1 = (x − 4)(x2 + x + 8).
0 −3 x−1
A aplicação linear f possui um valor próprio (de multiplicidade 1) que é 4 (as outras duas raı́zes são
complexas).
Subespaço vectorial próprio associado ao valor próprio 4:
x − 2y + 5z = 4x
E4 (f ) = {(x, y, z) | (x − 2y + 5z, 2x + y + z, 3y + z) = 4(x, y, z)} = {(x, y, z) | 2x + y + z = 4y }
3y + z = 4z
= {(x, y, z) | x = y = z} = {(x, x, x) | x ∈ R} = h (1, 1, 1) i
O subespaço vectorial gerado pelos vectores próprios de f é h (1, 1, 1) i ∼
= R.
100 CONTEÚDO
Eα,β (f ) := Eα (f ) + Eλ (f ) = h Eα (f ) ∪ Eλ (f ) i .
αu = f (u) = λu ⇔ (α − λ)u = ⃗0 ⇒ α = λ ,
Eα,β (f ) = Eα (f ) ⊕ Eλ (f ) ∼
= Eα (f ) × Eλ (f ) .
Mais geralmente,
Demonstração.
Por indução. Tal é trivialmente verdade para um só valor próprio. Suponhamos que o teorema é verdade para quaisquer
m − 1 valores próprios distintos. Sejam λ1 , . . . , λm m valores próprios distintos. Então sendo λ1 , . . . , λm−1 valores próprios
distintos, por hipótese de indução,
Eλ1 , ... ,λm−1 = Eλ1 (f ) ⊕ . . . ⊕ Eλm−1 (f ) (6)
Então por definição
Eλ1 ,...,λm = Eλ1 , ... ,λm−1 + Eλm (f )
12. VALORES E VECTORES PRÓPRIOS 101
u = u1 + · · · + um−1
com u1 ∈ Eλ1 (f ), . . . , um−1 ∈ Eλm−1 (f ) , sendo esta decomposição única. Isto significa que
A como a soma (6) é directa só há uma única maneira de escrever ⃗0,
u1 = u2 = · · · = um−1 = ⃗0 ⇒ u = ⃗0
o que contraria u 6= ⃗0. Logo Eλ1 , ... ,λm−1 ∩ Eλm (f ) = {⃗0} e por conseguinte
Donde tiramos:
Por conseguinte,
dim(E(F )) = dim(Eλ1 (f )) + · · · + dim(Eλm (f )) .
Uma base de E(f ) constituı́da por vectores próprios:
BE(F ) = BEλ1 (f ) ∪ . . . ∪ BEλm (f ) .
ou seja, λ1 = λ2 = · · · = λn = λ e M = λI. 2
a11 0 0 ... 0
a21 a22 0 ... 0
a a32 a33 ... 0
T = 31 .
. .. .. ..
.. . . ... .
an1 an2 an3 ... ann
Então
x-a11 0 0 ... 0
-a21 x-a22 0 ... 0
-a31 -a32 x-a33 ... 0
PT (x) = |xI − T | = = (x − a11 )(x − a22 )(x − a33 ) . . . (x − ann ),
.. .. .. ..
. . . ... .
-an1 -an2 -an3 ... x-ann
PM (x) = x2 − x(a + d) + ad − bc = x2 − Tr M x + |M |.
No caso de K = R, isto é, M ser uma matriz real, o binómio discriminante do polinómio
caracterı́stico de M , ∆ = B 2 − 4AC = Tr M 2 − 4detM , diz-nos que:
" a1 a2 a3 a4
#
No caso de matrizes 4 × 4, M = b1
c1
b2
c2
b3
c3
b4
c4 , temos
d1 d2 d3 d4
X X
PM (x) = x4 − Tr M x3 + ( Mîĵ )x2 − ( |Mî | )x + |M | .
i,j∈{1,2,3,4} i∈{1,2,3,4}
i<j
AB u = λu.
Se Bu 6= 0, esta igualdade diz-nos que λ é valor próprio de BA também. Se Bu = 0, então ABu = 0, ou seja, λu = 0.
Como u 6= 0, então λ = 0. Mas zero é valor próprio de AB se e só se AB é náo injectiva, ou seja, se e só se |AB| = 0.
Como |AB| = |BA|, então |BA| = 0 e BA é também não injectiva, ou seja, BA tem 0 = λ como valor próprio também.
2
Pn
= (x − a1,1 ) P1̂,1̂ + j=2 (−1)
j+1 a
1,j P1̂,ĵ
em que
x-a2,2 -a2,3 ... -a2,n−1 -a2,n
-a3,2 x-a3,3 ... -a3,n−1 -a3,n
P1̂,1̂ = .. .. .. .. = |xIn−1 − M1 | = PM1 (x)
. . ... . .
-an-1,2 -an-1,3 ... x-an-1,n−1 -an-1,n
-an,2 -an,3 ... -an,n−1 x-an,n
12. VALORES E VECTORES PRÓPRIOS 105
Pn j+1 a
é o polinómio caracterı́stico de M1 . O polinómio q(x) = j=2 (−1) 1,j P1̂,ĵ , se não for o polinómio nulo tem grau
menor or igual a n − 2; de facto, cada menor P1̂,ĵ , j ≥ 2, tem menos dois termos em x: ao retirar a linha do a1,j ,
j = 2, 3, 4, . . ., isto é a primeira linha, vai-se o termo x − a1,1 , e ao retira-se a coluna j, vai-se o termo x − aj,j . Pelo
que o determinante P1̂,ĵ é um polinómio em x de grau ≤ n − 2. 2
Demonstração.
De facto, designemos por M1 = M1̂,2̂ , M2 = M11̂,2̂ a submatriz obtida retirando a M1 a primeira linha e primeira
coluna, M3 = M11̂,1̂ , etc. Seja M = [ai,j ] uma matriz quadrada de ordem n. Então PM (x) = |xI − M | é claramente
um polinómio mónico (coeficiente do termo de maior grau é 1) de grau n. Então
Aqui 0 representa a matriz nula. Para o coeficiente c1 de xn−1 , vamos deduzir usando indução sobre a fórmula do item
anterior. Para n = 2, já vimos que PM (x) = x2 − Tr M x + |M | satisfaz a tese. Suponhamos que para toda a matriz
quadrada M de ordem m < n temos PM (x) = xm − Tr M xm−1 + q(x), em que q(x) é um polinómio nulo ou de grau
≤ m − 2. Seja M = [ai,j ] uma matriz quadrada de grau n. Pelo item anterior,
com q1 (x) um polinómio nulo ou de grau ≤ n − 2. Como M1 é uma matriz quadrada de grau n − 1, pela hipótese de
indução, PM1 (x) = xn−1 − Tr M1 xn−2 + q2 (x), com q2 (x) um polinómio nulo ou de grau ≤ n − 3. Substituindo temos:
PM (x) = (x − a1,1 ) xn−1 − Tr M1 xn−2 + q2 (x) + q1 (x)
= xn − a1,1 xn−1 − Tr M1 xn−1 + a1,1 Tr M1 xn−2 + (x − a1,1 )q2 (x) + q1 (x)
= xn − (a1,1 + Tr M1 )xn−1 + q3 (x)
= xn − Tr M xn−1 + q3 (x)
em que q3 (x) = a1,1 Tr M1 xn−2 + (x − a1,1 )q2 (x) + q1 (x) é um polinómio de grau ≤ n − 2, ou eventualmente o polinómio
nulo. 2
Demonstração.
Seja B uma matriz invertı́vel. Então PBM B −1 (x) = xI − BM B −1 = xBIB −1 − BM B −1 = BxIB −1 − BM B −1 =
B(xI − M )B −1 = |xI − M | = PM (x). Atendendo a que Tr AB = Tr BA, então Tr BM B −1 = Tr (BM )B −1 = Tr B −1 (BM ) =
Tr (B −1 B)M = Tr M . 2
O conjunto das matrizes invertı́veis sobre K é um grupo e este grupo denota-se por
GL(n, K).
106 CONTEÚDO
iv Matrizes diagonalizáveis
Uma matriz M ∈ Mn (K) diz-se diagonalizável se M é semelhante a uma matriz diagonal,
isto é, se existe uma matriz invertı́vel A ∈ Mn (K) tal que
d1 0 . . . 0
0 d2 ... 0
A−1 M A = D = .. .. .. ..
. . . .
0 0 ... dn
A−1 M A = D ⇔ M A = AD " #
d1 ... 0
⇔ M [C1 , . . . , Cn ] = [C1 , . . . , Cn ] ..
.
..
.
..
.
0 ... dn
⇔ [M C1 , M C2 , . . . , M Cn ] = [C1 d1 , C2 d2 , . . . , Cn dn ]
⇔ M C1 = d1 C1 , M C2 = d2 C2 , . . . , M Cn = dn Cn
Note-se que d1 , . . . , dn são os valores próprios associados àqueles vectores próprios. Atenção
que estes valores não são necessariamente todos distintos. Alguns dos di podem vir repetidos.
Como A é invertı́vel (C1 , . . . , Cn ) constitui uma base de K n . Portanto se λ1 , . . . , λm são os
valores próprios distintos de M então
Exemplo 32
" #
1 0 0
M= 1 1 0 ∈ M3 (R). O polinómio caracterı́stico é
0 1 −1
x−1 0 0
PM (x) = |xI3 − M | = −1 x−1 0 = (x − 1)2 (x + 1)
0 −1 x+1
12. VALORES E VECTORES PRÓPRIOS 107
" # " #
1−1 0 0 0 0 0
dim(E1 (M )) = 3 − Car(1I3 − M ) = 3 − Car −1 1−1 0 = 3 − Car −1 0 0
0 −1 1+1 0 −1 2
= 3−2=1
" # " #
−1 − 1 0 0 −2 0 0
dim(E−1 (M )) = 3 − Car(−1I3 − M ) = 3 − Car −1 −1 − 1 0 = 3 − Car −1 −2 0
0 −1 −1 + 1 0 −1 0
= 3−2=1
x−3 2 2
PM (x) = |xI3 − M | = −2 x+1 2 = (x − 1)2 (x + 1)
−2 21 x+1
" # " #
1−3 2 2 −2 2 2
dim(E1 (M )) = 3 − Car(1I3 − M ) = 3 − Car −2 1+1 2 = 3 − Car −2 2 2
−2 2 1+1 −2 2 2
= 3−1=2
= 3−2=1
−4 2 2
Note-se que o determinante da matriz −2 0 2 é zero, logo ela tem caracterı́stica ≤ 2. Por outro lado a matriz
−2 2 0
triangular 2 × 2 situada no canto superior direito (ou inferior esquerdo) tem determinante 6= 0, logo a caracterı́stica
da matriz é 2. Alternativamente, a coluna C1 desta matriz é igual a −(C2 + C3 ), logo uma combinação linear destas
últimas, pelo que a caracterı́stica desta matriz é ≤ 2.
Logo B−1 = { (1, 1, 1) }. Portanto BE(M ) = ( (1, 1, 0) , (1, 0, 1) , (1, 1, 1) ) é uma base ordenada de
E(M ) = R3 constituı́da por vectores próprios. Consequentemente a matriz
1 1 1 1 0 −1
A = 1 0 1 , cuja inversa é A−1 = 1 −1 0 ,
0 1 1 −1 1 1
diagonaliza M :
1 0 0
A−1 M A = 0 1 0
0 0 −1
O primeiro elemento da diagonal (da matriz diagonal) é o valor próprio associado ao vector próprio
correspondente à primeira coluna de A, o segundo elemento da diagonal é o valor próprio associado à
segunda coluna de A enquanto que o 3o elemento da diagonal é o valor próprio associado à 3a coluna
de A.
Então f é diagonalizável se e só se existe uma matriz A = [C1 , . . . , Cn ] invertı́vel tal que
−1
A Mf A = D. Seja ψ ∈ L(V ) a aplicação linear invertı́vel definida por
( ψ(bi ) )B = Ci , i = 1, . . . , n
Então temos
Mψ = A
e por conseguinte
f é diagonalizável
⇔ existe ψ ∈ GL(V ) tal que f (ψ(bi )) = λi ψ(bi ) , i = 1, . . . , n ,
⇔ ∃ ψ ∈ GL(V ) tq ( ψ(b1 ), ψ(b2 ), . . . , ψ(bn ) ) é uma base de vectores próprios de f
⇔ V possui uma base constituı́da por vectores próprios de f
e multiplicação escalar
(αf )(x) := α f (x) .
Notações: Na literatura encontramos diversas notações para o produto interno. Eis as mais
vulgares:
• : V ×V −→ R
(u, v) 7−→ u•v
tal que:
Teorema 83 O produto interno (real) é uma aplicação bi-linear, isto é, também é linear na
segunda entrada:
u • (αv1 + βv2 ) = α (u • v1 ) + β (u • v2 )
4
Seja V um espaço vectorial sobre K. Uma forma é uma aplicação de V × V −→ K.
13. PRODUTOS INTERNOS EM ESPAÇOS VECTORIAIS REAIS 111
Demonstração.
Da simetria e da linearidade na 1a entrada sai a linearidade na 2a entrada:
Sendo o produto interno uma aplicação bi-linear então para cada v ∈ V ela induz duas
aplicações lineares, uma fixando v na 1a entrada e a outra fixando v na 2a entrada:
ϕe : V −→ R
x 7−→ ϕev (x) := v • x
ϕd : V −→ R
x 7−→ ϕdv (x) := x • v
Exemplos 2 1. Em V = R × R a aplicação
(x1 , x2 ) •c (y1 , y2 ) := x1 y1 + x2 y2
2. Em V = R3 a aplicação
é um produto interno.
Rb Rb
(b) Simetria: Porque f (x)g(x) = g(x)f (x) temos a f (x)g(x)dx = a g(x)f (x)dx isto é, f •g = g•f .
Rb Rb
(c) Definida positiva: f • f = a (f (x))2 dx ≥ 0. Mais, f • f = 0 ⇔ a (f (x))2 dx = 0 ⇔ f (x)2 =
0, ∀ x ∈ [a, b] ⇔ f (x) = 0, ∀ x ∈ [a, b] ⇔ f = 0.
(d) Note-se que F (V × V, R) é um espaço vectorial real.
Sejam •1 , •2 ∈ F (V × V, R) dois produtos internos no espaço vectorial real V .
Então para todo a, b ∈ ]0, ∞[ , a •1 + b •2 é ainda um produto interno em V . (Exercı́cio).
Isto é,
Demonstração.
(1) Óbvio.
Mostremos finalmente que a igualdade ocorre se e só se u e v são linearmente dependentes. Se um do vectores é o vector nulo,
isto é, se u = ⃗0 ou v = ⃗0, então (u • v)2 = (u • u) (v • v), e u e v são linearmente dependentes. Portanto, se falhar a veracidade
desta proposição só o pode acontecer quando u 6= ⃗0 e v 6= ⃗0. Sejam então u 6= ⃗0 e v 6= ⃗0.
( ⇐ ) Sem perda de generalidade suponhamos que v = αu. Então (u • v)2 = (u • αu)2 = α2 (u • u)(u • u) = (αu • αu)(u • u) =
(v • v)(u • u).
√
kvk := v•v.
(1) kvk = 0 ⇔ v = ⃗0 .
Demonstração.
1. Exercı́cio.
p √ √
2. kαvk2 = (αv) • (αv) = α2 (v • v). Logo kαvk = α2 (v • v) = α2 v • v = |α| kvk.
3. A raiz quadrada é uma função crescente5 no seu domı́nio por isso aplicando a raiz quadrada à desigualdade de Schwartz
obtemos q p p
(u • v)2 ≤ (u • u) (v • v) ⇔ |u • v| ≤ (u • u) sqrt(v • v) = kuk kvk
ou seja, pelo ponto (3), u e v são linearmente dependentes. Sem perda de generalidade suponhamos que v = λu 6= 0
(pois a igualdade ocorre trivialmente para v = ⃗0 ou u = ⃗0). Então
2
√ √
5
0≤ x<y ⇒ x< y.
13. PRODUTOS INTERNOS EM ESPAÇOS VECTORIAIS REAIS 115
u • v = u • (β1 b1 + · · · + βn bn )
Pn
= j=1 (u • bj ) βj
Pn
= j=1 ((α1 b1 + · · · + αn bn ) • bj ) βj
Pn Pn
= j=1 ( i=1 αi (bi • bj ) ) βj
" b1 • bj
# " b1 • bj
#
Pn .. ..
= j=1 ( [α1 , . . . , αn ] . ) βj , designando Cj := .
bn • bj bn • bj
Pn
= j=1 [α1 , . . . , αn ]Cj βj
" β1
#
..
= [α1 , . . . , αn ][C1 , . . . , Cn ] .
βn
" β1
#
..
= [α1 , . . . , αn ]M .
βn
A matriz
b1 • b1 . . . b 1 • bn
.. ..
M = [C1 , . . . , Cn ] = . . = [bi • bj ]
bn • b1 . . . b n • bn
chama-se a matriz da métrica do produto interno na base B (ou relativamente à base B).
Por este motivo designaremos por MB esta matriz M. Porque bi • bj = bj • bi , a matriz da
métrica é uma matriz simétrica, isto é,
|
MB = MB .
" β1
#
|
u • v = (u)B MB (v)B = [α1 , . . . , αn ]MB ..
.
βn
116 CONTEÚDO
Exemplo 33 Em V = R3 ∼
= R2 [x] consideremos o produto interno
x • y = x1 y1 + 2x2 y2 + x1 y2 + x2 y1 + x3 y3
e determinemos a matriz da métrica na base ordenada canónica B = (b1 , b2 , b3 ) em que b1 = (1, 0, 0),
b2 = (0, 1, 0) e b3 = (0, 0, 1). Para isso vamos usar um mnemónica para poder calcular aquele produto
interno mais rapidamente:
x1 x2 x3 1 3 2 0 1 0 1 0 0
2 Exemplo: 2 2 2
y1 y2 y3 -1 1 0 0 1 0 0 0 1
x1y1 + x1y2 + y1x2 + 2 x2y2 + x3y3 -1+1-3+6+0=3 0+0+0+2+0=2 0+0+0+0+0=0
Demonstração.
Ora MB1 = [bi • bj ] e MB2 = [ei • ej ] . Seja
e1 ... en
MB2 ,B1 = ε11 ... ε1n b1
: : :
εn1 ... εnn bn
Então, (ei )B1 = (ε1i , . . . , εni ) e (ej )B1 = (ε1j , . . . , εnj ) . Por conseguinte,
ε1j
| ..
ei • ej = (ei )B1 M (ej )B [ε1i , . . . , εni ] MB1 .
=
1
εnj
↑ ↑
linha de coluna de
|
MB MB2 ,B1
2 ,B1
Portanto
|
MB2 = [ei • ej ] = MB MB1 MB2 ,B1 .
2 ,B1
Então
b1 •c b1 b1 •c b2 b1 •c b3 1 0 0
MB1 = MBc = [bi •c bj ] = b2 •c b1 b2 •c b2 b2 •c b3 = 0 1 0 = I3
b3 •c b1 b3 •c b2 b3 •c b3 0 0 1
e
e1 •c e1 e1 •c e2 e1 •c e3 2 1 1
MB2 = [ei •c ej ] = e2 •c e1 e2 •c e2 e2 •c e3 = 1 2 1
e3 •c e1 e3 •c e2 e3 •c e3 1 1 2
Vamos confirmar este resultado com o Teorema 86.
e1 e2 e3
MB2 ,B1 = 0 1 1 b1
1 0 1 b2
1 1 0 b3
Pelo que,
| | |
MB2 = MB2 ,B1 MB1 MB2 ,B1 = MB2 ,B1 I3 MB2 ,B1 = MB2 ,B1 MB2 ,B1
0 1 1 0 1 1 2 1 1
= 1 0 1 1 0 1 = 1 2 1
1 1 0 1 1 0 1 1 2
O que confirma o resultado.
µ
µ
v1 v1
Se u e v são dois vectores não nulos então kuk kvk 6= 0, pelo que, dividindo por kukkvk
ambos os membros da desigualdade de Schwarz, temos
|u • v| u•v
≤ 1 ⇔ −1 ≤ ≤1
kuk kvk kuk kvk
O coseno é uma função bijectiva, e decrescente, de [0, π] −→ [−1, 1], pelo que existe um
único θ ∈ [0, π] tal que
u•v u•v
cos(θ) = ⇔ θ = arccos( ). (7)
kuk kvk kuk kvk
Ao valor θ ∈ [0, π] único que satisfaz (7) chama-se ângulo dos dois vectores não nulos u e v,
e escrevemos
^(u, v) = θ .
Note-se que (7) é equivalente a
118 CONTEÚDO
Mais,
^(v, v) = 0 .
^(u, v) = ^(v, u) .
iv Ortogonalidade
Dois vectores não nulos u e v dizem-se ortogonais (ou perpendiculares) se ^(u, v) = π
2
.
Quando u e v são ortogonais escrevemos u⊥v.
u⊥v ⇔ u • v = 0.
v⊥u ⇔ u⊥v .
v⊥u ⇒ v⊥λu , ∀ λ 6= 0.
v⊥U ⇔ v • u = 0 , ∀ u ∈ U .
¼ ¼
2 2
kuk kuk
Demonstração.
ku ± vk2 = (u ± v) • (u ± v) = u • u + v • v ± 2(u • v) = u • u + v • v = kuk2 + kvk2 . 2
(
0 , se i 6= j
{v1 , v2 , . . . , vn } é ortonormado ⇔ vi • vj = .
1 , se i = j
e vejamos se a ortogonalidade do sistema implica que a combinação linear nula é a trivial. Por hipótese temos vi • vj = 0,
∀ i 6= j. Então para i = 1, . . . , n temos
X
n X
n
0 = vi • ( αj vj ) = αj (vi • vj ) = αi (vi • vi )
j=1 j=1
Como vi 6= ⃗0 então vi • vi 6= 0 e, por conseguinte, αi (vi • vi ) = 0 ⇒ αi = 0, (i = 1, . . . , n). Portanto a combinação linear nula
é a trivial, e por conseguinte, os vectores são linearmente independentes. 2
120 CONTEÚDO
Calcule a norma do vector u = (2, −1). Encontre um vector v que faça um ângulo de π
3 com u.
√ p √ √
Resolução: kuk = u • u = (2, −1) • (2, −1) = 4 − 4 − 4 + 5 = 1 = 1.
π
Vamos procurar um vector v de norma 1 que faz um ângulo de 3 com u. Seja v = (a, b). Então
Por conseguinte,
( ( ( (
kvk2 = 1 (a + 2b)2 + b2 = 1 (a + 2b)2 + b2 = 1 (a − 1)2 = 3
⇔ ⇔ ⇔ 4
∠(v, u) = 60o v • u = kvkkukcos(60o ) −b = 1
2 ⇔ b = − 21 b = − 21
q √ √ √
Uma solução é a − 1 = 3
4 = 2
3
⇔ a= 2+ 3
2 e b = − 12 , isto é, v = ( 2+2 3 , − 12 ).
é normado e satisfaz h B i = h B 0 i.
vi Espaço ortogonal
Seja V um espaço vectorial real com um produto interno. Seja ∅ 6= X ⊂ V . Definimos
espaço ortogonal de X ao seguinte conjunto
⊥
X := { v ∈ V | v • x = 0 , ∀ x ∈ X } .
⊥
Se X = {x} é constituı́do por um elemento apenas ao espaço ortogonal {x} denotamos
⊥
mais simplesmente por x .
Designemos por X ∗ = X\{⃗0} e convencionemos que ⃗0⊥v para qualquer v ∈ V , uma vez
que ⃗0 • v = 0, ∀ v ∈ V . Se X ∗ 6= ∅ então
⊥
X = {v ∈ V | v⊥x , ∀ x ∈ X ∗ } .
Se X ∗ = ∅ então X = {⃗0} e
⃗0 ⊥ = V .
Lembrando que ϕdx é a aplicação linear
ϕdx : V −→ R
v 7−→ v • x
temos que,
13. PRODUTOS INTERNOS EM ESPAÇOS VECTORIAIS REAIS 121
⊥
x = {v ∈ V | v • x = 0} = {v ∈ V | ϕdx (v) = 0} = N uc(ϕdx ) < V .
Teorema 90 Seja V um espaço vectorial real com um produto interno. Seja X um subcon-
junto não vazio de V . Então:
⊥
(1) X é um subespaço vectorial de V .
⊥ ⊥
(2) X ⊂ Y então Y ⊂X
⊥ ⊥
(3) X ⊂ (X )
⊥ ⊥
(4) Se X ∩ X 6= ∅, então X ∩ X = {⃗0}.
⊥
(5) ∀ U < V , U ∩ U = {⃗0} .
Demonstração.
⊥ T T ⊥
(1) X = x∈X {v ∈ V | v • x = 0} = x∈X x < V .
⊥
(2) Seja v ∈ Y qualquer. Isto significa que v • y = 0, ∀ y ∈ Y . Como X ⊂ Y , então em particular, v • x = 0, ∀ x ∈ X ⇔
⊥
v∈X .
⊥ ⊥ ⊥ ⊥ ⊥
(3) Seja x ∈ X qualquer. ∀v ∈ X , v•x=0 ⇔ x•v =0 ⇔ x ∈ (X ) . Logo X ⊂ (X ) .
⊥ ⊥
(4) Seja x ∈ X ∩ X . Então, porque x ∈ X , e x ∈ X, x • x = 0 ⇔ x = ⃗0.
(5) Imediato porque a intersecção de subespaços vectoriais contém sempre o vector nulo.
Demonstração.
S
Seja W = h A i. Então W < V (exercı́cio) e como X ⊂ W (exercı́cio) então h X i ⊂ W . Por outro lado, é óbvio que
A⊂X
finito
A
W ⊂ h X i pois trata-se de combinações lineares finitas de elementos de X. Juntando as duas informações temos, h X i = W 2
Teorema 92 Seja V um espaço vectorial real com um produto interno. Seja X um subcon-
junto não vazio de V . Então
⊥ ⊥
hX i = X .
Demonstração.
⊥ ⊥
⊂ : Como X ⊂ h X i então pelo Teorema 90.3, h X i ⊂X .
⊥ ⊥
⊃ : Seja v ∈ X qualquer. Isto significa que v • x = 0, ∀ x ∈ X. Mostremos que v ∈ h X i . Seja w ∈ h X i. Pelo Lema 91,
existe A = {x1 , . . . , xk } ⊂ X tal que w ∈ h A i. Isto é, w = α1 x1 + · · · + αk xk para alguma sequência α1 , . . . , αk ∈ R.
Então,
v • w = v • (α1 x1 + · · · + αk xk ) = α1 (v • x1 ) + · · · + αk (v • xk ) = 0.
⊥
Como w é qualquer, então v ∈ h X i . 2
122 CONTEÚDO
v
x w
g
f
0 1
R1
Então f (x)g(x) ≥ 0 e não é a função nula, logo o integral f • g = 0 f (x)g(x)dx = área da função não
⊥
negativa e não nula f (x)g(x), logo f • g > 0, o que contradiz g⊥U . Portanto U = {0}. Logo a soma
⊥ ⊥
U ⊕ U = U e não V , ou seja U não é um complemento de U .
Se o espaço vectorial for de dimensão finita, isto é, no caso dos espaços euclidianos, já
⊥
todo o ortogonal U é um espaço complementar de U :
Usando o método de Gram-Schmidt e a base B1 construimos uma base ortogonal B1′ = (u′1 , . . . , u′m ) para U e completemo-
la (continuando a usar o método Gram-Schmidt) a uma base ortogonal B ′ = (u′1 , . . . , u′m , e′m+1 , . . . , e′n ) de V . Então W =
h e′m+1 , . . . , e′n i é um complemento ortogonal de U . É um complemento por construção (V = U + W e dim(W ) = n − m =
dim(V ) − dim(U )) e é ortogonal a U por construção. 2
Este teorema diz-nos que num espaço euclidiano (dimensão finita) um espaço ortogonal
⊥
U de U é um complemento de U .
Demonstração.
⊥ ⊥ ⊥ ⊥ ⊥ ⊥ ⊥
Como U ⊂ (U ) mostremos que (U ) ⊂ U . Seja ⃗0 6= v ∈ (U ) . Então v • w = 0, ∀ w ∈ U . Ora por hipótese,
⊥ ⊥
v = u + w para algum u ∈ U e w ∈ U . Como w ∈ U , então
v•w =0 ⇔ (u + w) • w = 0
⇔ u•w+w•w =0
⇔ w•w =0
⇒ w = ⃗0 .
Logo v = u ∈ U .
124 CONTEÚDO
⊥ ⊥
Mostremos que U ⊂ W . Seja v ∈ U . Isto significa que v • u = 0, ∀ u ∈ U . Como W + U = V e v ∈ V , seja v = w + u
com w ∈ W e u ∈ U . Então
v • u = 0 ⇔ (w + u) • u = 0
⇔ w•u+u•u=0
⇔ u•u=0
⇒ u = ⃗0 .
Logo v = w ∈ W . 2
Demonstração.
⊥
Seja v ∈ (A + B) . Então v • w = 0, ∀ w ∈ A + B. Como A ⊂ A + B e B ⊂ A + B então
⊥ ⊥ ⊥ ⊥
v • a = 0, ∀ a ∈ A ∧ v • b = 0, ∀ b ∈ A ⇔ v∈A ∧ v∈B ⇔ v∈ A ∩B .
⊥
Seja W = U ⊕ U < V . Então
⊥ ⊥ ⊥ ⊥ ⊥ ⊥ ⊥
W = (U ⊕ U ) ⊂ U ∩ (U ) = U ∩ U = {⃗0} .
⊥ ⊥ ⊥ ⊥
Por conseguinte, W = (W ) = ⃗0 = V , isto é, U ⊕U =V. 2
v
v2 v2 = v - Proj (v)
W
Proj (v)
W
W
Repare-se que este vector projW (v) se existir é único. De facto, se w1 e w2 são dois vectores
de W tal que (v − w1 )⊥W e (v − w2 )⊥W , então
kw1 − w2 k2 = kw1 k2 + kw2 k2 − 2w1 • w2
Como 0 = (v − w1 ) • w2 = v • w2 − w1 • w2 , temos que w1 • w2 = v • w2 . Analogamente, de
(v − w2 ) • w1 = 0 tiramos que w1 • w2 = v • w1 . Mas de (v − w1 ) • w1 = 0 e de (v − w2 ) • w2 = 0
tiramos que v • w1 = kw1 k2 e que v • w2 = kw2 k2 . Logo w1 • w2 = kw1 k2 = kw2 k2 e por
conseguinte, kw1 − w2 k2 = 0 o que implica que w1 = w2 .
13. PRODUTOS INTERNOS EM ESPAÇOS VECTORIAIS REAIS 125
Já num espaço euclidiano a projecção ortogonal de qualquer vector v sobre qualquer
subespaço vectorial W existe.
Propriedades da projecção ortogonal:
projW (⃗0) = ⃗0 ;
∀ v ∈ V , projW (v) ∈ W ;
⊥
∀ v ∈ V , v − projW (v) ∈ W ;
∀v ∈ V , ∀w ∈ W , v • w = projW (v) • w ;
v
v2 v2
w hwi
v1
v1= Proj (v)
hwi
Como proj⟨ w ⟩ (v) ∈ h w i então proj⟨ w ⟩ (v) = αw. E como v − proj⟨ w ⟩ (v) = v − αw ⊥h w i
temos que
v•w
(v − αw) • w = 0 ⇔ v • w = αkwk2 ⇔ α = .
kwk2
v•w
Portanto, P roj⟨ w ⟩ (v) = α w = kwk2
w.
z Calculemos agora a projecção proj⟨ w1 ,...,wm ⟩ (v) de v sobre um subespaço vectorial W =
h w1 , . . . , wm i de dimensão m.
126 CONTEÚDO
v
v2 v2
w2 Proj (v)=v1
W
w1
v1
W
Ou seja,
v • wi
v • wi = αi kwi k2 ⇔ αi = .
kwi k2
Portanto, se {w1 , w2 , . . . , wm } é um sistema ortogonal,
Portanto, num espaço euclidiano todo o vector projecta-se ortogonalmente sobre qualquer
⊥
subespaço vectorial U e sobre o seu complemento ortogonal U .
Mostremos, por indução, que B ′ é ortogonal. Vimos já na introdução anterior que (b′1 , b′2 ) é ortogonal. Suponhamos que
(b1 , . . . , b′m−1 ) é ortogonal. Mostremos que (b′1 , . . . , b′m+1 ) também é ortogonal, isto é, que b′m ⊥b′j = 0 ⇔ b′m • b′j = 0 ,
para j = 1, . . . , m − 1.
Pm−1
bm •b′t
b′m • b′j = bm − t=1 ∥b′t ∥2
b′t • b′j
Pm−1 bm •b′t
= bm • b′j − t=1 ∥b′t ∥2
b′t • b′j , b′t • b′j = 0 para t 6= j
bm •b′j
= bm • b′j − ∥b′j ∥2
b′j • b′j
bm •b′j
= bm • b′j − ∥b′j ∥2
kb′j k2
= bm • b′j − bm • b′j = 0 .
Mostremos agora, também por indução, que h b′1 , . . . , b′i i = h b1 , . . . , bi i. Como b′1 = b1 , é imediato que h b′1 i = h b1 i.
Suponhamos que h b′1 , . . . , b′i−1 i = h b1 , . . . , bi−1 i e mostremos que h b′1 , . . . , b′i−1 , b′i i = h b1 , . . . , bi−1 , bi i . Como
X
i−1
bi • b′j X
i−1
b′i = bi − b′i = bi − αj b′i (8)
j=1
kb′j k2 j=1
e por conseguinte
{b1 , . . . , bi } ⊂ {b′1 , . . . , b′i } ⇒ h b1 , . . . , bi i < h b′1 , . . . , b′i i .
2
x Distâncias
Seja V um espaço. Uma distância em V é uma aplicação d : V × V −→ R+ que satisfaz:
d(u, v) = d(v, u) (simétrica).
d(u, v) ≥ 0 , e d(u, v) = 0 ⇔ u = v . (“Definida positiva”).
d(u, v) ≤ d(u, w) + d(w, v), ∀ u, w, v ∈ V (Desigualdade triangular).
Teorema 98 Seja V um espaço vectorial real com um produto interno. A aplicação d :
V × V −→ R+ , definida por d(u, v) = ku − vk é uma distância em V .
Demonstração.
Consequência directa (transcrição) das propriedades das normas. Exercı́cio. 2
Exercı́cio 6 Sejam V um espaço vectorial real com um produto interno e v, u ∈ V . Mostre que:
d(v, X) = M in d(v, x) .
x∈X
Portanto,
se existe x0 ∈ X tal que d(v, x0 ) ≤ d(v, x), ∀ x ∈ X, então d(v, x0 ) = d(v, X).
Demonstração.
Como projW (v) ∈ W Só temos que mostrar que d( v , projW (v) ) é a menor das distâncias d(v, w) quando w ∈ W , isto é,
d(v, projW (v)) ≤ d(v, w) ⇔ d(v, projW (v))2 ≤ d(v, w)2 , ∀w ∈ W
De facto,
d(v, projW (v))2 ≤ d(v, projW (v))2 + d(projW (v), w)2 =
= kv − projW (v)k2 + kprojW (v) − wk2
= kv − projW (v)k2 + (projW (v) − w) • (projW (v) − w)
= kv − projW (v)k2 + kprojW (v)k2 + kwk2 − 2 projW (v) • w
| {z } | {z }
teorema de Pitágoras v•w
x1 x2 x3 x4
1 1
2 2
y1 y2 y3 y4
1. Construção de uma base ortogonal. Neste caso é de todo conveniente usar o método de Gram-
Schmidt (G-S), pois agora precisamos de modificar uma determinada base numa base ortogonal.
w • u′ ′ w • v ′ ′
w′ = w − proj⟨ u′ ,v′ ⟩ w = w − u − ′ 2 v = w + u′ − 2v ′ = (0, 0, 0, 2) e kw′ k = 2
ku′ k2 kv k
| {z } | {z }
=−1 =2
Normalização:
√ √
ku′ k = u′ • u′ = 1=1 ∴ u′ é normado (unitário).
√ √
kv ′ k =v ′ • v ′ = 1 = 1 ∴ v ′ é normado (unitário).
√ √ w′
kw′ k = w′ • w′ = 4 = 2 seja w′′ = ∥w ′ ∥ = (0, 0, 0, 1)
Portanto
1
(u′ , v ′ , w′′ ) = ( (1, −1, 0, 0) , (1, 1, 1, 0) , (0, 0, 0, 1) )
2
é uma base ortonormada de U .
130 CONTEÚDO
3. Seja x = (2, 2, −4, 1). Então tomando a base ortonormada (u, v ′ , w′′ ) de U , temos
= v ′ + w′′ = ( 21 , 12 , 12 , 0) + (0, 0, 0, 1)
= ( 12 , 12 , 21 , 1)
proj ⊥
(x) = proj⟨ (1,1,−3,0) ⟩ (x)
U
x • (1, 1, −3, 0)
= (1, 1, −3, 0)
k(1, 1, −3, 0)k2
| {z }
18 3
12 = 2
2 (1, 1, −3, 0)
3
=
5. d(x, U ) = d(x, P rojU (x)) = d((2, 2, −4, 1), ( 12 , 12 , 12 , 1)) = k(2, 2, −4, 1) − ( 12 , 12 , 12 , 1)k = k( 23 , 32 , − 92 , 0)k
√ √
= 27 = 3 3 .
xi Últimos exercı́cios
Exercı́cio 7 Seja V = T2 (R) o espaço vectorial constituı́do pelas matrizes 2 × 2 em R que são triangulares
superiores. Considere a seguinte aplicação
f: V −→ V
h i h i
a b c a+b+c
0 c
7−→ 0 a
Logo
0 0 1
Mf = M (f, B, B) = 1 1 1
1 0 0
V −→ R3 −→ R3 −→ V
| |
v 7−→ (v)B 7−→ Mf (v)B = (f (v))B 7−→ f (v)
" #
h i a 0 0 1 " a # " c
#
h i
7−→ 1
a b c a+b+c
0 c
7−→ b 1 1 b = a+b+c 7−→ 0 a
c 1 0 0 c a
B B
x 0 −1
Pf (x) = |x I3 − Mf | = −1 x−1 −1 = (x − 1)(x2 − 1) = (x − 1)2 (x + 1)
−1 0 x
h i h i h i h i
a b c a+b+c a b a b
7) E1 (f ) = {v ∈ V | f (v) = 1v} = { 0 c ∈ V | 0 = } = { ∈V |a=
h i h i h a i 0 c 0 c
0 b 0 1 0 1
c = 0} = { 0 0 | b ∈ R} = {b 0 0 | b ∈ R} = h 0 0 i = h b2 i.
h i h i h i h i
a b c a+b+c −a −b a b
E−1 (f ) = {v ∈ V | f (v) = −v} = { 0 c ∈ V | 0 = } = { ∈V |
h i h i a
h 0
i−c 0 c
a 0 1 0 1 0
c = −a, b = 0} = { −a 0 | a ∈ R} = {a −1 0 | a ∈ R} = h −1 0 i = h b1 − b3 i.
h i h i
0 1 1 0
Logo E1,−1 = h 0 0
, −1 0 i = h b2 , b1 − b3 i.