III
No Capı́tulo II aprendemos vários conceitos acerca de espaços vetoriais tal como subespaço,
gerador e dependência linear. O conceito mais importante da teoria dos espaços vetoriais é
provavelmente o da base: as bases permitem-nos transportar cada problema num espaço vetorial
V para um problema equivalente em Rn , onde tipicamente temos métodos mais eficientes. Por
outro lado, nem todo o espaço vetorial tem uma base, e nesta secção estudaremos métodos mais
gerais para traduzir problemas num espaço em problemas relacionados num outro espaço.
Recordamos que cada base B num espaço vetorial V define a função V → Rn que associa a
cada vetor v o vetor [v]B de coordenadas de v relativamente à base B, e esta função é compatı́vel
com as operações definidas nos espaços vetoriais no sentido do Teorema II.4.3. De forma mais
geral, nesta secção consideramos as funções entre os espaços vetoriais que preservam as operações.
f (0) = 0
porque f (0) = f (0 · 0) = 0 · f (0) = 0. Nesta linguagem, o Teorema II.4.3 afirma que a função
[−]B : V → Rn é uma transformação linear, para cada base B = (v1 , . . . , vn ) num espaço vetorial
V . Para ilustrar o conceito de transformação linear, apresentamos agora dois exemplos simples.
51
52 III.1. Transformações lineares
idV : V −→ V, v 7−→ v
g ◦ f (u + v) = g(f (u + v))
= g(f (u) + f (v)) (porque f é linear)
= g(f (u)) + g(f (v)) (porque g é linear)
= g ◦ f (u) + g ◦ f (v).
0 = α1 · v1 + · · · + αn · vn ;
e por isso
0 = f (α1 · v1 + · · · + αn · vn ) = α1 · f (v1 ) + · · · + αn · f (vn );
o que significa que a sequência (f (v1 ), . . . , f (vn )) é linearmente dependente em W . Portanto,
podemos concluir que f preserva a dependência linear; equivalentemente, f reflete a inde-
pendência linear:
Capı́tulo III. Transformações entre espaços 53
Exemplo III.1.5. No espaço V = F(R, R) das funções reais, a sequência (sen, cos) de vetores é
linearmente independente? Infelizmente, aqui não podemos ir pelo caminho mencionado acima
porque V = F(R, R) não tem uma base1 . Contudo, a Proposição III.1.3 permite fazer algo
parecido: em lugar de uma base, procuramos uma transformação linear apropriada que associa
a cada elemento de V uma sequência de números reais.
Para responder a questão concreta deste exemplo, consideramos a função linear
π
F : V −→ R2 , f 7−→ (f (0), f ( )).
2
Em particular, F (sen) = (sen(0), sen( 2 )) = (0, 1) e F (cos) = (cos(0), cos( π2 )) = (1, 0). Como a
π
sequência ((0, 1), (1, 0)) é linearmente independente em R2 , com a Proposição III.1.3 concluı́mos
que (sen, cos) é linearmente independente em V . Salientamos que a escolha dos pontos 0 e π2 que
definem a função F depende do problema em causa. Se, por exemplo, escolhermos os pontos 0
e 2π, ou seja, se consideramos a transformação linear
G : V −→ R2 , f 7−→ (f (0), f (2π)),
a imagem da sequência (sen, cos) em V é a sequência ((0, 1), (0, 1)) em R2 , e esta sequência
é linearmente dependente. Mas a Proposição III.1.3 não fala sobre esta situação; de facto, a
função G não ajuda a estudar a dependência linear da sequência (sen, cos).
Como um segundo exemplo, consideremos as funções f1 , f2 , f2 : R → R definidas por
10
f1 (x) = x2 + 1, f2 (x) = , f3 (x) = 2x .
1 + x2
1
Recordamos que neste texto as bases são finitas.
54 III.1. Transformações lineares
5 2 4 0 0 1
((1, 2, 5), (10, 5, 2), (1, 2, 4)) é linearmente independente em R3 e por isso (f1 , f2 , f3 ) é linearmente
independente em V .
Além dos exemplos apresentados acima, várias construções com vetores definem trans-
formações lineares. Já mencionamos o cálculo de coordenadas. O cálculo de combinações lineares
é outro exemplo deste tipo.
Exemplos III.1.7. Começamos por observar que as seguintes construções definem transformações
lineares:
(1). troca de duas componentes
fi↔j : Rn −→ Rn , (x1 , . . . , xi , . . . , xj , . . . , xn ) 7−→ (x1 , . . . , xj , . . . , xi , . . . , xn );
(2). multiplicação de uma componente por um número
fαi : Rn −→ Rn , (x1 , . . . , xi , . . . , xn ) 7−→ (x1 , . . . , αxi , . . . , xn );
(3). adição de um múltiplo de uma componente a uma outra componente
fj+αi : Rn −→ Rn , (x1 , . . . , xi , . . . , xj , . . . , xn ) 7−→ (x1 , . . . , xi , . . . , αxi + xj , . . . , xn ),
com i 6= j.
Para uma matriz A do tipo n × m, se interpretamos as colunas ai de A como elementos de Rn ,
Capı́tulo III. Transformações entre espaços 55
Acabamos esta secção com uma construção de novos espaços vetoriais a partir de trans-
formações lineares.
de h e k e o α-múltiplo
α · h : V −→ W, v 7−→ α · h(v)
de h são transformações lineares. Assim, de forma semelhante ao Exemplo II.2.2 (3), obtém-se
o espaço vetorial Lin(V, W ) de todas as transformações lineares f : V → W . Dada também uma
transformação linear f : V → E, verifica-se facilmente que a função
Lin(E, W ) −→ Lin(V, W ), h 7−→ h ◦ g
é linear; e, da forma semelhante, para cada espaço vetorial U , a função
Lin(U, V ) −→ Lin(U, W ), k 7→ g ◦ k
é uma transformação linear.
Esta afirmação segue do facto que cada elemento de V é combinação linear dos elementos de
S. Mais concretamente, suponhamos que f e g coincidem em S e seja v ∈ V . Como hSi = V ,
temos v = α1 · u1 + · · · + αn · un com α1 , . . . , αn ∈ R e u1 , . . . , un ∈ S; e por isso
Teorema III.2.2. Sejam V e W espaços vetoriais e B = (v1 , . . . , vn ) uma base de V . Para cada
sequência (w1 , . . . , wn ) de vetores em W , existe uma única transformação linear f : V → W com
f (v1 ) = w1 , f (v2 ) = w2 , . . . e f (vn ) = wn .
)
V / Rn /W .
[−]B L(w1 ,...,wn )
Capı́tulo III. Transformações entre espaços 57
Já observarmos antes que [−]B e L(w1 ,...,wn ) são transformações lineares, logo f é linear. Final-
mente, o Teorema III.2.1 implica que f é a única transformação linear com estas propriedades.
Resumindo, transformações lineares são completamente determinadas considerando apenas
geradores e podem ser definidas arbitrariamente em bases.
f (−2, 4) = f (−3(1, −1)+1(1, 1)) = −3f (1, −1)+1f (1, 1) = −3(1, 2, 3)+1(1, 1, 1) = (−2, −5, −8).
A palavra “isomorfismo” tem a sua origem nas palavras gregas ισoς (isos, em português:
“igual”) e µo%ϕη (morphe, em português: “forma”). De facto, o conceito de isomorfismo é
utilizado em todas as áreas de matemática exatamente neste sentido: estabelecer que dois objetos
tem as mesmas caraterı́sticas. Mais especificamente, procura-se dois processos de tradução –
ou seja: duas funções – que são mutuamente inversos e respeitam estas caraterı́sticas; aqui o
significado de “caraterı́stica” depende do contexto.
Agora pode-se perguntar: Porque devemos procurar isomorfismos?. Para responder, começamos
com a observação2 que “uma igualdade é mais útil se os dois lados são diferentes”. Isto parece
absurdo na primeira vista; mas, pensando bem, o teorema “1 = 1” é o teorema menos útil do
mundo. No caso de isomorfismos, a situação é semelhante. Embora um isomorfismo estabeleça
que dois objetos são essencialmente iguais, estes objetos podem ser diferentes para nós.
Para ilustrar isso, consideramos o nosso exemplo principal: o cálculo de coordenadas de
um vetor relativamente a uma base B = (v1 , . . . , vn ) de um espaço vetorial V . Este processo
é particularmente útil porque é bidirecional : a cada vetor v ∈ V podemos associar o seu vetor
de coordenadas [v]B ∈ Rn , mas também a cada sequência (α1 , . . . , αn ) ∈ Rn corresponde a
combinação linear α1 ·v1 +· · ·+αn ·vn . Aqui é importante que estes dois processos sejam inversos
entre si: cada vetor v é igual à combinação linear α1 · v1 + · · · + αn · vn com [v]B = (α1 , . . . , αn ), e
o vetor de coordenadas do vetor α1 · v1 + · · · + αn · vn é (α1 , . . . , αn ) ∈ Rn . São precisamente estas
2
em: John Baez and James Dolan, From finite sets to Feynman diagrams, In Mathematics Unlimited - 2001
and Beyond, volume 1, pages 29–50. Springer, Berlin, 2001.
58 III.3. Isomorfismos
propriedades que nos permitem-nos traduzir cada problema em V num problema equivalente em
Rn . Portanto, os espaços V e Rn são essencialmente iguais, mas é mais fácil trabalhar em Rn .
Dito na linguagem de espaços vetoriais, os dois processos acima definem as transformações
lineares [−]B : V → Rn e LB : Rn → V , e, para todos os v ∈ V e (α1 , . . . , αn ) ∈ Rn ,
LB ([v]B ) = v e (α1 , . . . , αn ) = [LB (α1 , . . . , αn )]B .
Com esta motivação definimos agora:
Verificamos primeiro que uma tal transformação linear g : W → V é única, quando existe.
De facto, se temos transformações lineares g, g 0 : W → V com g ◦ f = idV e f ◦ g 0 = idW , então
g = g ◦ idW = g ◦ f ◦ g 0 = idV ◦g 0 = g 0 .
Sendo assim, aquela única função g : W → V com g ◦ f = idV e f ◦ g = idW merece um nome
especial: chamamos a g a transformação linear inversa de f : V → W e escrevemos f −1
em lugar de g.
Nota III.3.2. Para cada espaço vetorial V , a função identidade idV : V → V é um isomorfimos
com id−1
V = idV . Se f : V → W e g : W → E são isomorfismos, então g ◦ f é um isomorfismo
com (g ◦ f )−1 = f −1 ◦ g −1 . Se f é um isomorfimo, então f −1 é um isomorfismo e (f −1 )−1 = f .
Para formular algumas propriedades de espaços vetoriais, basta-nos saber que existe um
isomorfismo entre V e W e não precisamos de mencionar o isomorfismo explicitamente. Portanto,
definimos:
O resultado a seguir permite-nos verificar facilmente quando é que dois espaços vetoriais são
isomorfos, no caso de estarmos a considerar espaços vetoriais de dimensão finita.
Uma das implicações da equivalência da proposição acima é dada pelo Teorema III.3.5. A
implicação contrária vai ser ilustrada no exemplo seguinte.
Exemplo III.3.8. Considere o espaço vetorial dos polinómios de grau menor ou igual a 2, R[t]2 ,
e o subespaço de R4 , F = {(x, y, z, w)R4 :| x = y + z + w}. O espaço vetorial R[t]2 tem como
base canónica C = (1, t, t2 ) e facilmente se vê que B = ((1, 1, 0, 0), (1, 0, 1, 0), (1, 0, 0, 1)) é uma
base de F e, portanto, dim R[t]2 = dim F . A transformação linear f : R[t2 ] → F definida por
f (1) = (1, 1, 0, 0), f (t) = (1, 0, 1, 0) e f (t2 ) = (1, 0, 0, 1) é um isomorfismo com transformação
linear inversa g : F → R[t]2 dada por g(1, 1, 0, 0) = 1, g(1, 0, 1, 0) = t e g(1, 0, 0, 1) = t2 .
(1). a sequência (v10 , . . . , vn0 ) é linearmente independente se e só se nenhum dos vetores
v10 , . . . , vn0 é o vetor nulo, e
(2). uma base de hv10 , . . . , vn0 i é dada pela sequência constituı́da pelos vetores não nulos de
v10 , . . . , vn0 ; ou seja, pelas linhas com pivô de A.
Pelas considerações anteriores, a dimensão do subespaço de Rn gerado pelas linhas de uma
matriz A do tipo m × n é igual ao número de pivôs da matriz em escada A0 obtida a partir de
A aplicando as operações elementares, ou seja, é igual à caracterı́stica de A.
Até este momento apenas consideramos a questão Como utilizar isomorfismos?, mas tudo
isto é pouco útil se não explicamos Como identificar isomorfismos?. O seguinte teorema dá uma
primeira resposta.
e
f ◦ g(α · u) = α · u = α · f g(u) = f (α · g(u)).
Agora, como f é injetiva, concluı́mos que,
im(f ) = {f (v) | v ∈ V }.
Por outras palavras, a imagem de f é o conjunto de todos os elementos de W que são imagem
de algum elemento de V , i.e., im(f ) = {w ∈ W : existe v ∈ V tal que f (v) = w}. É fácil de
verificar que estes subconjuntos são de facto subespaços. Para futuras referências mencionamos:
O próximo resultado ligue estes novos conceitos com as nossas questões sobre as trans-
formações lineares.
Portanto, temos de nos preocupar com o cálculo das dimensões do núcleo e da imagem de
uma transformação linear, o que é o objetivo da Secção III.5. Contudo, o próximo resultado já
dá uma primeira ajuda.
Mas, como im(f ) é um subespaço de R2 , dim(f ) ≤ 2; e por isso dim ker(f ) ≥ 1. Portanto, f
não é injetiva. Uma outra consequência útil do Teorema III.3.15 é o seguinte resultado.
Corolário III.3.16. Sejam V e W espaços vetoriais de dimensão finita, com dim V = dim W ,
e f : V → W uma transformação linear. Então, as seguintes afirmações são equivalentes.
(i) f é um isomorfismo.
(ii) f é injectiva.
(iii) f é sobrejectiva.
Por outras palavras, uma transformação linear f : V → W entre espaços vetoriais de igual
dimensão é injetiva se e somente se f é sobrejectiva. De facto, se dim ker(f ) = 0, então dim V =
0 + dim im(f ) = dim im(f ), logo como dim V = dim W , conclui-se que dim im(f ) = dim W
e portanto f é sobrejetiva. Por outro lado, se dim im(f ) = dim W = dim V , então dim V =
dim ker(f ) + dim im(f ) = dim ker(f ) + dim V , logo dim ker(f ) = 0.
O seguinte exemplo mostra que a afirmação acima pode ser falsa em espaços vetoriais V que
não têm dimensão finita.
Exemplo III.3.17. Consideremos o espaço D∞ (R, R) das funções reais com derivada de cada
ordem (ver Exemplo II.2.5 (3)), e a transformação linear
fα : R −→ R, x 7−→ αx
é uma transformação linear. Surpreendentemente ou não, não há outros exemplos de trans-
formações lineares de R em R: se f : R → R é linear, obtemos f (x) = f (x 1) = x f (1); ou seja,
com α = f (1), f (x) = α x para todo o x ∈ R.
Veremos agora que a situação é semelhante para as transformações lineares f : Rn → Rm ,
mas com matrizes do tipo m×n em lugar de números. No entanto, para formular uma afirmação
semelhante neste caso, é necessário alargar o cálculo com matrizes. Para as matrizes
a1,1 . . . a1,n x1
.. .
A= .
e x = ..
,
am,1 . . . am,n xn
defina-se o produto A x da matriz A do tipo m × n com a matrix x to tipo n × 1 por
a1,1 . . . a1,n x1 a1,1 a1,2 a1,n
.. .
.. = x1 ... + x2 ... + · · · + xn ... ;
.
am,1 . . . am,n xn am,1 am,2 am,n
portanto, A x é uma matriz do tipo m × 1. Por outras palavras, A x é dada pela combinação
linear das colunas de A com os coeficientes tirados da coluna x. Explicitamente,
a1,1 x1 + · · · + a1,n xn
..
Ax = . .
am,1 x1 + · · · + am,n xn
A (x + y) = A x + A y e A (α x) = α (A x).
Capı́tulo III. Transformações entre espaços 63
fA : Rn −→ Rm , v 7−→ A v
Portanto, cada matriz define uma transformação linear; e é fácil de ver que matrizes diferentes
definem transformações lineares diferentes. Além disso, para todas as matrizes A e B do tipo
m × n e todo o α ∈ R,
fA + fB = f(A+B) e α · fA = f(α·A) .
Teorema III.4.4. Seja f : Rn → Rm uma transformação linear. Então, existe uma única matriz
A do tipo m × n tal que, para cada v ∈ Rn ,
f (v) = A v.
Calcular a matriz de f : Rn → Rm .
A matriz de uma transformação linear f : Rn → Rm pode-se obter da seguinte maneira:
64 III.4. A matriz de uma transformação linear
• Calcular as imagens dos vetores (1, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, . . . , 0, 1):
a1 = f (1, 0, 0, . . . , 0),
a2 = f (0, 1, 0, . . . , 0),
..
.
an = f (0, 0, . . . , 0, 1).
• A matriz de A de f é a matriz A = [a1 a2 . . . an ] com as colunas a1 , a2 , . . . , an .
Procedimento III.4.5
Como
a matriz de f é a matriz
" #
1 1 0
.
0 1 1
Exemplos III.4.7. Consideremos agora as transformações lineares dos Exemplos III.1.7 e de-
terminemos as correspondentes matrizes.
(1). A matriz da transformação linear
é a matriz
1 0 0
0 1 0
Ei↔j =
fi↔j .. fi↔j .. . . .
fi↔j
.. ;
. . .
0 0 1
i j
1 0 ... 0 ... 0 ... 0
0 1 ... 0 ... 0 ... 0
..
.
linha i 0 0 . . .
0 ... 1 ... 0
.. ..
. .
linha j 0 0 . . .
1 ... 0 ... 0
..
..
.
.
0 0 ... 0 ... 0 ... 1
Capı́tulo III. Transformações entre espaços 65
i
1 0 ... 0 ... 0
0 1 ... 0 ... 0
..
.
linha i 0 0 . . .
α ... 0
.. ..
.
.
0 0 ... 0 ... 1
i j
1 0 ... 0 ... 0 ... 0
0 1 ... 0 ... 0 ... 0
..
.
linha i 0 0 . . .
1 ... 0 ... 0
.. ..
. .
linha j 0 0 . . .
α ... 1 ... 0
..
..
.
.
0 0 ... 0 ... 0 ... 1
A0 = E1 · · · Ek A
ker(fA ) = {v ∈ Rn | A v = 0}.
Como
a1,1 ... a1,n x1 a1,1 x1 + · · · + a1,n xn
.. .
.. = ..
Av =
. . ,
am,1 . . . am,n xn am,1 x1 + · · · + am,n xn
o núcleo de fA é precisamente o conjunto das soluções do sistema homogéneo de equações lineares
a1,1 x1 + · · · + a1,n xn = 0,
a2,1 x1 + · · · + a2,n xn = 0,
..
.
am,1 x1 + · · · + am,n xn = 0;
e, vice versa, o conjunto das soluções de um tal sistema é igual ao núcleo de fA onde A = [ai,j ]
é a matriz dos coeficientes ai,j do sistema. Em particular, o conjunto de soluções de um sistema
homogéneo constitui um subespaço de Rn . Portanto:
Sobre o núcleo de f : Rn → Rm , v 7→ A v.
O núcleo ker(f ) de f coincide com o conjunto das soluções do sistema homogéneo A x = 0.
Uma base de ker(f ) pode-se obter atribuindo, sucessivamente, a uma variável livre o valor
1 e 0 as restantes variáveis livres. Portanto, a dimensão do núcleo de f é igual ao número
de variáveis livres deste sistema, ou seja, é igual a n − car(A).
Procedimento III.5.1
Ax = b
de matrizes, onde
a1,1 ... a1,n b1
.. .
.
A=
.
e b=
.
am,1 . . . am,n bm
denotam as matrizes dos coeficientes e dos segundos membros (os termos independentes) do
sistema acima, e a incógnita
x1
.
x= .
.
xn
é a matriz das incógnitas x1 , . . . , xn . Considerando a transformação linear fA : Rn → Rm , para
cada b ∈ Rm tem-se
im(fA ) = {A v | v ∈ Rn }
a1,1 . . . a 1,n α 1
. .
.. .. | (α1 , . . . , αn ) ∈ Rn
=
a
m,1 . . . am,n αn
a
1,1 a1,2 a1,n
. . .
. . .
= α1 . + α2 . + · · · + αn . | α1 , . . . , αn ∈ R
am,1 am,2 am,n
* a1,1 a1,2 a1,n +
. . .
= . . .
. , . ,..., . ;
am,1 am,2 am,n
Sobre a imagem de f : Rn → Rm , v 7→ A v.
68 III.6. O produto de matrizes
Tem-se que
im(f ) = {todas as colunas b ∈ Rm para os quais o sistema A x = b é possı́vel}
* a1,1 a1,2 a1,n +
. .
.. , .. , . . . , ... .
=
am,1 am,2 am,n
Uma base de im(f ) é dada pela sequência de colunas de A com pivô numa matriz A0 em
escada com A A0 . Assim, dim im(f ) = car(A) = número de pivôs de A0 .
Procedimento III.5.2
dim ker(f ) + dim im(f ) = no colunas de A sem pivô + no colunas de A com pivô
= no colunas de A
= n;
o que fornece uma outra perspetiva à fórmula das dimensões do Teorema III.3.15.
car(A) = car(At ).
e
(B −1 A−1 ) (A B) = B −1 (A−1 A) B = B −1 In B = In .
De forma semelhante,
In In = In
justifica a primeira afirmação. Como veremos em breve, não é necessário trabalhar tanto: para
verificar que uma matriz B do tipo n × n é a inversa de A do tipo n × n, basta verificar ou
A B = In ou B A = In ; não é necessário calcular ambos os produtos.
Aprendemos até agora o que significa “a matriz inversa”, e como verificar se uma dada
matriz B é a inversa de uma matriz A. Mas, dada apenas A, como podemos saber se A tem
uma inversa? E, já agora, como calcular esta inversa? O próximo resultado dá-nos uma primeira
ideia.
Proposição III.6.10. Seja M uma matriz do tipo n × n. Cada uma das seguintes afirmações
implica a próxima afirmação.
(1). Existe uma matriz N do tipo n × n com N M = In .
(2). O sistema homogéneo M | 0 é determinado.
(3). car(M ) = n.
(4). Para todo o elemento b ∈ Rn , o sistema M | b é possı́vel.
(5). Para b = (1, 0, . . . , 0), b = (0, 1, 0, . . . , 0), . . . e b = (0, 0, . . . , 0, 1); o sistema M | b é
possı́vel.
(6). Existe uma matriz N 0 do tipo n × n com M N 0 = In .
com os n pivôs (denotados por ∗) necessariamente na diagonal. Como a última coluna não tem
pivô, o sistema M | b é possı́vel, qualquer que seja b ∈ Rn ; e em particular para b = (1, 0, . . . , 0),
b = (0, 1, 0, . . . , 0), . . . e b = (0, 0, . . . , 0, 1). Portanto (3)⇒(4)⇒(5). Finalmente, suponhamos
que (5) é verdadeira. Portanto, com M = [ai,j ], os n sistemas
são possı́veis. Sendo N 0 a matriz cujas colunas são dadas pelas soluções destes sistemas, respeti-
vamente, obtém-se M N 0 = In .
Tendo em conta que a multiplicação de matrizes não é comutativa, a seguinte consequência
dos resultados acima é um pouco surpreendente.
B A = In ⇐⇒ A B = In .
Ambas as implicações obtém-se com o Lema III.6.5 e a Proposição III.6.10: para justificar a
implicação “do lado esquerdo para o lado direito” utiliza-se a Proposição III.6.10 com a matriz
M = A, e no caso da implicação“do lado direito para o lado esquerdo” com a matriz M = B.
Em particular, a afirmação (6) da Proposição III.6.10 implica a afirmação (1); ou seja, todas as
afirmações da Proposição III.6.10 são equivalentes.
Procedimento III.6.12
Como car(A) = 2 concluı́mos que existe A−1 . Para calcularmos a inversa de A temos de resolver
os sistemas
( (
x + 2y = 1 x + 2y = 0
e
−x − y = 0 −x − y = 1
Capı́tulo III. Transformações entre espaços 73
Vamos resolver o primeiro sistema reduzindo a respetiva matriz aumentada a uma matriz em
escada reduzida,
" # " # " #
1 2 1 1 2 1 1 0 −1
−1 −1 0 0 1 1 0 1 1
(
x = −1
donde segue que o sistema tem solução , ou seja a coluna 3 da matriz em escada
y=1
reduzida acima é a primeira coluna de A−1 . Vamos agora resolver o segundo sistema pelo
mesmo processo, para determinarmos a segunda coluna da inversa de A:
" # " # " #
1 2 0 1 2 0 1 0 −2
−1 −1 1 0 1 1 0 1 1
De modo análogo ao anterior obtivemos uma matriz em escada reduzida em que a " coluna cor-
#
−1 −1 −1 −2
respondente aos termos independentes é a segunda coluna de A . Logo, A = .
1 1
Note-se que realizamos as mesma operações elementares nas matrizes aumentadas dos dois sis-
temas. Pode-se então resolver os dois sistemas em simultâneo considerando duas colunas dos
termos independentes em vez de uma, como se segue:
" # " # " #
1 2 1 0 1 2 1 0 1 0 −1 −2
A| I =
−1 −1 0 1 0 1 1 1 0 1 1 1
As duas últimas colunas da matriz obtida em cima formam a inversa de A, ou seja, a matriz
tem a forma I | A−1 .
Procedimento III.6.14
1 −1 0
Exemplo III.6.15. Vamos agora calcular a inversa da matriz A = 2 −1 1 .
0 1 3
1 −1 0 1 0 0 1 −1 0 1 0 0 1 0 1 −1 1 0
A | I = 2 −1 1 0 1 0 0 1 1 −2 1 0 0 1 1 −2 1 0
0 1 3 0 0 1 0 1 3 0 0 1 0 0 2 2 −1 1
1 0 1 −1 1 0 1 0 0 −2 3/2 −1/2
0 1 1 −2 1 0 0 1 0 −3 3/2 −1/2
1 −1/2 1/2
Nota III.6.16. Outro método que podemos utilizar para calcular a inversa de uma matriz é
usando matrizes elementares. Se uma matriz A é invertı́vel, pode ser reduzida, via operações
elementares, à matriz identidade. Ou seja, existem matrizes elementares E1 , E2 , . . . , Ek tais que
Ek · · · E2 E1 A = I,
o que implica que A−1 = Ek · · · E2 E1 .
Acabamos esta secção com as regras para o cálculo com a matriz transposta.
Até este momento estudamos apenas métodos para analisar transformações lineares do tipo
Rn → Rm . Tal como no Capı́tulo II, vamos agora utilizar bases para tratar transformações
entre espaços vetoriais em geral.
Seja f : V → W uma transformação linear entre os espaços vetoriais V e W da dimensão n e
m, com bases B = (v1 , v2 , · · · , vn ) e C, respetivamente. Associamos a esta função a transformação
linear f¯: Rn → Rm definida como a função composta
L f [−]C
Rn −−B→ V −→ W −−−→ Rm .
Explicitamente, para cada v ∈ V ,
f¯(α1 , . . . , αn ) = [f (α1 v1 + · · · + αn vn )]C .
Assim, f¯: Rn → Rm completa o diagrama
f
V /W
[−]B [−]C
Rn / Rm
f¯
[−]B [−]C
Rn / Rm
f¯
Capı́tulo III. Transformações entre espaços 75
Portanto, se, por exemplo, queremos calcular o núcleo de f , calculamos primeiro o núcleo
¯
de f (utilizando os métodos Secção III.5), e depois escolhemos aqueles vetores de V cujo ve-
tor de coordenadas pertence ao núcleo de f¯. Recordamos que todo o cálculo acerca de uma
transformação linear Rn → Rm pode ser feito com a matriz desta transformação. Com esta
motivação, definimos que a matriz de f : V → W relativamente às bases B e C é a matriz
da transformação linear f¯: Rn → Rm correspondente. Denota-se esta matriz por M (f, B, C).
Diretamente da definição segue que, para cada v ∈ V ,
f¯(1, 0, . . . , 0) = [f (v1 )]C , f¯(0, 1, 0, . . . , 0) = [f (v2 )]C , ... f¯(0, . . . , 0, 1) = [f (vn )]C ;
0 0 0 0 12
Portanto, dim im(D2 ) = 3, o que implica que D2 é sobrejetiva. Também obtemos logo que
dim ker(D2 ) = 2. Para calcular o núcleo de D2 , resolvemos o sistema homogéneo correspondente
à matriz M (D2 , B, C); digamos, nas incógnitas x1 , . . . , x5 . Felizmente, a matriz já é em escada,
76 III.7. A matriz de transformações lineares relativa a bases
{(x1 , x2 , 0, 0, 0) | x1 , x2 ∈ R};
ou seja,
Exemplo III.7.4. Apresentamos agora um exemplo “mais intuitivo” que, assim esperamos,
esclarece o procedimento apresentado acima3 . Consideramos o espaço vetorial V das setas no
plano com a mesma origem •,
u
>
v
•
w
e escolhemos a base B = (X, Y ) de V .
u
6
Y
v
>
•
-
w
X
Para cada α ∈ R, a transformação linear
fα : V −→ V
aplica “a rotação por α contra o sentido dos ponteiros do relógio” a um vetor v em V . Qual é
a correspondente função f¯α : R2 → R2 ? Pela definição, para obter o valor de f¯α (a, b), temos de
• calcular a combinação linear a X + b Y ;
• rodar esta seta por α contra o sentido dos ponteiros do relógio;
• calcular as coordenadas da seta obtida em cima.
Por exemplo, para (1, 0) e (0, 1) obtemos
para todo o v ∈ V ; ou seja, esta matriz traduz coordenadas relativamente à base B em coorde-
nadas relativamente à base C. Designamos a matriz M (idV , B, C) por matriz da mudança de
base B para a base C, e escrevemos simplesmente M (B, C) em lugar de M (idV , B, C).
Como a adição de transformações lineares corresponde exatamente à adição de matrizes e a
composição de transformações à multiplicação de matrizes (ver Teorema III.6.1), conclui-se:
Duas matrizes de uma transformação linear com bases diferentes no domı́nio ou no conjunto
de chegada podem também ser diferentes. No entanto, podem-se relacionam-se do seguinte
modo:
Para resumir, neste capı́tulo introduzimos transformações lineares entre os espaços vetoriais
e aprendemos que, para os espaços da dimensão finita, todo o cálculo com matrizes tem uma
operação correspondente no lado das transformações lineares (ver a Tabela III.6.2, por exemplo).