Você está na página 1de 28

Transformações entre espaços

III
No Capı́tulo II aprendemos vários conceitos acerca de espaços vetoriais tal como subespaço,
gerador e dependência linear. O conceito mais importante da teoria dos espaços vetoriais é
provavelmente o da base: as bases permitem-nos transportar cada problema num espaço vetorial
V para um problema equivalente em Rn , onde tipicamente temos métodos mais eficientes. Por
outro lado, nem todo o espaço vetorial tem uma base, e nesta secção estudaremos métodos mais
gerais para traduzir problemas num espaço em problemas relacionados num outro espaço.

III.1. Transformações lineares

Recordamos que cada base B num espaço vetorial V define a função V → Rn que associa a
cada vetor v o vetor [v]B de coordenadas de v relativamente à base B, e esta função é compatı́vel
com as operações definidas nos espaços vetoriais no sentido do Teorema II.4.3. De forma mais
geral, nesta secção consideramos as funções entre os espaços vetoriais que preservam as operações.

Definição III.1.1. Sejam V e W espaços vetoriais. Uma função f : V → W diz-se trans-


formação linear quando, para todos os u, v ∈ V e α ∈ R,

f (u + v) = f (u) + f (v) e f (α · u) = α · f (u).

Observamos logo que cada transformação linear f : V → W automaticamente satisfaz

f (0) = 0

porque f (0) = f (0 · 0) = 0 · f (0) = 0. Nesta linguagem, o Teorema II.4.3 afirma que a função
[−]B : V → Rn é uma transformação linear, para cada base B = (v1 , . . . , vn ) num espaço vetorial
V . Para ilustrar o conceito de transformação linear, apresentamos agora dois exemplos simples.

Exemplos III.1.2. (1). A função f : R2 → R3 , (x, y) 7→ (x + y, x − y, 1) não é linear porque

f (0, 0) = (0, 0, 1) 6= (0, 0, 0).

(2). Consideremos agora a função f : R2 → R3 , (x, y) 7→ (x + y, x − y, 2y), e verifiquemos


as duas igualdades da Definição III.1.1. Sejam (x, y) ∈ R2 , (a, b) ∈ R2 e α ∈ R.
Calculamos

f ((x, y) + (a, b)) = f (x + a, y + b)


= (x + a + y + b, x + a − y − b, 2(y + b))

51
52 III.1. Transformações lineares

f (x, y) + f (a, b) = (x + y, x − y, 2y) + (a + b, a − b, 2b)


= (x + y + a + b, x − y + a − b, 2y + 2b);

portanto, f ((x, y) + (a, b)) = f (x, y) + f (a, b). Da forma similar,

f (α(x, y)) = f (αx, αy) = (αx + αy, αx − αy, 2αy)

αf (x, y) = α(x + y, x − y, 2y) = (α(x + y), α(x − y), α2y);

o que mostra que f (α(x, y)) = αf (x, y).

Para cada espaço vetorial V , a função identidade

idV : V −→ V, v 7−→ v

é uma transformação linear. Mais importante, para as transformações lineares f : V → W e


g : W → E, a função composta

g ◦ f : V −→ E, v 7−→ g(f (v))

é uma transformação linear. De facto, se u, v ∈ V

g ◦ f (u + v) = g(f (u + v))
= g(f (u) + f (v)) (porque f é linear)
= g(f (u)) + g(f (v)) (porque g é linear)
= g ◦ f (u) + g ◦ f (v).

De modo análogo prova-se que g ◦ f (α u) = α (g ◦ f (u)), para todos u ∈ V e α ∈ R.


Como já mencionámos no inı́cio deste capı́tulo, um papel importante das transformações
lineares é o transporte de problemas de um espaço vetorial para um outro espaço vetorial. Pela
definição, uma transformação linear f : V → W transforma cada calculo em V num cálculo
correspondente em W , e por isso podemos traduzir certos problemas em V para problemas
correspondentes em W onde – assim esperamos – é mais fácil encontrar uma solução. Para
apresentar um exemplo deste tipo, observamos primeiro que cada transformação linear f : V →
W transforma combinações lineares em combinações lineares: para todos os n ∈ N, v1 , . . . , vn ∈
V e α1 , . . . , αn ∈ R, tem-se

f (α1 · v1 + · · · + αn · vn ) = α1 · f (v1 ) + · · · + αn · f (vn ).

Portanto, se a sequência (v1 , . . . , vn ) é linearmente dependente em V , então existem números


reais α1 , . . . , αn ∈ R, não todos iguais a 0, com

0 = α1 · v1 + · · · + αn · vn ;

e por isso
0 = f (α1 · v1 + · · · + αn · vn ) = α1 · f (v1 ) + · · · + αn · f (vn );
o que significa que a sequência (f (v1 ), . . . , f (vn )) é linearmente dependente em W . Portanto,
podemos concluir que f preserva a dependência linear; equivalentemente, f reflete a inde-
pendência linear:
Capı́tulo III. Transformações entre espaços 53

Proposição III.1.3. Sejam f : V → W uma transformação linear e (v1 , . . . , vn ) uma sequência


de vetores de V .
(1). Se a sequência (v1 , . . . , vn ) é linearmente dependente em V , então a sequência (f (v1 ), . . . , f (vn ))
é linearmente dependente em W .
(2). Se a sequência (f (v1 ), . . . , f (vn )) é linearmente independente em W , então a sequência
(v1 , . . . , vn ) é linearmente independente em V .

No entanto, o mesmo não se passa quando consideramos vetores linearmente independentes,


i.e., f não preserva a independência linear, como o exemplo seguinte mostra.

Exemplo III.1.4. Consideremos a transformação linear f : R3 → R2 , (x, y, z) 7→ (x − y, z).


Os vetores (1, 0, 0) e (0, 0, 1) são linearmente independentes e f (1, 0, 0) = (1, 0) e f (0, 0, 1) =
(0, 1) também o são. No entanto, os vetores linearmente independentes (1, 0, 0) e (0, 1, 0) são
transformados nos vetores linearmente dependentes (1, 0) e (−1, 0).

Recordamos que a estratégia desenvolvida no Capı́tulo II para o estudo de propriedades


de vetores num espaço vetorial V da dimensão finita pode-se resumir do seguinte modo (ver
também o Exemplo II.4.5):
• Escolher uma base de V .
• Calcular, para cada vetor de V em causa, o vetor de coordenadas dos vetores.
• Resolver a “mesma” questão com os vetores de coordenadas.
Vamos mostrar agora que, em certas circunstâncias, a Proposição III.1.3 permite-nos gener-
alizar este método. Salientamos também que, ao contrário do caso de bases (ver Teorema II.5.8),
as implicações da Proposição III.1.3 não são equivalências.

Exemplo III.1.5. No espaço V = F(R, R) das funções reais, a sequência (sen, cos) de vetores é
linearmente independente? Infelizmente, aqui não podemos ir pelo caminho mencionado acima
porque V = F(R, R) não tem uma base1 . Contudo, a Proposição III.1.3 permite fazer algo
parecido: em lugar de uma base, procuramos uma transformação linear apropriada que associa
a cada elemento de V uma sequência de números reais.
Para responder a questão concreta deste exemplo, consideramos a função linear
π
F : V −→ R2 , f 7−→ (f (0), f ( )).
2
Em particular, F (sen) = (sen(0), sen( 2 )) = (0, 1) e F (cos) = (cos(0), cos( π2 )) = (1, 0). Como a
π

sequência ((0, 1), (1, 0)) é linearmente independente em R2 , com a Proposição III.1.3 concluı́mos
que (sen, cos) é linearmente independente em V . Salientamos que a escolha dos pontos 0 e π2 que
definem a função F depende do problema em causa. Se, por exemplo, escolhermos os pontos 0
e 2π, ou seja, se consideramos a transformação linear
G : V −→ R2 , f 7−→ (f (0), f (2π)),
a imagem da sequência (sen, cos) em V é a sequência ((0, 1), (0, 1)) em R2 , e esta sequência
é linearmente dependente. Mas a Proposição III.1.3 não fala sobre esta situação; de facto, a
função G não ajuda a estudar a dependência linear da sequência (sen, cos).
Como um segundo exemplo, consideremos as funções f1 , f2 , f2 : R → R definidas por
10
f1 (x) = x2 + 1, f2 (x) = , f3 (x) = 2x .
1 + x2
1
Recordamos que neste texto as bases são finitas.
54 III.1. Transformações lineares

Para avaliar se (f1 , f2 , f3 ) é linearmente independente em V , utilizamos a função linear


H : V −→ R3 , f 7−→ (f (0), f (1), f (2)).
Assim, H(f1 ) = (1, 2, 5), H(f2 ) = (10, 5, 2) e H(f3 ) = (1, 2, 4). Como
   
1 10 1 1 10 1
2 5 2 0 1 0 ,
   

5 2 4 0 0 1
((1, 2, 5), (10, 5, 2), (1, 2, 4)) é linearmente independente em R3 e por isso (f1 , f2 , f3 ) é linearmente
independente em V .

Além dos exemplos apresentados acima, várias construções com vetores definem trans-
formações lineares. Já mencionamos o cálculo de coordenadas. O cálculo de combinações lineares
é outro exemplo deste tipo.

Teorema III.1.6. Sejam V um espaço vetorial e (v1 , . . . , vn ) uma sequência de vetores em V .


Então,
L(v1 ,...,vn ) : Rn −→ V, (α1 , . . . , αn ) 7−→ α1 · v1 + · · · + αn · vn
é uma transformação linear.

De facto, para (α1 , . . . , αn ), (β1 , . . . , βn ) ∈ Rn e α ∈ R, verificam-se


L(v1 ,...,vn ) ((α1 , . . . , αn ) + (β1 , . . . , βn )) = L(v1 ,...,vn ) (α1 + β1 , . . . , αn + βn )
= (α1 + β1 ) · v1 + · · · + (αn + βn ) · vn
= (α1 · v1 + · · · + αn · vn ) + (β1 · v1 + · · · + βn · vn )
= L(v1 ,...,vn ) (α1 , . . . , αn ) + L(v1 ,...,vn ) (β1 , . . . , βn )

L(v1 ,...,vn ) (α · (α1 , . . . , αn )) = L(v1 ,...,vn ) (αα1 , . . . , ααn )


= (αα1 ) · v1 + · · · + (ααn ) · vn
= α(α1 · v1 + · · · + αn · vn )
= α · L(v1 ,...,vn ) (α1 , . . . , αn ).
Também as operações elementares podem ser vistos como aplicações lineares.

Exemplos III.1.7. Começamos por observar que as seguintes construções definem transformações
lineares:
(1). troca de duas componentes
fi↔j : Rn −→ Rn , (x1 , . . . , xi , . . . , xj , . . . , xn ) 7−→ (x1 , . . . , xj , . . . , xi , . . . , xn );
(2). multiplicação de uma componente por um número
fαi : Rn −→ Rn , (x1 , . . . , xi , . . . , xn ) 7−→ (x1 , . . . , αxi , . . . , xn );
(3). adição de um múltiplo de uma componente a uma outra componente
fj+αi : Rn −→ Rn , (x1 , . . . , xi , . . . , xj , . . . , xn ) 7−→ (x1 , . . . , xi , . . . , αxi + xj , . . . , xn ),
com i 6= j.
Para uma matriz A do tipo n × m, se interpretamos as colunas ai de A como elementos de Rn ,
Capı́tulo III. Transformações entre espaços 55

(1). a matriz com as colunas correspondentes a


fi↔j (a1 ), . . . , fi↔j (a1 )
é a matriz obtida a partir de A trocando as linhas i e j;
(2). a matriz com as colunas correspondentes a
fαi (a1 ), . . . , fαi (a1 )
é a matriz obtida a partir de A multiplicando a linha i por α; e
(3). a matriz com as colunas correspondentes a
fj+αi (a1 ), . . . , fj+αi (a1 )
é a matriz obtida a partir de A adicionando α vezes a linha i à linha j.
Portanto, para uma redução A A0 de A, as colunas de A0 são da forma
(f1 ◦ · · · ◦ fk )(a1 ), . . . , (f1 ◦ · · · ◦ fk )(am ),
onda cada uma das transformações f1 , . . . , fk é igual a uma das transformações fi↔j , fαi ou
fj+αi .

Acabamos esta secção com uma construção de novos espaços vetoriais a partir de trans-
formações lineares.

Exemplo III.1.8. Para todos os espaços vetoriais V e W , a função nula V → W, v 7→ 0 é


uma transformação linear. Além disso, para transformações lineares h, k : V → W e um número
α ∈ R, a soma
h + k : V −→ W, v 7−→ h(v) + k(v)

de h e k e o α-múltiplo

α · h : V −→ W, v 7−→ α · h(v)
de h são transformações lineares. Assim, de forma semelhante ao Exemplo II.2.2 (3), obtém-se
o espaço vetorial Lin(V, W ) de todas as transformações lineares f : V → W . Dada também uma
transformação linear f : V → E, verifica-se facilmente que a função
Lin(E, W ) −→ Lin(V, W ), h 7−→ h ◦ g
é linear; e, da forma semelhante, para cada espaço vetorial U , a função
Lin(U, V ) −→ Lin(U, W ), k 7→ g ◦ k
é uma transformação linear.

Resumindo, a soma, o múltiplo e a composta de transformações lineares é também uma


transformação linear; e no cálculo com estas operações verificam-se facilmente as seguintes regras.

Teorema III.1.9. Sejam f, f1 , f2 : V → W , g, g1 , g2 : W → E e h : E → F transformações


lineares e α ∈ R. Então, verificam-se as seguintes afirmações.
(1). 0 ◦ f = 0 = f ◦ 0, aqui 0 denota a função nula.
(2). idW ◦f = f = f ◦ idV .
(3). h ◦ (g ◦ f ) = (h ◦ g) ◦ f .
(4). g ◦ (f1 + f2 ) = (g ◦ f1 ) + (g ◦ f2 ).
56 III.2. Construir transformações lineares

(5). (g1 + g2 ) ◦ f = (g1 ◦ f ) + (g2 ◦ f ).


(6). α · (g ◦ f ) = (α · g) ◦ f = g ◦ (α · f ).

III.2. Construir transformações lineares

Na secção anterior introduzimos o conceito de transformação linear como um método que


traduz vetores de um espaço vetorial para um outro espaço vetorial preservando o cálculo com
vetores. Nesta secção pensamos sobre as seguintes questões:
• Como comparar duas transformações lineares?
• Como construir transformações lineares?
Acerca da primeira questão, recordamos que duas funções f, g : V → W são iguais quando
coincidem em todos os argumentos; ou seja, se f (v) = g(v) para todo o v ∈ V . Portanto, se V
é infinito, verificar que f = g parece uma “missão impossı́vel”!! Felizmente, o Teorema III.2.1
em baixo implica em particular que, se f e g são lineares e V é gerado pela uma coleção finita
v1 , . . . vn de vetores, então, para concluir que f = g, basta de verifica f (v1 ) = g(v1 ), . . . e
f (v1 ) = g(v1 ).

Teorema III.2.1. Sejam f, g : V → W transformações lineares e S ⊆ V um subconjunto de V


tal que hSi = V . Se f (u) = g(u) para todo o u ∈ S, então f = g.

Esta afirmação segue do facto que cada elemento de V é combinação linear dos elementos de
S. Mais concretamente, suponhamos que f e g coincidem em S e seja v ∈ V . Como hSi = V ,
temos v = α1 · u1 + · · · + αn · un com α1 , . . . , αn ∈ R e u1 , . . . , un ∈ S; e por isso

f (v) = f (α1 · u1 + · · · + αn · un ) = α1 · f (u1 ) + · · · + αn · f (un )


= α1 · g(u1 ) + · · · + αn · g(un ) = g(α1 · u1 + · · · + αn · un ) = g(v).
Pensamos agora sobre a segunda questão acima. Como ponto da partida, recordamos que
nos vários exemplos desta secção apresentamos construções “elementares” como transformações
lineares. Como a função composta de funções lineares é outra vez linear, podemos construir
transformações lineares mais complexas como compostas de funções simples. Utilizamos esta
técnica já no próximo resultado.

Teorema III.2.2. Sejam V e W espaços vetoriais e B = (v1 , . . . , vn ) uma base de V . Para cada
sequência (w1 , . . . , wn ) de vetores em W , existe uma única transformação linear f : V → W com
f (v1 ) = w1 , f (v2 ) = w2 , . . . e f (vn ) = wn .

Para confirmar a afirmação acima, consideramos a função f : V → W que transforma cada


v ∈ V com [v]B = (α1 , . . . , αn ) em f (v) = α1 · w1 + · · · + αn · wn . Observamos logo que
f (v1 ) = w1 , f (v2 ) = w2 , . . . e f (vn ) = wn ; mas será verdade que f é linear? Aqui é útil dividir
o procedimento para calcular f (v) em dois passos:
• calcular o vetor de coordenadas (α1 , . . . , αn ) de v, e
• calcular a combinação linear α1 · w1 + · · · + αn · wn .
Dito mais formalmente, podemos apresentar a função f como a função composta da função
[−]B : V → Rn com a função L(w1 ,...,wn ) : Rn → W (ver Teorema III.1.6):
f

)
V / Rn /W .
[−]B L(w1 ,...,wn )
Capı́tulo III. Transformações entre espaços 57

Já observarmos antes que [−]B e L(w1 ,...,wn ) são transformações lineares, logo f é linear. Final-
mente, o Teorema III.2.1 implica que f é a única transformação linear com estas propriedades.
Resumindo, transformações lineares são completamente determinadas considerando apenas
geradores e podem ser definidas arbitrariamente em bases.

Exemplo III.2.3. Consideremos a transformação linear f : R2 → R3 definida por

f (1, −1) = (1, 2, 3) e f (1, 1) = (1, 1, 1).

Para obter a imagem de (−2, 4) ∈ R2 ,


(1). calculamos primeiro o vetor de coordenadas de (−2, 4) relativamente à base B = ((1, −1), (1, 1)):
" # " # " # " #
1 1 −2 1 1 −2 1 1 −2 1 0 −3
,
−1 1 4 0 2 2 0 1 1 0 1 1
portanto, [(−2, 4)]B = (−3, 1);
(2). e depois obtemos

f (−2, 4) = f (−3(1, −1)+1(1, 1)) = −3f (1, −1)+1f (1, 1) = −3(1, 2, 3)+1(1, 1, 1) = (−2, −5, −8).

Da forma genérica, para (a, b) ∈ R2 ,


" # " # " # " #
a−b
1 1 a 1 1 a 1 1 a 1 0 2
a+b a+b ,
−1 1 b 0 2 a+b 0 1 2 0 1 2

portanto, [(−2, 4)]B = ( a−b a+b


2 , 2 ); e por isso
a−b a+b 3a − b
f (a, b) = (1, 2, 3) + (1, 1, 1) = (a, , 2a − b).
2 2 2
III.3. Isomorfismos

A palavra “isomorfismo” tem a sua origem nas palavras gregas ισoς (isos, em português:
“igual”) e µo%ϕη (morphe, em português: “forma”). De facto, o conceito de isomorfismo é
utilizado em todas as áreas de matemática exatamente neste sentido: estabelecer que dois objetos
tem as mesmas caraterı́sticas. Mais especificamente, procura-se dois processos de tradução –
ou seja: duas funções – que são mutuamente inversos e respeitam estas caraterı́sticas; aqui o
significado de “caraterı́stica” depende do contexto.
Agora pode-se perguntar: Porque devemos procurar isomorfismos?. Para responder, começamos
com a observação2 que “uma igualdade é mais útil se os dois lados são diferentes”. Isto parece
absurdo na primeira vista; mas, pensando bem, o teorema “1 = 1” é o teorema menos útil do
mundo. No caso de isomorfismos, a situação é semelhante. Embora um isomorfismo estabeleça
que dois objetos são essencialmente iguais, estes objetos podem ser diferentes para nós.
Para ilustrar isso, consideramos o nosso exemplo principal: o cálculo de coordenadas de
um vetor relativamente a uma base B = (v1 , . . . , vn ) de um espaço vetorial V . Este processo
é particularmente útil porque é bidirecional : a cada vetor v ∈ V podemos associar o seu vetor
de coordenadas [v]B ∈ Rn , mas também a cada sequência (α1 , . . . , αn ) ∈ Rn corresponde a
combinação linear α1 ·v1 +· · ·+αn ·vn . Aqui é importante que estes dois processos sejam inversos
entre si: cada vetor v é igual à combinação linear α1 · v1 + · · · + αn · vn com [v]B = (α1 , . . . , αn ), e
o vetor de coordenadas do vetor α1 · v1 + · · · + αn · vn é (α1 , . . . , αn ) ∈ Rn . São precisamente estas
2
em: John Baez and James Dolan, From finite sets to Feynman diagrams, In Mathematics Unlimited - 2001
and Beyond, volume 1, pages 29–50. Springer, Berlin, 2001.
58 III.3. Isomorfismos

propriedades que nos permitem-nos traduzir cada problema em V num problema equivalente em
Rn . Portanto, os espaços V e Rn são essencialmente iguais, mas é mais fácil trabalhar em Rn .
Dito na linguagem de espaços vetoriais, os dois processos acima definem as transformações
lineares [−]B : V → Rn e LB : Rn → V , e, para todos os v ∈ V e (α1 , . . . , αn ) ∈ Rn ,
LB ([v]B ) = v e (α1 , . . . , αn ) = [LB (α1 , . . . , αn )]B .
Com esta motivação definimos agora:

Definição III.3.1. Uma transformação linear f : V → W diz-se isomorfismo quando existe


uma transformação linear g : W → V com
g ◦ f = idV e f ◦ g = idW .

Verificamos primeiro que uma tal transformação linear g : W → V é única, quando existe.
De facto, se temos transformações lineares g, g 0 : W → V com g ◦ f = idV e f ◦ g 0 = idW , então
g = g ◦ idW = g ◦ f ◦ g 0 = idV ◦g 0 = g 0 .
Sendo assim, aquela única função g : W → V com g ◦ f = idV e f ◦ g = idW merece um nome
especial: chamamos a g a transformação linear inversa de f : V → W e escrevemos f −1
em lugar de g.

Nota III.3.2. Para cada espaço vetorial V , a função identidade idV : V → V é um isomorfimos
com id−1
V = idV . Se f : V → W e g : W → E são isomorfismos, então g ◦ f é um isomorfismo
com (g ◦ f )−1 = f −1 ◦ g −1 . Se f é um isomorfimo, então f −1 é um isomorfismo e (f −1 )−1 = f .

Exemplo III.3.3. O exemplo primordial de um isomorfismo é o cálculo de coordenadas (ver


Teorema II.4.3). Mais concretamente, para um espaço vetorial V de dimensão n ∈ N com base
B = (v1 , . . . , vn ), a função
[−]B : V −→ Rn , v 7−→ [v]B
é um isomorfismo com a transformação linear inversa
LB : Rn −→ V, (α1 , . . . , αn ) 7−→ α1 · v1 + · · · + αn · vn .

Exemplos III.3.4. Consideremos agora as transformações lineares do Exemplos III.1.7.


(1). Para todos os i, j ∈ {1, . . . , n} com i 6= j, fi↔j é um isomorfismo com a transformação
inversa fi↔j porque fi↔j ◦ fi↔j = idRn
(2). Para todos os i, j ∈ {1, . . . , n} com i 6= j e α ∈ R, a transformação linear fj+αi (i 6= j)
é um isomorfismo. Neste caso, a transformação inversa de fj+αi é fj−αi .
(3). Para todos os i ∈ {1, . . . , n} e α ∈ R, a transformação linear fαi é um isomorfismo se e
só se α 6= 0. Para α 6= 0, a transformação inversa de fαi é f 1 i .
α

Como já mencionamos, um isomorfismo f : V → W é “o melhor que nós pode acontecer”


porque, neste caso, podemos considerar V e W como essencialmente iguais. Isto já utilizamos
várias vezes quando temos uma base B em V , ou seja, quando temos um isomorfismo [−]B : V →
Rn : em lugar de trabalhar diretamente com os vetores em V , fazemos todo o cálculo com os
vetores de coordenadas em Rn . Esta possibilidade é garantida pelo Teorema II.4.3, e de forma
análoga podemos argumentar no caso de um isomorfismo f : V → W .

Teorema III.3.5. Sejam f : V → W um isomorfismo, (v1 , . . . , vn ) uma famı́lia de vetores de V


e v ∈ V . Então,
Capı́tulo III. Transformações entre espaços 59

(1). (v1 , . . . , vn ) é linearmente independente em V se e só se (f (v1 ), . . . , f (vn )) é linearmente


independente em W .
(2). v ∈ hv1 , . . . , vn i se e só se f (v) ∈ hf (v1 ), . . . , f (vn )i. Em particular, (v1 , . . . , vn ) gera V
se e só se (f (v1 ), . . . , f (vn )) gera W .
(3). O espaço vetorial V é de dimensão finita se e somente se W é de dimensão finita; e,
neste caso, tem-se dim V = dim W .

Para formular algumas propriedades de espaços vetoriais, basta-nos saber que existe um
isomorfismo entre V e W e não precisamos de mencionar o isomorfismo explicitamente. Portanto,
definimos:

Definição III.3.6. Os espaços vetoriais V e W dizem-se isomorfos, e escreve-se V ' W ,


quando existe um isomorfismo entre eles.

O resultado a seguir permite-nos verificar facilmente quando é que dois espaços vetoriais são
isomorfos, no caso de estarmos a considerar espaços vetoriais de dimensão finita.

Proposição III.3.7. Sejam V e W espaços vetoriais de dimensão finita. Então V e W são


isomorfos se e só se dim V = dim W .

Uma das implicações da equivalência da proposição acima é dada pelo Teorema III.3.5. A
implicação contrária vai ser ilustrada no exemplo seguinte.

Exemplo III.3.8. Considere o espaço vetorial dos polinómios de grau menor ou igual a 2, R[t]2 ,
e o subespaço de R4 , F = {(x, y, z, w)R4 :| x = y + z + w}. O espaço vetorial R[t]2 tem como
base canónica C = (1, t, t2 ) e facilmente se vê que B = ((1, 1, 0, 0), (1, 0, 1, 0), (1, 0, 0, 1)) é uma
base de F e, portanto, dim R[t]2 = dim F . A transformação linear f : R[t2 ] → F definida por
f (1) = (1, 1, 0, 0), f (t) = (1, 0, 1, 0) e f (t2 ) = (1, 0, 0, 1) é um isomorfismo com transformação
linear inversa g : F → R[t]2 dada por g(1, 1, 0, 0) = 1, g(1, 0, 1, 0) = t e g(1, 0, 0, 1) = t2 .

Nota III.3.9. Para um isomorfismo f : V → Rn com transformação inversa f −1 : Rn → V , a


sequência B = (v1 , v2 , . . . , vn ) de vetores em V com
v1 = f −1 (1, 0, . . . , 0), v2 = f −1 (0, 1, 0, . . . , 0), ... vn = f −1 (0, . . . , 0, 1)
é uma base de V . Além disso, para cada (α1 , . . . , αn ) ∈ Rn , tem-se
f −1 (α1 , . . . , αn ) = α1 · v1 + · · · + αn · vn ;
ou seja, f −1 = LB e por isso f = [−]B . Portanto, tendo também em conta o Exemplo III.3.3,
bases em V e isomorfismos do tipo V → Rn são sinónimos .

Nota III.3.10. Em alguns casos é útil interpretar os vetores v1 , . . . , vn de Rm como as linhas


de uma matriz A do tipo n × m. Observa-se que as linhas de uma matriz em escada A0 obtida
a partir de A aplicando as operações elementares, reinterpretadas como vetores v10 , . . . , vn0 de
Rm , obtém-se a partir de v1 , . . . , vn aplicando os isomorfismos dos Exemplos III.1.7 e III.3.4.
Portanto:
(1). a sequência (v1 , . . . , vn ) é linearmente independente se e só se a sequência (v10 , . . . , vn0 ) é
linearmente independente; e
(2). hv1 , . . . , vn i = hv10 , . . . , vn0 i.
Mas, como a matriz A0 é uma matriz em escada, é fácil de ver que
60 III.3. Isomorfismos

(1). a sequência (v10 , . . . , vn0 ) é linearmente independente se e só se nenhum dos vetores
v10 , . . . , vn0 é o vetor nulo, e
(2). uma base de hv10 , . . . , vn0 i é dada pela sequência constituı́da pelos vetores não nulos de
v10 , . . . , vn0 ; ou seja, pelas linhas com pivô de A.
Pelas considerações anteriores, a dimensão do subespaço de Rn gerado pelas linhas de uma
matriz A do tipo m × n é igual ao número de pivôs da matriz em escada A0 obtida a partir de
A aplicando as operações elementares, ou seja, é igual à caracterı́stica de A.

Até este momento apenas consideramos a questão Como utilizar isomorfismos?, mas tudo
isto é pouco útil se não explicamos Como identificar isomorfismos?. O seguinte teorema dá uma
primeira resposta.

Teorema III.3.11. Uma transformação linear f : V → W é um isomorfismo se e só se f é


injetiva e sobrejetiva.

Recordamos que uma função f : V → W é injetiva e sobrejetiva (ver a Introdução) se e


só se f tem uma função inversa g : W → V ; resta saber se esta função é automaticamente
uma transformação linear sempre que f : V → W é uma transformação linear. Utilizando a
linearidade de f juntamente com f ◦ g = idW , obtemos, para todos os u, v ∈ W e α ∈ R:

f ◦ g(u + v) = u + v = f ◦ g(u) + f ◦ g(v) = f (g(u) + g(v))

e
f ◦ g(α · u) = α · u = α · f g(u) = f (α · g(u)).
Agora, como f é injetiva, concluı́mos que,

g(u + v) = g(u) + g(v) e g(α · u) = α · g(u).

Portanto, o nosso problema de reconhecer isomorfismos divide-se em dois problemas: recon-


hecer transformações lineares injetivas e reconhecer transformações lineares sobrejetivas. Para
facilitar estas tarefas, introduzimos as seguintes noções.

Definição III.3.12. Seja f : V → W uma transformação linear. O núcleo de f é dado pelo


conjunto
ker(f ) = {v ∈ V | f (v) = 0},
e a imagem de f pelo conjunto

im(f ) = {f (v) | v ∈ V }.

Por outras palavras, a imagem de f é o conjunto de todos os elementos de W que são imagem
de algum elemento de V , i.e., im(f ) = {w ∈ W : existe v ∈ V tal que f (v) = w}. É fácil de
verificar que estes subconjuntos são de facto subespaços. Para futuras referências mencionamos:

Lema III.3.13. Seja f : V → W uma transformação linear. Então, ker(f ) é um subespaço


vetorial de V e im(f ) é um subespaço vetorial de W .

O próximo resultado ligue estes novos conceitos com as nossas questões sobre as trans-
formações lineares.

Proposição III.3.14. Seja f : V → W uma transformação linear. Então, verificam-se as


seguintes afirmações.
Capı́tulo III. Transformações entre espaços 61

(1). A função f é sobrejectiva se e só se im(f ) = W . Se W tem dimensão finita, então f é


sobrejectiva se e só se dim im(f ) = dim W .
(2). Seja w ∈ W e seja v0 ∈ V com f (v0 ) = w. Então,

{v ∈ V | f (v) = w} = {v0 + u | u ∈ ker(f )}.

(3). A função f é injectiva se e só se ker(f ) = {0} se e só se dim ker(f ) = 0.

Portanto, temos de nos preocupar com o cálculo das dimensões do núcleo e da imagem de
uma transformação linear, o que é o objetivo da Secção III.5. Contudo, o próximo resultado já
dá uma primeira ajuda.

Teorema III.3.15. Seja f : V → W uma transformação linear onde V é um espaço vetorial da


dimensão finita. Então, ker(f ) e im(f ) são de dimensão finita e

dim V = dim ker(f ) + dim im(f ).

A fórmula do teorema acima pode-se justificar da seguinte maneira:


(1). escolhe-se uma base (u1 , . . . , un ) de ker(f ) e uma base (w1 , . . . , wm ) de im(f );
(2). determinam-se vetores v1 . . . , vm em V com f (vi ) = wi , para 1 ≤ i ≤ m; e
(3). verifica-se que (u1 , . . . , un , v1 , . . . , vm ) é uma base de V .
Embora por enquanto não saibamos calcular as dimensões do núcleo ou da imagem, o teorema
acima já nos permite tirar algumas conclusões. Por exemplo, dada uma transformação linear
f : R3 → R2 ; será que f é injetiva? A fórmula acima diz-nos que, neste caso,

3 = dim ker(f ) + dim im(f ).

Mas, como im(f ) é um subespaço de R2 , dim(f ) ≤ 2; e por isso dim ker(f ) ≥ 1. Portanto, f
não é injetiva. Uma outra consequência útil do Teorema III.3.15 é o seguinte resultado.

Corolário III.3.16. Sejam V e W espaços vetoriais de dimensão finita, com dim V = dim W ,
e f : V → W uma transformação linear. Então, as seguintes afirmações são equivalentes.
(i) f é um isomorfismo.
(ii) f é injectiva.
(iii) f é sobrejectiva.

Por outras palavras, uma transformação linear f : V → W entre espaços vetoriais de igual
dimensão é injetiva se e somente se f é sobrejectiva. De facto, se dim ker(f ) = 0, então dim V =
0 + dim im(f ) = dim im(f ), logo como dim V = dim W , conclui-se que dim im(f ) = dim W
e portanto f é sobrejetiva. Por outro lado, se dim im(f ) = dim W = dim V , então dim V =
dim ker(f ) + dim im(f ) = dim ker(f ) + dim V , logo dim ker(f ) = 0.
O seguinte exemplo mostra que a afirmação acima pode ser falsa em espaços vetoriais V que
não têm dimensão finita.

Exemplo III.3.17. Consideremos o espaço D∞ (R, R) das funções reais com derivada de cada
ordem (ver Exemplo II.2.5 (3)), e a transformação linear

D : D∞ (R, R) −→ D∞ (R, R), f 7−→ f 0 .

Qual é o núcleo de D? E a imagem de D? Se tem dúvidas, pergunte o seu docente do Cálculo


I ...
62 III.4. A matriz de uma transformação linear

III.4. A matriz de uma transformação linear

Uma grande parte do Capitulo II é dedicado ao estudo de bases e coordenadas como um


método de traduzir vetores em sequências de números. O objetivo desta e das seguintes secções
é estender este método às transformações lineares: associamos a cada transformação linear
uma matriz de modo que o cálculo com transformações lineares corresponda precisamente ao
cálculo com matrizes. Assim, podemos trabalhar com matrizes em lugar de funções o que é
tipicamente mais agradável. Apresentamos este método primeiro para transformações lineares
to tipo Rn → Rm , e depois para transformações lineares entre espaços vetoriais de dimensão
finita em geral.
Para explicar as ideias centrais, começamos com um exemplo simples. Dado um número real
α qualquer, é fácil de verificar que a função

fα : R −→ R, x 7−→ αx

é uma transformação linear. Surpreendentemente ou não, não há outros exemplos de trans-
formações lineares de R em R: se f : R → R é linear, obtemos f (x) = f (x 1) = x f (1); ou seja,
com α = f (1), f (x) = α x para todo o x ∈ R.
Veremos agora que a situação é semelhante para as transformações lineares f : Rn → Rm ,
mas com matrizes do tipo m×n em lugar de números. No entanto, para formular uma afirmação
semelhante neste caso, é necessário alargar o cálculo com matrizes. Para as matrizes
   
a1,1 . . . a1,n x1
 ..   . 
A=  . 
 e x =  .. 

,
am,1 . . . am,n xn
defina-se o produto A x da matriz A do tipo m × n com a matrix x to tipo n × 1 por
        
a1,1 . . . a1,n x1 a1,1 a1,2 a1,n
 ..  . 
  ..  = x1  ...  + x2  ...  + · · · + xn  ...  ;
     

 .        
am,1 . . . am,n xn am,1 am,2 am,n
portanto, A x é uma matriz do tipo m × 1. Por outras palavras, A x é dada pela combinação
linear das colunas de A com os coeficientes tirados da coluna x. Explicitamente,
 
a1,1 x1 + · · · + a1,n xn
 .. 
Ax =   . .

am,1 x1 + · · · + am,n xn

Exemplo III.4.1. Calculamos:


 
" # 1 " # " #
1 2 3   1−3 −2
 0 = = .
4 5 6 4−6 −2
−1

Utilizando as propriedades da adição de matrizes e da multiplicação de matrizes por escalares,


obtém-se logo:

Proposição III.4.2. Sejam A e B matrizes do tipo m × n, x e y matrizes do tipo n × 1 e α ∈ R.


Então,

A (x + y) = A x + A y e A (α x) = α (A x).
Capı́tulo III. Transformações entre espaços 63

Finalmente, para podermos utilizar a linguagem de matrizes, no que se segue identificamos,


para cada k ∈ N, o elemento (x1 , . . . , xk ) de Rk com a matriz
 
x1
.
 .. 
 
xk
do tipo k × 1. Assim podemos reformular a Proposição III.4.2:

Corolário III.4.3. Seja A uma matriz do tipo m × n. Então, a função

fA : Rn −→ Rm , v 7−→ A v

é uma transformação linear.

Portanto, cada matriz define uma transformação linear; e é fácil de ver que matrizes diferentes
definem transformações lineares diferentes. Além disso, para todas as matrizes A e B do tipo
m × n e todo o α ∈ R,

fA + fB = f(A+B) e α · fA = f(α·A) .

Geralmente, será que cada transformação linear f : Rn → Rm é da forma f = fA , para uma


matriz do tipo m × n? De facto, para v = (x1 , . . . , xn ) ∈ Rn , obtém-se
      
1 0 0
 0 1 0
      
f (v) = f  x 1
 .  + x2  .  + · · · + xn  . 
 . .  . 
 . .  . 
0 0 1
     
1 0 0
0 1 0
     
 ..  + x2 f  ..  + · · · + xn f  .. 
= x1 f       
 .   .   . 
0 0 1
        
1 0 0 x1
 0 1 0  x2 
        
=
f  ..  f  ..  . . .
    f
 .. 
   . ;
 . 
  .   .   .   . 
0 0 1 xn
portanto, podemos notar:

Teorema III.4.4. Seja f : Rn → Rm uma transformação linear. Então, existe uma única matriz
A do tipo m × n tal que, para cada v ∈ Rn ,

f (v) = A v.

Dada uma transformação linear f : Rn → Rm , a matriz A do teorema anterior diz-se a


matriz de f e é denotada por M (f ).

Calcular a matriz de f : Rn → Rm .
A matriz de uma transformação linear f : Rn → Rm pode-se obter da seguinte maneira:
64 III.4. A matriz de uma transformação linear

• Calcular as imagens dos vetores (1, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, . . . , 0, 1):
a1 = f (1, 0, 0, . . . , 0),
a2 = f (0, 1, 0, . . . , 0),
..
.
an = f (0, 0, . . . , 0, 1).
• A matriz de A de f é a matriz A = [a1 a2 . . . an ] com as colunas a1 , a2 , . . . , an .

Procedimento III.4.5

Exemplo III.4.6. Consideremos a transformação linear

f : R3 −→ R2 , (x, y, z) 7−→ (x + y, y + z).

Como

f (1, 0, 0) = (1, 0), f (0, 1, 0) = (1, 1), f (0, 0, 1) = (0, 1);

a matriz de f é a matriz
" #
1 1 0
.
0 1 1

Exemplos III.4.7. Consideremos agora as transformações lineares dos Exemplos III.1.7 e de-
terminemos as correspondentes matrizes.
(1). A matriz da transformação linear

fi↔j : Rn −→ Rn , (x1 , . . . , xi , . . . , xj , . . . , xn ) 7−→ (x1 , . . . , xj , . . . , xi , . . . , xn );

é a matriz
      
1 0 0
0 1 0
      

Ei↔j =
fi↔j  ..  fi↔j  ..  . . .
    fi↔j 
 ..  ;
 
  .   .   . 
0 0 1

portanto, Ei↔j obtém-se a partir da matriz identidade In trocando as linhas i e j.

i j
 
1 0 ... 0 ... 0 ... 0
0 1 ... 0 ... 0 ... 0
 
..
.
 
 
 
linha i 0 0 . . .
 0 ... 1 ... 0
.. ..

. .
 
 
 
linha j 0 0 . . .
 1 ... 0 ... 0
..

..
.
 
 . 
0 0 ... 0 ... 0 ... 1
Capı́tulo III. Transformações entre espaços 65

(2). De forma semelhante, a matriz da transformação linear

fαi : Rn −→ Rn , (x1 , . . . , xi , . . . , xn ) 7−→ (x1 , . . . , αxi , . . . , xn );

é a matriz Eαi obtida a partir da matriz identidade In multiplicando a linha i por α ∈ R.

i
 
1 0 ... 0 ... 0
0 1 ... 0 ... 0
 
 .. 
 . 
 
linha i 0 0 . . .
 α ... 0
.. ..

.
 
 . 
0 0 ... 0 ... 1

(3). A matriz da transformação linear (i 6= j)

fj+αi : Rn −→ Rn , (x1 , . . . , xi , . . . , xj , . . . , xn ) 7−→ (x1 , . . . , xi , . . . , αxi + xj , . . . , xn ),

a matriz Ej+αi obtida a partir da matriz identidade In adicionando α vezes a linha i à


linha j.

i j
 
1 0 ... 0 ... 0 ... 0
0 1 ... 0 ... 0 ... 0
 
..
.
 
 
 
linha i 0 0 . . .
 1 ... 0 ... 0
.. ..

. .
 
 
 
linha j 0 0 . . .
 α ... 1 ... 0
..

..
.
 
 . 
0 0 ... 0 ... 0 ... 1

A matrizes desta forma designamos por matrizes elementares.


Sejam A e B matrizes do tipo n × m.
(1). Se B é a matriz que se obtém de A por troca das linhas i e j, temos que B = Ei↔j A;
(2). Se B se obtém de A por multiplicação da linha i por um número α, então B = Eαi A;
(3). Por fim, se A B, por adição da linha i multiplicada pelo número α à linha j, obtemos
B = Ej+αi A.
Portanto, para cada redução A A0 com matrizes do tipo n × m, a matriz A0 é um produto

A0 = E1 · · · Ek A

com matrizes elementares E1 , . . . , Ek .

O Teorema III.4.4 afirma que as transformações lineares entre os espaços Rn e Rm corre-


spondem precisamente às matrizes do tipo m × n. Na seguinte secção veremos como utilizar
esta correspondência no estudo de transformações lineares.
66 III.5. Cálculo do núcleo e da imagem de uma transformação linear

III.5. Cálculo do núcleo e da imagem de uma transformação linear

Seja f : Rn → Rm uma transformação linear. Já sabemos que f é necessariamente da forma


f = fA , para uma matriz  
a1,1 . . . a1,n
 .. 
A=  . 

am,1 . . . am,n
do tipo m×n, e cada tal matriz A defina uma transformação linear fA : Rn → Rm . Nesta secção
continuamos a identificar v = (x1 . . . , xn ) ∈ Rn com a coluna
 
x1
 . 
v= . 
 . .
xn
Pela definição, o núcleo de fA : Rn → Rm é dado por

ker(fA ) = {v ∈ Rn | A v = 0}.

Como     
a1,1 ... a1,n x1 a1,1 x1 + · · · + a1,n xn
 ..  .  
  ..  =  .. 
Av = 
 .    . ,

am,1 . . . am,n xn am,1 x1 + · · · + am,n xn
o núcleo de fA é precisamente o conjunto das soluções do sistema homogéneo de equações lineares
a1,1 x1 + · · · + a1,n xn = 0,
a2,1 x1 + · · · + a2,n xn = 0,
..
.
am,1 x1 + · · · + am,n xn = 0;
e, vice versa, o conjunto das soluções de um tal sistema é igual ao núcleo de fA onde A = [ai,j ]
é a matriz dos coeficientes ai,j do sistema. Em particular, o conjunto de soluções de um sistema
homogéneo constitui um subespaço de Rn . Portanto:

Sobre o núcleo de f : Rn → Rm , v 7→ A v.
O núcleo ker(f ) de f coincide com o conjunto das soluções do sistema homogéneo A x = 0.
Uma base de ker(f ) pode-se obter atribuindo, sucessivamente, a uma variável livre o valor
1 e 0 as restantes variáveis livres. Portanto, a dimensão do núcleo de f é igual ao número
de variáveis livres deste sistema, ou seja, é igual a n − car(A).

Procedimento III.5.1

Mais geralmente, o sistema de equações lineares


a1,1 x1 + · · · + a1,n xn = b1 ,
a2,1 x1 + · · · + a2,n xn = b2 ,
..
.
am,1 x1 + · · · + am,n xn = bm ;
Capı́tulo III. Transformações entre espaços 67

pode-se escrever de forma mais sucinta como uma equação

Ax = b

de matrizes, onde
   
a1,1 ... a1,n b1
 ..   . 
. 
A=
 . 
 e b=
 . 
am,1 . . . am,n bm

denotam as matrizes dos coeficientes e dos segundos membros (os termos independentes) do
sistema acima, e a incógnita
 
x1
 . 
x= . 
 . 
xn
é a matriz das incógnitas x1 , . . . , xn . Considerando a transformação linear fA : Rn → Rm , para
cada b ∈ Rm tem-se

{v ∈ Rn | fA (v) = b} = {soluções do sistema A | b},

e, tendo em conta a Proposição III.3.14, o conjunto de todas as soluções do sistema A | b de


equações lineares obtém-se como
uma solução particular todas as soluções do sistema ho-
+ .
do sistema A | b mogéneo A | 0
As considerações acima mostram também que a imagem im(fA ) de fA : Rn → Rm é dada
pelo conjunto de todas as colunas b ∈ Rm para os quais o sistema A x = b é possı́vel. Além disso
observamos que

im(fA ) = {A v | v ∈ Rn }
   

 a1,1 . . . a 1,n α 1 

.  . 
 
..   ..  | (α1 , . . . , αn ) ∈ Rn
=    

 

 a
m,1 . . . am,n αn 
       

 a
  1,1  a1,2 a1,n 

.  .   .  
.   .   .
= α1  .  + α2  .  + · · · + αn  .  | α1 , . . . , αn ∈ R
 

 

 am,1 am,2 am,n 
     
* a1,1 a1,2 a1,n +
 .   .   . 
=  .   .   . 
 . , . ,..., .  ;
am,1 am,2 am,n

ou seja, a imagem de fA é o subespaço de Rm gerado pelas colunas de A. Em todo o caso, os


Procedimentos II.5.12 e II.2.9 explicam como analisar a imagem de fA .

Sobre a imagem de f : Rn → Rm , v 7→ A v.
68 III.6. O produto de matrizes

Tem-se que
im(f ) = {todas as colunas b ∈ Rm para os quais o sistema A x = b é possı́vel}
     
* a1,1 a1,2 a1,n +
 .   . 
..  ,  ..  , . . . ,  ...  .
 
=       
am,1 am,2 am,n
Uma base de im(f ) é dada pela sequência de colunas de A com pivô numa matriz A0 em
escada com A A0 . Assim, dim im(f ) = car(A) = número de pivôs de A0 .

Procedimento III.5.2

Nota III.5.3. Para uma transformação f : Rn → Rm , v 7→ A v, observamos que

dim ker(f ) + dim im(f ) = no colunas de A sem pivô + no colunas de A com pivô
= no colunas de A
= n;

o que fornece uma outra perspetiva à fórmula das dimensões do Teorema III.3.15.

Recordamos que a caracterı́stica de A é igual ao número de pivôs na matriz A0 em escada


correspondente. Pela Nota III.3.10, a caracterı́stica de A também é igual a dimensão do sube-
spaço de Rn gerado pelas linhas de A. Definimos a matriz transposta da matriz A do tipo
m × n como a matriz At do tipo n × m cuja entrada na posição (i, j) é igual a entrada na posição
(j, i) da matriz A; ou seja, a matriz At obtém-se a partir de A “trocando linhas por colunas”.
A observação anterior sobre a caracterı́stica de A pode-se expressar de forma mais sucinta:

car(A) = car(At ).

III.6. O produto de matrizes

Na Secção III.4 descobrimos uma correspondência entre as transformações lineares f : Rn →


Rm e as matrizes do tipo m × n; além disso, da forma independente, aprendemos calcular com
matrizes e calcular com transformações lineares. Como é que estes cálculos se relacionam?
Não é difı́cil de ver que a matriz da função nula é a matriz nula, e a matriz da função soma
f + g : Rn → Rm é a soma da matriz de f : Rn → Rm e da matriz de g : Rn → Rm . Agora, para
transformações lineares
f g
Rn −→ Rm −→ Rk

dadas por f (v) = A v e g(w) = B w, para todo o v ∈ Rn e todo o w ∈ Rm , e onde


   
b1,1 . . . b1,m a1,1 . . . a1,n
 ..   .. 
B=  . 
 e A=  . 

bk,1 . . . bk,m am,1 . . . am,n

são matrizes do tipo k × m e m × n respectivamente, estudamos a questão


Como obter a matriz da função composta g ◦ f : Rn → Rk a partir das matrizes B e A?
Capı́tulo III. Transformações entre espaços 69

A matriz da função composta é seguramente do tipo k × n, e as considerações da Secção


III.4 implicam que a primeira coluna desta matriz é dada por
g(f (1, 0, . . . , 0)).
Mas f (1, 0, . . . , 0) é  
a1,1
 . 
 ..  ,
 
am,1
e por isso g(f (1, 0, . . . , 0)) é o produto
  
b1,1 . . . b1,m a1,1
 ..  . 
  ..  .

 .  
bk,1 . . . bk,m am,1
Aplicando o mesmo argumento às outras colunas, obtém-se que a matriz de g ◦ f é a matriz do
tipo k × n com as colunas
        
b1,1 . . . b1,m a1,1 b1,1 . . . b1,m a1,2 b1,1 . . . b1,m a1,n
 ..  .  
  ..  ,  ..  .  
  ..  , . . . ,  ..  . 
  ..  .

 .    .    .  
bk,1 . . . bk,m am,1 bk,1 . . . bk,m am,2 bk,1 . . . bk,m am,n
(III.6.i)
Em geral, para matrizes B = [bi,j ] e A = [ai,j ] do tipo k × m e m × n respectivamente, o
produto B A das matrizes B e A é a matriz do tipo k × n com as colunas indicadas em
(III.6.i). Para cada n ∈ N, a matriz identidade do tipo n × n é a matriz
 
1 0 0 ... 0
0 1 0 . . . 0
 
In =  .. 
.
 
 
0 0 0 ... 1
com todos os elementos da diagonal iguais a 1 e todos os elementos fora da diagonal iguais a 0.

Teorema III.6.1. (1). A matriz da função identidade idRn : Rn → Rn é a matriz identi-


dade.
(2). Para transformações lineares g : Rm → Rk e f : Rn → Rm com matrizes B e A respec-
tivamente, a matriz de g ◦ f é dada pelo produto B A de B e A.

Portanto, em relação ao cálculo com matrizes e ao cálculo com transformações lineares,


podemos agora estabelecer o dicionário descrito na Tabela III.6.2.
Em particular, tendo também em conta o Teorema III.1.9, obtém-se:

Proposição III.6.2. Sejam C uma matriz do tipo l × k, B e B 0 matrizes do tipo k × m, A e


A0 matrizes do tipo m × n e α ∈ R.
(1). 0 A = 0 = A 0, onde 0 denota a matriz nula.
(2). Im A = A = A In ,
(3). C (B A) = (C B) A,
(4). B (A + A0 ) = (B A) + (B A0 ),
(5). (B + B 0 ) A = (B A) + (B 0 A),
(6). α(B A) = (αB) A = B (αA).
70 III.6. O produto de matrizes

Transformações lineares Matrizes


f :R →Rn m A do tipo m × n
função nula matriz nula
função identidade matriz identidade
produto com escalar produto com escalar
soma soma
composta produto
Tabela III.6.2. Transformações lineares vs. Matrizes

Nota III.6.3. Para matrizes A e B, em geral não se tem A B = B A. Por exemplo, se B é do


tipo 2 × 3 e A é do tipo 3 × 3, não se pode calcular o segundo membro da equação. Além disso,
se A é do tipo 3 × 2, o produto A B tem o tipo 3 × 3 e B A tem o tipo 2 × 2. Ainda mais, mesmo
se A e B têm o tipo n × n, A B pode ser diferente de B A como se pode ver no caso de
" # " #
1 0 1 2
A= e B= .
1 1 3 4
Definição III.6.4. Uma matriz A do tipo n × n diz-se invertı́vel quando existe uma matriz
B do tipo n × n com
B A = In e A B = In .

Tal como no caso de transformações lineares (ver Secção III.3) tem-se:

Lema III.6.5. Sejam A, B, B 0 matrizes do tipo n × n. Se B A = In e A B 0 = In , então B = B 0 .

A única matriz B com B A = In e A B = In denota-se por A−1 e designa-se por matriz


inversa de A. Estabelecemos logo a ligação com as transformações lineares.

Proposição III.6.6. Seja A uma matriz do tipo n × n. Então, A é invertı́vel se e só se a


transformação linear fA : Rn → Rn é um isomorfismos. Além disso, A−1 é a matriz da função
inversa de fA .
" # " #
2 −1 1 1
Exemplo III.6.7. A matriz é a matriz inversa da matriz porque
−1 1 1 2
" #" # " # " #" # " #
2 −1 1 1 1 0 1 1 2 −1 1 0
= e =
−1 1 1 2 0 1 1 2 −1 1 0 1
Portanto, a transformação linear
f : R2 −→ R2 , (x, y) 7−→ (x + y, x + 2y)
é um isomorfismo com a transformação inversa
g : R2 −→ R2 , (x, y) 7−→ (2x − y, y − x).
" #
1 −1
Exemplo III.6.8. A matrix A = não é invertı́vel. De facto, para cada matriz B =
0 0
" #
a b
, o elemento na posição (2, 2) do produto A B é
c d
0b + 0d = 0,
Capı́tulo III. Transformações entre espaços 71

logo A B 6= I2 . Portanto, não existe uma matriz inversa de A.

Proposição III.6.9. (1). Para cada n ∈ N, a matriz identidade In é invertı́vel e In−1 = In ;


(2). Sejam A uma matriz invertı́vel do tipo n × n e α ∈ R diferente de zero. Então, αA é
invertı́vel e (αA)−1 = α1 A−1 ;
(3). Sejam A e B matrizes invertı́veis do tipo n × n. Então, o produto A B de A e B é
invertı́vel e (A B)−1 = B −1 A−1 .

Por exemplo, a segunda afirmação diz-nos que a matriz inversa do produto A B de A e B é


dada pela matriz B −1 A−1 ; supondo aqui que A e B são invertı́veis. Para justificar este facto,
basta verificar que ambos os produtos entre a matriz e o “candidato a inversa” é igual à matriz
identidade. Neste caso:

(A B) (B −1 A−1 ) = A (B B −1 ) A−1 = A In A−1 = In

e
(B −1 A−1 ) (A B) = B −1 (A−1 A) B = B −1 In B = In .
De forma semelhante,
In In = In
justifica a primeira afirmação. Como veremos em breve, não é necessário trabalhar tanto: para
verificar que uma matriz B do tipo n × n é a inversa de A do tipo n × n, basta verificar ou
A B = In ou B A = In ; não é necessário calcular ambos os produtos.
Aprendemos até agora o que significa “a matriz inversa”, e como verificar se uma dada
matriz B é a inversa de uma matriz A. Mas, dada apenas A, como podemos saber se A tem
uma inversa? E, já agora, como calcular esta inversa? O próximo resultado dá-nos uma primeira
ideia.

Proposição III.6.10. Seja M uma matriz do tipo n × n. Cada uma das seguintes afirmações
implica a próxima afirmação.
(1). Existe uma matriz N do tipo n × n com N M = In .
(2). O sistema homogéneo M | 0 é determinado.
(3). car(M ) = n.
(4). Para todo o elemento b ∈ Rn , o sistema M | b é possı́vel.
(5). Para b = (1, 0, . . . , 0), b = (0, 1, 0, . . . , 0), . . . e b = (0, 0, . . . , 0, 1); o sistema M | b é
possı́vel.
(6). Existe uma matriz N 0 do tipo n × n com M N 0 = In .

Suponhamos primeiro (1), e seja s = (s1 , . . . , sn ) uma solução do sistema homogéneo M | 0.


Portanto, M s = 0 e por isso N M s = M 0 = 0. Como N M = In , concluı́mos que s = 0.
Assim, o sistema M | 0 tem apenas a solução nula. O Teorema I.3.16 garante que a afirmação
(2) implica a afirmação (3). Suponhamos agora que car(M ) = n e seja b ∈ Rn . Uma escalonação
da matriz M | b resulta numa matriz da forma
 
∗ − ... −
0 ∗ − . . . −
 
. 
.
.

 
0 0 ... ∗ −
72 III.6. O produto de matrizes

com os n pivôs (denotados por ∗) necessariamente na diagonal. Como a última coluna não tem
pivô, o sistema M | b é possı́vel, qualquer que seja b ∈ Rn ; e em particular para b = (1, 0, . . . , 0),
b = (0, 1, 0, . . . , 0), . . . e b = (0, 0, . . . , 0, 1). Portanto (3)⇒(4)⇒(5). Finalmente, suponhamos
que (5) é verdadeira. Portanto, com M = [ai,j ], os n sistemas

a1,1 x1 + · · · + a1,n xn = 1, a1,1 x1 + · · · + a1,n xn = 0,


a2,1 x1 + · · · + a2,n xn = 0, ..
.
.. ... (III.6.ii)
. . . . = 0,
am,1 x1 + · · · + am,n xn = 0; am,1 x1 + · · · + am,n xn = 1

são possı́veis. Sendo N 0 a matriz cujas colunas são dadas pelas soluções destes sistemas, respeti-
vamente, obtém-se M N 0 = In .
Tendo em conta que a multiplicação de matrizes não é comutativa, a seguinte consequência
dos resultados acima é um pouco surpreendente.

Corolário III.6.11. Sejam A, B matrizes do tipo n × n. Então,

B A = In ⇐⇒ A B = In .

Ambas as implicações obtém-se com o Lema III.6.5 e a Proposição III.6.10: para justificar a
implicação “do lado esquerdo para o lado direito” utiliza-se a Proposição III.6.10 com a matriz
M = A, e no caso da implicação“do lado direito para o lado esquerdo” com a matriz M = B.
Em particular, a afirmação (6) da Proposição III.6.10 implica a afirmação (1); ou seja, todas as
afirmações da Proposição III.6.10 são equivalentes.

Verificar se uma matriz é invertı́vel.


Seja A uma matriz do tipo n × n. Então, A é invertı́vel se e somente se car(A) = n.
Portanto, para verificar se A é invertı́vel:
• Fazer uma escalonação A A0 .
• A é invertı́vel precisamente se A0 tem n pivôs.

Procedimento III.6.12

Se A é invertı́vel, as colunas da inversa de A obtém-se resolvendo os sistemas III.6.ii.


" #
1 2
Exemplo III.6.13. Considere a matriz A = . Vamos proceder à escalonação de A
−1 −1
para verificarmos se A é invertı́vel:
" # " #
1 2 1 2
A= .
−1 −1 0 1

Como car(A) = 2 concluı́mos que existe A−1 . Para calcularmos a inversa de A temos de resolver
os sistemas
( (
x + 2y = 1 x + 2y = 0
e
−x − y = 0 −x − y = 1
Capı́tulo III. Transformações entre espaços 73

Vamos resolver o primeiro sistema reduzindo a respetiva matriz aumentada a uma matriz em
escada reduzida,
" # " # " #
1 2 1 1 2 1 1 0 −1
−1 −1 0 0 1 1 0 1 1
(
x = −1
donde segue que o sistema tem solução , ou seja a coluna 3 da matriz em escada
y=1
reduzida acima é a primeira coluna de A−1 . Vamos agora resolver o segundo sistema pelo
mesmo processo, para determinarmos a segunda coluna da inversa de A:
" # " # " #
1 2 0 1 2 0 1 0 −2
−1 −1 1 0 1 1 0 1 1

De modo análogo ao anterior obtivemos uma matriz em escada reduzida em que a " coluna cor-
#
−1 −1 −1 −2
respondente aos termos independentes é a segunda coluna de A . Logo, A = .
1 1
Note-se que realizamos as mesma operações elementares nas matrizes aumentadas dos dois sis-
temas. Pode-se então resolver os dois sistemas em simultâneo considerando duas colunas dos
termos independentes em vez de uma, como se segue:
" # " # " #
1 2 1 0 1 2 1 0 1 0 −1 −2
A| I =
−1 −1 0 1 0 1 1 1 0 1 1 1

As duas últimas colunas da matriz obtida em cima formam a inversa de A, ou seja, a matriz
tem a forma I | A−1 .

Portanto, o procedimento seguinte permite-nos calcular a inversa de uma matriz quadrada:

Calcular a matriz inversa.


Seja A uma matriz invertı́vel to tipo n × n. A inversa de A obtém-se de seguinte modo:
• Escrever a matriz A | In .
• Fazer uma redução A | In In | B.
• A matriz B que, após a redução, está no lugar da matriz identidade In é a matriz
inversa A−1 de A.

Procedimento III.6.14

 
1 −1 0
Exemplo III.6.15. Vamos agora calcular a inversa da matriz A =  2 −1 1 .
 

0 1 3
     
1 −1 0 1 0 0 1 −1 0 1 0 0 1 0 1 −1 1 0
A | I =  2 −1 1 0 1 0   0 1 1 −2 1 0   0 1 1 −2 1 0 
     

0 1 3 0 0 1 0 1 3 0 0 1 0 0 2 2 −1 1
   
1 0 1 −1 1 0 1 0 0 −2 3/2 −1/2
 0 1 1 −2 1 0   0 1 0 −3 3/2 −1/2 
   

0 0 1 1 −1/2 1/2 0 0 1 1 −1/2 1/2


74 III.7. A matriz de transformações lineares relativa a bases
 
−2 3/2 −1/2
Obtemos assim A−1 =  −3 3/2 −1/2 .
 

1 −1/2 1/2
Nota III.6.16. Outro método que podemos utilizar para calcular a inversa de uma matriz é
usando matrizes elementares. Se uma matriz A é invertı́vel, pode ser reduzida, via operações
elementares, à matriz identidade. Ou seja, existem matrizes elementares E1 , E2 , . . . , Ek tais que
Ek · · · E2 E1 A = I,
o que implica que A−1 = Ek · · · E2 E1 .

Acabamos esta secção com as regras para o cálculo com a matriz transposta.

Teorema III.6.17. (1). Para todo o n ∈ N, Int = In .


(2). Sejam A e B matrizes to tipo n×m e α ∈ R. Então, (A+B)t = At +B t e (α·A)t = α·At .
(3). Sejam B uma matriz do tipo k×m e A uma matriz do tipo m×n. Então, (B A)t = At B t .
(4). Seja A uma matriz invertı́vel do tipo n × n. Então, At é invertı́vel e (At )−1 = (A−1 )t .

III.7. A matriz de transformações lineares relativa a bases

Até este momento estudamos apenas métodos para analisar transformações lineares do tipo
Rn → Rm . Tal como no Capı́tulo II, vamos agora utilizar bases para tratar transformações
entre espaços vetoriais em geral.
Seja f : V → W uma transformação linear entre os espaços vetoriais V e W da dimensão n e
m, com bases B = (v1 , v2 , · · · , vn ) e C, respetivamente. Associamos a esta função a transformação
linear f¯: Rn → Rm definida como a função composta
L f [−]C
Rn −−B→ V −→ W −−−→ Rm .
Explicitamente, para cada v ∈ V ,
f¯(α1 , . . . , αn ) = [f (α1 v1 + · · · + αn vn )]C .
Assim, f¯: Rn → Rm completa o diagrama
f
V /W

[−]B [−]C
 
Rn / Rm

e é de facto a única transformação linear Rn → Rm com esta propriedade. Intuitivamente,


f¯: Rn → Rm “realiza a função f : V → W ao nı́vel de coordenadas”, e todas as questões
sobre f : V → W podem ser traduzidas em problemas equivalentes sobre f¯; mas no caso de
f¯: Rn → Rm podemos utilizar os resultados da Secção III.5. Em particular, tem-se:

Teorema III.7.1. Sejam f : V → W uma transformação linear e B = (v1 , . . . , vn ) e C =


(w1 , . . . , wm ) bases de V e W respectivamente, e seja f¯: Rn → Rm a correspondente trans-
formação linear.
f
V /W

[−]B [−]C
 
Rn / Rm

Capı́tulo III. Transformações entre espaços 75

Então, verificam-se as seguintes afirmações:


(1). ker(f ) = {v ∈ V | [v]B ∈ ker(f¯)},
(2). im(f ) = {w ∈ W | [w]C ∈ im(f¯)},
(3). (u1 , . . . , uk ) é uma base de ker(f ) se e só se ([u1 ]B , . . . , [uk ]B ) é uma base de ker(f¯),
(4). (y1 , . . . , yl ) é uma base de im(f ) se e só se ([y1 ]C , . . . , [yl ]C ) é uma base de im(f¯),
(5). dim ker(f ) = dim ker(f¯),
(6). dim im(f ) = dim im(f¯),

Portanto, se, por exemplo, queremos calcular o núcleo de f , calculamos primeiro o núcleo
¯
de f (utilizando os métodos Secção III.5), e depois escolhemos aqueles vetores de V cujo ve-
tor de coordenadas pertence ao núcleo de f¯. Recordamos que todo o cálculo acerca de uma
transformação linear Rn → Rm pode ser feito com a matriz desta transformação. Com esta
motivação, definimos que a matriz de f : V → W relativamente às bases B e C é a matriz
da transformação linear f¯: Rn → Rm correspondente. Denota-se esta matriz por M (f, B, C).
Diretamente da definição segue que, para cada v ∈ V ,

[f (v)]C = f¯([v]B ) = M (f, B, C) [v]B ;

ou seja, o vetor de coordenadas da imagem de v obtém-se a partir do vetor das coordenadas


de v por multiplicação com a matriz de f relativamente às bases B e C. Como M (f, B, C) é a
matriz de f¯: Rn → Rm no sentido da Secção III.4, podemos facilmente descobrir como calcular
M (f, B, C): a primeira coluna é dada por f¯(1, 0, . . . , 0), a segunda por f¯(0, 1, 0, . . . , 0), etc. Mas

f¯(1, 0, . . . , 0) = [f (v1 )]C , f¯(0, 1, 0, . . . , 0) = [f (v2 )]C , ... f¯(0, . . . , 0, 1) = [f (vn )]C ;

portanto, podemos escrever da forma mais sucinta:

M (f, B, C) = [[f (v1 )]C [f (v2 )]C . . . [f (vn )]C ].

Nota III.7.2. Para uma transformação linear f : Rn → Rm , a matriz M (f, Cn , Cm ) de f relati-


vamente às bases canónicas Cn e Cm de Rn e Rm , respectivamente, é precisamente a matriz de
f no sentido da Secção III.4.

Exemplo III.7.3. Consideremos a transformação linear

D2 : R[t]4 −→ R[t]2 , p 7−→ p00

que transforma um polinómio na sua segunda derivada, e as bases B = (1, t, t2 , t3 , t4 ) e C =


(1, t, t2 ) de R[t]4 e R[t]2 respetivamente. Com o nosso conhecimento de Cálculo I deduzimos
logo que o núcleo de D2 é a coleção de todos os polinómios até o grau 1 porque são precisamente
os polinómios com segunda derivada zero. Por outro lado, todo o polinómio em R[t]2 é a segunda
derivada de um polinómio do grau menor ou igual a 4; ou seja, D2 : R[t]4 → R[t]2 é sobrejetiva.
Vamos agora confirmar estes factos.
A matriz de D2 relativamente às bases B e C é a matriz
 
0 0 2 0 0
M (D2 , B, C) = 0 0 0 6 0  .
 

0 0 0 0 12
Portanto, dim im(D2 ) = 3, o que implica que D2 é sobrejetiva. Também obtemos logo que
dim ker(D2 ) = 2. Para calcular o núcleo de D2 , resolvemos o sistema homogéneo correspondente
à matriz M (D2 , B, C); digamos, nas incógnitas x1 , . . . , x5 . Felizmente, a matriz já é em escada,
76 III.7. A matriz de transformações lineares relativa a bases

e assim obtemos logo que x1 e x2 são as incógnitas livres e x3 = x4 = x5 = 0. Portanto, o núcleo


da D2 é o conjunto daqueles polinómios cujo vetor de coordenadas pertence ao conjunto

{(x1 , x2 , 0, 0, 0) | x1 , x2 ∈ R};

ou seja,

ker(D2 ) = {x1 + x2 t + 0t2 + 0t3 + 0t4 | x1 , x2 ∈ R} = {x1 + x2 t | x1 , x2 ∈ R}.

Exemplo III.7.4. Apresentamos agora um exemplo “mais intuitivo” que, assim esperamos,
esclarece o procedimento apresentado acima3 . Consideramos o espaço vetorial V das setas no
plano com a mesma origem •,


u


 >
v
•

 w
e escolhemos a base B = (X, Y ) de V .


u
6 
Y 
v
>
•
 -

w
 X
Para cada α ∈ R, a transformação linear

fα : V −→ V

aplica “a rotação por α contra o sentido dos ponteiros do relógio” a um vetor v em V . Qual é
a correspondente função f¯α : R2 → R2 ? Pela definição, para obter o valor de f¯α (a, b), temos de
• calcular a combinação linear a X + b Y ;
• rodar esta seta por α contra o sentido dos ponteiros do relógio;
• calcular as coordenadas da seta obtida em cima.
Por exemplo, para (1, 0) e (0, 1) obtemos

f¯α (1, 0) = (cos(α), sen(α)) e f¯α (0, 1) = (− sen(α), cos(α));

e portanto a matriz de fα relativamente à base B em V (tanto no domı́nio como no espaço de


chegada) é " #
cos(α) − sen(α)
.
sen(α) cos(α)

Um caso particular muito importante obtém-se escolhendo f como a função identidade; e


vale a pena descrever esta situação detalhada. Para um espaço vetorial V da dimensão n ∈ N
com bases B e C, a matriz da função identidade idV : V → V relativamente às bases B e C
satisfaz
[v]C = M (idV , B, C) [v]B ,
3
Ver também [Saunders MacLane, Mathematics Form and Function, Springer, 1986].
Capı́tulo III. Transformações entre espaços 77

para todo o v ∈ V ; ou seja, esta matriz traduz coordenadas relativamente à base B em coorde-
nadas relativamente à base C. Designamos a matriz M (idV , B, C) por matriz da mudança de
base B para a base C, e escrevemos simplesmente M (B, C) em lugar de M (idV , B, C).
Como a adição de transformações lineares corresponde exatamente à adição de matrizes e a
composição de transformações à multiplicação de matrizes (ver Teorema III.6.1), conclui-se:

Teorema III.7.5. (1). Seja V um espaço vetorial com base A. Então,


M (A, A) = In .
(2). Sejam V , W e E espaços vetoriais com bases A, B e C respectivamente, e sejam f : V →
W e g : W → E transformações lineares. Então,
M (g ◦ f, A, C) = M (g, B, C) M (f, A, B).
(3). Seja f : V → W um isomorfismo e sejam B uma base de V e C uma base de W . Então,
M (f −1 , C, B) = M (f, B, C)−1 .
Em particular, para bases B1 e B2 de V , tem-se
M (B2 , B1 ) = M (B1 , B2 )−1 .
(4). Para todos os espaços vetoriais V e W com bases B e C respetivamente, a matriz
M (f0 , B, C) da função nula f0 : V → W, v 7→ 0 é a matriz nula.
(5). Para transformações lineares f, g : V → W entre espaços vetoriais V e W com as bases
B e C respetivamente, tem-se
M (f + g, B, C) = M (f, B, C) + M (g, B, C) e M (α · f, B, C) = α · M (f, B, C).

Duas matrizes de uma transformação linear com bases diferentes no domı́nio ou no conjunto
de chegada podem também ser diferentes. No entanto, podem-se relacionam-se do seguinte
modo:

Exemplo III.7.6. Seja f : V → W uma transformação linear e sejam B1 e B2 bases de V e


C1 e C2 bases de W . As matrizes M (f, B1 , C2 ) e M (f, B2 , C2 ) diferem no facto de se terem
considerado bases diferentes no domı́nio. A primeira matriz pode ser obtida a partir da segunda
efetuando uma mudança de base no domı́nio, como ilustrado no esquema seguinte:
M (f,B1 ,C2 )

M (B1 ,B2 ) M (f,B2 ,C2 ) *


V / V / W .
idV f
B1 B2 C2

Temos então que


M (f, B1 , C2 ) = M (f ◦ idV , B1 , C2 ) = M (f, B2 , C2 ) M (idV , B1 , B2 ) = M (f, B2 , C2 ) M (B1 , B2 )

De modo análogo obtém-se

M (f, B1 , C2 ) = M (idW ◦f, B1 , C2 ) = M (idW , C1 , C2 ) M (f, B1 , C1 ) = M (C1 , C2 ) M (f, B1 , C1 ),


e

M (f, B1 , C1 ) = M (C1 , C2 )−1 M (f, B2 , C2 ) M (B1 , B2 ) = M (C2 , C1 ) M (f, B2 , C2 ) M (B1 , B2 ).


78 III.7. A matriz de transformações lineares relativa a bases

Exemplo III.7.7. Continuamos agora o Exemplo III.7.4. Para α e β em R, tem-se


fβ ◦ fα = fβ+α ;
e por isso, aplicando o Teorema III.7.5,
" #" # " #
cos(α) − sen(α) cos(β) − sen(β) cos(α + β) − sen(α + β)
= .
sen(α) cos(α) sen(β) cos(β) sen(α + β) cos(α + β)
Portanto,
cos(α + β) = cos(α) cos(β) − sen(α) sen(β) e sen(α + β) = sen(α) cos(β) + cos(α) sen(β).

Para resumir, neste capı́tulo introduzimos transformações lineares entre os espaços vetoriais
e aprendemos que, para os espaços da dimensão finita, todo o cálculo com matrizes tem uma
operação correspondente no lado das transformações lineares (ver a Tabela III.6.2, por exemplo).

Você também pode gostar