Você está na página 1de 150

ÁLGEBRA LINEAR

Esta obra apresenta desde a primeira definição de espaço


vetorial, indispensável para toda a estrutura que vem a
seguir, até os operadores sobre espaços com produto
interno com características peculiares. Para que seja
possível estruturar todo esse conhecimento, este livro
inicia com conceitos abordados no ensino médio, porém,
adaptados para o ensino superior. São trabalhados
diversos conceitos fundamentais para o estudo da
álgebra linear – matrizes, sistemas de equações lineares,
teoria dos espaços, transformações lineares no plano,
operadores lineares, produto interno, teorema espectral,
entre outros –, de modo interessante e agradável.

Marina Vargas
Marina Vargas

Código Logístico Fundação Biblioteca Nacional


ISBN 978-85-387-6618-6

59323 9 788538 766186


Álgebra Linear

Marina Vargas

IESDE BRASIL
2020
© 2020 – IESDE BRASIL S/A.
É proibida a reprodução, mesmo parcial, por qualquer processo, sem autorização por escrito da autora e do
detentor dos direitos autorais.
Projeto de capa: IESDE BRASIL S/A. Imagem da capa: devotchkah/ENVATO ELEMENTS

CIP-BRASIL. CATALOGAÇÃO NA PUBLICAÇÃO


SINDICATO NACIONAL DOS EDITORES DE LIVROS, RJ
V427a

Vargas, Marina
Álgebra linear / Marina Vargas. - 1. ed. - Curitiba [PR] : IESDE, 2020.
146 p. : il.
Inclui bibliografia
ISBN 978-85-387-6618-6

1. Álgebra linear. I. Título.


CDD: 512.5
20-64176
CDU: 512.64

Todos os direitos reservados.

IESDE BRASIL S/A.


Al. Dr. Carlos de Carvalho, 1.482. CEP: 80730-200
Batel – Curitiba – PR
0800 708 88 88 – www.iesde.com.br
Marina Vargas Doutora e mestre em Métodos Numéricos em
Engenharia pela Universidade Federal do Paraná
(UFPR). Especialista em Educação Matemática
e licenciada em Matemática pela Universidade
Paranaense (Unipar). Professora no ensino superior
nas modalidades presencial e a distância, ministrando
as disciplinas: Cálculo de funções de uma e mais
variáveis, Álgebra Linear, Geometria Analítica, Métodos
Numéricos, Teoria dos Números, Pesquisa Operacional,
Matemática Aplicada, Estatística Aplicada e Métodos
Quantitativos. Atua também como professora
conteudista em diversas instituições e empresas.
Atualmente, tem desenvolvido pesquisas nas áreas de
programação matemática, mecânica computacional,
educação matemática e educação em engenharias.
Vídeos
em
QR code!
Agora é possível acessar os vídeos do livro por
meio de QR codes (códigos de barras) presentes
no início de cada seção de capítulo.

Acesse os vídeos automaticamente, direcionando


a câmera fotográfica de seu smartphone ou tablet
para o QR code.

Em alguns dispositivos é necessário ter instalado


um leitor de QR code, que pode ser adquirido
gratuitamente em lojas de aplicativos.
SUMÁRIO
1 Matrizes e sistemas de equações lineares 9
1.1 Matrizes 10
1.2 Matrizes elementares 11
1.3 Operações com matrizes 15
1.4 Inversa de uma matriz 18
1.5 Sistemas de equações lineares 24

2 Espaços vetoriais 32
2.1 Definição de espaços vetoriais 32
2.2 Subespaços vetoriais 36
2.3 Combinação linear 45
2.4 Dependência e independência linear 46
2.5 Base de um espaço vetorial 48
2.6 Posto, nulidade e espaços fundamentais 58

3 Transformações lineares 63
3.1 Transformações do plano no plano 63
3.2 Transformações no ℝn 71
3.3 Núcleo e imagem de uma transformação linear 75
3.4 Matrizes de transformações 83

4 Operadores e matrizes diagonalizáveis 87


4.1 Operadores 87
4.2 Polinômio característico 96
4.3 Matrizes diagonalizáveis 99
4.4 Aplicações 102

5 Espaço com produto interno 107


5.1 Produto interno 107
5.2 Ortogonalidade 114
5.3 Ortogonalização de Gram-Schmidt 120
5.4 Transformações que preservam produtos internos 123
6 Operadores sobre espaços com produto interno 129
6.1 Operador autoadjunto e ortogonal 130
6.2 Teorema espectral 138
6.3 Formas bilineares e quadráticas 139
APRESENTAÇÃO
Esta obra apresenta desde a primeira definição de espaço vetorial,
indispensável para toda a estrutura que vem a seguir, até os operadores
sobre espaços com produto interno com características peculiares. Para que
seja possível estruturar todo esse conhecimento, iniciamos com conceitos
conhecidos pela maioria dos estudantes, abordados no ensino médio de todas
as escolas brasileiras, porém, adaptados para o ensino superior e voltados às
necessidades subsequentes desta obra.
Assim, o primeiro capítulo é destinado ao estudo de matrizes, suas
propriedades, operações e determinantes, e aos sistemas de equações
lineares, que podem ser representados e resolvidos por meio de matrizes.
O segundo capítulo aborda a teoria dos espaços e subespaços vetoriais,
tornando essencial tratar de dependência e independência linear entre
vetores desses espaços, suas bases e suas dimensões. Abordamos, ainda,
o conceito de mudança de base, que será fundamental no estudo das
transformações lineares.
O terceiro capítulo tem início com as transformações lineares no plano,
por meio das quais é possível entender como ocorre esse processo, para que,
posteriormente, possamos extrapolar esse conhecimento para espaços de
dimensão finita.
O quarto capítulo é dedicado a um assunto que talvez se enquadre nos
mais importantes e citados da álgebra linear: os operadores lineares, sendo
que os autovalores e autovetores de uma transformação linear estão inclusos
nesse conceito. O estudo desse tema e suas subseções revela um poderoso
caminho para o mundo das aplicações da álgebra linear.
O quinto capítulo pode ser interpretado como uma extensão do quarto,
pois vemos os operadores lineares que preservam o produto interno.
Para entendermos esse processo, iniciamos recordando os conceitos
de produto interno, ortogonalidade e ortonormalidade, e subespaços
ortogonais. Também apresentamos a ortogonalização de Gram-Schmidt,
que nos auxilia nesse processo.
O sexto, e último, capítulo dá continuidade à abordagem dos espaços
vetoriais com produto interno. Trazemos as isometrias e os operadores
autoadjuntos, a fim de apresentar um dos teoremas mais aplicados da álgebra
linear: o teorema espectral. Nossa abordagem é voltada a espaços vetoriais
reais e finalizamos a obra tratando de formas quadráticas.
Esta obra trata de muitos conceitos, mas procuramos abordá-los de modo
a tornar a leitura interessante e agradável. Bons estudos!
1
Matrizes e sistemas de
equações lineares
Poderíamos iniciar este livro com o conceito de espaços veto-
riais ou com o conceito de matrizes e sistemas de equações lineares.
Optamos por abordar, primeiramente, a segunda opção.
Por que essa escolha? Justamente porque acreditamos ser
necessário estruturar um vínculo entre os vetores aprendidos em
disciplinas como geometria analítica, tanto do ensino médio como
do ensino superior, e os espaços vetoriais, com todas as suas pro-
priedades e axiomas, que serão abordados nesta obra.
Dessa forma, este capítulo trará a estrutura das matrizes, suas
propriedades e operações e poderemos entender a relação de li-
nhas e colunas de matrizes com vetores no plano, no espaço ou
mesmo no ℝn.
Após esse processo, trabalharemos com os sistemas de
equações lineares, que podem ser escritos em notação matricial.
Veremos algumas maneiras de encontrar soluções desses siste-
mas e, quando possível, suas interpretações geométricas.
Percebemos, com esse raciocínio, que um sistema de equações
lineares nada mais é do que um sistema vetorial e que pode ser re-
solvido com propriedades vistas tanto na geometria analítica como
na álgebra linear, as quais serão abordadas neste material.
Portanto, a escolha por iniciarmos com matrizes e sistemas
de equações lineares nada mais é do que uma visão de múltiplas
oportunidades de interpretação de um mesmo sistema.

Matrizes e sistemas de equações lineares 9


1.1 Matrizes
Vídeo Pense em uma sala de aula. Em geral, temos alunos distribuídos em
filas de carteiras viradas na direção do quadro negro, como podemos
ver na figura a seguir.

Figura 1
Sala de aula

marrishuanna/Shutterstock
Para identificar os alunos, o professor pode numerá-los, usando
como referência a linha e a coluna em que esses alunos estão senta-
dos. Dessa forma, o aluno que está logo à frente da mesa do docente
se localiza na linha 1, coluna 1.

Figura 2
Sala de aula numerada por linhas e colunas.

Adaptada de marrishuanna/Shutterstock

1.1 1.2 1.3


2.1 2.2 2.3

3.1 3.2 3.3

O colega à direita dele está na linha 1, coluna 2, e assim, sucessiva-


mente, os alunos podem ser encontrados de acordo com a linha e a co-
luna em que estão sentados. Essa é uma típica representação matricial.

10 Álgebra Linear
Definição 1
Chama-se matriz de ordem m por n um quadro de mxn elementos dispostos em m
linhas e n colunas da seguinte forma (LEON, 2019):
 a11 a12  a1n 
a a  a2 n 
Amxn   21 22  [a ]
     ij mxn
 
 am 1 am 2  amn 

Se pensarmos em matriz como uma forma de organizar coisas em


posições específicas, é possível perceber que os elementos dessa ma-
triz podem ser qualquer objeto. Contudo, matematicamente, entende-
mos os elementos de uma matriz como números (reais ou complexos),
funções ou, ainda, outras matrizes.

A nomenclatura usual para uma matriz é dada por:


•• letras maiúsculas para simbolizar matrizes;
•• letras minúsculas para denotar os elementos.

A posição de cada elemento é apresentada por meio de subíndices:


i para a posição do elemento em relação à linha, e j para a posição do
elemento em relação à coluna: aij. Para indicar a ordem de uma matriz
A (isto é, o número de linhas e colunas), escrevemos Amxn, sendo que m
representa o número de linhas, e n representa o número de colunas.

Portanto, cada elemento da matriz A possui dois índices: aij , sendo


que o primeiro índice representa a linha a que esse elemento pertence
e o segundo representa a coluna. Dessa forma [aij], com i variando de
1 a m e j variando de 1 a n, representa abreviadamente a matriz A de
ordem m por n.

1.2 Matrizes elementares


Vídeo Quando identificamos alguma particularidade em uma matriz, po-
demos usar esse fato como facilitador no cálculo ou solução de proble-
mas que a envolvam. Dessa forma, vamos classificar algumas matrizes.
•• Temos uma matriz dita retangular quando m ≠ n . Se m = n, a
matriz é dita quadrada.

Matrizes e sistemas de equações lineares 11


Exemplo 1 Exemplo 2
Matriz retangular Matriz quadrada

a  a a 
A2x1   11 B2x2   11 12 
a21 a21 a22 

•• Duas matrizes A = [aij] e B = [bij] de ordem m por n são iguais se, e


somente se, aij = bij.
•• A matriz de ordem n por 1 é uma matriz coluna.

a11
 
a
Anx1   21  [aij ]nx1
  
 
an1

•• A matriz de ordem 1 por n é uma matriz linha.

A1xn = [a11 a12 … a1n] = [aij]1xn

•• Em uma matriz quadrada A de ordem n, ou seja, [aij]nxn, os elemen-


tos aij, em que i = j, constituem a diagonal principal.

a11 
 
a22
An     [a ]
ij n
  
 
 amn 

•• Em uma matriz quadrada A, de ordem n, os elementos aij, em que


i + j = n + 1, constituem a diagonal secundária.

 a1n 
 
a
An   2 n 1   [a ]
ij n
  
 
an1 

•• A matriz quadrada A tem os elementos aij = 0 quando i ≠ j é uma


matriz diagonal.

a11 0  0 
 
0 a22  0 
An    [aij ]n
     
 
 0 0  ann 

12 Álgebra Linear
•• Quando todos os elementos de uma matriz são iguais a zero,
essa matriz é dita matriz nula e denotada por 0.
•• Uma matriz identidade é aquela em que seus elementos são es-
critos da seguinte forma:

 1 para i  j
aij  
0 para i  j

Em geral, denota-se uma matriz identidade pela letra I maiúscula.


•• Uma matriz quadrada A é dita invertível quando existe outra ma-
triz denotada por A–1, tal que:

A . A–1 = A–1 . A = I
onde I é a matriz identidade.

Não é preciso decorar essas propriedades, mas o entendimen-


to delas agiliza muitos processos quando estamos aplicando a teoria
matricial. Um exemplo simples pode ser apresentado com a matriz
identidade, pois, ao identificarmos que determinada matriz tem essa
estrutura, apenas conhecendo sua ordem, podemos representá-la
rapidamente. Estudaremos mais sobre esse conceito na sequência.

1.2.1 Matrizes diagonais, triangulares e simétricas


Nesta seção, continuaremos tratando de algumas particularida-
des das matrizes. A seguir, veremos exemplos que facilitarão nosso
entendimento.
•• Uma matriz triangular superior é uma matriz quadrada, na qual
todos os elementos abaixo da diagonal principal ou secundária
são nulos, isto é, m = n e aij = 0 para i > j.

Exemplo 3
Matriz triangular superior, quadrada, de ordem 3.

 1 6 6
 
0 1 9 
0 0 1
 

Matrizes e sistemas de equações lineares 13


•• Uma matriz triangular inferior é aquela em que m = n e aij = 0
para i < j.

Exemplo 4
Matriz triangular inferior, quadrada, de ordem 3.

 1 0 0
 
6 1 0 
8 7 1
 

Para entendermos o conceito de matriz simétrica, primeiramente,


precisamos conceituar uma matriz transposta. Assim:

Definição 2
Dada uma matriz A = [aij]mxn, pode-se obter uma outra matriz At = [bij]nxm, cujas
linhas são as colunas de A, isto é, bij = aji. Dessa forma, At é denominada trans-
posta de A.

Exemplo 5
2 1
Seja a matriz A  B  3 2  . Sua transposta será dada por
 
 2 3 0 0 1 
 
Bt   
 1 2 1 .

•• Uma matriz simétrica é aquela na qual m = n e aij = aji, ou seja, ela


é simétrica se, e somente se, for igual à sua transposta, ou seja,
A = A t.

Exemplo 6  1 1 4 
Seja a matriz C   1 5 2 
 4 2 7
  .
 1 1 4 
 t 
A matriz é simétrica, pois C   1 5 2  , ou seja, C = Ct.
 4 2 7
 

Observando o exemplo de uma matriz simétrica, podemos nos per-


guntar: “onde isso ocorre na prática?”.

Temos inúmeros exemplos dessa propriedade na engenharia: mé-


todo dos três momentos para vigas; circuitos elétricos; condução de ca-
lor e tantos outros (BRASIL; BALTHAZAR; GÓIS, 2015). O que todos eles

14 Álgebra Linear
têm em comum é, justamente, a possibilidade de resolver um sistema
de equações, no qual a matriz dos coeficientes que forma esse sistema
é uma matriz simétrica. Tal matriz nos permite usar métodos numéri-
cos (ou exatos) com ganho computacional superior ao que teríamos se
usássemos uma matriz qualquer.

1.3 Operações com matrizes


Vídeo As matrizes podem ser operadas por meio da adição e do produ-
to, sendo que, quando falamos em adição, pensamos também na sua
operação inversa (subtração); e quando falamos em produto, temos a
multiplicação entre matrizes e a multiplicação de uma matriz por um
escalar, conforme veremos a seguir.

1.3.1 Soma de matrizes


A soma de duas matrizes A = [aij] e B = [bij] de ordem m por n é uma
matriz C = [cij], tal que cij = aij + bij.

 a11  a1m   b11  b1m   a11  b11  a1m  b1m 


     
             
a     
 m1  amn  bm1  bmn  am1  bm1  amn  bmn 

Exemplo 7
1 2 4 5
Sejam as matrizes A    e B  , então:
3 4  6 7 

 1 4 2  5  5 7 
AB    
3  6 4  7  9 11 .

A mesma propriedade é válida para a subtração entre matrizes.

Exemplo 8
1 2 4 5
Sejam as matrizes A    e B  , então:
3 4  6 7 

1 4 2  5   3 3
AB    
3  6 4  7   3 3 .

Matrizes e sistemas de equações lineares 15


Propriedades
Sejam A, B e C três matrizes de ordem m por n, temos:
•• A + (B + C) = (A + B) + C → associatividade
•• A + 0 = 0 + A = A → elemento neutro da adição
•• A – A = A + (–A) = 0 → elemento inverso da adição
•• A + B = B + A → comutatividade

Com as propriedades de adição de matrizes enunciadas e os exem-


plos demonstrados, podemos seguir com o conceito de produto de
uma matriz por um escalar (ℝ).

1.3.2 Produto de uma matriz por um escalar


Seja λ um escalar e A = [aij ]mxn, o produto de λ por A é uma matriz
B = [bij ]mxn, tal que bij = λaij

 a11  a1m    a11   a1m 


   
         
a   
 m1  amn   am1   amn 

Exemplo 9
 1  1  3 
     
Seja λ = 3 e uma matriz A   1 , então B    A  3   1   3 .
4  4  12 
     

Propriedades

Sejam λ, μ dois escalares e A, B duas matrizes de ordem m por n,


temos:
•• (λμ)A = λ(μA)
•• (λ + μ)A = λA + μA
•• λ(A + B) = λA + λB
•• 1A = A

Nesta seção, vimos como resolver o produto de uma matriz com um


escalar. Essa é uma importante operação que também será aplicada
aos sistemas de equações.

16 Álgebra Linear
1.3.3 Produto entre duas matrizes
Sejam A = [aij ]mxn e B = [brs ]lxp, o produto de A por B é definido como:

AB = [cuv]mxp

onde: cuv nk 1auk bkv  au1b1v   aunbnv .


•• O produto entre duas matrizes Amxn e Blxp só é possível se o número
de colunas da matriz A for igual ao número de linhas da matriz B,
n = l. O resultado desse produto será uma matriz de ordem mxp.
•• O elemento resultante desse produto será denotado por cij (i-ésima
linha e j-ésima coluna da matriz produto) e obtido por meio da soma
entre os produtos dos elementos da i-ésima linha da primeira ma-
triz pelos elementos correspondentes da j-ésima coluna da segun-
da matriz.

Exemplo 10
Vamos efetuar o produto entre as matrizes A1x2 = [–1 1] e
2 1 4  .
B2x3   
3 4 3 

Verificamos se o número de colunas da matriz A é igual ao nú-


mero de linhas da matriz B. Nesse caso:

colunas de A = linhas de B = 2

Portanto, o produto entre matrizes é possível e dará origem


a uma matriz C com o número de linhas de A e o número de
colunas de B (C1x3)

2 1 4 
C1x3   1 1   
3 4 3 
 1  2  1 3  1  1  1 4  1  4   1  3    1 5 1
 

Propriedades
•• Em geral, AB ≠ BA
•• AB = 0 sem que A = 0 ou B = 0
•• AI = IA = A, onde I é a matriz identidade
•• A(B + C) = AB + AC → distributividade
•• (A + B)C = AC + BC → distributividade
•• (AB)C = A(BC) → distributividade
•• (AB)t = Bt At
•• 0A = A0 = 0

Matrizes e sistemas de equações lineares 17


Finalizamos esta seção com as propriedades algébricas da multipli-
cação entre matrizes. Com isso, temos em mãos as propriedades ma-
triciais necessárias para resolvermos diversos exemplos e aplicações.

1.4 Inversa de uma matriz


Vídeo Há algumas maneiras de calcular a inversa de uma matriz. Uma de-
las exige o cálculo do determinante. Assim, o próximo tópico será des-
tinado ao conceito de determinantes.

1.4.1 Determinantes
O determinante de uma matriz quadrada é uma função que associa
um escalar a essa matriz. Uma matriz possui inversa quando seu deter-
minante é um escalar diferente de zero.

Quando uma matriz A quadrada possui apenas um elemento, aij,


dizemos que essa matriz é de ordem 1, e seu determinante será o valor
do próprio elemento.

det  A   A  aij

Quando uma matriz A quadrada é de ordem 2,

a a 
A   11 12 
a a
 21 22 

o cálculo do seu valor numérico é feito pela diferença do produto da


diagonal principal com o produto da diagonal secundária.

det  A   A  a11a22  a12a21

Quando temos matrizes de ordem 3 ou superior, precisamos de

Vídeo algum método para encontrar o escalar que a representa. A regra de


Sarrus, ou esquema de Sarrus, pode ser usada como método para o
O vídeo Determinante de matriz
de ordem 1, 2 e 3, publicado cálculo do determinante de matrizes de ordem 3. O esquema é escrito
pelo canal Brasil Escola, traz a como segue.
resolução de exercícios com de-
terminante de matriz de ordem Considerando uma matriz A de ordem 3,
1, 2 e 3. É uma ótima aula para
fixar conteúdo! a11 a12 a13 
 
Disponível em: https://youtu. A  a21 a22 a23 
a 
be/1gsGPQ7QPx0. Acesso em: 4  31 a32 a33 
maio 2020.
o seu determinante pode ser calculado por meio do seguinte esquema:

18 Álgebra Linear
Figura 3
Determinante de uma matriz de ordem três pela regra de Sarrus

incktoofay/Wikimedia Commons
det  A   A  a11a22a33  a12a23a31  a13a21a32  a13a22a31  a11a23a32  a12a21a33 .

Exemplo 11
 2 2 3
  a11 a12 a13 a11 a12 a13
Seja A   1 1 3  . Portanto:
 2 0 1 a21 a22 a23 =a21 a22 a23 =
 
a31 a32 a33 a31 a32 a33
a11 a12 a13 a11.a22 .a33  a12 .a23 .a31  a13 .a21.a32 
a21 a22 a23 = a11 a12 a13 a11 a12 a13
a31 a32 a33 (a13 .a22 .a31  a11.a23 .a32  a12 .a21.a33 ) a21 a22 a23 =a21 a22 a23 =
a31 a32 a33 a31 a32 a33

−2 2 −3
−1 1 3 = ( 2)  1 ( 1)  2  3  2  ( 3)  ( 1)  0  (  3)  1 2  (  2)  3  0  2  (  1)  (  1)  18
2 0 −1

Para matrizes quadradas de ordem maior que 3, um dos métodos Atividade 1


usados para encontrar o determinante é o Teorema de Laplace. A regra de Sarrus foi apresentada
de modo que precisamos repetir
Teorema 1 (Teorema de Laplace) as duas primeiras colunas e
realizar alguns procedimentos
O determinante de uma matriz A = [aij]n é igual à soma algébrica dos
numéricos. Seria possível
produtos dos elementos de uma linha (ou coluna) pelos respectivos repetir as duas primeiras linhas?
cofatores (ou complementos algébricos). Nesse caso, como ficaria nosso
procedimento numérico para
O cofator do elemento aij de uma matriz é o escalar Aij , definido por a obtenção do determinante
de uma matriz quadrada de
Aij  ( 1)i  j Mij ordem 3? Explique.

Matrizes e sistemas de equações lineares 19


onde Mij representa a matriz que se obtém da matriz original pela elimi-
nação da i-ésima linha e da j-ésima coluna.

Tem-se, então, que:

det  A   ai1Ai1  ai 2 Ai 2    ain Ain

ou

det  A   a1j A1j  a2 j A2 j    anj Anj

conforme seja escolhida a i-ésima linha ou a j-ésima coluna.

O Teorema de Laplace pode ser aplicado quantas vezes for necessá-


rio, até se obter matrizes de ordem 2 ou 3.

Exemplo 12
Vamos calcular o determinante da matriz de ordem 3, dada
 2 2 3
 
por B   1 1 3  , usando o Teorema de Laplace.
 2 0 1
 

1 2 1 3 22 2 3 32 2 3
det  A    1 2   1  1   1 0
2 1 2 1 1 3

  
det  A    2    1   1  2   3  1  2    1  2   3  
det  A    2    5   8  18

Vídeo A seguir, apresentamos propriedades que agilizam o processo para en-


O vídeo Teorema de Laplace, contrar o determinante de uma matriz (BOLDRINI et al., 1986).
publicado pelo canal Brasil
Escola, exemplifica a resolução Propriedades
de determinantes de ordem 4 •• Se uma matriz possuir uma linha ou uma coluna nula, seu determi-
por meio do Teorema de Laplace.
nante será zero.
Disponível em: https://
www.youtube.com/ •• O determinante de uma matriz será sempre igual ao determinante
watch?v=FhAep0GezGA. Acesso de sua transposta.
em: 4 maio 2020. •• Se trocarmos as duas linhas ou as duas colunas da matriz, trocare-
mos o sinal do determinante.
•• Se multiplicarmos os elementos de uma linha ou de uma coluna da
matriz por um valor n qualquer, o determinante também será multi-
plicado por n.
•• Se uma matriz possui duas linhas ou colunas iguais ou múltiplas uma
da outra, o determinante é nulo.

20 Álgebra Linear
•• Se uma linha ou coluna de uma matriz quadrada é a combinação
linear de duas ou mais das linhas ou colunas restantes, seu determi-
nante é zero.
•• Se somarmos uma linha ou coluna à outra que foi multiplicada por
um número, o determinante não será alterado.
•• O determinante do produto de duas matrizes é igual ao produto de
seus determinantes.
•• O determinante de uma matriz triangular superior ou inferior é o
produto dos elementos da diagonal principal.
•• O determinante da matriz identidade I é igual a 1.

Todas essas propriedades podem ser demonstradas e são utilizadas


para otimizar o processo de cálculo do determinante de uma matriz.
Além disso, são necessárias para que possamos compreender conceitos
que ainda serão trabalhados, como os espaços vetoriais e a indepen-
dência entre vetores desses espaços. Esses são apenas alguns exemplo,
mas já mostram a importância da compreensão dessas propriedades.

1.4.2 Cálculo de determinantes por triangularização


de matrizes
Na subseção anterior, vimos que o determinante de uma matriz
triangular (superior ou inferior) é o produto dos elementos da diagonal
principal. Essa propriedade facilita muito o cálculo para o determinan-
te, principalmente se precisarmos trabalhar com matrizes com ordem
superior a três.

O que faremos nesta subseção é aplicar operações elementares so-


bre suas linhas, para que possamos obter matrizes triangulares. Esse
processo é chamado de triangularização de matrizes.

Contudo, precisamos verificar se a operação aplicada a cada linha


altera o valor final do determinante. Dessa forma, precisamos entender
algumas regras:
•• permutar linhas troca o sinal do determinante;
•• multiplicar uma linha por um número real λ não nulo multiplica o
determinante por λ;
•• somar a uma linha um múltiplo de outra não altera o determinante.

Assim, se sabemos que, durante o processo de triangularização,


houve troca de linhas, sabemos também que o resultado obtido para

Matrizes e sistemas de equações lineares 21


o determinante, multiplicando os valores contidos na diagonal, estará
com sinal oposto. Nesses casos, basta ficar atento às regras utilizadas e
corrigir essas pequenas alterações.

As operações elementares podem ser escritas da seguinte maneira:


•• Permuta da i-ésima linha pela j-ésima linha: Li ↔ Lj – a troca de
linhas corresponde à troca da posição das equações, o que não
influencia a solução do sistema.
•• Multiplicação da i-ésima linha por um escalar não nulo λ: Li → λLi –
equivale a multiplicar um número não nulo na equação correspon-
dente, que também não altera a solução.
•• Substituição da i-ésima linha pela i-ésima linha mais λ vezes a
j-ésima linha: Li → Li + λLj – equivale a somar o múltiplo da outra
equação, que também não altera a solução do sistema.

Exemplo 13  2 2 3
 
Seja a matriz A   1 1 3  , queremos calcular seu determi-
 2 0 1
 
nante por meio de uma triangularização. Assim, aplicando opera-
ções elementares, temos:

 2 2 3 
 2 2 3  
  0 0 9
 1 1 3  L3L3  L1  2
 2 0 1
  L2L2  1L1  0 2 4 
2  

 2 2 3   
   2 2 3 
 0 0 9    0 2 4 
  
2  L3L2 
 0 2 4  9 
  0 0 
 2 

Neste ponto, já temos uma matriz triangularizada, portanto,

 9
det A  ( 2)  2      18
 2 .

Dessa forma, identificamos uma poderosa ferramenta para o cálcu-


lo de determinantes, a qual independe da ordem na matriz e pode ser
aplicada rapidamente com operações fundamentais (adição, multipli-

22 Álgebra Linear
cação e suas operações inversas). A triangularização de matrizes ainda
será utilizada para outros processos, mas já percebemos sua importân-
cia e, por isso, sugerimos que sejam praticadas.

1.4.3 Cálculo de uma matriz inversa


Uma das formas de encontrarmos a inversa de uma matriz quadra-
da A se dá por meio da matriz dos cofatores de A. Com esse resultado, é
possível obter a matriz adjunta de A e, na sequência, sua matriz inversa.

Primeiramente, precisamos conhecer o cofator de cada um dos ele-


mentos de A, dados por:

Aij  ( 1)i  j Mij

onde Mij representa a matriz que se obtém da matriz original pela elimi-
nação da i-ésima linha e da j-ésima coluna. Então, é possível formar uma
nova matriz, chamada de A, onde A = [Aij]. Essa será a matriz dos cofatores.

A transposição dessa matriz A origina a chamada matriz adjunta de


A, adj(A).

adj(A) = A t
Teorema 2

De acordo com Kolman e Hill (2013), uma matriz quadrada A admite


uma inversa se, e somente se, det (A) ≠ 0. Nesse caso:
1
A1 
det  A 
adj  A  
Propriedades
•• Se A e B são matrizes quadradas de mesma ordem, ambas invertí-
veis (ou seja, existe A–1 e B–1), então A.B é invertível e (A.B)–1 = B–1A–1.
•• Se A é uma matriz quadrada e existe uma matriz B tal que BA = I,
então A é invertível, ou seja A–1 existe e, além disso, B = A–1.
•• Uma matriz A é semelhante a uma matriz B se, e somente se, exis-
te uma matriz Q (invertível), de modo que A = Q–1BQ

Assim como fizemos com as propriedades para as operações entre


matrizes, ou mesmo com as propriedades para o determinante de uma
matriz, nesta seção, destinamos um espaço para tratarmos das pro-
priedades das matrizes invertíveis. Em todos os casos, podemos usar

Matrizes e sistemas de equações lineares 23


essas características algébricas para otimizar processos numéricos e
agilizar a obtenção de uma resposta final.

Computacionalmente, encontramos muitas vantagens quando po-


demos simplificar processos. Uma delas é a possibilidade de diminuir
Atividade 2
o custo computacional. Ainda, é possível minimizar erros quando re-
É possível mostrar a semelhança duzimos a quantidade de operações realizadas. Dessa forma, o estudo
entre duas matrizes por meio de
seus determinantes? Explique. das matrizes invertíveis e suas propriedades nos traz um ganho em
diferentes áreas e aplicações.

1.5 Sistemas de equações lineares


Videoaula De acordo com Callioli, Domingues e Costa (2003, p. 2), um sistema
de equações lineares com m equações e n incógnitas é um conjunto de
equações do tipo:

 a11x1    a1n xn  b1

   (1)
a x    a x  b
 m1 1 mn n m

com aij , 1 < i < m, 1 < j < n, números reais ou complexos. Uma solução
do Sistema (1) é uma n–upla de números (x1, ..., xn) que satisfaça simul-
taneamente essas m equações.

Dizemos que esse sistema é homogêneo se bi = 0 para todo i = 1, ..., m.

Definição 3
Dois sistemas de equações lineares envolvendo as mesmas variáveis são equivalen-
tes se, e somente se, tiverem o mesmo conjunto solução (LEON, 2019).

Todo sistema de equações lineares pode ser escrito na forma matri-


cial. Vamos exemplificar esse conceito usando como referência o Siste-
ma (1). Assim, temos:

 a11  a1n 
 
A       → é a matriz dos coeficientes;
a 
 m1  amn 

 x1 
 
X     → é a matriz das incógnitas;
x 
 n

24 Álgebra Linear
 b1 
 
B     → é a matriz dos termos independentes;
b 
 m

de maneira que podemos escrever a equação matricial para o Sistema


(1) como:

AX = B

Uma matriz associada ao Sistema (1) é denominada matriz ampliada


quando podemos representá-la na forma:

 a11  a1n b1 
 
     
a 
 m1  amn bm 
É comum usarmos as matrizes ampliadas para solucionar os siste-
mas de equações lineares associados. Um dos métodos que pode ser
aplicado, nesse caso, é o método da eliminação gaussiana, mas existem
outras formas de encontrarmos soluções para sistemas de equações
lineares. Veremos mais adiante alguns desses casos.

1.5.1 Solução para um sistema de equações lineares


Uma das formas mais rápidas de se encontrar um conjunto solu-
ção para um sistema de equações lineares é por meio do chamado
escalonamento da matriz ampliada – método de eliminação de Gauss
(KOLMANN; HILL, 2013).

Uma matriz é denominada escalonada quando o número de zeros


ao lado esquerdo do primeiro elemento não nulo da linha aumenta a
cada linha.

1 2 0 1
 
0 2 0 1
0 0 1 0
 
0 0 0 3 

No caso de ter esgotado o número de colunas, isto é, quando uma


linha se tornar nula, todas as linhas seguintes devem ser linhas nulas.

Para obter uma matriz escalonada a partir de uma matriz ampliada


do sistema de equações lineares, utilizam-se operações elementares
vistas na subseção que trata da triangularização de matrizes. Assim, o
processo de escalonar é muito parecido ao processo de triangularizar.

Matrizes e sistemas de equações lineares 25


As operações realizadas em uma matriz ampliada resultam em uma
matriz equivalente.

Definição 4
Dois sistemas que possuem matrizes ampliadas equivalentes têm o mesmo conjunto
solução. Dessa forma, podemos dizer que: “desde que os sistemas possuam matri-
zes ampliadas equivalentes, estes podem ser denominados Sistemas Equivalentes”
(LEON, 2019, p. 4, grifo nosso).

Apresentaremos três exemplos, que posteriormente serão usa-


dos para exemplificar os tipos de solução possíveis em um sistema de
equações lineares. Vamos utilizar uma calculadora on-line para resolver
o escalonamento.

Exemplo 14
 x1  x2  2

3 x1  2 x2  3

( 13 1
2
2
3 ( x (–3) ~
L2 – 3 x L1 → L2
(10 1
–1
2
–3 (

Exemplo 15
 x1  2 x2  3

3 x1  6 x2  9

( 13 2
6
3
9 ( x (–3) ~
L2 – 3 x L1 → L2
(10 2
0
3
0 (

Exemplo 16
 x1  2 x2  3

3 x1  6 x2  3

( 13 2
6
3
3 ( x (–3) ~
L2 – 3 x L1 → L2
(10 2
0
3
–6 (

26 Álgebra Linear
Mediante o processo de escalonamento da matriz ampliada, o sis-
tema de equações lineares pode ser resolvido por meio de substitui-
ções regressivas.

Observe o sistema de equações do Exemplo 14. Se as matrizes am-


pliadas são equivalentes, temos que a solução do sistema gerado pela
matriz escalonada é equivalente à solução do sistema original. Assim,
podemos escrever:

 x1  x2  2

  x2  3

Logo, x2 = 3 e x1 = –1.

Observando graficamente essas duas retas que formam o nosso sis-


tema de equações lineares, obtemos:

Figura 4
x1  x2  2
Sistema de equações 

 x2  3
eq1
7

eq1: x + y = 2 6

eq2: –y = –3 5

+ 4

3
eq2 Interseção
(–1,3)

–8 –7 –6 –5 –4 –3 –2 –1 0 1 2 3

–1

Fonte: Elaborada pela autora.


1
1
Para obter esse gráfico, utilizamos o software GeoGebra on-line .
Disponível em: https://www.
Observamos que as retas formadas pela eq1 e eq2 se interceptam geogebra.org/. Acesso em: 4
em um ponto que, não por acaso, é a nossa solução. Ou seja, a solução maio 2020.

de um sistema de equações é justamente o ponto de intersecção das


retas que formam esse sistema.

Mas o que ocorre nos exemplos seguintes? No Exemplo 15, após o


escalonamento, podemos escrever o sistema de equações equivalente
da seguinte maneira:

x1  2 x2  3
 x1  2 x2  3
00

Matrizes e sistemas de equações lineares 27


Vamos observar o gráfico formado pelas retas da figura a seguir:

Figura 5  x1  2x2  3
Sistema de equações 
3x1  6x2  9

16

eq1: x + 2y = 3 14

12
eq2: 3x + 6y = 9

+
10

eq2 4

eq1 2

-8 -6 -4 -2 0 2 4 6 8 10

-2

Fonte: Elaborada pela autora.

Observamos que eq1 e eq2, presentes na Figura 5, sobrepõem-se,


isto é, são retas coincidentes. Portanto, nesse caso, dizemos que temos
infinitos pontos de intersecção, o que nos permite concluir que possuí-
mos infinitas soluções para o sistema de equações.

Vamos fazer o mesmo para o Exemplo 16. Primeiro, reescreveremos


o sistema de equações equivalente escalonado, na seguinte forma:

x1  2 x2  3
0 x1  0 x2  6

Figura 6
 x  2x2  3
Sistema de equações  1
3x1  6x2  3

14

12
eq1: x + 2y = 3
10
eq2: 3x + 6y = 3
8
+
6
eq1
4
eq2
2

–8 –6 –4 –2 0 2 4 6 8 10 12 14 16

–2

–4

–6

–8

Fonte: Elaborada pela autora.

28 Álgebra Linear
Já no sistema de equações da Figura 6, as equações eq1 e eq2 são pa-
ralelas, o que nos mostra que elas não possuem pontos de intersecção.
Isso significa que o sistema de equações representado no Exemplo 16 não
tem solução.

Assim, podemos dizer que existem três tipos de soluções possíveis


para um sistema de equações lineares:
•• quando existe uma única solução, diz-se que o sistema é compa-
tível e determinado; Atividade 3
•• quando existem infinitas soluções, diz-se que o sistema é compa- Um sistema de equações da
tível e indeterminado; forma  a11 x1  a12 x2  a13 x3  b1

a21 x1  a22 x2  a23 x3  b2
•• quando não existe solução, diz-se que o sistema é incompatível.
com a11, a12, a13, a21, a22, a23 ≠ 0
Com essas informações, temos as ferramentas necessárias para re- possui duas equações e três
solver e classificar sistemas de equações lineares. Mas essa não é a incógnitas. Somente com essas
informações, é possível saber se
única forma, existem outras maneiras de se obter a solução e a classi- o sistema possui solução (única
ficação de um sistema de equações. Quando for oportuno, trabalha- ou infinitas) ou não? Explique.
remos essas opções.

CONSIDERAÇÕES FINAIS
Chegamos ao fim deste capítulo, no qual foi possível rever alguns con-
ceitos vistos no ensino médio e fundamental, além de aprender algumas
teorias ainda não trabalhadas na educação básica.
O conceito de matriz, assim como os sistemas de equações lineares,
é peça fundamental para as próximas unidades. Dessa forma, caso você
ainda tenha alguma dúvida sobre esse tema, sugerimos que releia este
capítulo. Também recomendamos acesso aos links indicados como com-
plementação do conteúdo e a resolução do máximo de exercícios pos-
síveis sobre o tema. Acreditamos que o tripé teoria, prática e aplicação é
necessário para a boa compreensão de qualquer conceito ou disciplina.

REFERÊNCIAS
BOLDRINI, J. L. et al. Álgebra linear. 3. ed. São Paulo: Harbra, 1986.
BRASIL, R. M. L. R. F.; BALTHAZAR, J. M.; GÓIS, W. Métodos numéricos e computacionais na
prática de engenharias e ciências. São Paulo: Blucher, 2015.
CALLIOLI, C. A.; DOMINGUES, H. H.; COSTA, R. C. F. Álgebra linear e aplicações. 6. ed. São
Paulo: Atual, 2003.
KOLMAN, B.; HILL, D. R. Álgebra linear com aplicações. 9. ed. Rio de Janeiro: LTC, 2013.
LEON, S. J. Álgebra linear com aplicações. 9. ed. Rio de Janeiro: LTC, 2019.

Matrizes e sistemas de equações lineares 29


GABARITO
1. Uma forma simples de apresentar a semelhança entre duas matrizes quadradas é
mediante o determinante dessas matrizes.

Sabendo que a semelhança se verifica por meio da equação

A  Q1BQ
Como Q é invertível, podemos escrever:

A  Q1BQ  det A  det(Q1BQ)

det A  det Q1 det B  det Q

det A  (1/ det Q)det B  det Q

Logo:
det A = det B

O que mostra que a semelhança entre duas matrizes quadradas pode ser demonstra-
da com a verificação da igualdade entre seus determinantes.

2. A regra de Sarrus com a repetição das duas primeiras linhas é um processo de cálculo
muito comum. Na verdade, fica a seu cargo montar o esquema com linhas ou colunas.
Para o caso da repetição das duas primeiras linhas, podemos nos basear na seguinte
figura:

Cmglee/Wikimedia Commons

3. Apenas com a informação do número de equações e incógnitas não é possível deter-


minar se existe ou não solução, pois poderíamos ter dois casos distintos:

• infinitas soluções (compatível e indeterminado), com a11,a12 ,a13 , a21, a22 , a23 ≠ 0 ,
sendo que precisaríamos traçar uma relação de dependência com alguma das
três variáveis.

• sem solução (incompatível): um sistema de equações com retas paralelas.


Podemos exemplificar com o seguinte sistema de equações lineares.

 x1  x2  x3  2

2 x1  3 x2  x3  4

Nesse caso, após escalonado, obtemos:

 1 1 1 2    1 1 1 2 
  x ( 2)  
 2 3 1 4  L 2  2 x L1  L 2 0 1 1 0
 
 x1  x2  x3  2
 (2)
 x2  x3  0

30 Álgebra Linear
• Da Equação 2 do Sistema (2), obtemos a variável x2: x2   x3

• Da Equação 1 do Sistema (2), obtemos a variável x1:

x1  2  x2  x3  2    x3   x3  2  2 x3
A resposta seria:
x1  2  2 x3
x2   x3
x3  x3

 2  2 x3 
 
A solução geral: X =   x3 
 x3 
 

Com isso, obtemos um sistema com infinitas soluções que dependem de X3. Um exem-
plo de um sistema nesse formato que não possui solução pode ser escrito como:

 x1  x2  x3  2

2 x1  2 x2  2 x3  5

Matrizes e sistemas de equações lineares 31


2
Espaços vetoriais
Neste capítulo, trataremos de uma estrutura fundamental na
álgebra linear: espaços vetoriais. Como o próprio nome já diz, traba-
lharemos com conjuntos de “vetores”, com propriedades predefini-
das de soma entre seus elementos e multiplicação por um escalar.
O termo vetores aparece entre aspas porque não fazemos refe-
rência apenas às estruturas representadas por segmentos de reta
orientados, com direção, sentido e módulo; trataremos como ve-
tores todas as possíveis estruturas de um espaço que possuam as
propriedades que o delimitam, por exemplo, funções, matrizes e ou-
tras estruturas. É importante que esses conceitos sejam conhecidos
para que possamos ampliar nosso repertório sobre o tema.
Podemos imaginar que cada pessoa tem uma caixa de ferra-
mentas cheia de conceitos matemáticos, e quanto mais ferramen-
tas diferentes tiver e melhor souber usá-las, mais rapidamente
poderá solucionar determinado problema. O objetivo é ampliar
nosso ferramental, portanto, neste capítulo, vamos entender a ál-
gebra dos espaços vetoriais.

2.1 Definição de espaços vetoriais


Videoaula É muito interessante a maneira como Lay (2013, p. 192, grifo nosso)
inicia seu capítulo sobre espaços vetoriais:
Uma nave espacial possui sistemas de controle sensíveis e ab-
solutamente críticos. Pensando nessa nave como uma célula
instável, concluímos que ela precisará de um monitoramento com-
putacional constante durante o seu voo atmosférico. O papel
do sistema de controle de voo é o de enviar um fluxo de coman-
dos para controlar superfícies aerodinâmicas e pequenos jatos
de propulsão.
Matematicamente, “os sinais que entram” e “os que saem” de um

32 Álgebra Linear
sistema são funções. É importante, nas aplicações, que estas fun-
ções possam ser somadas e multiplicadas por um escalar. Estas
duas operações realizadas em funções possuem propriedades
algébricas que são análogas às operações de soma de vetores
e multiplicação de vetor por um escalar em ℝ3. Por esta razão, o
conjunto de todos os possíveis “sinais que entram” (funções) é
chamado espaço vetorial.

Esse é um pequeno exemplo de aplicação na engenharia, entre tan-


tos outros que podemos citar.

Este capítulo discorrerá sobre os espaços vetoriais e suas proprie-


dades, mas não podemos falar desses espaços antes de relembrarmos,
ao menos brevemente, o que são vetores. A definição de vetor é sim-
ples e precisa.

Definição 1
Vetor é um segmento de reta com módulo, direção e sentido.

Fisicamente, podemos pensar em vetor por meio de quantidades,


por exemplo, de força.

“Sejam dois vetores, F1 e F2, chamamos de força resultante a soma


de F1 com F2 e denotamos por R = F1 + F2” (HIBBELER, 2011, p. 13, grifos
nossos).

Figura 1 Área de contato


Designua/Shutterstock

Força de atrito
Caixa

Superfície

Força

Atrito

Gravidade
Espaços vetoriais 33
A força é uma grandeza vetorial, de modo que podemos somá-la e
multiplicá-la por um escalar, mantendo-a no mesmo espaço de vetores.

Vídeo Uma importante observação é que vetores não precisam ser repre-
sentados, em todos os casos, por meio de flechas, como exemplificamos
Para relembrar mais
propriedades sobre ve- na Figura 1. Eles são objetos matemáticos abstratos, com propriedades
tores, sugerimos o vídeo
particulares, que, em alguns casos, podem ser visualizados por meio de
intitulado Introdução de
vetores para álgebra linear, flechas, mas é preciso cuidado, pois o sentido da flecha altera comple-
publicado pela Khan
tamente sua interpretação.
Academy.

Disponível em: https://pt.khana- Um espaço vetorial real é um conjunto V, não vazio, com duas
cademy.org/math/linear-algebra/ operações:
vectors-and-spaces/vectors/v/ 
vector-introduction-linear-algebra. •• Soma: VxV V
 
Acesso em: 4 maio 2020.
•• Multiplicação por escalar: xV →
 V

Para qualquer u, v, w ∈ V e a, b ∈ ℝ , as propriedades a seguir preci-


sam ser satisfeitas.

Propriedades
•• (u + v) + w = u + (v + w) → associatividade
•• u + v = v + u → comutatividade
  
•• ∃! 0 ∈V tal que u  0  0  u  u → elemento neutro da adição

•• ∃! – u ∈ V tal que u   u   0 → elemento inverso
•• a(u + v) = au + av → distributividade
•• (a + b)v = av + bv → distributividade
•• (ab)v = a(bv) → comutatividade do produto
•• 1u = u → elemento neutro da multiplicação

Quando temos, em vez de escalares reais, números reais comple-


xos, o espaço V é chamado de espaço vetorial complexo.

É comum que os elementos de um espaço vetorial sejam chamados


de vetores, independentemente de sua natureza. Já os números reais
que desempenham o seu papel na ação de multiplicar um vetor são
chamados de escalares.

Talvez o espaço vetorial mais “importante” seja o ℝn, munido das


oito propriedades supracitadas.

34 Álgebra Linear
Exemplo 1

Seja V  n  { x1, x2 , , xn | xi  } e sejam três vetores

desse espaço dados por u   x1, x2 ,  , xn  , v   y1, y2 , , yn  e


w   z1, z2 , , zn  . Sejam, ainda, a, b ∈ ℝ. Podemos rapidamente per-
ceber que:

•• Associativa da adição: (u + v) + w = ((x1,x2,…,xn) + (y1,y2,…,yn))


+ (z1,z2,…,zn) = (x1 + y1,x2 + y2,…,xn + yn) + (z1,z2,…,zn) = (x1+ y1+ z1,
x2 + y2 + z2,…,xn + yn + zn) = (x1,x2,…,xn) + (y1 + z1,y2 + z2,…,yn + zn) =
(x1, x2,…,xn) + ((y1,y2,…, yn) + (z1,z2,…,zn)) = u + (v + w).
•• Comutativa da adição: u + v = (x1,x2,…,xn) + (y1,y2,…,yn) =
(x1 + y1,x2 + y2,…,xn + yn) = (y1 + x1,y2 + x2,…,yn + xn) = (y1,y2,…,yn) + (x1,
x2,…,xn) = v + u.

•• Elemento neutro da adição: u   uu + 0 = (x1,x2,…,xn) + (0,0,…,0) =

(0,0,…,0) + (x1,x  un) = 0 + u = u.
u 2,…,x
•• Elemento inverso da adição: u + (–u) = (x1,x2,…,xn) + (–x1,–x2,

u   u  =
…,–xn) = (x1 – x1,x2 – x2,…,xn – xn) = (0,0,…,0)  0.
•• Distributiva: a(u + v) = a((x1,x2,…,xn) + (y1,y2,…,yn)) = a(x1 + y1,x2 +
y2,…,xn + yn) = (a(x1 + y1), a(x2 + y2),…,a(xn + yn)) = (ax1 + ay1,ax2 + ay2,
…,axn + ayn) = (ax1,ax2,…, axn) + (ay1,ay2,…,ayn) = au + av.
•• Comutativa do produto: a(b . u) = a(b(x1,x2,…,xn)) = a(bx1,bx2,
…,bx ) = (abx ,abx ,…,abx ) = ab(x ,x ,…,x ) = (ab) . u.
n 1 2 n 1 2 n

•• Elemento neutro do produto: 1 . u = 1 . (x1,x2,…,xn) = (1x1,1x2,


…,1xn) = (x1,x2,…,xn) = u.

Atenção
Exemplo 2

Seja x, y ∈ V e λ ∈ ℝ, em que a soma entre x e y é dada por xx  yy= é 


xyze  x  yz xum y matemático
símbolo
xyz xy xy
z  xy

( xy )  

z x  xy y x
    y     x     y 
 utilizado para
 indicar produto
o produto de x pelo escalar λ é dado por λ  xx = xy , verifiquemos
   xy   ( xy )  x ynãousual.
λ 
x  

cada uma das oito propriedades: x  éyumsímbolo


z   matemático
x   yz   xyz   xy  z   x
utilizado para indicar soma não
•• Associativa da adição:
usual.
x   y  z   x   yz   xyz   xy  z   xy   z   x  y   z para
quaisquer x, y, z ∈ V.

•• Comutativa da adição: x =
y xy
= yx = y  x para quais-
quer x, y ∈ V.
•• Elemento neutro da adição: se x ∈ V, como 1∈ V, temos
x =
y xy
= yx = 1
y  x = 1x = x.
(Continua)
Espaços vetoriais 35
•• Elemento inverso da adição: se x ∈ V, então x-1 ∈ V. Assim,
     x  x  = x.x
 x  x   xx  xx-1  -1
x 1.
=    x 
•• Distributiva:

   
   x  y     xy   ( xy )  x  y   x   y      x      y 
para quaisquer x, y ∈ V e λ ∈ ℝ.

•• Distributiva:

      x  x     x  x   x   x      x      x  para
quaisquer x ∈ V e λ, µ ∈ ℝ.

•• Comutativa do produto:

     x     x   ( x  )  x   x       x para quais-
quer x ∈ V e λ, µ ∈ ℝ.

•• Elemento neutro do produto: 1  xx=x1y= x para


  xy qualquer
  ( xy ) x∈V.
x y   x  y        
Assim, para trabalhar com um espaço vetorial, precisamos verificar
se as oito propriedades enunciadas são satisfeitas.

Atividade 1
Vimos que um espaço vetorial é assim denominado quando trabalhamos com objetos matemáticos, que não
necessariamente serão vetores, mas que devem respeitar as oito propriedades enunciadas. Tais objetos podem
ser funções, polinômios, matrizes etc.
a a  b b  c c 
Se V = M2, com A   11 12  , B   11 12  , C   11 12  elementos de M2, e sejam α, β ∈ ℝ, a
 a21 a22   b21 b22   c21 c22 
soma entre dois elementos desse conjunto é dada por

 a12  b21 0 
A B   
 0 a 
22 b22 
e o produto é usual.
Analise se V = M2 é um espaço vetorial e justifique sua resposta.

2.2 Subespaços vetoriais


Videoaula Seja V um espaço vetorial, os subconjuntos de V, que respeitam as
oito propriedades para um espaço vetorial, serão chamados de subes-
paços de V e denotados por W ⊆ V.

Dado um espaço vetorial V, um subconjunto W não vazio será um


subespaço vetorial de V se:

36 Álgebra Linear
•• para quaisquer u, v ∈ W, tivermos u + v ∈ W;
•• para quaisquer λ ∈ ℝ, u ∈ W, tivermos λ . u ∈ W.

u   u •• 0 ∈ W.

Ao escrevermos que W ⊆ V, estamos admitindo que W = V. Nesse


caso, temos um espaço dito trivial ou impróprio. Temos outro espaço
trivial presente como subconjunto de V, que é o espaço vetorial que
contém apenas o vetor nulo. Dessa forma, dizemos que um espaço ve-
torial admite dois espaços triviais:
•• W = V

u ••  W
u= { 0 }

Analisando v = ℝ2, temos que os subespaços triviais são {(0,0)} e ℝ2.


Os demais, que, nesse caso, são as retas que passam pela origem, são
chamados de subespaços próprios.

Exemplo 3

Seja o espaço vetorial dado por V = ℝ2 e seja a reta dada por


W1 = {y = 3x} em ℝ2, verifique se W1 ⊂ V é subespaço de V.

Solução:

Precisamos verificar três condições:

•• se para quaisquer u, v ∈ W1, temos u + v ∈ W1;


•• se para quaisquer λ ∈ ℝ, u ∈ W1, temos λ . u ∈ W1;

u  
••u se
 0 ∈ W1.
•• Se (x1, y1) pertence à reta y1 = 3x1, precisamos verificar se
 x1  x2 , y1  y2  também pertence, logo:

y1  y2  3 x1  3 x2  3  x1  x2 

•• Se (x, y) pertence à reta y = 3x, precisamos verificar se λx tam-


bém pertence, assim:
y    3 x   3 x

•• (0, 0) ∈ W1, pois é fácil verificar que esse par ordenado satisfaz
0 = 3.0.

Portanto, W1 é subespaço vetorial de V.

Espaços vetoriais 37
Figura 2a Figura 2b
Reta y = 3x e y = 3ax para a ∈ ℝ Subespaço y = 3x

y
B
f (x) = 3x
f: y = 3x f: y = 3x
g
5 6
a = –2
–5 5
4
g(x) = 3.λx
A
g (x) = 3ax 3 4
→ 3 (–2)x
2
3
h(x) = 3(x1 + x2)
A = Ponto(f)
→ (1, 3) 1
2

B = Ponto(g) -2 -1 0 1 2 3 4 5 1
→ (1, 6)
-1

+ -2
1 2 3 4 5 x

-3

-4

Fonte: Elaboradas pela autora.

Observando as imagens, percebemos que, se em g (x) adotarmos λ = 1,


obteremos g (x) = f (x). Para a reta h (x), se adotarmos x1 + x2 = 1, sendo, por
exemplo, x1 = 0,3 e x2 = 0,7 (infinitas combinações), obteremos h (x) = f (x).

Exemplo 4

Vamos considerar um sistema linear homogêneo da forma


(BOLDRINI et al., 1986):
5 x  4 y  z  0

 x  y  z  0
 x  3y  z  0


Colocando em forma matricial, obtemos:


 5 4 1   x  0 
    
 1 1 1   y   0 
 1 3 1  z  0 
    
Procuramos, dentro do espaço vetorial M 3x1, espaço das
matrizes-coluna de três linhas, aqueles vetores que satisfazem a
Relação (1), ou seja, os vetores-solução do sistema. Precisamos ve-
rificar se o conjunto dos vetores-solução é um subespaço de M3x1. A
abordagem continua sendo a mesma:
•• Tomaremos dois vetores pertencentes ao conjunto de veto-
res-solução e verificaremos se a soma entre eles continua
pertencendo ao conjunto de vetores-solução.

(Continua)

38 Álgebra Linear
•• Após essa etapa, verificaremos se a multiplicação de um ve-
tor-solução por um escalar continua fazendo parte do con-
junto de vetores-solução.
•• Por fim, analisaremos se o vetor nulo faz parte do conjunto
de vetores-solução. Se as três condições forem verificadas,
podemos dizer que o conjunto de vetores-solução é um su-
bespaço de M3x1.
 x1   x2 
   
Sejam  y1 e  y2  dois vetores-solução e seja λ ∈ ℝ. Então:
z  z 
 1  2
 5 4 1    x1   x2    5 4 1   x1   5 4 1   x2  0  0  0 
                   
 1 1 1     y1   y2     1 1 1    y1   1 1 1    y2   0   0   0 
 1 3 1   z   z    1 3 1  z   1 3 1  z  0  0  0 
    1  2      1    2      

Portanto, a soma é solução.


 5 4 1    x1     5 4 1   x1   0  0 
            
 1 1 1  k  y
   1   k   1 1 1  y
  1   k 0   0 
 1 3 1   z     1 3 1  z   0  0 
    1     1     

Logo, o produto de uma constante por uma solução ainda é uma


solução.
O vetor nulo sempre será solução, pois todo sistema de equações
lineares homogêneo admite solução trivial (0, 0, 0).
Geometricamente, conseguimos analisar esse conjunto por meio da
intersecção dos três planos dados por 5 x  4 y  1z  0,  x  y  z  0 e
x  3y  z  0 .

Figura 3
Intersecção entre os planos 5x + 4y + z = 0; –x + y + z = 0; e x + 3y – z = 0

eq1: 5x + 4y + z = 0

eq2: –x + y + z = 0
2,5
eq3: x + 3y – z = 0
2

+
–5
–5 ,5
1,5 –4
–4 ,5
–3
1 ,5
5

–3
4,

–2
5
4

,5
3,


3

0,5 – 2
2,

–1 1,5
5
2

1,

–0
1

,5
0,

,5

,5
–0
–1

–1

–2

,5
–2

–0,5
eq2
–1 eq3
–1,5 eq1

Fonte: Elaborada pela autora.

Espaços vetoriais 39
Com as oito propriedades de espaço vetorial e as três verificações
necessárias para identificarmos um subespaço vetorial, é possível ana-
lisar diversas aplicações, entre elas as que exemplificamos.

2.2.1 Intersecção de subespaços


Analisar se existe uma intersecção entre subespaços é similar a ana-
lisar a intersecção entre conjuntos. Sendo assim, precisamos verificar
se existem elementos em comum entre ambos.

Seja V um espaço vetorial e W um subconjunto de V, vimos que é


necessário demonstrar três condições fundamentais para que W seja
considerado um subespaço de V:
•• se para quaisquer u, v ∈ W, temos u + v ∈ W;
•• se para quaisquer λ ∈ ℝ, u ∈ W, temos λ . u ∈ W;

•• se 0 ∈W .

Portanto, um subespaço sempre conterá o vetor nulo. Dessa forma,


se queremos demonstrar que a intersecção entre dois subespaços, U
e W (de V), continua sendo um subespaço de V, a primeira coisa que
precisa ser verificada é se ele contém o vetor nulo. Caso isso não se
verifique, não há necessidade de seguir o processo, pois podemos
concluir que a intersecção não é um subespaço de V. Vamos enunciar
o teorema e apresentar uma demonstração para tal.

Teorema 1

Dados U e W subespaços de um espaço vetorial V, a intersecção U ∩ W


ainda é um subespaço de V.

Demonstração

Inicialmente, observamos que U ∩ W nunca é vazio, pois tanto U


Atenção quanto W contêm o vetor nulo de V. Verificamos, então, as condições
∴ é um símbolo matemático de existência de um subespaço vetorial:
para indicar uma conclusão ób-
via. Pode ser lido como portanto, •• Dados x, y ∈ U, então é lógico que x, y ∈ U e x, y ∈ W. Assim, como
logo ou em conclusão. U e W são subespaços de V, podemos escrever que x + y ∈ U e x +
■ é um símbolo matemá- y ∈ W. Portanto, x + y ∈ U ∩ W.
tico para indicar que uma
demonstração foi finalizada. •• Dados k ∈ ℝ e x ∈ U ∩ W, então, pela mesma ideia da primeira
Pode ser lido como quod erat propriedade, podemos escrever que x ∈ U e x ∈ W e, ainda, que kx
demonstrandum (como se queria
∈ U e kx∈ W, logo kx∈ U ∩ W.
demonstrar).
∴ U ∩ W é subespaço vetorial de V. ■

40 Álgebra Linear
Exemplo 5

Vamos supor dois subespaços V = ℝ3 dados por


U  x , y , z    ; x  0 e W   x , y , z    ; z  0.
3 3

Antes de analisarmos se a intersecção U ∩ W é um subespaço


vetorial de V, vamos entender quem são U e W. Assim, temos as
seguintes figuras representando geometricamente U e W.

Figura 4a Figura 4b
Representação geométrica do subespaço U Representação geométrica do subespaço W

2,5

1,5 5
z=0 4,5
1
5
2 4,5
3,5 4
3 2 0,5
1,5 1 2,5
0
0,5
1,5 1 ,5
2 –0
2,5 –1
,5 –2
–1 –2,5
–2
,5
–2
–3
,5
–3 –4,5
–4 –5
,5 –5,5
–4 5

,5
–5

Fonte: Elaboradas pela autora.

É fácil imaginar que U ∩ W terá uma reta em sua intersecção.


Mas qual reta é essa? É exatamente o eixo das ordenadas, isto é, o
eixo y, como podemos visualizar na figura a seguir.

Figura 5
Intersecção entre subespaços

2,5

1,5

1
5
4,5

2 0,5

–2
–2,5

–5
–5,5

Fonte: Elaborada pela autora.


(Continua)

Espaços vetoriais 41
Portanto, a intersecção entre U ∩ W é um subespaço vetorial

V = ℝ3, sendo que U ∩ W = eixo das ordenadas y.

Teorema 2
Se W1, W2, ..., Wr forem subespaços de um espaço vetorial, então
a intersecção desses subespaços também será um subespaço de V
(ANTON; BUSBY, 2006).
Demonstração
Seja W a intersecção dos subespaços W1, W2, ..., Wr. Como todos
esses subespaços contêm o vetor nulo de V, a intersecção entre eles,
W1  W2  Wr , também contém o vetor nulo de V. Resta-nos ainda
mostrar que as propriedades de adição e multiplicação por escalar
são válidas para W, ou seja, W é fechado na adição e multiplicação por
escalar.
Sejam u e v vetores de W. Como u + v está presente em todos os su-
bespaços W1, ..., Wr, então podemos dizer que u + v está na intersecção
desses subespaços, logo W é fechado para a adição.
O mesmo se dá para a multiplicação por escalar. Como W é a inter-
secção entre W1, ..., Wr e au está em cada um desses subespaços de V,
então au pertence a W1 ∩ ... ∩ Wr, portanto W contém au. Logo, W = W1
∩ ... ∩ Wr é um subespaço vetorial de V. ■

Dessa forma, finalizamos esta subseção com uma importante de-


monstração sobre a teoria de subespaços vetoriais.

2.2.2 Soma de subespaços


A soma de subespaços também pode nos levar a importantes re-
sultados algébricos e geométricos. Vamos definir o conceito de soma,
para que, na sequência, possamos pensar nessa soma como subespa-
ço vetorial de um espaço vetorial maior.

Definição 2
Sejam U e W subespaços de um espaço vetorial V, definimos a soma de U e W como:
U + W = {u + w, u ∈ U e w ∈ W}
Segue de imediato a definição de que as propriedades de comutatividade e exis-
tência de um elemento neutro
 para a soma são válidas. Assim, dizemos que
U + V = V + uUe que
uU+ 0 = U.

42 Álgebra Linear
Teorema 3

Sejam U e W subespaços de um espaço vetorial V, então o conjunto


U + W é subespaço de V. Além disso, U ∪ W ⊂ U + W.

Demonstração

Primeiramente, verifiquemos que U + W é subespaço vetorial de V.


  
 u  u 0∈uU e 0 ∈ uW, então
u•• Como  u   0 ∈ U + W.
•• Sejam x1, x2, ∈ U + W, então xj = uj + wj, com uj ∈ U e wj ∈ W, j = 1,2.

Agora, se λ ∈ ℝ2, então


x1   x2  u1  w1   u2  w2   u1  u2   w1  w2   U  W , pois U,W
são subespaços vetoriais de V.

Mostremos agora que U ∪ W ⊂ U + W. Seja v ∈ U ∪ W. Se v ∈ U,


 
então v  v  0  U  W . Se v ∈ W, então v  0  v  U  W . Ou seja,
U W  U  W . ■

Observação 1

Ainda usando a notação anterior, suponha que V’ seja subespaço de


V, que contém U e W. Nesse caso, para todo u ∈ U ⊂ V’ e todo w ∈ W ⊂ V’,
temos que u + w ∈ V’, ou seja, U + W ⊂ V’.

Proposição 1

Sejam U e W dois subespaços de V, em que U + W ∈ V. Podemos dizer


que U + W é o menor subespaço vetorial de V que contém a intersecção
entre U e W. Ou seja, se V’ é subespaço vetorial de V contendo U ∪ W,
então U ∪ W ⊂ U + W ⊂ V’.

Partindo dessa proposição, podemos definir:

Definição 3
Seja V um espaço vetorial e U e W dois subespaços de V, temos que U + W é a soma

direta de U e W seuU∪ Wu ={ 0 }. A notação para soma direta é dada por U ⊕ W
representando U + W.

Teorema 4

Sejam U e W subespaços vetoriais de um espaço vetorial V, temos


V = U ⊕ W se, e somente se, para cada v ∈ V existir um único u ∈ U e um
único w ∈ W satisfazendo v = u + w.

Espaços vetoriais 43
Demonstração

Suponha que V  U  W , isto é, V  U  W e U  W  0 . Então, dado 
v ∈ V, existem u ∈ U e w ∈ W satisfazendo v = u + w. Queremos mostrar
que tal decomposição é única.

Suponha que existem u’ ∈ U e w’ ∈ W, tal que v = u’ + w’. Então,


u + w = u’ + w’, o que implica em u – u’ = w' – w. Mas u – u’ ∈ U e w' – w ∈ W,


portanto u  u'  w ' w  U  W  0 , ou seja, u = u’ e w' = w.

Suponha agora que para cada v ∈ V exista um único u ∈ U e um úni-


co w ∈ W satisfazendo v = u + w. É claro que V = U + W. Resta mostrar que
 
U
U∩WW 
= 0 . Obviamente, 0  U  W . Seja v ∈ U ∩ W, isto é, v ∈ U e v ∈ W,
então existe um único u ∈ U e um único w ∈ W satisfazendo v = u + w.
Observe que v = u + w = (u + v) – (w – v) com u + v ∈ U e w – v ∈ W. Pela

unicidade da decomposição, devemos ter u = u + v e w = w – v, isto é, v = 0 . U  W

Logo, UU ∩
W = 0 . ■
Exemplo 6

Seja o espaço vetorial V = ℝ3 e os subespaços de ℝ3 dados por


U  x , y , z    ; x  y  0
3
e W  x , y , z    ; x  y  z  0 ,
3

queremos mostrar que V é soma direta de U e W (ZANI, 2010).

Solução:
Podemos escrever como
W  x , y , z    ; z  x  y
3

Logo, dado (x, y, z) ∈ ℝ3, temos:

 x , y , z   0,
0, z  x  y 

 x 
, y, x  y 
 
U U

E como

0, 0, z  x  y   U e  x ,y , x y   W ,


obtemos 3  U  W .

Por fim, precisamos mostrar que essa soma é direta: U ∩
 W = 0 . 
Assim, seja  x ,y ,z  
 U  W ,

Se (x, y, z) ∈ U, devemos ter x = y = 0.

Se (x, y, z) ∈ W, devemos ter x + y + z = 0.

(Continua)

44 Álgebra Linear
Portanto, temos que encontrar todas as soluções do sistema de
equações lineares dado por:
 x 0 

 y 0 , ou seja, (x, y, z) = u  u0) = 0 .
(0, 0,
x  y  z  0



Logo, U  W  0 . Com isso, temos U  W  V  3 .

2.3 Combinação linear


Videoaula
Uma combinação linear entre vetores pode ser uma ferramenta útil
quando precisamos decompor um vetor em diferentes direções.
Vamos entender.

Definição 4
Sejam v1, ..., vn elementos de um espaço vetorial V, dizemos que v é uma combina-
ção linear de v1, ..., vn se existirem números reais a1, ..., an, tais que:

v = α1 v1 + ... + αn vn (1)

Sejam V um espaço vetorial e U ⊂ V um subespaço vetorial, se u1, ..., un ∈ U e


α1, …, αn∈ ℝ, então a combinação linear
u  1 u1    n un
pertence a V.

Exemplo 7

Em P2, o polinômio p(x) = 2 + x2 é uma combinação linear


dos polinômios p1(x) = 1, p2(x) = x e p3(x) = x2. Basta ver que
p  x   2 p1  x   0 p2  x   p3  x  .

Exemplo 8

Seja V = ℝ2, temos que o elemento v = (–5,3) ∈ V é uma combinação


linear dos elementos v1 = (1,0) e v2 = (0,1), pois é possível escrever:

 5, 3    5 1, 0   3  0, 1    5v1  3v2 .

Geometricamente, o que estamos dizendo é que existem esca-


lares a1 = –5 e a2 = 3, tais que v  1v1   2v2 .

Espaços vetoriais 45
Figura 6
Combinação linear entre v1 e v2
y

3v2

v2 = (0,1)

x
– 5v1 v1 = (1,0)

Fonte: Elaborada pela autora.

As combinações lineares serão necessárias para entendermos con-


ceitos como base e dimensão de espaços vetoriais, conforme veremos
na sequência.

2.4 Dependência e independência linear


Videoaula Vamos imaginar a seguinte situação: temos um vetor u, escrito
como u  a1v1  a2v2  a3v3 e u ∈ ℝ2, ou seja, u é uma combinação linear
entre os vetores v1, v2 e v3, com vi = (xi , yi). Mas queremos saber quais
desses três vetores são fundamentais para gerar u, isto é, quais desses
vetores são linearmente independentes, de modo que geram u, sem
a necessidade de nenhum outro vetor, e não se sobrepõem. Essa é a
pergunta que responderemos nesta seção.

Definição 5
Uma sequência de vetores v1, ..., vn de um espaço vetorial V é linearmente
independente (L.I.) se

1v1     nvn  0 .
E isso só é verdade se 1     n  0 .

Definição 6
Seja um espaço vetorial V e uma sequência de vetores v1, ..., vn de V, dizemos
que essa sequência é linearmente dependente (L.D.) se não for linearmente
independente.

46 Álgebra Linear
De acordo com Leon (2019), a definição de dependência linear para
a sequência v1, ..., vn equivale a dizer que é possível encontrar números
reais a1, ..., an, não todos nulos, tais que 1v1     nvn  0 .

Exemplo 9

O conjunto u   u  {0} é linearmente dependente. Logo, qual-
unitário
quer n-upla que contenha o vetor nulo também é L.D.

Se dispusermos os vetores que desejamos analisar em uma ma-


triz quadrada A (quando possível) e calcularmos seu determinante,
podemos ter dois tipos de solução:
•• det A = 0 vetores L.D.
•• det A ≠ 0 vetores L.I.

Exemplo 10

Sejam os vetores u = (1,2,3), v = (3,–1,6) e w = (4,2,1), queremos


classificar os três vetores em L.I. ou L.D. Assim, fazemos:

1 2 3
A  3 1 6
4 2 1

Reduzindo a matriz à forma escada (escalonada), obtemos:

1 2 3
 59 
A  0 7 3  1  7       59
59  7 
0 0 
7
Logo, os vetores u, v e w são linearmente independentes.

Teorema 5

{v1, ..., vn} é L.D. se, e somente se, um desses vetores for combinação
linear dos outros.

Demonstração

Sejam v1, ..., vn L.D. e


1v1     j v j     nvn  0.

Segundo a definição dada, um dos coeficientes deve ser diferente


de zero. Suponhamos que aj ≠ 0.

Espaços vetoriais 47
1
Então, vj  
j

 v1    j 1v j 1   j 1v j 1    nvn 
e, portanto, 1 
vj   v1    n vn .
j j

Logo, vj é uma combinação linear dos outros vetores.

 
Por outro lado, se tivermos v1, , v j , , vn , tal que, para algum j,

v j  1v1     j 1v j 1   j 1v j 1    nvn ,


temos
1v1    1v j    nvn  0

com βj = –1. Portanto, {v1, ..., vn} é L.D. ■

Algumas considerações importantes:


•• Em V = ℝ2, sempre que tivermos três vetores da forma u = (a, b),
um deles será combinação linear dos outros dois.
•• Em V = ℝ3, sempre que tivermos quatro vetores da forma
u = (a, b, c), um deles será combinação linear dos outros três.

Dessa forma, podemos identificar vetores que são combinação li-


near dos demais. Agora, precisamos identificar vetores que, além de
serem linearmente independentes, geram um espaço vetorial deseja-
do. Vamos entender melhor esse conceito a seguir.

2.5 Base de um espaço vetorial


Videoaula Um conjunto de geradores para um espaço vetorial V é um conjunto
S de vetores de V,S = {v1, ..., vk}, tal que qualquer vetor de V pode ser
expresso como uma combinação linear (finita) dos vetores de S, isto é,
v  1v1     k vk , em que cada ai ∈ ℝ e cada vi ∈ S. Nesse caso, dize-
mos que S gera V e denotamos por V = [S].

Dizemos que o espaço vetorial V é finitamente gerado quando V é


não nulo e existe um conjunto finito de vetores que gera V.

48 Álgebra Linear
Definição 7
Dizemos que um conjunto S ⊂ V é uma base para o espaço V se:
• V = [S]
• S é L.I.

Exemplo 11

Um exemplo clássico de base são as bases canônicas para ℝ2 e ℝ3:


•• Para ℝ2, temos e1 = (1,0) e e2 = (0,1).

Esses dois vetores geram qualquer outro vetor de ℝ2 e são L.I.

•• Para ℝ3, temos e1 = (1,0,0), e2= (0,1,0) e e3 = (0,0,1).

Esses três vetores geram qualquer outro vetor de ℝ3 e são L.I.

Teorema 6

Sejam v1, ..., vn vetores não nulos que geram um espaço vetorial V,
podemos extrair desses vetores uma base de V.

Demonstração

Se v1, ..., vn são L.I., então eles cumprem as condições para uma base,
e não temos mais nada a fazer. Se v1, ..., vn são L.D., então existe uma
combinação linear deles, com algum coeficiente não zero, dando o ve-
tor nulo.
1v1     nvn  0

Seja, por exemplo, an ≠ 0, podemos escrever:


1 
vn   v1    n1 vn1.
n n

Dessa forma, vn é uma combinação linear de v1, ..., vn–1, portanto


v1, ..., vn–1 ainda gera V. Se v1, ..., vn–1 são L.I., então eles cumprem as
condições para uma base. Se forem L.D., então existe uma combinação
linear deles resultando no vetor nulo, com algum coeficiente diferen-
te de zero, portanto podemos extrair aquele vetor que corresponde a
esse coeficiente. Seguindo dessa forma, após uma quantidade finita de
passos, chegaremos a um subconjunto de {v1, ..., vn}, formado por r veto-
res, r < n, que ainda geram V, ou seja, formaremos uma base para V. ■

Espaços vetoriais 49
Teorema 7

Seja um espaço vetorial V gerado por um conjunto finito de vetores


v1, ..., vn, então qualquer conjunto com mais de n vetores é necessaria-
mente L.D.

Assim, temos que:


•• Em V = ℝ2, sempre que tivermos um conjunto com três ou mais
vetores na forma u = (a, b), esse conjunto será linearmente
dependente.
•• Em V = ℝ3, sempre que tivermos um conjunto com quatro ou mais
vetores na forma u = (a, b, c), esse conjunto será linearmente
dependente.

Assim, já temos algumas informações importantes: sabemos defi-


nir se os vetores são L.I. ou L.D., encontrar um espaço gerado por tais
vetores e definir uma base para um espaço. Agora, precisamos juntar
essas informações para definir a dimensão de um espaço vetorial. Esse
é o assunto da nossa próxima subseção.

2.5.1 Dimensão de um espaço vetorial


Poderíamos prosseguir com este conteúdo na seção anterior, mas
optamos por destacar o conceito de dimensão de um espaço vetorial.
Assim, o corolário a seguir é uma extensão do Teorema 7.

Corolário 1

A dimensão de um espaço vetorial V é dada pelo número de ele-


mentos que compõe sua base, sendo que toda base de um espaço ve-
torial tem sempre o mesmo número de elementos.

Demonstração

Sejam {v1, ..., vn} e {w1, ..., wm} duas bases de V. Como [v1, ..., vn] = V e
w1, ..., wm são L.I., pelo Teorema 6, m < n.

Por outro lado, como [w1, ..., wm] = V e v1, ..., vn são L.I., ainda pelo
Teorema 6, n < m. Logo, m = n. ■

Teorema 8

Qualquer conjunto de vetores L.I. de um espaço vetorial V de dimen-


são finita pode ser completado de modo a formar uma base de V .

50 Álgebra Linear
Demonstração

Sejam dimV = n e v1, ..., vr vetores L.I. (pelo Teorema 6 r < n). Se
v1, , vr   V , então v1, , vr  forma uma base, e não temos mais
nada a fazer (r = n).

Se existe vr 1  V tal que vr 1  v1, , vr  , isto é, vr + 1 não é uma


combinação linear de v1, , vr , então v1, , vr , vr 1 é L.I.

Se v1, , vr , vr 1  V , então v1, , vr , vr 1 é a base procurada. Caso


contrário, existe vr  2  v1, , vr , vr 1 e, então, v1, , vr , vr 1, vr  2  é L.I.

Como não podemos ter mais do que n vetores L.I. em V (pelo Teore-
ma 6), após um número finito de passos, teremos obtido uma base de
V que contém os vetores dados. ■

Corolário 2

Se dimV = n, qualquer conjunto de n vetores L.I. formará uma base


de V.

Teorema 9

Se U e W são subespaços de um espaço vetorial V que tem dimensão


finita, então dimU < dimV e dimW < dimV. Além disso:

dim(U ∩ W) + dim(U + W) = dimU + dimW (2)

Demonstração

Todo subespaço de um espaço vetorial de dimensão finita também


tem dimensão finita.

Sejam v1, ..., vm elementos de uma base de (U ∩ W), como esses veto-
res são L.I. e pertencem a U, pelo Teorema 7, existem u1, ..., up ∈ U, tais
que u1, , up , v1, , vm formam uma base de U.

Por outro lado, os vetores v1, ..., vm também pertencem a W e, pelo


mesmo teorema, é possível encontrar w1, , wq ∈ W , de modo que
w1, , wq , v1, , vm formem uma base de W.

Com a notação usada, temos dim U  W   m, dimU  m  p e


dimW  m  q . Sendo assim, a fim de mostrarmos que a Equação 2 é
válida, é necessário e suficiente mostrar que dim U  W   m  p  q.
Para tanto, basta mostramos que os seguintes vetores formam uma
base de (U + W).

u1, ..., up, w1, ..., wq, v1, ..., vmdim(U W) + dim(U + W) = dimU + dimW (3)

Espaços vetoriais 51
Mostraremos, primeiramente, que eles geram (U + W).

Dado v ∈ (U + W), existem u ∈ U e w ∈ W, tais que v = u + w. Como u


é uma combinação linear de u1 , up , v1, , vm e w é uma combinação
linear de w1, , wq , v1, , vm , segue que v = u + w é uma combinação
linear de u , , u , w , , w , v , , v .
1 p 1 q 1 m
Portanto,
U  W  u1, , up , w1, , wq , v1, , vm  .
 
Verifiquemos que os vetores de (3) são L.I.

Suponhamos que:

α1 u1 + ... + αp up + β1 w1 + ... + βq wq + γ1 v1 + ... + γm vm = 0 (4)

Ou seja,

U  1u1     pup   1v1     mvm   1w1    qwq  W

Logo,
 1w1    qwq  U  W   v1, , vm 

Consequentemente, existem γ1, ..., γm tais que

 1w1    qwq   1v1     mvm


Ou seja,
1w1    qwq   1v1     mvm  0

Como w1, , wq , v1, , vm são L.I., pois formam uma base de W, se-
gue-se que:
 1     m  1    q  0

Assim, a Equação 4 se reduz a

1u1   pup   1v1    mvm  0


E como u1, , up , v1, , vm são L.I., pois formam uma base de U, se-
gue-se que
 1     m  1     p  0

Ou seja, os vetores de (3) são L.I. ■

Teorema 10

Dada uma base B  v1, v2 , , vn ordenada de V, cada vetor de V é


escrito de maneira única como combinação linear de v1, v2, ..., vn.

52 Álgebra Linear
Demonstração

Temos que v ∈ V e v  1v1    nvn , pois v1, , vn   V , e como


v1,, vn é L.I., a1, ..., an são univocamente determinados. ■
Exemplo 12

Seja o conjunto W, gerado pelos vetores


 0 , 1, 1, 0 
, 1, 1, 1, 2 
,1, 1, 1, 2  , um conjunto do espaço vetorial
V = ℝ4, queremos obter uma base para W.

Sabemos que uma base sempre é formada por vetores L.I., por-
tanto podemos escrever os três vetores em forma de matriz, sendo
que cada um deles será um vetor linha dessa matriz. Vídeo
Na sequência, escalonamos a matriz para conseguirmos visuali- Sugerimos que assista ao
vídeo intitulado Combinações
zar quais vetores são linearmente dependentes, caso existam.
lineares, subespaços gerados,
 0 1 1 0   1 0 0 2 e bases, publicado pelo canal
    3Blue1Brown, o qual traz uma
 1 1 1 2  ~ 0 1 1 0  versão geométrica dos conceitos
 1 1 1 2  0 0 0 0 
    da álgebra que nos auxilia no
entendimento do conteúdo
Portanto, os vetores (1,0,0,2) e (0,1,1,0) geram o espaço W, e
deste capítulo.
como eles são L.I., podemos dizer que formam uma base para W.
Disponível em: https://www.
Ainda, conseguimos perceber que W ⊂  4 , mas não gera ℝ4, youtube.com/watch?v=k7R-
M-ot2NWY. Acesso em: 4 maio
pois W tem dimW = 2, enquanto dimℝ4 = 4. 2020.

Vistos esses conceitos, começaremos a trabalhar com mudanças de


base e conceitos relacionados.

2.5.2 Mudança de base


Como é possível encontrar as coordenadas de um vetor em relação
a uma base sabendo suas coordenadas em relação a outra base?

Na física, esse conceito é aplicado corriqueiramente, pois é comum


encontrarmos, na estática, exemplos em que é mais simples escolher
um novo referencial para descrever determinado movimento.

Dessa forma, vamos entender como trabalhar com essas mudanças


de referencial, as quais, na álgebra linear, são chamadas de mudan-
ças de base.

Espaços vetoriais 53
Seja V um espaço vetorial finitamente gerado e sejam B e C bases de
V formadas pelos vetores b1, ..., bn e c1, ..., cn, respectivamente. Como B
é uma base, existem aij ∈ ℝ, 1 < i e j < n, tais que:

c1  11b1     n1bn

cn  1nb1     nnbn

Assim, as coordenadas de c1, ..., cn em relação à base B são,


respectivamente:

 11   1n 
   
c1     , , cn    
B B
   
 n1   nn 

As informações sobre as coordenadas dos vetores da base C em


relação à base B podem ser organizadas em uma matriz, conforme ve-
mos a seguir:

 11  1n 
 
MBC     
 
 n1   nn 

Temos que as colunas são formadas pelas coordenadas de c1, ..., cn


em relação à base B. Essa matriz é chamada de matriz de mudança da
base B para a base C.

Exemplo 13


Sejam as bases dadas por B  1, 0  , 0, 1   
e C  1, 1 , 0, 1 ,
queremos encontrar MBC , ou seja, a matriz de mudança de base.

Para isso, vamos escrever os elementos da base C como combi-


nação linear dos elementos da base B. Temos:
x  1
1,1  x1 1, 0   y1 0,1   y1  1
 1

 x2  0  x  0
0,1  x2 1,1  y2 0,1   x y 1
 2
 2  2   y2  1
Assim,

1,1  11, 0   10,1


0,1  0 1, 0   10,1
(Continua)

54 Álgebra Linear
Portanto, a matriz de mudança da base B para a base C é dada por:

1 0 
MBC   
 1 1

A base B é a base canônica e pode ser vista na Figura 7a. Já a


base C é uma base de 2 , que pode ser vista na Figura 7b.

Figura 7a Figura 7b
Base B Base C
y y

(0,1) (0,1) (1,1)

(1,0) x x

Fonte: Elaboradas pela autora.

De acordo com Boldrini (1986), temos a proposição a seguir.

Proposição 2

Sejam duas bases de dimensão finita, de um espaço vetorial V, de-


notadas por B e C. Se vB e vC são coordenadas de um dado vetor v ∈ V
em relação às bases B e C, respectivamente, e se MBC é a matriz de mu-
C
dança da base B para a base C, então vB = MB vC .

Vamos entendê-la.

Supondo que B e C são bases de um espaço vetorial V finito, que-


remos interpretar como as coordenadas de um vetor se relacionam
em relação a B e C. Para isso, assumiremos os vetores b1, , bn  B e
c1, , cn  C . Assim, dado um vetor v em V, temos que
 x1   y1 
   
vB     evC    
x  y 
 n  n

são as coordenadas em relação às bases B e C, respectivamente. Sa-


bendo que a matriz de mudança da base B para a base C é dada por

Espaços vetoriais 55
 
MBC   ij , podemos escrever:
n n n n
n   n 
v  xi bi   y jc j  y j    ij bi  
 i 1    j1ij y j  bi
i 1 j 1 j 1   i 1

n
n
pois cj   i 1 ij bi , j = 1, ..., n. Como os vetores b1, ..., b2 são L.I., xi  ij y j
e i = 1, ..., n. j 1

Dessa forma, temos n equações que são escritas matricialmente


na forma:

 11  1n   y1   x1 
    
          
    
 n1   nn   yn   xn 

E de maneira simplificada:

vB = MBC vC

Exemplo 14

Sejam as bases dadas por B = {(1,0), (0,1)} e C = {(1,1), (0,1)}, va-


mos encontrar MCB , ou seja, os elementos da base B escritos como
combinação linear da base C. Dessa forma, fazemos:

 x1  1  x  1
1, 0   x1 1,1  y1 0,1   x  1
 1  y1  0  y1  1

 x2  0  x  0
0,1  x2 1,1  y2 0,1   x y 1
 2
 2  2   y2  1
 1 0
Portanto, as matrizes de mudança de base são: MCB   e
 1 1 
1 0 
MBC    , sendo que esta já foi calculada no exemplo anterior.
 1 1
C B
Queremos verificar as relações vB = MB vC e vC = MC vB , portanto
vamos usar as matrizes de mudança de base para encontrar:
•• vB para (–3,5)C
•• vC para (–3,2)B

(Continua)

56 Álgebra Linear
Para a primeira, fazemos:
vB  MBC  3, 5  
C

 1 0    3
v B     
 1 1    5 

 3
 
2

 3, 5 3 1,1  2  0,1


Para a segunda, fazemos:

vC  MCB  3, 2  


B

 1 0    3
vC     
 1 1    2 

 3
  Atividade 2
5
Existe relação entre os vetores vB
 3, 2   3 1,1  5 0,1   3, 2  e vC? Interprete essa pergunta e
responda com suas palavras.

Proposição 3

Sejam B, C e D bases de um espaço vetorial n dimensional, temos:

MBD = MBC MCD (5)

Demonstração

Sejam b1, ..., bn os vetores de B; c1, ..., cn os vetores de C; e d1, ..., dn


 
os vetores de D. Usando a notação MBC   ij , MCD  ij   e MBD   ij  ,
observamos que:

n (6)
cj    ij bi
i 1
n
dk   jk c j
j 1
n
dk   ik bi
i 1

Espaços vetoriais 57
Assim,

n n  n  n  n 
dk    jk c j   
 jk   ij bi  
   

 ij  jk  bi

j 1 j 1  i 1  i 1  j 1 

Como b1, ..., bn são L.I., comparando com a última expressão de (6),
obtemos:
n n
 ik   ikij  jk,
ij  jk ,
1  i , k1  in, .k  n.
j 1 j 1

Resta lembrar que o lado direito da expressão anterior representa


o elemento da i-ésima linha e da k-ésima coluna da matriz MBC MCD . Por-
tanto, MBD = MBC MCD .

Proposição 4

De acordo com Callioli, Domingues e Costa (2003, p. 92), “uma matriz


de mudança de bases é sempre invertível”. Portanto, MC  (M B )1  I .
B C n

Demonstração
B C C
Atividade 3 Pela Preposição 3, temos MBC MCB = MBB e MC MB = MC .
Sejam duas bases dadas por
 1,se i  j
B = {u1, u2, u3} e C = {v1, v2, v3} B C
Resta mostrar que MB  MC  I   ij , em que  ij    
relacionadas por meio da regra: 0,casocontrário


 v1  u1  u3 é a matriz identidade de ordem n. Precisamos mostrar que MBB = I .



 v2  u1  u2
v  u  u
3 2 3
B
Se u1 , ..., un são os vetores de B, então MB   ij   satisfaz

 i 1
n
uj   ijui ,j  1, , n. Como u1, ..., un são L.I., para cada j = 1, ..., n, a única so-
Usando os teoremas da subseção
2.5.2, discuta como podemos 1,se i  j
montar uma matriz de mudança lução de cada uma dessas equações é dada por  ij  
da base B para a base C com  0,casocontrário

essas informações. , ou seja,  ij   ij , i, j = 1, ..., n, completando a demonstração. ■

2.6 Posto, nulidade e espaços fundamentais


Videoaula
Para entendermos os conceitos de espaço linha e coluna, vamos in-
troduzir os conceitos de posto e nulidade. Mas, primeiramente, vamos
entender como esses conceitos funcionam em um sistema de equa-
ções lineares simples.

58 Álgebra Linear
2.6.1 Espaço linha, espaço coluna e espaço nulo
Seja uma matriz dada por

 a11  a1n 
 
Amxn     
a 
 m1  amn 
Cada linha da matriz A é um vetor linha de A. O subespaço ℝn gerado
pelos vetores linha é chamado de espaço linha de A e pode ser denota-
do por Lin A.

As combinações lineares de vetores de um espaço vetorial perten-


cem ao espaço. Assim, o espaço linha de uma matriz não se altera ao
aplicarmos transformações elementares.

Definição 8
A dimensão do espaço linha de uma matriz A é chamada de posto de A e denotada
por pA.
A dimensão do espaço nulo de uma matriz A é chamada de nulidade de A e denotada
por Nul(A).

Propriedades
•• Duas matrizes equivalentes geram o mesmo espaço linha.
•• As linhas não nulas da matriz A na sua forma escalonada formam Site
uma base para o espaço linha de A. A sequência de vídeos a seguir,
•• O posto pA de uma matriz A é o número máximo de linhas L.I. de disponíveis na plataforma da
Khan Academy, apresenta
A. Assim, pA = dim (Lin A).
exemplos resolvidos e curiosi-
A mesma ideia é empregada para os espaços coluna. Dessa forma, dades sobre a manipulação de
espaços linha, coluna e espaços
podemos dizer que as colunas da matriz A são vetores coluna. O subes- nulo. Sugerimos a visualização
paço ℝm gerado pelos vetores coluna é chamado de espaço coluna de A dos vídeos e a resolução dos
exercícios indicados.
e denotado por Col A.
Disponível em: https://pt.kha-
O espaço solução do sistema homogêneo de equações Ax = 0, su- nacademy.org/math/linear-
bespaço de ℝn, é o espaço nulo de A. -algebra/vectors-and-spaces/
null-column-space/v/column-s-
Teorema 11 pace-of-a-matrix. Acesso em: 4
maio 2020.
Dada uma matriz A qualquer, o espaço linha e o espaço coluna de A
possuem a mesma dimensão.

Espaços vetoriais 59
Teorema 12

Se A é uma matriz mxn, então:


pA  Nul  A   n

CONSIDERAÇÕES FINAIS
Neste capítulo, trabalhamos com espaços vetoriais, subespaços e suas
propriedades, exemplificando geometricamente alguns casos, principal-
mente quando citamos o ℝ2 e o ℝ3.
Vimos ainda o conceito de dependência entre vetores e geradores, tendo,
na sequência, a definição de base para um espaço vetorial. Poder definir
a base de um espaço nos auxilia na resolução de exercícios e aplicações,
visto que, conhecendo a base de um espaço vetorial, podemos determi-
nar outras características. É com o conceito de base que podemos prosse-
guir e falar em mudança de base e mudança de referencial em problemas
matemáticos e físicos.
Por fim, enunciamos alguns espaços fundamentais, chamados de es-
paço linha, espaço coluna e espaço nulo, conceitos que serão muito utiliza-
dos em outros momentos.
Precisamos ter em mente que todos os conceitos estão interligados.
Álgebra, geometria e mesmo conceitos do cálculo aparecerão em diversas
situações desta obra. Caso você não se sinta confiante com algum deles, su-
gerimos que retome os conteúdos, resolva exercícios e não deixe restarem
dúvidas, pois, assim, podemos prosseguir em nossos estudos sem prejuízo.

REFERÊNCIAS
ANTON, H. A.; BUSBY, R. C. Álgebra linear contemporânea. Porto Alegre: Bookman, 2006.
BOLDRINI, J. L. et al. Álgebra linear. 3. ed. São Paulo: Harbra, 1986.
CALLIOLI, C. A.; DOMINGUES, H. H; COSTA, R. C. F. Álgebra linear e aplicações. 6. ed. São
Paulo: Atual, 2003.
HIBBELER, R. C. Estática: mecânica para engenharia. 12. ed. São Paulo: Pearson Prentice
Hall, 2011.
LAY, D. C. Álgebra linear e suas aplicações. Rio de Janeiro: LTC, 2013.
LEON, S. J. Álgebra linear com aplicações. 9. ed. Rio de Janeiro: LTC, 2019.
ZANI, S. L. Álgebra linear. São Carlos: Departamento de Matemática/ICMC/USP, 2010.
Disponível em: https://sites.icmc.usp.br/szani/alglin.pdf. Acesso em: 4 maio 2020.

60 Álgebra Linear
GABARITO
a11 a12  b b   c11 c12 
1. Se V = M2, com A    , B   11 12  e C    elementos de M2, e sejam α,
a21 a22  b21 b22  c21 c22 

β∈ ℝ, precisaremos verificar as oito propriedades para analisar se Mn é um espaço


vetorial. Sabemos que a soma entre elementos para esse conjunto é dada por:
a  b 0 
A  B   12 21 
 0 a22  b22 

Assim, precisamos fazer:

• u  v   w  u   v  w  → associativa

• u  v  v  u → comutativa
  
• ∃! 0 ∈V tal que u  0  0  u  u → elemento neutro da adição

• ∃! u  V tal que u   u   0 → elemento inverso

• a(u + v) = au + av → distributiva

• (a + b)v = av + bv → distributiva

• (ab)v = a(bv) → comutativa do produto

• 1u = u → elemento neutro da multiplicação

Desse modo, vamos começar a verificar as oito propriedades:

• Associativa:
a  a21 0 
A  B   12 
 0 a22  b22 

a12  b21 0  c11 c12   0  c21 0  c21 0 


 A  B  C   0
 
a22  b22  c21 c22   0
 
a22  b22  c22   0 a22  b22  c22 


a a  b  c 0  a12  0 0  a12 0 
A   B  C    11 12    12 21   
a a
 21 22   0 b22  c22   0 a22  b22  c22   0 a22  b22  c22 

A propriedade associativa não é válida e não precisamos continuar verificando as de-


mais propriedades, pois, quando uma das oito propriedades não é verificada, já pode-
mos definir que não estamos trabalhando com um espaço vetorial.

2. Sim, existe relação entre os vetores vB e vC.

Se fixarmos duas bases B   v1, , vn  e C  w1, , wn de um espaço vetorial V de dimen-


são n, sendo v ∈ V , podemos dizer que existem escalares, 1, , n , únicos, tais que
 1 
 
v  1v1    nvn  vB    
 
 n

Espaços vetoriais 61
Sabemos que cada vetor vi da base B pode ser escrito de uma maneira única como
combinação linear dos vetores de C, assim:

v1  11w1   n1wn


vn  1nw1   nnwn

em que cada βij é determinado de maneira única. Logo,


v  1v1    nvn  1  11w1   n1wn     n  1nw1   nnwn 

v   111   1n n  w1    n11   nn n  wn

Portanto,
 111   1n n   11  1n   1 
     B
vC               MC vB
              
 n1 1 nn n   n1 nn   n 

a qual já foi demonstrada.

3. Por meio da análise do sistema de equações que relaciona as duas bases, percebemos
que os elementos da base C estão escritos em função dos elementos da base B, isto é,
escritos como combinações lineares dos elementos de B. Assim, podemos escrever a
matriz de mudança da base B para a base C tomando as coordenadas de cada elemen-
to vi como i-ésima coluna da matriz da forma:
1 1 0 
 
MBC  0 1 1 
 1 0 1
 
1 1 0 
A matriz de mudança da base C para a base B será a inversa de MBC  0 1 1  .
 1 0 1
 

62 Álgebra Linear
3
Transformações lineares
Uma transformação linear, tópico que será estudado neste ca-
pítulo, é uma função especial, na qual tanto o domínio quanto o
contradomínio são espaços vetoriais reais.
Quando falamos em função, estamos falando também sobre
uma relação entre variáveis, uma regra que associa elementos de
um conjunto a elementos de outro conjunto, sendo que temos
variáveis independentes e dependentes. No caso das transfor-
mações lineares, a variável independente e a variável dependente
serão vetores e, por esse motivo, dizemos que uma transformação
linear pode também ser chamada de função vetorial ou transforma-
ção vetorial.
Para entendermos a regra que associa vetores de um espaço
vetorial a vetores de outro espaço vetorial, precisamos entender o
conceito de matrizes e, talvez, esse seja um dos mais importantes
quando estudamos as transformações lineares.
Como toda função, uma transformação linear pode ser facil-
mente identificada em aplicações físicas, por exemplo: os cálculos
para a movimentação de um braço robótico são feitos com o auxílio
da álgebra linear e, mais especificamente, por meio de matrizes de
rotação e translação, que são tipicamente transformações lineares.
Veremos todos esses conceitos e alguns exemplos de aplica-
ções nas seções a seguir.

3.1 Transformações do plano no plano


Vídeo Ao abordar transformações lineares, tratamos de funções que pre-
servam as operações existentes no espaço vetorial que atua como o
seu domínio e aquelas do espaço vetorial que age como contradomí-
nio. As operações que são preservadas são a adição de vetores e a mul-
tiplicação de um vetor por um escalar. Essa propriedade que preserva

Transformações lineares 63
as operações é essencial para que possamos verificar a relação entre
o domínio e a imagem dessa função que estamos chamando de trans-
formação linear.

Assim, ao pensarmos no plano cartesiano bidimensional, 2 , con-


seguimos visualizar geometricamente algumas situações importantes
que carregam essas propriedades.

Definição 1
Sejam U e V dois espaços vetoriais, chamamos de transformação linear e representamos
por
T:U→V
a função que leva vetores de U a vetores de V, de modo que podemos verificar as se-
guintes condições:
i. T (u + v) = T (u) + T (v) para todo u, v ∈ U;
ii. T (λu) = λT (u) para todo u ∈ U e λ∈.2
iii. Como T é uma função, cada vetor u∈ U tem um só vetor imagem v ∈ V deno-
tado por v = T (u).
Figura 1
Transformação linear de elemento de U em V

T:U→V
U V

v1 = T (u1)
u1

v2 = T (u2)
u2
vn = T (un)
un

Fonte: Elaborada pela autora.

64 Álgebra Linear
Vejamos exemplos dessa definição:

Exemplo 1

Seja a função T : 2 →  , dada pela seguinte regra: T(x, y) = x + y.


Verificar se T é uma transformação linear.

Solução:

Seja u1   x1, y1  2 e u2   x2 , y2   2 , podemos escrever:


•• T (u1 + u2) = T (x1 + x2, y1 + y2) = x1 + x2 + y1 + y2 = (x1 + y1) + (x2 + y2) =
T (u1) + T (u2)
•• αT (u1) = αT (x1, y1) = α (x1 + y1) = (αx1 + αy1) = T (αu1)

Portanto, T é uma transformação linear.

Alguns autores trazem as duas operações necessárias para validar-


mos uma transformação linear, por meio de uma única operação que
resume as duas condições. Nesse caso, é possível escrever:

T : U → V é uma transformação linear se, e somente se,


T  u   v   T u   T  v  para todo u , v  U ,  ,    .

Exemplo 2

Seja a função T : 2 → 2 dada por T (x, y) = (x2, y). Mostrar que


T não é uma transformação linear.

Solução:

Basta um contraexemplo para mostrarmos que T não é uma


transformação linear. Assim:

Seja u1 = (2,0) e u2 = (–2,0), então,

T (u1 + u2) = T (0,0) = (0,0)

T (u1) + T (u2) = T (2,0) + T (–2,0) = (4,0) + (4,0) = (8,0)

Logo, T u1  u2   T u1  T u2  , o que nos mostra que T não é


uma transformação linear.

Observação 1

Como
αT (u1) = αT (x1, y1) = α (x1 + y1) = (αx1 + αy1) = T (αu1)

é condição necessária para provarmos que estamos lidando com uma


transformação linear, então:

T (0) = T (0,0) = 0T (0) = 0

Transformações lineares 65
Dessa forma, temos que toda transformação linear de U em V leva o
Vídeo
elemento neutro de U no elemento neutro de V.
O canal 3Blue1Brown,
criado por Grant San- A ideia de abordar, na primeira seção deste capítulo, as transfor-
derson, tem uma gama
de vídeos de diversas
mações do plano no plano se dá pela possibilidade de visualização
áreas da matemática, geométrica das transformações antes que possamos extrapolar esses
entre elas, álgebra linear.
A principal ideia desse
resultados para o ℝn.
canal é simplificar conteú-
Assim, vamos seguir o exemplo de Boldrini et al. (1986), sempre
dos e problemas difíceis
com algumas mudanças atual, principalmente em áreas como engenharia, que utilizam esses
de perspectiva. Para esta
exemplos como aplicações no seu dia a dia de trabalho.
seção, indicamos o vídeo
Transformações lineares e
Termos como expansão, contração, reflexão, rotação e cisalhamento
matrizes.
são comuns em áreas como engenharias civil, de produto, da computa-
Disponível em: https://www.you-
tube.com/watch?v=kYB8IZa5AuE. ção e tantas outras. Eles são entendidos como processos geométricos,
Acesso em: 4 maio 2020. mas calculados como processos matemáticos. O que todos eles têm
em comum é que seu ponto de partida está nas transformações linea-
res. Vamos entender caso a caso ao longo deste capítulo.

3.1.1 Expansão (ou contração) uniforme


A expansão ou contração uniforme pode ser representada por meio
de uma transformação linear da seguinte forma:

Seja T : 2 → 2 , com    , onde u → α.u. Assim, podemos


escrever:
T : 2  2
T  x, y      x, y 
Vamos supor α = 3. Com essas condições, teremos uma transforma-
ção que leva cada vetor v do plano a um novo vetor de mesma direção
e sentido de v, mas com módulo maior.

Figura 2
Transformação linear (expansão)
T

y y
T (u) = 3.u

x x

Fonte: Elaborada pela autora.

66 Álgebra Linear
Podemos representar essa transformação com o auxílio da repre-
sentação matricial. Dessa forma, temos:

x x x 3 0   x 


   3   ou      
y
  y y
  0 3   y  Leitura
Figura 3 Indicamos o estudo de
Expansão Andressa Pescador e
Janaína Poffo Possamai,
a=3 intitulado Aplicação de
3 0 álgebra linear na enge-
4 A=
b=0 0 3 nharia. Nele, as autoras
c=0
apresentam casos que
det A = 9 envolvem o conceito ma-
2
d=3 tricial aplicado a circuitos
elétricos.

–12 –10 –8 –6 –4 –2 0 2 4 6 8 PESCADOR, A.; POSSAMAI, J. P.


In: 34º COBENGE – CONGRESSO
BRASILEIRO DE EDUCAÇÃO EM
Fonte: Elaborada pela autora com base em Misturini, 2020. ENGENHARIA. Anais [...] Blumenau:
Conseguimos usar o GeogGebra on-line para construir exemplos de FURB, out. 2011. Disponível em:
http://www.abenge.org.br/coben-
expansão ou contração. Um exemplo de expansão pode ser visto na ge/arquivos/8/sessoestec/art2127.
Figura 3. Para exemplificarmos os casos de contração, precisamos as- pdf. Acesso em: 4 maio 2020.

sumir valores para 0 < α < 1.

3.1.2 Reflexão
Vamos exemplificar os casos de reflexão por meio de duas situações:
1. Reflexão em torno do eixo x. Assim, seja:
T : 2  2
T  x, y    x,  y 

Figura 4
Transformação linear (reflexão em torno do eixo x)
T
y y

x x

T (u)

Fonte: Elaborada pela autora.

Transformações lineares 67
Matricialmente:

x  x  x 1 0   x 
      ou      
y  y  y 0 1  y 

2. Reflexão em torno da origem. Assim, seja:

T : 2  2
T  x, y   x,  y 

Figura 5
Transformação linear (reflexão em torno da origem)
T

y y

x x

T (u)

Fonte: Elaborada pela autora.

Matricialmente:

x x  x  1 0   x 


      ou      
y
   y  y
   0 1  y 

Com esses exemplos, é possível começar a perceber a importância


da matriz que multiplica os vetores da transformação. Trataremos mais
dessas matrizes na sequência.

3.1.3 Rotação de um ângulo (sentido anti-horário)


Uma transformação linear capaz de “girar” um vetor por um
ângulo θ fixado é chamada de rotação. Se esse vetor está no plano
 2 , temos uma rotação no plano. Muitos são os casos em que preci-
samos realizar uma rotação no vetor (ou em todo o sistema) para que
ele possa ser calculado.

68 Álgebra Linear
Seja uma transformação que rotaciona um vetor u no sentido anti-
2
-horário por um ângulo fixado θ, temos v = T (u), com u ∈  , portanto,
u = (x, y), em que:

x
cos    x  r cos 
r
y
sin   y  r sin
r

r é o comprimento do vetor u.

Figura 6
Transformação linear (rotação de um ângulo)

y Rθ (u) = (u1, u2)

u = (x, u)
u = (x, y)

α x α

Fonte: Elaborada pela autora.

As relações trigonométricas nos permitem escrever:

u1  r cos      u1  x cos   y sin


 
u2  r sin     u2  x sin  y cos 

que nos permite escrever: R  x , y    x cos   y sin , y cos   x sin  .

Matricialmente:

x  x cos   y sin  cos   sin   x 


    
y  ycos  x sin   sin cos    y 
o 
Para o caso particular em que   90  , teremos que cos   0 e
2
sin  1. Matricialmente, escrevemos:

x   y  0 1  x 
    
y  x  1 0   y 

Transformações lineares 69
Figura 7
Rotação para θ =
π
2

Rθ (u) = (u1, u2)


u = (x, y)

α x

Site Fonte: Elaborada pela autora.

Uma forma interessante Por meio desses exemplos, percebemos que a manipulação de ima-
de visualizar a rotação no gens pode ser, matematicamente, interpretada como uma transfor-
plano está disponível no
GeoGebra, nos materiais mação linear, sendo que a matriz de transformação direciona a nova
intitulados Rotação, de imagem para novas posições. Vamos entender um pouco mais sobre
Andréia Luisa Fiske e de
Pâmella de Alvarenga esse assunto na sequência.
Souza.

Disponíveis em: https://www.


geogebra.org/m/PVbsDUG8 3.1.4 Cisalhamento
e https://www.geogebra.org/m/
Jb5WGV9w. Acesso em: 4 maio O cisalhamento, de maneira muito parecida à utilizada nas outras
2020. transformações no plano, pode ser representado facilmente utilizando
uma matriz de transformação. Assim, entendemos como um cisalha-
mento horizontal uma transformação linear na forma:

T : 2  2
T  x , y    x   y , y  ,  

Supondo α = 1, teremos T (x, y) = (x + y, y), e, dessa forma, é possível


escrever matricialmente a expressão:
Atividade 1
x  x  y   1 1  x 
Seja uma aplicação linear     
dada por y  y  0 1  y 
2 2
AA::
2  2
AAxx,,yyxx yy,,yy,�

α∈
,� 
 
Assim, podemos não só verificar os resultados algebricamente
como, em alguns casos, geometricamente. Na sequência, extrapolare-
Temos um caso de cisalhamento.
Comente quais são as diferenças mos esses resultados para espaços n dimensionais, além de concei-
geométricas para valores de tuarmos e demonstrarmos os teoremas que estruturam a teoria das
α = 1 e α = –1.
transformações lineares.

70 Álgebra Linear
3.2 Transformações no n

Vídeo Enunciaremos proposições e teoremas que são base para os con-


ceitos já expostos, assim como para os conceitos que trabalharemos
a seguir.

Proposição 1

Seja U um espaço vetorial com base u1, ..., un. Toda transformação
linear T : U → V fica determinada por T (u1), ..., T (un), ou seja, conhecidos
esses vetores, conhece-se T (u) para qualquer u ∈ U .

Demonstração

Desde que u1, ..., un formem uma base de U, dado u ∈ U , existem


1, , n   , tais que u = α u + ... + α u . Desse modo,
1 1 n n

T (u) = T (α1 u1 + ... + αn un) = α1 T (u1) + ... + αn T (un) (1)

Definição 2
Uma transformação linear T : U → V é:
I. injetora, se T (u) = T (v) implicar em u = v;
II. sobrejetora, se para todo v ∈V existir u∈U , tal que T (u) = v;
III. bijetora, se for injetora e sobrejetora.

Proposição 2

Uma transformação linear T : U → V é injetora se, e somente se,


T (u) = 0 implicar em u = 0.

Demonstração

Suponha que T seja injetora. Se T (u) = 0, então, T (u) = T (0), e como T


é injetora, segue-se que u = 0.

Reciprocamente, suponha que a única solução de T (u) = 0 seja u = 0.


Se T (u) = T (v), então, T (u – v) = 0, por hipótese, u – v = 0, isto é, u = v. ■

3.2.1 O espaço vetorial  U ,V 


O conjunto de todas as transformações lineares T : U → V é deno-
tado por  U , V  . Quando U = V, usamos a notação  U    U , U  e

Transformações lineares 71
nos referimos a essa transformação como um operador linear. Logo,
um operador linear é uma transformação linear que leva um espaço
vetorial nele mesmo.

Sejam U e V espaços vetoriais sobre um corpo  , e seja  U , V 


definido como o conjunto de todas as transformações lineares de U em
V. Como funções, para quaisquer operadores T , S   U ,V  e qualquer
escalar    , podemos definir T + S e λT por:
i. T  S u   T u   S u  ,u  U
ii.  T u   T u 

Logo, é imediato provar que (T + S) e (λT) também são transforma-


ções lineares de U em V, e que  U , V  , com a soma de transformações
e a multiplicação de um escalar por uma transformação, forma um es-
paço vetorial.

Proposição 3
T   U , V  possui inversa se, e somente se, T é bijetora.

Demonstração

Faremos duas suposições necessárias para essa demonstração e,


na sequência, verificaremos se são válidas. Assim, suponhamos que T
possua inversa. Dessa forma, escrevemos: se T (u) = T (v), então u = T–1
(T (u)) = T–1 (T (v)) = v e, portanto, T é injetora.

Agora, vamos supor a sobrejetividade de T. Dado v ∈ V , observamos


que T (T–1 (v)) = v e, portanto, T também é sobrejetora. Logo, T é bijetora.

Se T é supostamente injetora e sobrejetora, então podemos dizer


que estamos supondo que T é bijetora. Dessa forma:

Dado v ∈ V existe um único uv ∈ U tal que v = T (uv). Defina S : V → U


por S (v) = uv.

Mostremos que S é a inversa de T:

Se v ∈ V , então, T (S (v)) = T (uv) = v.

Se u ∈ U , então S(T(u)), pela definição de S, é o único elemento u’


em U, tal que, T (u’) = T (u). Como T é injetora, temos u’ = u e, assim,
S (T(u)) = u. ■

72 Álgebra Linear
Proposição 4

Se T   U , V  possui inversa T–1 : V → U, então, T   V , U  .


1

Demonstração

Devemos mostrar que T–1 : V → U é linear.

Sejam v1, v2 ∈ V e λ1, λ2 ∈ ℝ. Como T é sobrejetora, existem u1, u2 ∈ U ,


tais que T (u1) = v1 e T (u2) = v2. Assim:

   
T 1  1v1  2v2   T 1 1T u1  2T u2   T 1 T  1u1  2u2   1u1  2u2 
 1T 1
v1  2T 1 v2 

Teorema 1

Sejam U um espaço vetorial de dimensão n e V um espaço vetorial


de dimensão m, então,  U , V  tem dimensão mn.

Demonstração

Adotemos uma base formada pelos vetores {u1, ..., un} para o espaço
vetorial U, e uma base formada pelos vetores {v1, ..., vm} para o espaço
vetorial V.

A transformação T : U → V é aplicada de modo que, para cada


1≤ i ≤ n e 1≤ j ≤ m, temos Tij  x1u1    xnun   xi v j ,x1, , xn   .
Dessa forma:

v sei  k
Tij uk    j
 0 sei  k

Verifiquemos que Tij   U , V 

Tij ((x1u1 + ... + xnun) + (y1u1 + ynun)) (2)

= Tij ((x1y1)u1 + ... + (xn + yn)un) = (xi + yi)vj = xivj + yivj

=
Tij (x1u1 + ... + xnun) + Tij ( y1u1 + ... + ynun)

Também, para todo    ,

(3)

Tij   x1u1    xnun  
 Tij   x1u1     xnun 
  xi y j  Tij  x1u1    xnun 

Transformações lineares 73
Dessa forma, mostramos que Tij é uma transformação linear com
as bases e, consequentemente, com suas dimensões anteriormente
predefinidas.

Precisamos agora verificar que Tij, 1≤ i ≤ n e 1≤ j ≤ m formam uma


base para  U , V  .

Se ni 1m
j 1aijTij  0 , então para cada
1≤ k ≤ n :

n m m n m m

aijTij uk   aijTij uk   akjTkj uk   akj v j 


i 1 j 1 j 1 i 1 j 1 j 1

Como os vetores v1,…,vm são linearmente independentes, podemos


afirmar que os coeficientes αk1 = … = αkm = 0 e, dessa forma, as funções
T11,…,Tnm são linearmente independentes. Para mostrarmos que Tij é
uma base, ainda é necessário verificar se os vetores v1,…,vm geram o
espaço de transformação.

Seja T   U , V  . Se u ∈ U , então u = x1u1 + ... + xnun, para certos nú-


meros reais x1, ..., xn. Como T é linear:

T (u) = x1T (u1) + ... + xnT (un) (4)

Como T ui   V , podemos escrever para cada 1≤ i ≤ n :

T (ui) = α1 iv1 + ... + αm ivm (5)

Porém, como, para cada 1≤ j ≤ m , 1≤ i ≤ n , Tij u   xi v j , obtemos

T (u) = x1T (u1) + ... + xnT (un)

= x1 (α11 v1 + ... + αm1 vm) + ... + xn (α1n v1 + ... + αmn vm)

= α11 x1v1 + ... + αm1 x1 vm + ... + α1n xn v1 + ... + αmn xn vm

= α11 T11 (u) + ... + αm1 T1m (u) + ... + α1n T1n (u) + ... +αmn Tnm (u)

Ou seja,

T = α11 T11 + ... + αm1 T1m + ... + α1n T1n + ... + αmn Tnm

Dessa forma, temos que a transformação linear  U , V  tem dimen-


são mn desde que o espaço vetorial U tenha dimensão n e o espaço
vetorial V tenha dimensão m.

74 Álgebra Linear
3.3 Núcleo e imagem de uma
Vídeo transformação linear
Antes de tratarmos dos conceitos de núcleo e imagem de uma trans-
formação linear, vamos relembrar os conceitos de espaço linha e espaço
coluna. De acordo com Leon (2019, p. 144):
se A é uma matriz mxn, cada linha de A é uma n-upla de números
reais e, portanto, pode ser considerada um vetor em 1xn . Os
m vetores correspondentes às linhas de A serão chamados de
vetores linha de A. De maneira similar, cada coluna de A pode
ser considerada um vetor em m , e podemos associar n vetores
coluna à matriz A.

Ainda conforme Leon (2019, p. 144, grifo nosso), definimos que:


se A é uma matriz mxn, o subespaço de 1xn coberto pelos veto-
res linha de A é chamado de espaço linha de A [e denotado por
Lin A ]. O subespaço de m coberto pelos vetores coluna de A é
chamado de espaço coluna de A [e denotado por Col A ].

Com a definição de espaço linha apresentada, podemos escrever


algumas relações diretas entre posto de uma matriz e a dimensão para
o espaço linha. Visto que uma transformação linear pode ser traba-
lhada por meio das propriedades matriciais, o fato de conseguirmos
calcular a dimensão de uma matriz linha pode auxiliar em futuras con-
clusões a respeito das transformações. O mesmo se dá para as conclu-
sões obtidas a respeito das matrizes coluna.

Mas, antes de tratarmos dessa relação, vamos entender o conceito


de imagem para uma transformação linear.

Definição 3
Seja T : U → V uma transformação linear.
i. A imagem de T é o subconjunto Im (T) = X ⊆ U formado por todos os
vetores v = T (u), ou seja: T (x) = {T (x)| x ∈ X} ⊆ V.
ii. Se Y ⊆ V, definimos a imagem inversa de Y por T como sendo o conjunto:
T–1 (Y) = {u ∈ U | T (u) ∈ Y} ⊆ U.

Transformações lineares 75
Figura 8
Imagem de uma transformação linear
T:U→V

U V

Domínio Contradomínio

Imagem

Núcleo

ur 0
us

Fonte: Elaborada pela autora.

Proposição 5

Seja T : U → V uma transformação linear. Temos:


1. Se W é um subespaço vetorial de U, a imagem de T, T (W), é um
subespaço vetorial de V. Consequentemente, o núcleo de T é um
subespaço de U.
2. Se W é um subespaço vetorial de V, então, T–1 (W) é um subespaço
vetorial de U. Consequentemente, a imagem de T é um subespaço
de V.

Demonstração
1. Seja W um subespaço vetorial de U.

Para provar que W é subespaço, precisamos mostrar que este é fe-


chado para a adição e multiplicação por escalar para, pelo menos, um
vetor. Temos que 0 ∈W . Supondo v1, v2 ∈ W e α∈ℝ, então:
→ → →
T (v1 + v2) = T (v1) + T (v2)= 0 + 0 = 0

Portanto, 0 = T(0) pertence T(W).

Ainda,
 →
→ 
T  v1   T  v1   .0  0

76 Álgebra Linear
Se x , y  T W , então existem u, w ∈ W , tais que x = T (U) e y = T(W). Como
W é um subespaço vetorial, temos que, para qualquer   , u  w  W .
Desse modo:
x   y  T (u)  T (w )  T (u)  T (w )  T (u  w )  T (W )

2. Seja x, y W um subespaço vetorial de V.

Como T  0   0  W , segue-se que 0  T 1 W  .

Se x , y  T 1 W  , então T  x  , T  y   W . Como W é um subespaço ve-


torial, temos que, para qualquer    , T  x   T  y   W .

Mas T  x   y   T  x   T  y   W e, portanto, x   y  T 1 W  . ■

Definição 4
O núcleo de uma transformação linear T : U → V é o subespaço vetorial de U dado

por T-1 ({0}), ou seja, é o conjunto Nul A  (v n | Av  0 ) . Denotaremos o nú-
cleo de T por N (T).

Portanto, o núcleo de uma transformação linear leva elementos de


U até o vetor nulo de W.

Além disso, podemos usar o conceito de espaço nulo para repre-


sentar o núcleo de uma transformação. De acordo com Anton e Busby
(2006), isso se dá porque, pela definição de espaço nulo, temos:

Definição 5
O espaço nulo de uma matriz A de ordem mxn é o conjunto definido por

Nul A  (v n | Av  0 ) .

Assim, o espaço nulo e o núcleo de uma transformação linear estão




relacionados por meio da expressão {v  n | Av  0} .

Proposição 6

Seja T : U → V uma transformação linear. T é injetora se, e somente


se, N (T) = {0}.

Demonstração

De acordo com a Proposição 2, T é injetora se, e somente se, a equa-


ção T (u) = 0 possui como única solução u = 0. Isso é o mesmo que dizer
que o conjunto N (T) é formado somente pelo elemento neutro. ■

Transformações lineares 77
Exemplo 3

Vimos que, se uma transformação linear é injetora, então T (v) = 0.
Por meio do conceito de núcleo, podemos dizer que a recíproca para
essa proposição também é verdadeira, ou seja, se T : U → V é uma
transformação linear, T será injetiva se e somente se N (T) = {0}.

Portanto, seja T : ℝ4 → ℝ3 uma transformação linear dada por

T (x, y, z, t) = (x – y + z + t, x + 2z – t, x + y + 3z –3t)

Vamos calcular o núcleo de T. Portanto, podemos escrever:

T (x, y, z, t) = (x – y + z + t, x + 2z – t, x + y + 3z –3t) = (0,0,0)

Para isso, precisamos resolver o sistema de equações lineares ho-


mogêneas dado por:

 xy  z  t  0 
 
 x  2z  t  0 
 x  y + 3 z  3t  0 
 
A solução para esse sistema é dada por:

N (T) = {(–2z + t, – z + 2t, z, t)|z, t ∈ ℝ}

Assim, o núcleo de T é um subespaço vetorial de ℝ4 de


dimensão 2. Como N (T) ≠ (0,0,0,0), temos que essa transformação
linear não é injetiva.

Teorema 2

Sejam U e V espaços vetoriais e T : U → V uma transformação linear,


suponha que U tenha dimensão finita.

dimU = dim N (T) + dimT (U) (6)

Demonstração

Seja p = dimN (T). Se p ≥ 1 , tome B1 uma base de N (T) formada


pelos vetores u1, ..., up. Pelo teorema do complemento, existem veto-
res v1, , vq ∈ U , tais que u1, ..., up, v1, ..., vq formam uma base de U. Se
dim N(T) = 0, tomamos os vetores v1, ..., vq de modo a formarem uma
base de U.

78 Álgebra Linear
Note que, com essa notação, temos dimU = p + q. Resta mostrar que
dimT (U) = q e, para isso, mostraremos que T (v1), ..., T (vq) formam uma
base para T (U).

Se α1 T (v1) + ... + αqT (vq) = 0, então, T (α1 v1 + ... + αqvq) = 0, ou seja,


1v1    qvq  N T  . Dessa forma, existem 1, ,  p   , tais que
1v1    qvq  1u1     pup , ou seja:

1u1     pup  1v1    qvq  0

Como supomos que u1, ..., up, v1, ..., vq formam uma base de U, segue-
-se que 1     p  1    q  0 e, portanto, T (v1), ..., T (vq) são L.I.

Mostremos que T (v1), ..., T (vq) geram T (U). Seja v  T U  . Logo,


existe u ∈ U tal que T (u) = v. Como u1, ..., up, v1, ..., vq formam uma
base de U, existem 1, ,  q , 1, ,  p   , tais que:

u  1u1     pup   qv1     qvq

e então:

v  T u   
T 1u1     pup  qv1     qvq 
 
 1T u1     pT up  qT  v1     qT vq  
  
qT  v1    qT vq

já que u1, , up  N T  ■

Desse teorema, podemos tirar algumas conclusões. A primeira de-


las é apresentada no corolário a seguir.

Corolário 1

Se U e V são espaços vetoriais de dimensão finita, tais que


dimU = dimV, e se T : U → V é uma transformação linear, então as se-
guintes condições são equivalentes:
i. T é sobrejetora
ii. T é injetora
iii. T é bijetora
iv. T leva bases de U em bases de V, isto é, se u1, ..., un é uma base de
U, então T (u1), ..., T(un) é uma base de V.

Transformações lineares 79
Demonstração
•• i. ⇒ ii.

Se T é sobrejetora, então T (U) = V e, pelo Teorema 2, sejam U e


V espaços vetoriais e T : U → V uma transformação linear, supo-
nha que U tenha dimensão finita, com dimU = dim N (T) + dimV. Mas
como dimU = dimV, segue-se que dimN (T) = 0, isto é, N (T) = {0}. De
acordo com a Proposição 2, uma transformação linear T : U → V é inje-
tora se, e somente se, T (u) = 0 implicar em u = 0, portanto, T é injetora.
•• ii. ⇒ iii.

Se T é injetora, então dimN (T) = 0. De acordo com o Teorema 2,


segue-se que dimU = dimT (U). Como dimU = dimV, segue-se que T (U)
é um subespaço de V com a mesma dimensão de V. Logo, T (U) = V, ou
seja, T é sobrejetora, o que nos leva a concluir que T é bijetora.
•• iii. ⇒ iv.

Suponha que T seja bijetora. Considere uma base de U formada por


vetores ui, ..., un. Precisamos mostrar que T (u1), ..., T (un) formam uma
base de V.

Se αT (u1) + ... + αT (un) = 0, então, T (α1u1 + ... + αnun) = 0, isto é,


1u1   nun  N T  . Como T é injetora, temos que N (T) = 0 e, conse-
quentemente, α1u1 + ... αnun = 0. Como u1, ..., un formam uma base de U,
temos que α1 = ... = αn = 0 e, portanto, T (u1), ..., T (un) são linearmente
independentes.

Seja v ∈ V . Como T é sobrejetora, existe u ∈ U , tal que v = T (u). Es-


crevendo u como α1u1 + ... + αnun, observamos que

v = T (α1u1 + ... + αnun) = α1T (u1) + ... + αnT (un)

isto é, T (u1), ..., T (un) T geram V.


•• iv. ⇒ i.

Seja u1, ..., un uma base de U. Por hipótese, T (u1), ..., T (un) formam
uma base de V. Assim, dado v ∈ V , existem 1, ,  n   , tais que
v = α1T (u1) + ... + αnT (un). Desse modo, v = T (α1u1 + ... + αnun), ou seja, T é
sobrejetora. ■

80 Álgebra Linear
Teorema 3

Sejam U e V espaços vetoriais e T : U → V uma transformação linear,


suponha que U tenha dimensão finita.

dimU = dimN (T) + dimT (U)


e
dimN (T) + dimNul T
então,
dimU = dim (Nul T) + dim (Col T)

Teorema 4

Para qualquer matriz T de transformação linear de ordem mxn,


temos:

dim Col T + dim Nul T = n = número de colunas de T Atividade 2


Uma importante conclusão pode ser extraída dos dois últimos Descreva como o Teorema do
teoremas: se a dimensão do espaço coluna de T é igual à imagem da Posto está relacionado com
o Teorema do Núcleo e da
transformação linear v → Tv, podemos escrever que esse resultado é Imagem.
chamado de posto de T.

Exemplo 4

Seja uma transformação linear dada por:

T : 2  
 x , y   T  x , y   5x  y
Determinar o núcleo dessa transformação.

Solução:

Sabemos que um elemento de 2 está no núcleo se a transfor-


mação linear T transforma esse elemento em um elemento neutro.
Portanto,

T (x, y) = 5x + y = 0 ⇒ y = –5x

Geometricamente, temos que a reta y = –5x, subespaço vetorial


de 2 , é o núcleo da transformação linear T.

Transformações lineares 81
Exemplo 5

Seja a mesma transformação do exemplo anterior dada por:

T : 2  
 x , y   T  x , y   5x  y
Determinar a imagem dessa transformação.
Solução:

Temos que todo elemento do contradomínio, que nesse caso é


, pertence à imagem de T se for da forma:

5x + y = x (5) + y (1)

Portanto, temos que Im(T) = [(5), (1)]. A imagem de T é um subes-


paço de .

Exemplo 6
Seja T : ℝ4 → ℝ3 uma transformação linear dada por
T (x, y, z, t) = (x – y + z + t, x + 2z – t, x + y + 3z –3t)
Queremos calcular a imagem de T.

Solução:

Assim, para uma base canônica de ℝ4, podemos escrever:


(Continua)
Vídeo
Sugerimos, para esta
T (1,0,0,0) = (1,1,1)
seção, um vídeo da plata-
forma da Khan Academy
T (0,1,0,0) = (–1,0,1)
intitulado Im(T) – imagem
de uma transformação. T (0,0,1,0) = (1,2,3)
Dentro das transforma-
ções lineares, temos um T (0,0,0,1) = (1,–1,–3)
importante resultado,
que deve ser apresenta- Dessa forma, precisamos montar uma matriz com esses veto-
do, chamado de isomorfis-
mo de um espaço vetorial. res, escalonar e encontrar uma base para Im(T). Portanto:
Na sequência, veremos
como identificá-lo. 1 1 1  1 1 1   1 1 1
 1 0 1  0 1 2   0 1 2
Disponível em: https://    
pt.khanacademy.org/math/linear- 1 2 3  0 1 2   0 0 0
algebra/matrix-transformations/  1  1  3  0 2  4   0 0 0 
linear-transformations/v/im-t-
image-of-a-transformation. Acesso
em:4 maio 2020. Logo, {(1,1,1) , (0,1,2)} é uma base para Im(T).

82 Álgebra Linear
3.3.1 Isomorfismo
Temos um isomorfismo de um espaço vetorial V em um espaço ve-
torial W se T : V → W for uma bijeção. Nesse caso, afirmamos que V e W
são isomorfos.

Definição 6
Dois espaços vetoriais de dimensão finita são ditos isomorfos se ambos tiverem a
mesma dimensão. Leitura
Como importante propriedade do isomorfismo, dizemos que se T : V → W é uma Os isomorfismos são
comuns em aplicações
bijeção, ou seja, V e W são isomorfos, então T-1 : W → V corresponde a um isomor- lineares práticas, por
fismo inverso. isso, sugerimos uma
leitura que enriquecerá
seu repertório sobre esse
Exemplo 7 assunto: o estudo Men-
sagens codificadas através
O operador linear de isomorfos, de autoria
de Natham Cândido de
T :2 → R2 Oliveira.

T (x, y) = (2x + y, 3x + 2y) OLIVEIRA, N. C. In: V CONEDU


– CONGRESSO NACIONAL DE
é um isomorfismo no 2 . EDUCAÇÃO, 17 out. 2018. Anais [...]
Recife: CECON-PE, 2018. Disponível
Para mostrar que isso é verdade, como dimV = dimW, então, em: https://www.editorarealize.
com.br/revistas/conedu/trabalhos/
basta mostrar que a transformação é injetiva. TRABALHO_EV117_MD1_SA13_
ID4361_08092018141128.pdf.
Como N (T) = {(0,0)}, temos que a transformação é injetora.
Acesso em:4 maio 2020.

3.4 Matrizes de transformações


Vídeo Relembrando alguns conceitos para mudança de base, de acordo
com Boldrini et al. (1986), temos a seguinte proposição.

Proposição 7

Sejam duas bases ordenadas de dimensão finita, de um mesmo


espaço vetorial V, denotadas por B e C. Sejam também vB e vC coorde-
nadas de um dado vetor v ∈ V com relação às bases B e C, respectiva-
C
mente. A matriz I  é chamada de matriz de mudança de base C para
B

B, desde que vC = [I ]CB vB .

Transformações lineares 83
Vídeo Agora vamos considerar dois espaços vetoriais, U e V, respectiva-
mente, com dimensões m e n. Sejam, ainda, B = {u1, ..., um} e C = {v1, ..., vn}
Sugerimos como com-
plemento a esta seção o bases de U e V. Temos que um vetor u ∈ U é escrito como
vídeo intitulado Multipli-
cação de matrizes como u = α1u1 + ... + αmum
composição, publicado
pelo canal 3Blue1Brown. ou matricialmente como:
Por meio dele, é possível
interpretar geometri-  1 
 
camente o conceito de
uB  1, ,  m  ou u     
composição de matrizes B
 
e visualizar as trans-  m
formações no espaço
tridimensional.
Aplicando uma transformação, T : U → V, teremos
Disponível em: https://www.youtu-
be.com/watch?v=XkY2DOUCWMU. T u   T (1u1    mum )  1v1   nvn 
Acesso em: 4 maio 2020.

ou matricialmente:

 1 
 
T u    1, , n  ouT u      
 
C c
 
 n

Mas T (u) = T (α1u1 + ... + αmum) = α1T (u1) + ... + αmT (um) e T (u1), ..., T (um) são
vetores de V, portanto são combinações lineares dos vetores da base C.

Assim, como T : U → V, podemos escrever:

T u1  a11v1   an1vn



T um   a1mv1   anmvn

Logo, a matriz de transformação linear de T : U → V em relação às


Atividade 3 bases B e C é escrita como:
Identifique os resultados para
uma matriz de transformação a11  a1m 
B  
linear entre espaços de mesma T       
C
dimensão e o resultado da a  a 
Proposição 9.  n1 nm 

Dessa forma, podemos concluir que:


B
T u    T  u 
 C C B

84 Álgebra Linear
Portanto, conseguimos reduzir o estudo de transformações lineares Vídeo
entre espaços de dimensão finita a uma compreensão matricial de fácil A interpretação geomé-
trica pode ser melhor
manipulação. compreendida assistindo
ao vídeo Transformações
Teorema 5 lineares tridimensionais,
também publicado pelo
Sejam U, V e W três espaços vetoriais de dimensão finita, onde canal 3Blue1Brown.
T1 : U → V e T2 : V → W são transformações lineares e A, B e C bases de U,
Disponível em: https://www.youtu-
V e W respectivamente. Então, a função composta de T1 com T2, denota- be.com/watch?v=rHLEWRxRGiM.
Acesso em: 4 maio 2020.
da por T2  T1 : U → W , é linear e:
A B A Atenção
T2  T1  T2  . T1
C C B
O símbolo  significa uma
composição de funções
Todos esses conceitos serão necessários para compreendermos (transformações)
uma classe especial de vetores chamada de autovetores. É muito im-
portante que não restem dúvidas e que as restrições pensadas para
uma melhor representação geométrica possam ser expandidas para
espaços de maior dimensão.

CONSIDERAÇÕES FINAIS
A ligação entre as transformações lineares e as operações matriciais
nos auxilia não só nos cálculos, mas na visualização de muitos processos
matemáticos intrínsecos da álgebra linear.
Além disso, as transformações lineares podem ser encontradas em
muitas áreas da engenharia, ciência da computação, entre outras. Por
esse motivo, é importante que possamos entender a fundamentação
matemática que as embasa para que possamos aplicá-las corretamente
quando houver a necessidade.
Assim, todas as sugestões de leitura, vídeos e atividades computacionais
servirão para enriquecer seu conhecimento sobre o assunto. Ótimo estudo!

REFERÊNCIAS
ANTON, H. A; BUSBY, R. C. Álgebra linear contemporânea. Porto Alegre: Bookman, 2006.
BOLDRINI, J. L. et al. Álgebra linear. 3. ed. São Paulo: Harbra, 1986.
LEON, S. J. Álgebra linear com aplicações. 9. ed. Rio de Janeiro: LTC, 2019.
MISTURINI, R. Transformações lineares no plano. GeoGebra, 2020. Disponível em: https://
www.geogebra.org/m/BUXHgkwq. Acesso em: 4 maio 2020.

Transformações lineares 85
GABARITO
1. Para α = 1 em:
A : 2  2
A  x , y    x   y , y  ,   

 1 1
teremos um cisalhamento com matriz de transformação dada por A   0 1 e repre-
 
sentação geométrica da forma:

a=1
1 1
A=
1.5 0 1
b=1

c=0 det A = 1
1
d=1

0.5

–3 –2.5 –2 –1.5 –1 –0.5 0 0.5 1 1.5 2 2.5

 1 1
Já para α = –1, a matriz de transformação será dada por A   0 1  e a representação
 
geométrica dada por:

a=1
1 –1
A=
b = –1 1.5 0 1

c=0
det A = 1
1
d=1

0.5

–3 –2.5 –2 –1.5 –1 –0.5 0 0.5 1 1.5 2 2.5

2. O Teorema do Posto, que é equivalente ao Teorema do Núcleo e da Imagem, pode ser


representado a partir da seguinte equação:

posto T + dim Nul T = n

3. Podemos relacionar a Proposição 7 com uma matriz de transformação linear entre


B
espaços de mesma dimensão da forma [I ]CB  T C , em que B e C são as bases de um
espaço de dimensão finita V.

86 Álgebra Linear
4
Operadores e matrizes
diagonalizáveis
O tema operadores lineares talvez seja a parte mais interessan-
te da álgebra linear. Não é difícil pensar dessa forma, porque po-
demos enunciar aplicações desses operadores nas mais diversas
áreas do conhecimento. Isso acaba trazendo um grau de com-
preensão sobre o assunto que facilita sua aprendizagem.
Contudo, para entender conceitos como autovalores e autove-
tores, é necessário que outros anteriormente vistos estejam bem
consolidados, como os sistemas lineares, os determinantes, as
transformações lineares e as mudanças de base. Indicaremos
materiais ao longo do texto para que esses conteúdos possam
ser reforçados.
Neste capítulo, trataremos da teoria que envolve os opera-
dores lineares e as matrizes diagonalizáveis, mas também tere-
mos uma seção especialmente planejada para que possamos
aplicar esses conceitos.

4.1 Operadores
Vídeo As transformações lineares são funções que levam elementos (os
quais chamamos de vetores) de um espaço vetorial a outro com base
em uma regra previamente determinada. Entendê-las, assim como as
matrizes de transformação e mudanças de base, é essencial para que
possamos dominar o conteúdo deste capítulo.

Diversas definições são encontradas para operadores lineares.


A versão de Leon (2019, p. 156), por exemplo, expressa que “um ope-
rador linear é uma transformação linear que representa um espaço
vetorial nele mesmo”.

Operadores e matrizes diagonalizáveis 87


Vídeo Com o estudo das transformações lineares, temos que um opera-
O canal 3Blue1Brown possui uma dor linear de V, sendo V um espaço vetorial de dimensão finita, e pode
série intitulada A essência da
ser representado por meio de uma matriz de transformação. E, com o
álgebra linear, da qual sugerimos,
para este capítulo, os seguintes estudo das matrizes e determinantes, sabemos que as matrizes diago-
vídeos: nais são as mais simples em termos operacionais.
• Transformações lineares e ma-
trizes. Disponível em: https:// Dessa forma, seria possível modificar uma matriz de transformação
youtu.be/kYB8IZa5AuE. Acesso para que essa se torne uma matriz diagonal? Ela preservaria suas pro-
em: 4 maio 2020. priedades com quais condições? O que estamos tentando dizer é que
• Multiplicação de matrizes como
precisamos encontrar um operador T de modo que exista uma base A
composição. Disponível em: A
https://youtu.be/XkY2DOU- de V, tal que T  seja uma matriz diagonal. Após essa etapa, quere-
A
CWMU. Acesso em: 4 maio mos saber se isso é válido para todo operador. Essas perguntas serão
2020.
respondidas ao longo do nosso texto.
• Transformações lineares 3D.
Disponível em: https://youtu.
be/rHLEWRxRGiM. Acesso em:
4 maio 2020.
4.1.1 Autovalores e autovetores
• Mudança de base. Para entendermos o conceito de autovalores e autovetores, parti-
Disponível em: https://youtu.
remos de um exemplo. Vamos supor uma transformação linear que
be/P2LTAUO1TdA. Acesso em:
4 maio 2020. move o vetor de base i para as coordenadas u ∈ ℝ2 = (3,0) e de base j
Esses vídeos vão ajudar a relem- para as coordenadas v ∈ ℝ2 = (1,2). Dessa forma, essa transformação é
brar conceitos e a aperfeiçoar a 3 1
teoria necessária para que você representada pela matriz T    , conforme o plano a seguir.
entenda as expressões deste 0 2 
capítulo.
Figura 1
Vetores u = (3,0) e v = (1,2)

B
2

1,5

1 v

0,5

u A
0 0,5 1 1,5 1 2,5 3

Fonte: Elaborada pela autora.

88 Álgebra Linear
O que essa matriz faz a um determinado vetor w e como podemos
pensar na reta gerada por esse vetor? Vejamos na figura a seguir.
Figura 2
Vetor w = (1,0.3)

2 B

1,5

1 v
E

0,5
C
w
D u A
0 0,5 1 1,5 2 2,5 3 3,5

Fonte: Elaborada pela autora.

Se olharmos para esse plano cartesiano bidimensional, ao apli-


carmos a transformação T, a maior parte dos vetores terá sua dire-
ção modificada, ou seja, esses vetores serão retirados de sua “reta”
original. Mas será que existem vetores especiais que mantêm sua
direção?

Interpretando o vetor u = (3,0), vetor de base i, temos que o es-


paço de i é o eixo x e, observando a primeira coluna da matriz T,
vemos que i se move sobre si mesmo três vezes. Além disso, pelas
propriedades de uma transformação linear, qualquer outro vetor no
eixo x também será simplesmente esticado em uma escala de três
unidades, ou seja, permanecerá sobre o vetor diretor de u original.

Um vetor não tão exposto que também possui essa propriedade


é o vetor v1 = (–1,1), por exemplo. Qualquer escalar que multipli-
que v1 originará um vetor sobre o mesmo vetor diretor de v1, ou
seja, permanecerá sobre o vetor diretor de v1 original. Dessa forma,
qualquer outro vetor gerado por v1 será estendido por um fator de
duas unidades. Mas como encontrar esses vetores e esses fatores?
Já entenderemos.

Operadores e matrizes diagonalizáveis 89


Figura 3
Vetor v1 = (–1,1)

1,6

1,4

1,2
F v
1

0,8

0,6
v1

0,4
C
0,2 w
D
–1 –0,8 –0,6 –0,4 –0,2 0 0,2 0,4 0,6 0,8 1 1,2 1,4

Fonte: Elaborada pela autora.

Esses vetores especiais que, mesmo ao serem multiplicados por um


escalar, preservam a característica de se manterem sobre uma mesma
reta suporte passando pela origem são chamados de autovetores. A eles
temos associados escalares, que podem esticá-los ou comprimi-los.
Esses escalares são denominados autovalores, associados aos autoveto-
res (fator pelo qual o vetor é esticado ou comprimido durante a trans-
formação). Portanto, quando aplicamos uma transformação linear sobre
uma base de vetores, podemos encontrar vetores especiais que preser-
vam sua direção, sem que sejam rotacionados para fora dela.

Você já consegue imaginar como uma base de autovetores poderia


nos auxiliar, facilitando a resolução de cálculos envolvidos nas transfor-
mações lineares?

Definição 1
Seja uma transformação linear tal que Tv = λv. Encontrar os autovalores e autove-
tores dela nada mais é do que encontrar os vetores v, sendo v ≠ 0, associados aos
valores λ que satisfazem Tv = λv.

90 Álgebra Linear
De acordo com Zani (2010, p. 128, grifos do original), formalmente
escrevemos:
Definição 9.1 Sejam U um espaço vetorial e T ∈ L (U). Dizemos
que um vetor não nulo u ∈ U é um autovetor de T se existir λ ∈
tal que T (u) = λu.
[...]
Definição 9.3 Sejam U um espaço vetorial, T ∈ L (U) e u um auto-
vetor de T. O número λ, tal que T(u) = λu é chamado de autovalor
de T associado ao autovetor u.

Em Tv = λv , do lado direito, temos uma multiplicação de um escalar


por um vetor, de modo que podemos escrever:

Tv = (λI)v

tal que I é a matriz identidade. Fazendo:


 1
Tv     v  0
 A matriz comprime a dimensão
v T     0 1
do espaço.

em que v T     0 é um sistema de equações homogêneo que admi-

te solução trivial desde que v = 0 (det(T – Iλ) ≠ 0). Entretanto, essa solu-
ção não nos ajuda. Então, precisamos procurar valores para v de modo
que esse sistema se enquadre no caso de possuir infinitas soluções.
Para isso, precisamos assumir que

det (T – Iλ) = 0

Essa expressão dará origem a um polinômio em função de λ (cha-


mado de polinômio característico) da forma pT (λ) = det (T – Iλ) = 0, sendo
que as raízes desse polinômio serão os autovalores da transformação.

Exemplo 1

3 1
Suponha T    , uma matriz de transformação linear aplicada
0 2 
sobre um espaço bidimensional cartesiano. Então:

3 1
Tv   v    v  v
0 2 

Portanto:

 3 1  1 0  
     v  0
 0 2  0 1 
(Continua)
Operadores e matrizes diagonalizáveis 91
Logo:

3   1  0 
v  
 0 2    0 

Como v ≠ 0, então:

 3   1 
det     0
 0 2    


Assim:

 3   1 
det      pr ( )  0
 0 2    


pT      3     2     0

Dessa forma, encontramos dois valores para λ, sendo eles λ1 = 3 e


Saiba mais λ2 = 2. Esses são os autovalores associados aos autovetores v1 e v2 que
Para verificar se os cálcu- ainda precisamos calcular.
los feitos por você estão
corretos, é possível usar Para λ1 = 3, fazemos:
uma calculadora on-line
de autovalores, como a 3  3 1  0  0 1   x  0 
  v1          
do Symbolab.
 0 2  3  0
  0 1  y  0 
Disponível em: https://pt.symbolab.
com/solver/matrix-eigenvalues-cal- Esse sistema tem infinitas soluções, assim teremos y = 0 e x ∈ ℝ.
culator/. Acesso em: 4 maio 2020.
Fazendo x = a, com a sendo um escalar, podemos escrever v1 = (a, 0)
para a ∈ ℝ.

Para λ2 = 2, fazemos:

3  2 1  0   1 1  x  0 
  v2          
 0 2  2 0  0 0   y  0 

A solução desse sistema de equações lineares é dada por x = –y com


x, y ∈ ℝ. Fazendo x = b, teremos que o vetor v2 associado ao autovalor λ2
é dado por (–b, b) para b ∈ ℝ.

Ou seja, se aplicarmos uma transformação T com matriz de trans-


3 1
formação linear da forma T    sobre vetores de um espaço car-
0 2 
tesiano bidimensional, ℝ2, os vetores v1 = (a, 0) e v2 = (–b, b), com a, b ∈ ℝ,
manterão sua posição na mesma direção, sendo esticados pelos seus
respectivos autovalores λ1 = 3 e λ2 = 2.

92 Álgebra Linear
A partir desse ponto, podemos seguir com algumas definições Vídeo
formais.
Essa explicação pode ser
revista por meio do vídeo
Autovetores e Autovalores,
Definição 2 publicado pelo canal
3Blue1Brown.
O subespaço V (λ) = {u ∈ U; T (u) = λu} = N (T – λI) é chamado de subespaço
próprio associado ao autovalor λ desde que U seja um espaço vetorial, T ∈ L (U) e λ Disponível em:https://youtu.be/
PFDu9oVAE-g. Acesso em: 4 maio
um autovalor de T. Nesse caso, I : U → U a uma matriz identidade. 2020.

Zani (2010, p. 128, grifos do original) levanta características impor-


tantes que devem ser apresentadas neste momento:
Observação 9.5 Note que todo u є V (λ), u ≠ 0 é um autovetor de
T associado ao autovalor λ.
Observação 9.6 V (λ) é um subespaço invariante por T, isto é,
  
T V  V  .  
Basta notar que se u є V (λ) então T (u) = λu є V (λ).

Proposição 1 Atividade 1
Assumiremos que U é um espaço vetorial de dimensão finita. Nessas Sejam U um espaço vetorial de
condições, podemos supor que T em L (U) possui n autovetores u1,..., un dimensão finita e T em L (U).
associados a n autovalores λ1,..., λn, respectivamente. Verificando que os Definimos uma matriz de trans-
formação para esse espaço
n autovalores são distintos dois a dois, ou seja, λi ≠ λj, quando i ≠ j, então
dada por
podemos dizer que os autovetores associados u1,...,un são linearmente
1 0 0
independentes. A 0 1 0 
0 0 1
Segundo Lima (2003, p. 148), “autovalores diferentes do mesmo
operador correspondem autovetores linearmente independentes”. Sem utilizar muitos cálculos,
descreva quais são os autoveto-
Demonstração res e os autovalores associados a
esses autovetores de T.
Vamos supor um espaço bidimensional. Provaremos que dois au-
tovalores λ1 e λ2, tal que λ1 ≠ λ2, são associados respectivamente a dois
autovetores u1 e u2 linearmente independentes. Após essa etapa, pode-
mos usar a indução matemática para demonstrar essa proposição para
espaços de dimensão n.

Se β1u1 + β2u2 = 0, então podemos aplicar uma transformação linear


de modo que obteremos:

T (β1u1 + β2u2) = β1T (u1) + β2T (u2) = β1 λ1u1 + β2 λ2u2 = 0

Operadores e matrizes diagonalizáveis 93


Portanto, β2 (λ2 – λ1)u2 = 0 e, como u2 ≠ 0 e λ2 ≠ λ2, resulta que β2 = 0.
Então, β1u1 = 0 e, como u1 ≠ 0, temos β1 = 0. Ou seja, u1 e u2 são linear-
mente independentes.

A demonstração desse teorema para λ1, ..., λn, autovalores distintos


associados aos seus autovetores u1, ..., un, é feita de maneira similar.

Assim, sejam u1, ..., un autovetores associados aos autovalores


λ1, ..., λn, dois a dois distintos. Se u1,..., un não fossem linearmente in-
dependentes, pelo menos um deles se escreveria como combinação
linear dos outros. Para simplificar a notação, suponhamos que

u1 = a2u2 + ... + anun (1)

Então T (u1) = T (a2 u2 + ... +an un) = a2 T (u2) + ... anT (un)

λ1 u1 = a2 λ2 u2 + ... + an λn un (2)

Das Equações 1 e 2, resulta que 0 = a2 (λ2 – λ1) u2 + ... + an (λn – λ1) un,

e pela hipótese de indução

a2 (λ2 – λ1) = ... = an (λn – λ1) = 0

Mas como λ1 ≠ λj para j = 2, ..., n, temos

a2 = ... = an

Assim, pela Equação 1, u1 = 0, o que é impossível, pois u1 é autovetor.■

Proposição 2

Assumiremos que U é um espaço vetorial de dimensão finita. Se T


em L (U) possui n autovalores λ1, ..., λn distintos, então a soma dos subes-
paços próprios de T é direta, isto é, para cada j = 1, ..., n, temos V (λj) ∩
(V (λ1) + ... + V (λj–1) + V (λj+1) + ... + V (λn)) = {0}

Demonstração

Vamos supor um espaço bidimensional, ou seja, provaremos que


se dois autovalores λ1 e λ2, tal que λ1≠ λ2, então a soma dos subespaços
próprios de T é dada por:

V (λ1) ∩ (V (λ1) ∩ V (λ2)) = 0

Após essa etapa, podemos usar a indução matemática para de-


monstrar essa proposição para espaços de dimensão n.

94 Álgebra Linear
Assim, primeiramente, mostraremos que V (λ1) ∩ V (λ2) = {0}

Vamos supor uma base para V (λ1) = { v11 , , vm


1 } e uma base para
1
2 2
V (λ2) = { v1 , , vm2 } . Assim, u pode ser escrito como a combinação
linear dos vetores da base de V (λ1), ou seja,

u = a1(1) v1(1) + ... + am1(1) vm1(1)

mas também pode ser escrito como a combinação linear dos vetores
da base V (λ2), ou seja,

u = a1(2) v1(2) + ... + am2(2) vm2(2)

Igualando esses resultados, escrevemos

u = a1(1) v1(1) + ... + am1(1) vm1(1) = a1(2) v1(2) + ... + am2(2) vm2(2) (3)

Podemos aplicar uma transformação T na Equação 3 e, com isso,


obteremos:

T (u) = a1(1) T (v1(1)) + ... + am1(1) T (vm1(1)) = a1(2) T (v1(2)) + … + am2(2) T (vm2(2))

ou seja

a1(1)λ1v1(1) + ... + am1(1)λ1vm1(1) = a1(2)λ2v1(2) + … + am2(2)λ2vm2(2) (4)

Podemos organizar algebricamente essas equações multiplicando a


Equação 3 por λ1 e subtraindo-a de (4). Dessa forma, obteremos:

a1(2)(λ2 – λ1)v1(2)+ ... + am2(2)(λ2 – λ1)vm2(2) = 0

Como v1(2),..., vm2(2) é uma base de V (λ2), temos

a1(2) (λ2 – λ1) = am2(2) (λ2 – λ1) = 0

e como λ1 ≠ λ2, resulta que a1(2) = ... = am2(2) = 0. Segue-se da Equação 1 que
u = 0.

A demonstração desse teorema para n autovalores distintos é feita


de maneira similar. Assim, para

V (λj) ∩ (V (λ1) + ... + V (λj–1) + V (λj+1) + ... + V (λn)) = {0}

podemos usar, para cada j = 1,..., n, uma base Bj de V (λj) formada por
vetores v1 (j),..., vmj (j). Cada vi (j) é um autovetor associado ao autovalor
λj. Portanto, se:

u ∈ V (λj) ∩ V (λj) ∩ V (λ1) + ... + V (λj–1) + V (λj+1) + ... + V (λn)

Operadores e matrizes diagonalizáveis 95


Então:

 j  j
u  1 v1     m vm
 j  j
j j
(5)
1
u   v   
 j 1v  j 1    j 1v  j 1      nv  n
1 1 m j 1 m j 1 1 1 mn mn

Assim, T (u) é dado por:

 j  j  j  j  1  j 1   j 1   j 1  j 1  n


1 T  v1      m T  vm   1T  v1      m T  vm   1 T  v1      m T  vm 
 n
  j  j    j 1  j 1    n  n

Isto é,

 j  j  j  j
1  j v1     m  j vm  11v1     m
1  j 1  v  j 1    j 1 v  j 1      n  v  n
j 1 m 1 j 1 1 m n m (6)
j j j 1 j 1 n n

Multiplicando a Equação 5 por λj e subtraindo de (6), obtemos:

1   m j
j 1m  1  j 1 j 1
j 1 m 
1    v 1      j 1    v  j 1    j 1    v  j 1      n    v  n  0
1 j 1 j 1 n j m  n
  n

Portanto, usamos a hipótese de indução para provar que, se λj ≠ λi,


quando i ≠ j, obtemos 1         0 para todo i = 1, ..., j – 1, j + 1, ..., n.
i i
mi
Dessa forma, a Equação 3 resulta u = 0, provando que

V (λj) ∩ (V (λ1) + ... + V (λj–1) + V (λj+1) + ... + V (λn)) = {0} ■

Vimos diversos conceitos para um operador que respeita a seguin-


te condição: Tv = λv ∈ V. Contudo, qual é a forma mais simples para
encontrarmos os valores para λ e para v? Veremos esse conceito na
próxima seção.

4.2 Polinômio característico


Vídeo Vimos na seção anterior que, com base no cálculo dos autovalores
e autovetores, obtemos um polinômio que justamente nos permite en-
contrar os autovalores da transformação. Nesta seção, entenderemos
melhor a importância da análise desse polinômio e os resultados que
podemos retirar dele.

96 Álgebra Linear
Definição 3
Sejam U um espaço vetorial de dimensão finita e T em L (U) uma transformação linear
com [T] є Mnxn. Definimos o polinômio característico de T como sendo o determinante
pT(λ) = det (T – λI)
em que I é a matriz identidade de ordem n.

Definição 4
Seja T : U → U um operador linear e A e B bases de U. Ainda, sejam [T]A, [T]B ∈
Mnxn matrizes que representam o operador T nas bases A e B. Assim, dizemos que
[T]A e [T]B são semelhantes se existir M є Mnxn inversível, tal que [T]A = M–1[T]BM
(STEINBRUCH; WINTERLE, 1995).
Pelo conceito de matriz de uma transformação linear, M é a matriz de mudança de
base de B para A, que também pode ser denotada por  M A .
B

Partindo dessa definição, uma importante conclusão pode ser


extraída, sendo de grande utilidade quando procuramos autovalores.
O polinômio característico de uma matriz independe da base escolhida,
pois as matrizes de transformação em relação às bases A e B, dada
por [T]A, [T]B є Mnxn, são semelhantes e, nesse caso, os seus polinômios
característicos são iguais. Podemos mostrar essa propriedade com a
seguinte expressão:

pT 
 A
    det  T  A     det(M 1 T B M  M 1 M

pT 
 A
    det M 1  T B M   M   det M 1  T B    M 

pT      det M 1 det  T B    det M   det1M det  T B    det M 
 A  

pT 
 A
    det  T B     pB   

Portanto, podemos definir o polinômio característico do operador


linear T como sendo:

pT     p[T ]  
B

em que B é uma base qualquer de U.

Operadores e matrizes diagonalizáveis 97


Proposição 3

Sejam U um espaço vetorial de dimensão finita e T em L (U). Então,


os autovalores λ de T são raízes reais do polinômio característico pT(λ)
se, e somente se, pT(λ) = 0.

Demonstração

Vamos supor que B = {u1,..., un} é uma base de U. Assim, se λ é um


autovalor de T, então existe u ≠ 0 tal que Tu = λu. Sendo assim, podemos
escrever:

Tu = λu = (T – λI) (u) = 0

Como a transformação linear T – λI : U → U não é injetora, então não


temos um isomorfismo. Nesse caso, [T – λI]B não é invertível e, dessa
forma:

pT (λ) = det (T – λI) = 0

Da mesma maneira, se analisarmos pT (λ) = 0, então a matriz [T – λI]B tem


determinante nulo. Assim, a transformação T – λI : U → U não é um isomor-
fismo e, portanto, não é injetora. Logo, existe u ≠ 0 tal que (T – λI) (u) = 0.

Dessa forma, concluímos que T (u) = λu, u ≠ 0, isto é, λ é um autovalor


de T. ■

Definição 5
A multiplicidade algébrica de um autovalor λ de T ∈ L (U) é a multiplicidade de λ
como raiz do polinômio característico de T.

Proposição 4

Sejam U um espaço vetorial de dimensão finita e T ∈ L (U). Se λ0 é


um autovalor de T, a multiplicidade geométrica de um autovalor será
sempre menor ou igual à multiplicidade algébrica.

Demonstração

Suponhamos um espaço vetorial U de dimensão n. As multiplicidades


algébrica e geométrica de λ0 são respectivamente denotadas por m e r.

A dimensão do espaço próprio V (λ0) é dada por r, assim existem


u1, ..., ur ∈ V (λ0) linearmente independentes. Podemos completar esses
vetores até que obtenhamos uma base para U e, dessa forma, T em
relação a essa base é dada por:

98 Álgebra Linear
 0  0  
  
 0  0  Arx  nr  
    
  
  0  0  rxr 
 
 0 nr  xr B nr  x  nr  
 nxn

Por um lado, vemos que o fator (λ – λ0)r aparece na fatoração do


polinômio pT (λ). Por outro, como a multiplicidade algébrica de λ0 é m,
obtemos r ≤ m. ■

4.3 Matrizes diagonalizáveis


Vídeo Com todo o conteúdo visto até o momento, percebemos que, se
obtivermos uma matriz diagonal, tornamos muito mais simples o pro-
cesso de cálculo, não só para autovalores e autovetores, mas também
para demais propriedades que envolvem transformações lineares e
bases de transformações, pois toda transformação pode ser represen-
tada por meio de uma matriz de transformação.

As matrizes diagonais são aquelas apresentadas pela estrutura a


seguir:

a11  0 
 
Amxn      
0  a 
 mn 

Dessa forma, podemos expressar os autovalores de uma transfor-


mação linear por meio de uma matriz diagonal na forma:

1  0 
 
T    
0   
 n

Como uma matriz diagonal também é uma matriz triangular, pode-


mos escrever que seus autovalores são os elementos da diago-
nal principal.

Operadores e matrizes diagonalizáveis 99


4.3.1 Diagonalização de operadores
Sejam U um espaço vetorial de dimensão n e T ∈ L (U) um operador
linear. Dizemos que T é um operador diagonalizável se existe uma base
de U composta por autovetores de T.

De acordo com Zani (2010), é importante observar que se T ∈ L (U)


Atividade 2
é diagonalizável e temos uma base B de U composta por n autovetores
Com base na Atividade 1,
considere novamente: sejam U de T associados, respectivamente, a n autovalores, então a matriz de T
um espaço vetorial de dimensão em relação a essa base é
finita e T em L (U), com
1 0  0
1 0 0  
A 0 1 0  0 2  0
[T ]B  
0 0 1     
 
sendo a matriz de transformação  0 0  n 
de T. Descreva, sem muitos
cálculos, quais são os valores
ou seja, [T]B é uma matriz diagonal. Portanto, é uma matriz quadrada
dos elementos da diagonal
principal da matriz D, dada por (aij) tal que aij = 0 se i ≠ j.
D = P–1 · A · P.
Teorema 1

Sejam U um espaço vetorial de dimensão n e T ∈ L (U) um operador


linear. Então o operador T é diagonalizável se e somente se existir uma
base B de U em relação a qual a matriz de T é diagonal.

Observe que se o operador T ∈ L (U) é diagonalizável e existe uma


base B de U formada por autovetores de T, então podemos escrever
Atividade 3
uma outra base, por exemplo C de U da forma:
Sejam U um espaço vetorial de
[T ]B  (MCB )1[T ]C MCB
dimensão finita e T em L (U),
1 0 0
com A 0 1 0 
0 0 1
Definição 6
a matriz de transformação Dizemos que uma matriz A є Mnxn é diagonalizável se existir M є Mnxn não singular, ou
de T. Dessa forma, temos seja invertível, tal que o produto P = M–1AM é uma matriz diagonal. Nesse caso, as
pT(λ) = (1 – λ).
matrizes P e A são ditas semelhantes.
Sabendo que uma matriz é
diagonalizável quando podemos
escrevê-la como A = P · D · P–1 Proposição 5
e que D é uma matriz diagonal,
sendo que seus elementos são Um operador T ∈ L (U) é diagonalizável se existe uma base C de U na
os autovalores de T, descreva, qual a matriz [T]C é diagonal. Portanto, é o mesmo que dizer que essa
sem muitos cálculos, quem são
as matrizes P e P–1.
base C de T é formada por autovetores do operador T.

100 Álgebra Linear


Demonstração

Precisamos mostrar que T diagonalizável ↔ [T]C diagonalizável.

Já vimos que T diagonalizável → [T]C diagonalizável.

Suponha agora que [T]C é diagonalizável. Assim, existe uma matriz


M de ordem n não singular tal que, pela Definição 6, podemos escrever
M–1[T]C M sendo uma matriz diagonal.

Se u1,..., un são os vetores da base C, então podemos escrever um


vetor vj como combinação linear dos vetores da base

vj = a1u1 + ... + anjun

e, portanto, os vetores v1,..., vn formam uma base B de U, pois M é


invertível.

Ainda pela Definição 6, temos que M = MCB . Portanto

[T ]B  (MCB )1[T ]C MCB  M 1[T ]C M

é diagonal, ou seja, T é diagonalizável. ■

Assim, se uma matriz de um operador T ∈ L (U) em relação a qual-


quer base do espaço vetorial U for diagonalizável, podemos dizer que
esse operador é diagonalizável e, nesse caso, o seu polinômio caracte-
rístico pode ser escrito como

pr (λ) = (λ1 – λ) ... (λn – λ)

em que os números reais λ1,..., λn são todos autovalores de T.

Teorema 2

Seja um operador linear dado por T ∈ L (U), com U um espaço veto-


rial de dimensão n. Então, T é diagonalizável se, e somente se, os seus
autovalores λ1,..., λn forem tais que U é a soma direta dos subespaços
próprios de λ, ou seja,

U  V  1    V  n  Atenção

O símbolo ⊕ significa uma


Também podemos definir a diagonalização de um operador linear soma direta.
T ∈ L (U) analisando as multiplicidades algébrica e geométrica dos seus
autovalores.

Operadores e matrizes diagonalizáveis 101


Teorema 3

Sejam U um espaço vetorial de dimensão finita e T ∈ L (U). Então, T


é diagonalizável se, e somente se, ambas as condições a seguir forem
satisfeitas:

i. As multiplicidades algébrica e geométrica são iguais para cada au-


tovalor de T.
ii. A dimensão de U é igual à soma das multiplicidades geométricas
de todos os autovalores de T.

Assim, se essas duas condições são verificadas, podemos dizer que


temos um operador diagonalizável.

A diagonalização de operadores nos auxilia a agilizar processos de


cálculo e minimizar os erros carregados. Para problemas pequenos, em
que trabalhamos com matrizes no máximo de ordem 3, a manipulação
algébrica e geométrica é bastante simples. Contudo, em problemas do
mundo real, em que trabalhamos com matrizes de ordem na casa das
centenas, ferramentas como essa podem agilizar não só o processo de
programação, mas, também, a obtenção de melhores resultados.

4.4 Aplicações
Vídeo Nesta seção, vamos trazer alguns problemas bem interessantes que
sugerem a aplicação do conteúdo deste capítulo. Alguns serão apenas
para mostrar a necessidade da utilização dos conceitos e outros serão
resolvidos.
2 2
Aplicação 1 : cadeias de Markov como introdução a auto-
Nossa primeira aplicação foi valores e autovetores
extraída e adaptada do material
de Álgebra linear do REAMAT Vamos pensar em um modelo simples de atendimento de
(Recursos Educacionais Abertos
internet no qual, para um determinado país, existem apenas
de Matemática) da Universidade
Federal do Rio Grande do Sul, duas empresas que chamaremos de empresa A e empresa B.
sob a supervisão dos pesqui- As pessoas que utilizam esse tipo de produto podem optar por
sadores Diego Farias, Fábio de
qualquer uma dessas duas empresas e podem mudar de opção
Azevedo, Pedro Konzen e Rafael
Souza. sempre que desejarem.

Disponível em: https://www.ufrgs. Vamos supor que uma pessoa que escolha a empresa A no
br/reamat/AlgebraLinear/livro/ dia de hoje tem uma chance de 30% de estar usando a empresa
s11-cadeias_de_markov_como_
introdux00e7x00e3o_a_autova- B daqui a um ano, enquanto uma pessoa que usa a empresa B
lores_e_autovetores.html. Acesso no dia de hoje pode mudar de opção e passar a usar a empresa
em: 4 maio 2020.
A após um ano, com chance de 20%.

102 Álgebra Linear


Vamos supor que existam 8.000 pessoas usando o sistema A e
2.000 pessoas usando o sistema B e que a população total permanece
constante.

Para que não precisemos acrescentar mais variáveis ao nosso mo-


delo matemático, vamos supor que essas são as únicas possibilidades
de troca ao longo dos anos. Um modelo como esse que estamos ajus-
tando é chamado de cadeia de Markov.

Para encontrar o número de pessoas que usam o sistema A e B após


um ano, multiplicamos o vetor u0 = (8000,2000)T por:

 0, 7 0, 2 
T  
 0, 3 0, 8 

Assim, o número de pessoas usando o sistema A e o sistema B após


um ano é:

0, 7 0, 2  8000  6000 


u1  Tu0     
0, 3 0, 8  2000   4000 
Curiosidade
Para determinar o número de pessoas que usarão o sistema A e o Alguns livros são clássicos
na área de métodos
sistema B após dois anos, fazemos:
numéricos e o livro Aná-
lise Numérica de Richard
u2 = Tu1 = T2u0
Burden e Douglas Faires
Podemos prosseguir com esse raciocínio para 20 anos, 30 anos etc. é um desses casos. Ado-
tado em muitos cursos
por meio da expressão genérica: dessa área em diversas
instituições do país e
un = Tun–1 = Tnu0 fora dele, ele aborda um
grande número de mé-
em que Tn é a n-ésima potência da matriz T. todos numéricos, não só
voltados para equações
No caso dos sistemas de telefonia A e B, perceberemos que exis- diferenciais, mas para
te uma convergência do vetor solução para uE = (4000,6000)T. Dessa outras áreas da análise
numérica.
forma, dizemos que esse é um vetor de estado estacionário ou vetor
BURDEN, R. L.; FAIRES, J. D. São
invariante.
Paulo: Cengage Learning, 2008.
lim un  uE
n

Aplicação 2
3
3
Seja uma viga em que uma força é aplicada a um de seus extremos, Aplicação baseada em Leon
ela sofrerá uma flexão quando a força atingir um determinado valor (2019).

crítico. Se continuarmos aplicando força, temos que essa viga sofrerá


uma nova flexão até um segundo valor crítico e, assim, sucessivamente.

Operadores e matrizes diagonalizáveis 103


Vamos supor que ela tem comprimento L, está posicionada ao longo do
eixo x e apoiada na sua extremidade à esquerda em x = 0.

Vamos chamar de y (x) o deslocamento vertical da viga em qual-


quer ponto x e supor que a viga é simplesmente apoiada, ou seja,
y (0) = y (L) = 0.

Esse sistema físico é modelado por uma equação diferencial e suas


condições de contorno da forma:

   Py ; y 0  y L  0


R d2 y
dx 2

em que R é a rigidez flexora da viga e P é a força colocada nela.

Um método que poderia ser usado para resolver esse problema é


chamado de método das diferenças finitas. Esse método, assim como a
resolução de uma equação diferencial, não está no escopo desta obra,
mas o que precisamos saber é que, resolvendo por ele, acabaremos
obtendo uma matriz na forma Ay = λy, sendo que

 2 1 0  0 0 
 
 1 2 1 0 0 
 0 1 2  0 0 
A 
       
 0 0 0  2 1
 
 0 0 0  1 2 

Os autovalores dessa matriz serão todos reais e positivos.

A questão é: como encontrar os autovalores e autovetores da matriz A?

Vamos supor que A é uma matriz de ordem 10 e podemos escrever


o polinômio característico da forma:

pA     10  20 9  171 8  816 7  2380 6  4368 5


7 2  220  11  0
5005 4  3432 3  1287

Sendo os valores aproximados encontrados para λ dados por:

1  0.08101, 2  0.31749 , 3  0.69027 , 4  1.16916 , 5  1.71537 , 6


 2.28462 , 7  2.83083 , 8  3.30972  , 9  3.68250  , 10  3.91898 .

104 Álgebra Linear


Claro que não resolvemos esse cálculo à mão; 4
4
usamos, para nos auxiliar, uma calculadora on-line .
A calculadora Symbolab pode
Vídeo ser acessada em: https://pt.sym-
bolab.com/solver/matrix-eigen-
Sugerimos o vídeo Autovetores e autovalores aplicados em values-calculator. Acesso em: 4
Genética (Scilab), publicado pelo canal Matemática e Ciências maio 2020.
Prof. Alexandre B. Lopo, no qual as autoras apresentam não
Outra opção é a calculadora
só o conteúdo de autovalores e autovetores e a aplicação
Matrix, disponível em: https://
em genética, mas também o software Scilab. O Scilab é um
software livre que auxilia em muitos processos de cálculos
matrixcalc.org/pt/vectors.html.
matemáticos. Por meio de uma linguagem de alto nível e Acesso em: 4 maio 2020.
muitas ferramentas intrínsecas à linguagem, é possível utili- Esse último link também
zar esse programa com simplicidade também para o cálculo nos auxilia a encontrar
de autovalores e autovetores. todos os autovetores
Disponível em: https://www.youtube.com/watch?v=GbNP3yAzJaM. Acesso em: 4 para essa aplicação.
maio 2020.

CONSIDERAÇÕES FINAIS
Neste capítulo, percebemos a importância dos operadores e matrizes
diagonalizáveis para que possamos trabalhar não só com uma categoria
especial de vetores e de operadores lineares, mas também para que seja
possível aplicá-los em problemas de outras áreas do conhecimento. O es-
tudo dos operadores, principalmente dos autovalores e autovetores, nos
permite realizar novas análises sobre conteúdos já estudados.
Sugerimos que conceitos anteriormente vistos sejam relidos com esse
novo olhar e esperamos que novas conclusões possam ser retiradas a
esse respeito com a visão da diagonalização de matrizes, de bases de au-
tovetores, e de todos os conteúdos envolvidos neste capítulo.

REFERÊNCIAS
LEON, S. J. Álgebra linear com aplicações. 9. ed. Rio de Janeiro: LTC, 2019.
LIMA, E. L. Álgebra linear. 7. ed. Rio de Janeiro: IMPA, 2003.
STEINBRUCH, A.; WINTERLE, P. Álgebra linear. São Paulo: Pearson Education do Brasil, 1995.
ZANI, S. L. Álgebra linear. São Carlos: Departamento de Matemática/ICMC/USP, 2010.
Disponível em: https://sites.icmc.usp.br/szani/alglin.pdf. Acesso em: 4 maio 2020.

Operadores e matrizes diagonalizáveis 105


GABARITO
1. Como a matriz T é uma matriz identidade, é simples perceber que os autovalores λ1, λ2
e λ3 serão iguais e λ1 = λ2 = λ3 = 1. Observe que p (λ) = (1 – λ)3.

Ainda, por ser uma matriz identidade, ao substituirmos esses autovalores na procura
de seus autovetores associados, encontraremos um sistema da forma
0 x1  0 x2  0 x3  0

0 x1  0 x2  0 x3  0
0 x  0 x  0 x  0
 1 2 3

 x1 
Portanto, a solução é dada por X   x2  .
x 
 3
  1 0  0  
      
Um sistema básico de soluções é dado por  x1 0   x2  1  x3 0  
 0  0   1 
      

 1
 
Fazendo x1 = 1, x2 = 0, x3 = 0, encontramos v1  0 
0 
 
0 
 
Fazendo x1 = 0, x2 = 1, x3 = 0, encontramos v1   1
0 
 
0 
 
Fazendo x1 = 0, x2 = 0, x3 = 1, encontramos v1  0 
 1
 
2. Sabemos que os autovalores de A são dados por λ1 = λ2 = λ3 = 1 e que uma matriz diago-
nalizável D carrega esses autovalores em sua diagonal principal. Além disso, podemos
escrever A = PDP–1 Então, a matriz D será escrita como:
 1 0 0
 
D  0 1 0 
0 0 1
 

3. Baseados nos cálculos já realizados e descritos nas atividades anteriores, sabemos


que os autovalores de A são λ1 = λ2 = λ3 = 1 e que podemos escrever os autovetores
associados, respectivamente, como v1 = (1,0,0)T v2 = (0,1,0)T e v3 = (0,0,1)T. Então, po-
demos escrever:
 1 0 0
 
P  0 1 0 
0 0 1
 

e
 1 0 0
 
P 1  0 1 0 
0 0 1
 

De forma que teremos:


 1 0 0  1 0 0  1 0 0  1 0 0
       
A  PDP 1  0 1 0  . 0 1 0  . 0 1 0   0 1 0 
0 0 1 0 0 1 0 0 1 0 0 1
       

106 Álgebra Linear


5
Espaço com produto interno
Até agora, vimos uma abordagem bastante algébrica sobre os
espaços vetoriais. Mas, para tratarmos de ortogonalidade e orto-
normalidade em bases, espaços e subespaços, podemos partir de
uma visualização geométrica, para posteriormente extrapolarmos
os conceitos. Para isso, vamos usar conceitos estudados em outras
disciplinas, como geometria analítica, por exemplo. No entanto,
você pode ficar tranquilo, pois esses conceitos serão retomados no
próprio texto ou como sugestão de material adicional para leitura.
Neste capítulo, teremos a oportunidade de sair do geométrico
para entendermos o algébrico e, na sequência, com o algébrico
bem estruturado, enriquecer nossos conhecimentos sobre o
geométrico. Isso é possível porque estudaremos transformações
lineares em espaços vetoriais mais complexos. Para tanto, abor-
daremos os conceitos de produto interno e externo, ortogonalidade
entre vetores e espaços, bases ortonormais e, claro, as transformações
lineares. Vamos compreender melhor esse ciclo de aprendizagem
nas próximas seções.

5.1 Produto interno


Vídeo Um produto interno ou escalar, como o próprio nome já enuncia,
gera como resultado um escalar. Ou seja, sempre que realizamos o
produto escalar entre dois vetores, obteremos um número. O que esse
número representa? É o que veremos nesta seção.

Definição 1
Seja um espaço vetorial v. O produto interno ou escalar de dois vetores u e v de V,
com u ≠ 0 e v ≠ 0, é uma aplicação que gera um número real (escalar) tal que
u v  u  v  cos
em que θ é a medida do ângulo formado entre os vetores u e v.

Espaço com produto interno 107


Podemos exemplificar usando vetores no espaço tridimensional 3 .
Se u = (x1, y1, z1) e v = (x2, y2, z2), então podemos escrever que:
u  v  x1x2  y1y2  z1z2

desde que as coordenadas sejam extraídas de uma base ortonormal


tridimensional. Esse resultado pode ser extrapolado para espaços
n-dimensionais.

Seja V = n , com u   x1, x2 , , xn  , v   y1, y2 , , yn   n , o produto


interno pode ser escrito como:
u  v  uT v  x1y1  x2 y2   xn yn

O produto interno sobre V = n é conhecido como produto interno


usual do  n .

Dado um espaço vetorial V com produto interno, a cada par de ve-


tores u,v   VxV teremos algumas propriedades associadas. Vejamos
essas propriedades na sequência.

5.1.1 Propriedades do produto interno


A ideia de introduzirmos o conceito de produto interno se deve à
necessidade do cálculo da distância entre vetores de um espaço em
diferentes situações. Para que possamos manipular adequadamente o
produto interno, vamos entender algumas de suas propriedades, sen-
do que outras poderão ser deduzidas por meio das propriedades que
seguem.
•• Comutatividade ou simetria: u  v  v  u
•• Associatividade em relação à multiplicação por um escalar k:
k u  v    ku   v  u   kv 
•• Distributividade em relação à adição de vetores:
u  v  w   u  v  u  w
•• Positividade: u  u  0 se u ≠ 0

De acordo com Callioli, Domingues e Costa (2003, p. 157): “em


geral existem muitos produtos internos diferentes sobre o mesmo
espaço vetorial”. Dizemos que um espaço vetorial munido de produ-
to interno é um espaço vetorial euclidiano, ou simplesmente um
espaço euclidiano.

108 Álgebra Linear


5.1.2 Espaços com produto interno
Vamos apresentar alguns espaços vetoriais munidos de produto
interno e suas particularidades. Para isso, precisamos verificar se os
espaços, que serão mencionados a seguir, verificam as quatro proprie-
dades anteriormente enunciadas.

Exemplo 1

Espaço dos polinômios de grau n, Pn    , em que

pn  t  , qn  t  , kn  t   Pn    .

1
pn .qn  0 pn t  qn t  dt
Vamos verificar.
•• Comutatividade:
1 1
pn  t   qn  t   pn  t  qn  t  dt  qn  t  pn  t  dt  qn  t   pn  t 
 
0 0

•• Associatividade, k є ℝ:
1 1
  
k pn  t   qn  t   k pn  t  qn  t  dt  kpn  t   qn  t  dt 

0 0
1

 pn (t )[kqn (t )] dt  pn  t   kqn  t 
 
0

•• Distributividade:

 pn  t   qn  t    kn  t  
1 1

 
 ( pn (t )  qn (t ))kn (t )dt  (pn (t )kn (t )  qn (t )kn (t ))dt
0 0

•• Positividade, pn  t   0 :
1 1
2
pn  t   pn  t   pn  t  pn  t  dt   pn  t    0
 
0 0

Com as quatro propriedades verificadas, podemos dizer que o espa-


ço dos polinômios de grau n, Pn    é um espaço com produto interno
1
pn  qn  0 pn t  qn t  dt .

Espaço com produto interno 109


Atividade 1
Exemplo 2
Quais propriedades precisamos
analisar para mostrar que Espaço das funções reais contínuas no intervalo de a até b,
o espaço das matrizes
quadradas Mnxn , em que
  
C a , b  ;  , tal que f , g  C a , b  ;  . 
   
b
A  aij , B  bij , com f  g  f  x   g  x  dx
produto interno

a
Como a resolução desse exemplo é semelhante à apresentada
Anxn  Bnxn  no Exemplo 1, sugerimos que você exercite a verificação das pro-
priedades: comutatividade, associatividade, distributividade e posi-
 i1 j1aij bij
n n
tividade. Vamos lá!
 
 tr A B t

se verifica?
5.1.3 Norma e distância de um espaço euclidiano
A norma de um vetor u pode ser calculada por meio do produto in-
terno, pois: u  u   u   u  cos0o   u  2  0 , então  u  u  u .

Se  u  = 1, u é um vetor unitário. Além disso, todo vetor pode ser


normalizado, ou seja, pode ser transformado em um vetor unitário.
Para isso, basta que calculemos o versor desse vetor, processo comu-
mente conhecido como normalização.

Definição 2
Seja u ≠ 0 . O versor de u é um vetor unitário de mesma direção e sentido de u:
u
vers u =
u

1
Portanto, qualquer vetor, desde que não seja nulo , pode ser nor-
1 malizado, isto é, pode ter seu versor calculado.
Um vetor nulo é aquele cujo Para falarmos em distância, vamos supor dois pontos,
segmento de reta que o repre-
A   x1, y1 ,B   x2 , y2  , pertencentes ao espaço V =  O segmento de2.
senta tem medida igual a zero. 
Para diferenciá-lo do número reta orientado AB pode ser chamado de vetor. Assim, vamos assumir

zero, traremos sua notação que u = AB . Para calcularmos a distância entre esses dois pontos e, con-
em negrito.
sequentemente, o tamanho (norma) do vetor u, basta fazermos:

d  A, B    x2  x12   y2  y12
2

2 2
d  A, B    u    x2  x1   y2  y1

110 Álgebra Linear


Observe a Figura 1 e perceba que a distância é calculada com uma
relação muito conhecida, o Teorema de Pitágoras. Temos um triângulo
Site
retângulo e precisamos encontrar o valor da hipotenusa.
Para uma melhor visua-
Figura 1 lização e construção de
 imagens, indicamos o
Norma de um vetor AB = u
site GeoGebra on-line.
y Por meio dele, é possível
trabalhar com estruturas
geométricas bi e tridi-
B mensionais. Além disso,
y2
ele auxilia em alguns
cálculos, como para en-
u contrar a distância entre
dois pontos ou a norma
de um vetor pertencente
y1 a ℝ2 ou ℝ3.
A
Disponível em: https://www.
x1 x2 x geogebra.org/. Acesso em: 4 maio
2020.

Fonte: Elaborada pela autora. 2


Portanto, definimos como comprimento de um vetor no ℝ2 – tam- Existem outros tipos de norma,
2
bém chamado de norma euclidiana ou módulo – a seguinte expressão: no entanto, nesta obra, sempre
que utilizarmos o termo norma,
 u   x2  x1 2   y2  y1 2 estaremos nos referindo à norma
euclidiana.
Por meio da abordagem geométrica no ℝ2, podemos estender esse
conceito para espaços de maior dimensão.

Definição 3
Sejam os pontos A = (x1,x2, ..., xn) e B = (y1, y2, ..., yn) pertencentes a ℝ , a distância
n

entre A e B, isto é, w = AB, é dada por:

d  A, B   w   y1  x1 2   y2  x2 2  ...   yn  x n 2

De acordo com Leon (2019, p. 185): “sejam x e y vetores em 2 ou


3. A distância entre x e y é definida como o número  x − y ”. Portan-
to, podemos calcular a distância entre dois pontos de um segmento de
reta, que também pode ser interpretada como a norma de vetores em
 2 , 3 ,…,  n , por meio das equações algébricas enunciadas.

Quando não temos os pontos que dão origem a esse vetor, geo-
metricamente, deslocamos o ponto inicial para a origem. Dessa forma,
teríamos a figura a seguir.

Espaço com produto interno 111


Figura 2
Norma de um vetor u

y1

O x1 x

Curiosidade Fonte: Elaborada pela autora.

Em 1821, Augustin Louis Cauchy A Figura 2 nos remete ao seguinte cálculo:


publicou o primeiro resultado 2 2 2 2
sobre a desigualdade entre u   x1  0    y1  0    x1   y1  u u
dois vetores. A correspondente
desigualdade para integrais
foi estabelecida por Viktor Exemplo 3
Yakovlevich Bunyakovsky, em
1859, e, em 1888, Hermann Seja o espaço das funções reais contínuas no intervalo de a até b ,
Amandus Schwarz redescobriu    
C a , b  ;  , tal que f , g  C a , b  ;  e o produto interno dado
e compilou esses resultados b
(ANTON; RORRES, 2012). por f .g  a f  x .g  x  dx. A norma de ƒ é escrita como:
b
2
 f    f  x  dx .
Vídeo a

A plataforma Khan Aca-


demy, que aborda vários
conceitos matemáticos
Por meio da utilização dos conceitos de produto interno e distância
em suas diversas rami-
ficações, publicou um entre vetores, obtemos um importante resultado conhecido como desi-
vídeo intitulado Demons-
gualdade de Cauchy-Bunyakovsky-Schwarz.
tração da desigualdade
de Cauchy-Schwarz, que
Proposição 1
é uma ótima ferramenta
para ampliar a compreen- Se V é um espaço vetorial euclidiano e u, v є V, então u  v   u   v 
são sobre o assunto.
Acesse e saiba mais! para todo u, v de V.
Disponível em: https://pt.khana- Demonstração
cademy.org/math/linear-algebra/ 
vectors-and-spaces/dot-cross-pro- Vamos assumir que v = 0 , então, u  v  0 e  u   v = 0 . Se isso
ducts/v/proof-of-the-cauchy-s-
chwarz-inequality. Acesso em: 4
ocorre, temos uma igualdade.
maio 2020.

112 Álgebra Linear



Agora, vamos assumir que v ≠ 0, então, para todo escalar k ∈  ,
podemos escrever  u  kv   0 , portanto:
2

0   u  kv  2  u  kv   u  kv   u  u   u  kv    kv  u    kv  kv  

 u  k u  v   k  v  u   k 2  v  u  2k u  v   k 2  v  .

Temos, aqui, um trinômio do quadrado perfeito que pode ser rees- 3


2
crito como  u   k  v   .
Lembre-se de que o discri-
Mas o que nos interessa é a análise do discriminante . Assim, fa-
3 minante de uma equação do
2 segundo grau ax2 + bx + c = 0
zendo 4 u  v   4  v  2
 u  2 , percebemos que esse resultado deve é dado por ∆ + b2 – 4ac.
ser menor ou igual a zero ( ≤ 0 ), pois  v 2 ≠ 0 é sempre positivo. Dessa
forma, teremos:
2
u  v   u 2  v 2 Vídeo
e extraindo a raiz quadrada de ambos os membros, teremos: Indicamos como com-
plemento aos estudos
u  v  u   v  o vídeo Desigualdade
triangular de vetor, da pla-
Obtemos, com isso, um importante resultado que relaciona o pro- taforma Khan Academy.

duto interno entre dois vetores às suas distâncias. Disponível em: https://pt.khana-
cademy.org/math/linear-algebra/
vectors-and-spaces/dot-cross-
Exemplo 4
-products/v/linear-algebra-vector-
-triangle-inequality. Acesso em: 4
Seja o espaço das funções reais contínuas, no intervalo de a até
maio 2020.
b, c [a, b];   tal que f , g  C [a ,b];   , o produto interno é dado
a
por f  g  b f  x   g  x  dx . A desigualdade triangular aplicada nes- Livro
se caso nos permite escrever: Na literatura especializa-
da em métodos numéri-
2
b  b
2
b
2 cos, encontramos vários
 f  x  g  x  dx    f  x   dx  g  x   dx
         métodos que dependem
de polinômios que sejam
a  a a
ortogonais, ou seja,
que respeitem a teoria
Mediante esse resultado, é possível escrever o corolário a seguir, abordada neste capítulo.
Interessou-se sobre o
conhecido como desigualdade triangular. assunto? Então sugeri-
mos a leitura da Seção
Corolário 1
“Polinômios ortogonais
clássicos”, do Capítulo 5
Se u, v ∈ V e V é um espaço vetorial euclidiano, então:
do livro Álgebra linear com
 u  v    u    v  para qualquer u, v ∈ V . aplicações.

LEON, S. J. 9. ed. Rio de Janeiro: LTC,


Na próxima seção, trataremos de um resultado importante obtido 2019. p. 253-256.
por meio das propriedades do produto interno.

Espaço com produto interno 113


5.2 Ortogonalidade
Vídeo A ortogonalidade entre vetores de um espaço V pode ser entendida
por meio da seguinte propriedade:
•• Nulidade do produto escalar u . v = 0, se:

•• um dos vetores for nulo;


•• os vetores forem ortogonais, pois cos90º = 0.
Ou seja, vetores ortogonais são aqueles que formam 90º entre si, e
esse ângulo pode ser observado por meio da relação:
u  v   u   v  cos

Definição 4
Seja um espaço vetorial euclidiano V, com u, v є V . Os vetores u e v são ortogonais
se, e somente se, u . v = 0, e denotamos por u ⊥ v .
Um conjunto de vetores B  u1 ,u2 ,,un   V é chamado de ortonormal se to-
dos os seus vetores forem unitários e ortogonais, dois a dois, entre si.
Um exemplo clássico desse caso é um conjunto de vetores canônicos, por exemplo,
os vetores canônicos do 3.

Exemplo 5

 
Seja B  1,0,0  ,  0,1,0  ,  0,0,1  V   uma base canônica, te-
3

mos que os vetores e1  1,0,0 , e2   0,1,0  e e3   0,0,1 são unitá-


rios e ortogonais, dois a dois. Para verificarmos, basta calcularmos
o produto interno entre eles e a norma de cada um deles.

e1  e2  1.0  0.1 0.0  0  e1  12  02  02  1


e1  e3  1.0  0.0  0.1  0  e2  02  12  02  1
e2  e3  0.0  1.0  0.1  0  e3  02  02  12  1

114 Álgebra Linear


Exemplo 6

Vamos retomar o Exemplo 2 deste capítulo.

Seja o espaço das funções reais contínuas, no intervalo de a


   
até b, C a , b  ;  , tal que f , g  C a , b  ;  , e o produto interno
b
dado por f  g  a f  x   g  x  dx . Vamos supor que f  x   sin x e

g  x   cos x e a , b   0, 2  . Dessa forma:


2 2
(sin2 x )
sin x  cos x   sin x  cos xdx 
2
0
0 0

Portanto, as funções sin x e cos x são ortogonais.

Um conceito que usaremos bastante quando tratarmos da ortogo-


nalização de Gram-Schmidt, que será estudada nas próximas seções,
parte do princípio de poder calcular vetores ortogonais e normalizá-los.
Assim, se B  u1, , un é um conjunto de vetores ortogonais, dois a
dois, com todos os ui  0,i  1, , n, teremos um conjunto ortonormal
fazendo: Atividade 2
Qual é a importância de norma-
 u u 
B´  1 , , n  lizar um vetor ou um conjunto

 1u   un   de vetores ortogonais?

Um conjunto ortogonal nos permite chegar a algumas conclusões


sobre o espaço vetorial. Saiba mais

Proposição 2 Algumas áreas utilizam


notações específicas para
Se o conjunto B '  u1, , un  V de vetores ortonormais gera um tratar determinado assunto.
espaço vetorial V, podemos afirmar que ele é uma base para V, pois os A ortonormalidade entre vetores
é denotada na física, nas enge-
vetores de B são todos linearmente independentes (L.I.). nharias e áreas correlacionadas,
Demonstração mediante a simbologia do delta
de Kronecker, em que:
Supomos que B’ é uma base para V, portanto podemos escrever:
 ij   1, se i  j
0 , se i  j 
1u1    nun  0 (1) Assim, se temos um conjunto
2
de vetores u1 ,, un  ,
Como os vetores de B’ são ortonormais, temos que u1  u1   u1   1 dizemos que ele é ortonormal se
e u1  u1  0 para i  2, , n . ui u j   ij para quaisquer
i , j ,1,2 ,3,…, n .

Espaço com produto interno 115


Fazemos:

1 u1  u1    n un  u1  1


mas
1 u1  u1    n un  u1   0  u1  0

Logo:

1  0
Assim, a Equação 1 pode ser escrita como:

2u2    nun  0
Repetindo esse processo n vezes, encontraremos 1  2     n  0.
Portanto os vetores de B '  u1, , un  V são L.I., e como eles geram V,
podemos dizer que formam uma base para V. ■

Para Zani (2010, p. 172): “a proposição acima continua válida se B for


apenas um conjunto ortogonal com elementos não nulos”.

Exemplo 7

Seja o espaço de funções reais contínuas, no intervalo de a

até b,  ij   1, se i  j
0 , se i  j , tal que
b
 
f , g  C a , b  ;  , e o produto inter-

no dado por f  g  a f  x   g  x  dx . Supomos que f  x   sin x ,

g  x   cos x e a , b   0, 2  , conforme observamos no Exemplo 6.

Essas duas funções são ortogonais neste intervalo:

2 2
(sin2 x )
sin x  cos x   sin x  cos xdx 
2
0
0 0

Portanto, podemos, também, concluir que elas são linearmente


independentes.

Partimos do princípio de que sempre que tratamos de espaços ve-


toriais também tratamos de subespaços relacionados. Na próxima sub-
seção, veremos exemplos de subespaços ortogonais, ou seja, espaços
que carregam as propriedades anteriormente estudadas.

116 Álgebra Linear


5.2.1 Subespaço ortogonal
Para comprovarmos que existe um subespaço, precisamos verificar
se algumas propriedades desse conjunto se mantêm em relação ao seu
espaço original.

Vamos considerar, para esta subseção, um espaço vetorial eucli-


diano V e um subespaço U ⊂ V . Sendo assim, V é munido de produto
interno usual. Dado um subespaço U ∈ V , o subconjunto denotado por
U   V com as seguintes condições:
U   {v  V | v  u  0,u  U }

é também um subespaço de V, pois verifica as seguintes propriedades:


 
•• 0  u  0 para todo u ∈ U , então, 0  U  ;
•• v1  u  v2  u    vn  u  0 para todo u ∈ U, então
(v1  v2   vn )  u   v1  u    v2  u     vn  u   0  0   0  0
para todo u ∈ U;
•• v  u  0 para todo u ∈ U , então,  v  u     v  u    .0  0 para
   e u ∈ U.

Definição 5
O subespaço U ⊥ , definido conforme acabamos de ver, é chamado de complemento
ortogonal de U.

Proposição 3

Seja B = u1, u2 ,, un um conjunto ortonormal gera-


dor de U  u1, , un  , para qualquer u ∈ V , o vetor dado por
v  u  u  u1 u1  u, un  un será ortogonal a todo vetor de U. Deno-
taremos por v ⊥ U .

Demonstração
n
Vamos supor que existe x ∈ U , tal que x   j 1 j u j . Para verificar
a ortogonalidade, precisamos calcular o produto interno entre x e v e
verificar se o resultado é igual a zero, isto é, x  v  0.
n n
Assim, temos que verificar  j 1 a j u j  v   j 1 a j (u j  v) = 0 .
Portanto, se conseguirmos mostrar (u j ⋅ v) = 0, podemos concluir que
n
 j 1 a j (u j  v )  0 . Como u , ..., u
1 n
formam um conjunto ortonormal,
então:

Espaço com produto interno 117


u j  v  u j  u  u  u1 u1  u  un  un 

   
u j  u  u  u1 u j  u1  u  un  u j  un 
4 u j  u  u  u j  u j  u j   u j  u  u  u j   0
Carrega os nomes de Jorgen
Pedersen Gram (Dinamarca, Portanto, (u j  v )  0, o que nos permite concluir que v ⊥ U . ■
1850-1916) e de Erhard Schmidt
(Alemanha, 1876-1959). Proposição 4

Sejam U e U ⊥ subespaços de V, podemos escrever que:




•• U  U   0 , isto é, temos uma soma direta U  U   V ;
•• U 
 
 U.

Portanto, todo vetor de U é ortogonal a todo vetor de U ⊥ .

Vamos relacionar o complemento ortogonal com a projeção orto-


gonal. Para isso, precisamos relembrar como se faz a interpretação de
um produto interno.

Seja um espaço vetorial euclidiano V com u, v ∈ V . O produto interno


pode ser usado para encontrarmos o componente de um vetor u na di-
reção de outro vetor v. A essa manipulação damos o nome de projeção
ortogonal. Vamos entender o processo e por que ela se enquadra na
seção de subespaços ortogonais.

A interpretação geométrica para o produto interno tem baseada na


seguinte ideia: vamos supor dois vetores u e v, sendo  u  = 1, ou seja, u
é um versor (vetor unitário). Ainda, seja v uma combinação linear dada
por v  x  y , com x e y ortogonais entre si.
Figura 3
Projeção de v em u

y
v=x+y

u projuv

Fonte: Elaborada pela autora.

118 Álgebra Linear


Ao analisar a Figura 3, percebemos facilmente que projuv = x.
Como x é paralelo a u, então x = au. Sendo y ortogonal a u, então
y · u = 0. Multiplicando escalarmente a expressão v = x + y, temos:
u  v  a u  u   y  u
uv
a
 u 2
Dessa forma, podemos escrever:
uv
x  projv u  a  u  u
 1 2
Então:
projv u  u  v   u
Logo:

 proju v    u  v   u    u  v    u    projuv   u  v 
O que encontramos após essa manipulação pode ser traduzido da
seguinte maneira: o produto escalar, em módulo, entre os vetores u
e v, é igual ao tamanho da projeção do vetor v na direção do versor u.

Para dois vetores u e v quaisquer, chegamos à expressão:


 uv 
projuv   u
u 
Segundo Pellegrini (2016, p. 295, grifos nossos), a definição de proje-
ção é dada da seguinte forma: “sejam U, V e W espaços vetoriais tais que
v  u  w . Um operador linear em T é uma projeção em U se e somente
se, para todo v  u  w , como u є U e w є W, T  v   u”. .

Percebemos, pela definição de Pellegrini, que U e W são subespaços


de V e que podemos representar W como o complemento ortogonal
de U, logo: W  U  . Dessa forma, temos a definição a seguir, de acordo
com Pelegrinni (2016, p. 300):

Definição 6
“Seja W subespaço de um espaço vetorial V. Uma projeção de um vetor w є W em
W ⊥ é uma projeção ortogonal de v em W”.

Importantes resultados podem ser obtidos quando estudamos os


subespaços ortogonais de espaços vetoriais euclidianos. A projeção or-
togonal é uma ferramenta muito útil, não só na matemática, mas tam-
bém, na física e nas engenharias. Assim, entender os conceitos que a
embasam faz com que consigamos compreender seu processo de
construção, sem que seja necessário decorar fórmulas e expressões.

Espaço com produto interno 119


5.3 Ortogonalização de Gram-Schmidt
4
Vídeo O processo conhecido como ortogonalização de Gram-Schmidt é um
algoritmo para obter uma base ortogonal (ou ortonormal) de um espa-
ço euclidiano a partir de uma base qualquer. A estruturação desse algo-
ritmo se dá no transcorrer da prova matemática do teorema a seguir.

Teorema 1

Todo espaço vetorial euclidiano de dimensão finita possui uma base


ortonormal.

O procedimento que desenvolveremos na sequência é a demons-


tração desse teorema, que nos permite transformar um conjunto de
vetores linearmente independentes em um conjunto ortogonal. Os
dois conjuntos, tanto o original como o conjunto ortogonal, gerarão o
mesmo espaço vetorial.

Antes de entrarmos propriamente na demonstração do teorema,


vamos observar a definição a seguir.

Definição 7
Se um vetor w ∈V é uma combinação linear de um conjunto ortogonal v1 ,,v n 

de dimensão finita, em que vi  0, i  1,, n, ou seja, w  a 1 v1  an v n ,
os coeficientes αi dessa combinação podem ser escritos como:
w v
ai  i
v i v i
Nesse caso, os coeficientes ai são conhecidos como coeficientes de Fourier
(HALLACK, 2017).

Essa definição será importante para entendermos alguns passos do


algoritmo de Gram-Schimidt.

Demonstração

Seja   v1, , vn uma base de V qualquer, queremos obter uma


base ´ v´1 , , v´n que seja ortogonal para V.

Assim, iniciaremos o processo supondo dois vetores, v1 e v2de β, que


' '

serão ortogonalizados. Após a obtenção de    v1, v2 e sua norma- 
lização, trabalharemos com a hipótese de indução para extrapolar o

120 Álgebra Linear


resultado. A abordagem por indução pode ser vista em outras obras,
como Boldrini et al. (1986, p. 230); Hallack (2017, p. 127); Lima (2003,
p. 125); Zani (2010, p. 178), entre outros.

Figura 4
v1' ortogonal a v'2

v2
v2'

v1' = v1

– cv1 cv1
Fonte: Elaborada pela autora.

Inicialmente, definimos:

v1' = v1

Precisamos encontrar um vetor v2' que carregue as características


'
de v2, mas que seja ortogonal a v1 . Esse vetor será:

v2  v1'
v2'  v2  v1'
v1'  v1'

A definição parte da interpretação geométrica da Figura 4. Note que


v2' é a subtração entre v2, e a projeção do vetor v2 na direção do vetor

v2  v1'
v1' dada por proj ' v2  v1' . Dessa forma, podemos escrever que:
v1 v1'  v1'
'
v v

v1, v2   v1' , v2'  e v1'  v2'  v2 .v1'  2 1 v1'  v1'  0
  v1'  v1'

' '
Assim, temos que v1 é ortogonal a v2 , e    v1' , v2' é uma base or-  
togonal para o espaço gerado por {v1, v2 } .

Vamos agora incluir mais um vetor na base β, ficando igual a


  v1, v2 , v3 e, ao fazer isso, precisaremos encontrar v ' que com-
3
ponha a base ortogonal β’, de modo que ela permaneça com a ca-
racterística de ser composta por vetores ortogonais, isto é, continue
sendo uma base dita ortogonal. Para isso, vamos simplificar a notação
de maneira que transformemos os processos em um algoritmo mais
limpo e simplificado.

Espaço com produto interno 121


Escreveremos:
v1' = v1
v2  v1'
v2'  v2  cv1' com c  .
v1'  v1'
'
Agora precisamos encontrar v3 que, por analogia ao processo já
realizado, pode ser escrito como:

v3'  v3  dv2'  ev1'


Portanto, precisamos determinar os valores para d e e de modo que
v3' seja ortogonal ao mesmo tempo a v1' e v2' , isto é, de maneira que
Atenção v  v   0 e v  v   0 .
'
3
'
1
'
3
'
2

Fazendo  v  v   0, temos:
' '
O símbolo ⇔ que dizer “se, e 1 3
somente se”.
v  v   0  v  dv  ev   v  0
'
3
'
1 3
'
2
'
1
'
1

v  v   0  v  v   d v  v   e v  v   0
'
3
'
1 3
'
1
'
2
'
1
'
1
'
1

Mas  v  v   0, portanto  v  v   0 se, e somente se:


'
2
'
1
'
3
'
1

e
v3  v1 '
v1'  v1'

 
Fazendo v3'  v2'  0, temos:

Vídeo v  v   0  v  dv  ev   v  0
'
3
'
2 3
'
2
'
1
'
2

Para mais exemplos do


processo de ortogonali-
v  v   0  v  v   d v  v   e v  v   0
'
3
'
2 3
'
2
'
2
'
2
'
1
'
2

Mas  v  v   0, portanto  v  v   0 se, e somente se:


zação de Gram-Schimdt, ' ' ' '
acesse os vídeos Exemplo 1 2 3 2
do processo de Gram-Sch-
midt e Exemplo de Gram-
d
 v3  v2 ' 
-Schmidt com três vetores
de base, da plataforma da v2'  v2'
Khan Academy disponí-
Logo, teremos:
veis, repectivamente, em:

https://pt.khanacademy.org/math/
v3'  v3 
v '
3  v2  v  v  v  v .
' 3
'
1 '
linear-algebra/alternate-bases/ 2 1
v2'  v2' v1'  v1'
orthonormal-basis/v/linear-
algebra-gram-schmidt-process-
example. Acesso em: 24 abr. 2020.
Uma importante observação é a de que os coeficientes d e e já são
nossos conhecidos, pois são os mesmos coeficientes encontrados na
https://pt.khanacademy.org/math/
linear-algebra/alternate-bases/
Definição 6, portanto, são coeficientes de Fourier.
orthonormal-basis/v/linear-
Segundo Boldrini et al. (1986, p. 232), é possível prolongar o algo-
algebra-gram-schmidt-example-
with-3-basis-vectors. Acesso em: ritmo para encontrarmos uma base ortogonal β’, a partir de uma base
24 abr. 2020.
qualquer β, com dimensão finita. Para isso, podemos escrever:

122 Álgebra Linear


v '  v
 1 1

v2'  v2 
v  v  v
2
'
1 '
1
 v1'  v1'

 ' v '
3  v2  v  v  v  v
' 3
'
1 '
v3  v3  2 1
 v2'  v2' v1'  v1'

v '  v  v '
n  v n 1 v ' v  v  v
n
'
1 '
n 1  ... 
 n

n
 vn' 1  vn' 1  v1'  v1'
1


Com isso, temos um algoritmo que nos permite transformar uma
base de um espaço vetorial em uma base ortogonal para esse espaço.
O processo de normalização de vetores já foi visto nas seções ante-
riores, portanto, se queremos uma base ortonormal, basta calcular os
versores desses vetores da base β’, assim obteremos uma base orto-
normal para o espaço em questão.

5.4 Transformações que preservam


Vídeo produtos internos
Uma transformação linear que preserva o produto interno é cha-
mada de transformação ortogonal. Quando temos um conjunto de
transformações lineares que leva elementos de um espaço U para um
espaço V, denotamos por T   U , V  . Já quando uma transformação
linear leva elementos de um espaço vetorial V no próprio espaço veto-
rial V, T : V → V , ela é chamada de operador linear e denotaremos por
T   V  .
Podemos relacionar algumas transformações lineares e operadores
lineares a conceitos como distância e ângulos entre vetores. Dessa forma,
temos também uma ligação desses operadores com o produto interno.

5.4.1 Isometria
Definição 8
Seja V um espaço vetorial de dimensão finita com produto interno. Se um operador
linear é tal que T  u     u ,uV , então esse operador é denominado orto-
gonal sobre V, ou simplesmente chamado de isometria.

Espaço com produto interno 123


Callioli, Domingues e Costa (2003, p. 177) trazem uma nota impor-
Atenção
tante sobre esse tema:
O símbolo ∀ é lido como:
“para todo”. Uma isometria é um operador linear de um espaço euclidiano
que conserva as normas dos vetores. Como nos espaços 2 e
3, quando o produto interno considerado é o usual, a norma
de um vetor nada mais é do que o comprimento desse vetor (ou
módulo), no sentido geométrico intuitivo, podemos dizer que
nesses casos uma isometria é um operador linear que conserva
os comprimentos dos vetores do espaço.

Teorema 2
Vídeo Em um espaço vetorial euclidiano com dimensão finita, a matriz de
Quando tratamos de um operador representando uma isometria tem determinante ±1.
operadores, automati-
camente estamos tra- Demonstração
tando de uma matriz de
transformação. Entender Se o determinante do operador for diferente de ±1, ele modifica a
como se comportam as
norma de vetores e, portanto, muda a distância da origem até o vetor.
matrizes ortogonais é
de extrema importância ■
para a compreensão
desse conceito. Por isso, Facilmente nota-se que uma isometria com determinante positivo é
sugerimos que assista ao uma rotação própria. Já uma isometria com determinante negativo é
vídeo As matrizes ortogo-
nais preservam ângulos e uma rotação imprópria, ou seja, uma rotação que muda a orientação
comprimentos. de um conjunto de vetores. Rotações, reflexões e translações são iso-
Disponível em: https:// metrias, pois preservam as distâncias entre os vetores.
pt.khanacademy.org/math/
linear-algebra/alternate-bases/ Uma propriedade que se destaca em um operador ortogonal é a de
orthonormal-basis/v/lin-alg-
orthogonal-matrices-preserve- que, seja T   V , então:
angles-and-lengths? 1 t
v=yDwIfYjKEeo. Acesso em: 4 T   T 
maio 2020.
que é facilmente verificada, pois se:
 T u   u  ,u  V ,

então:
Atividade 3 T u   T u   u  u .

Seja V um espaço vetorial de Portanto,


dimensão finita com produto t t
interno, e T :V → V uma T u   T u    u  u 
   
isometria. Podemos dizer que,
nesse caso, temos um isomorfis- mas

 
t t t t
mo? Explique. T u   T u    T  u  T  u   u  T  T  u 
   

124 Álgebra Linear


Assim:
t t t t
u  u   u  T  T  u   T  T   I ,

que nos permite concluir que:


t 1
T   T  .

Teorema 3

Um operador ortogonal T   V  preserva ângulos.

Demonstração

Seja u, v ∈ V . Assim, T u   T  v   u  v .

Para calcular o ângulo entre T (u) e T (v), fazemos:


T u   T  v  uv u v
cos T     cos 
 T u   T  v   T u   T u   T  v   T  v  u u  v v

Percebemos que os operadores ortogonais ou isometrias são apli-
cados quando necessitamos garantir que as distâncias e os ângulos
entre os vetores que compõem um espaço vetorial sejam preservados.
Na sequência, veremos um outro tipo de operador, chamado de au-
toadjunto, mas que tem relação com um operador ortogonal.

5.4.2 Operador autoadjunto


Teorema 4

Seja V um espaço vetorial com produto interno. A adjunta de V deve


ser um operador linear T *   V  , tal que, para v , w ∈ V quaisquer,
tenhamos:
T w   v   w  T * v 
O operador T* é chamado de operador adjunto de T . Assim, a ima-
gem T  v   W de um vetor arbitrário v ∈ V é, por definição, um vetor
*

de W, tal que o produto interno de qualquer vetor w ∈ W por ele é igual


 
a T w   v (LIMA, 2003).

A partir desse conceito, ainda podemos concluir que T *  v  v   e


T *  v   T *  v '  são vetores em W, cujos produtos internos por qualquer
vetor w ∈ W são iguais. Sendo assim, temos que T *  v  v    T *  v   T *  v ' .

Espaço com produto interno 125


Definição 9
Seja V um espaço vetorial (real) de dimensão finita com produto interno. Seja β uma
base ortonormal de V. Um operador linear T V  é dito autoadjunto quando a

   T 
matriz T 
 t * 

, ou seja, é uma matriz simétrica.

Portanto, temos um operador ortogonal quando:


 
T *  T    T   T *   I ,
       
 
ou seja, temos um operador ortogonal quando T *   ( T   )1.
 
Os operadores autoadjuntos trazem uma importante vantagem
quando trabalhamos com autovalores e autovetores, pois quando te-

mos uma matriz simétrica, por exemplo, T   , quaisquer dois auto-
vetores, diretamente relacionados aos seus autovalores distintos de T,
serão ortogonais entre si.

CONSIDERAÇÕES FINAIS
Espaços com produto interno são muito comuns em aplicações da físi-
ca e da engenharia. Além disso, são uma ponte entre a álgebra e a geome-
tria euclidiana, pois conseguimos utilizar os conceitos da geometria para
interpretar os conceitos da álgebra linear.
Transformações que preservam o produto interno também têm re-
lação direta com autovalores e autovetores. Esse conceito vai um pouco
além do que estudamos neste capítulo, mas já pode ser percebido em al-
guns trechos do texto, como no caso em que relacionamos os autovalores
às matrizes simétricas.
Além disso, a possibilidade de ortonormalizar uma base de um espa-
ço vetorial faz com que possamos usar todas essas propriedades, que
facilitam algumas interpretações sobre o espaço e suas relações com
outros espaços.
Sugerimos que todos os vídeos indicados neste livro sejam assistidos
e as atividades de leitura sejam realizadas para complementar seu conhe-
cimento sobre o assunto. Bons estudos!

126 Álgebra Linear


REFERÊNCIAS
ANTON, H. A., RORRES, C. Álgebra linear com aplicações. 10. ed. Porto Alegre: Bookman,
2012.
BOLDRINI, J. L. et al. Álgebra linear. 3. ed. São Paulo: Harbra, 1986.
CALLIOLI, C. A.; DOMINGUES, H. H; COSTA, R. C. F. Álgebra linear e aplicações. 6. ed. São
Paulo: Atual, 2003.
HALLACK, A. A. Álgebra linear. 2017. Disponível em: http://www.ufjf.br/andre_hallack/
files/2018/04/linear17.pdf. Acesso em: 4 maio 2020.
LEON, S. J. Álgebra linear com aplicações. 9. ed. Rio de Janeiro: L, 2019.
LIMA, E. L. Álgebra linear. 7. ed. Rio de Janeiro: IMPA, 2003.
PELLEGRINI, J. C. Álgebra linear. 2016. Disponível em: https://www.ime.unicamp.br/~deleo/
MA327/ld4.pdf. Acesso em: 4 maio 2020.
ZANI, S. L. Álgebra linear. São Carlos: Departamento de Matemática/ICMC/USP, 2010.
Disponível em: https://sites.icmc.usp.br/szani/alglin.pdf. Acesso em: 4 maio 2020.

GABARITO
1. Assim como foi realizado em outros exemplos, para que possamos con-
ferir se o espaço das matrizes quadradas com produto interno dado por
 i 1  j 1 aij bij  tr  At B  é verificado, precisamos analisar as propriedades
n n
Anxn  Bnxn 
de comutatividade, associatividade, distributividade e positividade.

• Comutatividade ou simetria:
n n n n
 
tr B t A  A.B  aij bij  bijaij  B .A  tr  At B 
i 1 j 1 j 1 i 1
t t
Portanto, temos que: tr A B  tr B A .    
Ainda poderíamos mostrar que tr  AB   tr  BA  , para matrizes quadradas de mesma
dimensão.

• Associatividade em relação à multiplicação por um escalar k:


 n n   n n 
    k  A  B   k  a b    k.a b   tr kB A)
k tr B t A ij ij ij ij
t

 i 1 j 1   i 1 j 1 

• Distributividade em relação à adição de vetores:


 b  c11 ... b 1n  c 1n  
  11 
tr ( At ( B  C ))  A( B  C )  A       
 
 bn1  cn1 ... bnn  cnn  
 

n n
 aij ( bij  cij )
i 1 j 1

n n n n n n
 aij bij  aijcij  aij bij  aijcij  A  B  A  C
i 1 j 1 i 1 j 1 i 1 j 1

 tr ( At B )  tr ( AtC )

Espaço com produto interno 127


• Positividade: u  u  0 se u ≠ 0
n n
tr ( At A)  A  A    (ai j )2  tr ( AAt )  0
I 1 j 1

2. Quando temos um conjunto de vetores que não está normalizado, não podemos usá-
-lo como padrão referencial em aplicações do mundo físico, por exemplo. Ao norma-
lizá-lo, conseguimos usar os resultados como padrões aceitáveis e que podem ser
manipulados, sem perder propriedades importantes e informações sobre o espaço
vetorial que ele representa.

3. Uma transformação linear que preserva o produto interno é necessariamente inje-


tora, pois, seja v ∈ V , então  T  v   T  v   T  v    v  v    v  . Portanto, T  v   0 implica
v = 0 , logo, T é injetora.

Ainda, se V e W são dois espaços vetoriais de dimensão finita com produto interno,
tais que dim V = dimW e T   V ,W  , então Im T   W , logo, T é sobrejetora. Portanto,
T é um isomorfismo.

Um isomorfismo entre espaços com produto interno é um isomorfismo que preserva


o produto interno.

128 Álgebra Linear


6
Operadores sobre espaços
com produto interno
Neste capítulo, trataremos de tipos especiais de operadores
lineares, os quais, além de possuírem propriedades bastante in-
teressantes no contexto matemático, têm aplicações nas mais di-
versas áreas, como mecânica quântica, dinâmica de corpos rígidos,
desenho computacional 3D, entre outras.
Além disso, trataremos de um importante teorema da álgebra
linear, que se conecta com a geometria analítica, com o cálculo
para uma função de uma ou mais variáveis e, também, pode ser
aplicado em diversos problemas da engenharia. Esse teorema é
conhecido como teorema espectral. Para entendê-lo, precisamos
dominar conceitos como espaços vetoriais, transformações lineares,
autovalores e autovetores, espaços com produto interno, isometria,
entre outros a esses vinculados.
Portanto, se você tem dúvidas a respeito de algum desses te-
mas, sugerimos que releia os assuntos anteriormente elencados, a
fim de compreender e manipular estruturas como as que veremos
neste capítulo.

Operadores sobre espaços com produto interno 129


6.1 Operador autoadjunto e ortogonal
Iniciaremos esta seção com uma figura que tem como base os con-
Vídeo
ceitos que veremos na sequência.
Figura 1
Autovetores do átomo de hidrogênio Hamiltoniano

Wikimedia Commons
Quando abordamos o operador linear, consequentemente, estamos
tratando das matrizes de transformação. Por isso, as propriedades ma-
triciais são de extrema importância para que entendamos os conceitos
apresentados neste capítulo. Relembraremos alguns conceitos impor-
tantes para a compreensão das matrizes ortogonais e das isometrias.

Definição 1
Se A é uma matriz quadrada, e At sua transposta, então:
• se A = At, dizemos que A é simétrica;
• se AAt = At · A = I, dizemos que A é ortogonal.

Quando fazemos uma analogia entre esse conceito e as matrizes


de transformação linear para um operador linear T ∈ L (V), podemos
escrever a Definição 2.

130 Álgebra Linear


Definição 2
• Seja [T ] uma matriz de transformação para o operador linear T є L (V ), e [T ]t
sua transposta, então:
• se [T ] = [T ]t, dizemos que [T ] é simétrica;
• se [T ] [T ]t = [T ]t · [T ] = I, então [T ]t = [T ]-1, logo, a matriz de transforma-
ção transposta é também a matriz inversa de [T ].

Exemplo 1

Seja [T] uma matriz de rotação dada por:

 cos  sin 
T    
  sin cos  

Então:
t
cos   sin   cos  sin  cos   sin 
    
 sin  cos     sin cos    sin cos  

sendo que o ângulo α é o ângulo de rotação definido pela transpos-


ta, tal que:

cos θ = cos α e sin θ = – sin α

Para verificar essa propriedade, basta multiplicar

t
cos   sin   cos  sin   1 0 
    
 sin cos     sin cos   0 1
Portanto, a matriz de rotação [T] comuta com sua transposta.
Esse tipo de operador é chamado de normal.

Definição 3
Um operador normal é aquele que comuta com sua transposta.

A figura a seguir é uma representação visual da relação entre


as matrizes simétricas, invertíveis e ortogonais, que facilita nossa
compreensão.

Operadores sobre espaços com produto interno 131


Figura 2
Relação entre as matrizes simétricas, invertíveis e ortogonais.

MI

MO

MS M = matrizes

MI = matrizes invertíveis

MO = matrizes ortogonais

MS = matrizes simétricas

Fonte: Elaborada pela autora com base em Boldrini et al., 1986, p. 255.

Observamos, na Figura 2, que há uma intersecção entre as matrizes


ortogonais e as matrizes simétricas. Essa intersecção ficará bastante
evidente quando tratarmos do teorema espectral.

6.1.1 Operador autoadjunto


Como tratar operadores com matrizes de transformação simétri-
cas? Para isso, é necessário retomar o conceito de matriz adjunta.

De acordo com Lima (2003, p. 133, grifos nossos),


o produto interno nos permite associar a cada transformação li-
near [T : U → V] uma nova transformação [T* : V → U], chamada a
adjunta de [T]. [...] A adjunta nos dá, por assim dizer, uma visão da
transformação [T] sob um novo ângulo. Essa mudança de ponto
de vista é reveladora, especialmente quando ocorre a existência
de relações entre [T] e [T*].

Definição 4
Seja V um espaço vetorial (real) de dimensão finita com produto interno. Seja β uma
base ortonormal de V. Um operador linear T є L (V) é dito autoadjunto quando sua
 
 t 
matriz é T   T *  , ou seja, uma matriz simétrica.
 

132 Álgebra Linear


Em outras palavras, também podemos dizer que um operador li-
near T ∈ L (V), munido de produto interno, é chamado de autoadjunto,
desde que:

T (u) · v = u · T (v)

para quaisquer u, v ∈ V.

Um resultado imediato de um operador autoadjunto aparece


quando procuramos os autovalores e autovetores para esse tipo de
operador.

Teorema 1

Se temos um operador linear autoadjunto T ∈ L (V), tal que λ1, …, λ2


são autovalores (dois a dois) diferentes para T, então os autovetores,
respectivamente relacionados aos autovalores, v1, …, vn, são (dois a
dois) ortogonais (resultado válido para i ≠ j).

Esse teorema se estende para um segundo teorema que relaciona


os autovalores e os operadores autoadjuntos.

Teorema 2

Seja T ∈ L (V) um operador autoadjunto em um espaço vetorial bidi-


mensional, com produto interno. Nessas condições, dizemos que existe
uma base ortonormal β = {u1, u2} de V, tal que u1 e u2 são autovetores de T.

Demonstração

Seja {v1, v2} uma base ortonormal qualquer V. De acordo com a Defi-
nição 4, temos que, se V é um espaço vetorial (real) de dimensão finita
com produto interno, e β é uma base ortonormal de V, então um opera-
t 
dor linear T ∈ L (V) é dito autoadjunto quando há matriz  T     T *  ,
       
ou seja, é uma matriz simétrica. Isso nos permite escrever:

T (v1) = a1v1 + a2v2

T (v2) = a2v1 + a3v2

Conforme os conceitos de autovalores e autovetores, e polinômio


característico, os autovalores de T são obtidos encontrando as raízes
reais do polinômio característico P      2   a1  a3    a1a3  a22 (LIMA,
2003).
2
  2
Analisando o discriminante   b2  4ac   a1  a3   4  1 a1a3  a22   a1  a3   4a22  0
2
 
 4  1 a1a3  a22  2
  a1  a3   4a22  0, precisamos verificar os dois casos: Δ = 0 e Δ > 0. As-
sim, para:

Operadores sobre espaços com produto interno 133


•• Δ = 0, temos: a2 = 0, a1 = 0 e T = a1 I, e com isso dizemos que todo
Vídeo
vetor não nulo em T é um autovetor;
Para relembrar os
conceitos de autovalores •• Δ > 0, temos que o trinômio p (λ) terá duas raízes reais e dis-
e autovetores, sugerimos tintas. Portanto, os operadores T – λ1I e T – λ2I não são in-
que assista ao vídeo
Demonstração de fórmula
vertíveis, logo, existem vetores não nulos u1, u2 є V, tais que
para determinação de (T – λ1I)u1 = 0 e (T – λ2I)u2 = 0.
autovalores, publicado
pela plataforma Khan Novamente, usando a teoria de autovalores e autovetores, pode-
Academy.
mos escrever que T (u1) = λ1u1 e T (u2) = λ2u2. E, pelo Teorema 1, a base
Disponível em: https://pt.khana-
cademy.org/math/linear-algebra/
β = {u1, u2} é ortonormal de autovetores de T. ■
alternate-bases/eigen-everythin-
O Teorema 2 pode ser estendido ainda para espaços de dimensão finita.
g/v/linear-algebra-proof-of-for-
mula-for-determining-eigenvalues.
Teorema 3
Acesso em: 4 maio 2020.
Seja T ∈ L (V) um operador autoadjunto em um espaço euclidiano de
dimensão finita. Nessas condições, dizemos que existe uma base orto-
Leitura
normal β = {u1, u2, …, un} de V, tal que u1, u2, …, un são autovetores de T.
Caso você se interesse por Nesse caso, o operador autoadjunto é diagonalizável.
mecânica quântica, sugerimos
algumas leituras: Dessa forma, conseguimos fazer uma relação que será útil quando
• ÉBOLI, O. J. P.; PEREZ, F. definirmos o teorema espectral entre o conceito de operador autoad-
Mecânica Quântica e Álgebra
linear. In: ÉBOLI, O. J. P.; junto e autovalores e autovetores.
PEREZ, F. Elementos de Teoria Veremos agora como fazer essa relação para os operadores ortogonais.
da Probabilidade. São Paulo:
Instituto de Física/USP, 2004
Disponível em: http://fma.
if.usp.br/~eboli/quantica/
6.1.2 Isometrias
cap5_v6.pdf. Acesso em: 4 Na seção anterior, estudamos os operadores autoadjuntos que são
maio 2020.
importantes não só na matemática, mas também em aplicações da físi-
• AMARAL, B.; BARAVIERA, A.
T.; CUNHA, M. O. T. Mecânica ca, especialmente na física quântica.
quântica para matemáticos
em formação. Rio de Janeiro: Nesta seção, veremos os operadores ortogonais. Iniciaremos com
IMPA, 2011. Disponível em: um teorema que nos ajudará a entender a relação entre bases ortonor-
https://impa.br/wp-con- mais e matrizes de mudança de base.
tent/uploads/2017/04/
28CBM_12.pdf. Acesso em: 4 Teorema 4
maio 2020.
• BARAVIERA, A. T. Introdução a
Seja um operador linear T ∈ L (V), com β = {u1, …, un} e α = {v1, …, vn}
mecânica quântica. Porto Ale- bases ortonormais de U. Esse operador é dito ortogonal se, e somente
gre: Instituto de Matemática/ se, sua matriz de mudança de base for composta por colunas (ou li-
UFRGS, 2010. Disponível em:
http://emis.impa.br/EMIS/ nhas) de vetores ortonormais.
journals/em/docs/coloquios/
SU-1.02.pdf. Acesso em: 4
maio 2020.

134 Álgebra Linear


Demonstração


Vamos supor que o operador é ortogonal, logo, a matriz mudança
de base é formada por vetores ortogonais, tais que:

a11  an1  a11  a1n 


     
( T  )t . T        .      
 
a  a  a  a 
 1n nn   n1 nn 
 a2   a2 a a a   1  0
11 n1  11 1n   n1ann
   
         
  0  1
a1na11   annan1  a12n   ann
2
  

 t  1
pois ( T   )  ( T   ) .
2 2
Analisando a11   an1  1 , temos que a igualdade é verdadeira,
desde que a11 + ⋯ + a1n seja unitário.

Mas como β = {u1, …, un} é uma base de U, e podemos escrever seus



vetores em relação à matriz mudança de base T   da forma:

u1  a11v1   an1vn

un  a1nv1   annvn

temos que tanto β quanto α são ortonormais.


Agora precisamos mostrar que, se β = {u1, …, un} e α = {v1, …, vn} são

a11  a1n 
  
T  
bases ortonormais para U, e         a matriz mudança de
a  a 
 n1 nn 

base, então a matriz T  é uma matriz ortogonal.

Como α é uma base de U, podemos escrever os vetores da base da
seguinte maneira:

u1  a11v1   an1vn

un  a1nv1   annvn

Operadores sobre espaços com produto interno 135


Mas β é ortonormal, logo, seus vetores são unitários. Assim, o pro-
duto interno (dois a dois) dos vetores de α é igual a 1. Além disso, α
2
também é ortonormal, logo, 1  a11   an21 . Isso nos mostra que cada

vetor coluna de T  é unitário. 

Ainda precisamos mostrar que os vetores que compõem T  
são ortogonais.

Como os vetores de β são ortogonais, o produto interno (dois a dois)


desses vetores para i ≠ j deve ser:

ui · uj = a1i a1j + ⋯ + ani anj

 a1i  a1j 
Portanto, as colunas    e    são ortogonais para todo i ≠ j,
 
a  a 
 ni   nj 

e a matriz T  é ortogonal. Dessa forma, podemos escrever:

   
( T  )t  ( T  )1 e, t
consequentemente, ( T  )  T   . ■
 

Portanto, concluímos que todo operador ortogonal é também um


operador normal.

Quando tratamos de isometria, abordamos, também, operadores


que preservam o produto interno. Sendo assim, boa parte do que es-
crevemos até o momento são isometrias.

Definição 5
Seja V um espaço vetorial euclidiano de dimensão n e sejam u, v є V. Se um opera-
dor linear T є L (V) é tal que:
T  u    u ,uV

então esse operador é denominado ortogonal sobre V, ou simplesmente chamado


Curiosidade de isometria.
Nosso campo de estudo é o
corpo k = ℝ, mas, caso você se
interesse por conhecer resultados Escrever:
para o corpo dos números  T u     u , u  V
complexos, pesquise por termos
como matriz hermitiana. Alguns é equivalente a dizer que (ZANI, 2010):
autores citados nesta obra
apresentam a teoria para k = C, •• T (u) · T (v) = u · v
entre eles, Steven J. Leon (2019)
e Elon Lages Lima (2003). •• ‖T (u) – T (v) ‖ = ‖u – v‖, ∀ u, v є U
•• Se {u1, …, un} ⊂ U é ortonormal, então {T (u1), …, T (un)} é ortonormal.

136 Álgebra Linear


Callioli, Domingues e Costa (2003, p. 177) trazem uma nota impor- Vídeo
tante sobre esse tema: No vídeo O teorema espec-
tral, do canal Felipe Acker,
Uma isometria é um operador linear de um espaço euclidiano o professor demonstra
que conserva as normas dos vetores. Como nos espaços ℝ2 e ℝ3, esse importante teorema
da álgebra linear.
quando o produto interno considerado é o usual, a norma de um
vetor nada mais é do que o comprimento desse vetor (ou módu- Disponível em: https://www.
youtube.com/watch?v=i32SteaHg-
lo), no sentido geométrico intuitivo, podemos dizer que nesses Cg. Acesso em: 4 maio 2020.
casos uma isometria é um operador linear que conserva os com-
primentos dos vetores do espaço.
Leitura
Alguns resultados precisam ser elencados e partem dessa defini-
ção, de modo que possamos usar as isometrias como base matemática Uma aplicação importante do
teorema espectral pode ser
para as próximas sessões. Entre eles, temos: encontrada na classificação de
cônicas. Caso você tenha curio-
Corolário 1
sidade com relação a esse tipo
Se T є L (V) é um operador linear, tal que ‖T (u)‖ = ‖u‖, ∀ u є V, então de aplicação, sugerimos a leitura
das seguintes dissertações:
T é injetora.
• PERES, E. dos S. Classificação
Demonstração de cônicas e quádricas em
  função da equação algébrica.
Fazendo T u   0, teremos ‖T (u)‖ = ‖u‖ = 0 e, portanto, u = 0 . Logo, Disponível em: http://www2.
T é injetora. ■ unirio.br/unirio/ccet/profmat/
tcc/TCCPROFMATUNIRIOE-
Após esses conceitos, chamamos a atenção para duas definições DUARDOPERES.pdf. Acesso
que precisam estar bem esclarecidas até este ponto. em: 4 maio 2020.
• SANTOS, T. da S. Reco-
nhecimento de cônicas e
Definição 6 interpretação geométrica de
sistemas lineares. Disponível
Seja U um espaço vetorial de dimensão finita com produto interno, β uma base de em: https://sca.profmat-sbm.

U, e T є L (V) um operador linear. Então, T é uma isometria se T  é uma matriz org.br/sca_v2/get_tcc3.
php?id=171052034. Acesso
ortogonal.
em: 4 maio 2020.

Da mesma forma, podemos resumir o conceito de operador


Atividade 1
autoadjunto.
No contexto dos operadores
autoadjuntos, vamos supor T um
Definição 7 operador bidimensional com
essa característica, ou seja, a
Seja U um espaço vetorial de dimensão finita com produto interno, β uma base de dimensão de T é igual a 2. Sa-

U, e T є L (V) um operador linear. Então, T* é um operador autoadjunto se T  bemos que podemos encontrar
dois autovalores associados a
é uma matriz simétrica. dois autovetores para esse ope-
rador. Seriam esses autovetores
ortogonais? Explique.

Operadores sobre espaços com produto interno 137


Essas duas definições serão essenciais para a construção e o enten-
dimento do teorema espectral. Na próxima seção, definiremos mais
algumas relações matriciais necessárias para essa construção.

6.2 Teorema espectral


Vídeo Desde o início deste capítulo, estamos afirmando que um dos
principais conceitos a serem trabalhados é uma versão do teorema
espectral. Quando dizemos “uma versão”, significa que podemos inter-
pretá-lo de diferentes maneiras, a depender se o espaço vetorial é real
ou complexo, ou mesmo do operador analisado.

Antes de anunciá-lo e demonstrá-lo, apresentaremos mais alguns


conceitos que ajudarão você a entendê-lo com exatidão. Por exemplo,
se T ∈ L (V) é um operador diagonalizável, existe uma base de V formada
por autovetores de T.

Outro fator importante que precisa ser relembrado é que o po-


linômio característico pode ser escrito em função do Teorema de
Cayley-Hamilton para operadores reais (Teorema 5).

Teorema 5

Seja T ∈ L (V) um operador linear, com T ∈ Mnxn, e seja PT (λ) o poli-


nômio característico de T. Então, PT (T) = 0, em que 0 é a matriz nula de
Mnxn (LIMA, 2003).

Demonstração

Seja A ∈ Mnxn a matriz de T relativamente a uma certa base de V.


Então PA (A) = 0. Como PA (A) é a matriz do operador P (T) nessa base,
segue-se que PT (T ) = 0 (LIMA, 2003). ■

A partir desse ponto, já podemos enunciar o teorema espectral para


operadores autoadjuntos (Teorema 6).

Teorema 6

Seja T ∈ L (V) um operador autoadjunto no espaço euclidiano de di-


mensão finita. Então, existe uma base ortonormal β = {u1, …, un} de V

formada por autovetores de T, ou seja, T  é diagonal.

Como temos a intenção de vincular os resultados às possibilidades
matriciais, vamos agora enunciar e demonstrar o teorema espectral na
versão matricial.

138 Álgebra Linear


Teorema 7

Seja A є Mnxn (R) uma matriz simétrica. Então, existe uma ma-
triz ortogonal Q є Mnxn (R) e uma matriz diagonal D є Mnxn (R), tais que
Q–1AQ = QtAQ = D. Além disso, as colunas da matriz Q são os autovetores
de A, e os elementos da diagonal de D são os autovalores de A.

Demonstração

Como afirmamos que A є Mnxn (R) é uma matriz simétrica, então o


operador TA є L (V) é autoadjunto. De acordo com o Teorema 6, existe

uma base β ortonormal de V, tal que TA   D é diagonal.


Fazendo α como uma base canônica para V = Rn e P  I  , podemos
escrever:
Atividade 2
   
D  TA   I  TA  I   P 1AP Uma matriz simétrica A respeita
   
a propriedade:
Au . v = u ∙ Av para u, v є ℝn.
Mas α e β são bases ortonormais, logo, P é uma matriz ortogonal, o
Utilizando a transposição de
que nos permite escrever P–1 = Pt. ■ vetores, de que outra maneira
A disciplina de mecânica do contínuo, que forma a base conceitual podemos escrever uma proprie-
dade para A de modo que ela
da engenharia estrutural, traz o teorema espectral nos seus resulta- permaneça simétrica? Descreva
dos mais importantes, por exemplo, no trabalho de movimento de essa propriedade.
corpos rígidos.

6.3 Formas bilineares e quadráticas


Vídeo Formas lineares, bilineares e quadráticas são formas especiais de
transformações lineares e carregam boa parte da teoria desenvolvida
neste capítulo a respeito dos operadores ortogonais.

6.3.1 Formas bilineares


Uma forma linear é uma transformação linear que pode ser es-
crita como f : V → R. Já uma forma bilinear corresponde a funções
em que cada par de vetores é associado a um número de modo que,
fixado o primeiro vetor, a função é entendida como uma forma linear
em relação ao segundo vetor, sendo que o contrário também é válido.
Portanto, podemos definir uma função bilinear e associá-la às matrizes
e suas propriedades.

Operadores sobre espaços com produto interno 139


Definição 8
Seja V um espaço vetorial real com produto interno. Uma forma bilinear é uma trans-
formação dada por B : V × V → R, tal que (v, w) → B (v, w). Assim, as proprieda-
des aplicáveis para as transformações lineares são verificadas.
• Para todo w fixado, temos que B (v, w) é uma forma linear em v, isto é:
B (v1 + v2, w) = B (v1, w) + B (v2, w)
B (αv, w) = αB (v, w)
• Para todo v fixado, temos que B (v, w) é uma forma linear em w, isto é:
B (v, w1 + w2) = B (v, w1 ) + B (v, w2)
B (v, αw) = αB (v, w)
• B (v, w) = v . w.
Note que dizer que B é bilinear é consequência das propriedades de produto interno.

Sempre que relacionamos os conceitos da álgebra às matrizes, ga-


nhamos agilidade nos processos. Portanto, vamos tratar agora da ma-
triz de uma forma bilinear.

Definição 9
Suponhamos V um espaço vetorial de dimensão n, e B : V × V → R uma forma bi-

linear. Tomemos uma base β = {u1, ..., un} de V e associamos a B uma matriz  B  ,
chamada de matriz da forma bilinear B, na base B. Então, v   i 1ai ui V e
n

w   j 1b j u j V , logo:
n

 n n  n
 
B  v ,w   B  ai ui , b j u j   ai b j B ui ,v j 
 i 1  i , j 1
 j 1 
 B  u1 ,u1   B  u1 ,un    b1 
   v t B w
  a1an         
 B  un ,u1   B  un ,un    bn 

140 Álgebra Linear


Definição 10
Uma forma bilinear B : V × V→ R é simétrica se B (v, w) = B (w, v) ∀u, v є V. Nesse
caso, existirá uma base de V em relação a qual a matriz de B é diagonal.

O conceito de congruência entre matrizes nos auxilia na interpreta-


ção da mudança de base para formas bilineares. A seguir, vamos intro-
duzir esse conceito e algumas de suas propriedades.

6.3.1.1 Congruência de matrizes


Dois objetos [1] e [2] são ditos congruentes se existir uma isometria
T : Rn →Rn, tal que T ([1]) = [2]. Lembre-se de que matriz singular é aque-
la que tem determinante igual a zero. Logo, se temos uma matriz não
singular A, então det A ≠ 0.

Teorema 8

Duas matrizes simétricas [T] e [Q] є Mnxn são ditas congruentes se


existir uma matriz [U] є Mnxn, tal que [T] = [U]t [Q][U]. Se isso ocorre, en-
tão [T] > 0 ⇔ [Q] > 0.

Demonstração

Seja [Q] > 0, para todo vetor v ≠ 0, temos que vt [Q] v > 0. Definindo
u = [U]–1v, teremos:

vt [Q] v = ut [U]t [Q][U]u = ut [T] u > 0 para todo u ≠ 0. Logo, [T] > 0.

Duas matrizes [T] e [Q] congruentes, [T] ≈ [Q], respeitam as seguin-


tes propriedades:

[T] ≈ [T]

[T] ≈ [Q] ⇒ [Q] ≈ [T]

Essa relação pode ainda relacionar três matrizes [T], [Q] e [S] con-
gruentes da forma:

[T] ≈ [Q] e [Q] ≈ [S] ⇒ [T] ≈ [S]

Operadores sobre espaços com produto interno 141


6.3.1.2 Mudança de base para uma forma bilinear
Suponhamos V um espaço vetorial de dimensão n, B : V × V → R uma
forma bilinear, e β = {v1, …, vn} uma base de V. Uma matriz em relação
a essa base pode ser escrita como [Q]nxn = (aij), definida por B (vi, vj) = aij.
Vamos supor agora uma segunda base dada por α = {w1, …, wn} ⊂ V,
tal que B (wi, wj) = bij, com [T]nxn = (bij)· Queremos estabelecer uma re-
lação entre as matrizes [Q] e [T], envolvendo a matriz de mudança U
da primeira dessas bases para a segunda. Usaremos o Teorema 8 e,
portanto, consideremos os vetores v, w ∈ V referidos às bases β e α,
respectivamente. Escrevemos:

n n n n
v  i 1aivi   i 1biwi e w   i 1ai' vi  i 1bi'wi

Portanto, valem as seguintes relações:

 a1   b1   a1'  b 
       1
   P   ;     P 
a   b   a'   t
 n  n   n  bn 

que podemos resumir da forma:

A = PB e A’ = PB’ (1)

Assim:

 n n  n
B  v , w   B  ai vi , a'jv j  

     
ai B vi , v j a'j
 i 1 j 1  i , j 1

 n n  n
B  v , w   B  bi wi , b'jw j  

    bi B wi , w j b'j 
 i 1 j 1  i , j 1

Transformando esse resultado em forma matricial, escrevemos:

B (v, w) = At [Q]A’

B (v, w) = Bt [T]B’

142 Álgebra Linear


Por meio da Equação 1, obtemos:

Bt [T]B’ = B (v, w) = At [Q] A’ = ([U] B)t [Q] ([U] B’) = Bt ([U]t [Q] [U]) B’

Isso implica que [T] = [U]t [Q] [U] para quaisquer que sejam v e w de V.

De acordo com Callioli, Domingues e Costa (2003, p. 227): “segue


disso que a matriz de B em relação a uma certa base será inversível
se, e somente se, todas as possíveis representações matriciais de B
forem inversíveis”.

Portanto, temos as formas bilineares bem definidas e as proprie-


dades matriciais relacionadas, assim como a mudança de base. Na
sequência, continuaremos usando as formas bilineares relacionadas
às quadráticas.

6.3.2 Formas quadráticas


Como sugerimos ao final da subseção anterior, as formas bilineares
estão diretamente ligadas às quadráticas. Vamos entender essa rela-
ção e suas propriedades.

Definição 11
Suponhamos V um espaço vetorial real de dimensão n, e B : V × V → R uma forma
bilinear simétrica. Chamamos a função Q : V → R, definida por Q (v) = B (v, v), com
v є V de forma quadrática associada a B.

Um exemplo clássico de uma forma quadrática pode ser apresenta- Atividade 3


do pelo produto interno usual de ℝn, quando escrevemos: Seja uma forma bilinear simétri-
ca dada por:
Q  x1, , xn   x12   xn2
B (u, v) = x1 y1 + 2x2 y2 + 3x3 y3
+ x1 y2 + x2 y1
Matricialmente, também podemos fazer uma relação entre a forma
em que u, v є ℝ3, com
quadrática e uma base β de V escrevendo: u = (x1, x2, x3) e v = (y1, y2, y3).
t  Descreva a matriz de B que
Q  v   v  B  v  representa essa aplicação e a sua
  
 forma quadrática associada.
com B  sendo uma matriz simétrica.

Dada uma forma bilinear simétrica, se Q é a forma quadrática asso-
ciada a B, podemos verificar que:

1 1
G v , w   Q  v  w   Q  v   Q w    Q  v  w   Q  v  w  
 
2 4 

Operadores sobre espaços com produto interno 143


para todo v, w є V X V. G é chamada de forma polar de Q, ou forma
polarizada.

Teorema 9 (Teorema espectral na versão para formas bilineares)

Suponhamos V um espaço vetorial euclidiano de dimensão n, e


B : V × V → R uma forma bilinear simétrica. Existe uma base ortonormal
Vídeo β = {u1, …, un} pertencente a V, tal que B (ui, uj) = 0 se i ≠ j.
Como sugestão de vídeo
para este tema, indica-
Dessa forma, conseguimos relacionar as formas bilineares e as
mos a aula do professor formas quadráticas de uma maneira muito simples. Percebemos,
Renan Lima intitulada
Motivação sobre o teorema
ainda, que a notação matricial nos auxilia na organização dos resul-
espectral e matrizes simé- tados e facilita os cálculos. Computacionalmente, também é inte-
tricas, publicada no canal
Matemática Universitária.
ressante essa maneira de escrever os conceitos, pois conseguimos
Como o próprio título representá-los facilmente em softwares on-line ou em linguagem de
sugere, o vídeo retoma
o conceito de teorema
programação.
espectral, mas agora
As formas quadráticas são funções de um espaço vetorial que apa-
sob o olhar das formas
quadráticas. recem em grande número em problemas de otimização (máximos e
Disponível em: https://www.youtu- mínimos), além dos problemas relacionados a superfícies quádricas.
be.com/watch?v=xmiKuUHw7C8.
Dessa forma, como sugerimos, conseguimos relacionar o teorema es-
Acesso em: 4 maio 2020.
pectral e esse tipo de função.

CONSIDERAÇÕES FINAIS
Concluímos os estudos desta obra com as formas quadráticas e algu-
mas possibilidades de aplicação, como as superfícies quádricas e proble-
mas de otimização. Algumas obras tratam especificamente desse tema,
então, caso você tenha curiosidade, procure pelo conteúdo formas bilinea-
res ou mesmo por formas quadráticas.
Ao longo deste livro, sugerimos vídeos e textos que complementam
não apenas a parte conceitual da álgebra linear, mas também apresen-
tam aplicações e outras interpretações interessantes sobre os mesmos
conceitos.
Destacamos sempre que conceitos anteriores que não tenham ficado
muito claros sejam revistos antes de iniciar o estudo de uma nova teoria.
Isso porque, na matemática, é necessário seguir uma linha de raciocínio
contínua, em que todos os conceitos se inter-relacionam, tornando-se in-
dispensáveis para posteriores abordagens.

144 Álgebra Linear


Sabemos que esses conceitos não são tão básicos, e é isso que os
torna interessantes, pois ampliam nossa visão sobre o mundo da álgebra
linear e da matemática como um todo. Esperamos que você tenha se inte-
ressado por essas áreas, de modo que os conceitos e as aplicações vistos
até aqui sejam aplicados a novas e diferentes situações.

REFERÊNCIAS
BOLDRINI, J. L. et al. Álgebra linear. 3. ed. São Paulo: Harbra, 1986.
CALLIOLI, C. A.; DOMINGUES, H. H.; COSTA, R. C. F. Álgebra linear e aplicações. 6. ed. São
Paulo: Atual, 2003.
LEON, S. J. Álgebra linear com aplicações. 9. ed. Rio de Janeiro: LTC, 2019.
LIMA, E. L. Álgebra linear. 7. ed. Rio de Janeiro: IMPA, 2003.
ZANI, S. L. Álgebra linear. São Carlos: Departamento de Matemática/ICMC/USP, 2010.
Disponível em: https://sites.icmc.usp.br/szani/alglin.pdf. Acesso em: 4 maio 2020.

GABARITO
1. Suponhamos que λ1 e λ2 são os autovalores de T. Assim, temos que v1 e v2 são os auto-
vetores associados. Como T é um operador autoadjunto, podemos escrever:

λ1 (v1 · v2) = (λ1v1 · v2) = (Tv1 · v2) = (v1 · Tv2) = (v1 · λ2v2) = λ2 (v1 · v2)

Logo, (λ1 – λ2) (v1 · v2) = 0.

Como λ1 – λ2 ≠ 0, temos que (v1 · v2) = 0, ou seja, v1 é ortogonal a v2.

2. Se adotamos a relação:

Au · v = u · Av para u, v є ℝn

como verdadeira para A simétrica e como queremos usar vetores transpostos, pode-
mos escrever:

vt · Au = ut . Av para u, v є ℝn

A definição de matriz simétrica para um operador linear independe do sistema de


coordenadas utilizado, mas depende diretamente do produto interno. Essa análise
pode ser observada no teorema espectral, em várias etapas da sua demonstração.

3. Como:

B (u, v) = x1 y1 + 2x2 y2 + 3x3 y3 + x1 y2 + x2 y1

podemos representar matricialmente respeitando a posição das coordenadas x1, x2


e x 3:
1 1 0 
1 2 0 
 
0 0 3

Já a forma quadrática Q (v) associada a B será dada por:

Q  v   x12  2 x22  3 x32  x1x2  x2 x1  x12  2 x22  3 x32  2 x1x2

Operadores sobre espaços com produto interno 145


ÁLGEBRA LINEAR

Marina Vargas
Marina Vargas

Código Logístico Fundação Biblioteca Nacional


ISBN 978-85-387-6618-6

59323 9 788538 766186

Você também pode gostar