Você está na página 1de 304

VARIÁVEIS

COMPLEXAS

Tiago Loyo Silveira


Álgebra e geometria dos
números complexos
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:

 Identificar a álgebra dos números complexos.


 Efetuar as operações algébricas dos números complexos.
 Definir a geometria dos números complexos.

Introdução
O advento da unidade imaginária i possibilitou não apenas a representação
algébrica de um número complexo, mas também a representação de
raízes negativas de uma forma geométrica. Com isso, mais aplicações
para os números complexos surgiram. Foi possível, por exemplo, que
polinômios de raízes não reais fossem representados no plano cartesiano.
A álgebra moderna também incorporou os números complexos para
representar vetores.
Neste capítulo, você verá mais sobre as características algébricas e
geométricas de um número complexo. Avançaremos em nossos estudos
pelas operações com os números complexos e as suas representações
geométricas.

Álgebra dos números complexos


Sejam m e n números reais, podemos escrever m e n na forma de pares orde-
nados (m, 0) e (n, 0). Observe que as operações abaixo entre os números reais
m e n são fechadas, ou seja, conservam o resultado no conjunto dos reais.

Igualdade:
(m, 0) = (n, 0) se, e somente se, m = n

Cap_2_Variaveis_Complexas.indd 1 01/03/2018 16:51:33


2 Álgebra e geometria dos números complexos

Adição:
(m, 0) + (n, 0) + (m + n, 0 + 0) = (m + n, 0)

Multiplicação:
(m, 0).(n, 0) = (m.n – 0.0, m.0 + 0.n) = (m.n, 0)

Nas operações descritas acima, todas as coordenadas y nos pares ordenados


são iguais a zero. Portanto, os números (m, 0) e (n, 0) podem ser representados
no eixo das abscissas, que é a reta real, ou seja, os números (m, 0) e (n, 0)
podem ser escritos simplesmente como m e n, respectivamente.
No entanto, se um par ordenado possui coordenada y ≠ 0, não pode ser
representado no eixo das abscissas. Portanto, na forma algébrica a + bi, onde
o coeficiente a representa a parte real, b a parte imaginária e i a unidade
imaginária, com b ≠ 0, esse número será um complexo.

Operações com números complexos

Potências da unidade imaginária


A definição do comportamento das potências de i comtempla as potências
dos complexos z = a + bi, uma vez que temos uma potência de um binômio,
no que se segue. Observe:

, já que todo número elevado a zero é igual a 1;


, já que todo número elevado a 1 é igual a si mesmo;
, já que por definição, ;
;
;
;
;
;
.

[...]
Sendo , de um modo geral, temos:

Cap_2_Variaveis_Complexas.indd 2 01/03/2018 16:51:34


Álgebra e geometria dos números complexos 3

Ou seja, as potências , sendo , são obtidas por meio dos restos da


divisão por 4, sendo possível apenas os resultados 1, i, -1, -i. Veja o exemplo
abaixo.

Qual é o resultado de ?
Solução:

Adição e subtração

Sejam os números complexos e . A adição e sub-


tração são feitas entre as partes reais e as partes imaginárias separadamente.
Dessa forma, temos:

Multiplicação

Sejam os números complexos e . O produto entre


números complexos atende a definição de produto entre pares ordenados.
Dessa forma, temos:

Outra maneira de realizar o produto é utilizando a propriedade distributiva


e as propriedades de potência da unidade imaginária. Assim, temos:

Cap_2_Variaveis_Complexas.indd 3 01/03/2018 16:51:34


4 Álgebra e geometria dos números complexos

Acompanhe o exemplo abaixo.

(4 – i).(3 + i) = (4.3 – (– 1).1) + (4.1 + (–1).3)i = (12 + 1) + (4 – 3)i = 13 + i

Divisão

Para definir a divisão dos complexos, antes precisamos definir o conjugado de


um número complexo. Seja um número complexo. Dizemos que
a − bi é o conjugado de . Representamos com . Os conjugados possuem
as propriedades a seguir.
O conjugado da soma é igual à soma dos conjugados:

O conjugado do produto é igual ao produto dos conjugados:

O produto de um número complexo pelo seu conjugado é um número real


não negativo.
,
que é um número real positivo.
O produto de um número complexo pelo seu conjugado é denominado
norma de um número complexo. Portanto, dizemos que um número complexo
z = a + bi foi normalizado, se ele foi escrito na forma:

Sejam dois números complexos e , sendo . Obter o quociente


da divisão de por significa encontrar um número complexo , tal que
. Dessa forma, escrevendo na sua forma algébrica, temos:

Veja o exemplo abaixo.

Cap_2_Variaveis_Complexas.indd 4 01/03/2018 16:51:34


Álgebra e geometria dos números complexos 5

Da igualdade de complexos, temos que:

Portanto, e .

Uma outra maneira de realizar a divisão de complexos e , sem precisar


do uso de sistemas, é multiplicar e pelo conjugado de . Considere
o exemplo abaixo.

Geometria dos números complexos


Dois eixos ordenados, centrados e perpendiculares na origem (0,0) definem o
plano cartesiano. De forma semelhante, definiremos um plano para representar
os números complexos. Para todos os fins, é similar ao plano cartesiano, mas
o eixo x será chamado de eixo real (Re) e vai representar a coordenada real
de um número complexo, e o eixo y será chamado de eixo imaginário (Im),
representando a coordenada imaginária de um número complexo.
O plano de representação dos números complexos é chamado de plano de
Argand-Gauss. Dessa forma, cada número complexo z = a + bi representa um
ponto P nesse plano. O plano de Argand-Gauss, ou plano complexo, também é
muito utilizado para representar vetores bidimensionais. O ponto P é chamado
de afixo do número complexo z.

Cap_2_Variaveis_Complexas.indd 5 01/03/2018 16:51:35


6 Álgebra e geometria dos números complexos

Figura 1. Plano de Argand-Gauss.

Módulo de um número complexo


A distância de um ponto P até a origem do plano é denominada módulo de um
número complexo. Representamos por ou pela letra grega (rô).
Sendo , o módulo de um número complexo é dado por:

Figura 2. Módulo de um número complexo.

Cap_2_Variaveis_Complexas.indd 6 01/03/2018 16:51:35


Álgebra e geometria dos números complexos 7

O módulo do número complexo z = 5 +12i será:

Figura 3. Módulo de um número complexo.

Argumento de um número complexo


Sendo o módulo de um número complexo a distância entre a origem e um
ponto P, então, se as coordenadas de P variam de forma que seja constante,
então teríamos uma circunferência centrada na origem. Dessa forma, um
número complexo pode ser representado ou parametrizado de acordo com
o ângulo formado entre e o eixo real. Essa abertura recebe o nome de
argumento de um número complexo, indicada por arg (z), com medida no
intervalo . O argumento terá sentido anti-horário com o seu
sentido positivo.

Cap_2_Variaveis_Complexas.indd 7 01/03/2018 16:51:36


8 Álgebra e geometria dos números complexos

Figura 4. Argumento de um número complexo.

Portanto, as coordenadas de um número complexo podem ser dadas em


função do arco .

Qual é o argumento do número complexo z = −1 + i?


Solução:
Temos que

Dessa forma, o arco com e é o arco de 135º ou .

Cap_2_Variaveis_Complexas.indd 8 01/03/2018 16:51:36


Álgebra e geometria dos números complexos 9

Forma trigonométrica de um número complexo


Como consequência do que vimos até aqui, os números complexos podem ser
apresentados, além da sua forma algébrica, em uma forma trigonométrica.
Das razões trigonométricas abaixo, temos que:

Aplicando as relações obtidas vindas do plano de Argand-Gauss na forma


algébrica z = a + bi, obtemos:

, com

A forma trigonométrica, também chamada de polar, possui aplicações


diversas, além de facilitar os cálculos de potências de números complexos.

Figura 5. Representação de uma circunferência de


raio |z|.

Cap_2_Variaveis_Complexas.indd 9 01/03/2018 16:51:37


10 Álgebra e geometria dos números complexos

Potenciação de um número complexo


Apesar de ser uma operação com número complexo, deixamos para descrevê-
-la somente agora, pois a forma trigonométrica nos facilitará sobremaneira
nesse processo.
Para elevar um número complexo z ≠ 0 a um expoente , escrevemos
z na sua forma trigonométrica. Elevamos o módulo ao expoente n, e os
argumentos serão multiplicados por n. Dessa forma, temos:

Essa fórmula é denominada 1ª Lei de De Moivre, em homenagem ao


matemático francês Abraham de Moivre. Se z = 0, então, qualquer que seja
n, teremos .

Moivre formulou ainda, fórmulas para o produto, quociente e para raízes, todas utili-
zando sua forma polar (MAPLI, 2018; FÓRMULA, 2017):

https://goo.gl/BB4aXi

https://goo.gl/zpq7ui

Veja mais sobre o plano complexo e as suas peculiaridades (PLANO, 2016):

https://goo.gl/nFThNv

Assista a uma aula sobre produto de números complexos (O MATEMÁTICO, 2014):

https://goo.gl/pMoN5g

Cap_2_Variaveis_Complexas.indd 10 01/03/2018 16:51:37


Álgebra e geometria dos números complexos 11

1. Para que (6 – 3i).(k + 6i) seja um b) .


número real, o valor de k deverá ser: c) .
a) k = 0. d) .
b) k= -12. e) .
c) k= 12. 4. Sendo , unidade
d) k = 18. imaginária do conjunto dos
e) k = -18. números complexos, qual o valor
2. Sendo i a unidade imaginária da expressão ?
do conjunto dos números
complexos, o valor da expressão a) 2i.
é: b) i.
a) 1024i. c) –2i.
b) 0. d) –i.
c) -512i. e) 0.
d) 512i. 5. Qual o argumento do número
e) -1024i. complexo ?
3. Observe o plano de Argand-Gauss
representado abaixo, onde A é afixo a) .
do número complexo z = a + bi.
Qual é a diferença entre z e ? b) .

c) .

d) .

e) .
a) .

Cap_2_Variaveis_Complexas.indd 11 01/03/2018 16:51:39


12 Álgebra e geometria dos números complexos

FÓRMULA DE DE MOIVRE. Wikipédia, Flórida, 2017. Disponível em: <https://pt.wikipedia.


org/wiki/F%C3%B3rmula_de_De_Moivre>. Acesso em: 21 fev. 2018.
MAPLI. Fórmulas de De Moivre. Matika, Jundiaí, 2018. Disponível em: <http://www.
matika.com.br/numeros-complexos/formulas-de-de-moivre>. Acesso em: 21 fev. 2018.
O MATEMÁTICO. Grings - Aula 5 - Produto de Números Complexos. YouTube, 2014.
Disponível em: <https://www.youtube.com/watch?v=ilNv7lVXpAY>. Acesso em: 21
fev. 2018.
PLANO COMPLEXO. Wikipédia, Flórida, 2016. Disponível em: <https://pt.wikipedia.
org/wiki/Plano_complexo>. Acesso em: 21 fev. 2018.

Leituras recomendadas
BARRETO FILHO, B.; SILVA, C. X. Matemática aula por aula: volume único. São Paulo:
FTD, 2005.
IEZZI, G. et al. Matemática: volume único. 6. ed. São Paulo: Atual, 2015.
RIGONATTO, M. Plano de Argand-Gauss. Brasil Escola, Goiânia, 2018. Disponível em:
<http://brasilescola.uol.com.br/matematica/plano-argand-gauss.htm>. Acesso em:
21 fev. 2018.

Cap_2_Variaveis_Complexas.indd 12 01/03/2018 16:51:39


Encerra aqui o trecho do livro disponibilizado para
esta Unidade de Aprendizagem. Na Biblioteca Virtual
da Instituição, você encontra a obra na íntegra.
Conteúdo:
ÁLGEBRA LINEAR

André Ricardo Rocha da Silva


Introdução ao estudo
das matrizes
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:

„„ Definir matriz e seus elementos, classificação e relacioná-la com tabelas


utilizadas no dia a dia.
„„ Realizar as operações de adição, subtração, produto por escalar, trans-
posição e multiplicação de matrizes.
„„ Resolver problemas aplicados envolvendo operações com matrizes.

Introdução
As matrizes são ferramentas matemáticas muito úteis para organizar e
processar informações. Por isso, elas estão frequentemente presentes
em várias áreas da ciência.
Neste capítulo, você aprenderá a construir e classificar uma matriz,
bem como manipulá-la algebricamente por meio das operações de
soma, subtração e multiplicação (entre um escalar e uma matriz e entre
matrizes). A partir disso, você aplicará esse conhecimento na resolução
de problemas cotidianos por meio de matrizes.

Definição e classificação de matrizes


Para que você desenvolva uma intuição inicial sobre matrizes, considere o
seguinte exemplo hipotético: você e uma amiga são agentes autônomos e atuam
em um escritório ofertando produtos financeiros a clientes que queiram investir
na formação de poupança. Os produtos financeiros são: fundos de renda fixa
(RF), fundos multimercado (M) e planos de previdência (P). Para o mês de
janeiro, você e sua amiga elaboraram um quadro com o quantitativo (Quadro 1)
que cada um ofertou desses produtos.
2 Introdução ao estudo das matrizes

Quadro 1. Quantidade de cada produto financeiro ofertado

RF M P

Você 14 10 12

Amiga 20 8 16

Os números apresentados nesse quadro podem ser representados como:

O arranjo acima corresponde a uma matriz, e cada número desse arranjo


é denominado de elemento da matriz. Cada linha representa o quanto de cada
produto financeiro você e sua amiga ofertaram — por exemplo, na segunda
linha, é visto que sua amiga ofertou 20 fundos de renda fixa, 8 fundos multi-
mercado e 16 planos de previdência. Já cada coluna representa o quanto você
e sua amiga ofertaram de cada tipo de produto financeiro — por exemplo, a
primeira coluna mostra que você ofertou 14 fundos de renda fixa, e sua amiga
ofertou 20 fundos desse mesmo tipo.
Dessa forma, uma matriz é simplesmente um agrupamento retangular de
números dispostos regularmente em linhas e colunas.
O tamanho de uma matriz é definido pelo número de linhas e colunas que
ela contém. Assim, uma matriz é dita ser do tipo m × n (leia-se m por n) quando
ela tem m linhas e n colunas. No exemplo anterior, a matriz que representa o
quantitativo de produtos financeiros ofertados por você e sua amiga no mês de
janeiro é do tipo 2 × 3 (m = 2 e n = 3). Consequentemente, pode-se desenvolver
uma classificação de diferentes tipos de matrizes baseada no tamanho delas.
Introdução ao estudo das matrizes 3

Matriz retangular
É aquela na qual o número de linhas e colunas é diferente, isto é, m ≠ n.
A matriz a seguir é retangular, pois é do tipo 2 × 3:

Outro exemplo desse tipo de matriz seria o seguinte, que é uma matriz
do tipo 3 × 2:

Matriz quadrada
É aquela que contém o mesmo número de linhas e colunas, isto é, m = n. Esse
é o caso de uma matriz do tipo 2 × 2:

Matriz coluna
É um caso particular de matriz retangular, composta por uma única coluna.
Por isso, é do tipo m × 1. O exemplo a seguir mostra uma matriz coluna do
tipo 3 × 1.

Uma matriz coluna pode representar as componentes de um vetor e, por isso, também
é conhecida por vetor coluna.
4 Introdução ao estudo das matrizes

Matriz linha
É outro caso particular de matriz retangular, pois é composta por uma única
linha e, por isso, do tipo 1 × n. O exemplo a seguir mostra uma matriz linha
do tipo 1 × 2.

[3 5]

Uma matriz linha também pode representar as componentes de um vetor e, por isso,
é conhecida por vetor linha.

Outra classificação importante de matrizes envolve os elementos da matriz.


Considere a matriz A dada por:

O elemento que aparece na intersecção da primeira linha, i = 1, com a


segunda coluna, j = 2, é o número 0. Assim, ele pode ser representado de
forma mais geral como a12 = 0. Dessa maneira, cada elemento da matriz é
representado por uma “coordenada de localização” na matriz dada por aij,
em que o índice i indica a linha, e o índice j indica a coluna em que se pode
localizar um determinado elemento da matriz.
Neste exemplo, os elementos da matriz são identificados como: a11 = 1,
a12 = 0, a21 = 6 e a22 = 4. Ou seja:

Para a matriz do tipo 2 × 3 dada por:


Introdução ao estudo das matrizes 5

os elementos da matriz são identificados como: a11 = –1, a12 = 4, a13 = 0,


a21 = 1, a22 = –2 e a23 = 3.

Matriz diagonal
Os elementos da diagonal principal de uma matriz são aqueles em que i = j,
ou seja, a11, a22, a33, etc.
Uma matriz quadrada em que os elementos fora da diagonal principal são
todos nulos, isto é aij = 0 para i ≠ j, é dita ser diagonal. No exemplo a seguir,
a matriz B é diagonal, pois os elementos b21 e b12 são nulos.

Matriz triangular
Há dois tipos de matriz triangular: a superior, em que os elementos abaixo da
diagonal principal são nulos, ou seja,

e a inferior, em que os elementos acima da diagonal principal são nulos,


ou seja,

Matriz escalar
É uma matriz diagonal em que todos os elementos são iguais.
6 Introdução ao estudo das matrizes

Matriz identidade
É um caso particular da matriz escalar, pois todos seus elementos da diagonal
principal são iguais à unidade, isto é, ajj = 1 para i = j. Uma notação convencional
para a matriz identidade é rotulá-la por I. A matriz identidade do tipo 3 × 3 é:

e a matriz identidade do tipo 2 × 2 é:

Matriz transposta
Dada uma matriz A:

do tipo 2 × 3, a matriz transposta de A, denotada por AT, é obtida pela


transposição entre a primeira linha e a primeira coluna, e entre a segunda
linha e a segunda coluna, resultando em uma matriz do tipo 3 × 2:

1 0 AT = 1 6
A matriz transposta de A = é .
6 4 0 4
2 –2 1 2 3 –3
A matriz transposta de B = 3 0 7 é BT = –2 0 4 .
–3 4 5 1 7 5
Introdução ao estudo das matrizes 7

Matriz simétrica
Uma matriz quadrada é simétrica quando AT = A, o que implica na seguinte
relação entre os elementos da matriz fora da diagonal principal: aij = aji. Por
exemplo, a matriz a seguir é simétrica, uma vez que a12 = a21 = 3.

Em contrapartida, uma matriz quadrada é antissimétrica se AT = –A. Por


exemplo, é antissimétrica, pois:

Matriz nula
É aquela matriz em que todos os elementos são nulos, isto é, aij = 0 para
qualquer valor de i e j.

Operações com matrizes


Depois de conhecidos os diferentes tipos de matrizes, você aprenderá como
efetuar algumas operações importantes com matrizes, tais como: adição,
subtração, multiplicação por um escalar e, finalmente, multiplicação entre
matrizes.

Igualdade
Duas matrizes são iguais quando elas têm o mesmo tamanho, e seus elementos
são todos iguais. Se as matrizes quadradas A e B do tipo 2 × 2 são iguais,
então aij = bij.
8 Introdução ao estudo das matrizes

b b12
Se a matriz quadrada B do tipo 2 × 2, dada por B = 11 , for igual à matriz
b21 b22
1 0 , então é verdadeiro que:
A=
6 4
b11 b12 1 0
=
b21 b22 6 4

implicando que b11 = 1, b12 = 0, b21 = 6 e b22 = 4.

1 2 x y
Se a matriz A = for igual à matriz C = , então:
0 1 0 1

1 2 x y
=
0 1 0 1

implicando que x = 1 e y = 2.

Adição
A operação de adição entre duas matrizes A e B de mesmo tamanho é realizada
por meio da soma direta dos elementos de cada matriz, que estão localizados
em uma mesma linha e uma mesma coluna, ou seja, aij + bij.

1 2 2 5
Dadas duas matrizes quadradas do tipo 2 × 2, A = eB= , então o resultado
3 4 3 3
da soma dessas duas matrizes, A + B, é:

1 2 2 5 3 7
A+B= + =
3 4 3 3 6 7

Observe que:
„„ a11 + b11 = 1 + 2 = 3
„„ a12 + b12 = 2 + 5 = 7
„„ a21 + b21 = 3 + 3 = 6
„„ a22 + b22 = 4 + 3 = 7
Introdução ao estudo das matrizes 9

A operação de adição tem duas propriedades importantes, descritas a seguir.

Propriedade comutativa

Dadas duas matrizes A e B, o resultado das somas A + B e B + A é igual.

A+B=B+A

Propriedade associativa

Dadas três matrizes A, B e C, o resultado da soma (A + B) com C é igual ao


da soma de A com B + C.

(A + B) + C = A + (B + C)

Subtração
A operação de subtração entre duas matrizes A e B de mesmo tamanho é
realizada por meio da subtração direta dos elementos de cada matriz, que
estão localizados em uma mesma linha e uma mesma coluna, ou seja, aij – bij.

4 8 2 5
Dadas duas matrizes quadradas do tipo 2 × 2, A = eB= , então o resultado
3 5 3 3
da subtração de A por B, A – B é:

4 8 2 5 2 3
A–B= – =
3 5 3 3 0 2

Observe que:
„„ a11 – b11 = 4 – 2 = 2
„„ a12 – b12 = 8 – 5 = 3
„„ a21 – b21 = 3 – 3 = 0
„„ a22 – b22 = 5 – 3 = 2
10 Introdução ao estudo das matrizes

A matriz resultante de operações de adição ou subtração terá sempre o mesmo


tamanho das matrizes que foram usadas nessas operações.

Multiplicação de uma matriz por um escalar


Um escalar é simplesmente um número puro (que também pode ser visto como
uma matriz 1 × 1). Então, a multiplicação de uma matriz A por um escalar c
qualquer implica que cada elemento da matriz será multiplicado pelo escalar,
c isto é, caij. Por exemplo, se c = 2, então:

Observe que, nesse processo de multiplicação, a matriz resultante tem o


mesmo tamanho da matriz original A.
A operação de multiplicação de uma matriz por um escalar apresenta
algumas propriedades, que são descritas a seguir.

„„ Dadas duas matrizes A e B e um escalar c, o resultado da multiplicação


do escalar pela soma das matrizes, c(A + B), é igual à soma das matrizes
já multiplicadas individualmente pelo escalar, cA + cB.

c(A + B) = cA + cB

„„ Dada uma matriz A e dois escalares c e d, o resultado da soma dos


escalares multiplicado pela matriz, (c + d)A, é igual à soma da matriz
multiplicada individualmente por cada um dos escalares, cA + dA.

(c + d)A = cA + dA

„„ Dada uma matriz A e dois escalares c e d, o resultado da multiplicação


de um escalar pela matriz já multiplicada pelo outro escalar, c(dA), é
igual ao produto dos escalares multiplicado pela matriz, (cd)A.

c(dA) = (cd)A
Introdução ao estudo das matrizes 11

Multiplicação entre matrizes


A multiplicação entre matrizes exigirá de você um pouco mais de atenção.
A única condição necessária para que se possa multiplicar duas matrizes, A e B,
é que o número de colunas da matriz A seja igual ao número de linhas da
matriz B. Assim, se a matriz A é do tipo m × n, e a matriz B é do tipo p × q,
então o produto AB entre as matrizes somente ocorre se n = p. Além disso,
o resultado final dessa multiplicação entre as matrizes A e B será uma nova
matriz do tipo m × q, ou seja, com o mesmo número de linhas da matriz A, mas
com o mesmo número de colunas da matriz B. Em particular, para o caso de
duas matrizes quadradas de mesmo tamanho, a matriz resultante do produto
entre elas será do mesmo tamanho que elas.
A existência dessa relação entre o número de colunas de uma matriz com
o número de linhas da outra decorre da necessidade de se envolver um mesmo
número de elementos para multiplicação entre as matrizes.
Considere o seguinte exemplo: uma matriz A do tipo 2 × 3, dada por:

e uma matriz B do tipo 3 × 1, dada por:

Como o número de colunas de A, que é 3, é igual ao número de linhas


de B, que também é 3, essa multiplicação é possível. Observe também que a
multiplicação de uma matriz do tipo 2 × 3 (A) por uma matriz do tipo 3 × 1 (B)
resulta em uma matriz do tipo 2 × 1 (AB).
Operacionalmente, a multiplicação ocorre da seguinte maneira: multiplica-
-se a primeira linha da matriz A pela coluna da matriz B, elemento por elemento
na ordem que estão dispostos — primeiro elemento da primeira linha de A,
1, com o primeiro elemento da coluna de B, 2, segundo elemento da primeira
linha de A, 1, com o segundo elemento da coluna de B, 3, e assim por diante —
somando-se os produtos individuais desses elementos, 1 ∙ 2 + 1 ∙ 3 + 2 ∙ 1 = 7,
cujo resultado será o primeiro elemento da matriz coluna resultante do pro-
duto entre A e B. Repete-se o mesmo procedimento para a segunda linha da
matriz A, multiplicando-a com a primeira coluna da matriz B, cujo resultado,
2 ∙ 2 + 3 ∙ 3 + 3 ∙ 1 = 13, corresponderá ao segundo elemento da matriz coluna
resultante do produto entre A e B. Veja:
12 Introdução ao estudo das matrizes

Agora, considere uma nova matriz A do tipo 1 × 2, dada por:

[1 3]

e uma nova matriz B do tipo 2 × 2, dada por:

Nesse caso, o resultado da multiplicação da matriz A pela matriz B será uma


matriz do tipo 1 × 2. Agora, para você calcular o produto AB, deve multiplicar
a linha da matriz A pela primeira coluna da matriz B, 1 ∙ 2 + 3 ∙ 2 = 8, cujo
resultado fornece o primeiro elemento da matriz linha resultante do produto
entre A e B. O segundo elemento dessa matriz é obtido pela multiplicação da
linha da matriz A com a segunda coluna da matriz B, 1 ∙ 3 + 3 ∙ 1 = 6. Veja:

O último tipo de multiplicação de matrizes relevante é a multiplicação entre


duas matrizes quadradas. Considere duas matrizes do tipo 2 × 2, dadas por:

A matriz resultante do produto AB também será uma matriz quadrada do


tipo 2 × 2 e é operacionalmente obtida como:

Logo:
Introdução ao estudo das matrizes 13

1. A multiplicação de uma matriz quadrada A pela matriz identidade I de mesmo


3 2
tamanho é igual à própria matriz A. Se A = , então o produto AI fica sendo:
–1 5

3 2 1 0 3 2
AI = =
–1 5 0 1 –1 5

2 1 3 –1 3 0
2. Considere duas matrizes quadradas do tipo 3 × 3, A = 1 0 1 e B= 0 5 1 .
Então, o resultado produto entre elas, AB, é: 4 2 3 –2 2 2

2 · (–1) + 1 · 0 + 3 · (–2) 2 · 3 + 1 · 5 + 3 · 2 2 · 0 + 1 · 1 + 3 · 2
AB = 1 · (–1) + 0 · 0 + 1 · (–2) 1 · 3 + 0 · 5 + 1 · 2 1 · 0 + 0 · 1 + 1 · 2
4 · (–1) + 2 · 0 + 3 · (–2) 4 · 3 + 2 · 5 + 3 · 2 4 · 0 + 2 · 1 + 3 · 2

–8 17 7
AB = –3 5 2
–10 28 8

3 2 2 0
3. Se uma matriz A = multiplica uma matriz B = que contém uma coluna
–1 5 1 0
(ou uma linha) inteira com elementos nulos, então o resultado será igual a uma matriz
que também contém uma coluna (ou uma linha) inteira com elementos nulos:

3 2 2 0 8 0
AB = =
–1 5 1 0 3 0

A operação de multiplicação entre matrizes apresenta algumas proprieda-


des importantes. Considere três matrizes A, B e C, cujos tamanhos permitem
realizar as operações de soma e multiplicação para cada situação de interesse.

Propriedade associativa

O resultado da multiplicação da matriz A pelo produto das matrizes B e C é


igual ao produto das matrizes A e B multiplicado pela matriz C:

A(BC) = (AB)C
14 Introdução ao estudo das matrizes

Propriedade distributiva

À direita: o resultado da multiplicação da soma das matrizes A e B pela matriz C


é igual à soma dos produtos das matrizes A com C e B com C:

(A + B)C = AC + BC

À esquerda: o resultado da multiplicação da matriz A pela soma das matrizes


B e C é igual à soma dos produtos das matrizes A com B e A com C:

A(B + C) = AB + AC

Contudo, vale a pena observar que, em geral, o produto entre duas matrizes
não é comutativo, isto é, AB ≠ BA (note que o produto entre dois escalares é
sempre comutativo, ou seja, 2 ∙ 3 = 3 ∙ 2 = 6).
Para que você entenda isso, considere duas matrizes quadradas do tipo 2 × 2:

O produto AB é dado por:

O produto BA é dado por:

Logo, quando você compara elemento por elemento em cada uma das
matrizes resultantes de AB e BA (por exemplo, (AB)11 = a11 ∙ b11 + a12 ∙ b21 ≠
a11 ∙ b11 + a21 ∙ b12 = (BA)11), você percebe que eles são todos diferentes.
No entanto, a partir desse tratamento geral para o produto de duas matri-
zes, é possível extrair algumas condições particulares que possibilitam gerar
AB = BA. Uma primeira condição surge quando uma das matrizes é a matriz
identidade. Por exemplo, se B = I, então o produto entre A e I será comutativo:
Introdução ao estudo das matrizes 15

(Faça b11 = b22 = 1 e b12 = b21 = 0 nos resultados acima de AB e BA.)


A segunda condição particular é aquela em que as duas matrizes são
diagonais, ou seja, . Nesse caso, o produto entre
as duas matrizes é comutativo, pois:

(Faça a12 = a21 = 0 e b12 = b21 = 0 nos resultados acima de AB e BA.)

Equação matricial
Uma equação matricial é uma relação de igualdade entre duas ou mais matrizes,
assim como ocorre com os escalares — por exemplo, 2x – 4 = 0.
Algumas equações matriciais típicas são: A + B = C; A – 2B = 3C;
AX = B; A² = X; e assim por diante.

3 2 B= x y 0 –1
1. Dadas as matrizes A = , eC= , é possível encontrar os
–1 5 z t 1 2
valores dos elementos da matriz B que satisfaçam a equação matricial 2A + B = C. Veja:

3 2 x y 0 –1
2A + B = C  2 + =
–1 5 z t 1 2

6 4 x y 0 –1
+ =
–2 10 z t 1 2

6 + x 4 + y 0 –1
=
–2 + z 10 + t 1 2

Agora, como os elementos da matriz do lado esquerdo devem ser iguais aos da
matriz do lado direito, você tem simplesmente quatro equações escalares para as
variáveis x, y, z e t: 6 + x = 0, então x = –6; 4 + y = –1, então y = –5; –2 + z = 1, então z = 3;
e 10 + t = 2, então t = –8.
16 Introdução ao estudo das matrizes

a a12 x b
2. Dadas as matrizes A = a11 X = e B = 1 , a equação matricial AX = B
21
a22 , y b2
resulta em um sistema de duas equações lineares para as variáveis x e y. Veja:

a11 a12 x b
AX = B → = 1
a21 a22 y b2

a11x + a12y b
= 1
a21x + a22y b2

Ou seja:

{ a11x + a12y b1
=
a21x + a22y b2

Um exemplo típico desse tipo de sistema é o seguinte:

{ 3x – y = 2
x + 4y = 1

3 –1
onde, nesse caso, você pode identificar a matriz A como sendo , e a matriz
1 4
B como sendo 2 .
1

Aplicações com matrizes


Reconsidere o exemplo discutido no início deste capítulo, em que você e
sua amiga são agentes autônomos. A matriz que representa o quantitativo
de produtos financeiros ofertados por você e sua amiga no mês de janeiro é:

Para o mês de fevereiro, o quantitativo de produtos financeiros ofertados


por você e sua amiga é:
Introdução ao estudo das matrizes 17

Portanto, a quantidade de diferentes produtos financeiros que vocês ofer-


taram nesses dois meses é:

Logo, você ofertou 24 fundos de renda fixa e fundos multimercado, en-


quanto sua amiga ofertou 30 fundos de renda fixa e 22 fundos multimercados.
Agora, considere que vocês recebem uma comissão para cada produto
financeiro ofertado. Para fundos de renda fixa, a comissão é de R$ 100,00 por
produto ofertado. Já para os fundos multimercados e os planos de previdência,
as comissões são, respectivamente, de R$ 120,00 e R$ 150,00 por produto
ofertado. Para saber o valor total que cada um de vocês receberá de comissão
ao final desses dois meses, basta primeiro criar uma matriz do tipo 3 × 1, em
que cada elemento será o valor da comissão para cada produto. Assim:

Depois, você pode multiplicar o resultado da soma das matrizes A e B, ou


seja, A + B, com a matriz C:

Portanto, nesses dois meses, você receberá um total de R$ 9.330,00 de


comissão, e sua amiga receberá um total R$ 9.840,00.
18 Introdução ao estudo das matrizes

Como exemplo adicional de multiplicação de matrizes, considere uma matriz A do


tipo 2 × 2 dada por:

a11 a12
A=
a21 a22

e a matriz identidade I, também do tipo 2 × 2:

I= 1 0
0 1

Então, o resultado do produto AI será:

a11 a12 1 0 = a11 a12


AI =
a21 a22 0 1 a21 a22

Ou seja, AI = A. Esse resultado é válido para qualquer tipo de matriz quadrada A,


do tipo m × m, desde que a matriz identidade também tenha o mesmo tamanho.
Verifique também que IA = A.

ANTON, H.; BUSBY, R. C. Álgebra linear contemporânea. Porto Alegre: Bookman, 2006.
ANTON, H.; RORRES, C. Álgebra linear com aplicações. 8. ed. Porto Alegre: Bookman, 2003.
CRISPINO, M. L. 320 questões resolvidas de álgebra linear. Rio de Janeiro: Ciência Mo-
derna, 2012.
ÁLGEBRA LINEAR

André Ricardo Rocha da Silva


Inversão de matrizes
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:

„„ Calcular a inversa de uma matriz utilizando operações elementares


com suas linhas.
„„ Utilizar o produto de matrizes para escrever um sistema de equações
lineares em forma de uma única equação matricial.
„„ Resolver um sistema linear com o uso da matriz inversa.

Introdução
Os sistemas de equações lineares são conjuntos de equações lineares que
envolvem várias incógnitas simultaneamente e que podem ser represen-
tados por uma equação matricial. Essa representação matricial permite
obterá obtenção da solução de um sistema linear de equações por meio
do cálculo da matriz inversa dos coeficientes do sistema.
Neste capítulo, você aprenderá a calcular a matriz inversa e a escrever
um sistema de equações lineares como uma equação matricial e, a partir
daí, a resolver esse sistema de equações lineares usando o método da
matriz inversa.

Inversa de uma matriz


Uma operação simples na álgebra de escalares é a divisão de um número
por ele mesmo, cujo resultado é igual à unidade. Assim, se N é um número
qualquer e , então:
2 Inversão de matrizes

Por exemplo, para N = 3:

Aqui, o número N–1 representa o inverso do número N, de modo que qualquer


número multiplicado por seu inverso será igual à unidade.
Esse conceito também pode ser estendido para as matrizes com a devida
adaptação. Com efeito, se A for uma matriz quadrada, e B for outra matriz
quadrada de mesmo tamanho, então, a verificação de uma relação do tipo:

AB = BA = I

onde I é a matriz identidade, implica necessariamente que B é a matriz


inversa de A. Desse modo, você pode fazer a seguinte identificação: B = A–1.
Logo:

AA–1 = A–1A = I

No entanto, vale a pena fazer a seguinte ressalva: diferentemente dos


escalares, não existe a relação para matrizes, ou seja, não é possível
dividir algo (um escalar ou mesmo uma matriz) por uma matriz.
Para exemplificar como o conceito de matriz inversa pode ser visto, con-
sidere a matriz A dada por:

cuja matriz inversa é a B:

pois:
Inversão de matrizes 3

Para o caso de uma matriz quadrada do tipo 2 × 2, é possível desenvolver


uma solução geral para se determinar sua inversa. Sejam a, b, c e d os ele-
mentos de uma matriz A:

e sejam x, y, z e t os elementos da matriz inversa de A:

que são, em princípio, desconhecidos. A fim de se determinar os elementos


dessa matriz inversa, a partir do conhecimento dos elementos de A, é necessário
que a seguinte relação seja verificada:

A relação anterior conduz a um conjunto de quatro equações a quatro


variáveis, x, y, z e t, pois os elementos a, b, c e d são supostamente conhecidos
a partir de uma dada matriz A. Logo:

ax + cy = 1
bx + dy = 0
az + ct = 0
bz + dt = 1

A partir das duas primeiras equações, determina-se x e y (por exemplo,


basta isolar a variável x na primeira equação, e substituir na segunda,
, obtendo-se a variável y, que, depois, pode ser substituída
na primeira equação, a fim de se obter x). Desse modo:

A partir das duas últimas equações, determinam-se z e t (por exemplo,


basta isolar a variável z na terceira equação, z = (–ct)/a, e substituir na quarta,
(–bct/a) + dt = 1, obtendo-se a variável t, que, depois, pode ser substituída na
terceira equação, a fim de se obter z). Desse modo:
4 Inversão de matrizes

Como o fator é comum a todos os elementos da matriz inversa,


você pode fatorá-lo na montagem da matriz inversa, de maneira que:

No exemplo inicial proposto, os elementos da matriz A eram a = 3, b =


5, c = 1 e d = 2, e, portanto, pelo resultado anterior, a matriz inversa ficaria:

que é exatamente a matriz B, inicialmente considerada como sendo a


matriz inversa de A.
Uma consequência direta desse resultado para uma matriz do tipo 2 × 2 é
que a matriz inversa existe somente se o denominador (ad – bc) for diferente
de 0. Observe que a quantidade (ad – bc) nada mais é que o determinante da
matriz A. Caso contrário, se (ad – bc) = 0, a matriz inversa não existe, pois
todos os elementos da matriz inversa estariam divididos por 0. Nesse sentido,
diz-se que a matriz é invertível.

Se uma matriz A admite a existência de uma matriz inversa A–1, então, A–1 é única, não
havendo outra matriz inversa para A.

Existem algumas propriedades envolvendo as matrizes inversas que valem


a pena ser conhecidas.

Propriedade 1

Se uma matriz A contém uma inversa A–1, então, a inversa da matriz inversa
é a própria matriz A:

(A–1) –1 = A
Inversão de matrizes 5

No exemplo apresentado, você viu que:

Então, calculando a inversa dessa matriz A–1:

que é exatamente a matriz A.

Propriedade 2

Considere duas matrizes A e B, ambas invertíveis, então, a inversa do produto


entre elas, AB, será igual ao produto das inversas de B e A, B–1A–1:

(AB) –1 = B–1A–1

Por exemplo, para as matrizes:

as respectivas matrizes inversas são:

Já o produto entre as matrizes A e B é:

Então, a matriz inversa desse produto é:


6 Inversão de matrizes

Mas o produto da matriz inversa de B, B–1, com a matriz inversa de A, A–1,


também resulta em:

Logo, nesse exemplo, verifica-se a validade da expressão (AB) –1 = B–1A–1.

Propriedade 3

Se A é uma matriz quadrada, então, o produto de n vezes ela mesma, ,


será igual a An. Além disso, se a matriz inversa de A existe, então, a matriz An
também contém uma inversa, que é dada por:

(An) –1 = (A–1)n

Por exemplo, para n = 2 e a matriz:

cuja inversa é:

você tem que o quadrado de A é:

e a inversa dessa matriz é dada por:

No entanto, o quadrado da matriz A–1 é:

que é exatamente igual a (A2) –1. Logo, verifica-se explicitamente que


(A ) = (A–1)2.
2 –1
Inversão de matrizes 7

Matriz ortogonal
Uma matriz A é dita ortogonal se sua matriz transposta é igual à sua matriz
inversa:

AT = A–1

Assim como A–1A = AA–1 = I, para uma matriz ortogonal, vale também:

ATA = AAT = I

Um bom exemplo de matriz ortogonal surge na física, envolvendo a rotação


de corpos rígidos ou sistemas de referência no plano. Nesse caso, a matriz de
rotação é dada por:

A matriz transposta de R (obtida trocando a primeira linha pela primeira


coluna, e a segunda linha pela segunda coluna) é:

Então, efetuando o produto entre R e RT, você tem:

em que se empregou a identidade trigonométrica sen 2 θ + cos2 θ = 1.


Similarmente:

Embora o resultado obtido para encontrar a matriz inversa de uma matriz


do tipo 2 × 2:
8 Inversão de matrizes

seja muito útil e relativamente fácil de ser construído, desenvolver o mesmo


procedimento que conduziu a esse resultado para obter a matriz inversa de
matrizes de tamanhos maiores pode ser algo extremamente trabalhoso.
Outro método que você pode utilizar para encontrar a matriz inversa de
matrizes de qualquer tamanho envolve apenas operações elementares sobre
linhas.
A ideia básica é perfilar, lado a lado, uma matriz A que se quer determinar a
inversa, e a matriz identidade I, ambas de mesmo tamanho, da seguinte maneira:

[A|I]

Se você multiplicar essa relação por A–1 pela esquerda, você tem:

Observe atentamente que essa operação fez com que, no lado esquerdo,
aparecesse a matriz identidade, mas, principalmente, do lado direito, surge
a matriz inversa de A.
Portanto, se você executar operações elementares entre linhas, tal como
multiplicar uma linha por uma constante ou somar uma linha com outra linha,
de modo a transformar a matriz A do lado esquerdo em uma matriz identidade,
então, a matriz resultante que aparece no lado direito após esse processo é
essencialmente a matriz inversa de A:

[I|A–1]

Como um primeiro exemplo sobre esse método, considere novamente a


matriz A dada no exemplo inicial deste capítulo:

Fazendo o perfilamento entre A e I, você tem:

Agora, você deve efetuar algumas operações elementares sobre essa "matriz
2 × 4", a fim de transformar o bloco 2 × 2 do lado esquerdo em uma matriz
identidade.
Inversão de matrizes 9

Para isso, multiplique toda a segunda linha por –3:

–3 ∙ [1 2|0 1] = [–3 –6|0 –3]

E a nova segunda linha fica:

Então, some os elementos da primeira linha com os da segunda, um a um,


mantendo a mesma ordem:

[3 5|1 0] + [–3 –6|0 –3] = [0 –1|1 –3]

Esses resultados vão compor a nova segunda linha:

Multiplique a segunda linha por –1:

–1 ∙ [0 –1|1 –3] = [0 1|–1 3]

E a nova segunda linha fica:

Note que a segunda linha do lado esquerdo já tem a aparência da segunda


linha de uma matriz identidade. Agora, multiplique a segunda linha por –5 e,
depois, some com a primeira linha:

–5 ∙ [0 1|–1 3] + [3 5|1 0] = [3 0|6 –15]

E a nova primeira linha fica:

Por fim, divida toda a primeira linha por:


10 Inversão de matrizes

E a nova primeira linha fica:

Observe que, do lado esquerdo, apareceu a matriz identidade. Portanto,


do lado direito dessa relação, você tem exatamente a matriz inversa de A:

Esse resultado para a matriz inversa de certamente já era esperado, pois ele
já foi obtido de outra maneira no início desta seção. No entanto, exatamente
por já ser um resultado conhecido, você pode desenvolver a aplicação desse
método de obtenção da matriz inversa com mais segurança.
A partir deste ponto, você já tem condições de empregar o método de
inversão de matrizes para matrizes maiores que uma do tipo 2 × 2. Essa é a
grande vantagem desse método.
Então, para um segundo exemplo de uso do método, considere a seguinte
matriz quadrada do tipo 3 × 3:

Para você encontrar C–1, é necessário perfilar a matriz C com a matriz


identidade de mesmo tamanho:

Multiplique a primeira linha por –1 e some com a última linha:

–1 ∙ [1 2 3|1 0 0] + [1 0 8|0 0 1] = [0 –2 5|–1 0 1]

E a nova terceira linha fica:


Inversão de matrizes 11

Agora, multiplique a primeira linha por –2 e some com a segunda linha:

–2 ∙ [1 2 3|1 0 0] + [2 5 3|0 1 0] = [0 1 –3|–2 1 0]

E a nova segunda linha fica:

Multiplique a segunda linha por 2 e some com a terceira linha:

2 ∙ [0 1 –3|–2 1 0] + [0 –2 5|–1 0 1] = [0 0 –1|–5 2 1]

E a nova terceira linha fica:

Multiplique a última linha por –1:

–1 ∙ [0 0 –1|–5 2 1] = [0 0 1|5 –2 –1]

E a nova terceira linha fica:

Aqui, você já conseguiu obter a última linha de uma matriz identidade do


tipo 3 × 3 do lado esquerdo. Agora, o próximo passo é transformar a segunda
linha do lado esquerdo na segunda linha de uma matriz identidade. Então,
multiplique a terceira linha por 3 e some com a segunda linha:

3 ∙ [0 0 1|5 –2 –1] + [0 1 –3|–2 1 0] = [0 1 0|13 –5 –3]


12 Inversão de matrizes

E a nova segunda linha fica:

que, no lado esquerdo, já corresponde à segunda linha da matriz identidade


do tipo 3 × 3. Agora, resta transformar apenas a primeira linha. Para isso,
multiplique a última linha por –3 e some com a primeira linha:

–3 ∙ [0 0 1|5 –2 –1] + [1 2 3|1 0 0] = [1 2 0|–14 6 3]

E a nova primeira linha fica:

Por fim, multiplique a segunda linha por –2 e some com a primeira linha:

–2 ∙ [0 1 0|13 –5 –3] + [1 2 0|–14 6 3] = [1 0 0|–40 16 9]

E a nova primeira linha fica:

Observe que, finalmente, a matriz que aparece do lado esquerdo é a matriz


identidade do tipo 3 × 3. Portanto, a matriz inversa de C é dada por:

Em princípio, você pode obter a matriz inversa, desde que ela exista de
uma dada matriz quadrada de qualquer tamanho, por meio desse método.
Inversão de matrizes 13

Sistemas lineares com uma equação matricial


Todo sistema de equações lineares contém naturalmente uma estrutura matri-
cial. Para que você perceba isso, considere um sistema do tipo 2 × 2 qualquer:

A estrutura do lado esquerdo dessas duas equações lineares é tipicamente


igual àquela que envolveria o produto entre duas matrizes: uma matriz qua-
drada do tipo 2 × 2 para os coeficientes aij, em que i, j = 1, 2; e outra matriz
coluna do tipo 2 × 1 para as variáveis xj, em que j = 1, 2. Dessa forma, você
pode escrever:

Similarmente, as constantes bi, em que i = 1, 2, que aparecem do lado direito


das equações lineares anteriores, também podem ser postas em um formato
matricial — mais especificamente, como uma matriz coluna do tipo 2 × 1:

Com efeito, o sistema de equações lineares pode ser substituído por uma
representação em forma de equação matricial do tipo:

AX = B

em que a matriz A:

é denominada de matriz dos coeficientes, a matriz X:

é a matriz das variáveis, e a matriz B:

é a matriz das constantes.


14 Inversão de matrizes

Uma vez estabelecida a relação entre sistemas de equações lineares e ma-


triciais, você pode encontrar a solução de tais sistemas por meio das matrizes.
Veja como isso é possível: se a matriz dos coeficientes A é quadrada e admite
a existência de uma inversa, A–1, então, você pode determinar a matriz das
variáveis por multiplicar a equação matricial do sistema por A–1 pela esquerda:

em que I é a matriz identidade.


Portanto, a solução do sistema será dada pela matriz das variáveis X ,
calculada por meio da relação:

X = A–1B

Assim, torna-se necessário saber calcular a matriz inversa associada à


matriz dos coeficientes, a fim de se obter a solução do sistema.

Um sistema de equações lineares contém uma única solução quando a matriz dos
coeficientes do sistema for invertível.

Sistemas lineares com matriz inversa


Para que você coloque em prática os resultados da seção anterior e, portanto,
consiga resolver um sistema de equações lineares por meio da matriz inversa
dos coeficientes, considere o seguinte sistema do tipo 2 × 2:

Nesse caso, é fácil reconhecer a matriz dos coeficientes:


Inversão de matrizes 15

enquanto que a matriz das variáveis é:

e a matriz das constantes é:

A fim de se determinar X por meio da equação matricial X = A–1B, é


necessário calcular a matriz inversa de A. Então, perfilando a matriz A e a
matriz identidade do tipo 2 × 2, você obtém:

Primeiro, multiplique a primeira linha por 3 e some com a segunda linha:

3 ∙ [–1 1|1 0] + [3 2|0 1] = [0 5|3 1]

E a nova segunda linha fica:

Divida a segunda linha por 5:

E a nova segunda linha fica:

Agora, multiplique a segunda linha por –1 e some com a primeira linha:

–1 ∙ [0 1|3/5 1/5] + [–1 1|1 0] = [–1 0|2/5 –1/5]

E a nova primeira linha fica:


16 Inversão de matrizes

Multiplique a primeira linha por –1:

–1 ∙ [–1 0|2/5 –1/5] = [1 0|–2/5 1/5]

E a nova primeira linha fica:

Observe que você já tem, do lado esquerdo, uma matriz identidade do tipo
2 × 2. Logo, a matriz inversa de A é dada por:

Por fim, para você determinar a matriz X, basta calcular o produto matricial
A B:
–1

Logo, a solução desse sistema é dada por:

em que x = –1 e y = 5.

ANTON, H.; BUSBY, R. C. Álgebra linear contemporânea. Porto Alegre: Bookman, 2006.
612 p.
ANTON, H.; RORRES, C. Álgebra linear com aplicações. 8. ed. Porto Alegre: Bookman,
2012. 786 p.

Leitura recomendada
CRISPINO, M. L. 320 questões resolvidas de álgebra linear. Rio de Janeiro: Ciência Moderna,
2012. 352 p.
ÁLGEBRA LINEAR

Silvano Antonio Alves Pereira Junior


Geometria vetorial e
transformações lineares
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:

„„ Definir transformações matriciais.


„„ Identificar a transformações lineares como casos particulares de trans-
formações matriciais.
„„ Relacionar as transformações lineares com inversão de matrizes.

Introdução
Neste capítulo, exploraremos um pouco mais o assunto sobre matrizes.
Você verá algumas aplicações práticas de matrizes, como no estudo da
geometria das transformações lineares. Nesta etapa, estaremos seguindo
uma linha semelhante à apresentada em Nicholson (2006). Seguiremos
estabelecendo as relações entre transformações lineares e matrizes.
Finalmente, você será apresentado à conexão entre transformações
lineares e inversão de matrizes.

Transformações matriciais
Para caminhar na direção do primeiro objetivo, trabalharemos com o plano (R2)
euclidiano. E para tal fim, não realizaremos distinção entre um ponto e o vetor
associado ao transporte da origem até esse ponto, conforme Figura 1, a seguir.
2 Geometria vetorial e transformações lineares

4 (x,y)

2 v

–6 –4 –2 0 2 4 6

Figura 1. O ponto do plano e o vetor associado a ele.

Como pode ser visto na figura, não há distinção entre o ponto P(x,y) e o
vetor a ele associado . Nesse contexto, uma transformação matricial
pode ser definida como o resultado do produto de uma matriz 2x2 pelos vetores
do plano. Isto é, uma transformação matricial relaciona um vetor do plano à
sua imagem pelo produto com uma determinada matriz. Dessa forma, serão
válidas todas as propriedades do produto de matrizes.
Para entender como matrizes se relacionam com transformações geomé-
tricas do plano euclidiano, apresentaremos alguns exemplos.

1 0 → x
Considere a matriz R = . Seja v = um vetor qualquer do plano euclidiano,
0 –1 y

qual é a imagem do vetor v pela transformação R? Tem-se:

→ 1 0 x 1×x+0×y x
Rv = = = –y
0 –1 y 0×x–1×y
→ x
Em palavras, a transformação R reflete o vetor v = em torno do eixo coordenado
y
x, conforme Figura 2.
Geometria vetorial e transformações lineares 3

(x,y)
2

v
1

–2 –1 0 1 2 3

–1 u

(x,–y)
–2

Figura 2. Reflexão de vetor em torno do eixo x.

Uma observação interessante sobre essa transformação é que ela é sua própria
inversa. Isto é, ao aplicarmos a reflexão R duas vezes seguidas, voltamos ao vetor
original. Tem-se:

1 0 1 0 1 0
RR = =
0 –1 0 –1 0 1

Esse é um primeiro exemplo de como algumas matrizes se relacionam


com transformações geométricas. Ali, uma transformação geométrica foi
induzida por uma matriz.
No próximo exemplo, partiremos de uma transformação geométrica e
veremos a matriz que induz a mesma transformação.

Considere a transformação geométrica que rotaciona vetores em torno da origem


→ 1 → –1
(Figura 3) e que leva, por exemplo, o vetor v = no vetor u = . Essa transformação
0 0
pode ser induzida pela seguinte matriz:
4 Geometria vetorial e transformações lineares

4
(x,y)
3

2 u

1
α = C30º
–7 –6 –5 –4 –3 –2 –1 0 1 2 3 4 5 6 7
–1
v
–2

(–x,–y) –3

–4
Figura 3. Transformação geométrica rotacionando vetores 180º em torno da origem o x.

De maneira geral, algumas transformações geométricas no plano R2 podem


ser induzidas, ou representadas, por transformações matriciais. Se T é uma
transformação geométrica do plano, então, caso exista uma matriz A que
induza tal transformação, ela deve satisfazer:


para todo v no plano R2.


A igualdade acima deve ser válida para v no plano R2. Perceba, por exemplo, que a
rotação de 180º apresentada no exemplo anterior é igual à transformação de reflexão
→ 1 → –1
em torno do eixo y para os vetores v = e u = , mas não para os demais do
0 0
plano. Com efeito, a matriz que induz a transformação de reflexão em torno do eixo
y apresenta a seguinte forma:
–1 0
Ref =
0 1
Geometria vetorial e transformações lineares 5

Ainda sobre matrizes de rotação no plano, é importante destacar que elas


apresentam uma forma geral. Dada uma transformação geométrica no plano
de rotação em torno da origem por um ângulo de θº, a matriz que induz essa
transformação é dada por:

Vamos determinar a matriz que induz a rotação de 45º em torno da origem no plano
euclidiano. Pela forma geral apresentada anteriormente, tem-se:

cos 45º –sen 45º


Rθ =
sen 45º cos 45º
√2
Lembrando-se de que cos 45º = sin 45º = , obtemos:
2

√2 √2
2 –
2
Rθ =
√2 √2
2 2

A seguir, você verá um importante resultado apresentado em Nicholson


(2006), que nos permite determinar as matrizes que induzem reflexões e
projeções para uma reta que passa pela origem do plano R2.

Teorema: considere a reta y = mx que passa pela origem e tem inclinação m.


Então, a projeção Pm sobre a reta e a reflexão Qm em torno da reta são ambas
as transformações matriciais no plano euclidiano. Mais precisamente:

Você poderá encontrar a demonstração desse teorema em Nicholson (2006).


Veja, a seguir, um exemplo de como podemos utilizar esse resultado.
6 Geometria vetorial e transformações lineares

1 →
Considere a reta de equação y = 2x. Vamos determinar a reflexão do vetor v = em
–3
torno dessa reta. Primeiramente, utilizaremos o teorema anteriormente apresentado
para encontra a matriz Q que induz tal transformação. Como o coeficiente angular
da reta é m = 2, temos:

1 1 – 22 2 × 2
Q= 2 ×
1+2 2 × 2 22–1

–3 4
Q= 1 ×
5 4 3

–3 4
5 5
Q=
4 3
5 5
→ 1
Agora, vamos calcular o resultado da ação da matriz Q sobre o vetor v = . Obtemos:
–3
–3 4 –3 4
× 1 + × (–3)
5 5 1 5 5 –3
Q= = =
4 3 –3 4 –1
× 1 + 3 × (–3)
5 5 5 5

Veja, na Figura 4, a representação dessa transformação.


4

y = 2x

E
–6 –4 –2 0 2 4 6
D Qv
v
–2
A

–4

→ 1
Figura 4. Reflexão do vetor v = em torno da reta y = 2x.
–3

Cabe destacar que nem toda matriz de ordem 2x2 representa uma transformação
geométrica do plano.
Geometria vetorial e transformações lineares 7

Transformações lineares
Na seção anterior, você aprendeu sobre algumas transformações geométricas
do plano euclidiano e como elas podem ser representadas por matrizes que
induzem tais transformações — que eram casos particulares de um conceito
mais abrangente que ocupa um papel central no estudo da álgebra linear: as
transformações lineares.
Inicialmente, vamos apresentar a definição de transformação linear, que
pode ser encontrada em Nicholson (2006) e Anton e Busby (2006).


Definição: seja T: R2 → R2 uma aplicação que a cada vetor v do plano associa

um vetor T v também em R2 Diremos que T é uma transformação linear se
ela satisfizer as seguintes condições.


1. para todo α ∈ R e todo v ∈ R2.
→ →
2. para todo v , u ∈ R2.

Observe o caso das transformações matriciais estudadas na seção anterior.


Se T: R2 → R2 for uma transformação matricial, existe uma matriz A, tal que:


para todo v no plano R2. Então, podemos verificar que T é, de fato, uma
→ →
transformação linear. Com efeito, dados α ∈ R e v , u ∈ R2, temos:

Segue das propriedades do produto de matrizes que:

Temos, ainda, que:

Novamente, segue das propriedades do produto de matrizes que:


8 Geometria vetorial e transformações lineares

Portanto, toda transformação matricial no plano euclidiano é também uma


transformação linear.
De fato, a relação entre transformações lineares e matrizes é ainda mais
forte. Temos o seguinte resultado.

Fato: toda transformação linear em R2 tem um representação matricial.


Veja, a seguir, como encontrar a representação matricial de uma transfor-
mação linear em R2.

Considere a seguinte transformação em R2, T(x,y) = (2x, –y). Primeiramente, vamos


→ → → x
verificar se T é, de fato, uma transformação linear. Dados α ∈ R e v , u ∈ R2, com v =
r y

e u = , tem-se:
s

T(αv ) = T(αx, αy) = 2(αx, –αy) = α(2x, –y)

Temos, ainda:

→ →
T(v + u ) = T(x + r, y + s) = (2(x + r), –(y + s)) = (2x + 2r, –y –s) = (2x, –y) + (2r, –s)

Portanto:

→ → → →
T(v + u ) = T(v ) + T(u )

Assim, concluímos que T é uma transformação linear. Agora, vamos determinar a


forma matricial dessa transformação. Para tal tarefa, precisaremos utilizar o fato de que
a forma matricial de uma transformação linear T em R2 é dada por:

MT = [T(e1)|E(e2)]

1
Isto é, MT é uma matriz cujas colunas é a imagem dos vetores canônicos de R2, e1 =
0 0
e e2 = , pela transformação T. Neste exemplo, temos:
1
T(e1) = (2 × 1, –0) = (2, 0) e T(e2) = (2 × 0, –1) = (0, –1)

Dessa maneira:

2 0
MT =
0 –1
Geometria vetorial e transformações lineares 9

Existem algumas transformações lineares que merecem destaque. A trans-



formação identidade, por exemplo, é aquela que associa a cada vetor v em R2
a ele mesmo. Isto é:

→ → →
I2×2(v ) = v para todo v ∈ R2

Outra transformação linear que apresenta um papel distinto é a transforma-



ção nula, isto é, aquela que associa todos os vetores do plano ao vetor nulo 0 .
→ →
Verifiquemos que I2×2 é, de fato, linear. Dados α ∈ R e v , u ∈ R2 com
e , tem-se:

Temos, ainda:

→ →
I2×2(v + u ) = I2×2(x + r, y + s) = ((x + r) + (y + s)) = (x + r, y + s) = I2×2(x,y) + I2×2(r,s)

Portanto:

Concluindo que I2×2 é, de fato, uma transformação linear. Conta semelhante


pode ser realizada para a transformação nula.
Veja mais um exemplo que relaciona transformações lineares com suas
representações matriciais.

Seja T uma transformação linear, tal que T(2, 1) = (4, 1) e que T(1, 1) = (2, 1). Qual é a
forma matricial da transformação T?
Observe que, neste caso, não temos em mãos a expressão da transformação linear
para que possamos calcular T(e1) e T(e2). Entretanto, podemos proceder da seguinte
maneira:

→ 2 → 1
v= e u=
1 1
10 Geometria vetorial e transformações lineares

Segue das propriedades aritméticas das matrizes e dos vetores que podemos escrever:

→ → → →
e1 = v – u e e2 = 2u – v

Usando a linearidade de T, obtemos:

→ → → →
T(e1) = T(v – u ) = T(v ) – T(u ) = (4,1) – (2,1) = (2,0)

De forma análoga:

→ → → → → →
T(e2) = T(2u – v ) = T(2u ) – T(v ) = 2T(u ) – T(v ) = 2(2,1) – (4,1) = (4,2) – (4,1) = (0,1)

Finalmente, utilizamos o fato apresentado no exemplo anterior para concluirmos que:

2 0
MT =
0 1

Ainda sobre a forma matricial de transformações lineares, existe uma


relação de muita importância entre a composição de transformações lineares
e suas formas matriciais.
Sejam T e S duas transformações lineares no plano euclidiano com suas
respectivas formas matriciais dadas por MT e MS . A composição TºS das
transformações lineares tem, como representação matricial, a matriz dada por
MTMS. Lembramos aqui que TºS, a composição das transformações, é dada por:


Isto é, primeiramente, aplicamos S e, em seguida, T ao resultado S(v ).
Veja um exemplo de como podemos utilizar essa informação.
Geometria vetorial e transformações lineares 11

Considere as seguintes transformações lineares. T é a transformação de reflexão em


trono do eixo y, e S é a transformação que realiza uma rotação de 30º em torno da
origem. Qual é a representação matricial da composição TºS?
O plano é utilizar o resultado apresentado anteriormente, que relaciona composição
e representação matricial de transformações lineares. Portanto, começamos determi-
nando a representação matricial de cada uma das operações.
Para a transformação T, vimos, na seção anterior, que a representação matricial para
a reflexão em torno do eixo y é dada por:

–1 0
MT =
0 1

Para o caso da transformação S, vimos que a forma matricial de uma transformação


geométrica de rotação de θº em torno da origem é dada por:

cos θº –sen θº
Rθ° =
sen θº cos θº

Nesse caso, temos 30º. Obtemos, portanto:

√3 1
2 –
cos 30º –sen 30º 2
R30 = =
sen 30º cos 30º
1 √3
2 2

Finalmente, para obtermos a representação matricial de TºS, calcularemos o produto


MTMS. Temos:

√3 1 √3 1
– –
–1 0 2 2 2 2
MTMS = =
0 1
1 √3 1 √3
2 2 2 2

Perceba que, se quiséssemos obter apenas a imagem de um único vetor


pela composição, poderíamos tê-lo feito da forma direta.
12 Geometria vetorial e transformações lineares

É comum o erro de inverter a ordem do produto das matrizes. Fique atento ao realizar
esses cálculos e lembre-se de que o produto das matrizes segue a mesma ordem da
composição das transformações.

Transformações lineares e inversão de matrizes


Nesta seção, veremos como utilizar a relação entre transformações lineares
e suas representações matriciais para obter informações de grande utilidade
no processo de inversão de matrizes.
Aqui, faremos uma abordagem do assunto semelhante à encontrada em
Nicholson (2006).
Assim como para matrizes, existe, também, um conceito de inversa para
transformações lineares.
Se T é uma transformação linear no plano euclidiano, diremos que T–1 é
uma transformação inversa para T, se for válida a seguinte igualdade:

TºT–1 = T–1ºT = I2×2

Em palavras, T–1 é uma transformação inversa para T, se a composição


desses, seja pela esquerda ou pela direita, resulta no operado identidade.
Na primeira seção, vimos a transformação geométrica que realizava a refle-
xão em torno do eixo x, além de que sua representação matricial era dada por:

Vimos, ainda, que MR era sua própria inversa. Essa matriz MR induz a
transformação que pode ser representada por R(x,y) = (x,–y). Dada a experiência
com a forma matricial, seria natural imaginar que R é um bom candidato para
ser sua própria transformação inversa. Agora, vamos calcular RºR. Temos:

RºR = R(R(x,y)) = R(x,–y) = (x,–(–y)) = (x,y) = I2×2(x,y)

Portanto, R–1 = R.
Geometria vetorial e transformações lineares 13

Esse resultado não aconteceu por acaso. Temos o seguinte teorema, que
também pode ser encontrado em Nicholson (2015).

Teorema: seja T:R2 → R2 uma transformação linear no plano euclidiano com


representação dada por MT, são equivalentes as seguintes afirmações.

1. T é invertível (isto é, MT é invertível).


2. Existe uma transformação linear S, tal que TºS = SºT = I2×2.

Além disso, a matriz de S é dada por MT–1.


Aqui, é fundamental destacar a relação entre a transformação e sua forma
matricial.

T é invertível se, e somente se, MT também for.

Essas relações nos permitem estabelecer um procedimento alternativo para


encontrar a inversa de algumas matrizes. Veja o exemplo a seguir.

cos (60º) –sen (60º)


Considere a matriz MT = , que representa uma rotação de 60º,
sen (60º) cos (60º)
no sentido anti-horário, em torno da origem. Calculando os valores de seno e cosseno,
MT pode ser escrita como:

1 √3

2 2
MT =
√3 1
2 2

Nessa situação, conhecemos bem a transformação geométrica envolvida. Sabemos,


por exemplo, que a transformação inversa seria uma rotação de –60º no sentido
horário. Essa transformação teria sua forma matricial dada por:

cos (–60º) –sen (–60º)


MT–1 =
sen (–60º) cos (–60º)
14 Geometria vetorial e transformações lineares

Novamente, calculando os valores de seno e cosseno, obtemos:

1 √3
2 2
MT–1 =
√3 1

2 2

Essa MT–1 é nossa candidata à matriz inversa. Vejamos se, de fato, ela é inversa de MT.
Para tal, basta calcular os produtos MTMT–1 e MT–1MT. Temos:

1 √3 1 √3

2 2 2 2 1 0
MTMT–1 = =
√3 1 0 1
√3 1

2 2 2 2

De forma semelhante, também obtemos:

1 √3 1 √3

2 2 2 2 1 0
M T MT =
–1
=
–√3 1 0 1
√3 1
2 2 2 2

Assim, MT–1 é, de fato, a inversa da matriz apresentada inicialmente.

O procedimento utilizado no exemplo anterior pode ser sumarizado da


seguinte maneira.

1. Observar a transformação geométrica induzida pela matriz, caso ela


exista.
2. Procurar pela transformação inversa.
3. Encontrar a matriz dessa transformação.

Assim como matrizes, transformações lineares também apresentam a noção


de núcleo, que também se relaciona com o fato de uma transformação linear
e, por consequência, a matriz que a induz ser ou não invertível.
Vamos denotar que o núcleo por Null(T), de uma transformação linear
→ →
T, é o conjunto de todos os vetores do v plano euclidiano, tais que T(v ) = 0.
Geometria vetorial e transformações lineares 15

Segue da definição de uma transformação linear que:



„„ o vetor nulo 0 sempre pertence ao núcleo de uma transformação linear,
isto é, ;
→ →
„„ se v ∈ Null(T), então todo múltiplo de v também pertencerá.

Essas observações, somadas aos resultados previamente apresentados, nos


permitem apresentar o seguinte resultado.

Teorema: seja T:R2 → R2 uma transformação linear cuja forma matricial é


MT, são equivalentes as seguintes informações.

„„ det(MT) ≠ 0.

„„ Null(T) = {0}.
„„ T é invertível.
„„ MT é invertível.

Veja, a seguir, um exemplo de aplicação desse resultado.

Considere A uma transformação de rotação de 90º no sentido anti-horário. Qual é o


núcleo dessa transformação?
Como visto nas seções anteriores, a forma matricial dessa transformação é dada por:

cos 90º –sen 90º


R90 =
sen 45º cos 90º

Calculando os valores de seno e cosseno, obtemos:

0 –1
R90 =
1 0

Não é difícil perceber que o determinante dessa matriz é igual 1 e, portanto, diferente
de zero. Como consequência do resultado anterior, temos:

Null(T) = {0 }
16 Geometria vetorial e transformações lineares

Como um último resultado, apresentamos um teorema que permite identifi-


car rotações e reflexões em torno de retas que passam pela origem a partir dos
determinantes de suas matrizes. Esse resultado também pode ser encontrado
em Nicholson (2015).

Teorema: seja T:R2 → R2 uma transformação linear no plano euclidiano com


forma matricial dada por MT, temos que:

4. T é uma rotação se, e somente se, det(MT) = 1;


5. T é reflexão se, e somente se, det(MT) = –1.

ANTON, H.; BUSBY, R. C. Álgebra linear contemporânea. Porto Alegre: Bookman, 2006.
NICHOLSON, W. K. Álgebra linear. 2. ed. Porto Alegre: McGraw-Hill, 2006.

Leitura recomendada
LIPSCHUTZ, S.; LIPSON, M. L. Álgebra linear. 4. ed. Porto Alegre: Bookman, 2011. (Coleção
Schaum).
ÁLGEBRA LINEAR

Silvano Antonio Alves Pereira Junior


O espaço vetorial ℝ n:
dependência e
independência linear
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:

„„ Definir dependência e independência linear.


„„ Relacionar dependência e independência linear com os conceitos de
gerador e matriz inversa.
„„ Reconhecer a interpretação geométrica de dois vetores linearmente
dependentes.

Introdução
Neste capítulo, exploraremos um pouco mais os conjuntos de vetores
em ℝ n. Você verá as definições de conjuntos linearmente independentes
e dependentes, conforme Nicholson (2006). Seguiremos estabelecendo
conexão entre a geometria e as combinações lineares, bem como re-
lacionando as ideias de dependência, independência linear e gerador
com matrizes.

Dependência e independência linear


Começamos com o resgate do conceito de combinação linear. Dado um con-

junto de vetores em ℝ n diremos que o vetor w é uma combinação
linear desses, se existirem a1, a2, ..., ak em ℝ, tais que:

Veja, a seguir, um exemplo de combinação linear.


2 O espaço vetorial ℝ n: dependência e independência linear

No plano euclidiano ℝ 2 temos alguns exemplos interessantes. Os vetores


→ 1 → 0 → a
e1 = e e 2 = , geram o espaço ℝ 2. Em particular, dado um vetor v = b , podemos
0 1
→ →
escrevê-lo como uma combinação linear de e 1 e e 2. Com efeito, temos:

→ a a 0 1 0
v= = + =a +b = ae1 + be2
b 0 b 0 1

Mais precisamente, qualquer vetor do plano pode ser escrito como uma combinação
→ →
linear de e 1 e e 2.

Consideremos, agora, um conjunto de vetores { }em ℝ n, que


diremos que é linearmente independente, se os únicos valores de a1, a2, ...,
ak em ℝ, que tornam a combinação verdadeira, são a1, a2, ..., ak = 0.

Em outras palavras, um conjunto de vetores é linearmente independente


se, e somente se, a única combinação deles, que resulta no vetor nulo, for a
que apresenta todos os coeficientes iguais a zero.

→ 1 → 0
No exemplo anterior, os vetores e 1 = e e 2 = , formavam um conjunto de vetores
0 1

linearmente independentes. De fato, se ae1 + be2 = 0 , teríamos:

a+0=0
0+b=0

Portanto, a única combinação desses vetores, que resulta no vetor nulo, é a que tem
todos os coeficientes nulos.
O espaço vetorial ℝ n: dependência e independência linear 3

Como era de se esperar, nem todo conjunto de vetores é linearmente independente.


2
Considere o conjunto {e1, e2, w} formado pelos vetores do exemplo anterior e w = .
3
Utilizando o resultado desse exemplo, podemos escrever:

w = 2e1 + 3e2

Segue daí, pelas propriedades algébricas dos vetores, que também podemos escrever:


w – 2e1 + 3e2 = 0

Ou seja, existem coeficientes, não todos nulos, que formam uma combinação do
vetor igual ao nulo.

O conjunto apresentado na segunda parte do exemplo anterior nos fornece


um primeiro exemplo de um conjunto linearmente dependente. Diremos
que um conjunto { }em ℝ é linearmente dependente se existirem
coeficientes a1, a2, ..., ak em ℝ, tais que:

Isto é, existe uma combinação não nula que resulta no vetor nulo.
Uma interpretação importante de um conjunto linearmente dependente é
que qualquer um dos vetores desse conjunto pode ser escrito como combinação
linear dos demais.
Veja o exemplo a seguir.

Ainda no espírito do exemplo anterior, vamos considerar o espaço ℝ 3. De forma


a

semelhante ao que ocorre com ℝ 2, qualquer vetor v = b em espaço ℝ 3 pode ser escrito
c
1 0 0
como uma combinação linear dos vetores e1 = 0 , e2 = 1 e e3 = 0 . Com efeito, temos:
0 0 1
4 O espaço vetorial ℝ n: dependência e independência linear

a 1 0 0

v = b = a 0 + b 1 + c 0 = ae1 + be2 + ce3
c 0 0 1

Ainda como em ℝ 2, o conjunto {e1, e2, e3} é linearmente independente.


5

Considere, agora, o conjunto formado por {e1, e2, e3, w}, onde w = 3 . Tal conjunto é
15
linearmente dependente de vetores. Com efeito, temos do apresentado anteriormente
que:

5

w = 3 = 5e1 + 3e2 + 15e3
15

Segue que:

w – 5e1 + 3e2 + 15e3 = 0

Como dito, podemos escrever qualquer um dos vetores de um conjunto linearmente


dependente como combinação dos demais, como:

1 1 1
e3 = w – e1 + e2
15 3 5

Um importante teorema sobre esse assunto é apresentado em Nicholson


(2006).

Teorema: se { }em ℝ n é um conjunto linearmente independente,


então, todo vetor em ger{ } tem uma escrita única como combinação

linear dos vetores v i.
Em palavras, se um conjunto de geradores é linearmente independente,
cada vetor do espaço gerado é escrito de maneira única, a menos da ordenação,
como combinação linear dos vetores geradores.
Veja o seguinte exemplo sobre conjuntos geradores linearmente
independentes.
O espaço vetorial ℝ n: dependência e independência linear 5

Considere a matriz identidade In×n. Vamos mostrar que as colunas dessa matriz formam
um conjunto gerador de ℝ n linearmente independente. Temos:
1 ⋯ 0
In×n = ⋮ ⋱ ⋮
0 ⋯ 1
e os vetores:
1 0 0
e1 = 0 , e2 = 1 , ..., e = 0
⋮ ⋮ n

0 0 1

Verificamos, primeiramente, que esse conjunto gera o espaço ℝ n. Seguindo a mesma


ideia apresentada nos exemplos anteriores, temos que, dado um vetor:
w1
w2
w= є Rn

wn

podemos escrever:
w1 1 0 0
w2 0 +w 1 +⋯+w 0 =we +we +⋯+w e
w= = w1 2 n 1 1 2 1 n n
⋮ ⋮ ⋮ ⋮
wn 0 0 1

concluindo que ger{e1, e2, ⋯, en} = ℝ n. Agora, a parte sobre a independência linear:
digamos que exista uma combinação linear dos vetores e1, e2, ⋯, en, tal que:

a1e1 + a2e2 + ⋯ + anen = 0

Teríamos, então:
a1 + 0 + ⋯ + 0 =0
0 + a2 + ⋯ + 0 = 0

0 + 0 + ⋯ + an =0

a1 = 0
a2 = 0

an = 0

Portanto, a única combinação desses vetores, que resulta no vetor nulo, é a com
todos os coeficientes nulos.
6 O espaço vetorial ℝ n: dependência e independência linear

Gerador e matriz inversa


O último exemplo da seção anterior nos fornece uma bela ideia de como
conjuntos geradores estão relacionados com conjuntos linearmente indepen-
dentes. Agora, você verá de perto essa relação e como matrizes inversas e
determinantes podem ser utilizadas para auxiliar na identificação de conjuntos
linearmente independentes de vetores.
O método do exemplo anterior pode ser sumarizado da seguinte maneira
(NICHOLSON, 2006).

Teste para independência linear: para verificar que um conjunto de vetores


{ }em ℝ n é linearmente independente, proceda do seguinte modo.

1. Escreva uma combinação linear dos vetores e iguale ao vetor nulo:

2. Mostre que a única maneira de isso ocorrer é trivialmente, ou seja, com


todos os coeficientes iguais a zero.

É claro que, se existir alguma solução não trivial, o conjunto de vetores é


linearmente dependente.
Veja mais um exemplo em que podemos utilizar essa ideia.

Considere a matriz:

1 2 0 0
2 1 0 0
A=
0 0 –1 2
0 0 3 6

Vamos verificar que as colunas dela não formam um conjunto linearmente inde-
pendente de vetores. Temos os seguintes vetores:
O espaço vetorial ℝ n: dependência e independência linear 7

1 2 0 0
v1 = 2 + v2 = 1 , v = 0 , v4 = 0
0 0 3 –1 2
0 0 3 6

Escrevemos a combinação linear a1v1 + a2v2 + a3v3 + a4v4 = 0 , que dá origem ao
seguinte sistema linear:

a1 + 2a2 = 0
2a1 + a2 = 0
–a3 + 2a4 = 0
3a3 + 6a4 = 0

Resolvendo esse sistema por substituição, por exemplo, obtemos a1 = a2 = a3 = a4 = 0.


O conjunto dos vetores coluna da matriz, portanto, é um conjunto linearmente
dependente.

Ainda sobre o exemplo anterior, é importante observar que o sistema linear


associado ao problema poderia ser escrito em forma matricial, como:

Observe, primeiramente, que o sistema é homogêneo. Portanto, se a matriz


principal for invertível, ele admite como solução apenas o vetor nulo. Com
efeito, a matriz principal do sistema tem determinante igual 36 e, portanto,
é invertível. Segue que a única solução possível para esse sistema é a trivial.
Resumindo o fato exposto, temos o seguinte teorema (NICHOLSON, 2015).

Seja A uma matriz n × n, então as seguintes afirmações são equivalentes.

1. A é invertível.
2. As colunas de A são linearmente independentes em ℝ n.
3. As colunas de A geram o espaço ℝ n.
4. As linhas de A são linearmente independentes em ℝ n.
5. As linhas de A geram o espaço ℝ n.
8 O espaço vetorial ℝ n: dependência e independência linear

Esse método de verificar se a matriz é invertível para concluir sobre a


independência de um conjunto de vetores pode ser muito útil. Veja o exemplo
a seguir.

Vamos utilizar o resultado anterior para verificar que os vetores a seguir formam um
conjunto de vetores linearmente independentes e mais ger{v1 + v2 + v3 + v4 } = ℝ 4.

1 2 3 0
v1 = 0 + v2 = 1 , v3 = 2 , v4 = 3
0 0 3 4
0 0 0 5

Começamos montando uma matriz A, cujas colunas são esses vetores. Temos:

1 2 3 0
0 1 2 3
A=
0 0 3 4
0 0 0 5

Pelo teorema anterior, basta verificar se a matriz A é invertível ou não, para podermos
obter as informações desejadas. Observe que a matriz A é diagonal superior, e seu
determinante é igual ao produto dos elementos em sua diagonal. Segue que:

det(A) = 1 × 1 × 3 × 5 = 15 ≠ 0

Concluímos, portanto, que A é invertível. Segue do teorema que os vetores formam


um conjunto linearmente independente de geradores do espaço ℝ 4.

cos(θ) –sen(θ)
Consideremos os vetores v1 = ,v = . Vamos verificar que, para qualquer
sen(θ) 2 cos(θ)
valor de θ, esses vetores formam um conjunto de geradores linearmente independentes
para o plano euclidiano. Com efeito, construímos a matriz:

cos(θ) –sen(θ)
A=
sen(θ) cos(θ)
O espaço vetorial ℝ n: dependência e independência linear 9

O determinante dela é dado por:

det(A) = cos(θ) cos(θ) – sen(θ)(–sen(θ))


det(A) = cos2(θ) + sen2(θ) = 1

onde essa última igualdade é uma identidade trigonométrica fundamental. Veja,


na Figura 1, alguns vetores dessa forma.

1.6

1.4

1.2

0.8

0.6

0.4

0.2
90º
45º
–2 –1.8 –1.6 –1.4 –1.2 –1 –0.8 –0.6 –0.4 –0.2 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 2.2
–0.2

–0.4

–0.6

–0.8

–1

Figura 1. Representação de vetores com coordenadas determinadas por valores de seno


e cosseno.

A matriz do exemplo anterior é de rotação. Ainda é possível ver a relação


entre dependência e independência linear e geometria.
Para encerrar este tópico, veja, ainda, um teorema apresentado em Ni-
cholson (2015).
Um conjunto de vetores { } em ℝ n é linearmente dependente
se, e somente se, pelo menos um dos vetores pode ser escrito como combinação
linear dos demais.
10 O espaço vetorial ℝ n: dependência e independência linear

Combinações lineares e geometria


Na seção anterior, você estudou sobre a relação entre matrizes invertíveis,
sistemas lineares e independência linear de conjuntos de vetores. Agora, você
terá maior contato com a geometria dos espaços ℝ n e algumas de suas relações
com conjuntos geradores, dependência e independência linear.
Em continuação ao tópico anterior, um corolário imediato daquele teorema
pode ser enunciado como em Nicholson (2015).

→ →
Corolário: sejam u e v vetores não nulos em ℝ 3 ou ℝ 2, então:

→ →
1. {u , v } é linearmente dependente se, e somente se, os vetores são
paralelos;
→ →
2. {u , v } é linearmente independente se, e somente se, os vetores não
são paralelos.

Esse simples resultado pode nos ajudar a estabelecer alguns testes muito
úteis para a compreensão de algumas propriedades geométricas. No plano
euclidiano, por exemplo, é muito importante conhecer quando dois vetores
são paralelos. Veja o exemplo a seguir.

Considere os vetores v1 = –1 , v2 = 10 Eles são paralelos? Podemos verificar, por


2 –20
inspeção direta, se existe α ∈ ℝ, tal que v1 = αv2 . Por outro lado, pelos resultados
estudados até este ponto, sabemos que tais vetores são paralelos se, e somente se,
forem linearmente dependentes. E eles assim serão se o determinante da matriz a
seguir for igual a zero:
–1 10
A=
2 –20

Temos:

det(A) = –1 × (–20) – (2 × 10) = 20 – 20 = 0

Logo, os vetores são, de fato, paralelos.


Observe que, em ℝ 3 não podemos utilizar determinante para verificar a condição
de paralelismo.
O espaço vetorial ℝ n: dependência e independência linear 11

Uma consequência importante desse corolário é a possibilidade de deter-


minar se duas retas em ℝ 2 são paralelas ou não, com o simples cálculo de um
determinante.
Em ℝ 3, temos algumas possibilidades quanto à geometria de espaços
gerados. Conjuntos com um único vetor não nulo dão origem a retas em
ℝ 3. Conjunto com dois vetores linearmente independentes geram, como su-
bespaços, planos em ℝ 3. Por fim, conjuntos com três vetores linearmente
independentes geram o próprio espaço ℝ 3.
Unindo essa informação com a ideia de que, em transformações matriciais,
as colunas geram o espaço imagem, podemos determinar a geometria do espaço
imagem por meio da dependência ou independência linear dos vetores coluna
da matriz da transformação.
Veja o exemplo a seguir.

Considere a matriz:

4 1 5
A = –7 5 –2
9 –3 6

Qual a geometria do espaço imagem dessa transformação: reta, plano ou todo o


espaço? Um primeiro teste que podemos fazer é o cálculo do determinante da matriz.
Se o determinante for diferente de zero, as colunas serão linearmente independentes
e, portanto, gerariam o espaço.
Obtemos que o determinante da matriz é igual a zero. Logo, as colunas não são
linearmente independentes, e existem números a, b, c ∈ ℝ, não todos nulos, que
sejam solução do sistema:

4a + b + 5c =0
–7a + 5b – 2c = 0
9a – 3b + 6c =0

Resolvendo esse sistema linear, pelo método de eliminação gaussiana, por exemplo,
obtemos a solução a = 1, b = 1, c = –1 Temos, portanto:

4 1 5 0
1 –7 + 1 5 – 1 –2 = 0
9 –3 6 0
12 O espaço vetorial ℝ n: dependência e independência linear

Segue dessa última igualdade que:

4 1 5
1 –7 + 1 5 = –2
9 –3 6

A terceira coluna é a soma das duas primeiras que, por sua vez, não são paralelas.
De fato, não existe λ ∈ ℝ, tal que:

4 1
–7 = λ 5
9 –3

Dessa maneira, o espaço imagem dessa transformação é um plano em ℝ 3.


Observe, ainda, que o sistema poderia ter sido resolvido com a simples constatação de
que a última coluna é a soma das duas primeiras, apenas seguindo o caminho contrário.

Veja outro exemplo sobre a geometria do espaço imagem de transformações


matriciais.

Considere a seguinte matriz:

5 7 9
H= 0 2 4
0 –6 –8

Vamos determinar a geometria do espaço imagem dessa transformação. Podemos


procurar por alguma combinação linear mais evidente, como no exemplo anterior.
Observe que a primeira coluna parece o resultado da diferença entre o dobro da
segunda coluna e a terceira. De fato, a conta é válida para os dois primeiros elementos,
mas falha no terceiro.

5=2×7–9
0=2×2–4
0 ≠ 2 × (–6) – (–8)
O espaço vetorial ℝ n: dependência e independência linear 13

Seguimos, então, calculando o determinante dessa matriz, obtendo:

det(H) = 40

Uma vez que o determinante é diferente de zero, sabemos que a matriz H é invertível,
e suas colunas formam um conjunto linearmente independente. Assim, o espaço
imagem da transformação matricial é o próprio ℝ 3.

As relações de dependência e independência linear fornecem poderosas


informações sobre conjuntos de vetores. Futuramente, você aprenderá sobre o
importante papel que conjuntos geradores linearmente independentes exercem
em álgebra linear.

É importante estar atento ao fato de que, em muitas das contas envolvendo trans-
formações matriciais, podemos utilizar os vetores linha ao invés dos vetores coluna.

Referência

NICHOLSON, W. K. Álgebra linear. 2. ed. São Paulo: McGraw-Hill, 2006.

Leitura recomendada
ANTON, H.; BUSBY, R. C. Álgebra linear contemporânea. Porto Alegre: Bookman, 2007.
LIPSCHUTZ, S.; LIPSON, M. Álgebra linear. 4. ed. Porto Alegre: Bookman, 2011. (Coleção
Schaum).
ÁLGEBRA LINEAR

Marcelo Maximiliano Danesi


Espaços vetoriais:
dependência e
independência linear
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:

„„ Definir os conceitos de dependência e independência linear para


espaços vetoriais gerais.
„„ Demonstrar a independência linear.
„„ Avaliar se um conjunto dado é independente a partir de suas
propriedades.

Introdução
Neste capítulo, você vai definirá o conceito de independência linear entre
vetores dentro da definição generalizada dos espaços vetoriais. Também,
verá exemplos de independência e dependência linear no espaço vetorial
das matrizes, dos polinômios e, principalmente, das funções.
A generalização de independência linear depende fortemente da
definição estudada no ℝ n. Você verá como esse conhecimento anterior
está sendo usado como base e como adaptamos propriedades do ℝ n
para o espaço vetorial das matrizes, dos polinômios e das funções em ℝ.

Dependência e independência linear


Dados E espaço vetorial e um conjunto não vazio de vetores B = {u1, u2, ..., un} ⊂ E,
dizemos que B é um conjunto linearmente independente se:

α1u1 + α2u2 + ... + αnun = 0


2 Espaços vetoriais: dependência e independência linear

admite apenas a solução trivial α1 = α2 = ... = αn = 0. Caso contrário, se houver


solução além dessa, dizemos que B é um conjunto linearmente dependente.

No espaço vetorial P2 dos polinômios de grau menor ou igual a 2 de coeficientes reais,


considere o conjunto B = {u1, u2, u3}, tal que:

u1 = x2 + 2x – 1
u2 = 3x2 + x
u3 = –5x + 3

Esse conjunto é linearmente dependente, pois:

α1u1 + α2u2 + α3u3 = 0

admite a solução não trivial α1 = 3, α2 = –1, α3 = 1, de modo que:

3u1 – 1u2 + 1u3 = 0

Um caso particular da definição é o caso onde B contém dois vetores. Nesse


caso, B = {u1, u2} é linearmente dependente se, e somente se:

α1u1 + α2u2 = 0

admite solução não trivial, tal que α1, α2 ≠ 0. Assim, a igualdade é equi-
valente a:

E podemos concluir que um conjunto de dois vetores é linearmente depen-


dente se, e somente se, u1 e u2 são vetores múltiplos.
Espaços vetoriais: dependência e independência linear 3

No espaço vetorial M3×2(ℝ) das matrizes 3 × 2 de coeficientes reais, considere os


conjuntos:

2 1 1 2
1. B1 = u1 = –3 2 , u2 = –1 1
–1 0 3 2

–2 –4 3 6
2. B2 = v1 = 2 –2 , v2 = –3 3
–6 –4 9 6

Observe o seguinte:
„„ B1 é linearmente independente, pois não existe λ ∈ ℝ, tal que u1 = λu2. Para isso,
basta verificar que a igualdade u1 = λu2 é equivalente ao sistema a seguir, o qual
não tem solução:

2 = 1λ
1 = 2λ
–3 = –1λ
2 = 1λ
–1 = 3λ
0 = 2λ

„„ B2 é linearmente dependente, pois existe λ ∈ ℝ, tal que v1 = λv2. Para isso, verificamos
que a igualdade v1 = λv2 é equivalente ao sistema:

–2 = 3λ
–4 = 6λ
2 = –3λ
–2 = 3λ
–6 = 9λ
–4 = 6λ

que tem solução λ = –2/3. Isto é:

–2 –4 3 6 0 0
1 ∙ 2 –2 + (–2/3) ∙ –3 3 = 0 0
–6 –4 9 6 0 0
4 Espaços vetoriais: dependência e independência linear

A última igualdade do exemplo anterior sinaliza um detalhe muito sutil da


definição de conjuntos linearmente independentes. Nas condições da definição,
dizer que B é linearmente independente significa que a única combinação
linear que resulta no vetor nulo é a combinação:

α1u1 + α2u2 + ... + αnun = 0

onde α1 = α2 = ... = αn = 0. Estamos destacando essa sutiliza pelo exemplo


a seguir.

No espaço vetorial C 0 (ℝ) das funções reais contínuas em ℝ, considere os conjuntos:


1. B1 = {u1 = cos2(x), u2 = 1 – sen2(x)}
2. B2 = {v1 – sen(x), v2 = cos(x)}
E observe o seguinte:
„„ B1 é linearmente dependente, pois existe λ ∈ ℝ, tal que u1 = λu2. Para isso, temos que
nos lembrar da relação fundamental trigonométrica que afirma, para todo x ∈ ℝ:

cos2(x) + sen2(x) = 1

Portanto:

cos2(x) = 1 · (1 – sen2 (x))

Essa igualdade vale para todo x ∈ ℝ.


„„ B2 é linearmente independente, pois não existe λ ∈ ℝ, tal que v1 = λv2; essa última
igualdade ocorre porque v1 = λv2 significa que:

sen(x) = λcos(x)

Ou, de forma equivalente:

sen(x)
= tg(x) = λ
cos(x)

onde a função tg(x) não é constante. Isto é, não existe λ, tal que v1(x) = λv2(x) para
todo x ∈ ℝ.
Espaços vetoriais: dependência e independência linear 5

Esse último exemplo saiu um pouco da nossa zona de conforto porque nem
sempre conseguimos identificar de imediato as várias formas que uma função
assume. O critério a seguir ajuda imensamente nesse sentido.
Dados I ⊂ ℝ intervalo aberto e o espaço vetorial C0(I) das funções reais
contínuas em I, se as funções u1, u2, ..., un são diferenciáveis, pelo menos (n – 1)
vezes em I (ANTON; RORRES, 2012), e a função:

for diferente de zero em, pelo menos, um ponto do intervalo I, então as


funções u1, u2, ..., un são linearmente independentes em C0(I). Também podemos
referir à função anterior como wronskiano de u1, u2, ..., un ou W(u1, u2, ..., un).
Essa definição será bastante utilizada na resolução de equações diferenciais.

A função u’ representa a derivada de primeira ordem da função u = u(x), e a função u(n)


representa a derivada de n-ésima ordem da função u = u(x), de forma que:

du dnu
u’ = e u(n) =
dx dxn

Veremos um exemplo sobre esse critério.

Em C0(ℝ), considere {v1 = sen(x), v2 = cos(x)}. Para esse conjunto, o wronskiano calcula:
v1 v2 sen(x) cos(x)
W(x) = det = det = –sen(x) sen(x) – cos(x) cos(x)
v’1 v’2 cos(x) –sen(x)

= –(sen2(x) + cos2(x)) = –1

Assim, W(x) = –1 para todo x ∈ ℝ, e esse conjunto é linearmente independente.


6 Espaços vetoriais: dependência e independência linear

Cuidado: o critério fornecido pelo wronskiano é bastante poderoso, mas


nada garante a sua recíproca. Isto é, nas hipóteses da condição, se W(u1, u2,
..., un) = 0 para todo x ∈ I, não necessariamente, {u1, u2, ..., un} é linearmente
dependente ou independente.

Em C 0(ℝ), considere {u1, u2, u3}, tal que:

u1 = x2 + 2x – 1
u2 = 3x2 + x
u3 = –5x + 3

Para esse conjunto, o wronskiano calcula:

u1 u2 u3 x2 + 2x –1 3x2 + x –5x + 3
W(x) = det u’1 u’2 u’3 = det 2x + 2 6x + 1 –5
u’1’ u’2’ u’3’ 2 6 0

= +(0 + (3x2 + x)(–5)(2) + (–5x + 3)(2x + 2)6)


– (0 + 2(6x + 1)(–5x + 3) + 6(–5)(x2 + 2x –1))
= +(–90x2 – 34x + 36) – (–90x2 –34x + 36) = 0

Assim, W(x) = 0 para todo x ∈ ℝ. Não podemos garantir que esse conjunto seja
linearmente independente.

Outras propriedades
Antes de prosseguirmos, é importante citarmos outras propriedades já co-
nhecidas e generalizar mais algumas. Dados E espaço vetorial B ⊂ E um
conjunto de vetores, se:

I. 0 ∈ B, então B é linearmente dependente;


II. B = {u1} e u1 ≠ 0, então B é linearmente independente;
III. B = {u1, u2}, então B é linearmente independente se, e somente se, u1
≠ λu2 para todo λ ∈ ℝ;
IV. E = ℝ n e B = {u1, u2, ..., um}, onde m > n, então B é linearmente dependente;
Espaços vetoriais: dependência e independência linear 7

V. B é linearmente dependente, então existe u ∈ B , tal que u é combinação


linear dos demais vetores em B;
VI. B = {u1, u2, …, um} é linearmente independente, v ∈ E e v ∉ ger(B), então
B ∪{v} = {u1, u2, ..., um, v} é linearmente independente.

Demonstração da independência linear


A ideia agora é mostrarmos, por meio de uma série de exemplos, como veri-
ficamos a definição de independência linear nos diferentes espaços vetoriais.
Começando com um exemplo no espaço vetorial Pn (n ∈ ℕ fixado) dos
polinômios de grau menor ou igual a n e de coeficientes reais.

Sejam n = 3 e {u1, u2, u3} ⊂ P3, tal que:

u1 = x3 – 2x + 4
u2 = x2 + 1
u3 = 2x3 – x2 + x + 1

Pela definição, {u1, u2, u3} é linearmente independente se:

α1u1 + α2u2 + α3u3 = 0

admite apenas a solução trivial α1 = α2 = α3 = 0.


Substituindo u1, u2, u3 na condição anterior, podemos reescrevê-la como:

α1(x3 – 2x + 4) + α2(x2 + 1) + α3(2x3 – x2 + x + 1) = 0.

Reorganizando os termos de acordo com as potências de x, a igualdade fica:

(α1 + 2α3)x3 + (α2 – α3)x2 + (–2α1 + α3)x + (4α1 + α2 + α3) = 0

Essa igualdade afirma, então, que cada coeficiente à esquerda é igual ao respectivo
coeficiente do vetor nulo à direita. Ou seja:
α1 + 2α3 = 0
α2 – α3 = 0
–2α1 + α3 = 0
4α1 + α2 + α3 = 0
8 Espaços vetoriais: dependência e independência linear

é equivalente à equação matricial:

1 0 2 α 0
0 1 –1 . α1 0
2 =
–2 0 1 α3 0
4 1 1 0

Aplicando o método de Gauss, podemos escalonar essa matriz de forma que:

1 0 2 1 0 2 1 0 2 1 0 2
0 1 –1 0 1 –1 0 1 –1 0 1 –1
~ ~ ~
–2 0 1 0 0 5 0 0 5 0 0 1
4 1 1 0 1 –7 0 0 –6 0 0 0

é uma matriz triangular superior com 3 pivôs, o que significa que a única solução dessa
equação é a solução trivial α1 = α2 = α3 = 0, e {u1, u2, u3} é linearmente independente.

É interessante observar que, no exemplo anterior, existe uma relação di-


reta entre a independência linear dos vetores u1, u2, u3 em P3 e a dos vetores
→ → →
v 1 = (1,0,–2,4), v 2 = (0,1,0,1), v 3 = (2,–1,1,1) em ℝ4 (os vetores coluna da matriz).
Essa relação serve para mostrar que o espaço Pn não é tão diferente do ℝ n+1,
uma vez que identificamos o polinômio u = anxn + ... + a1x + a0 ∈Pn como o

vetor v = (an, ..., a1, a0) ∈ ℝ n+1.

Para todo n ∈ ℕ, Pn é um subespaço vetorial de C 0(ℝ). Logo, podemos usar o wronskiano


para determinar a independência de polinômios.

O próximo exemplo explora uma relação similar no espaço vetorial Mm×n (ℝ)
(n, m ∈ ℕ fixados) das matrizes m × n de coeficientes reais.
Espaços vetoriais: dependência e independência linear 9

Sejam m = 3, n = 2 e {u1, u2, u3, u4} ⊂ M3×2(ℝ), tal que:

–3 12
u1 = –2 6
–4 –11

0 3
u2 = –4 0
–2 –4

–1 2
u3 = 2 2
0 –1

3 –2
u4 = 0 –1
–3 2
Pela definição, {u1, u2, u3, u4} é linearmente independente se:

α1u1 + α2u2 + α3u3 + α4u4 = 0

admite apenas a solução trivial α1 = α2 = α3 = α4 = 0.


Substituindo u1, u2, u3, u4 na condição anterior, podemos reescrevê-la como:
–3 12 0 3 –1 2 3 –2 0 0
α1 –2 6 + α2 –4 0 + α3 2 2 + α4 0 –1 = 0 0
–4 –11 –2 –4 0 –1 –3 2 0 0
Somando as matrizes, temos:

–3α1 – 1α3 + 3α4 12α1 + 3α2 + 2α3 – 2α4 0 0


–2α1 – 4α2 + 2α3 6α1 + 2α3 –1α4 = 0 0
–4α1 – 2α2 – 3α4 –11α1 – 4α2 – 1α3 + 2α4 0 0

Essa igualdade afirma, então, que cada entrada à esquerda seja igual à respectiva
entrada do vetor nulo à direita. Ou seja:

–3α1 – 1α3 + 3α4 = 0


12α1 + 3α2 + 2α3 – 2α4 = 0
–2α1 – 4α2 + 2α3 = 0
6α1 + 2α3 – 1α4 = 0
–4α1 – 2α2 – 3α4 = 0
–11α1 – 4α2 – 1α3 + 2α4 =0
10 Espaços vetoriais: dependência e independência linear

é equivalente à equação matricial:

–3 0 –1 3 0
12 3 2 –2 α1 0
–2 –4 2 0 α2 0
. =
6 0 2 –1 α3 0
–4 –2 0 –3 α4 0
–11 –4 –1 2 0

Aplicando o método de Gauss, podemos escalonar essa matriz de forma que:


–3 0 –1 3 1 2 –1 0 1 2 –1 0
12 3 2 –2 12 3 2 –2 0 –21 14 –2
–2 –4 2 0 –3 0 –1 3 0 6 –4 3
~ ~
6 0 2 –1 6 0 2 –1 0 –12 8 –1
–4 –2 0 –3 –4 –2 0 –3 0 6 –4 –3
–11 –4 –1 2 –11 –4 –1 2 0 18 –12 2

1 2 –1 0 1 2 –1 0 1 2 –1 0 3 0 1 0
0 –21 14 –2 0 –21 14 0 0 3 –2 0 0 3 –2 0
~ 0 6 –4 3 ~ 0 6 –4 0 ~ 0 3 –2 0 ~ 0 0 0 1
0 0 0 5 0 0 0 1 0 0 0 1 0 0 0 0
0 0 0 –6 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 –7 0 0 0 0 0 0 0 0 0 0 0 0

é uma matriz com 3 pivôs, uma variável livre, o que significa que existe solução não
nula, e {u1, u2, u3, u4} é linearmente dependente. Em particular, as soluções da equação
matricial são da forma:

–1 , 2 , 1, 0
(α1, α2, α3, α4) = α3
3 3

com α3 ∈ ℝ, o que significa que:

–3 12 0 3 –1 2 3 –2
–1/3 –2 6 + 2/3 –4 0 + 1 2 2 + 0 0 –1 = 0
–4 –11 –2 –4 0 –1 –3 2

ou

–1 2 –3 12 0 3
1 2 2 = +1/3 –2 6 – 2/3 –4 0
0 –1 –4 –11 –2 –4

u3 = + 1 u1 – 2 u2
3 3

Isso confere com a propriedade que diz que, se o conjunto é linearmente dependente,
então, algum vetor é combinação dos demais.
Espaços vetoriais: dependência e independência linear 11

Como no exemplo anterior, temos uma relação direta entre a independência


linear dos vetores u1, u2, u3, u4 em M3×2(ℝ) e a dos vetores coluna da matriz
da equação. Essa relação alerta como podemos entender a independência
linear das matrizes em Mm×n (ℝ) a partir de vetores no ℝ mn. Inclusive podemos
enunciar o seguinte.
Dado B = {u1, u2, …, uk} conjunto contido em E espaço vetorial, então B
é linearmente dependente se:

I. E = ℝ n e k > n;
II. E = Pn e k > n + 1;
III. E = Mm×n (ℝ) e k > m ∙ n.

Em C0(ℝ), não existe essa estimativa. Inclusive, podemos usar o wronskiano


para mostrar que, para todo k ∈ ℕ, é possível construir um conjunto de k vetores
linearmente independentes em C0(ℝ). A saber, fixado k ∈ ℕ, para o conjunto
{u1 = 1, u2 = x, u3 = x2, ..., uk = xk–1}, calculamos:

Essa última matriz é uma diagonal superior, e o seu determinante é o


produto das constantes positivas ao longo da sua diagonal principal. Logo,
W(x) ≠ 0 para todo x ∈ ℝ, e esse conjunto é linearmente independente em C 0(ℝ).

Avaliação da independência linear a partir


das propriedades do conjunto
A ideia, agora, é mostrarmos, por meio de uma série de exemplos, como
identificamos se um conjunto é linearmente independente ou dependente de
acordo com as propriedades que listamos.
No exemplo a seguir, exploramos a propriedade que fala sobre a independên-
cia de um conjunto formado por dois vetores. Isto é, que {u1, u2} é linearmente
independente se, e somente se, u1 ≠ λu2 para todo λ ∈ ℝ.
12 Espaços vetoriais: dependência e independência linear

No espaço vetorial C 0(ℝ) das funções reais contínuas em ℝ, considere os conjuntos:


1. B1 = {u1 = ex, u2 = 2ex}
2. B2 = {v1 = ex, v2 = xex}
e observe o seguinte:

1. B1 é linearmente dependente, pois existe λ ∈ ℝ, tal que u1 = λu2. Para isso, basta
1
tomar λ = 1/2 e observar que, para todo x ∈ ℝ, ex = (2ex).
2
2. B2 é linearmente independente, pois não existe λ ∈ ℝ, tal que v1 = λv2. Essa última
igualdade ocorre porque v1 = λv2 significa que ex = λxex. Ou, de forma equivalente,
ex 1
que x = = λ , onde a função 1/x não é uma constante. Aliás, também podemos
xe x
justificar que esse conjunto é linearmente independente, tomando o wronskiano:

v v ex xex
W(x) = det v’1 v’2 = det x = (x + 1)e2x – xe2x = e2x
1 2 e (x + 1)ex

Assim, W(x) = e2x ≠ 0 para todo x ∈ ℝ. E podemos afirmar que esse conjunto é, de
fato, linearmente independente.

A maior observação que temos de fazer em relação ao exemplo anterior é


em relação ao uso do termo “vetores múltiplos” quando estamos no espaço
das funções. O conjunto {ex, 2ex} é linearmente dependente porque essas
funções são múltiplas por um número real, enquanto que o conjunto {ex, xex}
é linearmente independente porque essas funções não são múltiplas por um
número real.
No exemplo a seguir, examinaremos que, em Pn, qualquer conjunto de (n + 2)
vetores ou mais é, obrigatoriamente, linearmente dependente, mas sempre é
possível determinar um conjunto de (n + 1) vetores linearmente independente.

Em P2 , o conjunto dos polinômios de grau menor ou igual a 2 de coeficientes reais,


considere os conjuntos:
Espaços vetoriais: dependência e independência linear 13

1. B1 = {u1, u2, u3, u4}, tal que:

u1 = 3x2 – 2x + 1
u2 = –x2 – x + 1
u3 = x2 + x
u4 = 3x + 5
2. B2 = {v1 = 1, v2 = x, v3 = x2}
Observe o seguinte:
1. Pela definição, {u1, u2, u3, u4} é linearmente independente se α1u1 + α2u2 + α3u3 +
α4u4 = 0 admite apenas a solução trivial α1 = α2 = α3 = α4 = 0. Substituindo u1, u2, u3,
u4 na condição anterior, podemos reescrevê-la como:
α1(3x2 – 2x + 1) + α2(–x2 – x + 1) + α3(x2 + x) + α4(3x + 5) = 0

Somando e reorganizando os termos de acordo com as potências de x, a igualdade


fica:

(3α1 – α2 + α3)x2 + (–2α1 – α2 + α3 + 3α4)x + (α1 + α2 + 5α4) = 0

Logo, para cada coeficiente, temos:

3α1 – α2 + α3 = 0
–2α1 – α2 + α3 + 3α4 = 0
α1 + α2 + 5α4 = 0

que é equivalente à equação matricial:

α1
3 –1 1 0 α 0
–2 –2 1 3 . α2 = 0
3
1 1 0 5 α4 0

Observe que, para essa quantidade de vetores, o método de Gauss nos indicará ao
menos uma variável livre, e, por esse motivo, {u1, u2, u3, u4} é linearmente dependente.
Em particular:

3 –1 1 0 1 1 0 5 1 1 0 5 1 1 0 5
–2 –2 1 3 ~ 3 –1 1 0 ~ 0 –4 1 –15 ~ 0 –4 0 –28
1 1 0 5 –2 –2 1 3 0 0 1 13 0 0 1 13

1 1 0 5 1 0 0 –2
~ 0 1 0 7 ~ 0 1 0 7
0 0 1 13 0 0 1 13
14 Espaços vetoriais: dependência e independência linear

e as soluções da equação matricial são da forma:

(α1, α2, α3, α4) = α4(2, –7, –13, 1)

com α4 ∈ ℝ, o que significa que:

2(3x2 – 2x + 1) – 7(–x2 – x + 1) – 13(x2 + x) + 1(3x + 5) = 0

ou

1(3x + 5) = –2(3x2 – 2x + 1) + 7(–x2 – x + 1) + 13(x2 + x)


u4 = –2u1 + 7u2 + 13u3
2. B2 é linearmente independente, pois calculando o wronskiano:

v1 v2 v3 1 x x2
W(x) = det v’1 v’2 v’3 = det 0 1 2x = 2
v’1’ v’2’ v’3’ 0 0 2

Assim, W(x) = 2 ≠ 0 para todo x ∈ ℝ. E podemos afirmar que esse conjunto é, de


fato, linearmente independente.

Analogamente, em Mm×n (ℝ), qualquer conjunto de (m ∙ n + 1) vetores ou mais


é, obrigatoriamente, linearmente dependente, e sempre é possível determinar
um conjunto de (m ∙ n) vetores linearmente independente.

Em M2×3(ℝ), qualquer conjunto com 7 ou mais matrizes é linearmente dependente,


enquanto que a seguinte matriz é um conjunto linearmente independente.

1 0 0 0 1 0 0 0 1
A11 = ,A = ,A = ,
0 0 0 12 0 0 0 13 0 0 0

A21 = 0 0 0 ,A = 0 0 0 ,A = 0 0 0
1 0 0 22 0 1 0 23 0 0 1
Espaços vetoriais: dependência e independência linear 15

No exemplo a seguir, coloque em prática a propriedade que: dados B = {u1,


u2, ..., um} e v ∈ E tal que B é linearmente independente e v ∉ ger(B), então
B ∪ {v} = {u1, u2, ..., um, v} é linearmente independente.

Em P3, o conjunto dos polinômios de grau menor ou igual a 3 de coeficientes reais,


considere o conjunto B1 = {u1 = –3x2 + 4, u2 = 2x2 – 1} e repare que esse é linearmente
independente, pois u1 não é múltiplo de u2.
Se tomarmos v ∈ P3, um polinômio de grau 1 qualquer, então, v ∉ ger(B1) e B2 = B1 ∪ {v}
é linearmente independente.
Podemos repetir esse processo mais uma vez, já que nenhum polinômio de grau 3
pode ser escrito como combinação dos vetores em B2. Se w é um polinômio de grau
3 qualquer, então, B3 = {u1, u2, v, w} é linearmente independente.

Referência

ANTON, H.; RORRES, C. Álgebra linear: com aplicações. 10. ed. Porto Alegre: Bookman,
2012.

Leituras recomendadas
ANTON, H.; BIVENS, I.; DAVIS, S. Cálculo. 10. ed. Porto Alegre: Bookman, 2014. v. 1.
LAY, D.; LAY, S.; MACDONALD, J. Álgebra linear e suas aplicações. 5. ed. Rio de Janeiro:
LTC, 2018.
ÁLGEBRA LINEAR

Marcelo Maximiliano Danesi


O espaço vetorial ℝ n :
formas quadráticas
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:

„„ Definir formas quadráticas.


„„ Reconhecer uma matriz positiva definida.
„„ Resolver o algoritmo para a Decomposição de Cholesky.

Introdução
Neste capítulo, você aprenderá sobre matrizes ortogonais, matrizes
simétricas, as propriedades que permitem reescrever as matrizes simé-
tricas a partir de matrizes ortogonais, o uso desse método para formas
quadráticas, a classificação de matrizes simétricas em relação aos seus
autovalores e o cálculo da Decomposição de Cholesky para matrizes de
uma classe das simétricas.
Para uma matriz simétrica, seus autovalores e autovetores são essen-
ciais para um tipo especial de diagonalização. Usaremos essa decom-
posição para definir e reescrever as formas quadráticas -dimensionais
e classificá-las. Veremos, também, como a diagonalização de matrizes
simétricas por matrizes ortogonais permite calcular uma forma especial
de decomposição LU: a decomposição de Cholesky — que, quando
possível, requer aproximadamente metade do número de operações
necessário na fase de eliminação da fatoração LU.
2 O espaço vetorial ℝ n : formas quadráticas

Decomposição espectral e formas quadráticas


Uma matriz A, n × n, é dita ortogonal se:

A ∙ AT = AT ∙ A = I

Isto é, se:

A–1 = AT

Considere as matrizes quadradas:

–3/5 4/5
A=
4/5 3/5

1/√5 2/√6 –2/√30


B = –2/√5 1/√6 –1/√30
0 1/√6 5/√30

Mostre que A e B são matrizes ortogonais pela definição.

Solução:
A forma mais simples é calcular o produto da matriz pela sua transposta. Se esse
produto resultar na matriz identidade, então, a matriz em questão será ortogonal.

–3/5 4/5 –3/5 4/5 1 0


A · AT = · =
4/5 3/5 4/5 3/5 0 1

1/√5 2/√6 –2/√30 1/√5 –2/√5 0 1 0 0


B · BT = –2/√5 1/√6 –1/√30 . 2/√6 1/√6 1/√6 = 0 1 0
0 1/√6 5/√30 –2/√30 –1/√30 5/√30 0 0 1
O espaço vetorial ℝ n : formas quadráticas 3

O exemplo anterior é interessante por mostrar uma propriedade entre linhas


e colunas de uma matriz ortogonal frente ao produto escalar.
Se A é matriz n × n, então as afirmações a seguir são equivalentes.

a) A é ortogonal.
b) Os vetores coluna de A formam uma base ortonormal do ℝ n.
c) Os vetores linha de A formam uma base ortonormal do ℝ n.

Isso significa que as matrizes ortogonais são essencialmente matrizes de mudança


de base.

Uma matriz A = [aij], n × n, é dita simétrica se:

AT = A

Isto é, se para cada i, j = 1, ..., n

aij = aji

Um caso particular de matriz simétrica são as matrizes diagonais. Uma


matriz D = [dij], n × n é dita diagonal se dij = 0 para i ≠ j, e i, j = 1, ..., n, isto
é, uma matriz diagonal apresenta entradas nulas em todas as posições fora
da diagonal principal.
4 O espaço vetorial ℝ n : formas quadráticas

Estas matrizes são simétricas:

A= 3 –4
–4 –3

1 5 0
B= 5 –2 –3
0 –3 0

–2 0 0
C= 0 0 0
0 0 5

Em particular, C é uma matriz diagonal.

Estamos definindo essas características para mostrar, no exemplo a se-


guir, a relação entre matrizes ortogonais e simétricas. Generalizaremos esse
resultado na sequência.

Diagonalize a matriz simétrica:

A= 3 –4
–4 –3

Solução:
A equação característica de A é:

det(A – λI) = 0

det 3 – λ –4 = 0
–4 –3 – λ

(3 – λ)(–3 – λ) –16 = 0

–9 – 3λ + 3λ + λ2 – 16 =0

λ2 – 25 = 0
O espaço vetorial ℝ n : formas quadráticas 5

Isto é, A tem autovalores λ1 = 5 e λ2 = –5. Calculando os respectivos autovetores,


temos o seguinte.

„„ Para λ1 = 5:

x 0
(A – 5I) ∙ x1 =
2 0

–2 –4 x 0
∙ x1 =
–4 –5 2 0

que nos leva a:

{ 1x1 + 2x2 = 0
x2 = x2


Portanto, o autovetor associado é o vetor v 1 = (–2,1).

„„ Para λ2 = –5:

x 0
(A + 5I) ∙ x1 =
2 0

8 –4 x 0
∙ x1 =
–4 2 2 0

que nos leva a:

{ x1 = x1
–2x1 + x2 = 0


Portanto, o autovetor associado é o vetor v 2 = (1,2).
Assim, A contém dois autovalores reais e distintos com autovetores formando uma
base:

→ →
C = {v 1 = (–2,1), v 2 = (1,2)}

ortogonal do ℝ 2. Lembrando-se de que qualquer múltiplo de um autovetor também


é um autovetor associado ao mesmo autovalor, podemos normalizar a base B e construir
uma base ortonormal de autovetores:

G= { –2 1
,
√5 √5
,
1 2
,
√5 √5 {
6 O espaço vetorial ℝ n : formas quadráticas

Dessa forma,

–2/√5 1/√5 5 0
P= eD=
1/√5 2/√5 0 –5

são matrizes tal que:


P–1AP = D

P–1AP = D

Como P é ortogonal, P–1 = PT. Logo:

–2/√5 1/√5 3 –4 –2/√5 1/√5 5 0


=
1/√5 2/√5 –4 –3 1/√5 2/√5 0 –5

Isto é, a matriz simétrica A é diagonalizável por uma matriz ortogonal formada pelos
seus autovetores.

O resultado do exemplo não é uma coincidência. Inclusive, podemos


enunciar que: uma matriz A, n × n, é diagonalizável por matriz ortogonal se,
e somente se, A for matriz simétrica. Outras propriedades de uma matriz A,
n × n, simétrica são as seguintes.

a) A tem n autovalores reais, contando multiplicidades.


b) A dimensão do subespaço correspondente a cada autovalor λ é igual à
multiplicidade da raiz λ na equação característica de A.
c) Os subespaços definidos por cada autovalor são ortogonais entre si,
no sentido que os autovetores correspondentes a autovalores distintos
são ortogonais.

Em suma, toda matriz simétrica é diagonalizável por uma matriz ortogonal


composta por autovetores. Mas como proceder quando temos raízes múltiplas
na equação característica?
O espaço vetorial ℝ n : formas quadráticas 7

Diagonalize a matriz simétrica:

2 –2 –4
A = –2 5 –2
–4 –2 2

Solução:
A equação característica de A é:

– λ³ + 9λ² – 108 = 0

que pode ser fatorada em:

(λ + 3)(λ – 6)² = 0

Isto é, A tem autovalores λ1 = –3, λ2 = 6 e λ3 = 6. Calculando os respectivos autovetores,


temos o seguinte.

„„ Para λ1 = –3:

x1 0
(A + 3I) ∙ x2 = 0
x3 0

5 –2 –4 x1 0
–2 8 –2 ∙ x2 = 0
–4 –2 5 x3 0

que nos leva a:

{
1x1 – 2x2 = 0
x2 = x2
–2x2 + x3 = 0


Portanto, o autovetor associado é o vetor v 1 = (2,1,2).
8 O espaço vetorial ℝ n : formas quadráticas

„„ Para λ2, λ3 = 6:

x1 0
(A – 6I) ∙ x2 = 0
x3 0

–4 –2 –4 x1 0
–2 –1 –2 ∙ x2 = 0
–4 –2 –4 x3 0

que nos leva a:

{
x1 = x1
2x1 + 1x2 + 2x3 = 0
x3 = x3

ou, na forma vetorial:

x1 1 0
x2 = x –2 + x –2
1 3
x3 0 1

→ →
Portanto, os autovetores associados são os vetores v 2 = (1,–2,0), v 3 = (0,–2,1).
Isso nos mostra que o subespaço associado ao autovalor λ2, λ3 = 6 tem dimensão 2
e é ortogonal ao subespaço determinado pelo autovalor λ1 = –3. Contudo, a base
associada a λ2, λ3 = 6 não é ortogonal. O que faremos é ortogonalizar o conjunto
→ →
{v 2, v 3} a fim de encontrar uma base ortogonal do subespaço definido pelo autovalor
λ2, λ3 = 6. Podemos fazer essa ortogonalização devido ao fato de que uma combinação
linear de autovetores do mesmo autovalor também é um autovetor associado ao
mesmo autovalor.
→ →
Aplicando o método de Gram-Schmidt à base {v 2, v 3}, obtemos a base ortogonal:

{(1,–2,0), 15 (–4,–2,5) }
Assim, A contém três autovalores reais (contando multiplicidade) com autovetores
formando uma base ortogonal do ℝ 2:

{
C = (2,1,2), (1,–2,0),
1
5
(–4,–2,5) }
O espaço vetorial ℝ n : formas quadráticas 9

Lembrando-se de que qualquer múltiplo de um autovetor também é um autovetor


associado ao mesmo autovalor, podemos normalizar a base B e construir uma base
ortonormal de autovetores:

G= { 2 , 1 , 2 , 1 , –2 , 0 , –4 , –2 , 5
3 3 3 √5 √5 √45 √45 √45 }
Dessa forma:

2/3 1/√5 –4/√45 –3 0 0


P = 1/3 –2/√5 –2/√45 e D = 0 6 0
2/3 0 5/√45 0 0 6

são matrizes tal que:

P–1AP = D

Como P é ortogonal, P–1 = PT. Logo:

2/3 1/3 2/3 2 –2 –4 2/3 1/√5 –4/√45 –3 0 0


1/√5 –2/√5 0 –2 5 –2 1/3 –2/√5 –2/√45 = 0 6 0
–4/√45 –2/√45 5/√45 –4 –2 2 2/3 0 5/√45 0 0 6

Isto é, a matriz simétrica A é diagonalizável por uma matriz ortogonal formada pelos
seus autovetores.

Como esse exemplo ilustra, o processo de diagonalizar ortogonalmente


uma matriz simétrica A, n × n, pode ser descrito pelo algoritmo a seguir.

a) Calcule as raízes reais (contando multiplicidade) da equação caracte-


rística de A.
b) Encontre a base de autovetores associada a cada autovalor.
c) Use o método de Gram-Schmidt em cada uma das bases encontradas para
obter uma base ortonormal do subespaço associado a cada autovalor.

d) Escreva as matrizes a seguir, respeitando a ordem que o autovalor


→ → → →
λi está associado ao autovetor coluna v i. P = [v 1 v 2 ... v n] e
10 O espaço vetorial ℝ n : formas quadráticas

λ1 ... 0 0
⋮ λ1 ... 0
D= 0 .
⋮ ⋱ ⋮
0 0 ... λn

e) Escreva a diagonalização ortogonal de A, de forma que:

PTAP = D

λ1 ... 0 0
⋮ λ1 ... 0
D= 0 ⋮ ⋱ ⋮
0 0 ... λn

Note que, no algoritmo de diagonalização ortogonal, a matriz P é ortogonal, e a


matriz D é diagonal.

Uma consequência da decomposição descrita anteriormente é que, respei-


tando a notação anterior, podemos escrever a matriz A como:

A = PDPT

Isto é,


λ1 ... 0 0 v 1T

→ → → ⋮ λ2 ... 0 v 2T
A = [v 1 v2 ... v n]
0 ⋮ ⋱ ⋮ ⋮
0 0 ... λn →T
vn

o que é equivalente a escrever:

→ → → → → →
A = λ1v 1v 1T + λ2v 2v 2T + ... + λnv nv nT
O espaço vetorial ℝ n : formas quadráticas 11

que é denominada decomposição espectral da matriz A. Para fins de


→→ →
cálculo, vale ressaltar que v iv iT é o produto matricial da matriz v i, n × 1, pela

matriz v Ti , 1 × n, resultando numa matriz n × n.

Pelo cálculo do exemplo anterior, podemos afirmar que a diagonalização de:

2 –2 –4
A = –2 5 –2
–4 –2 2

nos dá que:

2/3 1/√5 –4/√45 –3 0 0 2/3 1/3 2/3


A = 1/3 –2/√5 –2/√45 0 6 0 1/√5 –2/√5 0
2/3 0 5/√45 0 0 6 –4/√45 –2/√45 5/√45

Assim, a decomposição espectral de A é:

2/3 1/√5
A = –3 1/3 [2/3 1/3 2/3] + 6 –2/√5 [1/√5 –2/√5 0]
2/3 0

–4/√45
+ 6 –2/√45 [–4/√45 – 2/√45 5/√45]
5/√45

Formas quadráticas
Uma forma quadrática é uma função Q: ℝ n → ℝ que transforma o vetor

x = (x1, x2, ..., xn) no número real dado pela expressão:

x1
x2
→ →T →
Q(x ) = x Ax = [x1 x2 ... xn] A ⋮
xn

onde A é uma matriz simétrica n × n associada à forma quadrática Q.


12 O espaço vetorial ℝ n : formas quadráticas

No ℝ 2, escreva a expressão que calcula Q se:

A= 3 –4
–4 –3

Pela definição:

3 –4 x1
Q(x1, x2) = [x1 x2] –4 –3 x2

Logo:

Q(x1, x2) = 3x12 – 3x22 – 8x1x2

É um pouco complicado representar por fórmulas, mas, fixado n ∈ ℕ, dada


uma expressão quadrática:

Q(x1, x2, ..., xn) = α1x12 + α2x22 + ... + αnxn2 + β1,2x1x2 + ... + βn–1,nxn–1xn

Com α1, ..., αn, β1,2, ..., βn–1,n ∈ ℝ, sempre conseguiremos encontrar uma
matriz simétrica A, n × n, que reduz a expressão acima a uma forma quadrá-
tica. Para tanto, basta ocupar a diagonal principal de A com os coeficientes
dos termos xi2 e dividir igualmente, entre as posições (i,j) e ( j,i) de A, i ≠ j, os
coeficientes dos termos cruzados xixj.
O espaço vetorial ℝ n : formas quadráticas 13

Escreva a matriz simétrica associada à expressão quadrática:

Q(x1, x2, x3) = 1x12 – 3x22 – 2x32 – 7x1x2 – 5x1x3 – 4x2x3

Pelo que observamos, a matriz simétrica A = [aij] contém, na diagonal principal, os


elementos:

a11 = 1, a22 = –3, a33 = 2

e, nas posições anteriores da diagonal principal (i < j), os elementos:

a12 = –7/2, a13 = 5/2, a23 = –4/2

De forma simétrica, preenchemos as demais posições, e a matriz A é:

1 –7/2 5/2
A = –7/2 – 3 –2
5/2 –2 2

Mudança de variáveis nas formas quadráticas


É fato que os termos cruzados xixj estão ligados aos termos fora da diagonal
principal da matriz A. A dúvida que nos resta é: será que existe uma mudança
→ →
de coordenadas de x = (x1, x2, ..., xn) para y = (y1, y2, ..., yn) , de maneira que a
forma quadrática nas novas coordenadas não contenha termos cruzados yiyj?
A resposta é praticamente imediata, agora que compreendemos o processo
de diagonalização de uma matriz simétrica por matrizes ortogonais. Dada uma
matriz simétrica A, n × n, existem P e D matrizes n × n , tal que P é ortogonal
e formada por uma base de autovetores de A, e D é uma matriz diagonal
formada pelos autovalores de A. Se considerarmos a mudança de coordenadas:


x→ = Py
→ →
ou reciprocamente P–1x = y , temos:

→ → → → → → →
Q(x ) = (Py )T A(Py ) = y T (PT AP)y = y TDy
14 O espaço vetorial ℝ n : formas quadráticas

Sendo essa última forma livre dos termos cruzados yiyj.


Vamos aproveitar os exemplos anteriores para mostrar como a mudança
de coordenadas funciona para uma forma quadrática do ℝ 2.

A forma quadrática Q(x1, x2) = 3x12 – 3x22 –8x1x2 tem matriz simétrica associada:

A= 3 –4
–4 –3

que pode ser ortogonalmente diagonalizável por:

–2/√5 1/√5 5 0
P= eD=
1/√5 2/√5 0 –5

Se tomarmos a mudança de coordenadas:

–2 1
x1 = y + y
√5 1 √5 2

1 2
x2 = y + y
√5 1 √5 2

ou reciprocamente:

–2 1
y1 = x + x
√5 1 √5 2

1 2
y2 = x + x
√5 1 √5 2

podemos reescrever Q como:

~
Q (y1, y2) = 5y12 –5y22
O espaço vetorial ℝ n : formas quadráticas 15

→ →
Para o cálculo de P–1x = y , lembre-se de que P–1 = PT, já que P é ortogonal.

Nessas condições, as colunas de P são chamadas de eixos principais da



forma quadrática Q(x→), enquanto que y é o vetor formado pelas coordenadas

de x relativas à base ortonormal do ℝ n, formada pelos eixos principais (que

são autovetores de A). Repare também que, em relação a y , a forma quadrática
é dada pela soma dos termos yi , e seus coeficientes são os autovalores de A.
2

Uma forma quadrática tem por imagem o conjunto de todos os valores possíveis de
→ → → →
Q(x ) com x variando em ℝ n. A mudança de coordenadas x = Py não altera a imagem
→ →
da forma quadrática, ou seja, a imagem de Q(x ) com x , variando em ℝ n, é igual à

imagem de y→ TDy→ com y , variando em ℝ n.

Matriz positiva definida


Dada uma forma quadrática, existe uma mudança de coordenadas x→ = Py→,
tal que:


Q(x ) = λ1y12 + λ2y22 + ... + λn yn2

onde λ1, λ2, ..., λn ∈ ℝ são os autovalores da matriz simétrica associada


a Q(x→). Essa conclusão nos permite classificar a forma Q(x→) por meio dos
autovalores λ1, λ2, ..., λn.
Dada A matriz simétrica, n × n, e Q(x→) forma quadrática definida por A,
dizemos que a forma Q é:
16 O espaço vetorial ℝ n : formas quadráticas

„„ positiva definida se, e somente se, todos os autovalores de A forem


→ → →
positivos e, nesse caso, Q(x ) > 0 se x ≠ 0 ;
„„ negativa definida se, e somente se, todos os autovalores de A forem
→ → →
negativos e, nesse caso, Q(x ) < 0 se x ≠ 0 ;
„„ indefinida se, e somente se, A tiver, pelo menos, um autovalor positivo
e um autovalor negativo.

Um cuidado que devemos ter ao tentar classificar a forma Q a partir da


matriz A é que os sinais das entradas de A não determinam a classificação
de Q. Veja, a seguir, o caso de uma matriz simétrica A com todas as entradas
positivas, mas que define uma forma indefinida.

2 4
A matriz simétrica A = define a forma quadrática:
4 3

Q(x1, x2) = 2x12 + 3x22 + 8x1x2

Contudo, essa forma não é positiva definida, pois:

1 , –1 2 3 8
Q = + – <0
2 2 4 4 4

Podemos verificar que Q é uma forma indefinida por meio do cálculo dos autovalores
de A, que são:

5 + √65 5 – √65
λ1 = e λ2 =
2 2

Isto é, λ1 > 0 e λ2 < 0.

Identificando matrizes positivas


A classificação da forma quadrática Q por meio dos autovalores da matriz
simétrica A pode ser estendida para a matriz A, isto é, se todos os autovalores
de A são positivos, dizemos que A é matriz simétrica positiva definida. Em
particular, as matrizes positivas definidas são as matrizes simétricas mais
O espaço vetorial ℝ n : formas quadráticas 17

importantes nas aplicações da teoria. Então, falaremos um pouco mais sobre


como identificar se uma matriz simétrica é positiva definida sem calcular os
seus autovalores.
Dada uma matriz A, n × n, tal que A = [aij], definimos a k-ésima submatriz
principal de A como sendo, para cada k = 1, ..., n, a matriz:

a11 a12 ... a1k


a21 a22 ... a2k
Ak = ⋮ ⋮ ⋱ ⋮
ak1 ak2 ... akk

Assim, uma matriz simétrica A é positiva definida se, e somente se, o


determinante de cada submatriz principal de A for positivo.

A matriz simétrica do exemplo anterior:

2 4
A=
4 3

tem submatrizes principais:

A1 = [2]
2 4
A2 = =A
4 3

Calculando os determinantes dessas matrizes, percebemos que:

det(A1) = 2 > 0
det(A2) = –10 < 0

Portanto, A não é positiva definida.

O exemplo anterior mostra que esse critério não nos dá os valores dos
autovalores, mas permite identificar se a matriz simétrica A é positiva definida
ou não.
18 O espaço vetorial ℝ n : formas quadráticas

A matriz simétrica:

1 –1 –1 –1
–1 4 2 0
B=
–1 2 3 1
–1 0 1 2

tem submatrizes principais:

B1 = [1]

1 –1
B2 =
–1 4

1 –1 –1
B3 = –1 4 2
–1 2 3

B4 = B

Calculando os determinantes dessas matrizes, temos que:

det(B1) = 1
det(B2) = 3
det(B3) = 5
det(B4) = 3

Portanto, podemos afirmar que B é positiva definida sem calcular os autovalores de B.

Fatoração de Cholesky
Quando uma matriz simétrica A é positiva definida, podemos aplicar um tipo
decomposição muito útil para uma importante classe de algoritmos computa-
cionais. Algebricamente, essa decomposição é consequência da fatoração LU.
Contudo, para calcularmos a fatoração de Cholesky, não precisamos calcular
as matrizes L e U, poupando, assim, um esforço computacional considerável.
O espaço vetorial ℝ n : formas quadráticas 19

Dada uma matriz simétrica A = [aij], n × n, A é positiva definida se, e so-


mente se, existir uma única matriz L, n × n, triangular inferior com elementos
da diagonal estritamente positivos, tal que:

A = L ∙ LT

A fatoração de Cholesky possibilita calcular a matriz L = [lij], entrada por


entrada, de forma recorrente, de acordo com os seguintes passos.

1. Para as entradas acima da diagonal principal (i < j), lij = 0


2. Para a primeira coluna:

l11 = √a11

ai1
li1 = l se i = 2, ..., n
11

3. Da segunda linha em diante, calculamos entrada por entrada, de acordo


com:

aij – (li1lj1 + li2lj2 + ... + li(j–1)lj(j–1)


lij = ljj , se 1 < j < i ≤ n

lii = √aii – (li12 + li22 + ... + li(i–1)


2
), se i = 2, ..., n

Aplique a decomposição de Cholesky à matriz simétrica:

2 –2 –4
A = –2 5 –2
–4 –2 21
20 O espaço vetorial ℝ n : formas quadráticas

Solução:
Explicitamente, L é uma matriz 3 × 3, tal que:

l11 l12 l13


L = l21 l22 l23
l31 l32 l33

Assim, para as entradas acima da diagonal principal:

l12 = l13 = l23 = 0

Para a primeira coluna, calculamos:

l11 = √a11 = √2

a21 –2
l21 = =
l11 √2

a31 –4
l31 = =
l11 √2

Para a segunda linha, calculamos:

l22 = √a22 – l212 = √5 – (–2/√2)2 = √5 – 2 = √3

Para a terceira linha, calculamos:

a32 – l31l21 –2 – (–4/√2)(–2/√2) –6


l32 = = =
l22 √3 √3

l33 = √a33 – (l312 + l322 ) = √21 – ((–4/√2)2 + (–6/√3)2) = √21 – (8 + 12) = 1

Logo:

√2 0 0
L = –2/√2 √3 0
–4/√2 –6/√3 1

2 –2 –4 √2 0 0 √2 –2/√2 –4/√2
A= –2 5 –2 = –2/√2 √3 0 . 0 √3 –6/√3
–4 –2 21 –4/√2 –6/√3 1 0 0 1
O espaço vetorial ℝ n : formas quadráticas 21

É importante ressaltar que, enquanto A for uma matriz simétrica positiva de-
finida, todas as operações (quocientes e raízes quadradas) estão bem-definidas,
e podemos calcular a matriz L de acordo com o algoritmo da decomposição
de Cholesky.

Aplique a decomposição de Cholesky à matriz simétrica:

1 –1 –1 –1
–1 4 2 0
B=
–1 2 3 1
–1 0 1 2

Solução:
Explicitamente, L é uma matriz 4 × 4, tal que:

l11 l12 l13 l14


l21 l22 l23 l24
L= l l32 l33 l34
31
l41 l42 l43 l44

Assim, para as entradas acima da diagonal principal:

l12 = l13 = l14 = l23 = l24 = l34 = 0

Para a primeira coluna, calculamos:

l11 = √a11 = √1 =1

a21 –1
l21 = = = –1
l11 1

a31 –1
l31 = = = –1
l11 1

a41 –1
l41 = = = –1
l11 1
22 O espaço vetorial ℝ n : formas quadráticas

Para a segunda linha, calculamos:

l22 = √a22 – l212 = √4 – 1 = √3

Para a terceira linha, calculamos:

a32 – l32l21 2 – (–1)(–1) 1


l32 = = =
l22 √3 √3

l33 = √a33 – (l312 + l322 ) = √3 – ((–1)2 + (–1)2) = √3 – (1 + 1) = 1

Para a quarta linha, calculamos:

a42 – l41l21 0 – (–1)(–1) –1


l42 = = =
l22 √3 √3

a43 – (l41l31 + l42l32) 1 – ((–1)(–1) + (–1/√3)(1/√3)) 1


l43 = = =
l33 1 3

√5
l44 = √a44 – (l412 + l422 + l432 ) = √2 – ((–1)2 + (–1/√3)2 + (–1/3)2) =
3

Logo:

1 0 0 0
–1 √3 0 0
L=
–1 1/√3 1 0
–1 –1/√3 1/3 √5/3

1 –1 –1 –1 1 0 0 0 1 –1 –1 –1
–1 4 2 0 –1 √3 0 0 . 0 √3 1/√3 –1/√3
B = –1 2 =
3 1 –1 1/√3 1 0 0 0 1 1/3
–1 0 1 2 –1 –1/√3 1/3 √5/3 0 0 0 √5/3

É curioso observar, nos últimos dois exemplos, que o trabalho computa-


cional necessário para decomposição de B não é tão maior que o feito para a
matriz A. Nesse sentido, é possível concluir que a decomposição de Cholesky
é computacionalmente viável mesmo para matrizes de tamanho considerável.
O espaço vetorial ℝ n : formas quadráticas 23

Leituras recomendadas

ANTON, H.; RORRES, C. Álgebra linear com aplicações. 10. ed. Porto Alegre: Bookman, 2012.
CHAPRA, S. C.; CANALE, R. P. Métodos numéricos para engenharia. 7. ed. Porto Alegre:
AMGH, 2016.
LAY, D. C.; LAY, S. R.; MACDONALD, J. J. Álgebra linear e suas aplicações. 5. ed. Rio de
Janeiro: LTC, 2018.
ÁLGEBRA LINEAR

Marcelo Maximiliano Danesi


Espaços vetoriais: base
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:

„„ Reconhecer os conceitos de base e dimensão de espaços vetoriais


gerais.
„„ Avaliar se um conjunto é base de um espaço vetorial dado.
„„ Encontrar uma base para um espaço vetorial dado.

Introdução
Neste capítulo, você definirá o conceito geral de base e dimensão de
espaços vetoriais, verá exemplos de conjuntos e suas bases e como
podemos usar o conceito de dimensão junto com as transformações
lineares a fim de melhor perceber os subespaços associados a ela. Além
disso, saberá como construir a base de espaço vetorial usando as técnicas
desenvolvidas em ℝ n.
A definição de base e dimensão num espaço vetorial qualquer permite
uma aproximação do ℝ n, por meio das coordenadas de um vetor, e for-
nece as ferramentas que faltavam para entendermos as transformações
lineares, mediante aplicação do teorema do núcleo e da imagem.

Base e dimensão de espaços vetoriais


Dentro da noção geral de espaço vetorial, uma base de um espaço vetorial
E é um conjunto B ⊂ E, linearmente independente e gerador de E. Isto é, se
v ∈ E e B é uma base de E, então podemos escrever, de forma única, v como
uma combinação linear de elementos em B. A saber, existem v1, …, vn ∈ B e
α1, ⋯, αn ∈ ℝ tal que:

v = α1 ⋅ v1 + ⋯ + αn ⋅ vn.
2 Espaços vetoriais: base

Adicionalmente, se B = {v1, … , vn}, então os números α1, … , αn são cha-


mados de coordenadas do vetor v na base B, e escrevemos (v)B = (α1, … , αn).

Em P3, o espaço vetorial dos polinômios de grau menor ou igual a 3 e de coeficientes


reais, considere o conjunto formado pelos vetores:

v1 = x3 + 2x – 4
v2 = x2 + 3x – 2
v3 = x3 + 2x2 + 3x – 3
v4 = 4x3 – x2 + 2x + 7

a) B = {v1, v2, v3, v4} é um conjunto linearmente independente?


b) Como podemos escrever o vetor v = 11x3 – 3x2 + 7x + 4 como uma combinação
linear dessa base? Isto é, quais são as coordenadas de v na base B?
Solução:
a) B é um conjunto linearmente independente porque a combinação linear α1 ⋅ v1
+ α2 ⋅ v2 + α3 ⋅ v3 + α4 ⋅ v4 = 0 admite apenas a solução trivial α1 = α2 = α3 = α4 = 0.
Verificamos isso por meio da substituição dos vetores na igualdade α1 ⋅ (x3 + 2x – 4)
+ α2 ⋅ (x2 + 3x – 2) + α3 ⋅ (x3 + 2x2 + 3x – 3) + α4⋅(4x3 – x2 + 2 + 7) = 0, distribuindo e
arranjando os termos de acordo com as potências de x:

(α1 + α3 + 4α4) x3 + (α2 + 2α3 – α4 ) x2 + (2α1 + 3α2 + 3α3 + 2α4 )x +


(– 4α1 – 2α2 – 3α3 + 7α4) = 0.

Dessa forma, podemos afirmar que, em cada coeficiente:

α1 + α3 + 4α4 = 0
α2 + 2α3 + α4 = 0
2α1 + 3α2 + 3α3 + 2α4 = 0
–4α1 – 2α2 – 3α3 + 7α4 = 0

o que é equivalente à equação matricial:

1 0 1 4 α1 0
0 1 2 –1 . α2 0
2 3 3 2 α3 = 0
–4 –2 –3 7 α4 0

que admite apenas a solução trivial. Podemos calcular isso por meio do método
de Gauss.
Espaços vetoriais: base 3

b) Pela definição, precisamos calcular α1, α2, α3, α4 de forma que:

v = α1 ⋅ v1 + ⋯ + αn ⋅ vn.

Para isso, substituindo os vetores 11x3 – 3x2 + 7x + 4 = α1 ⋅ (x3 + 2x – 4) + α2 ⋅


(x2 + 3x – 2) + α3 ⋅ (x3 + 2x2 + 3x – 3) + α4 ⋅ (4x3 – x2 + 2x + 7) e distribuindo e arranjando
os termos de acordo com as potências de x, temos:

11x3 – 3x2 + 7x + 4 = (α1 + α3 + 4α4) x3 + (α2 + 2α3 – α4)x2 + (2α1 + 3α2 + 3α3 + 2α4)x
+ (– 4α1 – 2α2 – 3α3 + 7α4).

Dessa forma, podemos afirmar que, em cada coeficiente:

α1 + α3 + 4α4 = 11
α2 + 2α3 – α4 = –3
2α1 + 3α2 + 3α3 + 2α4 = 7
–4α1 – 2α2 – 3α3 + 7α4 = 4

o que é equivalente à equação matricial:

1 0 1 4 α1 11
0 1 2 –1 . α2 –3
2 3 3 2 α3 = 7
–4 –2 –3 7 α4 4

que podemos resolver usando o método de Gauss. Desse modo, podemos calcular
que existe uma única solução dada por (v)B = (α1, α2, α3, α4 ) = (3, –1, 0, 2).

Uma observação relevante nesse momento é que estamos trabalhando de


forma análoga à feita em ℝ 𝑛 e aproveitando disso para usarmos os conceitos
de ℝ 𝑛 para a solução do problema geral.
Com a noção de base estabelecida, podemos afirmar que, se E admite
uma base com n vetores, então todas as bases de E têm o mesmo número n de
vetores. Dizemos, então, que a dimensão de E é n e escrevemos dim(E) = n.
Reunindo todos esses resultados, podemos estabelecer, para alguns espaços
vetoriais, a noção de base canônica e calcular sua dimensão.
4 Espaços vetoriais: base

1. Em Pn, o espaço vetorial dos polinômios de grau menor ou igual a n e


de coeficientes reais, esse espaço é gerado pela base (canônica):

B = {1, x, x2, … , xn } e dim(Pn) = n + 1.

2. Em P∞, o espaço vetorial de todos os polinômios de coeficientes reais,


esse espaço é gerado pela base (canônica):

B = {1, x, x2, … , xn,…} e dim(P∞) = ∞.

3. Em M(m × n), o espaço vetorial das matrizes, m × n, de coeficientes reais,


esse espaço é gerado pela base (canônica) composta pelas matrizes:

e dim(M(m×n)) = mn.

Repare que P∞ é um subespaço do espaço vetorial das funções reais con-


tínuas, logo dim(C0(ℝ)) = ∞. O próximo exemplo ajuda na visualização das
bases e no cálculo da dimensão dos espaços listados anteriormente.

Em P4, o espaço vetorial dos polinômios de grau menor ou igual a 4 e de coeficientes


reais, gerado pela base (canônica):

B = {1, x, x2, x3, x4} e dim(P4) = 5.

Em M(2 × 3), o espaço vetorial das matrizes, 2 × 3, de coeficientes reais, gerado pela
base (canônica):

1 0 0 0 1 0 0 0 1 0 0 0
B = {A1,1 = ,A = ,A = ,A = ,
0 0 0 1,2 0 0 0 1,3 0 0 0 2,1 1 0 0

A2,2 = 0 0 0 ,A = 0 0 0 }
0 1 0 2,3
0 0 1

e dim(M(2 × 3)) = 6.
Espaços vetoriais: base 5

Admitimos, como convenção, que:

„„ se E = {0}, então dim(E) = 0;


„„ se B é a base canônica e α1, ⋯, αn ∈ ℝ são as coordenadas de v na base
B, escrevemos (v) = (α1, … , αn ) por simplicidade.

Dado E espaço vetorial, tal que dim(E) = n, destacamos as seguintes


propriedades:

„„ se {u1, … , um} ⊂ E é linearmente independente, então m ≤ n;


„„ se E = ger{u1, … , un}, então {u1, … ,un} é linearmente independente;
„„ se F é subespaço de E, então dim(F) ≤ n e dim(F) = n, somente se F = E.

Essas propriedades abrem caminho para o Teorema do Núcleo e da Ima-


gem (paralelo ao Teorema do Posto): dados E1, E2 espaços vetoriais, T: E1 → E2
transformação linear, então:

N(T) = {u ∈ E1; T(u) = 0}


Im(T) = {w = T(u);u ∈ E1}

são respectivamente subespaços de E1 e E2, que satisfazem:

dim(N(T)) + dim(Im(T)) = dim(E1).

Considere a transformação linear A: P4 → P5, tal que:

A(ax4 + bx3 + cx2 + dx + e) = (2a + b – c – d)x5 + (a + 2c + d + e) x4+ (b – d + e) x3 + (2a


+ 2b – c – 2d + e)x2 + (– 2a + c + e)x + (2a + b – 6c – 3d –3e).

De imediato, podemos afirmar que essa transformação não é sobrejetora, pois Im(T)
≤ dim(P4) = 5, enquanto que dim(P5) = 6.
Investigando o núcleo de T, dado u = ax4 + bx3 + cx2 + dx + e ∈ P4, temos que u∈N(A)
se A(u) = 0. Isto é, se:

(2a + b – c – d)x5 + (a + 2c + d + e)x4 + (b – d + e)x3 + (2a + 2b – c – 2d + e)x2 +


(– 2a + c + e)x + (2a + b – 6c – 3d – 3e) = 0.
6 Espaços vetoriais: base

A igualdade anterior ocorre se:

2a + b – c – d = 0
a + 2c + d + e = 0
b–d+e=0
2a + 2b – c – 2d + e = 0
–2a + c + e = 0
2a + b – 6c – 3d – 3e = 0

o que é equivalente ao sistema matricial:

2 1 –1 –1 0 0
a
1 0 2 1 1 0
b
0 1 0 –1 1 . 0
c =
2 2 –1 –2 1 0
d
–2 0 1 0 1 0
e
2 1 –6 –3 –3 0

TA

Aplicando o método de Gauss na matriz TA , calculamos suas equivalências de forma


que:

1 0 2 1 1 1 0 2 1 1 5 0 0 1 –1
0 1 –5 –3 –2 0 1 –5 –3 –2 0 1 0 –1 1
0 1 0 –1 1 0 0 5 2 3 0 0 5 2 3
TA~ ~ ~
0 2 –5 –4 –1 0 0 5 2 3 0 0 0 0 0
0 0 5 2 3 0 0 5 2 3 0 0 0 0 0
0 1 –10 –5 –5 0 0 –5 –2 –3 0 0 0 0 0

que equivale ao sistema:

5a + d – e = 0
b–d+e=0
5c + 2d + 3e = 0
d=d
e=e
Espaços vetoriais: base 7

ou:

1 1
a=– d+ e
5 5
b=d–e
2 3
c=– d– e
5 5
d=d
e=e

Isto é, (a, b, c, d, e) = d(–1/5,1, – 2/5,1,0) + e(1/5, – 1, – 3/5,0,1), com d, e ∈ ℝ.


Dessa forma:

(A) = ger{– 1 x4 + x3 – 2 x2 + x, 1 x4 – x3 – 3 x2 + 1}
5 5 5 5

O que significa que 𝒩(A) é um subespaço vetorial de P4 de dimensão 2, e Im(A) é


um subespaço vetorial de P5 de dimensão 3.
Interessante é que podemos determinar a dimensão de Im(A) sem calcularmos uma
base desse subespaço.

Conjunto como base de espaço vetorial


Dados E espaço vetorial e B ⊂ E, B é base de E se:

„„ B for linearmente independente;


„„ E = ger(B).

Observe que essa última condição pode ser substituída pela dim(E) =
dim(ger(B)). Assim, podemos afirmar que um conjunto B é base de E se B
tiver dim(E) vetores e for linearmente independente.
8 Espaços vetoriais: base

Em P2, considere B = {v1, v2, v3}, tal que:

v1 = x2 + 2x – 4
v2 = x2 + 3x – 2
v3 = – x2 + 2x + 7,

Como B tem dim(P2) = 3 vetores, só precisamos verificar que B é linearmente inde-


pendente, para afirmarmos que B é base de P2.
Calculando o wronskiano de B:

v1 v2 v3 (x2 + 2x – 4) (x2 + 3x – 2) (–x2 + 2x + 7)


W(x) = det v´1 v´2 v´3 = det (2x + 2) (2x + 3) (–2x + 2) = 10
v´´1 v´´2 v´´3 (2) (2) (–2)

Assim, W(x) ≠ 0 e B é linearmente independente. Logo, podemos afirmar que B é


base de P2.

É importante também vermos alguns exemplos de quando um conjunto


não é base do espaço vetorial que o contém.

Em P2, considere as seguintes afirmações.


„„ B1 = {v1 = x + 1, v2 = x2 – 1} é um conjunto linearmente independente, pois v1 e v2
não são múltiplos. Contudo, dim(ger(B1)) = 2, logo B1 não é base de P2 (que tem
dimensão 3).
„„ B2 = {v1,v2,v3 = v1 – v2 } possui três vetores, mas é linearmente dependente porque
v3 é combinação dos demais. Logo, dim(ger(B2 )) < dim(P2), e B2 não é base de P2.

Construção de uma base para espaço vetorial


Usando as propriedades que vimos até agora, podemos afirmar que, dados E
espaço vetorial C = {v1, … , vn } ⊂ E, se C é linearmente dependente, então
existe B ⊂ C, tal que B é linearmente independente e ger(B) = ger(C).
Espaços vetoriais: base 9

Em P2, considere C = {v1, v2, v3}, tal que:

v1 = x2 + 2x – 1
v2 = – x2 + x – 2
v3 = – x2 + 4x – 5.

Podemos verificar que esse conjunto é linearmente dependente, pois a igualdade


α1v1 + α2v2 + α3v3 = 0 admite solução não trivial. Substituindo os vetores
α1(x2 + 2x – 1) + α2 (– x2 + x – 2) + α3 (– x2 + 4x – 5) = 0 e distribuindo e associando
os termos de acordo com a potência de x, obtemos (α1 – α2 – α3)x2 + (2α1 + α2 + 4α3 )
x + (– α1 – 2α2 – 5α3) = 0.
Assim, a igualdade é válida se, e somente se, em cada coeficiente, temos:

α1 – α2 – α3 = 0
2α1 + α2 + 4α3 = 0
–α1 – 2α2 – 5α3 = 0

que é equivalente à equação matricial:

1 –1 –1 α1 0
2 1 4 . α2 = 0
–1 –2 –5 α3 0

Aplicando o método de Gauss à matriz dos coeficientes, calculamos suas equiva-


lências de forma que:

1 –1 –1 1 –1 –1 1 –1 –1 1 0 1
2 1 4 ~ 0 3 6 ~ 0 1 2 ~ 0 1 2
–1 –2 –5 0 –3 –6 0 0 0 0 0 0

que equivale ao sistema:

α1 + α3 = 0
α2 + 2α3 = 0
α3 = α3

ou:

α1 = –α3
α2 = – 2α3
α3 = α3
10 Espaços vetoriais: base

Isto é, (α1, α2, α3) = α3 (– 1, – 2, 1), com α3 ∈ ℝ e uma solução não trivial, seria:

– 1v1 – 2v2 + 1v3 = 0

ou:

v3 = v1 + 2v2

mostrando que v3 é combinação linear de v1 e v2. Dessa maneira, {v1, v2} é um conjunto
linearmente independente, e ger{v1, v2 } = ger(C).

No exemplo anterior, o isomorfismo entre Pn e ℝ n+1 poderia ser usado para justificar
que, quando escalonamos a matriz de coeficientes na forma triangular superior:

1 –1 –1
0 1 2
0 0 0

essa matriz indica, através dos seus pivôs, que os vetores nas colunas 1 e 2 da matriz
original eram linearmente independentes e o vetor na coluna 3 da matriz original era
uma combinação deles, onde:

1
2 ↔ x2 + 2x –1
–1

–1
1 ↔ –x2 + x – 2
–2

Segue daí a afirmação que {v1, v2} é um conjunto linearmente independente e


ger{v1, v2} = ger(C).

Isso significa que, dado um conjunto C de vetores de E, é possível (por


meio do Teorema do Posto) reduzir esse conjunto, obtendo um B linearmente
independente, tal que ger(B) = ger(C). Além disso, existe uma dualidade entre
os métodos de ℝ n+1 e Pn que podem ser usados a nosso favor.
Espaços vetoriais: base 11

Vamos aproveitar essa ideia da dualidade e descrever um algoritmo que


permite calcular o complemento da base de um subespaço de E para obtermos
uma base do próprio E, quando E = Pn ou E = Mm×n(ℝ).
Sejam E espaço vetorial e B = {u1, u2, … ,ur } à base de um subespaço de
E, então:

„„ considere as coordenadas (u1),(u2), … , (ur ) dos vetores de B na base


canônica de E;

„„ escreva a matriz ;

„„ encontre os l = (dim(E) – r) vetores em ℝ dim(E) que geram a solução da


equação matricial ;
„„ escreva a base de E como a união de B e os l vetores em E calculados
pelas coordenadas do passo anterior.

Vamos a alguns exemplos, comentando cada passo até obtermos esse


complemento da base dada.

Em P2, sabemos que B = {v1, v2}, tal que:

v1 = x2 + 2x – 1
v 2 = – x2 + x – 2

são linearmente independentes e que ger(B) ≠ P2. Isso significa que deve existir
v ∈ P2, tal que {v} ∪ B é base de P2.
Aplicando o algoritmo que descrevemos, procedemos da seguinte forma.
„„ Na base canônica {x2, x, 1} de P2, escrevemos os vetores em coordenadas:

(v1) = (1, 2, – 1)
(v2) = (– 1, 1, – 2)

„„ Assim, a matriz A fica definida por:

1 2 –1
A=
–1 1 –2 2×3
12 Espaços vetoriais: base

„„ Calculando a solução da equação matricial:

a
1 2 –1 . b = 0
–1 1 –2 0
c

aplicamos o método de Gauss à matriz A, calculando suas equivalências de forma que:

1 2 –1 1 2 –1 1 0 1
~ ~ 0 1 –1
–1 1 –2 0 3 –3

que equivale ao sistema:

a+c=0
b–c=0
c=c

ou:

a = –c
b=c
c=c

Isto é, (a, b, c) = c(– 1, 1, 1), com c ∈ ℝ e (A) = ger{(–1,1,1)} ⊂ ℝ3 .


Esse resultado está de acordo com o que era esperando, já que dim(P2) = 3, r = 2
implica que precisamos de l = 3 – 2 = 1 vetores para complementar a base B.
„„ Escrevemos o vetor v ∈ P2 usando as coordenadas na base canônica:

v = – 1x2 + 1x + 1

{v} ∪B = {v1, v2, v} é uma base de P2.

v1 v2 v (x2 + 2x – 1) (–x2 + x – 2) (–x2 + x + 1)


W(x) = det v´1 v´2 v´ = det (2x + 2) (–2x + 1) (–2x + 1) = –18
v´´1 v´´2 v´´ (2) (–2) (–2)

Logo, W(x) ≠ 0 e {v1, v2, v} é linearmente independente.

Uma base é sempre um conjunto ordenado. Estamos escrevendo a base canônica de


Pn como {xn, … , x, 1} por uma questão de conveniência. Os cálculos são totalmente
análogos, se usarmos essa base como {1, x, … ,xn}.
Espaços vetoriais: base 13

Vamos a mais um exemplo, agora no espaço das matrizes.

Em M3×2(ℝ), considere o conjunto:

1 –2 –2 1 1 0 –2 3
B = v1 = –1 0 , v2 = 0 2 , v3 = 1 –1 , v4 = 0 –2
2 3 1 –1 –2 1 0 1

Esse conjunto é linearmente independente, e ger(B) ≠ M3×2(ℝ). Isso significa que


deve existir v5, v6 ∈ M3×2(ℝ), tal que {v5, v6} ∪ B é base de M3×2(ℝ) u, uma vez que
dim(M3×2(ℝ)) = 6.
Aplicando o algoritmo que descrevemos, temos o seguinte.
„„ Na base canônica:

1 0 0 1 0 0 0 0 0 0 0 0
A1,1 = 0 0 , A1,2 = 0 0 , A2,1 = 1 0 , A2,2 = 0 1 , A3,1 = 0 0 , A2,3 = 0 0
0 0 0 0 0 0 0 0 1 0 0 1

de M3×2(ℝ), escrevemos os vetores em coordenadas, (v1) = (1, – 2, – 1, 0, 2, 3); (v2) =


(– 2, 1, 0, 2, 1, – 1); (v3) = (1, 0, 1, – 1, – 2, 1); (v4) = (– 2, 3, 0, – 2, 0, 1).

„„ Assim, a matriz A fica definida por:

1 –2 –1 0 2 3
–2 1 0 2 1 –1
A=
1 0 1 –1 –2 1
–2 3 0 –2 0 1 4×6

„„ Calculando a solução da equação matricial:

a
1 –2 –1 0 2 3 b 0
–2 1 0 2 1 –1 . c 0
=
1 0 1 –1 –2 1 d 0
–2 3 0 –2 0 1 e 0
f
14 Espaços vetoriais: base

aplicamos o método de Gauss à matriz A, calculando suas equivalências de forma que:

1 –2 –1 0 2 3 1 –2 –1 0 2 3
–2 1 0 2 1 –1 0 –3 –2 2 5 5
~ 0 2 2 –1 –4 –2 ~
1 0 1 –1 –2 1
–2 3 0 –2 0 1 0 –1 –2 –2 4 7

1 –2 –1 0 2 3 1 –2 –1 0 2 3
0 –3 –2 2 5 5 0 –3 –2 2 5 5
~ 0 0 2 1 –2 4 ~
0 0 2 1 –2 4
0 0 –4 –8 7 16 0 0 0 –2 1 8

1 –2 –1 0 2 3 4 –8 0 0 5 28
0 –3 –2 0 6 13 0 2 0 0 –3 –14
0 0 4 0 –3 16 ~ 0 0 4 0 –3 16 ~
0 0 0 –2 1 8 0 0 0 –2 1 8

4 0 0 0 –7 –28
0 2 0 0 –3 –14
0 0 4 0 –3 16
0 0 0 –2 1 8

que equivale ao sistema:

4a – 7e – 28f = 0
2b – 3e –14f = 0
4c – 3e – 16f = 0
–2d + e + 8f = 0
e=e
f=f

ou:

7
a= e + 7f
4
3
b= e + 7f
2
3
c= e + 4f
4
1
d= e + 4f
2
e=e
f=f
Espaços vetoriais: base 15

7 , 3 , 3 , 1 , 1, 0 + f (7,7,–4,4,0,1)
Isto é, (a, b, c, d, e, f) = e , com e, f ∈ ℝ e
4 2 4 2
7 , 3 , 3 , 1 , 1, 0 , (7,7,–4,4,0,1)
(A) = ger ⊂ ℝ6.
4 2 4 2
Esse resultado está de acordo com o que esperávamos de l = 2 vetores para com-
plementar a base B.
„„ Escrevemos os vetores v5, v6 ∈ M3×2(ℝ), usando as coordenadas na base canônica:

1 0 0 1 0 0 0 0 0 0 0 0 7/4 3/2
7 3 3 1
v5 = 0 0 + 0 0 + 1 0 + 0 1 + 1 0 0 + 0 0 0 = 3/4 1/2
4 2 4 2
0 0 0 0 0 0 0 0 1 0 0 1 1 0

1 0 0 1 0 0 0 0 0 0 0 0 7 7
v6 = 7 0 0 +7 0 0 –4 1 0 +4 0 1 +0 0 0 + 1 0 0 = –4 4
0 0 0 0 0 0 0 0 1 0 0 1 0 1

{v5, v6} ∪ B = {v1, v2, v3, v4, v5, v6} é uma base de M3×2(ℝ).
Não será demonstrado neste material, mas vale lembrar-se de que {v1, v2, v3, v4, v5, v6}
é linearmente independente.

ANTON, H.; BIVENS, I. C.; DAVIS, S. L. Cálculo. 10. ed. Porto Alegre: Bookman, 2014. 2 v.
ANTON, H.; RORRES, C. Álgebra linear com aplicações. 10. ed. Porto Alegre: Bookman, 2012.
LAY, D.; LAY, S.; MACDONALD, J. Álgebra linear e suas aplicações. 5. ed. Rio de Janeiro:
LTC, 2018.
LIMA, E. Álgebra linear. 9. ed. Rio de Janeiro: IMPA, 2016.
ÁLGEBRA LINEAR

Marcelo Maximiliano Danesi


Espaços vetoriais:
produtos internos gerais
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:

„„ Explicar a importância de produto interno e norma para um espaço


vetorial.
„„ Usar o produto interno em espaços vetoriais arbitrários.
„„ Reconhecer o conceito de ortogonalidade.

Introdução
Neste capítulo, você definirá o conceito de produto interno e norma para
um espaço vetorial qualquer, com exemplos no espaço vetorial das n-uplas
reais, das matrizes e das funções contínuas; verá como a ortogonalidade
fica definida de acordo com o produto interno do espaço vetorial e alguns
exemplos de conjuntos ortogonais no espaço das funções.
O conceito de produto interno generaliza, para um espaço vetorial
qualquer, a noção de medida de vetores, ângulos, distâncias e ortogona-
lidade definida pelo produto escalar no ℝ n. Inclusive, essa generalização
permite que, no ℝ n, seja definida uma medida diferente da proposta
pelo produto escalar, criando uma geometria diferente entre os vetores.

Produto interno e norma


Um produto interno num espaço vetorial E é uma função ⟨,⟩: E × E → ℝ que
associa, a cada par de vetores u, v ∈ E, um número real ⟨u, v⟩ chamado de
produto interno de u por v, de modo que, dados u, v, w ∈ E e α ∈ ℝ, sejam
válidas as propriedades:
2 Espaços vetoriais: produtos internos gerais

1. ⟨u, v⟩ ≥ 0 e ⟨u, u⟩ = 0 somente se u = 0 (positividade);


2. ⟨u, v⟩ = ⟨v, u⟩ (comutatividade);
3. ⟨u, v + w⟩ = ⟨u, v⟩ + ⟨u, w⟩ (distributividade em relação à soma vetorial);
4. ⟨u, α ⋅ v⟩ = α ⋅ ⟨u, v⟩ (associatividade).

Todo produto interno define o número real não negativo , dito


norma ou comprimento de u com respeito a ⟨,⟩.
O produto interno permite a extensão de noções de ângulo, ortogonalidade,
comprimento e distância a espaços vetoriais que não necessariamente o ℝ n.
Assim, a geometria do espaço vetorial é definida pela associação do espaço
com um produto interno, a qual chamamos de espaço vetorial com produto
interno.

No ℝ n, o produto interno canônico é o produto escalar, e a norma canônica corresponde


→ → → →
ao módulo do vetor (||u || = √u · u = |u |). Contudo, o produto interno canônico não é
o único no ℝ n nem a única forma de medir comprimentos.

Em ℝ 2, um produto interno (não canônico) é dado por:

⟨ , ⟩D: ℝ2 × ℝ2 → ℝ
⟨(u1, u2), (v1, v2)⟩D = 3u1v1 + 5u2v2

Mostramos, a seguir, que essa função, de fato, satisfaz as propriedades necessárias,


→ → →
pois, dados u = (u1, u2), v = (v1, v2), w = (w1, w2) ∈ ℝ 2 e α ∈ ℝ:
→ →
1. ⟨u , u ⟩D = ⟨(u1, u2), (u1, u2)⟩D = 3u1u1 + 5u2u2 = 3u21 + 5u22 ≥ 0 . Vale a igualdade se, e

somente se, u1 = u2 = 0, isto é, se u = (0, 0).
→ → → →
2. ⟨u , v ⟩D = ⟨(u1, u2), (v1, v2)⟩D = 3u1v1 + 5u2v2 = 3v1u1 + 5v2v2 = ⟨(v1, v2), (u1, u2)⟩D = ⟨v , u ⟩D;

→ → →
3. ⟨u , v + w⟩D = ⟨(u1, u2), (v1, v2) + (w1, w2)⟩D = ⟨(u1, u2), (v1 + w1, v2 + w2)⟩D =

→ → → →
3u1(v1 + w1) + 5u2(v2 + w2) = 3u1v1 + 5u2v2 + 3u1w1 + 5u2w2 = ⟨u , v ⟩D + ⟨u , w ⟩D ;
Espaços vetoriais: produtos internos gerais 3

→ →
4. ⟨u , α · v ⟩D = ⟨(u1, u2), α · (v1, v2)⟩D = ⟨(u1, u2), (αv1, αv2)⟩D = 3u1αv1 + 5u2αv2 = .
→ →
α · (3u1v1 + 5u2v2) = α · ⟨u , v ⟩D.

Portanto, de fato, ⟨,⟩ D é um produto interno no ℝ 2, e a norma de acordo com ⟨,⟩ D


é dada por:

→ → →
||u ||D = √⟨u , u ⟩D = √3u12 + 5u22

→ →
Nessa norma, dados u = (1, 1), v = (–1, 1), podemos calcular que o comprimento
→ →
de u e v é:


||u ||D = √3 · 12 + 5 · 12 = √8

||v ||D = √3 · (–12) + 5 · 12 = √8

ao mesmo tempo que:

⟨(1, 1),(–1, 1)⟩ D = 3 ⋅ 1 ⋅ (–1) + 5 ⋅ 1 ⋅ 1 = –3 + 5 = 2

Enquanto que, pelo produto escalar, u, v são ortogonais, já que:

→ →
u ∙ v = (1, 1) ∙ (–1, 1) = 1 ∙ (–1) + 1 ∙ 1 = 0

Isto é, além de a norma ⟨,⟩ D medir o comprimento dos vetores de maneira distinta
da canônica, ela também altera a relação de ortogonalidade entre vetores do ℝ 2.

No exemplo anterior, usamos a notação ⟨,⟩D com intenção de distinguir ⟨,⟩D


do produto interno definido pelo produto escalar e generalizar
o produto interno ⟨,⟩D numa classe maior no ℝ n denominada produto interno
ponderado.

Produto interno em espaços vetoriais


arbitrários
n
Produto interno ponderado em ℝ
Em ℝ n, dada uma matriz diagonal:
4 Espaços vetoriais: produtos internos gerais

n × n, podemos generalizar o exemplo anterior definindo o funcional:

Esse funcional define um produto interno no ℝ n, se λ i > 0 para todo


i = 1, ..., n.
Mostramos, a seguir, que esse produto interno, de fato, satisfaz as proprie-
→ → →
dades necessárias, pois, dados u = (u1, ..., un), v = (v1, ..., vn), w = (w1, ..., wn)
∈ ℝ e α ∈ ℝ:
n

1. , pois cada
parcela é positiva, e a igualdade vale se, e somente se, u1 = ... = un =
0, logo ;

2. ;

3.

4.

Portanto, de fato, ⟨,⟩D é um produto interno em ℝ n, e a norma de acordo


com ⟨,⟩D é dada por:
Espaços vetoriais: produtos internos gerais 5

O produto interno ponderado recebe esse nome por admitir um peso λi > 0 em cada
direção xi. Esse peso pode ser interpretado como uma importância maior ou menor
dos dados naquela direção ou, ainda, como uma mudança de escala naquela direção.

Produto interno em Mm×n(ℝ)


Em Mm×n(ℝ), com o espaço das matrizes, m×n, de coeficientes reais, um produto
interno pode ser definido por:

onde BTA é uma matriz n×n e tr(BTA) é a soma do produto de todos os


elementos de A e B de mesmos índices.

Essa definição não é intuitiva. Então, mostraremos como ela funciona em M2×3(ℝ),
dadas as matrizes:
a a12 a13
A = a11 a22 a23
21

b b12 b13
B = b11 b22 b23
21

Temos:

b11 b21 a11b11 + a21b21 * *


a a12 a13
BT · A = b12 b22 · 11 = * a12b12 + a22b22 *
a21 a22 a23
b13 b23 * * a13b13 + a23b23

Observe que não calculamos as entradas fora da diagonal principal porque elas não
serão necessárias para o cálculo do traço (que calcula somente a soma dos elementos
da diagonal principal). Assim:
tr(BTA) = (a11b11 + a21b21) + (a12b12 + a22 + b22) + (a13b13 + a23b23)
6 Espaços vetoriais: produtos internos gerais

Uma forma alternativa de definir esse funcional é escrevendo que, se A =


[aij]m×n e B = [bij]m×n, então:

⟨A, B⟩ = a11b11 + a12b12 + a21b21 + ... + amnbmn

sendo a última forma, dada pelo somatório do produto de todos os termos


de mesmo índice, mais prática para a verificação das propriedades de produto
interno. Assim, dados U = [uij], V = [vij], W = [wij] ∈ Mm×n(ℝ) e α ∈ ℝ:

1.
e a igualdade vale se, e somente se, uij = 0 para todo i, j e, portanto U = 0;

2.
;

3. ;

4. .

De fato, ⟨,⟩ é um produto interno em Mm×n(ℝ), e a norma de acordo com


⟨,⟩ é dada por:

Em M2×3(ℝ), calcularemos o produto interno e a norma de algumas matrizes, dadas:

1 0 2 0 3 –1 6 2 –1
U= V= W=
–2 1 –1 –2 0 1 2 1 1
Espaços vetoriais: produtos internos gerais 7

Calculamos:

⟨U, U⟩ = 1 · 1 + 0 · 0 + 2 · 2 + (–2) · (–2) + 1 · 1 + (–1) · (–1) = 11


⟨U, V⟩ = 1 · 0 + 0 · 3 + 2 · (–1) + (–2) · (–2) + 1 · 0 + (–1) · 1 = 1
⟨U, W⟩ = 1 · 6 + 0 · 2 + 2 · (–1) + (–2) · 4 + 1 · 5 + (–1) · 1 = 0
⟨V, V⟩ = 0 · 0 + 3 · 3 + (–1) · (–1) + (–2) · (–2) + 0 · 0 + 1 · 1 = 15
⟨V, W⟩ = 0 · 6 + 3 · 2 + (–1) · (–1) + (–2) · 4 + 0 · 5 + 1 · 1 = 0
⟨W, W⟩ = 6 · 6 + 2 · 2 + (–1) · (–1) + 4 · 4 + 5 · 5 + 1 · 1 = 0 = 73

De acordo com esse produto interno, a norma dessas matrizes é:

||U|| = √⟨U, U⟩ = √11

||V|| = √⟨V, V⟩ = √15

||W|| = √⟨W, W⟩ = √73

Produto interno em C0([a, b])


Usando a teoria do cálculo, em C0([a, b]), com o espaço das funções contínuas
reais definidas no intervalo [a, b], um produto interno pode ser definido por:

Mostramos, a seguir, que essa função, de fato, satisfaz as propriedades


necessárias, pois, dados u = u(x), v = v(x), w = w(x) ∈ C0([a, b]) e α ∈ ℝ:

1. , pois a integral de uma


função positiva é positiva, e a igualdade vale se, e somente se, u(x) = 0,
pois u é função contínua;

2. ;

3.
8 Espaços vetoriais: produtos internos gerais

4.

Portanto, de fato, ⟨,⟩ é um produto interno no C0([a, b]), e a norma de


acordo com ⟨,⟩ é dada por:

Para mostrarmos como esse produto interno funciona, no que segue, fixamos a = –1
e b = 1 de modo que [a, b] = [–1, 1] é um intervalo simétrico em torno de x = 0.
Assim, dados u = x, v = x2, w = x3, podemos calcular que:

1
1 1 x3 13 (–1)3 2
⟨x, x⟩ = ∫ x · x dx = ∫ x2 dx = = – =
–1 –1 3 –1 3 3 3

1
1 1 x4 14 (–1)4
⟨x, x2⟩ = ∫ x · x2 dx = ∫ x3 dx = = – =0
–1 –1 4 –1 4 4

1
1 1 x5 15 (–1)5 2
⟨x, x3⟩ = ∫ x · x3 dx = ∫ x4 dx = = – =
–1 –1 5 –1 5 5 5

1 1 2
⟨x2, x2⟩ = ∫ x2 · x2 dx = ∫ x4 dx =
–1 –1 5

1
x6 (–1)6
= 1 –
1 1 6
⟨x2, x3⟩ = ∫ x2 · x3 dx = ∫ x5 dx = =0
–1 –1 6 –1 6 6

1
1 1 x7 17 (–1)7 2
⟨x3, x3⟩ = ∫ x3 · x3 dx = ∫ x6 dx = = – =
–1 –1 7 –1 7 7 7
Espaços vetoriais: produtos internos gerais 9

De acordo com esse produto interno, a norma dessas funções é:

2
||x|| = √⟨x, x⟩ =
3

2
||x2|| = √⟨x2, x2⟩ =
5

2
||x3|| = √⟨x3, x3⟩ =
7

Ortogonalidade
Seja E um espaço vetorial munido do produto interno ⟨,⟩. Dados u, v ∈ E,
dizemos que u, v são ortogonais (com respeito ao produto interno ⟨,⟩) se, e
somente se, ⟨u, v⟩ = 0, e denotamos por u ⊥ v.
Assim como na definição de produto interno, é importante ressaltar que
ortogonalidade não é uma propriedade intrínseca ou fora de qualquer con-
venção, mas que depende do produto interno definido em E. Se E aceita dois
produtos internos distintos, então, por uma medida, dois vetores podem ser
ortogonais e, por outra medida, não.

→ → →
Em ℝ 2, dados os vetores u = (2, –3), v = (3, 2), w = (5, 2) e os produtos internos:

⟨(u1, u2), (v1, v2)⟩ = (u1, u2) · (v1, v2) = u1v1 + u2v2

⟨(u1, u2), (v1, v2)⟩D = 3u1v1 + 5u2v2

repare que:
→ →
1. com respeito ao produto escalar, os vetores u e v são ortogonais, pois
→ →
u · v = (2, –3) · (3, 2) = 2 · 3 + (–3) · 2 = 0
10 Espaços vetoriais: produtos internos gerais

→ →
2. com respeito ao produto interno ⟨,⟩ D, os vetores u e v não são ortogonais, pois:

→ →
⟨u, v ⟩D = 3 · 2 · 3 + 5 · (–3) · 2 = –12

→ →
Contudo, em relação a ⟨,⟩ D, os vetores u e w são ortogonais, uma vez que:

→ →
⟨u, w⟩D = 3 · 2 · 5 + 5 · (–3) · 2 = 0

Nas condições da definição de ortogonalidade, podemos afirmar as se-


guintes propriedades:

1. 0 ⊥ v para todo v ∈ E;
2. u ⊥ v se, e somente se, v ⊥ u;
3. se u ⊥ v para todo v ∈ E, então u = 0;
4. se u ⊥ v e α ∈ ℝ, então (α ∙ u) ⊥ v.

Além disso, dado C = {u1, u2, ..., un} ⊂ E, dizemos que C é um conjunto
ortogonal, se os vetores de C são dois a dois ortogonais, isto é, se ⟨ui, uj⟩ = 0
se i ≠ j.

Citando o exemplo anterior em M2×3(ℝ) com o produto interno ⟨A, B⟩ = tr(BTA), podemos
afirmar que, para as seguintes matrizes:

1 0 2
U=
–2 1 –1

0 3 –1
V=
–2 0 1

6 2 –1
W=
4 5 1
Espaços vetoriais: produtos internos gerais 11

calculamos que:

⟨U, V⟩ = 1
⟨U, W⟩ = 0
⟨V, W⟩ = 0

Dessa forma, U e V não são ortogonais, enquanto que U ⊥ W e V ⊥ W. Adicionalmente,


pelas propriedades, podemos afirmar que qualquer múltiplo de U é ortogonal a
qualquer múltiplo de W.

Conjuntos ortogonais em C0([–L, L])


Usando a teoria do cálculo, seja L > 0 e I = [–L, L] um intervalo simétrico em
torno de x = 0. Em C0(I), retomamos o produto interno definido por:

e analisamos a ortogonalidade entre funções contínuas usando a propriedade


da integral, que afirma o seguinte.

1. Se f(x) é função par (uma função f: I → ℝ é dita par se f(x) = f(–x) para
todo x ∈ I), então, para todo a > 0:

2. Se g(x) é função ímpar (uma função g: I → ℝ é dita ímpar se g(x) =


–g(–x) para todo x ∈ I), então, para todo a > 0:
12 Espaços vetoriais: produtos internos gerais

3. Se f(x) e g(x) são funções respectivamente par e ímpar, então ( f(x) ∙


g(x)) é ímpar e:

Por essa propriedade, podemos afirmar que, em C0([–L, L]), de acordo


com esse produto interno, toda função par é ortogonal à toda função ímpar.
Isto é, o conjunto das funções pares e o das funções ímpares são ambos
os subespaços de C0([–L, L]).

Exemplos de funções pares são:


„„ qualquer função constante f(x) = k, k ∈ ℝ;
„„ qualquer monômio de grau par x2, x4, x6, ...;
„„ qualquer função cosseno da forma f(x) = cos(kx), k ∈ ℝ;
„„ a soma de funções pares é uma função par;
„„ o produto de uma função par por um número real é uma função par.

Exemplos de funções ímpares são:


„„ qualquer monômio de grau ímpar x, x3, x5, x7, ...;
„„ qualquer função seno da forma f(x) = sen(kx), k ∈ ℝ;
„„ a soma de funções ímpares é uma função ímpar;
„„ o produto de uma função ímpar por um número real é uma função ímpar.

Podemos citar o exemplo anterior, em C0([–1, 1]), que calculamos para u = x, v = x2,
w = x3, que:

⟨x, x2⟩ = 0
2
⟨x, x3⟩ =
5
⟨x 2, x 3⟩ = 0

O conjunto B = {x, x3} é linearmente independente, e todos os seus elementos são


ortogonais em relação a x2. Contudo, B não é um conjunto ortogonal.
Espaços vetoriais: produtos internos gerais 13

Estendendo o exemplo anterior, podemos afirmar que um conjunto line-


armente independente do subespaço das funções ímpares em C0([–L, L]) é o
conjunto B = {x, x3, x5, x7, x9, ...}. Contudo, esse conjunto não é ortogonal. Um
conjunto ortogonal desse subespaço é fornecido pelos polinômios de Legendre
C = {P1, P3, P5, ...}, dados por:

Em C0([–1, 1]), podemos verificar explicitamente que os polinômios de Legendre P1, P3,
P5 são dois a dois ortogonais. Para isso, calculamos:

1 1 5 1 3 1 5 2 3 2
⟨P1, P3⟩ = ∫ (x) · (5x3 – 3x) dx = ∫ –1 x4 dx – ∫ –1 x2 dx = – =0
–1 2 2 2 2 5 2 3

1 1 63 1 70 1 4 15 1
⟨P1, P3⟩ = ∫ ∫ –1 8 ∫ –1 ∫ –1 x2 dx
(x) · (63x5 – 70x3 – 15x) dx = x6 dx – x dx +
–1 8 8 8

63 2 70 2 15 2
= – + =0
8 7 8 5 8 3

1 1 3 1
⟨P3, P5⟩ = ∫ (5x – 3x) · (63x5 – 70x3 – 15x) dx
–1 5 5
315 285 45 1 2
x8 dx – 539 ∫ x6 dx +
1 1 1
=
16 ∫ –1 16 –1 16 ∫ –1 x4 dx –
16 ∫ –1
x dx

315 2 539 2 285 2 45 2


= – + – =0
2 9 16 7 16 5 16 3

Para o cálculo daws integrais, vale lembrar-se de que as integrais de x6, x4 e x2 foram
calculadas anteriormente e que ∫1–1 x8 dx = 2/9.
14 Espaços vetoriais: produtos internos gerais

Os polinômios de Legendre surgem das soluções da equação de Legendre (uma


equação diferencial ordinária linear de 2ª ordem) e podem ser descritos diretamente
de várias maneiras. Uma delas é por meio da fórmula de Rodrigues, que calcula, para
cada n ∈ ℕ, o polinômio de Legendre de grau n:

1 dn
Pn(x) = [(x2 – 1)n]
n! 2n dxn

É um resultado bastante importante, que tanto B quanto C são bases do


subespaço das funções ímpares de C∞([–L, L]), o subespaço de C0([–L, L]) das
funções que possuem derivadas de todas as ordens (ANTON; RORRES, 2012).

Por outro lado, um conjunto ortogonal no subespaço das funções pares é

o conjunto . Para mostrarmos que essas

funções são duas a duas ortogonais, precisamos de algumas propriedades do


cálculo:

1. Dados p, q ∈ ℝ:

2. Se k ∈ ℤ e k ≠ 0, então:
Espaços vetoriais: produtos internos gerais 15

Assim, dadas as funções , , n1, n2 ∈ ℕ, n1 ≠ n2, temos


que n1 – n2 ≠ 0 e:

Esse paralelo que fizemos serve para mostrar dois conjuntos ortogonais
diferentes em C0([–L, L]), que requerem diferentes abordagens para que essa
ortogonalidade seja verificada. Em termos de aplicações, toda função em
C∞([–L, L]) pode ser escrita como uma combinação linear de polinômios,
via série de Taylor e Maclaurin ou via série de Legendre, sendo esta última
especialmente importante no eletromagnetismo e na solução do potencial
elétrico com simetria axial.

De forma alternativa, toda função em C∞([–L, L]) pode ser escrita como

uma combinação linear das funções via série de

Fourier, sendo essa decomposição importante no estudo de ondas eletromag-


néticas, ondas mecânicas, mecânica de fluidos, termodinâmica e inúmeros
outros problemas e uma das principais ferramentas das ciências aplicadas
(ANTON, 2012).

Referência

ANTON, H.; RORRES, C. Álgebra linear com aplicações. 10. ed. Porto Alegre: Bookman, 2012.

Leituras recomendadas
ANTON, H.; BIVENS, I. C.; DAVIS, S. L. Cálculo. 10. ed. Porto Alegre: Bookman, 2014. 2 v.
LAY, D.; LAY, S.; MACDONALD, J. Álgebra linear e suas aplicações. 5. ed. Rio de Janeiro:
LTC, 2018.
LIMA, E. Álgebra linear. 9. ed. Rio de Janeiro: IMPA, 2016.
Capa_Nicholson.qxd 27.08.56 9:16 AM Page 1

Álgebra Linear apresenta uma breve introdução à adição de matrizes, multiplicação


por escalar e transposição, para em seguida abordar, de forma bastante didática, o
algoritmo de Gauss para a resolução de sistemas de equações lineares, multiplicação
n
de matrizes, determinantes, geometria vetorial, espaço vetorial R e espaços vetoriais
gerais, entre outros.
O livro, estruturado em cinco capítulos, contém apêndices sobre trigonometria
básica, indução e polinômios, assim como Respostas e Soluções Selecionadas.

Aplicações
Livro-texto para a disciplina Introdução à Álgebra Linear dos cursos de Matemática,
Física, Estatística, Ciência da Computação e Engenharia, bem como dos cursos de
Economia e Administração, Ciências Sociais e Química.

Visite nosso site:


www.mcgraw-hill.com.br
LinearAlgebra_FM_Portugues.qxd 29.08.56 10:16 AM Page ii

2a Edição
ISBN 85-86804-92-4

Nenhuma parte desta publicação poderá ser reproduzida ou distribuída de qualquer forma ou por qualquer meio, ou
armazenada em um banco de dados ou sistema de recuperação, sem o consentimento, por escrito, da Editora, incluindo,
mas não limitado a, qualquer rede ou outro dispositivo eletrônico de armazenamento ou transmissão ou difusão para
ensino a distância.

Todos os direitos reservados. © 2006 de McGraw-Hill Interamericana do Brasil Ltda.


Av. Engenheiro Luís Carlos Berrini, 1.253 – 10o andar
04571-010 – São Paulo – SP

Tradução do original em inglês Elementary Linear Algebra


Copyright © 2004, 2001 de McGraw-Hill Ryerson Limited, uma subsidiária da The McGraw-Hill Companies, Inc.
ISBN da obra original: 0-07-091142-8

Diretor-geral: Adilson Pereira


Editora de Desenvolvimento: Ada Santos Seles
Preparação de Texto: Jorge Avelino
Imagem de Capa: © Hideki Kuwajima/Photonica
Editoração Eletrônica: Printfit Soluções

N624a Nicholson, W. Keith.


Álgebra linear [recurso eletrônico] / W. Keith Nicholson ;
tradução técnica: Célia Mendes Carvalho Lopes, Leila Maria
Vasconcellos Figueiredo, Martha Salerno Monteiro. – 2. ed. –
Porto Alegre : AMGH, 2014.

Editado como livro impresso em 2006.


ISBN 978-85-8055-477-9

1. Álgebra linear. I. Título.

CDU 517.986.3

Catalogação na publicação: Poliana Sanchez de Araujo – CRB 10/2094

Se você tem dúvidas, críticas ou sugestões, entre em contato pelo endereço eletrônico: sac@grupoa.com.br
Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 11

1.2 Equações Lineares 11

1.2.2 Sistemas de Equações Lineares


Um conjunto finito de equações lineares é chamado sistema de equações lineares, ou
simplesmente sistema linear. Uma solução que satisfaz todas as equações do sistema é
chamada solução do sistema.
A essência da álgebra linear é um procedimento rotineiro de encontrar todas as soluções
de qualquer sistema de equações lineares. Primeiro vejamos alguns exemplos.

Exemplo 3 No Exemplo 1, o sistema de duas equações lineares


   
x+ y = 480.000
480 000 x 280 000
280.000
tem solução X = = .
10
100
x + 100 y = 450.000
11
50 000 y 200 000
200.000

Observe que esse sistema tem uma única solução.

Exemplo 4 Um sistema de equações pode não ter solução. Por exemplo, o sistema
x+y =1
x −z =2
y+z =1
não tem solução. Na verdade, a soma das últimas duas equações dá x + y = 3, contrariando a
primeira equação.

Um sistema de equações lineares é chamado inconsistente* se ele não tiver nenhuma


solução, e o sistema é chamado consistente quando ele admitir uma ou mais soluções.

Exemplo 5 Verifique que X = [1 + t − s 2 + t + s s t]T é uma solução para o sistema


x1 − 2x2 + 3x3 + x4 = −3
2x1 − x2 + 3x3 − x4 = 0
para todos os valores dos números s e t, nesse contexto chamados parâmetros.

SOLUÇÃO Simplesmente substitua x1 = 1 + t − s, x2 = 2 + t + s, x3 = s e x4 = t em cada equação:


x1 − 2x2 + 3x3 + x4 = (1 + t − s) − 2(2 + t + s) + 3s + t = −3
2x1 − x2 + 3x3 − x4 = 2(1 + t − s) − (2 + t + s) + 3s − t = 0
Como ambas as equações são satisfeitas, X é solução para todo s e todo t. Observe que esse
sistema tem infinitas soluções, pois há infinitas escolhas para os parâmetros s e t.

De fato, toda solução do sistema no Exemplo 5 é da forma mostrada, para alguma


escolha de parâmetros s e t. Para entender por que isso acontece, e para ver como se chega
a conjuntos de soluções como aqueles do Exemplo 5, desenvolvemos um procedimento geral
para encontrar soluções dessa forma. Para simplificar os cálculos, introduzimos a notação
matricial para descrever sistemas de equações lineares. Dado o sistema
x1 − 2x2 + 3x3 + x4 = −3
2x1 − x2 + 3x3 − x4 = 0
de duas equações e quatro incógnitas, os coeficientes das incógnitas formam uma
matriz 2 × 4  
1 −2 3 1
2 −1 3 −1

chamada matriz dos coeficientes do sistema. A matriz 2 × 5


 
1 −2 3 1 −3
2 −1 3 −1 0

* NTT: Os termos impossível e incompatível também são usados para denominar um sistema de equações lineares inconsistente,
assim como os termos possível ou compatível são também empregados para designar um sistema de equações consistente.
Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 12

12 CAPÍTULO 1 Equações Lineares e Matrizes

é chamada matriz completa ou também matriz aumentada do sistema (é a matriz dos


coeficientes acrescida da coluna formada pelos termos constantes). É evidente que o sistema
fica totalmente descrito pela matriz completa,7 portanto, não é surpresa que possamos
encontrar todas as soluções do sistema com a manipulação dessa matriz.

Para ver como isso é feito, convém chamar dois sistemas de equivalentes se eles
possuírem as mesmas soluções. Começando com um dado sistema de equações lineares,
nós o resolvemos escrevendo uma série de sistemas, um depois do outro, cada um deles
equivalente ao anterior. Como todos os sistemas têm as mesmas soluções, a finalidade é
encontrar um que seja fácil de resolver. Existe um método simples e rotineiro de realizar isso.
O exemplo a seguir proporciona uma ilustração.

Exemplo 6 Encontre todas as soluções para o sistema do Exemplo 5:



⎨ x1 − 2x2 + 3x3 + x4 = −3
⎩ 2x − x + 3x − x = 0
1 2 3 4

SOLUÇÃO O sistema está escrito a seguir junto com sua matriz completa;
 
x1 − 2x2 + 3x3 + x4 = −3 1 −2 3 1 −3
2x1 − x2 + 3x3 − x4 = 0 2 −1 3 −1 0

Primeiro eliminamos x1 da equação 2 por meio da subtração de duas vezes a primeira


equação da segunda. O resultado é o seguinte sistema (acompanhado de sua matriz
completa).  
x1 − 2x2 + 3x3 + x4 = −3 1 −2 3 1 −3
3x2 − 3x3 − 3x4 = 6 0 3 −3 −3 6

Esse novo sistema é equivalente ao original (ver Teorema 1 a seguir). Observe que a nova
matriz completa pode ser obtida diretamente da original se subtrairmos duas vezes a
primeira linha da segunda.
Agora multiplicamos a segunda equação por 13 para obter outro sistema equivalente
 
x1 − 2x2 + 3x3 + x4 = −3 1 −2 3 1 −3
x2 − x3 − x4 = 2 0 1 −1 −1 2

Mais uma vez, a nova matriz completa é resultado da multiplicação da segunda linha por 13 .
Finalmente, eliminamos x2 da equação 1 pela adição de duas vezes a segunda equação à
primeira. O resultado é o sistema (equivalente)
 
x1 + x3 − x4 = 1 1 0 1 −1 1
x2 − x3 − x4 = 2 0 1 −1 −1 2

Esse sistema é fácil de resolver. De fato, escolhendo-se arbitrariamente números x3 e x4, então
x1 e x2 podem ser encontrados de maneira que as equações sejam satisfeitas. Mais
precisamente, se estabelecermos que x3 = s e que x4 = t onde s e t são parâmetros
arbitrários, as equações passam a ser x1 + s − t = 1 e x2 − s − t = 2, portanto,
x1 = 1 + t − s e x2 = 2 + t + s
Isso nos dá a solução exibida no Exemplo 5 e, como todos os sistemas na série são
equivalentes (como será provado no Teorema 1), obtivemos todas as soluções para o
problema original.

Observe que, a cada estágio do procedimento acima, uma certa operação é executada no
sistema (e, portanto, na matriz completa) para produzir um sistema equivalente.
As operações a seguir, chamadas operações elementares, podem ser efetuadas
rotineiramente em sistemas para produzir sistemas equivalentes:
I Trocar a ordem das equações.
II Multiplicar uma equação por um número diferente de zero.
III Somar um múltiplo de uma equação com outra equação.

7 Quando um sistema é resolvido por um computador, é utilizada a matriz completa.


Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 13

1.2 Equações Lineares 13

Valemo-nos apenas dos procedimentos II e III para o cálculo no Exemplo 6, mas a operação
do tipo I às vezes também tem sua utilidade. O teorema a seguir é crucial para o método que
estamos desenvolvendo.

T EOREMA 1 Se uma operação elementar é executada em um sistema linear de equações, o sistema


resultante é equivalente ao original.
DEMONSTRAÇÃO Demonstraremos o teorema para operações do tipo III; argumentos semelhantes funcionam
para operações dos tipos I e II.
Suponha que modificamos o sistema original mediante a substituição da equação p por
uma nova equação, formada pela adição de um múltiplo de outra equação q à equação p.
Então qualquer solução do sistema original irá satisfazer a nova equação (pois satisfaz ambas
as equações p e q) e, portanto, será a solução do novo sistema. Em contrapartida, o novo
sistema contém a equação q (porque p e q são equações diferentes). Isso significa que o novo
sistema pode ser transformado de volta ao sistema original mediante a subtração da nova
equação pelo mesmo múltiplo da equação q. Logo, o mesmo argumento mostra que toda
solução para o novo sistema é uma solução do sistema original. Conseqüentemente, os dois
sistemas têm o mesmo conjunto de soluções; portanto, operações do tipo III produzem
sistemas equivalentes.

O Teorema 1 tem conseqüências profundas na álgebra linear. Particularmente, ele


possibilita o uso do procedimento do Exemplo 6 em qualquer sistema de equações lineares.
A idéia é aplicar ao sistema uma série de operações elementares com o objetivo de encontrar
um sistema de fácil resolução. Como todos os sistemas criados dessa maneira são
equivalentes (pelo Teorema 1), as soluções do sistema fácil de resolver são também as
soluções do sistema original.
Como no Exemplo 6, as operações elementares efetuadas em um sistema de equações
lineares produzem manipulações correspondentes nas linhas da matriz completa (vistas
como matrizes-linha). Em cálculos feitos a mão (e em programas de computador) linhas são
mais fáceis de manipular do que equações. Por esse motivo, reenunciamos as três operações
elementares para as linhas:
I Trocar a ordem das linhas.
II Multiplicar uma linha por um número diferente de zero.
III Somar um múltiplo de uma linha com outra linha.
Essas são as chamadas operações elementares com as linhas. Temos aqui outro exemplo do
nosso método no qual todo o cálculo é efetuado por meio da manipulação da matriz completa.

Exemplo 7 Encontre todas as soluções para o seguinte sistema de equações lineares:


x1 + x2 − 3x3 = 3
−2x1 − x2 = −4
4x1 + 2x2 + 3x3 = 7

SOLUÇÃO A matriz completa do sistema original é


⎡ ⎤
1 1 −3 3
⎢ ⎥
⎢ −2 −4 ⎥
⎣ −1 0 ⎦.
4 2 3 7

Começamos utilizando o 1 no canto superior esquerdo para “limpar” a coluna 1; ou seja,


para obter zeros nas outras posições (isso corresponde a eliminar x1 das equações 2 e 3).
Mais precisamente, adicionamos duas vezes a linha 1 à linha 2 e subtraímos quatro vezes a
linha 3 da linha 1. O resultado é ⎡ ⎤
1 1 −3 3
⎢ ⎥
⎢0 2⎥
⎣ 1 −6 ⎦.
0 −2 15 −5

Isso completa o trabalho na coluna 1.


Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 14

14 CAPÍTULO 1 Equações Lineares e Matrizes

Agora, usamos o 1 na segunda posição da linha 2 para limpar a coluna 2; isto é, para
obter zeros nas posições acima e abaixo (isso corresponde a eliminar x2 das equações 1 e 3).
Conseguimos isso subtraindo a linha 1 da 2, e adicionando duas vezes a linha 2 à linha 3.
Assim, temos ⎡ ⎤
1 0 3 1
⎢ ⎥
⎢0 2⎥
⎣ 1 −6 ⎦.
0 0 3 −1

Observe que essas duas operações não afetaram a coluna 1 porque o primeiro elemento da
linha 2 é zero.
A seguir, dividimos a linha 3 por 3 para obter o número 1 na terceira posição:
⎡ ⎤
1 0 3 1
⎢ ⎥
⎢0 2⎥
⎣ 1 −6 ⎦.
0 0 1 − 13

Finalmente, limpamos a coluna 3 por meio da subtração da linha 1 por três vezes a linha 3, e
pela adição de seis vezes a linha 3 à linha

2: ⎤
1 0 0 2
⎢ ⎥
⎢0 0⎥
⎣ 1 0 ⎦.
0 0 1 − 13

O sistema de equações lineares correspondente é


x1 = 2
x2 = 0
x3 = − 13
 T
e a solução (única) X = 2 0 − 13 está aparente. Como esse sistema de equações é
equivalente ao sistema original, essa é a solução para o sistema original.

1.2.3 Método de Eliminação de Gauss8


Nos cálculos dos Exemplos 6 e 7, operações elementares com as linhas (na matriz completa)
conduziram a matrizes da forma
⎡ ⎤
  1 0 0 ∗
1 0 ∗ ∗ ∗ ⎢ ⎥
and
e ⎢0 1 0 ∗⎥
⎣ ⎦
0 1 ∗ ∗ ∗
0 0 1 ∗

respectivamente, onde cada ∗ indica um número. Em ambos os casos, a solução foi facilmente
obtida pelos sistemas de equações correspondentes. As matrizes que aparecem são geralmente
descritas da maneira a seguir.

Dizemos que uma matriz está na forma escalonada por linha (e será chamada matriz
escalonada por linhas*) se as seguintes condições forem satisfeitas:
1. Todas as linhas nulas estão abaixo de todas as linhas não nulas.
2. O primeiro elemento não nulo em cada linha não nula é igual a 1 e é chamado pivô.**
3. Cada pivô se localiza à direita de todos os pivôs das linhas acima dele.
Uma matriz está na forma escalonada reduzida se, além disso, satisfizer
4. Cada pivô é o único elemento não nulo em sua coluna.

18 Carl Friedrich Gauss (1777–1855) foi um dos maiores matemáticos de todos os tempos. Ele realizou descobertas fundamentais
em todos os tópicos da matemática, e fez importantes contribuições à astronomia e à física.
** NTT: Ou simplesmente denominada matriz escalonada.
** NTT: Alguns autores chamam-no 1-líder.
Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 15

1.2 Equações Lineares 15

Assim, as matrizes escalonadas possuem uma forma de “escada” como indicado a seguir
(novamente, os asteriscos indicam números arbitrários):
⎡ ⎤
0 1 ∗ ∗ ∗ ∗ ∗
⎢ ⎥
⎢0 0 0 1 ∗ ∗ ∗⎥
⎢ ⎥
⎢ ⎥
⎢0 0 0 0 1 ∗ ∗ ⎥.
⎢ ⎥
⎢ ⎥
⎣0 0 0 0 0 0 1⎦
0 0 0 0 0 0 0

Os pivôs se localizam à direita e abaixo uns dos outros, ao longo da matriz, e todo elemento
à esquerda e abaixo de um pivô é nulo. Em uma matriz escalonada reduzida, a condição
adicional é que todos os elementos acima de cada pivô também sejam nulos. Qualquer
matriz escalonada pode ser colocada na forma reduzida por meio de mais algumas
operações elementares por linhas (zerando um por um os elementos acima dos pivôs).

Exemplo 8 A primeira matriz abaixo está na forma escalonada, e a segunda, na forma escalonada
reduzida, para qual pode ser transformada por meio de operações por linhas:
⎡ ⎤ ⎡ ⎤
1 ∗ ∗ ∗ ∗ 1 ∗ 0 ∗ 0
⎢ ⎥ ⎢ ⎥
⎢0
⎣ 0 1 ∗ ∗⎥⎦ → ⎢0
⎣ 0 1 ∗ 0⎥

0 0 0 0 1 0 0 0 0 1

Em geral usamos uma seta → para indicar que foram efetuadas operações com as linhas.

Aqui temos um procedimento pelo qual qualquer matriz pode ser levada à forma
escalonada (e depois, à forma escalonada reduzida, se desejado) utilizando nada além de
operações elementares de linhas.

ALGORITMO DE GAUSS 9 Qualquer matriz pode ser levada à forma escalonada pelo método a seguir:
Passo 1. Se a matriz consiste inteiramente de zeros, pare: ela já se encontra na forma
escalonada.
Passo 2. Caso contrário, encontre a primeira coluna, vindo da esquerda, que contém um
elemento k não nulo, e mova a linha contendo esse elemento ao topo da matriz.
Passo 3. Multiplique a linha no topo por 1k para obter o primeiro pivô.
Passo 4. Anule cada elemento abaixo do pivô, subtraindo múltiplos de suas linhas das linhas
inferiores.
Isso completa a primeira linha; todas as demais operações por linha são efetuadas nas
demais linhas.
Passo 5. Repita os passos 1–4 na matriz formada pelas linhas remanescentes.
Observe que o algoritmo de Gauss* é recursivo no seguinte sentido: depois de se obter o
primeiro pivô, todo o processo é repetido nas demais linhas. Isso torna fácil de se usar o
método no computador. Observe ainda que, no passo 4, podemos também anular cada
elemento acima do pivô. Nesse caso, o algoritmo leva a matriz à forma escalonada reduzida
(como nos exemplos 6 e 7). A razão para a distinção entre as duas formas de escalonamento
será discutida posteriormente.

O algoritmo de Gauss certamente demonstra o teorema a seguir.

T EOREMA 2 Toda matriz pode ser colocada na forma escalonada (reduzida, se desejado) mediante uma
seqüência de operações elementares por linhas.

* NTT: Também conhecido como escalonamento da matriz.


9 Embora Gauss tenha de fato usado esse procedimento, o método é atribuído aos chineses, que o utilizaram vários séculos antes.
Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 16

16 CAPÍTULO 1 Equações Lineares e Matrizes

Exemplo 9 Encontre todas as soluções do seguinte sistema de equações lineares:


x1 − 2x2 − x3 + 3x4 = 1
2x1 − 4x2 + x3 =5
x1 − 2x2 + 2x3 − 3x4 = 4

SOLUÇÃO A matriz completa é dada a seguir. Como o primeiro pivô está no lugar, passamos a anular
os demais elementos da coluna 1:
⎡ ⎤ ⎡ ⎤
1 −2 −1 3 1 1 −2 −1 3 1
⎢ ⎥ ⎢ ⎥
⎢2
⎣ −4 1 0 5⎥⎦ → ⎢0
⎣ 0 3 −6 3⎥

1 −2 2 −3 4 0 0 3 −6 3

Agora subtraímos a segunda linha da terceira e então10 multiplicamos a segunda linha por 13 ,
para conseguir a matriz abaixo (agora na forma escalonada por linhas):
⎡ ⎤
1 −2 −1 3 1
⎢ ⎥
→ ⎢0
⎣ 0 1 −2 1⎥

0 0 0 0 0

Agora use o segundo pivô (na coluna 3) para anular os demais elementos da coluna 3 e,
portanto, conseguir a forma escalonada:
⎡ ⎤
1 −2 0 1 2
⎢ ⎥
→ ⎢0
⎣ 0 1 −2 1⎥

0 0 0 0 0

Essa forma é até onde o algoritmo de Gauss pode nos levar. O sistema de equações
correspondente é
x1 − 2x2 + x4 = 2
x3 − 2x4 = 1
0=0
Os pivôs estão nas colunas 1 e 3 e as incógnitas correspondentes, x1 e x3, são chamadas
variáveis dependentes. Para resolver o sistema, atribuímos valores arbitrários às variáveis
independentes* (chamados parâmetros), e então as duas equações são usadas para
determinar as variáveis dependentes em termos dos parâmetros. Mais precisamente,
escrevemos x2 = s, e x4 = t onde s e t são parâmetros arbitrários, de modo que as equações se
tornam x1 − 2s + t = 2 e x3 − 2t = 1. Resolvendo, obtemos x1 = 2 + 2s − t e x3 = 1 + 2t.
Logo, as soluções são dadas por ⎡ ⎤
2 + 2s − t
⎢ ⎥
⎢ ⎥
⎢ s ⎥
X = [2 + 2s − t s 1 + 2t t] = T

⎢ 1 + 2t ⎥
⎥.
⎣ ⎦
t

A solução X = [2 + 2s − t s 1 + 2t t]T no Exemplo 9 é chamada solução geral do sistema


porque toda solução tem essa forma para alguma escolha de valores para os parâmetros s e t.

Quando a matriz completa de um sistema linear é transformada na forma escalonada


reduzida, as variáveis correspondentes aos pivôs são chamadas variáveis dependentes.
Assim, o método de resolução no Exemplo 9 fornece uma maneira de escrever as soluções de
qualquer sistema linear (desde que existam soluções).

Método de Eliminação Assuma que um sistema de equações lineares tem pelo menos uma solução. Então a solução
de Gauss geral pode ser encontrada na forma paramétrica da seguinte maneira:
Passo 1. Reduza a matriz completa do sistema à forma escalonada reduzida por linhas.
Passo 2. Atribua parâmetros às variáveis livres.

10 Esses passos não estão na ordem especificada pelo algoritmo. Entretanto, o objetivo é levar a matriz à forma escalonada usando
alguma seqüência de operações por linhas. A seqüência estabelecida no algoritmo sempre irá funcionar, mas pode não ser a mais
eficiente.
1* NTT: Também chamadas variáveis livres.
Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 17

1.2 Equações Lineares 17

Passo 3. Use as equações correspondentes à forma escalonada reduzida para escrever as


variáveis dependentes em termos dos parâmetros.
Esse procedimento resolve qualquer sistema de equações que tem uma solução. O exemplo a
seguir mostra como o método revela que um sistema não tem solução.

Exemplo 10 No Exemplo 4 foi mostrado diretamente que o sistema


x+y =1
x −z =2
y+z =1
não tem solução. A redução da matriz completa à forma escalonada é a seguinte:
⎡ ⎤ ⎡ ⎤
1 1 0 1 1 1 0 1
⎢ ⎥ ⎢ ⎥
⎢1
⎣ 0 −1 2⎥
⎦ → ⎢0
⎣ −1 −1 1⎥

0 1 1 1 0 1 1 1
⎡ ⎤
1 1 0 1
⎢ ⎥
→ ⎢0
⎣ 1 1 −1 ⎥

0 0 0 2
⎡ ⎤
1 1 0 1
⎢ ⎥
→ ⎢0
⎣ 1 1 −1 ⎥

0 0 0 1

Esta última matriz corresponde a um sistema no qual a última equação é


0x + 0y + 0z = 1.
É claro que nenhuma escolha de x, y e z irá satisfazer essa equação, logo esse último sistema
(e, portanto, o sistema original) não tem solução. Tipicamente é isso o que acontece quando
o sistema não tem solução.

Quando se usa o método de eliminação de Gauss para resolver um sistema grande é mais
eficiente reduzir a matriz completa apenas até a forma escalonada,11 atribuir parâmetros às
variáveis livres, e então calcular as variáveis dependentes fazendo substituição de trás para
frente. Use a última equação para encontrar a última variável dependente em termos dos
parâmetros, substitua esse valor na penúltima equação para calcular a penúltima variável
dependente e assim por diante. Esse método é mais eficiente do que transformar a matriz até
a forma escalonada reduzida, como pode ser confirmado por uma contagem do número de
operações envolvidas (ver na maioria dos livros de análise numérica).

1.2.4 Posto de uma Matriz


Será demonstrado na Seção 1.6 (Teorema 4) que:
A forma escalonada reduzida de uma matriz A é unicamente determinada por A.
Isto é, independentemente de qual série de operações por linha é usada para levar A à
matriz na forma escalonada reduzida, o resultado será sempre o mesmo. Entretanto, a
mesma matriz pode ser levada a diferentes matrizes na forma escalonada. Por exemplo,
 
1 3 4
se A = , então
2 7 9
     
1 3 4 1 3 4 1 2 3
A→ e A→
and → .
0 1 1 0 1 1 0 1 1
   
1 3 4 1 2 3
Portanto A pode ser levada a duas matrizes escalonadas diferentes e
and .
0 1 1 0 1 1
Entretanto mostraremos na Seção 4.4 que:
O número de pivôs deve ser o mesmo, independentemente de como é feito o
escalonamento de A.
Esse número de pivôs é chamado posto da matriz A e é denotado por posto(A).

11 Isso é com freqüência conhecido como algoritmo de Gauss, particularmente em análise numérica.
Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 18

18 CAPÍTULO 1 Equações Lineares e Matrizes

⎡ ⎤
1 2 −1 3
⎢ ⎥
Exemplo 11 Calcule o posto de A = ⎢ 2
⎣ 1 1 5⎥
⎦.
−1 4 −5 −1

SOLUÇÃO A matriz A é levada à forma escalonada da seguinte maneira:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 −1 3 1 2 −1 3 1 2 −1 3
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
A= ⎢ 2
⎣ 1 1 5⎥⎦ → ⎢0
⎣ −3 3 −1 ⎥
⎦ → ⎢0
⎣ 1 −1 1
3


−1 4 −5 −1 0 6 −6 2 0 0 0 0

Como há dois pivôs, temos que posto (A) = 2.

A relação entre posto e sistemas de equações lineares é dada no seguinte teorema.

T EOREMA 3 Suponha que um sistema de m equações em n indeterminadas tem pelo menos uma solução.
Se o posto da matriz completa é r, o conjunto de soluções tem exatamente (n − r) parâmetros.

DEMONSTRAÇÃO Reduza a matriz completa do sistema a uma forma escalonada R. Então R tem r pivôs (já que
o posto é r), logo há exatamente r variáveis dependentes. Conseqüentemente, há (n − r)
variáveis livres e a cada uma delas associamos um parâmetro.

O Teorema 3 tem um número surpreendente de conseqüências e será usado várias vezes


no que segue. Vimos exemplos de sistemas sem solução, com uma solução, ou com infinitas
soluções; a primeira aplicação do Teorema 3 é mostrar que essas são as únicas possibilidades.

T EOREMA 4 Para qualquer sistema de equações lineares há exatamente três possibilidades:


(1) Não há solução.
(2) Há uma única solução.
(3) Há infinitas soluções.

DEMONSTRAÇÃO Se existir uma solução, então ou toda variável é uma variável dependente (solução única) ou
há pelo menos uma variável livre (infinitas soluções porque há um parâmetro envolvido).

Como salientado anteriormente, um sistema de equações lineares é chamado consistente


se ele tem pelo menos uma solução. O sistema é dito inconsistente se ele não tiver nenhuma
solução. Assim, um sistema consistente tem ou uma única solução ou infinitas soluções.
Ele não pode ter, digamos, exatamente duas soluções.
A veracidade do Teorema 4 pode ser vista graficamente para um sistema de duas equações
em duas incógnitas x e y. Lembre-se que o gráfico de

uma equação da forma ax + by = c é
s
uma reta, se a e b forem não ambos nulos, e que é uma solução da equação exatamente
t
quando o ponto P(s, t) com coordenadas (s, t) está sobre a reta.
Considere agora um sistema
a1x + b1y = c1
(∗∗)
a2x + b2y = c2
Os gráficos dessas equações são duas retas, L1 e L2 desde que a1 e b1 sejam não ambos nulos,
e que a2 e b2 sejam não ambos nulos. Geometricamente, aqui estão três possibilidades para
essas duas retas (ilustradas na Figura 1.1):
(1) As retas são paralelas e distintas O sistema (∗∗) não tem solução porque não há ponto
comum às duas retas
(2) As retas não são paralelas O sistema (∗∗) tem uma única solução que
corresponde ao ponto de intersecção das retas
(3) As retas são coincidentes O sistema (∗∗) tem infinitas soluções, uma para
cada ponto sobre a reta comum.
Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 19

1.2 Equações Lineares 19

Claramente essas três possibilidades correspondem àquelas no Teorema 4.

Y L1 Y Y
L1 L2 L1 = L2
L2

Sem Uma Única Infinitas


Solução Solução Soluções

0 X 0 X 0 X
(1) (2) (3)
Figura 1.1

O gráfico de uma equação ax + by + cz = d é um plano no espaço se a, b e c forem não


todos nulos (isso será discutido com detalhes na Seção 3.3). Logo, um sistema com 2
equações e 3 incógnitas pode ou não ter soluções (os planos são paralelos) ou ter infinitas
soluções (os planos coincidem ou se interceptam em uma reta). Uma solução única não é
possível nesse caso. Isso ilustra o Teorema 3 já que há n = 3 indeterminadas e a matriz
completa tem posto r ≤ 2 (porque há duas equações), logo n − r ≥ 3 − 2 = 1, que
corresponde ao número de parâmetros.
Um argumento gráfico similar pode ser dado para ver que um sistema com três equações
em três indeterminadas tem que ter ou nenhuma, ou uma, ou infinitas soluções, como no
Teorema 4. Entretanto, o argumento geométrico falha para sistemas com mais que três
incógnitas, e temos que confiar no Teorema 4.
Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 21

1.3 Sistemas Homogêneos 21

1.3 SISTEMAS HOMOGÊNEOS

Nesta seção, vamos nos concentrar em uma classe particular de sistemas de equações
lineares, a saber, os sistemas em que o termo constante de cada equação é igual a 0.

1.3.1 Sistemas Homogêneos


Um sistema de equações lineares é denominado homogêneo se todos os termos
constantes forem nulos. Assim, uma equação linear homogênea típica, em n indeterminadas
x1, x2, · · · , xn tem a forma
a1x1 + a2x2 + · · · + anxn = 0.
Como os termos constantes são todos nulos, qualquer sistema homogêneo admite sempre a
solução trivial
x1 = 0, x2 = 0, · · · , xn = 0
em que toda variável é igual a zero. Muitos problemas práticos se resumem em descobrir se
um sistema homogêneo tem alguma solução não-trivial, ou seja, uma solução em que pelo
menos uma das variáveis é diferente de zero. O teorema a seguir apresenta uma situação
importante em que isso certamente ocorre.

T EOREMA 1 Se um sistema de equações lineares homogêneo tem mais incógnitas que equações, então ele
admite uma solução não-trivial.

DEMONSTRAÇÃO Suponha que existam m equações em n incógnitas, de forma que nossa hipótese é que
n > m. Se r é o posto da matriz completa, então r ≤ m porque o número r de pivôs não
pode exceder o número m de equações. Portanto, r ≤ m < n, donde r < n. Pelo Teorema 3
da Seção 1.2, isso significa que o número n − r de parâmetros é não-nulo. Então existem
(infinitas) soluções não-triviais.

A existência de uma solução não-trivial é freqüentemente o resultado desejado para um


sistema homogêneo. O exemplo a seguir fornece uma ilustração de como o Teorema 1 pode
ser usado em geometria.

Exemplo 1 O gráfico de uma equação ax2 + bxy + cy2 + dx + ey + f = 0 é chamada cônica se a, b e c


forem não todos nulos. (Circunferências, elipses, hipérboles e parábolas são exemplos de
cônicas.) Mostre que há pelo menos uma cônica que passa por quaisquer cinco pontos
fixados no plano que não estejam alinhados.

SOLUÇÃO Suponha que as coordenadas dos cinco pontos sejam (p1, q1), (p2, q2), (p3, q3), (p4, q4),e
(p5, q5). O gráfico da equação ax2 + bxy + cy2 + dx + ey + f = 0 passa pelo ponto (pi, qi) se
ap2i + bpiqi + cq2i + dpi + eqi + f = 0
Como há cinco pontos, temos cinco equações lineares homogêneas nas seis incógnitas
a, b, c, d, e e f. Conseqüentemente, há uma solução não-trivial, pelo Teorema 1. Se nessa
solução ocorrer a = b = c = 0, então todos os cinco pontos estão sobre a reta de equação
dx + ey + f = 0, contrário às nossas suposições. Por essa razão, a, b ou c é não-nulo e temos
uma cônica.
Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 22

22 CAPÍTULO 1 Equações Lineares e Matrizes

1.3.2 Soluções Básicas


Claramente, o método de eliminação de Gauss também funciona para sistemas homogêneos.
Na verdade, ele fornece um modo de escrever as soluções de modo conveniente, que será
necessário mais adiante.

Exemplo 2 Resolva o seguinte sistema homogêneo:


x1 − 2x2 + x3 + x4 = 0
−x1 + 2x2 + x4 = 0
2x1 − 4x2 + x3 =0
e expresse as soluções como somas de múltiplos escalares de soluções específicas.

SOLUÇÃO A matriz completa é reduzida da seguinte maneira:


⎡ ⎤ ⎡ ⎤
1 −2 1 1 0 1 −2 1 1 0
⎢ ⎥ ⎢ ⎥
⎢ −1
⎣ 2 0 1 0⎥⎦ → ⎢0
⎣ 0 1 2 0⎥

2 −4 1 0 0 0 0 −1 −2 0
⎡ ⎤
1 −2 0 −1 0
⎢ ⎥
→ ⎢0
⎣ 0 1 2 0⎥

0 0 0 0 0
Por essa razão, as variáveis dependentes são x1 e x3, e as variáveis livres x2 e x4 tornam-se
parâmetros: x2 = s e x4 = t. Assim, as equações no sistema final determinam as variáveis
dependentes em termos dos parâmetros:
x1 = 2s + t ande x3 = −2t
Isso significa que a solução geral é X = [2s + t s − 2t t]T . A nova idéia agora é separar
esse resultado em parcelas, de modo que em cada uma apareça apenas um dos parâmetros
s ou t:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2s + t 2s t 2 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ s ⎥ ⎢ s⎥ ⎢ 0⎥ ⎢1⎥ ⎢ 0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
X=⎢ ⎢ −2t ⎥
⎥ = ⎢ ⎥+⎢
⎢ 0⎥
⎥ = s⎢ ⎥ + t ⎢ ⎥
⎢ −2t ⎥ ⎢0⎥ ⎢ −2 ⎥
⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦
t 0 t 0 1
⎡ ⎤ ⎡ ⎤
2 1
⎢ ⎥ ⎢ ⎥
⎢1⎥ ⎢ 0⎥
⎢ ⎥ ⎢ ⎥
Assim, X1 = ⎢ ⎥
⎢0⎥
e X2 = ⎢ ⎥ são soluções particulares, e a solução geral
⎢ −2 ⎥
X tem
⎣ ⎦ ⎣ ⎦
0 1
a forma X = sX1 + tX2.

As soluções particulares X1 e X2 no Exemplo 2 são chamadas soluções básicas do sistema


homogêneo. Elas têm a propriedade que toda solução X é da forma
X = sX1 + tX2 onde s e t são números arbitrários.
Esse fato acontece em todo sistema homogêneo.
Para descrever a situação geral, a seguinte terminologia será útil: se X1, X2, · · · , Xk são
colunas, uma expressão da forma
s1X1 + s2X2 + . . . + skXk onde s1, s2, · · · , sk são números arbitários
é chamada combinação linear das colunas X1, X2, · · · , Xk. Dado qualquer sistema de
equações lineares homogêneo, um cálculo como o feito no Exemplo 2 resulta na expressão
de toda solução do sistema como uma combinação linear de certas soluções particulares.
Essas soluções particulares são chamadas soluções básicas produzidas pelo algoritmo de
Gauss. (É claro que o sistema pode ter apenas a solução trivial; nesse caso, dizemos que o
sistema não tem soluções básicas.)
Encerra aqui o trecho do livro disponibilizado para
esta Unidade de Aprendizagem. Na Biblioteca Virtual
da Instituição, você encontra a obra na íntegra.
ÁLGEBRA LINEAR

Marcelo Maximiliano Danesi


Espaços vetoriais: exemplos
e propriedades básicas
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:

„„ Definir espaço e subespaço vetoriais.


„„ Demonstrar que um conjunto dado é um espaço vetorial.
„„ Avaliar se um subconjunto de um espaço vetorial dado é um subes-
paço vetorial.

Introdução
Neste capítulo, você aprenderá a identificar espaços vetoriais não ne-
cessariamente n-dimensionais (como ℝ n), seus subespaços vetoriais,
as condições necessárias às operações que definem o espaço e seus
subespaços, as propriedades básicas dos espaços e subespaços, assim
como verá exemplos principais de espaços e subespaços vetoriais.
É natural que o primeiro contato do aluno com a álgebra linear seja
por meio de matrizes e vetores do ℝ n. Nesse ambiente, é mais fácil visuali-
zarmos os resultados e as propriedades desses espaços, as operações e as
relações de ângulo e medida. Agora que temos uma visão mais aguçada
do assunto, podemos generalizar esses conceitos a fim de percebermos
essa estrutura (linear) em outros sistemas, conjuntos ou aplicações.
2 Espaços vetoriais: exemplos e propriedades básicas

Os espaços vetoriais
Um espaço vetorial E é um conjunto de vetores, no qual estão definidas ope-
rações de soma e de multiplicação por um número real, de modo que dados
vetores u, v ∈ E e α ∈ ℝ:

1. u + v E, isto é, a soma de u e v também é um vetor em E;


2. αu ∈ E, isto é, o produto de u por um número real α também é um
vetor em E.

Quando as condições anteriores são satisfeitas, podemos dizer que o con-


junto E é fechado em relação às operações de soma e multiplicação por nú-
mero real. Adicionalmente, essas operações devem satisfazer, para quaisquer
α, β ∈ ℝ e u, v, w ∈ E, as seguintes condições, ditas axiomas do espaço vetorial.

a) Comutatividade: u + v = v + u.
b) Associatividade: (u + v) + w = u + (v + w) e (αβ) u = α(βu).
c) Vetor nulo: existe 0 ∈ E, dito vetor nulo, tal que, para todo v ∈ E:

v + 0 = 0 + v = v;

d) Inverso aditivo: para cada u ∈ E, existe –u ∈ E dito inverso aditivo


de u, tal que:

– u + u = u + (–u) = 0;

e) Distributividade: (α + β) u = αu + βu e α(u + v) = αu + αv;


f) Identidade por 1: para todo u ∈ E, 1 ⋅ u = u.

Uma curiosidade é reparar que usamos o símbolo “0” tanto para o nú-
mero real zero quanto para o vetor nulo. Isso não será problema, pois uma
consequência desses axiomas é que 0 ⋅ u = 0.
Espaços vetoriais: exemplos e propriedades básicas 3

Num espaço vetorial qualquer, os elementos que compõem E não são necessariamente
n-uplas de números reais representando um segmento orientado. Logo, não usamos

a notação u para os elementos d e E como fazíamos no espaço vetorial ℝ n.

O exemplo trivial que poderíamos citar é o caso que E = ℝ n e os vetores


u são as n-uplas de números reais. Ao invés dele, falaremos de um espaço
vetorial muito similar, mas que mostra uma flexibilidade da definição para
outros tipos de conjuntos.

Fixado n ∈ ℕ, seja Pn o conjunto formado por todos os polinômios de grau menor


ou igual a n, de coeficientes reais e definidos em ℝ. Ou seja, os elementos de Pn são:

u = an xn + ⋯ + a1x + a0
v = bn xn + ⋯ + b1x + b0,

onde an, … , a1, a0, bn, … , b1, b0 ∈ ℝ. Nesse espaço, definimos as operações de
modo que:

u + v = (an + bn)xn + ⋯ +(a1 + b1)x + (a0 + b0),


αu = (αan )xn + ⋯ + (αa1 ) x + (αa0 ).

Assim, o vetor nulo é:

0 = 0xn + ⋯ + 0x + 0

E o inverso aditivo de u é:

– u = – an xn – … – a1x – a0.
4 Espaços vetoriais: exemplos e propriedades básicas

Esse exemplo não é muito diferente do ℝ n, porque existe uma identificação


entre os polinômios de grau n, de coeficientes reais, definidos em ℝ, e as
n-uplas de números reais na medida em que:

Contudo, é válido imaginar o significado de um produto interno nesse


espaço vetorial, o que seriam polinômios ortogonais e as transformações
lineares sobre esses elementos. Antes de prosseguir com essas questões, vamos
explorar um exemplo distante do ℝ n.

Usando a teoria do cálculo, seja I ⊂ ℝ um intervalo aberto, e C0 (I) o conjunto formado


por todas as funções contínuas reais definidas em I. Ou seja, os elementos de C0 (I) são:

u = u(x)
v = v(x).

Nesse espaço, definimos as operações de modo que:

u + v = u(x) + v(x),
αu = α ⋅ u(x).

Essas operações resultam em funções contínuas — porque a soma de funções


contínuas é contínua, e a multiplicação de uma função contínua por um número real
é uma função contínua (ANTON, 2012). Assim, o vetor nulo é, para todo x ∈ I:

0 = 0(x) = 0

E o inverso aditivo de u é:

– u = – u(x).
Espaços vetoriais: exemplos e propriedades básicas 5

Esse exemplo é mais distante do ℝ n porque uma função é definida pelas


imagens dos infinitos x ∈ I. Isso nos dá abertura para imaginarmos o conceito
de dimensão aplicado a esse conjunto. Como será que podemos definir uma
base? Novamente, antes de falarmos dessas questões mais avançadas, segui-
remos com a próxima definição natural.

Subespaços vetoriais
Seja E um espaço vetorial. Um subespaço vetorial (ou apenas subespaço)
de E é um subconjunto F ⊂ E que ainda é um espaço vetorial em relação às
operações de E. Isto é, F apresenta as seguintes propriedades.

i. Se u, v ∈ F, então u + v ∈ F.
ii. Se u ∈ F, então, para todo α ∈ ℝ, αu ∈ F.

São considerados subespaços triviais de E o conjunto {0} que contém apenas


o vetor nulo e o próprio E. Aproveitando os exemplos anteriores, podemos dar
os seguintes subespaços não triviais.

Fixados m, n ∈ ℕ, m < n, sejam Pn o conjunto formado por todos os polinômios de grau


menor ou igual a n, de coeficientes reais, definidos em ℝ, e Pm o conjunto formado
por todos os polinômios de grau menor ou igual a m, de coeficientes reais, definidos
em ℝ. Dessa maneira:
„„ dado u ∈ Pm, o grau de u é menor que n, logo u ∈ Pn, e Pm ⊂ Pn;
„„ a soma de polinômios de grau menor ou igual a m tem grau menor ou igual a
m, assim como a multiplicação por número real, logo Pm é fechado em relação às
operações de Pn.

O espaço vetorial definido pelas funções contínuas em I também nos dá


um exemplo de subespaço.
6 Espaços vetoriais: exemplos e propriedades básicas

„„ Usando a teoria do cálculo, sejam I ⊂ ℝ um intervalo aberto, C0 (I) o conjunto


formado por todas as funções reais contínuas definidas em I, e C1 (I) o conjunto de
todas as funções reais deriváveis em I. Dessa maneira:
„„ dado u ∈ C1 (I), u é função derivável e, portanto, contínua (ANTON, 2014), logo u ∈
C1 (I), o que implica que C1 (I) ⊂ C0 (I);
„„ a soma de funções deriváveis é derivável, assim como a multiplicação por número
real (ANTON, 2014), logo C1 (I) é fechado em relação às operações de C0 (I).
Portanto, C1 (I) é um subespaço de C0 (I).

Subespaços gerados
Dado um conjunto de vetores B = {u1, u2, … , un } contido no espaço vetorial
E, dizemos que u ∈ E é combinação linear de u1, u2, … , un, se existem α1, α2,
…, αn ∈ ℝ:

u = α1u1 + α2u2 + ⋯ αnun.

O conjunto de todas as combinações lineares dos vetores de B é dito gerado


de B:

ger(B) = ger {u1, u2, … , un } =


{u;u “é combinação linear de” u1, u2, … , un }.

Esse conjunto é subespaço vetorial de E , pois:

1. B ⊂ E implica que ui ∈ E, para todo i = 1, …, n — como E é fechado,


as combinações lineares de B pertencem a E, logo ger(B) ⊂ E;
2. escolhendo α1 = α2 = ⋯ = α n = 0, temos u = 0 ∈ ger(B);
3. dados u, v ∈ ger(B), existem coeficientes α1, α2, … , αn, β1, β2, …, βn ∈ ℝ,
tal que:

u = α1u1 + α2u2 + ⋯ + αnun;


v = β1u1 + β2u2 + ⋯ + βnun.
Espaços vetoriais: exemplos e propriedades básicas 7

Dessa maneira, os vetores u + v e αu também são combinações lineares


de B , pois, para todo α ∈ ℝ:

u + v = (α1 + β1) u1 + (α2 + β2) u2 + ⋯ (αn + βn) un


αu = (αα1) u1 + (αα2) u2 + ⋯ + (ααn) un.

Isso quer dizer que ger(B) é fechado em relação às operações de E.

„„ Usando a teoria do cálculo, sejam I = [0,1] ⊂ ℝ intervalo fechado, C0 (I) o conjunto


formado por todas as funções reais contínuas definidas em I, e B o conjunto de
todas as funções reais definidas em I, da forma:

un (x) = sen (nπx)

onde n = 1, …, + ∞.
Assim, podemos afirmar que o gerado de B é um subespaço de C0 (I) no qual, para
todo u ∈ ger (B), existem α1, α2, … ∈ ℝ, tal que:

u(x) = α1 sen (nπx) + α2 sen (nπx) + …;


u(0) = u(1) = 0.

Podemos entender esse conjunto como sendo o das cordas tensionadas e vibrantes
entre os pontos fixos (0,0) e (1,0), onde cada ui representa uma frequência de u.
Veja, a seguir, a Figura 1.

Figura 1. O gráfico à esquerda mostra, em verde, u1 (x) = sem(πx), em vermelho, u2 (x) =


sem(2πx) e, em azul, u3 (x) = sem(3πx). O gráfico à direita mostra u(x) = 1 u1 – 1 u2 – 1 u3 .
2 4 4
8 Espaços vetoriais: exemplos e propriedades básicas

Um conjunto como espaço vetorial


Pelo que foi definido anteriormente, um conjunto E dotado de uma operação
de soma e uma operação de multiplicação por um número real é um espaço
vetorial, se E satisfaz as condições (i) e (ii) de fechamento das operações e as
condições de (a) até (f) das propriedades necessárias às operações.
Podemos reescrever essa definição como um algoritmo, a fim de verificar
se um determinado conjunto E com duas operações é espaço vetorial.

1. Identificar o conjunto E de elementos que serão os vetores.


2. Identificar as operações de soma e multiplicação por escalar.
3. Verificar as condições (i) e (ii), isto é, se as operações de soma e mul-
tiplicação por escalar são fechadas em E.
4. Verificar as propriedades (a) até (f).

a11 a12
Considere o conjunto F das matrizes 2 × 2 da forma u = a
21
a22 , onde aij ∈ ℝ para
todo i,j = 1,2.
a a b b
Dados u = a11 a12 , v = b11 b12 e α є ℝ , definimos a soma e a multiplicação
21 22 21 22

por escalar em F como:

a11 + b11 a12 + b12


u+v= a +b a22 + b22
21 21

αa11 αa12
αu =
αa21 αa22

Assim, verificamos as seguintes condições.


i. u + v é uma matriz 2 × 2, e cada entrada de u + v é um número real, logo u + v ∈ F.
ii. αu é uma matriz 2 × 2, e cada entrada de αu é um número real, logo αu ∈ F.
A seguir, verificamos se essas operações satisfazem os axiomas.

a11 a12 b11 b12 c11 c12


Dados u = ,v= ,w= є E e α, β є ℝ.
a21 a22 b21 b22 c21 c22
Espaços vetoriais: exemplos e propriedades básicas 9

a11 + b11 a12 + b12 b +a b12 + a12


a) u + v = a + b a + b = b11 + a11 b22 + a22 = v + u;
21 21 22 22 21 21

a11 + b11 a12 + b12 c11 c12 a11 + b11 + c11 a12 + b12 + c12
b) (u + v) + w = a + b
21 21
a22 + b22 + c21 c22 = a21 + b21 + C21 a22 + b22 + c22 =

a11 a12 b11 + c11 b12 + c12


a21 a22 + b21 + c21 b22 + c22 = u + (v + w)

(αβ)a (αβ)a12 α(βa11) α(βa12)


e (αβ)u = (αβ)a11 (αβ)a22 = α(βa21) α(βa22) = α(βu);
21

0 0
c) Tomando 0 = , então, para todo v ∈ E:
0 0

0 0 b b12 b11 b12


0+v= + b11 b22 = b21 b22 = v;
0 0 21

–a11 –a12
d) Para cada u ∈ E tomando –u = (–1)u = , temos:
–a21 –a22
a11 a12 –a11 –a12 0 0
u + (–u) = + = ;
a21 a22 –a21 –a22 0 0

a a12 (α + β)a11 (α + β)a12


e) (α + β)u = (α + β) a11 a22 = (α + β)a21 (α + β)a22 e
21

αa11 + βa11 αa12 + βa12


= = αu + βu
αa21 + βa21 αa22 + βa22

α(a11 + b11) α(a12 + b12) αa11 αa12 αb11 αb12


α(u + v) = = + = αu + αv;
α(a21 + b21) α(a22 + b22) αa21 αa22 αb21 αb22

f) Para todo u ∈ E, temos que:

1a11 1a12
1·u= u.
1a21 1a22

Portanto, F é espaço vetorial.

Vamos alterar o exemplo acima para mostrar algumas sutilezas do algoritmo.


10 Espaços vetoriais: exemplos e propriedades básicas

Fixado λ ∈ ℝ, considere o conjunto Gλ das matrizes 2 × 2 da forma:

a a
u = a11 λ12
21

onde aij ∈ ℝ para todo i,j = 1,2.


a11 a12 b11 b12
Dados u = a
21
λ , v = b21 λ e α є ℝ, definimos a soma e a multiplicação por
escalar em Gλ, como:

a11 + b11 a12 + b12 αa11 αa12


u+v= αu =
a21 + b21 λ αa21 λ

Assim, verificamos as seguintes condições.


i. u + v é uma matriz 2 × 2, e cada entrada de u + v é um número real com o elemento
da posição (2,2) valendo λ, logo u + v ∈ Gλ.
ii. αu é uma matriz 2 × 2, e cada entrada de αu é um número real com o elemento
da posição (2,2) valendo λ, logo αu ∈ Gλ.
A seguir, verificamos se essas operações satisfazem os axiomas.
a11 a12 b11 b12 c11 c12
Dados u = a ,v= ,w= є Gλ e α, β є ℝ
21
λ b21 λ c21 λ

a11 + b11 a12 + b12 b11 + a11 b12 + a12


a) u + v = = = v + u;
a21 + b21 λ b21 + a21 λ

a +b a12 + b12 c11 c12 a11 + b11 + c11 a12 + b12 + c12
b) (u + v) + w = a11 + b11 + c
21 21
λ 21
λ = a21 + b21 + c21 λ

a11 a12 b +c b12 + c12


= + b11 + c11 λ = u + (v + w)
a21 λ 21 21

(αβ)a11 (αβ)a12 α(βa11) α(β)a12)


(αβ)u = = = α(βu)
(αβ)a21 λ α(βa21) λ

0 0
c) Tomando 0 = , então, para todo v ∈ E:
0 λ
0 0 b b12 b b12
0+v= + 11 = 11 = v;
0 λ b21 λ b21 λ
Espaços vetoriais: exemplos e propriedades básicas 11

–a11 –a12
d) Para cada u ∈ E tomando –u = (–1)u = –a λ , temos:
21

a a –a –a12 0 0
u + (–u) = a11 λ12 + –a11 λ = 0 ;
21 21 λ

e) a a (α + β)a11 (α + β)a12
(α + β)u = (α + β) a11 λ12 = =
21 (α + β)a21 λ

αa11 + βa11 αa12 + βa12


= αu + βu
αa21 + βa21 λ

α(a11 + b11) α(a12 + b12) αa11 αa12 αb11 αb12


α(u + v) = = + = αu + αv;
α(a21 + b21) λ αa21 λ αb21 λ

f) Para todo u ∈ E, temos que:

a11 a12 –a11 –a12 0 0


u + (–u) = + = ;
a11 λ –a11 λ 0 λ

Portanto, Gλ é espaço vetorial.

O paralelo que precisamos fazer entre os dois exemplos anteriores é: G λ


é um subconjunto de F , mas F e G λ são espaços vetoriais com operações
distintas e incompatíveis, se λ ≠ 0. De forma mais precisa, se compararmos
a soma de u, v ∈ G λ pela soma definida em F com a soma definida em G λ:

Podemos reparar que, se λ ≠ 0, então (u + v)F ≠ (u + v)G. Isso significa


que, dado um conjunto, existem diferentes maneiras de definirmos as suas
operações, a fim de obtermos um espaço vetorial. O próximo exemplo mostra
que nem toda operação define um espaço vetorial.
12 Espaços vetoriais: exemplos e propriedades básicas

Considere o conjunto H das matrizes 2 × 2 da forma:

a a12
u = a11 a22
21

onde aij ∈ ℝ para todo i,j = 1,2.


a a b b12
Dados u = a11 a12 , v = b11
21 22 21
b22 e α є ℝ definimos a soma e a multiplicação por

escalar em H, como:

a11
2
+ b112 a122 + b122
u + v = a2 + b 2 a 2 + b 2
21 21 22 22

αa11 αa12
αu =
αa21 αa22

Dessa forma, as condições (i) e (ii) funcionam igual aos demais exemplos, assim como
a condição (a). Contudo, a condição (b) não é verificada, pois:

2 2
a112 + b112 a122 + b122 c11 c12 (a11
2
+ b11
2
) + c112 (a122 + b122 ) + c122
(u + v) + w = a 2 + b 2 a 2 + b 2 + c c22 = (a21
2
+ b21
2
2
) + C212 (a222
2
+ b222 ) + c222
21 21 22 22 21

Enquanto que:

2 2
a a b112 + c112 b122 + c122 a112 + (b112 + c112 ) a122 + (b122 + c122 )
u + (v + w) = a11 a12 + 2 = 2 2 2
21 22 b21 + c21 b22 + c22
2 2 2
a21 + (b212 + c212 ) a222 + (b222 + c222 )

Logo, com as operações definidas anteriormente, H não é espaço vetorial. É impor-


tante ressaltar, também, a necessidade de verificarmos todas as condições e proprie-
dades da definição, a fim de concluirmos se o conjunto e as operações definem um
espaço vetorial.

Exemplos de espaços vetoriais


Antes de prosseguir, vamos a outros exemplos de espaços vetoriais que não
foram mencionados neste capítulo, mas que são comuns nas aplicações.
Espaços vetoriais: exemplos e propriedades básicas 13

Generalizando um dos exemplos anteriores, fixados m, n ∈ ℕ, seja Mm × n(ℝ) o conjunto


formado por todas as matrizes m × n, de coeficientes reais, isto é, o conjunto formado
pelos elementos da forma:

u = [aij],
v = [bij]

onde aij, bij∈ ℝ para i = 1, …, m e j = 1, …, n. Nesse conjunto, definimos as operações


de modo que:

u + v = [cij ],

onde cij = aij + bij para i = 1, …, m e j = 1, …, n, e αu = [αaij].


Assim, o vetor nulo é a matriz formada por zero em todas as posições:

0 = [0]

E o inverso aditivo de u é:

– u = [– aij].

Outro exemplo são as sequências ordenadas de infinitos números reais, o ℝ∞. Nesse
conjunto, os elementos de ℝ∞ são:

u = (a1, a2, a3,…)


v = (b1, b2, b3,…),

onde a1, b1, a2, b2, a3, b3, …∈ ℝ. Nesse espaço, definimos as operações de modo que:

u + v = (a1 + b1, a2 + b2, a3 + b3,…),


αu = (αa1, αa2, αa3,…).
14 Espaços vetoriais: exemplos e propriedades básicas

Assim, o vetor nulo é:

0 = (0, 0, 0,…)

E o inverso aditivo de u é:

– u = (– a1, – a2, – a3,…).

Um subconjunto como subespaço vetorial


Como foi definido, dado E espaço vetorial, um subespaço vetorial (ou subes-
paço) de E é um subconjunto F ⊂ E que ainda é um espaço vetorial em relação
às operações de E. Isto é, F precisa ser fechado em relação às operações de
E. Confirmamos isso se verificarmos o seguinte.

„„ Se u, v ∈ F, então u + v ∈ F.
„„ Se u ∈ F , então, para todo α ∈ ℝ, α u ∈ F.

A tarefa de determinar se um subconjunto é subespaço depende de um número


menor de condições por F herdar as operações do espaço E. Essas operações
trazem, de forma implícita, as propriedades (a) até (f), necessitando apenas
mostrar que F é fechado em respeito a essas operações. Vamos a alguns
exemplos de subespaço.

No espaço vetorial Mn × n(ℝ) das matrizes n × n de coeficientes reais com as operações


naturais de soma matricial e multiplicação por número real, definimos o subconjunto:

Sn = {A ∈ Mn × n(ℝ); A é matriz simétrica}.

Lembrando que uma matriz A = [aij], n × n é dita simétrica se, para todo i,j = 1, …, n,
aij = aji, isto é, se A coincide com a sua transposta (A = AT ).
Nessas condições, verificamos que Sn é um subespaço de Mn × n(ℝ), pois:
Espaços vetoriais: exemplos e propriedades básicas 15

i. dadas as matrizes A = [aij ], B = [bij ] ∈ Sn, então A + B = [cij ], onde:

cij = aij + bij = aji + bji = cji,

logo, A + B é matriz simétrica, e A + B ∈ Sn;

ii. dadas as matrizes A = [aij] ∈ Sn e α ∈ ℝ, então αA = [αaij ], onde:

αaij = αaji

logo αA é matriz simétrica, e αA ∈ Sn.


Isso mostra que Sn é um subespaço de Mn × n(ℝ).

Em relação ao exemplo anterior, poderíamos trocar o conjunto das matrizes


simétricas pelo das matrizes triangulares superiores (A = [aij ] tal que aij = 0
se i > j), pelo conjunto das matrizes triangulares inferiores (A = [aij] tal que
aij = 0 se i < j) ou, ainda, pelo conjunto das matrizes diagonais (A = [aij ], tal
que aij = 0 se i ≠ j). Todos esses definem diferentes subespaços de Mn × n(ℝ).
É importante não diminuirmos a importância das condições (i) e (ii) para
podermos afirmar que um subconjunto é, de fato, subespaço do espaço que o
contém. Vejamos alguns exemplos de como essa relação é delicada.

Retomando exemplos anteriores, falamos do conjunto:

F = M2×2(ℝ).

Com as operações naturais de soma matricial e multiplicação por número real, e


fixado λ ∈ ℝ, falamos do conjunto:

Gλ =
{ a11
a21
a12
λ
; a11, a12, a21 є ℝ
{
Com as operações de soma e multiplicação por número real, de forma que:

a11 a12 b11 b12


u= ,v= є Gλ e α є ℝ
a21 λ b21 λ
16 Espaços vetoriais: exemplos e propriedades básicas

a11 + b11 a12 + b12


u+v= a +b λ
21 21

αa11 αa12
αu =
αa21 λ

Mostramos anteriormente que, fixado λ ∈ ℝ, F e Gλ são espaços vetoriais com essas


operações, e Gλ ⊂ F. Contudo, Gλ só é subespaço de F se λ = 0, pois as operações de F
e Gλ funcionam de maneira diferente quando λ ≠ 0. A saber:

a11 + b11 a12 + b12 a + b11 a12 + b12


(u + v)F = , (u + v)Gλ = 11 .
a21 + b21 λ+λ a21 + b21 λ

Essa comparação ilustra o fato que os espaços e subespaços são formados por
uma terna de um conjunto e duas operações, e que um subconjunto só é subespaço
quando usa as mesmas operações do espaço que o contém.

No exemplo acima, podemos dizer que o subconjunto G λ surge da fixação


de uma das coordenadas dos elementos u ∈ M2×2(ℝ). Essa dinâmica pode ser
revista por meio de um exemplo similar.

Usando a teoria do cálculo, sejam I = [0,1] ⊂ ℝ intervalo fechado, e C0 (I) o conjunto


formado por todas as funções reais contínuas definidas em I. Fixando x0 ∈ I , definimos
o subconjunto de C0 (I):

Gx0 = {u ∈ E; u(x0) = 0}

das funções contínuas em I e que contém um ponto fixo em (x0,0). Tomando as opera-
ções naturais de soma de funções e multiplicação por número escalar, verificamos que:
1. dadas as funções u, v ∈ Gx0, então u + v = u(x) + v(x) é uma função contínua, de
forma que (u + v)(x0 ) = u(x0 ) + v(x0 ) = 0 + 0 = 0, logo u + v ∈ Gx0;
2. dada a função u ∈ Gx0 e α ∈ ℝ, então αu = αu(x) é uma função contínua, de forma
que (αu)(x0 ) = αu(x0 ) = α0 = 0, logo αu ∈ Gx0.
Isso mostra que Gx0 é um subespaço de C0 (I).
Espaços vetoriais: exemplos e propriedades básicas 17

O exemplo anterior também define um subespaço vetorial, se fixássemos


como zero a imagem de uma quantidade infinita de elementos em I. O que
não definiria um subespaço é se fixássemos um valor diferente de zero para
essas imagens.

Usando a teoria do cálculo, sejam I = [0,1] ⊂ ℝ intervalo fechado, e C0 (I) o conjunto


formado por todas as funções reais contínuas definidas em I. Fixando x0 ∈ I e λ ∈ ℝ, tal
que λ ≠ 0, definimos o subconjunto de C0 (I):

Hx0 = {u ∈ E; ux0 =λ}

das funções contínuas em I e que contém um ponto fixo em (x0,λ). Esse não é subes-
paço vetorial de C0 (I) porque a soma de funções em Hx0 não é fechada Hx0.
„„ Dadas as funções u, v ∈ Hx0, então u + v = u(x) + v(x) é uma função contínua, de
forma que (u + v)(x0 ) = u(x0) + v(x0 ) = λ + λ = 2λ ≠ λ, logo u + v ∉ Hx0.
Isso mostra que Hx0 não é um subespaço de C0 (I).

Na definição de subespaço vetorial, temos implicitamente a seguinte propriedade


„„ Se F é subespaço de E, então o vetor nulo de E é o vetor nulo de F.
Podemos, inclusive, esboçar a prova dessa propriedade, afirmando que, para qualquer
u ∈ F, os elementos + 1u e –1u também pertencem a F, pois F é fechado em relação à
multiplicação por número real. Como F também é fechado em relação à soma, então
+ 1u + (–1u) = 0u = 0, logo o vetor nulo pertence a F.
Essa propriedade seria suficiente para afirmar que Hx0 não é um subespaço de C0
(I) no exemplo anterior, já que o vetor nulo de C0 (I) é a função identicamente nula, a
qual não é elemento de Hx0.

Vejamos outros exemplos de subconjuntos de espaços vetoriais que não


definem subespaços.
18 Espaços vetoriais: exemplos e propriedades básicas

Seja M3×2(ℝ) o espaço vetorial das matrizes 3 × 2 de coeficientes reais com as operações
naturais de soma de matrizes e multiplicação por número real. Definindo subconjunto:

a11 a12
G= u = a21 a22 є M3×2 (ℝ); a11 ≥ 0
a31 a32

Verificamos o seguinte.
1. Dadas as matrizes:

a11 a12 b11 b12


u = a21 a22 , v = b21 b22 є G
a31 a32 b31 b32

então:

a11 + b11 a12 + b12


u + v = a21 + b21 a22 + b22
a31 + b31 a32 + b32

é uma matriz 3 × 2 de coeficientes reais, de forma que a11 + b11 ≥ 0 + 0 = 0, logo u


+ v ∈ G.

2 3 –2 –3
2. Dados α = – 1 e u = 3 4 então α ∈ ℝ, u ∈ G , enquanto que: αu = –3 –4 є G.
4 5 –4 –5
Logo G não é fechado para a multiplicação por número real.
Portanto, G não é subespaço de M3×2(ℝ).

Seja M2×2(ℝ) o espaço vetorial das matrizes 2 × 2 de coeficientes reais com as operações
naturais de soma de matrizes e multiplicação por número real. Definindo subconjunto:

G = {A ∈ M2×2(ℝ); A não possui inversa}


Espaços vetoriais: exemplos e propriedades básicas 19

2 3 v= 0 0
Verificamos que G não é fechado para a soma, pois, dados u = e ,
0 0 1 0
temos que u, v ∈ G . Os determinantes de u e v são nulos (logo, não contêm inversa),
2 3
enquanto que u + v = , cujo determinante é diferente de zero (logo, contém
1 0
inversa). Portanto, u + v ∉ G e G não é subespaço de M2×2(ℝ).

Referência

ANTON, H.; RORRES, C. Álgebra linear com aplicações. 10. ed. Porto Alegre: Bookman, 2012.

Leituras recomendadas
ANTON, H.; BIVENS, I.; DAVIS, S. Cálculo. 10. ed. Porto Alegre: Bookman, 2014. v. 1.
LAY, D.; LAY, S.; MACDONALD, J. Álgebra linear e suas aplicações. 5. ed. Rio de Janeiro:
LTC, 2018.
ÁLGEBRA LINEAR

Silvano Antonio Alves Pereira Junior


O espaço ℝ n: subespaços
e geradores
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:

„„ Aplicar as propriedades da geometria tridimensional para o espaço


de dimensão n, com n > 3.
„„ Explicar subespaços vetoriais, a fim de reconhecer quando um con-
junto munido de adição e multiplicação por escalar é um subespaço
de um dado espaço vetorial.
„„ Definir conjuntos geradores, a fim de reconhecer quando um conjunto
pode ser denominado conjunto gerador de um dado espaço vetorial.

Introdução
Neste capítulo, você estudará um pouco mais sobre álgebra linear, sendo
apresentado ao espaço ℝ n, uma generalização natural dos conceitos
que aprendemos em ℝ 2 e ℝ 3. Verá, também, o que são subespaços e
conjuntos de geradores, além de entender como alguns subespaços
especiais se relacionam com transformações matriciais.

Espaços ℝ n
O espaço ℝ n é uma generalização natural dos espaços ℝ 2 e ℝ 3, para dimen-
sões maiores. No espaço ℝ n, para n ≥ 4, perdemos a capacidade de desenhar,
ficando sem o apelo da visualização. Contudo, como será visto, as propriedades
algébricas dos espaços e das transformações matriciais continuam válidas e
passam a ter um papel ainda mais importante. Seguiremos uma linha seme-
lhante à apresentada em Nicholson (2006).
2 O espaço ℝ n: subespaços e geradores

Começamos de maneira muito semelhante ao que fizemos para o plano ℝ 2,


onde identificamos os seus pontos com os vetores que representam o transporte
da origem até esses pontos. Seguindo por esse caminho, lembramo-nos de
que os pontos do espaço ℝ n são n-úplas de números reais:

P(x1, x2, ..., xn)

onde os xi são, também, números reais.


Assim sendo, não faremos distinção entre o ponto P(x1, x2, ..., xn) e o vetor

associado ele, que representa o transporte da origem a esse ponto.

Esses vetores são chamados de n-vetores, e o espaço ℝ n é o que contém todos


os n-vetores assim definidos.
Veja, a seguir, alguns exemplos de espaços do tipo ℝ n.

Um exemplo é o plano espaço euclidiano ℝ 2, estudado anteriormente, onde os pontos



x1
P(x1, x2) são identificados com os vetores correspondentes v = x . Veja a Figura 1.
2

P(x,y)
3

2
v

B
–3 –2 –1 0 1 2 3

Figura 1. Ponto e vetor no plano euclidiano.

No plano ℝ 2 você já estudou transformações como reflexões, rotações e projeções,


onde a representação gráfica foi de grande auxílio.
O espaço ℝ n: subespaços e geradores 3

No próximo exemplo, adaptado de Nicholson (2006), você verá um pri-


meiro exemplo de um espaço onde os vetores apresentam mais do que três
coordenadas.

Paulo, um economista que trabalha para uma rede de pizzarias, tem em mãos dados
sobre as vendas das unidades e a quantidade de estudantes que moram nas redondezas
dessas lojas.

Quantidade de Estudantes (mil) Vendas (mil R$)

3 30

1 27

1 26

0,5 23

3,5 32

Paulo deseja encontrar a reta de regressão desses valores, isto é, uma reta que tente
explicar como as vendas variam à medida que o número de estudantes aumenta.
Veja a Figura 2.

Figura 2. Gráfico de desempenho de vendas.

Paulo precisa encontrar uma reta da forma y = mx + b, que melhor aproxime os


pontos desse gráfico. A ideia central é encontrar valores y’i = mx + b que cheguem
aos valores das vendas.
4 O espaço ℝ n: subespaços e geradores

Essa noção de distância será semelhante à de distância no plano. Considere seguintes


vetores:

y1 y’1
y2 y’2
Y = y3 e Y’ = y’3
y4 y’4
y5 y’5

que são vetores de ℝ 5. O problema consiste, então, em encontrar valores de m e b,


de maneira que o valor:

d(Y,Y’) = √(y1 – y’1)2 + (y2 – y’2)2 + (y3 – y’3)2 + (y4 – y’4)2 + (y5 – y’5)2

O método de minimizar a distância é conhecido como “mínimos quadrados”.


Paulo, por exemplo, utilizando esse método e com o auxílio de uma planilha ele-
trônica, encontrou a seguinte equação para a reta:

y = 2,47x + 23,13

Você pode encontrar mais sobre o método dos mínimos quadrados em Nicholson
(2006), na seção 4.6.

É importante observar que as operações de soma e produto por escalar,

definidas em ℝ n, são análogas às definidas em ℝ 2 e ℝ 3. Isto é, dados

e em ℝ n e α ∈ ℝ, temos:

1.

2.
O espaço ℝ n: subespaços e geradores 5

Portanto, assim como nos casos já estudados, operações de soma e produto


por escalar ocorrem coordenada à coordenada.
Você verá que, na medida em que perdemos as representações gráficas,
mais importante serão as propriedades algébricas dos objetos estudados.

Subespaços vetoriais
Na seção anterior, apresentamos os espaços ℝ n, como são definidos e alguns
exemplos deles. Agora, você estudará os subespaços do espaço ℝ n.
Começamos em moldes semelhantes ao apresentado em Nicholson (2006)
e Anton e Busby (2006), apresentando a definição de subespaço.
Considere um espaço ℝ n. Diremos que um subconjunto de vetores E ⊆ ℝ n
é um subespaço de ℝ n, se, com as operações de soma e produto por escalar
definidas em ℝ n, ele atender às seguintes condições:

1. 0 ∈ E;
→ → → →
2. se u , v ∈ E, então u + v ∈ E;
→ →
3. dados α ∈ ℝ e v ∈ E, tem-se que α v ∈ E.

A primeira propriedade exprime a necessidade de que o elemento nulo


seja de um subespaço. A segunda e a terceira propriedades exigem que o
subespaço seja fechado quando as operações do espaço ℝ n, isto é, ao operar
dois elementos do subespaço, o resultado deve ainda ser um elemento dele.
Veja um primeiro exemplo envolvendo subespaços.

x1
x2
→ →
Vamos verificar que o E = {v є R5|u = 0 } é um subespaço de ℝ 5. Com efeito, tomando
0
0
x1 = x2 = 0, concluímos que a primeira condição é satisfeita. Agora, para verificar-
→ →
mos as demais, vamos tomar um par de vetores u , v ∈ E e α ∈ ℝ, digamos com
6 O espaço ℝ n: subespaços e geradores

x1 y1
x2 y2
→ →
u = 0 ev = 0 . Temos, portanto:
0 0
0 0
x1 y1 x1 + y1 x1 + y1
x2 y2 x2 + y2 x2 + y2
→ →
1. u + v = 0 + 0 = 0+0 = 0 єE
0 0 0+0 0
0 0 0+0 0
x1 αx1 αx1
x2 αx2 αx2

2. αu = α 0 = α0 = 0 є E .
0 α0 0
0 α0 0
Logo, E é, de fato, um subespaço de ℝ 5. Na verdade, o leitor mais ávido percebeu
que se trata, em algum sentido, de uma cópia do espaço ℝ 2 imersa em ℝ 5.

Existem dois subespaços que costumam ser chamados de subespaços


triviais: o próprio ℝ n e o subespaço nulo (o subespaço formado apenas pelo
vetor nulo).
Será que todos os subconjuntos de um espaço ℝ n são também subespaços?
Se assim fosse, não teríamos por que criar uma nova nomenclatura. Veja, a
seguir, um exemplo de um subconjunto que não é um subespaço.

→ 1+t
Considere o subconjunto E do plano formado pelos vetores da forma v = |tєR.
–1 + t
Observe que ele não inclui o vetor nulo. De fato, se 1 + t = 0 → t = –1, temos a primeira
coordenada nula. Mas, para esse mesmo valor, a segunda será igual a –2.
Esse conjunto coincide com a reta de equação:

y=x–2

que não passa pela origem do plano euclidiano.


O espaço ℝ n: subespaços e geradores 7

Vejamos, ainda, mais um exemplo de subespaço de ℝ n.

Considere o seguinte subconjunto de ℝ n:

x+y
→ → y
E = v є R4 | v = , onde x, y, є R
x–y
y

Vamos verificar que esse, de fato, é um subconjunto de ℝ n. A primeira condição pode


ser verificada tomando x = y = 0. Obtemos que o vetor nulo está nesse subconjunto.
→ →
Para verificar as outras condições, vamos tomar vetores u , v ∈ E e α ∈ ℝ com:

v1 + v2 u1 + u2
→ v2 → u2
v= e u=
v1 – v2 u1 – u2
v2 u2

Obtemos:

v1 + v2 u1 + u2 x+y
→ → v2 u y
u + v = v – v + u –2 u = x–y
1 2 1 2
v2 u2 y

→ →
onde x = v1 + u2 e y = v2 + u2. Portanto, u + v ∈ E
Temos, também, que:

u1 + u2 αu1 + αu2 x+y


→ u2 αu y
αu = α u – u + αu – 2αu = x–y
1 2 1 2
u2 αu2 y


onde x = αu1 e y = αu2. Portanto, α u ∈ E.
Concluímos que E é, de fato, um subespaço de ℝ n.

Precisamos, ainda, definir dois subespaços de ℝ n que aparecem em diversas


aplicações da álgebra linear: o espaço anulado e o espaço imagem. Para tal,
consideremos uma matriz An×n que induz uma transformação linear em ℝ n.
Definimos, então:
8 O espaço ℝ n: subespaços e geradores

Em palavras, o espaço anulado, aNul(A), é um subespaço do domínio


da transformação A, enquanto o espaço imagem, Im(A), é um subespaço do
contradomínio da transformação A.
Aqui, é oportuno relembrar um importante resultado sobre determinantes.

Teorema: seja An×n uma matriz, são equivalentes as seguintes afirmações:


1. aNul(A) = {0 };
2. det(A) ≠ 0;
3. Im(A) = ℝ n.

No exemplo a seguir, você verá o cálculo desses subespaços para uma


transformação matricial.

Considere a matriz a seguir, que induz uma transformação no espaço ℝ 3.

1 1 1
A= 0 2 1
0 0 1

Vamos determinar seu espaço anulado e seu espaço imagem.


Para encontrar o espaço anulado, precisamos buscar por todos os vetores que têm
o vetor nulo como imagem. Temos:

1 1 1 x1 0
0 2 1 x2 = 0
0 0 1 x3 0

x1 + x2 + x3 = 0
2x2 + x3 = 0
x3 = 0
O espaço ℝ n: subespaços e geradores 9

Resolvendo o sistema por substituição, obtemos que a única solução é o vetor nulo

x1 = x2 = x3 = 0. Segue, do resultado enunciado acima, que aNul(A) = {0 } e Im(A) = ℝ 3.
Observe que poderíamos ter calculado o determinante de A para chegarmos à
mesma conclusão.

Veja mais um exemplo do cálculo de espaço anulado e espaço imagem.

Considere a seguinte matriz, que induz uma transformação no espaço ℝ 4.

1 1 1 1
0 0 2 1
A=
0 2 1 0
0 0 1 0

Vamos determinar seu espaço anulado e seu espaço imagem.


Para encontrar o espaço anulado, precisamos buscar todos os vetores que têm o
vetor nulo como imagem. Observe que o determinante dessa matriz é igual a 0, logo
não podemos aplicar o resultado anterior. Temos:

1 1 1 1 x1 0
0 0 2 0 x2 0
x3 =
0 2 1 0 0
0 0 1 0 x4 0

x1 + x2 + x3 + x4 = 0
2x3 = 0
2x2 + x3 = 0
x3 = 0

x1 + x4 = 0
x3 = 0
x2 = 0
x3 = 0
10 O espaço ℝ n: subespaços e geradores

x1
0
Obtemos, portanto, que os vetores no espaço anulado de A são da forma , ou
0
ainda: –x1

1
aNul(A) = {x1 0 | x1 є R}
0
–1

Para o espaço imagem, temos:

1 1 1 1 x1 x1 + x2 + x3 + x4 1 1 1 1
0 0 2 0 x2 2x3 0 0 2 0
0 2 1 0 x3 = 2x2 + x3
= x1
0
+ x2
2
+ x3
1
+ x4
0
0 0 1 0 x4 x3 0 0 1 0

1 1 1
= (x1 + x4) 0 + x2 0 +x 2
0 2 3
1
0 0 1

Assim, o espaço imagem é dado por:

1 1 1
v = (x1 + x4) 0 + x2 0 +x 2 ; x,x,x,x єR

Im(A) = 3 1 2 3 4
0 2 1
0 0 1

Sempre que possível, inicie problemas envolvendo o espaço anulado e o espaço


imagem de uma transformação matricial por meio do cálculo do determinante. Utilizar
o teorema anterior poderá ajudar a economizar algumas linhas de contas.

Conjuntos geradores Nesta seção, ainda em continuidade ao estudo do


espaço ℝ n, você aprenderá sobre geradores. Você deve ter reparado, no último
exemplo da seção anterior, que o espaço imagem era essencialmente uma
combinação de algumas das colunas da matriz A. Isso não ocorre por acaso.
O espaço ℝ n: subespaços e geradores 11

Seguindo o apresentado em Nicholson (2006), começamos apresentado a


definição de geradores. Para isso, precisamos introduzir o conceito de com-
binação linear.
Dados os vetores em ℝ n, diremos que o vetor:

é uma combinação linear dos vetores com coeficiente a1,


a2, ..., an. Assim, a imagem da transformação do exemplo anterior era uma
combinação linear de algumas das colunas daquela matriz.
Dados vetores em ℝ n, o conjunto de todas as possíveis combi-
nações lineares desse constitui o conjunto gerado por eles. Mais precisamente:

Veja, a seguir, um primeiro exemplo.

1 0
Considere os vetores e1 = e e2 = . Vamos verificar que o conjunto gerado por
0 1 v1

eles é o próprio plano euclidiano. De fato, dado um vetor v = v , podemos escrever:
2

→ v 1 0
v = v1 = v1 + v2 = v1e1 + v2e2
2 0 1

Portanto, o vetor v pertence ao ger{e1, e2}. A outra inclusão — de que os vetores
desse conjunto gerado pertencem ao plano — segue de forma natural.

Uma importante interpretação dos espaços gerados está associada ao estudo


de retas no plano euclidiano, no espaço euclidiano e nos espaços de dimensões

maiores. Temos que, dado um vetor v ∈ ℝ n, a reta r que passa pela origem e

tem como vetor direto o vetor v é dada por:
12 O espaço ℝ n: subespaços e geradores

Essa representação fornece uma maneira compacta e inteligente de represen-


tar retas, mesmo em espaços onde a representação gráfica não é mais possível.
Um importante resultado apresentado em Nicholson (2015) relaciona su-
bespaços com conjuntos gerados. Tem-se o seguinte.

Teorema: sejam vetores quaisquer em ℝ n, então:

1. ger{ } é um subespaço de ℝ n que contém os vetores


;
2. se um subespaço V contém os vetores , então ger{ }
⊆ V.

Em outras palavras, o conjunto gerado é sempre um subespaço e, além


disso, se um subespaço contém determinados vetores, ele também conterá o
espaço gerado por esses.
Um corolário natural desse resultado é o de que ger{ } é o menor
subespaço que contém os vetores . Os vetores são
chamados de geradores do subespaço ger{ }.
Veja o exemplo a seguir.

1 0 0
Os vetores v1 = 0 , v2 = 0 e v3 = 3 formam um conjunto de geradores para o espaço
1 1 0
euclidiano? Esse tipo de verificação costuma ser feito por meio de duas inclusões.
A primeira ger{v1, v2, ..., vn } ⊆ ℝ 3 é natural, restando a necessidade de verificar
v1
→ →
que ℝ 3 ⊆ ger{v1, v2, v3}. Com efeito, dado um vetor v ∈ ℝ n, digamos v = v2 , observe
inicialmente que: v3

v1 1 0 0

v = v2 = v1 0 + v2 1 + v3 0
v3 0 0 1
O espaço ℝ n: subespaços e geradores 13

Temos, ainda, que:

e1 = v1 – v2
1
e2 = v
3 3
e3 = v2

Segue daí que:

v1
→ 1
v = v2 = v1(v1 – v2) + v2 v3 + v3v2
3
v3
→ v2
v = v1v1 + (v3 – v1) v2 + v3 є ger {v1, v2, v3 }
3

De fato, o conjunto apresentado é de geradores para o espaço.

É importante apresentar, ainda, um exemplo em que o conjunto de geradores


não consegue gerar o espaço que o contém.

2
O vetor v1 = , sozinho, não pode gerar o plano euclidiano. De fato, se isso fosse
0
possível, existiriam números reais a e b, tais que:

1
av1 + bv1 =
1

Mas isso é o mesmo que:

1
(a + b)v1 =
1
(a + b)1 1
=
(a + b)0 1

implicando, portanto, que 0 = 1, o que é um absurdo. Dessa maneira, esse vetor


sozinho não pode gerar todo o plano euclidiano.
14 O espaço ℝ n: subespaços e geradores

Em álgebra linear, é essencial praticar a resolução de problemas. Você poderá encontrar


alguns problemas adicionais no livro de Nicholson (2006, p. 177).

ANTON, H.; BUSBY, R. C. Álgebra linear contemporânea. Porto Alegre: Bookman, 2007.
NICHOLSON, W. K. Álgebra linear. 2. ed. São Paulo: McGraw-Hill, 2006.

Leitura recomendada
LIPSCHUTZ, S.; LIPSON, M. Álgebra linear. 4. ed. Porto Alegre: Bookman, 2011. (Coleção
Schaum).
ÁLGEBRA LINEAR

Marcelo Maximiliano Danesi


Espaços vetoriais:
transformações lineares
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:

„„ Usar o conceito de transformação linear para espaços vetoriais gerais.


„„ Identificar espaços vetoriais das transformações lineares.
„„ Definir núcleo e imagem de uma transformação linear.

Introdução
Neste capítulo, você definirá o conceito de transformação linear entre
espaços vetoriais dentro da definição generalizada desses. Você também
verá exemplos de transformações lineares nos espaços das matrizes,
dos polinômios, das funções e, principalmente, como elas identificam
propriedades entre espaços vetoriais ditos isomorfos. Adicionalmente,
em cada exemplo, você verá como identificar se uma função é uma
transformação linear e argumentar a validade de cada afirmação.
A definição de transformação linear entre espaços vetoriais quaisquer
expande enormemente o conceito de transformações lineares no ℝ n
estabelece uma forma de compararmos famílias de espaços vetoriais
bastante diferentes e permite definir um conjunto de vetores canônicos
no espaço dos polinômios e no espaço das matrizes.
2 Espaços vetoriais: transformações lineares

Transformações lineares
Sejam E, F espaços vetoriais, uma transformação linear A: E → F é uma lei
que associa a cada vetor u ∈ E um vetor A(u) ∈ F, de modo que, para quaisquer
u, v ∈ E e α ∈ ℝ, A satisfaz que:

A(u + v) = A(u) + A(v)


A(α ∙ u) = α ∙ A(u)

Dizemos que A(u) é a imagem de u pela transformação A.


A transformação linear é um caso particular de função, no mesmo sen-
tido definido pelo cálculo (ANTON; BIVENS; DAVIS, 2014). O diferencial
da definição acima é que essa função ocorre entre espaços vetoriais não
necessariamente iguais e que ela obedece a duas condições (ditas condições
de linearidade).
Já trabalhamos com as transformações lineares de ℝ n em ℝ m, já que qualquer
transformação linear entre esses espaços vetoriais pode ser representada por
uma matriz n × m. Vejamos, a seguir, alguns exemplos nos espaços vetoriais
mais gerais.

Lembrando-se de que Mn×m(ℝ) é o espaço vetorial das matrizes n×m, fixamos TA uma
matriz 3x2 e definimos a transformação A: M2×m(ℝ) → M3×m(ℝ), tal que, dado u ∈ M2×m(ℝ):

A(u) = TA ∙ u

Ou seja, essa transformação calcula a imagem A(u) ∈ M3×m(ℝ) por meio da multi-
plicação matricial da matriz TA com a matriz u. Veja que essa transformação é, de fato,
linear, já que, dados α ∈ ℝ e u ∈ M2×m(ℝ), temos:
1. A(u + v) = TA ∙ (u + v) = TA ∙ u + TA ∙ v = A(u) + A(v)
2. A(α ∙ u) = TA ∙ (α ∙ u) = α ∙ TA ∙ u = α ∙ A(u)
Portanto, A é uma transformação linear de M2×m(ℝ) em M3×m(ℝ).
Espaços vetoriais: transformações lineares 3

O exemplo a seguir mostra duas transformações não lineares entre espaços


vetoriais.

Considere B: M2×2(ℝ) → M2×2(ℝ) e C: M2×2(ℝ) → ℝ, tal que, dado u ∈ M2×2(ℝ):

B(u) = u ∙ u
C(u) = det(u)

Observe que essas transformações não são lineares, pois, tomando:

1 0 1 0 0 0
u= ,u = ,u =
0 1 1 0 0 2 0 1

temos u = u1 + u2 e:

1 0 2 0 2 0 2 0 4 0
1. B 2 =B = · =
0 1 0 2 0 2 0 2 0 4

Enquanto que:

1 0 1 0 1 0 1 0 2 0
2B =2 · =2 =
0 1 0 1 0 1 0 1 0 2

Logo:

1 0 1 0
B 2 ≠ 2B
0 1 0 1

1 0 1 0
2. C(u) = C 0 1 = det =1
0 1

Enquanto que:
1 0 1 0
C(u1) = C 0 0 = det 0 0 = 0

0 0 0 0
C(u2) = C 0 1 = det 0 =0
1

Logo:

C(u) = C(u1 + u2) ≠ C(u1) C(u2)

Portanto, B e C são transformações não lineares.


4 Espaços vetoriais: transformações lineares

Uma consequência da definição de transformação linear é que, nas condições da


definição, a imagem do vetor nulo em E sempre é o vetor nulo em F, pois, dado
u ∈ E, –u também pertence a E:

A(0) = A(u + (–u)) = A(u) – A(u) = 0

Repare que a recíproca dessa consequência não é verdadeira, visto o exemplo


anterior, no qual B(0) = 0 ∙ 0 = 0 e B não é uma transformação linear.

Voltando aos exemplos, o próximo mostra uma transformação linear no


espaço vetorial Pn dos polinômios de grau menor ou igual a n.

Considere a transformação A: P3 → P4, tal que, dado u = u(x) ∈ P3:

A(u) = (x + 1) ∙ u

Ou seja, essa transformação calcula a imagem de grau 4 do produto de (x + 1) com


um polinômio de grau 3. Veja que essa transformação é, de fato, linear, já que, dados
α ∈ (ℝ) e u, v ∈ P3, temos:
1. A(u + v) = (x + 1) ∙ (u + v) = (x + 1) ∙ u + (x + 1) ∙ v = A(u) + A(v)
2. A(α ∙ u) = (x + 1) ∙ (α ∙ u) = α ∙ (x + 1) ∙ u = α ∙ A(u)
Portanto, A é uma transformação linear de P3 em P4.

Nas condições da definição de transformação linear:

„„ se E = F, dizemos que A: E → E é um operador linear em E;


„„ se F = ℝ, dizemos que A: E → ℝ é um funcional linear.
Espaços vetoriais: transformações lineares 5

Considere a transformação A: P2 → ℝ, tal que:

A(α2 x2 + a1x + a0) = a2 + a1 + a0

Essa é uma função que, dado qualquer v ∈ P2 (o espaço vetorial dos polinômios
de grau menor ou igual a dois) calcula um valor associado em ℝ (que também é um
espaço vetorial). Veja que essa transformação é, de fato, linear, já que, dados α ∈ ℝ e
u, v ∈ P2, tal que:

u = a2 x2 + a1x + a0
v = b2 x2 + b1x + b0

temos:
1. A(u + v) = A((a2 + b2)x2 + (a1 + b1)x + (a0 + b0)) = (a2 + b2) + (a1 + b1) + (a0 + b0) =
(a2 + a1 + a0) + (b2 + b1 + b0) = A(u) + A(v)
2. A(α ∙ u) = A(αa2 x2 + αa1x + αa0) = αa2 + αa1 + αa0 = α(a2 + a1 + a0) = α ∙ A(u)
Portanto, A é um funcional linear de P2 em ℝ.

Uma consequência da definição de transformação linear é que, nas con-


dições da definição, dados B = {u1, u2, ..., un} ⊂ E e u ∈ ger(B), existem
α1, α2, ..., αn ∈ ℝ, tal que:

u = α1u1 + α2u2 + ... + αnun


A(u) = α1A(u1) + α2 A(u2) + ... + αnA(un)

Isto é, o cálculo da transformação de u por A depende apenas do cálculo


de cada ui por A, onde i = 1, ..., n.

Usando a teoria do cálculo, considere a transformação A que calcula a derivada de


primeira ordem de uma função u ∈ C∞(ℝ) — o espaço vetorial das funções que apre-
sentam derivadas de todas as ordens.
6 Espaços vetoriais: transformações lineares

Descrevendo A como a transformação A: C∞(ℝ) → C∞(ℝ), tal que:

A(u) = u’

Veja que essa transformação é, de fato, linear, já que, dados α ∈ ℝ e u, v ∈ C∞(ℝ), temos:
1. A(u + v) = (u + v)’ = u’ + v’ = A(u) + A(v)
2. A(α ∙ u) = (α ∙ u)’ = α ∙ u’ = α ∙ A(u)
Logo, A é um operador linear em C∞(ℝ) e, dado u polinômio de grau n, então
u ∈ ger(xn, ..., x2, x, 1) de forma que existem α0, α1, ..., αn ∈ ℝ, tal que:

u = αnxn + ... + α1x1 + α0

e definindo:

A(xi) = ixi–1
A(1) = 0

para todo i = 1, ..., n, podemos calcular a derivada de u pelas regras (de derivação)
anteriores, de maneira que:

A(αnxn + ... + α1x1 + α0) = αnnxn–1 + ... + α11x0 + α00

Esse exemplo ilustra o método usado no ensino das técnicas de derivação


numa primeira disciplina de cálculo. Cada função elementar é a combinação
(não necessariamente linear) de monômios, funções trigonométricas, expo-
nenciais ou logarítmicas. Definindo a derivada de cada um desses elementos
básicos, é possível calcular a derivada de suas combinações.

Usando a teoria de integração do cálculo, podemos falar de outro operador que trabalha
no espaço das funções contínuas. Dados a, b ∈ ℝ, a < b, fixamos uma função contínua
𝛿: [a, b] × [a, b] → ℝ e definimos a transformação A:C0(ℝ) → C0(ℝ) por:

A(u) = ∫ a
δ(x, y)u(y) dy
Espaços vetoriais: transformações lineares 7

Essa transformação é, de fato, linear, já que, dados α ∈ ℝ e u, v ∈ C0(ℝ), temos:


b b

1. A(u + v) = ∫ a
δ(x, y)(u + v)(y) dy = ∫a
δ(x, y)(u(y) + u(y)) dy

b b

= ∫ a
δ(x, y)u(y) dy + ∫ a
δ(x, y)v(y) dy = A(u) + A(v)

b b b

2. A(α · u) = ∫a
δ(x, y)(αu)(y) dy = ∫ a
αδ(x, y)u(y) dy = α ∫a
δ(x, y)u(y) dy = α · A(u)

Logo, A é um operador linear em C0(ℝ).

Esse exemplo de operador integral é muito usado nas ciências aplicadas,


quando 𝛿 é uma função densidade (ANTON; BIVENS; DAVIS, 2014). Outros
usos incluem a transformada de Laplace, a transforma de Fourier, a esperança
e a variância de variáveis aleatórias contínuas na probabilidade, etc.

Núcleo e imagem de uma transformação linear


Dada uma transformação linear A: E → F, definimos dois subespaços vetoriais
importantíssimos para determinarmos se A admite ou não uma inversa.
A imagem de A é o subconjunto de F:

Im(A) = {w = A(u); u ∈ E}

de todos os elementos que são imagem, por A, de algum vetor em E. Essa


definição é válida para qualquer função. A diferença aqui é que, quando A é
uma transformação linear, Im(A) é um subespaço vetorial de F.

Considere o funcional linear A: P2 → ℝ, tal que:

A(a2 x2 + a1x + a0) = a2 + a1 + a0


8 Espaços vetoriais: transformações lineares

Essa transformação tem como imagem:

Im(A) = ℝ
w w w
Pois, para todo w ∈ ℝ, se tomarmos o polinômio u ∈ P2, tal que u(x) = 3 x2 + 3 x + 3 ,
então:

w w w
A(u) = + + =w
3 3 3

Numa transformação linear A: E → F, tal que Im(A) = F, dizemos que A é


uma transformação linear sobrejetora. É o caso do exemplo anterior.

No que já estudamos sobre os espaços vetoriais ℝ n, dada a transformação linear A:


ℝ n → ℝ m, existe matriz T, m × n, tal que:

A(u) = T ∙ u

E o conjunto imagem de A corresponde ao espaço das colunas da matriz T. Esse


espaço das colunas é o gerado da base determinada no teorema do Posto.

Considere a transformação linear A: P2 → ℝ, tal que:

A(a2 x2 + a1x + a0) = (a2 + 2a1 – a0, 3a2 – 2a1 + a0)

Dado w = (x1, x2) ∈ ℝ 2, temos que w ∈ Im(A) se existe u = ax2 + bx + c, tal que
A(u) = w, isto é, se:

(a2 + 2a1 – a0, 3a2 – 2a1 + a0) = (x1, x2)


Espaços vetoriais: transformações lineares 9

Ou melhor, se, e somente se:

a2 + 2a1 – a0 = x1
3a2 – 2a1 + a0 = x2

o que é equivalente ao sistema matricial:

a2
1 2 –1 .
a1 = w
3 –2 1
a0
TA

Esse sistema também significa que w pertence ao gerado das colunas de TA , pois
essa igualdade pode ser reescrita como:

1 2 –1
a2 + a1 + a0 =w
3 –2 1

Como o primeiro e o segundo vetor coluna de TA são linearmente independentes,


o gerado deles é o próprio ℝ 2. Logo, Im(A) = ℝ 2.

O núcleo de A é o subconjunto de E:

𝒩(A) = {u; A(u) = 0}

de todos os elementos que tem por imagem o vetor nulo de F. Novamente,


essa definição é válida para qualquer função. A diferença aqui é que, quando
A é uma transformação linear, 𝒩(A) é um subespaço vetorial de E.

Considere o funcional linear A: P2 → ℝ, tal que:

A(a2 x2 + a1x + a0) = a2 + a1 + a0

Essa transformação tem como núcleo:

𝒩(A) = {u(x) = a2 x2 + a1x + a0; a2 + a1 + a0 = 0}


10 Espaços vetoriais: transformações lineares

Pela teoria dos polinômios, a2 + a1 + a0 = 0 é equivalente a afirmar que x = 1 é raiz


de u(x). Dessa forma, podemos reescrever que:

𝒩(A) = {u(x); x = 1 é raiz de u}

Numa transformação linear A: E → F, tal que (A) = {0}, dizemos que A é


uma transformação linear injetora. Não é o caso do exemplo anterior, mas é
o do próximo exemplo.

Considere a transformação linear A: P3 → P4, tal que, dado u = u(x) ∈ P3:

A(u) = (x + 1) ∙ u

Vimos anteriormente que essa transformação calcula a imagem de grau 4 da mul-


tiplicação por (x + 1) de um polinômio de grau 3. Assim, para essa transformação:

(x + 1) ∙ u = 0 ⇔ u = 0

Logo, o único vetor em P3 que tem como imagem o vetor nulo é u(x) = 0. Portanto,
𝒩(A) = 0, e essa transformação é injetora.
Por outro lado, essa transformação não é sobrejetora, pois, dada qualquer constante
real k ≠ 0, ela não é imagem de algum u(x) ∈ P3, isto é:

(x + 1)u(x) ≠ k

para todo u ∈ P3. Isso porque o lado esquerdo da desigualdade é um polinômio de


grau um, no mínimo, e o lado direito é uma constante.
Espaços vetoriais: transformações lineares 11

No que já estudamos sobre os espaços vetoriais ℝ n, dada a transformação linear


A: ℝ n → ℝ m, existe matriz T, m × n, tal que:

A(u) = T ∙ u

E o conjunto núcleo de A corresponde ao espaço nulo de A calculado pela solução


homogênea da igualdade T ∙ u = 0.

Considere a transformação linear A: P2 → ℝ 2, tal que:

A(a2 x2 + a1x + a0) = (a2 + 2a1 – a0, 3a2 – 2a1 + a0)

Dado u = ax2 + bx + c ∈ P2, temos que u ∈ 𝒩(A), se A(u) = 0, isto é, se:

(a2 + 2a1 – a0, 3a2 – 2a1 + a0) = (0, 0)

Ou melhor, se, e somente se:

a2 + 2a1 – a0 = 0
3a2 – 2a1 + a0 = 0

o que é equivalente ao sistema matricial:

a2
1 2 –1 . 0
a1 =
3 –2 1 0
a0
TA

Aplicando o método de Gauss na matriz TA , calculamos suas equivalências, tal que:

1 2 –1 1 2 –1 1 2 –1 1 0 0
~ ~ ~
3 –2 1 0 –8 4 0 2 –1 0 2 –1
12 Espaços vetoriais: transformações lineares

que equivale ao sistema:

a2 = 0
2a1 – a0 = 0
a0 = a0

ou:

a2 = 0
1
a1 = a
2 0
a0 = a0

Dessa forma:

1
(A) = u = a0 0x2 + x + 1 , a0 є ℝ
2

1
Isso significa que 𝒩(A) é um subespaço vetorial de P2 dos vetores múltiplos de x+1.
2

Com respeito à injetividade de transformações lineares, uma propriedade


importante é que uma transformação linear e injetiva A: E → F leva conjuntos
linearmente independentes de E em conjuntos linearmente independentes de F.

Já vimos que a transformação A: P3 → P4,

A(u) = (x + 1) ∙ u

é linear e injetora. Sabemos que o conjunto {1, x, x2, x3} é linearmente independente
em P3 Agora, se tomamos a imagem por A de cada um desses vetores:

A(1) = x + 1
A(x) = x2 + x
A(x2) = x3 + x2
A(x3) = x4 + x3
Espaços vetoriais: transformações lineares 13

então, o conjunto {A(1), A(x), A(x2), A(x3)} = {x + 1, x2 + x, x3 + x2, x4 + x3} é linearmente


independente sobre P4. Uma maneira de calcularmos isso é por meio do Wronskiano
dessas funções:

(x + 1) (x2 + x) (x3 + x2) (x4 + x3)


W(x) = det (x + 1)’ (x2 + x)’ (x3 + x2)’ (x4 + x3)’ =
(x + 1)” (x2 + x)” (x3 + x2)” (x4 + x3)”
(x + 1)”’ (x2 + x)”’ (x3 + x2)”’ (x4 + x3)”’

x + 1 x2 + x x3 + x2 x4 + x3
1 2x + 1 3x2 + 2x 4x3 + 3x2
= det = –12(9x4 + 6x3 – 9x2 – 7x –1)
0 2 6x + 2 12x2 + 6x
0 0 6 24x + 6

Isto é, W(x) ≠ 0 para todo x ∈ ℝ. E podemos afirmar que {A(1), A(x), A(x2), A(x3)} é
linearmente independente sobre P4.

Um caso particular de transformação linear injetora e sobrejetora é o


operador linear I: E → E, tal que, para todo u ∈ E:

I(u) = u

Dizemos que esse é o operador identidade em E e, em geral, usamos a


notação IE ao invés de I.
No caso mais geral, uma transformação linear A: E → F é invertível se
A é simultaneamente injetora e sobrejetora, isto é, existe B: F → E, tal que,
para cada u ∈ E e w ∈ F:

B(A(u)) = u
A(B(w)) = w

Isso quer dizer que BA = IE , AB = IF e B é transformação linear injetora


e sobrejetora.
Na teoria das funções, uma função injetora e sobrejetora é dita bijetora.
No caso das transformações lineares, existe um termo mais significativo: se
A: E → F é uma transformação linear bijetora, dizemos que A é um isomorfismo
entre E e F, e E e F são espaços isomorfos. Na prática, isso significa que os
espaços E e F são conjuntos similares que apresentam estrutura algébrica
similar (não significa que sejam os mesmos conjuntos ou as mesmas operações).
14 Espaços vetoriais: transformações lineares

Existe um isomorfismo entre ℝ 3 e P2 dado pela transformação A: ℝ 3 → P2, tal que:

A(a0, a1, a2) = a0 + a1x + a2 x2

Mostramos isso tomando α ∈ ℝ, u v ∈ ℝ 3, tal que:

u = (a0, a1, a2)


v = (b0, b1, b2)

Assim, A é linear, pois:


1. A(u + v) = A(a0 + b0, a1 + b1, a2 + b2) = (a0 + b0) + (a1 + b1)x + (a2 + b2)x2 = (a0 + a1x +
a2 x2) + (b0 + b1x + b2 x2) = A(u) + A(v)
2. A(αu) = A(αa0, αa1, αa2) = (αa0) + (αa1)x + (αa2)x2 = α(a0 + a1x + a2 x2) = αA(u)
A é injetora, pois:
1. A(u) = 0 implica que a0 + a1x + a2 x2 = 0, isto é, o vetor nulo de P2 que é o polinômio
identicamente nulo, portanto, a0 = a1 = a2 = 0, o que significa que 𝒩(A) = {0}.
A é sobrejetora, pois:
2. para todo w(x) ∈ P2 , existem w0, w1, w2 ∈ ℝ, tal que A(w0, w1, w2) = w0 + w1x + w2 x2
= w(x).
Uma consequência importante desse isomorfismo é que todo conjunto linearmente
independente de ℝ 3 é transformado num conjunto linearmente independente de
P2. Em particular, se tomarmos o conjunto dos vetores canônicos de ℝ 3, eles serão
transformados no conjunto linearmente independente de P2{A(e1), A(e2), A(e3)} = {1, x, x2}.

O exemplo anterior pode ser estendido ao caso geral que afirma que, dado
n ∈ ℕ, existe um isomorfismo entre ℝ n+1 e Pn , de forma que {1, x, x2, ..., xn}
é um conjunto linearmente independente dos vetores ditos canônicos em Pn.
Outro isomorfismo entre os espaços vetoriais que estudamos é ilustrado
no exemplo a seguir.
Espaços vetoriais: transformações lineares 15

Existe um isomorfismo entre ℝ 6 e M2×3(ℝ), dado pela transformação B: ℝ 6 → M2×3(ℝ),


tal que:

a1 a2 a3
B(a1, a2, a3, a4, a5, a6) =
a4 a5 a6

Mostramos isso tomando α ∈ ℝ, u, v ∈ ℝ 3, tal que:

u = (a1, a2, a3, a4, a5, a6)


v = (b1, b2, b3, b4, b5, b6)

Assim, B é linear, pois:


1. B(u + v) = B(a1 + b1, a2 + b2, a3 + b3, a4 + b4, a5 + b5, a6 + b6) =

a1 + b1 a2 + b2 a3 + b3 a a a b b b
= a1 a2 a3 + b1 b2 b3 = B(u) + B(v)
a4 + b4 a5 + b5 a6 + b6 4 5 6 4 5 6

αa αa αa3 a1 a2 a3
2. B(αu) = B(αa1, αa2, αa3, αa4, αa5, αa6) = αa1 αa2 αa6 = α a4 a5 a6 = αB(u)
4 5

B é injetora, pois:
a1 a2 a3
1. B(u) = 0 implica que , isto é, o vetor nulo de M2×3(ℝ), portanto
a4 a5 a6 = 0
a1 = a2 = a3 = a4 = a5 = a6 = 0, o que significa que 𝒩(A) = {0}.
B é sobrejetora, pois:
2. para todo w ∈ M2×3(ℝ), existem w1, w2, w3, w4, w5, w6 ∈ ℝ, tal que B(w1, w2, w3, w4,
w5, w6) = w.
Uma consequência importante desse isomorfismo é que todo conjunto linearmente
independente de ℝ 6 é transformado num conjunto linearmente independente de
M2×3(ℝ). Em particular, se tomarmos o conjunto dos vetores canônicos de ℝ 6, eles
serão transformados no conjunto linearmente independente de M2×3(ℝ).

1 0 0 , 0 1 0 , 0 0 1
0 0 0 0 0 0 0 0 0
{B(e1), B(e2), B(e3), B(e4), B(e5), B(e6)} =
0 0 0 , 0 0 0 , 0 0 0
1 0 0 0 1 0 0 0 1
16 Espaços vetoriais: transformações lineares

O exemplo anterior pode ser estendido ao caso geral, que afirma que,
dados, existe um isomorfismo entre ℝ mn e Mm×n(ℝ), de forma que o conjunto
de todas as matrizes Er,s = [aij] ∈ Mm×n(ℝ) com r = 1, ..., m, s = 1, ..., n, tal que:

é um conjunto linearmente independente dos vetores ditos canônicos em


Mm×n(ℝ). Além disso, como esses isomorfismos admitem transformação inversa
que também é um isomorfismo, temos uma relação direta entre o espaço
vetorial das matrizes de coeficientes reais, dos polinômios de coeficientes
reais e dos vetores n-dimensionais.
Um último detalhe importante é que não existe transformação linear bijetora
do ℝ n em C0 ℝ). Uma forma de justificar essa afirmação é lembrar-se de que,
para todo l ∈ ℕ, o conjunto:

{1, x, x2, ..., xl–1}

é linearmente independente em C0 ℝ). Como em ℝ n, qualquer conjunto


com mais de n vetores é linearmente dependente, não tem como levar um
conjunto linearmente independente de C0 ℝ), arbitrariamente grande, para o
ℝ n e manter a propriedade de independência linear.

Espaços vetoriais das transformações lineares


Mais adiante, voltaremos a falar de funcionais lineares e como alguns tipos
deles definem uma medida no espaço vetorial. Nesse sentido, enunciamos
algumas propriedades dos espaços vetoriais definidos por transformações
lineares.
Sejam E, F espaços vetoriais. O conjunto ℒ(E, F) de todas as transforma-
ções lineares A: E → F é um espaço vetorial se, dados A, B ∈ ℒ (E, F) e α ∈
ℝ, definimos as operações:

(A + B)(u) = A(u) + B(u)


(αA)(u) = α ∙ A(u)
Espaços vetoriais: transformações lineares 17

Nesse espaço, o vetor nulo é a transformação trivial 0(u) = 0 para todo u


∈ E , e o inverso aditivo de A ∈ ℒ (E, F) é a transformação –A: E → F, tal que
(–A)(u) = –1 ∙ A(u).
Nessas condições:

1. se E = F, dizemos que ℒ (E) = ℒ (E, E) é o espaço vetorial dos opera-


dores lineares de E;
2. se E = ℝ, dizemos que E* = ℒ (E, ℝ) é o espaço vetorial dual de E.

Adicionalmente, um funcional linear f ∈ E* ou é sobrejetivo ou é identi-


camente nulo, pois os únicos subespaços de ℝ são ℝ e {0}.

Referência

ANTON, H.; BIVENS, I. C.; DAVIS, S. L. Cálculo. 10. ed. Porto Alegre: Bookman, 2014. v. 1 e 2.

Leituras recomendadas
ANTON, H.; RORRES, C. Álgebra Linear com aplicações. 10. ed. Porto Alegre: Bookman, 2012.
LAY, D. C.; LAY, S. R.; MACDONALD, J. J. Álgebra linear e suas aplicações. 5. ed. Rio de
Janeiro: LTC, 2018.
LIMA, E. L. Álgebra linear. 9. ed. Rio de Janeiro: SBM, 2016.
ÁLGEBRA
LINEAR

Marcelo Maximiliano Danesi


Espaço vetorial ℝ n:
base e dimensão
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:

„„ Definir bases de um subespaço.


„„ Generalizar o conceito de dimensão.
„„ Identificar se um conjunto dado é uma base para um subespaço e
determinar sua dimensão.

Introdução
Neste capítulo, você identificará quando um conjunto de vetores é uma
base, saberá como decompor vetores sobre uma base qualquer de seu
subespaço por meio de matrizes especiais, como definir dimensão de
um subespaço e identificar a base de um subespaço. Esse caminho levará
a uma decomposição do espaço vetorial ℝ n em dois subespaços que
veremos a seguir.

Bases do ℝn
Uma base do ℝ n é um conjunto:

→ →
B = {v 1, ..., v n}

de vetores linearmente independentes, tal que B⊂ℝ n, e B é gerador de ℝ n.


v ∈ ℝ n, e B é uma base de ℝ n, então podemos escrever, de forma
Isto é, se →
única, v como uma combinação linear dos vetores em B, a saber:


v 1 + ... + αn ∙ →
v = α1 ∙ → vn
2 Espaço vetorial ℝ n: base e dimensão

onde α1, ..., αn ∈ ℝ. Adicionalmente, os números α1, ..., αn são chamados


de coordenadas do vetor → v na base B.
A base mais simples que podemos definir no ℝ n é o que chamamos de base
canônica do ℝ n. Essa base é formada pelos n vetores e→i, que têm 1 na i-ésima
componente e 0 nas demais.

Em ℝ 5, a base canônica é o conjunto B formado pelos vetores:



e 1 = (1,0,0,0,0)

e 2 = (0,1,0,0,0)

e 3 = (0,0,1,0,0)

e 4 = (0,0,0,1,0)

e 5 = (0,0,0,0,1)

Repare que esses vetores são linearmente independentes, e a matriz 5x5 da forma
demonstrada a seguir é a matriz identidade 5x5.

1 0 0 0 0
0 1 0 0 0

[e 1 ... e→ ] = 0 0 1 0 0
5
0 0 0 1 0
0 0 0 0 1

Genericamente falando, usamos bases não canônicas em ℝ n, quando que-


remos estudar aspectos do problema que não ocorrem nas direções canônicas
desse espaço. Pode parecer difícil, mas, de certa forma, já estávamos estudando
alguns aspectos desse assunto quando trabalhamos a definição de autovetores.
Espaço vetorial ℝ n: base e dimensão 3

Em ℝ 4, se considerarmos o conjunto formado pelos vetores:



v 1 = (1,0,2,–4)

v 2 = (0,1,3,–2)

v 3 = (1,2,3,–3)

v 4 = (4,–1,2,7)

→ → → →
a) B = { v 1, v 2, v 3, v 4} é um conjunto linearmente independente?

b) Como podemos escrever o vetor v 1 = (11,–3,7,4) como uma combinação linear

dessa base? Isto é, quais são as coordenadas de v na base B?

Solução:
a) B é um conjunto linearmente independente porque a a seguinte equação matricial
admite apenas a solução trivial (0,0,0,0). Podemos calcular isso pelo método de Gauss.

(( ((
1 0 1 4 x1 0
0 1 2 –1 x2 0
∙ x3 =
2 3 3 2 0
–4 –2 –3 7 x4 0

b) Pela definição, precisamos calcular α1, α2, α3, α4 de forma que:

→ → → → →
v = α1 ∙ v 1 + α2 ∙ v 2 + α3 ∙ v 3 + α4 ∙ v 4

Substituindo os vetores, temos:

(( (( (( (( ((
11 1 0 1 4
–3 = α1 ∙ 0 = α2 ∙ 1 = α3 ∙ 2 = α4 ∙ –1
7 2 3 3 2
4 –4 –2 –3 7

Isso equivale a solucionar a seguinte equação matricial, que pode ser resolvida
usando o método de Gauss.

((((
1 0 1 4 a1 11
0 1 2 –1 a2 –3
∙ a3 =
2 3 3 2 7
–4 –2 –3 7 a4 4

Dessa forma, podemos calcular que existe uma única solução dada por (α1, α2, α3, α4) =
(3,–1,0,2).
4 Espaço vetorial ℝ n: base e dimensão

Uma observação que podemos fazer em relação ao exemplo anterior é


que a solução calculada (3,–1,0,2) realmente descreve coordenadas do vetor
v = (11,–3,7,4) na base B. Isto é, estamos considerando um sistema de referência

diferente do sistema de coordenadas definido pela base canônica, e isso está


definindo outra maneira de nos referirmos a esse vetor.
Aproveitando, definimos a notação:

(v→)B = (α1, ..., αn)

v na base B de ℝ n. O caso
se esse é o vetor formado pelos coeficientes de →
particular, onde B é a base canônica, temos que (v )B = →

v.


Quando fixamos um vetor v em ℝ n, ele existe independente de uma base. Quando
fixamos uma base B e escrevemos a representação de →
v na base B, essa representação
(→
v )B é única em relação a B, e para cada base teremos uma representação diferente.

Matriz de mudança de base em ℝ n


Com base no que vimos anteriormente, podemos nos perguntar: como calcular
uma matriz de mudança de coordenadas de uma base para outra do ℝ n?
Considere B = {v→1, ... , →
v n} uma base ℝ n e ℰ a sua base canônica. Se tomar-
mos a matriz n × n da forma:

MB→ℰ = [v→1 ... →


v n]

essa matriz transforma um vetor (v→)B, na sua forma canônica → v . Desse modo,
se quisermos calcular uma matriz que faça o caminho contrário, isto é, que
v , precisamos calcular a matriz inversa de MB→E.
calcule (v→)B a partir do vetor →
Espaço vetorial ℝ n: base e dimensão 5

Em ℝ 2 a base B = {(3,1), (–2,–1)} define a matriz:

3 –2
MB→ℰ =
1 –1

Assim,
a) como podemos calcular a inversa dessa matriz?

b) dado v = (–3,4), como calcular a sua forma na base B?

Solução:
a) Como essa é uma matriz 2 × 2 e seu determinante é não nulo, podemos usar a
fórmula:

–1
a b 1
= ∙ d –b
c d ad – bc –c a

que resulta em:

1 1
–1
MB→ℰ = ∙ –1 +2 = ∙ –1 2 = 1 –2
3 ∙ (–1) – (1) ∙ (–2) –1 3 –1 –1 3 1 –3

b) Assim, podemos calcular diretamente que:

→ –1
( v )B = MB→ℰ

∙v =
1
1
–2
–3 ( ( (
∙ –3 =
4
–3 –8
–3 –12
= –11
–15 ( ( (
Isto é, ( →
v )B = (–11,–15). Isso significa que →
v = –11 ∙ (3,1) – 15 ∙ (–2,–1) = (–3,4), onde
essa última igualdade mostra como ( →
v )B é o vetor →
v , só que escrito de uma forma
alternativa (não canônica).

A fim de simplificar um pouco a notação, vamos nos aproveitar da sime-


tria do problema acima e escrever que Mℰ→B = MB→ℰ
–1
. Essa matriz é a matriz
mudança de coordenadas da base canônica ℰ para a base B pela igualdade
(v→)B = Mℰ→B . →
v.
6 Espaço vetorial ℝ n: base e dimensão

Em ℝ 3 a base B = {(–1,2,1), (–2,–1,0), (1,4,1)} define a matriz:

–1 –2 1
MB→ℰ = 2 –1 4
1 0 1

Assim,
a) como podemos calcular a inversa dessa matriz?

b) dado v (–5,2,1), como calcular a sua forma na base B?

Solução:
a) Como essa é uma matriz 3 × 3, usamos o método de redução linear (ANTON; ROR-
RES, 2012, p. 55), onde juntamos a matriz identidade I à direita de MB→ℰ, da forma:

[MB→ℰ | I]

e efetuamos operações com as linhas dessa matriz até que o lado esquerdo esteja
reduzido a I. Desse modo, a matriz final terá a forma:
[I | Mℰ→B]

Fazendo as contas, temos:

–1 –2 1 1 0 0
2 –1 4 0 1 0
1 0 1 0 0 1

Trocamos a primeira e a terceira linhas e multiplicamos a segunda por –1:

1 0 1 0 0 1
–2 1 –4 0 –1 0
–1 –2 1 1 0 0

Somamos duas vezes a primeira linha à segunda e a primeira linha à terceira:

1 0 1 0 0 1
0 1 –2 0 –1 2
0 –2 2 1 0 1
Espaço vetorial ℝ n: base e dimensão 7

Somamos duas vezes a segunda linha à terceira:

1 0 1 0 0 1
0 1 –2 0 –1 2
0 0 –2 1 –2 5

Multiplicamos a terceira linha por –1/2:

1 0 1 0 0 1
0 1 –2 0 –1 2
0 0 1 –1/2 1 –5/2

Somamos –1 vez a terceira linha à primeira e duas vezes a terceira linha à segunda:

1 0 0 1/2 –1 7/2
0 1 0 –1 1 –3
0 0 1 –1/2 1 –5/2

Portanto:

1 7
–1
2 2
Mℰ→B = –1 1 –3
1 5
– 1 –
2 2

b) Com a matriz Mℰ→B calculada, podemos calcular diretamente que:

((( (((
1/2 –1 7/2 –5 –5/2 –2 + 7/2 –1
→ →
( v )B = Mℰ→B ∙ v = –1 1 –3 ∙ 2 = 5+2–3 = 4
–1/2 1 –5/2 1 +5/2 + 2 – 5/2 2

Isto é, ( →
v )B = (–1,4,2). Isso significa que →
v = –1 ∙ (–1,2,1) + 4 ∙ (–2,–1,0) + 2 ∙ (1,4,1) = (–5,2,1),
onde esta última igualdade mostra como ( →
v )B é o vetor →
v , só que escrito de uma forma
alternativa (não canônica).
8 Espaço vetorial ℝ n: base e dimensão

Bases de um subespaço do ℝ n
De forma similar ao que definimos anteriormente, dado um subespaço vetorial
E do ℝ n, uma base de E é um conjunto B de vetores linearmente independentes,
tal que B⊂E e B é gerador de E. Isto é, se → v ∈E e B é uma base de E, então
existem → v 1, ... , →
v m e α1, ..., αm ∈ ℝ, tal que:

v = α1 . →

v 1 + ... + αm . →
vm

Essa combinação é única em E. Adicionalmente, os números α1, ..., αm são


v na base B.
chamados de coordenadas do vetor →

É importante observar que o número de vetores m na base de um subespaço de ℝ n


é tal que m ≤ n.

Quais dos conjuntos de vetores dados são bases de subespaços do ℝ 3?


a) B1 = {(1,4,–3), (0,2,5)}
b) B2 = {(2,1,–2), (1,–2,3), (3,4,–7)}
c) B3 = {(1,4,–3), (0,2,5), (1,1,1)}
d) Dos conjuntos B1, B2 e B3 anteriores, considere apenas os que definem uma base
e, para cada um, determine se o vetor →
v = (1,2,0) pertence ao subespaço gerado.

Solução:
a) B1 é linearmente independente, pois seus vetores não são múltiplos. Isso significa
que o espaço gerado por B1 é um subespaço de ℝ 3.
b) B2 é linearmente dependente, pois a equação matricial:

(( ((
2 1 3 x1 0
1 –2 4 . x2 = 0
–2 3 –7 x3 0

admite outras soluções diferentes da solução trivial (0,0,0). Podemos observar isso
por meio do método de Gauss e da falta de pivôs na forma escalonada. Logo, B2 não
é uma base de um subespaço do ℝ 3.
Espaço vetorial ℝ n: base e dimensão 9

a) B3 é linearmente independente, pois a equação matricial:

(( ((
1 0 1 x1 0
4 2 1 . x2 = 0
–3 5 1 x3 0

admite apenas a solução trivial (0,0,0), calculada, por exemplo, pelo método de
Gauss. Logo, B3 é uma base de um subespaço do ℝ 3 (base do próprio ℝ 3, na verdade).

b) Em B1, →
v pertence ao subespaço gerado, se existe solução para a equação vetorial:

(( ( ( ((
1 1 0
2 = α1 ∙ 4 + α2 ∙ 2
0 –3 5

No caso, essa igualdade não tem solução, pois as soluções na primeira (α1 = 1) e
segunda coordenadas (α2 = –1) não são soluções na terceira coordenada. Portanto, →
v
não pertence ao gerado de B1.
Em B3, a equação vetorial:

(( ( ( (( ((
1 1 0 1
2 = α1 ∙ 4 + α2 ∙ 2 + α3 ∙ 1
0 –3 5 1

é equivalente à equação matricial:

(( ((
1 0 1 a1 1
4 2 1 . a2 = 2
–3 5 1 a3 0

Usando o método de Gauss, temos que ( →


v )B3 = (7/23, 1/23, 16/23), e →
v pertence ao
gerado de B3.

Qualquer conjunto de vetores de ℝ n gera um subespaço de ℝ n. Para um conjunto


ser base desse subespaço, ele precisa ser formado (apenas) por vetores linearmente
independentes. Isto é, a base de um subespaço é o menor conjunto de vetores que
gera esse subespaço. Vamos falar mais sobre essa diferença ainda neste capítulo.
10 Espaço vetorial ℝ n: base e dimensão

Dimensão de um subespaço vetorial do ℝ n


Para ℝ n, o conceito de dimensão é quase imediato: se qualquer base de ℝ n
possui n vetores, então dizemos que a dimensão de ℝ n é n. Para definirmos
a dimensão de um subespaço vetorial (próprio) E ⊂ ℝ n, precisamos observar
que, se E admite uma base de m vetores (m < n), então qualquer base de E tem
o mesmo número m de vetores. Esse número é chamado de dimensão de E.

Subespaços vetoriais de ℝ 2 e ℝ 3
Se considerarmos apenas os subespaços vetoriais próprios de ℝ 2 e ℝ 3, conforme
Figura 1, observamos o seguinte.

„„ Os únicos subespaços vetoriais de ℝ 2 são as retas passando pela origem.


„„ Os subespaços vetoriais de ℝ 3 são:
■■ as retas passando pela origem, definidas por uma direção e, portanto,
de dimensão 1;
■■ os planos passando pela origem, definidos por duas direções line-
armente independentes e, portanto, de dimensão 2.

Em ℝ3, uma reta Em ℝ3, uma reta Em ℝ3, um plano


pela origem pela origem pela origem

Figura 1. Subespaços vetoriais próprios de ℝ 2 e do ℝ 3.


Espaço vetorial ℝ n: base e dimensão 11

Seja E o subespaço vetorial de ℝ 3 formado pelos vetores →


v = (x, y, z) que satisfazem:

x + 2y – 4z = 0

Como podemos obter uma base { →


v 1, →
v 2} ⊂ ℝ 3 de forma que →
v 1, →
v 2 ∈ E?

Solução:
A equação x + 2y – 4z = 0 admite infinitas soluções (x,y,z). Uma maneira de expres-
sarmos essas soluções é escrevendo a equação como:

x = –2y + 4z

e atribuirmos valores arbitrários para y e z, a fim de calcularmos x. É importante


lembrar-se da noção de variável livre e variável dependente. Nesse caso, x é variável
dependente, enquanto que y e z são variáveis independentes.
Se escolhermos y = 2 e z = –3, calculamos x = –2 ∙ 2 + 4 ∙ (–3) = –16. Assim, o vetor

v 1 = (–16,2,–3) satisfaz a equação dada, e podemos afirmar que → v 1 ∈ E.
Para calcularmos → v 2, é conveniente lembrar-se de que desejamos descrever uma
base de E. Isso implica que os vetores precisam ser linearmente independentes, no
caso da dimensão 2, e não podem ser múltiplos. Isto é, se escolhermos y = 4 e z =
–6, então o vetor (–32,4,–6) não seria uma boa alternativa, pois ele é múltiplo de → v 1.
Se escolhermos y = 0 e z = 1, calculamos x = –2 ∙ 0 + 4 ∙ (1) = 4. Assim, o vetor

v 2 = (4,0,1) satisfaz a equação dada, o conjunto { →v 1, →
v 2} é linearmente independente,
e seu plano gerado é descrito pela equação.

No exemplo anterior, a equação x = –2y + 4z apresenta infinitas soluções. Isso significa


que existem infinitas bases que podemos escolher para E. O importante é observar
que todas essas bases descrevem exatamente o mesmo subespaço E.
12 Espaço vetorial ℝ n: base e dimensão

Subespaços vetoriais de ℝ n, n > 3


Em geral, para n > 3 não nos preocupamos em dar nome aos subespaços que
surgem do ℝ n, pois eles podem ser descritos por meio de bases ou condições
algébricas a respeito dos vetores que compõem esse subespaço. Veja os exem-
plos a seguir.

Seja F o subespaço vetorial de ℝ 4 formado pelos vetores →


v = (x,y,z,w) que satisfazem:

3x – y + z = 0
2x + 3y + w = 0

Como podemos obter uma base de F? Qual é a dimensão desse subespaço?

Solução:
Esse exemplo, apesar de mais complexo, não é tão diferente do anterior, no qual
identificamos algumas variáveis livres na equação e escrevemos as variáveis depen-
dentes a partir dessas. Neste exemplo, faremos o mesmo no sistema de equações
dado. Considerando:

3x – y + z = 0
2x + 3y + w = 0

Escrevemos z e w em função de x e y:

z = –3x + y
w = –2x – 3y

Substituindo as variáveis z e w em →
v , podemos reescrever →
v como:


v = (x,y, –3x + y, –2x – 3y)

que, por sua vez, por ser reescrito como a soma de um vetor que depende de x e
um vetor que depende de y:


v = (x,y, –3x + y, –2x – 3y) = (x,0,–3x,–2y) + (0,y,+y,–3y)
Espaço vetorial ℝ n: base e dimensão 13

que, por sua vez, pode ser reescrito como a combinação (linear) de dois vetores:


v = x ∙ (1,0,–3,–2) + y ∙ (0,1,1,–3)

Portanto, qualquer →
v ∈F é uma combinação linear de:

v1 = (1,0,–3,–2)

v2 = (0,1,1,–3)

E {→
v 1, →
v 2} é uma base do subespaço vetorial F de dimensão 2 em ℝ 4.

Seja G o subespaço vetorial de ℝ 5 formado pelos vetores →v = (x1,x2,x3,x4,x5) que satisfazem:

3x1 – 2x2 + 2x3 + x4 = 0


–x1 + 2x3 + 3x4 – 2x5 = 0

Como podemos obter uma base de G? Qual é a dimensão desse subespaço?

Solução:
Vamos tentar generalizar os exemplos anteriores por meio deste. O sistema de
equações lineares:

3x1 – 2x2 + 2x3 + x4 = 0


–x1 + 2x3 + 3x4 – 2x5 = 0

apresenta 5 variáveis e 2 equações. Isto é, podemos escolher 3 variáveis livres e


escrever as demais em função dessas (apenas). Para isso, somamos 3 vezes a segunda
equação à primeira:

–2x2 + 8x3 + 10x4 – 6x5 = 0


–x1 + 2x3 + 3x4 – 2x5 = 0

Multiplicamos a primeira linha por –1/2 e a segunda linha por –1:

x2 – 4x3 – 5x4 + 3x5 = 0


x1 – 2x3 – 3x4 + 2x5 = 0
14 Espaço vetorial ℝ n: base e dimensão

Logo, podemos escrever x1 e x2 em função das demais variáveis:

x2 = 4x3 + 5x4 – 3x5


x1 = 2x3 + 3x4 – 2x5

e→v como a soma de 3 vetores, cada um dependendo de apenas uma das variáveis
livres:


v = (2x3 + 3x4 – 2x5,4x3 + 5x4 – 3x5,x3,x4,x5) =
= (2x3,4x3,x3,0,0) + (3x4,5x4,0,x4,0) + (–2x5,–3x5,0,0,x5)
= x3 ∙ (2,4,1,0,0) + x4 ∙ (3,5,0,1,0) + x5 ∙ (–2,–3,0,0,1)

Portanto, qualquer →
v ∈G é uma combinação linear de:

v1 = (2,4,1,0,0)

v2 = (3,5,0,1,0)

v3 = (–2,–3,0,0,1)

E {→
v 1, →
v 2, →
v 3} é uma base do subespaço vetorial G de dimensão 3 em ℝ 5.

Bases em conjuntos e sua dimensão


Vamos retomar alguns conceitos e analisar com cuidado como identificar se
um conjunto dado é uma base para um subespaço. Existem vários conceitos
implícitos nesse objetivo.
Mencionamos anteriormente que nem todo conjunto de vetores é uma base.
Por definição, isso ocorre sempre que um conjunto de vetores é linearmente
dependente. Num conjunto de vetores linearmente dependente, não consegui-
mos determinar a dimensão do gerado desse conjunto ou uma representação
única levando em consideração esse conjunto de vetores.
Espaço vetorial ℝ n: base e dimensão 15

Em ℝ 5, considere o conjunto de vetores:

C = {(2,0,–3,1,–4), (0,1,1,–2,2), (2,2,–1,–3,0),(2,3,0,–5,2)}

e veja que:
a) C é linearmente dependente;
b) podemos determinar um subconjunto de C que é linearmente independente e
que gera o mesmo subespaço que C.

Solução:
a) Por definição, { →
v 1, →
v 2, →
v 3, →
v 4} é linearmente independente, se:


α1 . →
v 1 + ... + αn . →
vn = 0

admite apenas a solução trivial (α1,α2,α3,α4) = (0,0,0,0). Quando aplicamos esse critério
aos vetores dados, temos:

( ( ( ( ( ( ( (((
2 0 2 2 0
0 1 2 3 0
α1 ∙ –3 + α2 ∙ 1 + α3 ∙ –1 + α4 ∙ 0 = 0
1 –2 –3 –5 0
–4 2 0 2 0

Essa igualdade pode ser escrita na forma matricial:

((((
2 0 2 2 a1 0
0 1 2 3 a2 0
–3 1 –1 0 ∙ a3 = 0
1 –2 –3 –5 a4 0
–4 2 0 2 0

que resolveremos usando a matriz aumentada e eliminação gaussiana (ANTON;


RORRES, 2012, p. 11). Assim, em:

2 0 2 2 0
0 1 2 3 0
–3 1 –1 0 0
1 –2 –3 –5 0
–4 2 0 2 0
16 Espaço vetorial ℝ n: base e dimensão

Multiplicamos a primeira linha por 1/2 e a quinta linha por –1/2:

1 0 1 1 0
0 1 2 3 0
–3 1 –1 0 0
1 –2 –3 –5 0
2 –1 0 –1 0

Somamos 3 vezes a primeira linha à terceira,–1 vez a primeira linha à quarta e–2
vezes a primeira linha à quinta:

1 0 1 1 0
0 1 2 3 0
0 1 2 3 0
0 –2 –4 –6 0
0 –1 –2 –3 0

Somamos -1 vez a segunda linha à terceira, 2 vezes a segunda linha à quarta e a


primeira linha à quinta:

1 0 1 1 0
0 1 2 3 0
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0

Nesse momento, podemos analisar que α3 e α4 são variáveis livres do sistema. Isso
significa que existem infinitas combinações (α1,α2,α3,α4) que resultam no vetor nulo.
Portanto, C é linearmente dependente.

b) Podemos verificar que, se:



v 1 = (2,0,–3,1,–4)

v 2 = (0,1,1,–2,2)

v 3 = (2,2,–1,–3,0)

v 4 = (2,3,0,–5,2)

então →
v4 =→v 1 + 3v→ 2 e →
v3 =→
v 1 + 2v→ 2. Isso nos permite afirmar que B = { →
v 1, →
v 2} é uma
base do gerado de C. Isso ocorre por percebermos que todos os vetores de C são
obtidos por combinações de apenas dois vetores não múltiplos e, portanto, linearmente
independentes. Assim, quaisquer dois vetores não múltiplos no gerado de C formam
uma base do gerado de C.
Espaço vetorial ℝ n: base e dimensão 17

No exemplo anterior, vimos que o vetor →


v 3 pode ser escrito em relação ao conjunto C
como:


v 3 = 1v→ 1 + 2v→ 2 + 0v→ 3 + 0v→ 4

ou como:


v 3 = 0v→ 1 + 0v→ 2 + 1v→ 3 + 0v→ 4

Isso ilustra nossa afirmação de que os vetores de um subespaço apresentam de-


composição única apenas sobre uma base daquele subespaço.

Ainda observando o exemplo anterior, vemos que não é imediato perceber


que a dimensão do conjunto gerado por C é 2. Vejamos agora uma versão
simplificada do teorema do posto para matrizes (ANTON; RORRES, 2012,
p. 238) que nos dará a solução para esse problema.
Em ℝ n dado o conjunto de vetores C = {v→1, ... , →
v m}, o subespaço vetorial
gerado por C terá dimensão igual ao número de pivôs da forma escalonada
da matriz:

M = [v→1 ... v m]

Adicionalmente, as colunas que tiverem pivôs na forma escalonada são as


dos vetores em M que compõem uma base do gerado de C.

Retomando o exemplo anterior, em ℝ 5, o conjunto de vetores:

C = {(2,0,–3,1,–4), (0,1,1,–2,2), (2,2,–1,–3,0), (2,3,0,–5,2)}


18 Espaço vetorial ℝ n: base e dimensão

tem uma matriz associada:

2 0 2 2
0 1 2 3
–3 1 –1 0
1 –2 –3 –5
–4 2 0 2

Como essa matriz tem uma forma escalonada:

1 0 1 1
0 1 2 3
0 0 0 0
0 0 0 0
0 0 0 0

podemos afirmar que o subespaço gerado por C tem dimensão 2, e precisamos de


apenas dois vetores para formar uma base desse gerado. No caso, →
v1 e→
v 2, pois, nessas
colunas, temos a presença de pivôs.

Em ℝ 4, dado o conjunto de vetores:

C = {(1,–1,2,1), (2,1,0,–2), (1,2,–2–3), (3,–3,5,2)},

como determinar a dimensão do gerado de C e uma base desse subespaço?

Solução:
Como esse conjunto de vetores tem uma matriz associada:

1 2 1 3
–1 1 2 –3
2 0 –2 5
1 –2 –3 2

para calcular a sua forma escalonada, somamos a primeira linha à segunda,–2 vezes
a primeira linha à terceira e–1 vez a primeira linha à quarta:

1 2 1 3
0 3 3 0
0 –4 –4 –1
0 –4 –4 –1
Espaço vetorial ℝ n: base e dimensão 19

Multiplicamos a segunda linha por 1/3, somamos –1 vez a terceira linha à quarta:

1 2 1 3
0 1 1 0
0 –4 –4 –1
0 0 0 0

Somamos quatro vezes a segunda linha à terceira:

1 2 1 3
0 1 1 0
0 0 0 –1
0 0 0 0

E chegamos à forma escalonada que nos permite contar 3 pivôs. Logo, o subespaço
gerado por C tem dimensão 3, e uma base para esse subespaço é { →
v 1, →
v 2, →
v 4} pela forma
escalonada ter pivôs nas colunas 1, 2 e 4.

Acessando o link a seguir, você pode visualizar exercícios de bases e sistemas de


coordenadas disponibilizados pela Unicamp, classificados quanto à sua dificuldade,
categoria e solução.

https://goo.gl/sYUrHS

ANTON, H.; RORRES, C. Álgebra linear com aplicações. 10. ed. Porto Alegre: Bookman,
2012. 786 p.
LAY, D. C.; LAY, S. R.; MCDONALD, J. J. Álgebra linear e suas aplicações. 5. ed. Rio de
Janeiro: LTC, 2018. 480 p.
ÁLGEBRA LINEAR

André Ricardo Rocha da Silva


Matrizes elementares
e fatoração LU
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:

„„ Definir matrizes elementares e suas propriedades.


„„ Relacionar matrizes elementares com a inversão de matrizes.
„„ Resolver um sistema linear a partir da fatoração LU.

Introdução
Os sistemas de equações lineares são conjuntos de equações lineares
que envolvem muitas variáveis. A representação matricial desses sistemas
possibilita encontrar uma única solução por meio da matriz inversa dos
coeficientes do sistema.
Por outro lado, quando o sistema de equações lineares em questão é
grande, o método de obtenção da solução para ele pode ser por meio da
fatoração de matrizes, recomenda para situações que envolvem muitos
cálculos, por ser um método direto e rápido.
Neste capítulo, você aprenderá a obter a matriz inversa e relacioná-la
a um sistema de equações lineares, bem como desenvolver e aplicar a
fatoração LU para a solução de um sistema de equações lineares.

Matrizes elementares
Um importante método para resolver um sistema de equações lineares é en-
contrar um sistema equivalente mais simples que se possa resolver e contenha
o mesmo conjunto de soluções do sistema original. Felizmente, isso não é
apenas possível para muitos casos como é facilitado pelo uso das matrizes.
Isso porque os sistemas de equações lineares podem ser representados pelas
matrizes — cada equação é uma linha de uma matriz —, de modo que qualquer
2 Matrizes elementares e fatoração LU

operação algébrica envolvendo as equações do sistema também pode ser feita


sobre as linhas da matriz.
Com isso em mente, as operações elementares sobre linhas que podem
ser realizadas em uma matriz são:

„„ multiplicar uma linha inteira por uma constante qualquer que seja
diferente de zero;
„„ fazer a troca de posições entre duas linhas;
„„ somar um múltiplo de uma linha com outra linha.

Para exemplificar como essas operações são feitas, considere a seguinte


matriz:

Para o primeiro tipo de operação, a multiplicação de uma linha inteira


por uma constante significa multiplicar todos os elementos da linha por um
número. Por exemplo, multiplique a segunda linha por 3:

3 ∙ [1 –1] = [3 –3]

Então, a nova segunda linha ficaria:

Para o segundo tipo de operação, o processo de troca de posição entre duas


linhas significa colocar a segunda linha no lugar da primeira, e a primeira
linha no lugar da segunda:

Primeira linha = [2 3] → segunda linha


Segunda linha = [1 –1] → primeira linha

Logo:
Matrizes elementares e fatoração LU 3

Para o terceiro tipo de operação, a soma de um múltiplo de uma linha com


outra significa multiplicar todos os elementos de uma linha por um número e,
depois, somar esse resultado à outra linha. Por exemplo, depois de multiplicar
a segunda linha por 3, você pode somar esse resultado com a primeira:

Observe que essa operação produziu um elemento nulo na segunda coluna


da primeira linha.
Com efeito, uma matriz elementar é uma matriz quadrada que pode ser
obtida a partir da matriz identidade de mesmo tamanho, por meio de uma
única operação elementar sobre linhas.
Veja, a seguir, alguns exemplos.

1. A seguinte matriz é elementar, pois foi obtida da matriz identidade, por meio da
multiplicação por 5 da primeira linha.

5 0
0 1

2. Esta matriz é elementar, pois foi obtida da matriz identidade, por meio da troca
entre a primeira e a segunda linha.

0 1 0
1 0 0
0 0 1

3. A matriz, a seguir, é elementar, pois foi obtida da matriz identidade, por meio da
multiplicação da última linha por 2, somada com a primeira linha.

1 2
0 1
4 Matrizes elementares e fatoração LU

Uma propriedade fundamental das matrizes elementares diz respeito ao


efeito que elas causam sobre outras matrizes.
Se, por exemplo, uma matriz elementar E1 é resultado da multiplicação da
primeira linha da matriz unidade por 2, então, a multiplicação dessa matriz
elementar à esquerda de outra qualquer de mesmo tamanho, A, produzirá como
único efeito a multiplicação da primeira linha de A por 2.
Por exemplo, se E1 for dada por:

e a matriz A for:
2 3
A=
1 –1

então o produto E1A fica:

cujo resultado é igual a multiplicar por 2 a primeira linha da matriz A.


É possível realizar uma segunda operação elementar sobre linhas na ma-
triz A, multiplicando o produto E1A por uma segunda matriz elementar. Por
exemplo, para a matriz elementar E2 dada por:

que é uma matriz elementar produzida pela multiplicação da primeira


linha da matriz identidade por –3, somada com a segunda linha. Então, o
resultado de E2E1A é:

que representa simplesmente a multiplicação da primeira linha da matriz


E1A por –3 e, depois, somada com a segunda linha. Veja:
multiplicando a primeira linha de E1A por –3 e, depois, somando a segunda
linha:

–3 ∙ [4 6] = [–12 –18]
[–12 –18] + [1 –1] = [–11 –19]
Matrizes elementares e fatoração LU 5

o resultado é:

que é exatamente o mesmo de E2E1A.


Desse modo, duas ou mais operações elementares realizadas sobre uma
matriz A qualquer podem ser obtidas pela multiplicação sucessiva das matrizes
elementares que produzem tais operações sobre linhas.

A aplicação sucessiva de duas operações elementares a e b, respectivamente, sobre


uma matriz A, implica uma mesma ordem de aplicação das matrizes elementares
representativas dessas operações: EbEaA.

Portanto, o conceito de matrizes elementares é fundamental para a resolu-


ção de sistemas de equações lineares, pois permite o desenvolvimento de um
algoritmo-padrão para a realização de operações elementares sobre as linhas
da matriz dos coeficientes do sistema, a fim de solucioná-lo.

Inversão de matrizes
Um aspecto importante sobre as operações elementares é que a mudança gerada
por uma operação pode ser desfeita por meio de outra operação elementar.
Considere a matriz elementar:

obtida da matriz identidade, multiplicando a primeira linha por 5. Essa


operação pode ser desfeita por meio da multiplicação da primeira linha por
1/5; ou seja, multiplicando E1 pela matriz elementar:
6 Matrizes elementares e fatoração LU

Observe com atenção: como a primeira matriz elementar E1 tem origem na


matriz identidade I por meio de uma operação elementar, então, desfazer essa
operação elementar implica retornar à matriz identidade. E, por isso, a matriz
elementar que desfez a operação dada por E1 foi propositalmente denotada por
, pois ela representa a matriz inversa de E1. De fato, observe que:

Outro exemplo que você viu foi o da matriz elementar:

obtida da matriz identidade por meio da troca entre a primeira e a segunda


linha. Essa operação pode ser desfeita mediante a realização de uma nova troca
entre a primeira e a segunda linha. Logo, nesse caso, = E2, e, por isso:

De fato, o cálculo do quadrado da matriz E2 resulta na matriz identidade:

Nesse caso, vale a pena notar que essa matriz elementar é ortogonal, pois
= E2T, ou seja, a matriz inversa é igual à matriz transposta e, também,
uma matriz simétrica, já que = E2 implica que E2T = E2.

A matriz elementar do tipo 3 × 3, que faz a troca da primeira linha com a terceira,
também é uma matriz ortogonal e simétrica.
Matrizes elementares e fatoração LU 7

Um outro exemplo importante envolve a seguinte matriz complementar:

obtida da matriz identidade por meio da multiplicação da última linha por


2, somada com a primeira linha. Essa mudança pode ser desfeita pela multi-
plicação da última linha da matriz identidade por –2 e da soma do resultado
com a primeira linha. Isto é, a matriz elementar que representa a matriz
inversa de E3 é:

De fato, você pode verificar que:

Portanto, para uma dada matriz elementar, que representa uma operação
elementar sobre a matriz identidade, sua matriz inversa é simplesmente a
operação elementar inversa, ou seja, retorna-se novamente à matriz identidade.

Toda matriz elementar contém uma matriz inversa que, por sua vez, também é uma
matriz elementar.

O conceito de matriz elementar desempenha um papel fundamental na


construção de uma matriz. Para uma dada matriz quadrada A, que possui
uma inversa, A–1, as seguintes proposições são válidas.

1. É sempre possível transformar A, por meio de sucessivas aplicações de


matrizes elementares, em uma matriz identidade I:
En ... E2E1A = I
2. Pode-se representar A como um produto de matrizes elementares sobre I.
8 Matrizes elementares e fatoração LU

Isso pode ser visto da seguinte maneira, desde que A–1A = I, então, pela
proposição 1, você pode identificar diretamente que A–1 = En ... E2E1.

Agora, a inversa de A–1 é a própria matriz A:

(A–1) –1 = A

Então:

(A–1) –1 = (En ... E2E1) –1 = A

Como as matrizes elementares contêm inversas, vale a seguinte igualdade


que se aplica ao cálculo da inversa de uma matriz resultante do produto entre
outras matrizes:

Portanto:

Ou seja, como a matriz inversa de uma matriz elementar também é uma


matriz elementar, esse resultado está de acordo com a proposição 2, vista
anteriormente. Além disso, como a matriz A contém uma inversa, o produto
da inversa de matrizes elementares também possui uma inversa.
Os resultados fornecem duas importantes aplicações. A primeira aplicação
possibilita resolver sistemas de equações lineares. Com efeito, pode-se aplicar
as matrizes elementares para resolver sistemas de equações lineares. Isso
pode ser feito utilizando a representação matricial de um sistema, dada pela
equação matricial:

AX = B
Matrizes elementares e fatoração LU 9

em que A é a matriz quadrada dos coeficientes, X é a matriz coluna das


variáveis, e B é a matriz coluna das constantes. Você viu que En ... E2E1A = 1.
Por isso, a aplicação sucessiva de matrizes elementares no lado esquerdo dessa
equação matricial, e em ambos os lados dessa relação de igualdade, resulta em:

que é a solução do sistema de equações lineares. Como você pode notar, essa
solução depende da existência da matriz inversa dos coeficientes do sistema.
Agora, a segunda aplicação importante é fornecer um método para deter-
minar — quando existir — a inversa de uma matriz que, por tabela, também
auxilia na solução de um sistema linear (que é a primeira aplicação). Se você
multiplicar pela direita a equação matricial En ... E2E1A = I por A–1, você obtém:

Ou seja, é possível obter a matriz inversa de A por meio de sucessivas


multiplicações de matrizes elementares à esquerda da matriz identidade I.
Dessa forma, comparando os seguintes resultados:

En ... E2E1A = I
A–1 = En ... E2E1I

você pode observar um conceito fundamental: as mesmas operações ele-


mentares sobre linhas (geradas pelo produto das várias matrizes elementares)
que transformam a matriz A em uma matriz identidade I, também transformam
a matriz identidade I na matriz inversa de A, que é dada por A–1.
10 Matrizes elementares e fatoração LU

Com efeito, para que você possa encontrar a inversa de uma matriz A, basta
executar uma sequência de operações elementares sobre linhas, que transforma
A em uma matriz identidade; e, simultaneamente, essa mesma sequência de
operações elementares sobre linhas para transformar I na matriz inversa de A.
Para que você possa executar simultaneamente a mesma sequência de
operações elementares sobre as matrizes A e I, é recomendável que você
perfile as matrizes A e I, lado a lado, da seguinte maneira:

[A|I]

Veja que, embora as duas matrizes estejam uma do lado da outra, há uma
divisória (simbolizada por |) que permite separá-las de forma individual.
A partir dessa configuração, a execução de operações elementares sobre
A (lado esquerdo), que resultará na matriz I, ocorre simultaneamente sobre I
(lado direito), cujo resultado é a matriz A–1:

Para exemplificar esse processo, considere a seguinte matriz:

Então, perfile-a junto à matriz I:

Agora, a ideia é realizar operações simultâneas sobre as linhas das ma-


trizes A e I perfiladas, que formam um tipo de “matriz 2 × 4”, de modo a
transformar a matriz A, no lado esquerdo, em I. O que resultar no lado direito
será identificado como sendo A–1.
Matrizes elementares e fatoração LU 11

Nesse exemplo, se você multiplicar a segunda linha por –2 e somar com


a primeira linha:

–2 ∙ [0 1|0 1] + [1 2|1 0] = [1 0|1 –2]

o resultado será uma nova primeira linha:

Veja que, do lado esquerdo, já apareceu a matriz identidade, e, por con-


seguinte, a matriz do lado direito é necessariamente a matriz inversa de A:

É fácil você comprovar isso, mostrando que AA–1 = A–1A = I.

Fatoração LU
Em diversas situações evolvendo cálculos, torna-se útil a fatoração de um
número, ou mesmo a fatoração de uma expressão matemática, para simplificar
um cálculo. Veja os dois exemplos de fatoração a seguir:

a)

b)

A mesma ideia vale para as matrizes. O processo de fatoração de uma


matriz implica escrever uma dada matriz como sendo o resultado do produto
de duas ou mais matrizes.
A aplicação dessa técnica é especialmente útil para a resolução de sistemas
de equações lineares, pois fornece uma alternativa operacional direta e simples
de ser executada. Por isso, ela também é bastante empregada em computadores
para a execução de processos que envolvam muitos cálculos.
Um caso particular da fatoração de matrizes é a denominada fatoração
LU, que consiste em escrever uma dada matriz A, que possui inversa, como
sendo o produto de outras duas matrizes, L e U, de modo que:

A = LU
12 Matrizes elementares e fatoração LU

A matriz U é obtida a partir da aplicação do método de eliminação de


Gauss sobre A. Ou seja, a partir da operação elementar sobre linhas aplicadas
à matriz A, é possível transformá-la em uma matriz triangular superior U:

En ... E2E1A = U

Multiplicando, pela esquerda, os dois lados dessa relação por (En ... E2E1) –1,
você obtém:

Desde que:

chega-se finalmente à relação:

Aqui, a matriz é uma matriz triangular inferior, desde


que não se tenha feito trocas de linhas na aplicação do método de eliminação
Gauss para obter a matriz U.

Se uma matriz quadrada A pode ser reduzida à forma escalonada, U, por meio do
método de eliminação de Gauss sem troca de linhas, então, essa matriz pode ser
fatorada como A = LU, em que a matriz L é uma matriz triangular inferior.
Matrizes elementares e fatoração LU 13

Para você entender o procedimento de como realizar a fatoração LU para


uma dada matriz, considere a seguinte matriz do tipo 2 × 2:

Aplicando-se o método de eliminação de Gauss, você pode multiplicar


a primeira linha de A por 3 e somar com a segunda linha, obtendo, assim, a
matriz U:

Essa operação elementar realizada sobre A também corresponde à aplicação


da matriz elementar obtida pela multiplicação da primeira linha da matriz
identidade por 3, depois, somada com a segunda linha:

Veja:

Com efeito, a matriz L é obtida simplesmente por calcular a matriz inversa


de E:

Nesse caso, se você multiplicar a primeira linha por –3 e, depois, somar


com a segunda linha:

você já tem, do lado esquerdo, a matriz identidade e, portanto:


14 Matrizes elementares e fatoração LU

Logo, a matriz L fica:

Claro que você poderia ter obtido esse mesmo resultado observando que a
operação elementar sobre linhas contrárias à realizada para obter a matriz U
é de multiplicar a primeira linha da matriz identidade por –3 e, depois, somar
com a segunda linha (que tem o mesmo efeito de multiplicar a primeira linha
da matriz identidade por 3 e, depois, fazer a subtração com a segunda linha):

Assim, onde aparece o fator 3 na matriz elementar E, aparecerá o fator –3


na matriz L. Desse modo, a fatoração LU para a matriz A é dada por:

De modo geral, para se fazer a fatoração LU de uma dada matriz A, basta


registrar as matrizes elementares que conduziram à forma escalonada U da
matriz A e, então, calcular a matriz inversa dessas matrizes elementares, cujo
produto em ordem invertida delas resulta na matriz L.
Como você já deve ter percebido, a maior parte do trabalho para fazer
a fatoração LU consiste em encontrar L. No entanto, você pode construir a
matriz L mais facilmente, notando que:

Observe que, no caso de E1, obtida pela multiplicação do primeiro ele-


mento da matriz identidade por 5 (e cuja ação sobre outra matriz consiste em
multiplicar o elemento correspondente por 5), a sua matriz inversa, ,é
obtida simplesmente dividindo por 5 o primeiro elemento. Já para a matriz
elementar E2, obtida pela multiplicação da primeira linha da matriz identidade
por 3, que, depois, foi somada com a segunda linha, a sua matriz inversa,
, é obtida pela multiplicação da primeira linha da matriz identidade por 3,
depois subtraída da segunda linha. Em outras palavras, a matriz inversa de
Matrizes elementares e fatoração LU 15

uma matriz elementar corresponde exatamente à operação algébrica inversa


da matriz elementar. Se a ação da matriz elementar é multiplicar, a matriz
inversa dividirá; se a ação da matriz elementar é somar uma linha, a matriz
inversa subtrairá uma linha.
Veja, agora, como a fatoração LU é empregada para se obter a solução de
um sistema de equações lineares. A representação matricial do sistema é do
tipo AX = B. Como a matriz dos coeficientes pode ser posta na forma A = LU,
então, a equação matricial do sistema fica:

LUX = B

Agora, essa equação matricial pode ser separada em outras duas:

LY = B e UX = Y

Desse modo, primeiro você resolve a equação matricial auxiliar LY = B,


determinando, assim, a matriz Y. Depois, você substitui esse resultado na
equação matricial UX = Y, determinando a matriz X, e, portanto, resolvendo
o problema. A vantagem desse processo é que o formato escalonado das
matrizes L e U permite uma solução direta e rápida para as matrizes Y e X,
respectivamente.
Como exemplo de resolução de um sistema de equações lineares pelo mé-
todo da fatoração LU, considere o seguinte sistema de duas equações lineares:

A matriz dos coeficientes é dada por:

cuja fatoração LU está dada logo acima:


–1 1, 1 0
U= L=
0 5 –3 1
16 Matrizes elementares e fatoração LU

Além disso, a matriz das variáveis é:

e a matriz das constantes é:

Sendo:

a primeira equação matricial LY = B fica:

Logo, y1 = 6 e y2 = 7 + 3(6) = 25. Assim:

Agora, usando a equação matricial UX = Y:

Logo, x2 = 5 e x1 = x2 – 6 = –1.

Portanto:

é a solução do sistema de equações lineares proposto.


Talvez, para um sistema do tipo 2 × 2, a fatoração LU possa não parecer
tão fácil de ser usada. Afinal, nesse caso, até mesmo uma tentativa direta
pode ser bem-sucedida. Mas o valor da fatoração LU prova-se para situações
envolvendo conjuntos de sistemas e equações lineares de tamanho maior.
Matrizes elementares e fatoração LU 17

ANTON, H.; BUSBY, R. C. Álgebra linear contemporânea. Porto Alegre: Bookman, 2006.
612 p.
ANTON, H.; RORRES, C. Álgebra linear com aplicações. 8. ed. Porto Alegre: Bookman,
2012. 786 p.

Leitura recomendada
CRISPINO, M. L. 320 questões resolvidas de álgebra linear. Rio de Janeiro: Ciência Moderna,
2012. 352 p.
ÁLGEBRA LINEAR

Silvano Antonio Alves Pereira Junior


Determinantes e
autovalores
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:

„„ Definir determinantes e algumas de suas propriedades.


„„ Encontrar a matriz inversa com o uso de determinantes.
„„ Relacionar autovalores com o processo de diagonalização de matrizes.

Introdução
Neste capítulo, você estudará um pouco mais sobre matrizes, que têm
aplicações nos mais variados locais — desde a planilha de Excel ao pro-
cesso de gerenciamento de estoques, ou mesmo o controle de complexos
sistemas de produção.
Nesse contexto, o determinante é uma poderosa ferramenta, um
invariante numérico de uma matriz que pode auxiliar a obter preciosas
informações sobre a matriz e, até mesmo, o sistema associado a ela.
Você também será apresentado às ferramentas utilizadas no processo
de diagonalização de uma matriz, como autovetores, autovalores e po-
linômios característicos.

Determinantes e suas propriedades


O determinante é um número associado a uma matriz quadrada. Antes de
introduzir sua definição precisa, apresentaremos alguns exemplos de casos
particulares, que podem ajudar na compreensão do caso geral. Seguiremos
uma linha semelhante à apresentada em Nicholson (2006).
2 Determinantes e autovalores

Caso 2 × 2
Consideremos a seguinte matriz:

O determinante da matriz A será denotado por det(A) e pode ser calculado


da seguinte maneira:

det(A) = (2 × 1) – (3 × 1) = 2 – 3 = –1

como, em resumo, o produto dos elementos da diagonal principal (a da


esquerda para a direita) menos o produto dos elementos da diagonal secundária
(a da direita para a esquerda). Essa propriedade é válida para matrizes dois
por dois em geral, isto é, você poderá utilizar a seguinte fórmula:

Se , então det(A) = (a × d) – (c × b)

1 1
Para calcular o determinante da matriz B = . Você deverá proceder da seguinte
2 2
maneira:

det(B) = (1 × 2) – (2 × 1) = 2 – 2 = 0

Um fato importante para se considerar em matrizes, de maneira geral, é


que uma matriz quadrada An×n é invertível se, e somente se, seu determinante
for diferente de zero. Assim, os exemplos anteriormente apresentados são de
uma matriz invertível — a matriz A — e da matriz B , que não possui inversa.
Para matrizes 2 × 2, cujo determinante seja não nulo, podemos ainda trabalhar
com a seguinte fórmula:

tem como inversar a matriz


Determinantes e autovalores 3

Caso 3 × 3
Para matrizes de tamanho 3 × 3, você poderá calcular o determinante utilizando
determinantes menores e cofatores.

Definição: se A é uma matriz quadrada, então, o menor relacionado à entrada aij


(também denominado ij-ésimo menor de A) é denotado por Mij e definido como o
determinante da submatriz que sobra quando suprimimos a i-ésima linha e a j-ésima
coluna de A. O número Cij = (–1)i+jMij é denominado cofator da entrada aij (ou o ij-ésimo
cofator).

1 0 2
Considere a matriz A = 1 1 1 . O cálculo para C31 pode ser realizado da seguinte
maneira. 3 0 2
Sabe-se que C31 = (–1)3+1M31 e que o menor M31 é o determinante da matriz que
obtemos após eliminar a linha 3 e a coluna 1 da matriz A. Ou seja:

0 2
M= = 0 × 1 – 1 × 2 = –2
1 1

Portanto:

C31 = (–1)3+1M31
C31 = (–1)4(–2)
C31 = 1(–2)
C31 = –2

A partir dos cofatores, podemos calcular o determinante de uma matriz


quadrada An×n , utilizando a expansão do determinante em cofatores.
4 Determinantes e autovalores

Expansão em cofatores

Seja An×n uma matriz quadrada de números reais, a expansão em cofatores do


determinante da matriz An×n a partir da k-ésima linha é dada por:

det(A) = ak1Ck1 + ak2Ck2 + ak3Ck3 + … + aknCkn

É muito importante estar alerta ao termo (–1)i+j, pois um erro de sinal nessa parte do
cálculo é muito comum. Para evitar que isso aconteça, lembre-se de que o resultado
dessa conta depende da paridade de i + j. Se i + j for par, o resultado será igual a 1; se
i + j for ímpar, o resultado será igual a –1.

Essa fórmula permite calcular o determinante de matrizes de qualquer


tamanho, mas observe que o número de operações cresce de maneira muito
rápida. O determinante de uma matriz 3 × 3 implica três determinantes de
matrizes 2 × 2 na sua expansão em cofatores. Já o determinante de uma matriz
4 × 4 implica quatro determinantes de matrizes 3 × 3, sendo que cada um
desses implica três determinantes de matrizes 2 × 2, gerando um total de 12
determinantes 2 × 2.

Vejamos um exemplo do cálculo de determinantes utilizando a expansão em cofatores.


1 0 2
Considere novamente a matriz A = 1 1 1 . Vamos calcular o seu determinante,
3 0 2
fazendo a expansão em cofatores a partir da linha 1. Temos:

det(A) = a11C11 + a12C12 + a13C13


det(A) = 1C11 + 0C12 + 2C13
det(A) = C11 + 2C13
Determinantes e autovalores 5

Agora, calculamos os cofatores:

C11 = (–1)1+1 M11 C31 = (–1)1+3 M13


1 1 1 1
C11 = 1 C31 = 1
0 2 3 0
e
C11 = 1 × [2] C31 = 1 × [–3]

C11 = 2 C31 = –3

Segue que:

det(A) = 2 + 2 × (–3) = –4

Um ponto a ser destacado é que a expansão pode ser feita a partir de


qualquer uma das linhas. Não existe nenhuma restrição, mas, a fim de reduzir
o número de cálculos, é comum escolher a linha com a maior quantidade de
zeros. Veja o seguinte exemplo.

1 0 0
Considere a matriz H = 3 2 1 . Pode-se calcular o seu determinante fazendo a
3 1 1
expansão em cofatores a partir da linha 1, tendo em mente que essa é a linha que tem
a maior quantidade de elementos nulos.
Utilizando a fórmula de expansão, obtemos:

det(H) = a11C11 + a12C12 + a13C13


det(H) = 1C11 + 0C12 + 0C13
det(H) = C11

Perceba que, como a linha tem dois elementos nulos, o cálculo do determinante
reduziu-se ao de um determinante de ordem 2 × 2.
6 Determinantes e autovalores

C11 = (–1)1+1 M11


2 1
C11 = 1
1 1
C11 = 1 × [2 – 1]

C11 = 1

Portanto, det(H) = C11 = 1.

A seguir, apresentamos algumas das propriedades mais importantes do


determinante de uma matriz, que podem ser de muita utilidade no cálculo de
determinantes.

„„ P1: o determinante da matriz nula é igual a zero.


„„ P2: o determinante da matriz identidade In×n é igual a um.
„„ P3: o determinante é uma função linear de cada linha — isto é, se
multiplicarmos uma linha por k, o determinante da matriz é multipli-
cado por k.
„ P4: se duas linhas (ou colunas) da matriz são iguais, ou múltiplo
não nula uma da outra, o determinante da matriz é igual a zero.
„ P5: se uma das linhas (ou colunas) for formada apenas por elementos
nulos, o determinante da matriz é igual a zero.
„ P6: se a matriz for triangular ou diagonal, o determinante é igual ao
produto dos elementos da diagonal da matriz.
„ P7: Se B = Bnxn, então det ( B) = n.det(B)

1 2 3
Considere a matriz A = 2 4 6 . Pode-se calcular o seu determinante fazendo uso
3 0 2
das propriedades do determinante. Observe que a linha 2 é múltipla da linha 1. De
forma mais precisa, L2 = 2L1. Portanto, o determinante da matriz é igual a zero.

Veja, agora, um exemplo sobre matrizes triangulares.


Determinantes e autovalores 7

7 0 0
Considere a matriz A = 2 –1 0 . Pode-se calcular o seu determinante fazendo uso
1 1 –4
das propriedades do determinante. Observe que a matriz é do tipo triangular superior.
Logo, seu determinante é igual ao produto dos elementos em sua diagonal. Portanto:

det(A) = 7 × (–1) × (–4) = 28

Como dito anteriormente, a expansão em cofatores pode ser utilizada para


matrizes de qualquer dimensão, não apenas 2 × 2 ou 3 × 3. Veja um exemplo
disso a seguir.

1 0 0 5
Considere a matriz A = 1 2 4 1 . Pode-se calcular o seu determinante fazendo
3 0 0 0
1 1 0 0
uso da fórmula de expansão em cofatores. Para tal, a escolha da terceira linha da
matriz pode ser uma boa opção, tendo em vista que é a que contém mais elementos
nulos. Obtém-se:

det(A) = a31C31 + a32C32 + a33C33 + a34C34


det(A) = a31C31 + 0C32 + 0C33 + 0C34
det(A) = a31C31
det(A) = 3C31

Resta calcular o cofator C31. Nesse caso:

0 0 5
C31 = (–1)3+1 × 2 4 1
1 0 0

0 5
C31 = 1 × 1 (–1)3+1 ×
4 1

C31 = –20

Segue que det(A) = 3 × (–20) = –60.


8 Determinantes e autovalores

Matriz inversa
Na seção anterior, você aprendeu que uma matriz possui inversa se, e somente
se, seu determinante é diferente de zero. Além disso, você também aprendeu
a calcular a matriz inversa de uma matriz 2 × 2, utilizando o determinante.
Agora, verá como utilizar a fórmula de expansão em cofatores para encon-
trar a inversa de uma matriz quadrada de qualquer dimensão. Para tal, você
precisará do seguinte resultado.

Teorema: seja A3×3 uma matriz cujo determinante é diferente de zero, e então
sua matriz inversa A–1 pode ser calculada desta forma:

Em palavras, a matriz inversa de A é igual ao inverso do determinante de


A multiplicado à transposta da matriz de cofatores de A.
O resultado foi enunciado no caso 3 × 3, para facilitar a compreensão, mas
pode ser utilizado para matrizes de qualquer dimensão. Veja um exemplo da
aplicação desse resultado.

1 0 3
Considere a matriz A = 0 1 0 , do tipo triangular inferior. Portanto, seu determinante
0 0 2
é igual ao produto dos elementos em sua diagonal. Segue que det(A) = 1 × (1) × (2) = 2.
Portanto, pode-se aplicar o resultado anterior a essa matriz. Agora, basta montar a
transposta da matriz de cofatores para encontrar a inversa:

C11 C21 C31 2 0 –3


C12 C22 C32 = 0 2 0
C13 C23 C33 0 0 1
Determinantes e autovalores 9

A matriz inversa de A tem a seguinte forma:

2 0 –3
1 0 2 0
A–1 =
2 0 0 1

1 0 –3/2
A–1 = 0 1 0
0 0 1/2

Uma simples multiplicação das matrizes é suficiente para verificar que A × A–1 = I3×3.

Um importante resultado sobre matrizes inversas é enunciado a seguir.

Teorema: dada uma matriz An×n, as afirmações listadas a seguir são equivalentes.

1. An×n é invertível.
2. det(A) ≠ 0.
3. As n linhas de An×n são linearmente independentes.

Veja um exemplo da aplicação desse resultado.

1 1 0
Considere a matriz A = 0 1 0 . Como decidir se ela é invertível ou não? Podemos
1 0 2
utilizar qualquer um dos itens da equivalência apresentada. Escolhemos, então, a mais
comum: o valor do determinante.
Usaremos a expansão em cofatores a partir da segunda linha. Por que? Porque essa
é a linha com a maior quantidade de elementos nulos. Obtemos:

det(A) = a21C21 + a22C22 + a23C23


det(A) = 0C21 + 1C22 + 0C23
det(A) = C22
10 Determinantes e autovalores

O cálculo do cofator C22 pode ser feito da seguinte maneira:

1 0
C22 = (–1)2+2 ×
1 2

1 0
C22 = 1 ×
1 2

C22 = 1

Logo:

det(A) = 1 ≠ 0

Portanto, a matriz A é invertível.

Outro fato importante sobre matrizes inversas é que elas são fortemente
relacionadas aos sistemas lineares. Considere um sistema de equações lineares
homogêneo, cuja forma matricial seja:

Ax = 0

Fato: o sistema linear homogêneo anterior tem apenas a solução trivial se, e
somente se, a matriz A é invertível.
Esse fato nos fornece uma maneira simples e prática de verificar se a solução
trivial (vetor nulo) é a única de um sistema linear homogêneo.

É comum o erro de, em vez de se utilizar a matriz transposta da matriz de cofatores,


se tomar a própria matriz de cofatores.

Concluímos esta seção com uma importante relação entre o determinante


de uma matriz e o determinante de sua inversa.
Determinantes e autovalores 11

Teorema: seja An×n uma matriz invertível, então:

Veja, a seguir, um exemplo de aplicação desse resultado.

23 0 0
Considere a matriz A = 2 1 0 . Qual é o determinante de A–1?
1 1 1
Sabemos que A é uma matriz triangular inferior. Logo, segundo as propriedades
do determinante, ele é igual ao produto dos elementos em sua diagonal. Ou seja:

det(A) = 23

Portanto, aplicando o teorema anterior, obtém-se:

1
det(A–1) =
23

Observe que a exigência de o determinante ser diferente de zero, A invertível


é necessária, uma vez que não se pode ter divisão por zero.

Autovalores e diagonalização de matrizes


Nesta seção, você verá como calcular os autovalores de uma matriz e como
utilizá-los no processo de diagonalização de matrizes, essencial na resolução
de sistemas lineares.
Um número λ ≠ 0 é um autovalor de uma matriz An×n, se existe algum
vetor v, tal que:

Av = λv
12 Determinantes e autovalores

Em palavras, λ é um autovalor de An×n, se existir um vetor v , tal que, ao


aplicarmos An×n sobre v obtemos λv. Nesse caso, a operação de aplicar uma
transformação linear foi capsulada no produto por um número. Diremos,
também, que v é um autovetor de An×n associado ao autovalor λ.
Isso é equivalente a dizer que λ é um autovalor de An×n, se existir solução
para o sistema linear homogêneo (A – λI)v = 0.
Outra maneira de procurar pelos autovalores de uma matriz é por meio do
polinômio característico. Dada uma matriz An×n, seu polinômio característico
é definido por:

p(λ) = det(A – Iλ)

2 0 0
Dada a matriz A = 3 1 0 , que é do tipo triangular superior, pode-se encontrar
1 –2 2
o polinômio característico da seguinte maneira:

p(λ) = det(A – Iλ)

2–λ 0 0
p(λ) = 3 1–λ 0
1 –2 2–λ

p(λ) = (2 – λ)2(1 – λ)

Segue que os autovalores de A são λ1 = 1 e λ2 = 2, este último com multiplicidade


2, isto é, λ2 = 2 é uma raiz dupla do polinômio característico.
Observe, ainda, que, conhecidos os autovalores, se pode resolver os sistemas lineares
associados e encontrar os autovetores.

Agora, você verá um resultado apresentado por Nicholson (2006), que nos
permite relacionar autovalores e autovetores com o processo de diagonalização
de matrizes.
Determinantes e autovalores 13

Teorema: seja An×n uma matriz, então:

1. a é diagonalizável se, e somente se, ela possui autovetores x1, x2, ..., xn,
tais que a matriz P = [x1, x2, ..., xn] é invertível;
2. quando esse for o caso, temos PAP–1 = diag(λ1, λ2, ..., λ n), onde λi é o
autovalor associado ao autovetor xi.

Como aplicação desse resultado, veja o seguinte exemplo.

O problema consiste em procurar, caso exista, a forma diagonalizada da matriz:

2 0 0
A = –3 0 0
0 1 0

O polinômio característico dessa matriz tem a seguinte forma:

p(λ) = (2 – λ)(λ – 1)(1 + λ)

Existem, portanto, três autovalores diferentes, como requer o teorema. A saber


λ1 = 2, λ2 = 1 e λ3 = –1 associados, respectivamente, aos seguintes autovetores:

–1 0 0
v1 = 2 v2 = 1 v3 = 1
1 1 –1
Segue que a matriz P tem a seguinte forma:

–1 0 0
P= 2 1 1
1 1 –1

Para verificar o resultado, basta realizar:

–1 0 0 2 0 0 –1 0 0 2 0 0
2 1 1 –3 0 0 2 1 1 = 0 1 0
1 1 –1 0 1 0 1 1 –1 0 0 –1

O fato de termos P = P–1 foi apenas uma coincidência, não é uma regra.
14 Determinantes e autovalores

Você encontrará exercícios e vídeos de boa qualidade com excelente conteúdo na


Khan Academy, disponível no link a seguir.

https://qrgo.page.link/htszk

Veja um último exemplo sobre a diagonalização de matrizes.

Dada a matriz:

3 0 0
H= 0 2 0
–1 0 7

Deve-se encontrar sua forma diagonal D. Para tal, começa-se encontrando o poli-
nômio característico da matriz. Observe, ainda, que essa matriz é do tipo triangular
superior. Portanto:

p(λ) = (3 – λ)(2 – λ)(7 – λ)


Pode-se concluir que D tem a seguinte representação:

3 0 0
D= 0 2 0
0 0 7

Um último resultado, extremamente interessante e relacionado ao polinômio


característico de uma matriz, é o Teorema de Cayley-Hamilton. Esse resultado,
atribuído aos matemáticos Arthur Cayley e William Hamilton, diz que uma
matriz An×n é um zero de seu próprio polinômio característico. De maneira
mais precisa, quer dizer o seguinte.
Determinantes e autovalores 15

Teorema (Cayley-Hamilton): considere a matriz An×n. Se p(λ) é o polinômio


característico da matriz An×n, então:

p(A) = 0

Esse teorema fornece um excelente teste para verificar se o cálculo do


polinômio característico foi efetuado de maneira correta.

ANTON, H.; BUSBY, R. C. Álgebra linear contemporânea. Porto Alegre: Bookman, 2006.
612 p.
NICHOLSON, W. K. Álgebra linear. 2. ed. São Paulo: McGraw-Hill, 2006. 394 p.

Leitura recomendada
LIPSCHUTZ, S.; LIPSON, M. Álgebra linear: mais de 600 exercícios resolvidos. 4. ed. Porto
Alegre: Bookman, 2011. 434 p. (Coleção Schaum).

Você também pode gostar