Você está na página 1de 71

CENTRO UNIVERSITÁRIO FAVENI

ÁLGEBRA LINEAR

GUARULHOS – SP

0
SUMÁRIO

1 INTRODUÇÃO .................................................................................................. 4

2 DEFINIÇÃO E CLASSIFICAÇÃO DE MATRIZES ............................................ 5

2.1 Matriz retangular ........................................................................................... 6

2.2 Matriz quadrada ............................................................................................ 6

2.3 Matriz coluna ................................................................................................ 6

2.4 Matriz linha ................................................................................................... 7

2.5 Matriz diagonal ............................................................................................. 8

2.6 Matriz triangular ............................................................................................ 8

2.7 Matriz escalar ............................................................................................... 9

2.8 Matriz identidade .......................................................................................... 9

2.9 Matriz transposta .......................................................................................... 9

2.10 Matriz simétrica ........................................................................................... 10

2.11 Matriz nula .................................................................................................. 10

3 OPERAÇÕES COM MATRIZES ..................................................................... 11

4 IGUALDADE ................................................................................................... 11

5 ADIÇÃO .......................................................................................................... 12

5.1 Propriedade comutativa .............................................................................. 12

5.2 Propriedade associativa.............................................................................. 13

5.3 Subtração ................................................................................................... 13

6 MULTIPLICAÇÃO DE UMA MATRIZ POR UM ESCALAR ............................. 14

7 MULTIPLICAÇÃO ENTRE MATRIZES ........................................................... 15

7.1 Propriedade associativa.............................................................................. 17

7.2 Propriedade distributiva .............................................................................. 17

1
8 EQUAÇÃO MATRICIAL .................................................................................. 19

9 APLICAÇÕES COM MATRIZES ..................................................................... 19

10 INVERSA DE UMA MATRIZ .......................................................................... 21

10.1 Propriedade 1 ............................................................................................. 25

10.2 Propriedade 2 ............................................................................................. 25

10.3 Propriedade 3 ............................................................................................. 26

11 MATRIZ ORTOGONAL .................................................................................. 27

12 SISTEMAS DE EQUAÇÕES LINEARES ....................................................... 34

13 SISTEMAS HOMOGÊNEO E NÃO HOMOGÊNEO ....................................... 37

14 SISTEMAS LINEARES COM UMA EQUAÇÃO MATRICIAL ......................... 40

15 SISTEMAS LINEARES COM MATRIZ INVERSA .......................................... 41

16 RESOLUÇÃO DE SISTEMAS DE EQUAÇÕES LINEARES........................... 44

17 MÉTODO DE ELIMINAÇÃO DE GAUSS ....................................................... 44

18 MÉTODO DE ELIMINAÇÃO DE GAUSS-JORDAN ........................................ 47

19 DETERMINANTES E SUAS PROPRIEDADES .............................................. 48

19.1 Expansão em cofatores .............................................................................. 50

20 DETERMINANTES DA MATRIZ INVERSA .................................................... 52

21 AUTOVALORES E DIAGONALIZAÇÃO DE MATRIZES ............................... 54

22 ESPAÇOS VETORIAIS: EXEMPLOS E PROPRIEDADES BÁSICAS ........... 57

22.1 Subespaços vetoriais .................................................................................. 60

22.2 Subespaços gerados .................................................................................. 61

22.3 Um conjunto como espaço vetorial ............................................................. 62

23 UM SUBCONJUNTO COMO SUBESPAÇO VETORIAL ................................ 63

24 DEPENDÊNCIA E INDEPENDÊNCIA LINEAR .............................................. 64

25 GERADOR E MATRIZ INVERSA ................................................................... 65

2
26 COMBINAÇÕES LINEARES E GEOMETRIA ................................................ 67

27 REFERÊNCIAS BIBLIOGRÁFICAS ............................................................... 70

27.1 Bibliografia Básica ...................................................................................... 70

27.2 Bibliografia Complementar.......................................................................... 70

3
1 INTRODUÇÃO

Prezado aluno!

O Grupo Educacional FAVENI, esclarece que o material virtual é semelhante ao


da sala de aula presencial. Em uma sala de aula, é raro – quase improvável - um aluno
se levantar, interromper a exposição, dirigir-se ao professor e fazer uma pergunta, para
que seja esclarecida uma dúvida sobre o tema tratado. O comum é que esse aluno faça
a pergunta em voz alta para todos ouvirem e todos ouvirão a resposta. No espaço virtual,
é a mesma coisa. Não hesite em perguntar, as perguntas poderão ser direcionadas ao
protocolo de atendimento que serão respondidas em tempo hábil. Os cursos à distância
exigem do aluno tempo e organização. No caso da nossa disciplina é preciso ter um
horário destinado à leitura do texto base e à execução das avaliações propostas. A
vantagem é que poderá reservar o dia da semana e a hora que lhe convier para isso. A
organização é o quesito indispensável, porque há uma sequência a ser seguida e prazos
definidos para as atividades.

Bons estudos!

4
2 DEFINIÇÃO E CLASSIFICAÇÃO DE MATRIZES

Para que você desenvolva uma intuição inicial sobre matrizes, considere o
seguinte exemplo hipotético: você e uma amiga são agentes autônomos e atuam em um
escritório ofertando produtos financeiros a clientes que queiram investir na formação de
poupança. Os produtos financeiros são: fundos de renda fixa (RF), fundos multimercado
(M) e planos de previdência (P). Para o mês de janeiro, você e sua amiga elaboraram um
quadro com o quantitativo (Quadro 1) que cada um ofertou desses produtos (SILVA,
2012).

Os números apresentados nesse quadro podem ser representados como:

O arranjo acima corresponde a uma matriz, e cada número desse arranjo é


denominado de elemento da matriz. Cada linha representa o quanto de cada produto
financeiro você e sua amiga ofertaram por exemplo, na segunda linha, é visto que sua
amiga ofertou 20 fundos de renda fixa, 8 fundos multimercado e 16 planos de previdência.
Já cada coluna representa o quanto você e sua amiga ofertaram de cada tipo de produto
financeiro por exemplo, a primeira coluna mostra que você ofertou 14 fundos de renda
fixa, e sua amiga ofertou 20 fundos desse mesmo tipo.
Dessa forma, uma matriz é simplesmente um agrupamento retangular de
números dispostos regularmente em linhas e colunas.

5
O tamanho de uma matriz é definido pelo número de linhas e colunas que ela
contém. Assim, uma matriz é dita ser do tipo (leia-se m por n) quando ela tem
m linhas e n colunas. No exemplo anterior, a matriz que representa
o quantitativo de produtos financeiros ofertados por você e sua amiga no mês de janeiro
é do tipo
Consequentemente, pode-se desenvolver uma classificação de diferentes tipos
de matrizes baseada no tamanho delas (SILVA, 2012).

2.1 Matriz retangular

É aquela na qual o número de linhas e colunas é diferente, isto é


A matriz a seguir é retangular, pois é do tipo 2 × 3:

Outro exemplo desse tipo de matriz seria o seguinte, que é uma matriz do tipo 3
× 2:

2.2 Matriz quadrada

É aquela que contém o mesmo número de linhas e colunas, isto é,


Esse é o caso de uma matriz do tipo 2 × 2:

2.3 Matriz coluna

É um caso particular de matriz retangular, composta por uma única coluna. Por
isso, é do tipo
O exemplo a seguir mostra uma matriz coluna do tipo 3 × 1.

6
2.4 Matriz linha

É outro caso particular de matriz retangular, pois é composta por uma única linha
e, por isso, do tipo
O exemplo a seguir mostra uma matriz linha do tipo 1 × 2.

Outra classificação importante de matrizes envolve os elementos da matriz.


Considere a matriz A dada por:

O elemento que aparece na intersecção da primeira linha com a


segunda coluna é o número 0. Assim, ele pode ser representado de forma mais
geral como. Dessa maneira, cada elemento da matriz é representado por
uma “coordenada de localização” na matriz dada por em que o índice i indica a
linha, e o índice i indica a coluna em que se pode localizar um determinado elemento da
matriz (SILVA, 2012).
Neste exemplo, os elementos da matriz são identificados como: Ou
seja:

Para a matriz do tipo 2 × 3 dada por:

7
Os elementos da matriz são identificados como:

2.5 Matriz diagonal

Os elementos da diagonal principal de uma matriz são aqueles em que i = j, ou


seja, etc.
Uma matriz quadrada em que os elementos fora da diagonal principal são todos
nulos, isto é, para é dita ser diagonal (SILVA, 2012).
No exemplo a seguir, a matriz B é diagonal, pois os elementos são
nulos.

2.6 Matriz triangular

Há dois tipos de matriz triangular: a superior, em que os elementos abaixo da


diagonal principal são nulos, ou seja:

E a inferior, em que os elementos acima da diagonal principal são nulos, ou seja:

8
2.7 Matriz escalar

É uma matriz diagonal em que todos os elementos são iguais.

2.8 Matriz identidade

É um caso particular da matriz escalar, pois todos seus elementos da diagonal


principal são iguais à unidade, isto é, para
Uma notação convencional para a matriz identidade é rotulá-la por
(SILVA, 2012).
A matriz identidade do tipo 3 × 3 é:

E a matriz identidade do tipo 2 × 2 é:

2.9 Matriz transposta

Dada uma matriz A:

Do tipo 2 × 3, a matriz transposta de A, denotada por, é obtida pela


transposição entre a primeira linha e a primeira coluna, e entre a segunda linha e a
segunda coluna, resultando em uma matriz do tipo 3 × 2:

9
2.10 Matriz simétrica

Uma matriz quadrada é simétrica quando o que implica na seguinte


relação entre os elementos da matriz fora da diagonal principal:
Por exemplo, a matriz a seguir é simétrica, uma vez que

Em contrapartida, uma matriz quadrada é antissimétrica se Por


0 1
exemplo, A=[ ] são antissimétrica, pois:
−1 0

2.11 Matriz nula

É aquela matriz em que todos os elementos são nulos, isto é, para


qualquer valor de (SILVA, 2012).

10
3 OPERAÇÕES COM MATRIZES

Depois de conhecidos os diferentes tipos de matrizes, você aprenderá como


efetuar algumas operações importantes com matrizes, tais como: adição, subtração,
multiplicação por um escalar e, finalmente, multiplicação entre matrizes (SILVA, 2012).

4 IGUALDADE

Duas matrizes são iguais quando elas têm o mesmo tamanho, e seus elementos
são todos iguais. Se as matrizes quadradas A e B do tipo 2 × 2 são iguais, então

11
5 ADIÇÃO

A operação de adição entre duas matrizes A e B de mesmo tamanho é realizada


por meio da soma direta dos elementos de cada matriz, que estão localizados em uma
mesma linha e uma mesma coluna, ou seja,

A operação de adição tem duas propriedades importantes, descritas a seguir


(SILVA, 2012).

5.1 Propriedade comutativa

Dadas duas matrizes A e B, o resultado das somas A + B e B + A é igual.

12
5.2 Propriedade associativa

Dadas três matrizes A,B e C, o resultado da soma (A + B) com C é igual ao da


soma de A com B + C (SILVA, 2012).

5.3 Subtração

A operação de subtração entre duas matrizes A e B de mesmo tamanho é


realizada por meio da subtração direta dos elementos de cada matriz, que estão
localizados em uma mesma linha e uma mesma coluna, ou seja,

13
6 MULTIPLICAÇÃO DE UMA MATRIZ POR UM ESCALAR

Um escalar é simplesmente um número puro (que também pode ser visto


como uma matriz 1 × 1). Então, a multiplicação de uma matriz A por um escalar qualquer
implica que cada elemento da matriz será multiplicado pelo escalar. (SILVA, 2012).
Por exemplo, se c = 2, então:

Observe que, nesse processo de multiplicação, a matriz resultante tem o mesmo


tamanho da matriz original A.
A operação de multiplicação de uma matriz por um escalar apresenta algumas
propriedades, que são descritas a seguir (SILVA, 2012).

 Dadas duas matrizes A e B e um escalar c, o resultado da multiplicação


do escalar pela soma das matrizes, é igual à soma das

matrizes já multiplicadas individualmente pelo escalar,

 Dada uma matriz A e dois escalares c e d, o resultado da soma dos


escalares multiplicado pela matriz, é igual à soma da matriz
multiplicada individualmente por cada um dos escalares,

 Dada uma matriz A e dois escalares c e d, o resultado da multiplicação de


um escalar pela matriz já multiplicada pelo outro escalar, é igual ao produto
dos escalares multiplicado pela matriz,

14
7 MULTIPLICAÇÃO ENTRE MATRIZES

A multiplicação entre matrizes exigirá de você um pouco mais de atenção. A única


condição necessária para que se possa multiplicar duas matrizes, A e B, é que o número
de colunas da matriz A seja igual ao número de linhas da matriz B. Assim, se a matriz A
é do tipo m × n, e a matriz B é do tipo p × q, então o produto AB entre as matrizes somente
ocorre se n = p.
Além disso, o resultado final dessa multiplicação entre as matrizes A e B será
uma nova matriz do tipo m × q, ou seja, com o mesmo número de linhas da matriz A, mas
com o mesmo número de colunas da matriz B. Em particular, para o caso de duas
matrizes quadradas de mesmo tamanho, a matriz resultante do produto entre elas será
do mesmo tamanho que elas.
A existência dessa relação entre o número de colunas de uma matriz com o
número de linhas da outra decorre da necessidade de se envolver um mesmo número de
elementos para multiplicação entre as matrizes (SILVA, 2012).
Considere o seguinte exemplo: uma matriz A do tipo 2 × 3, dada por:

E uma matriz B do tipo 3 × 1, dada por:

Como o número de colunas de A, que é 3, é igual ao número de linhas de B, que


também é 3, essa multiplicação é possível. Observe também que a multiplicação de uma
matriz do tipo 2 × 3 (A) por uma matriz do tipo 3 × 1 (B) resulta em uma matriz do tipo 2
× 1 (AB).
Operacionalmente, a multiplicação ocorre da seguinte maneira: multiplica-se a
primeira linha da matriz A pela coluna da matriz B, elemento por elemento na ordem que
estão dispostos o primeiro elemento da primeira linha de A, 1, com o primeiro elemento
15
da coluna de B, 2, segundo elemento da primeira linha de A, 1, com o segundo elemento
da coluna de B, 3, e assim por diante somando-se os produtos individuais desses
elementos, 1 ∙ 2 + 1 ∙ 3 + 2 ∙ 1 = 7, cujo resultado será o primeiro elemento da matriz
coluna resultante do produto entre A e B. Repete-se o mesmo procedimento para a
segunda linha da matriz A, multiplicando-a com a primeira coluna da matriz B, cujo
resultado, 2 ∙ 2 + 3 ∙ 3 + 3 ∙ 1 = 13, corresponderá ao segundo elemento da matriz coluna
resultante do produto entre A e B (SILVA, 2012).
Veja:

Agora, considere uma nova matriz A do tipo 1 × 2, dada por:

E uma nova matriz B do tipo 2 × 2, dada por:

Nesse caso, o resultado da multiplicação da matriz A pela matriz B será uma


matriz do tipo 1 × 2. Agora, para você calcular o produto AB, deve multiplicar a linha da
matriz A pela primeira coluna da matriz B, 1 ∙ 2 + 3 ∙ 2 = 8, cujo resultado fornece o
primeiro elemento da matriz linha resultante do produto entre A e B. O segundo elemento
dessa matriz é obtido pela multiplicação da linha da matriz A com a segunda coluna da
matriz B, 1 ∙ 3 + 3 ∙ 1 = 6. Veja:

O último tipo de multiplicação de matrizes relevante é a multiplicação entre duas


matrizes quadradas. Considere duas matrizes do tipo 2 × 2, dadas por:
16
A matriz resultante do produto AB também será uma matriz quadrada do tipo 2 ×
2 e é operacionalmente obtida como:

Logo:

A operação de multiplicação entre matrizes apresenta algumas propriedades


importantes. Considere três matrizes A, B e C, cujos tamanhos permitem realizar as
operações de soma e multiplicação para cada situação de interesse (SILVA, 2012).

7.1 Propriedade associativa

O resultado da multiplicação da matriz A pelo produto das matrizes B e C é igual


ao produto das matrizes A e B multiplicado pela matriz C:

7.2 Propriedade distributiva

À direita: o resultado da multiplicação da soma das matrizes A e B pela matriz C


é igual à soma dos produtos das matrizes A com C e B com C:

À esquerda: o resultado da multiplicação da matriz A pela soma das matrizes B


e C é igual à soma dos produtos das matrizes A com B e A com C:

17
Contudo, vale a pena observar que, em geral, o produto entre duas matrizes não
é comutativo, isto é, AB ≠ BA (note que o produto entre dois escalares é sempre
comutativo, ou seja, 2 ∙ 3 = 3 ∙ 2 = 6).
Para que você entenda isso, considere duas matrizes quadradas do tipo 2 × 2.

O produto AB é dado por:

O produto BA é dado por:

Logo, quando você compara elemento por elemento em cada uma das matrizes
resultantes de AB e BA (por exemplo, você percebe
que eles são todos diferentes (SILVA, 2012).
No entanto, a partir desse tratamento geral para o produto de duas matrizes, é
possível extrair algumas condições particulares que possibilitam gerar AB = BA. Uma
primeira condição surge quando uma das matrizes é a matriz identidade. Por exemplo,
se B = I, então o produto entre A e I será comutativo:

(Faça nos resultados acima de AB e BA.)

18
A segunda condição particular é aquela em que as duas matrizes são diagonais,
𝑎11 0 𝑏 0
ou seja, A= [ ] e B= [ 11 ]. Nesse caso, o produto entre as duas matrizes é
0 𝑎22 0 𝑏22
comutativo, pois:

(Faça nos resultados acima de AB e BA.)

8 EQUAÇÃO MATRICIAL

Uma equação matricial é uma relação de igualdade entre duas ou mais matrizes,
assim como ocorre com os escalares por exemplo, 2x – 4 = 0.
Algumas equações matriciais típicas são A + B = C; A – 2B = 3C; AX = B; A² = X
e assim por diante (SILVA, 2012).

9 APLICAÇÕES COM MATRIZES

Reconsidere o exemplo discutido no início deste capítulo, em que você e sua


amiga são agentes autônomos. A matriz que representa o quantitativo de produtos
financeiros ofertados por você e sua amiga no mês de janeiro é:

Para o mês de fevereiro, o quantitativo de produtos financeiros ofertados por você


e sua amiga é:

19
Portanto, a quantidade de diferentes produtos financeiros que vocês ofertaram
nesses dois meses é:

Logo, você ofertou 24 fundos de renda fixa e fundos multimercado, enquanto sua
amiga ofertou 30 fundos de renda fixa e 22 fundos multimercados (SILVA, 2012).
Agora, considere que vocês recebem uma comissão para cada produto financeiro
ofertado. Para fundos de renda fixa, a comissão é de R$ 100,00 por produto ofertado. Já
para os fundos multimercados e os planos de previdência, as comissões são,
respectivamente, de R$ 120,00 e R$ 150,00 por produto ofertado. Para saber o valor total
que cada um de vocês receberá de comissão ao final desses dois meses, basta primeiro
criar uma matriz do tipo 3 × 1, em que cada elemento será o valor da comissão para cada
produto. Assim:

Depois, você pode multiplicar o resultado da soma das matrizes A e B, ou seja,


A + B, com a matriz C:

Portanto, nesses dois meses, você receberá um total de R$ 9.330,00 de


comissão, e sua amiga receberá um total R$ 9.840,00 (SILVA, 2012).

20
10 INVERSA DE UMA MATRIZ

Uma operação simples na álgebra de escalares é a divisão de um número por


ele mesmo, cujo resultado é igual à unidade. Assim, se N é um número qualquer
e então:

Por exemplo, para N = 3:

Aqui, o número representa o inverso do número de modo que


qualquer número multiplicado por seu inverso será igual à unidade (SILVA, 2012).

21
Esse conceito também pode ser estendido para as matrizes com a devida
adaptação. Com efeito, se A for uma matriz quadrada, e B for outra matriz quadrada de
mesmo tamanho, então, a verificação de uma relação do tipo:

Onde a matriz identidade, implica necessariamente que B é a matriz


inversa de A. Desse modo, você pode fazer a seguinte identificação:
Logo:

No entanto, vale a pena fazer a seguinte ressalva: diferentemente dos escalares,


não existe a relação para matrizes, ou seja, não é possível dividir algo
(um escalar ou mesmo uma matriz) por uma matriz. (SILVA, 2012).
Para exemplificar como o conceito de matriz inversa pode ser visto, considere a
matriz A dada por:

Cuja matriz inversa é a B:

Pois:

22
Para o caso de uma matriz quadrada do tipo 2 × 2, é possível desenvolver uma
solução geral para se determinar sua inversa (SILVA, 2012).
Sejam a, b, c e d os elementos de uma matriz A:

E sejam x, y, z e t os elementos da matriz inversa de A:

Que são, em princípio, desconhecidos. A fim de se determinar os elementos


dessa matriz inversa, a partir do conhecimento dos elementos de A, é necessário que a
seguinte relação seja verificada:

A relação anterior conduz a um conjunto de quatro equações a quatro variáveis,


x, y, z e t, pois os elementos a,b, c e d são supostamente conhecidos a partir de uma
dada matriz A. Logo:

A partir das duas primeiras equações, determina-se x e y (por exemplo, basta


isolar a variável x na primeira equação, e substituir na segunda,

Obtendo-se a variável y, que, depois, pode ser substituída na primeira equação,


a fim de se obter x). Desse modo:

23
A partir das duas últimas equações, determinam-se z e t (por exemplo, basta
isolar a variável z na terceira equação, e substituir na quarta,
Obtendo-se a variável t, que, depois, pode ser substituída na terceira equação, a
fim de se obter z). Desse modo:

Como o fator é comum a todos os elementos da matriz inversa,

Você pode fatorá-lo na montagem da matriz inversa, de maneira que:

No exemplo inicial proposto, os elementos da matriz A eram:

E portanto, pelo resultado anterior, a matriz inversa ficaria:

Que é exatamente a matriz B, inicialmente considerada como sendo a matriz


inversa de A (SILVA, 2012).
Uma consequência direta desse resultado para uma matriz do tipo 2 × 2 é que a
matriz inversa existe somente se o denominador (ad – bc) for diferente de 0. Observe que
a quantidade (ad – bc) nada mais é que o determinante da matriz A. Caso contrário, se
(ad – bc) = 0, a matriz inversa não existe, pois, todos os elementos da matriz inversa
estariam divididos por 0. Nesse sentido, diz-se que a matriz é invertível.

24
Existem algumas propriedades envolvendo as matrizes inversas que valem a
pena ser conhecidas.

10.1 Propriedade 1

Se uma matriz A contém uma inversa, então, a inversa da matriz inversa é


a própria matriz A:

No exemplo apresentado, você viu que:

Então, calculando a inversa dessa matriz

Que é exatamente a matriz A.

10.2 Propriedade 2

Considere duas matrizes A e B, ambas invertíveis, então, a inversa do produto


entre elas, AB, será igual ao produto das inversas de (SILVA, 2012).

Por exemplo, para as matrizes:

25
As respectivas matrizes inversas são:

Já o produto entre as matrizes A e B é:

Então, a matriz inversa desse produto é:

Mas o produto da matriz inversa de com a matriz inversa de


Também resulta em:

Logo, nesse exemplo, verifica-se a validade da expressão


(SILVA, 2012).

10.3 Propriedade 3

Se A é uma matriz quadrada, então, o produto de n vezes


ela mesma. Será igual a
Além disso, se a matriz inversa de A existe, então, a matriz também contém uma
inversa, que é dada por:

Por exemplo, para e a matriz:

Cuja inversa é:
26
Você tem que o quadrado de A é:

E a inversa dessa matriz é dada por:

No entanto, o quadrado da matriz é:

Que é exatamente igual a Logo, verifica-se explicitamente que

11 MATRIZ ORTOGONAL

Uma matriz A é dita ortogonal se sua matriz transposta é igual à sua matriz
inversa:

Assim como para uma matriz ortogonal, vale também:

Um bom exemplo de matriz ortogonal surge na física, envolvendo a rotação de


corpos rígidos ou sistemas de referência no plano (SILVA, 2012).
Nesse caso, a matriz de rotação é dada por:
27
A matriz transposta de R (obtida trocando a primeira linha pela primeira coluna,
e a segunda linha pela segunda coluna) é:

Então, efetuando o produto entre você tem:

Em que se empregou a identidade trigonométrica


Similarmente:

Embora o resultado obtido para encontrar a matriz inversa de uma matriz do tipo
2 × 2:

Seja muito útil e relativamente fácil de ser construído, desenvolver o mesmo


procedimento que conduziu a esse resultado para obter a matriz inversa de matrizes de
tamanhos maiores pode ser algo extremamente trabalhoso.
Outro método que você pode utilizar para encontrar a matriz inversa de matrizes
de qualquer tamanho envolve apenas operações elementares sobre linhas (SILVA,
2012).
A ideia básica é perfilar, lado a lado, uma matriz A que se quer determinar a
inversa, e a matriz identidade I, ambas de mesmo tamanho, da seguinte maneira:

28
Se você multiplicar essa relação por pela esquerda, você tem:

Observe atentamente que essa operação fez com que, no lado esquerdo,
aparecesse a matriz identidade, mas, principalmente, do lado direito, surge a matriz
inversa de A (SILVA, 2012).
Portanto, se você executar operações elementares entre linhas, tal como
multiplicar uma linha por uma constante ou somar uma linha com outra linha, de modo a
transformar a matriz A do lado esquerdo em uma matriz identidade, então, a matriz
resultante que aparece no lado direito após esse processo é essencialmente a matriz
inversa de A:

Como um primeiro exemplo sobre esse método, considere novamente a matriz A


dada no exemplo inicial deste capítulo:

Fazendo o perfilamento entre A e I, você tem:

Agora, você deve efetuar algumas operações elementares sobre essa "matriz 2
× 4", a fim de transformar o bloco 2 × 2 do lado esquerdo em uma matriz identidade.
Para isso, multiplique toda a segunda linha por –3:

29
E a nova segunda linha fica:

Então, some os elementos da primeira linha com os da segunda, um a um,


mantendo a mesma ordem:

Esses resultados vão compor a nova segunda linha:

Multiplique a segunda linha por –1:

E a nova segunda linha fica:

Note que a segunda linha do lado esquerdo já tem a aparência da segunda linha
de uma matriz identidade (SILVA, 2012).
Agora, multiplique a segunda linha por –5 e, depois, some com a primeira linha:

E a nova primeira linha fica:

30
Por fim, dívida toda a primeira linha por:

E a nova primeira linha fica:

Observe que, do lado esquerdo, apareceu a matriz identidade. Portanto, do lado


direito dessa relação, você tem exatamente a matriz inversa de A:

Esse resultado para a matriz inversa de certamente já era esperado, pois ele já
foi obtido de outra maneira no início desta seção. No entanto, exatamente por já ser um
resultado conhecido, você pode desenvolver a aplicação desse método de obtenção da
matriz inversa com mais segurança.
A partir deste ponto, você já tem condições de empregar o método de inversão
de matrizes para matrizes maiores que uma do tipo 2 × 2. Essa é a grande vantagem
desse método (SILVA, 2012).
Então, para um segundo exemplo de uso do método, considere a seguinte matriz
quadrada do tipo 3 × 3:

Para você encontrar é necessário perfilar a matriz C com a matriz


identidade de mesmo tamanho:

31
Multiplique a primeira linha por –1 e some com a última linha:

E a nova terceira linha fica:

Agora, multiplique a primeira linha por –2 e some com a segunda linha:

E a nova segunda linha fica:

Multiplique a segunda linha por 2 e some com a terceira linha:

E a nova terceira linha fica:

Multiplique a última linha por –1:

E a nova terceira linha fica:

32
Aqui, você já conseguiu obter a última linha de uma matriz identidade do tipo 3 ×
3 do lado esquerdo (SILVA, 2012).
Agora, o próximo passo é transformar a segunda linha do lado esquerdo na
segunda linha de uma matriz identidade. Então, multiplique a terceira linha por 3 e some
com a segunda linha:

E a nova segunda linha fica:

Que, no lado esquerdo, já corresponde à segunda linha da matriz identidade do


tipo 3 × 3. Agora, resta transformar apenas a primeira linha. Para isso, multiplique a última
linha por –3 e some com a primeira linha:

E a nova primeira linha fica:

Por fim, multiplique a segunda linha por –2 e some com a primeira linha:

E a nova primeira linha fica:

33
Observe que, finalmente, a matriz que aparece do lado esquerdo é a matriz
identidade do tipo 3 × 3. Portanto, a matriz inversa de C é dada por:

Em princípio, você pode obter a matriz inversa, desde que ela exista de uma dada
matriz quadrada de qualquer tamanho, por meio desse método (SILVA, 2012).

12 SISTEMAS DE EQUAÇÕES LINEARES

Talvez a primeira questão que lhe venha à mente ao iniciar o seu estudo sobre o
conteúdo deste capítulo é: o que é uma equação linear? Então respondemos: uma
equação linear pode ser uma equação da reta no plano (que tem duas dimensões
bidimensional), que pode ser escrita como:

Em que a e b são duas constantes. Por exemplo,


Assim, sabendo o valor da variável x, é possível determinar o valor de y e, com
essas duas informações, localizar um ponto qualquer no plano. Nesse exemplo, se então,
Se uma reta no plano é descrita por uma equação linear, duas
retas nesse mesmo plano serão descritas por duas equações lineares. Pronto! Agora
você tem um sistema de duas equações lineares. O sistema seguinte exemplifica isso
(SILVA,2012).

O esboço do gráfico dessas duas retas aparece na Figura 1a. Observe que essas
duas retas contêm um ponto P em comum, demarcando o local no plano onde elas se
encontram. Encontrar os valores das variáveis x e y desse ponto P significa resolver esse
sistema de duas equações lineares. Essa tarefa é simples nesse exemplo. Igualando as
34
duas equações de reta, você encontra o valor de 4 para a variável x. Logo, substituindo
esse valor de x em qualquer uma das duas equações de reta, você
obtém o valor de
Será que sempre é possível resolver um sistema de equações lineares? A
resposta é dada na Figura 1b. Veja que se trata de duas retas
paralelas, ou seja, um sistema de duas equações lineares. E, por isso, elas não se
encontram para nenhum valor de x (ou y). Logo, não há solução para esse sistema.

De modo geral, uma reta no plano pode ser escrita como:

Em que a, b e c são constantes. Já a equação geral de um plano no espaço


tridimensional (comprimento × largura × altura) pode ser escrita como:

Em que a, b, c e d são constantes (SILVA, 2012).


Com efeito, uma equação linear de n variáveis é uma equação do
tipo:

35
Em que os coeficientes e b são todos constantes (SILVA, 2012).
Para uma reta no plano, são as variáveis, e a equação
linear fica por outro lado, equações do tipo:

Não são lineares, pois, nas equações lineares, as variáveis aparecem apenas na
potência 1 (lembre-se de que
E multiplicadas apenas por coeficientes constantes. As variáveis não estão
multiplicadas entre si nas equações lineares. Dessa maneira, o conjunto de mais de uma
equação linear constitui um sistema de equações lineares (SILVA, 2012).
Um exemplo de sistema de equações lineares do tipo 2 × 2 (são duas equações
para duas variáveis) é:

A solução desse sistema pode ser obtida da seguinte maneira. Resolvendo a


primeira equação para y, você obtém.
Substituindo esse resultado na segunda equação, você terá uma equação
apenas para a variável
Agora, um exemplo de sistema de equações lineares do tipo 3 × 3 (são três
equações para três variáveis) é:

A solução desse sistema demanda um pouco mais de trabalho. Resolvendo a


primeira equação para y, você obtém
Assim, você pode reescrever a segunda equação para z como uma função
apenas da variável

36
Substituindo esses dois resultados para y e z, como funções de x, na terceira
equação, você encontra o valor da variável x que satisfaz esse sistema:
logo,
Com efeito,
É possível que dois sistemas lineares contenham o mesmo conjunto de soluções,
e, por isso, eles são denominados de sistemas lineares equivalentes. Como exemplo,
dois sistemas de equações lineares equivalentes são:

Pois é a mesma solução para ambos. Contudo, perceba que é


mais simples resolver o segundo sistema, que já fornece diretamente o valor de uma das
variáveis, do que resolver o primeiro (SILVA, 2012).

13 SISTEMAS HOMOGÊNEO E NÃO HOMOGÊNEO

Os sistemas de equações lineares podem ser de dois tipos: não homogêneo e


homogêneo. Um sistema de equações lineares não homogêneo do tipo 3 × 3 é dado por:

Onde os coeficientes são constantes.


Um olhar mais atento para esse sistema de equações lineares indica que ele
apresenta naturalmente uma estrutura matricial, ou seja, você pode reescrevê-lo como
um produto entre matrizes. De fato, ele pode ser visto como uma matriz coluna do tipo 3
× 1, que resulta do produto entre uma matriz dos coeficientes, do tipo 3 × 3, pela matriz
coluna das variáveis, do tipo 3 × 1. Veja:

37
Onde:

É a matriz dos coeficientes que aparecem multiplicando as variáveis.


Agora, quando a matriz coluna das constates for nula (SILVA, 2012).

O sistema de equações lineares resultante é denominado de homogêneo:

Ou seja:

E como a matriz dos coeficientes não é nula em geral, então uma possível
solução é aquela em que:

Ou seja, que também é conhecida como solução trivial, pois


todas as variáveis são nulas. Por exemplo, um sistema linear homogêneo do tipo 2 × 2
pode ser:

Cuja representação matricial é:

38
Aqui, é solução do sistema. Observe atentamente que essas duas
equações lineares representam retas que passam pela origem; que é exatamente o ponto
onde elas se cruzam (SILVA, 2012).
Além da solução trivial, um sistema linear homogêneo pode admitir infinitas
soluções. Esse é o caso quando o número de variáveis é maior que o de equações. Por
exemplo, o sistema linear homogêneo:

Cuja representação matricial é da forma:

Contém duas equações e três variáveis: x, y e z. Resolvendo a primeira equação


para z, você obtém:
Substituindo esse resultado na segunda equação:

Que resulta em:

Portanto, uma vez escolhido um valor para a variável y, você encontra os valores
correspondentes das variáveis x e z. Exatamente por haver infinitas possibilidades de
escolha de valor para y, que o sistema contém infinitas soluções. Por exemplo, se:

39
14 SISTEMAS LINEARES COM UMA EQUAÇÃO MATRICIAL

Todo sistema de equações lineares contém naturalmente uma estrutura matricial.


Para que você perceba isso, considere um sistema do tipo 2 × 2 qualquer:

A estrutura do lado esquerdo dessas duas equações lineares é tipicamente igual


àquela que envolveria o produto entre duas matrizes: uma matriz quadrada do tipo 2 × 2
para os coeficientes em que e outra matriz coluna do tipo 2 × 1 para
as variáveis em que j = 1, 2. Dessa forma, você pode escrever (SILVA, 2012).

Similarmente, as constantes 𝑏𝑖 em que que aparecem do lado direito


das equações lineares anteriores, também podem ser postas em um formato matricial
mais especificamente, como uma matriz coluna do tipo 2 × 1:

Com efeito, o sistema de equações lineares pode ser substituído por uma
representação em forma de equação matricial do tipo:

Em que a matriz A:

É denominada de matriz dos coeficientes, a matriz X

40
É a matriz das variáveis, e a matriz B:

É a matriz das constantes.


Uma vez estabelecida a relação entre sistemas de equações lineares e
matriciais, você pode encontrar a solução de tais sistemas por meio das matrizes.
(SILVA, 2012). Veja como isso é possível: se a matriz dos coeficientes A é quadrada e
admite a existência de uma inversa então, você pode determinar a matriz das
variáveis por multiplicar a equação matricial do sistema por pela esquerda:

Em que I é a matriz identidade.


Portanto, a solução do sistema será dada pela matriz das variáveis X , calculada
por meio da relação:

Assim, torna-se necessário saber calcular a matriz inversa associada à matriz


dos coeficientes, a fim de se obter a solução do sistema.

15 SISTEMAS LINEARES COM MATRIZ INVERSA

Para que você coloque em prática os resultados da seção anterior e, portanto,


consiga resolver um sistema de equações lineares por meio da matriz inversa dos
coeficientes, considere o seguinte sistema do tipo 2 × 2:

41
Nesse caso, é fácil reconhecer a matriz dos coeficientes:

Enquanto que a matriz das variáveis é:

E a matriz das constantes é:

Afim de se determinar X por meio da equação matricial


É necessário calcular a matriz inversa de A (SILVA, 2012).
Então, perfilando a matriz A e a matriz identidade do tipo 2 × 2, você obtém:

Primeiro, multiplique a primeira linha por 3 e some com a segunda linha:

E a nova segunda linha fica:

Divida a segunda linha por 5:

E a nova segunda linha fica:

Agora, multiplique a segunda linha por –1 e some com a primeira linha:

42
E a nova primeira linha fica:

Multiplique a primeira linha por –1:

E a nova primeira linha fica:

Observe que você já tem, do lado esquerdo, uma matriz identidade do tipo 2 × 2.
Logo, a matriz inversa de A é dada por:

Por fim, para você determinar a matriz X, basta calcular o produto matricial

Logo, a solução desse sistema é dada por:

Em que:

43
16 RESOLUÇÃO DE SISTEMAS DE EQUAÇÕES LINEARES

Em situações envolvendo sistemas com apenas duas equações lineares de duas


variáveis, a solução pode ser obtida de forma direta (SILVA, 2012).
A partir de uma das equações, escreve-se uma relação que define uma variável
em função da outra e, então, substitui-se essa relação na segunda equação, o que
permite determinar uma das variáveis e, depois, a outra. Esse método foi empregado na
resolução dos sistemas apresentados acima. No entanto, já para um sistema do tipo 3 ×
3 e sistemas de equações lineares maiores, esse método é mais trabalhoso e, por
conseguinte, suscetível a erros de cálculo nas diversas passagens (SILVA, 2012).
Com efeito, torna-se necessária a utilização de um método que forneça um
procedimento operacional bem-definido, a fim de que a obtenção da solução para
qualquer tipo de sistema seja padronizada. A chave para isso você já viu no final da
primeira seção deste capítulo: dado um sistema, é interessante encontrar um sistema
equivalente que forneça a mesma solução para o sistema original, mas que seja mais
fácil de ser resolvido. Você verá, a seguir, dois métodos importantes para a resolução de
sistemas de equações lineares.

17 MÉTODO DE ELIMINAÇÃO DE GAUSS

O método de eliminação de Gauss consiste em substituir um dado sistema de


equações lineares por outro equivalente, que seja mais simples de ser solucionado e que
tenha a mesma solução do sistema original. Isso pode ser feito por meio de três tipos de
operações matemáticas que visam a eliminar variáveis.
Para que você entenda quais são essas operações que mantêm inalterada a
solução do sistema original, considere novamente o sistema do tipo 2 × 2:

Cuja solução é
As três operações elementares sobre linhas são as seguintes:
44
1) Multiplicar uma equação por uma constante

Se você multiplicar a primeira equação desse sistema por, então, o novo sistema
será:

Resolvendo a primeira equação para y, você obtém ou seja,


Substituindo esse resultado na segunda equação:
Então A solução original não foi alterada por essa operação elementar

2) Trocar de posição duas equações entre si.


Isso significa passar a primeira equação para o lugar da segunda, e vice-versa.
O novo sistema fica:

Daí, resolvendo a segunda equação para Substituindo esse


resultado na primeira equação: logo,
A solução original não foi alterada por essa operação elementar (SILVA, 2012).

3) Somar um múltiplo de uma equação a uma outra equação


Essa operação é menos óbvia. Primeiramente, construa um novo sistema,
multiplicando a primeira equação por 3 (operação i):

Agora, construa outro sistema no qual a segunda equação será igual à soma das
duas equações do sistema acima; ou seja, soma-se a primeira linha com a segunda do
sistema:

45
A segunda linha já fornece diretamente o valor da variável y: y = 5. Substituindo
esse resultado na primeira equação: então
Portanto, novamente a solução original não foi alterada por essa operação elementar
(SILVA, 2012).
Note que a aplicação das três operações fornece sistemas equivalentes, pois
conduz a soluções iguais. Contudo, é a operação (iii) que representa a essência do
método de eliminação de Gauss, pois, a partir dela, é possível obter um sistema
equivalente em que uma das equações tenha apenas uma variável. Como você já deve
ter percebido, as três operações acima agem apenas nos coeficientes e constantes
Por isso, é mais conveniente escrever a matriz aumentada do sistema para
aplicar o método da eliminação de Gauss. Uma vez que a matriz dos coeficientes
e a matriz da constantes é para o exemplo discutido acima, então, a matriz
aumentada fica sendo:

Agora, você executa as mesmas operações elementares sobre as linhas dessa


matriz aumentada.

Primeiro passo: multiplique a primeira linha por 3.

A primeira linha da nova matriz aumentada fica:

Segundo passo: some essa nova primeira linha com a segunda.

A segunda linha da nova matriz aumentada fica:

46
Observe que apareceu um zero no primeiro elemento da segunda linha
(destacado na cor verde). Se você restabelecer o formato de sistema novamente:

Note que, pela segunda linha, então


Substituindo esse resultado na primeira equação:
como você já esperava.
Nessa configuração, a matriz aumentada está em sua forma escalonada por
linhas, ou simplesmente forma escalonada, pois a estrutura da matriz assemelha-se à de
uma escada (SILVA, 2012).
Portanto, o método de eliminação de Gauss consiste em escalonar a matriz
aumentada, que essencialmente significa escalonar o sistema de equações lineares, de
modo a obter um novo sistema equivalente cuja resolução é mais simples e possui a
mesma solução do sistema original.

18 MÉTODO DE ELIMINAÇÃO DE GAUSS-JORDAN

Embora, nesse ponto, você já possa resolver o sistema como anteriormente a


partir do restabelecimento da forma usual do sistema, a representação escalonada lhe
permite avançar um pouco mais em direção à solução direta do sistema, sem a
necessidade de substituição do valor de uma variável em outra equação para determinar
mais uma variável, e assim por diante. A ideia básica é continuar a fazer operações
elementares sobre linhas.
Terceiro passo: Divida a primeira equação por 3, e a segunda por 5.

47
A primeira e segunda linhas da nova matriz aumentada ficam:

Quarto passo: multiplique a primeira equação por –1, e depois some a segunda
a ela.

A primeira linha da nova matriz aumentada fica:

Nessa nova configuração, a matriz aumentada está na forma escalonada


reduzida por linhas.
Quinto e último passo: restabeleça a forma usual do sistema

Você já tem a solução diretamente: esse arranjo final do sistema


(ou da matriz aumentada), em que os valores das variáveis são obtidos diretamente sem
cálculos adicionais, é conhecido como método de eliminação de Gauss-Jordan (SILVA,
2012).

19 DETERMINANTES E SUAS PROPRIEDADES

O determinante é um número associado a uma matriz quadrada. Antes de


introduzir sua definição precisa, apresentaremos alguns exemplos de casos particulares,
que podem ajudar na compreensão do caso geral. Seguiremos uma linha semelhante à
apresentada em Nicholson (2006).

Caso 2 × 2:
48
Consideremos a seguinte matriz:

O determinante da matriz A será denotado por det(A) e pode ser calculado da


seguinte maneira.

Como, em resumo, o produto dos elementos da diagonal principal (a da esquerda


para a direita) menos o produto dos elementos da diagonal secundária (a da direita para
a esquerda (Nicholson, 2006).
Essa propriedade é válida para matrizes dois por dois em geral, isto é, você
poderá utilizar a seguinte fórmula:

Um fato importante para se considerar em matrizes, de maneira geral, é que uma


matriz quadrada é invertível se, e somente se, seu determinante for diferente
de zero. Assim, os exemplos anteriormente apresentados são de uma matriz invertível a
matriz A e da matriz B , que não possui inversa (JUNIOR, 2006).
Para matrizes 2 × 2, cujo determinante seja não nulo, podemos ainda trabalhar
com a seguinte fórmula:

49
Caso 3 × 3

Para matrizes de tamanho 3 × 3, você poderá calcular o determinante utilizando


determinantes menores e cofatores (SILVA, 2012).

A partir dos cofatores, podemos calcular o determinante de uma matriz quadrada


utilizando a expansão do determinante em cofatores.

19.1 Expansão em cofatores

Seja uma matriz quadrada de números reais, a expansão em cofatores do


determinante da matriz a partir da k-ésima linha é dada por:

Essa fórmula permite calcular o determinante de matrizes de qualquer tamanho,


mas observe que o número de operações cresce de maneira muito rápida (JUNIOR,
2006).
O determinante de uma matriz 3 × 3 implica três determinantes de matrizes 2 ×
2 na sua expansão em cofatores. Já o determinante de uma matriz 4 × 4 implica quatro
50
determinantes de matrizes 3 × 3, sendo que cada um desses implica três determinantes
de matrizes 2 × 2, gerando um total de 12 determinantes 2 × 2.
Um ponto a ser destacado é que a expansão pode ser feita a partir de qualquer
uma das linhas. Não existe nenhuma restrição, mas, a fim de reduzir o número de
cálculos, é comum escolher a linha com a maior quantidade de zeros.
A seguir, apresentamos algumas das propriedades mais importantes do
determinante de uma matriz, que podem ser de muita utilidade no cálculo de
determinantes.

4) P1: o determinante da matriz nula é igual a zero.


5) P2: o determinante da matriz identidade é igual a um.
6) P3: o determinante é uma função linear de cada linha isto é, se multiplicarmos uma
linha por k, o determinante da matriz é multiplicado por k.
7) P4: se duas linhas (ou colunas) da matriz são iguais, ou múltiplo não nula uma da
outra, o determinante da matriz é igual a zero.
8) P5: se uma das linhas (ou colunas) for formada apenas por elementos nulos, o
determinante da matriz é igual a zero.
9) P6: se a matriz for triangular ou diagonal, o determinante é igual ao produto dos
elementos da diagonal da matriz (JUNIOR, 2006).

Veja, agora, um exemplo sobre matrizes triangulares.

51
Como dito anteriormente, a expansão em cofatores pode ser utilizada para
matrizes de qualquer dimensão, não apenas 2 × 2 ou 3 × 3 (JUNIOR, 2006).

20 DETERMINANTES DA MATRIZ INVERSA

Uma matriz possui inversa se, e somente se, seu determinante é diferente de
zero. Além disso, você também aprendeu a calcular a matriz inversa de uma matriz 2 ×
2, utilizando o determinante.
Agora, verá como utilizar a fórmula de expansão em cofatores para encontrar a
inversa de uma matriz quadrada de qualquer dimensão. Para tal, você precisará do
seguinte resultado (JUNIOR, 2006).

Teorema: seja uma matriz cujo determinante é diferente de zero, e então


sua matriz inversa pode ser calculada desta forma:

Em palavras, a matriz inversa de A é igual ao inverso do determinante de A


multiplicado à transposta da matriz de cofatores de A.
O resultado foi enunciado no caso 3 × 3, para facilitar a compreensão, mas pode
ser utilizado para matrizes de qualquer dimensão.
52
Um importante resultado sobre matrizes inversas é enunciado a seguir.

Teorema: dada uma matriz as afirmações listadas a seguir são


equivalentes.
1. é invertível.
2. det(A) ≠ 0
3. As n linhas de são linearmente independentes.

Outro fato importante sobre matrizes inversas é que elas são fortemente
relacionadas aos sistemas lineares. Considere um sistema de equações lineares
homogêneo, cuja forma matricial seja:

Fato: o sistema linear homogêneo anterior tem apenas a solução trivial se, e
somente se, a matriz A é invertível.
Esse fato nos fornece uma maneira simples e prática de verificar se a solução
trivial (vetor nulo) é a única de um sistema linear homogêneo (JUNIOR, 2006).
Concluímos esta seção com uma importante relação entre o determinante de
uma matriz e o determinante de sua inversa.
Teorema: seja uma matriz invertível, então:

Veja, a seguir, um exemplo de aplicação desse resultado.

53
Observe que a exigência de o determinante ser diferente de zero, A invertível é
necessária, uma vez que não se pode ter divisão por zero.

21 AUTOVALORES E DIAGONALIZAÇÃO DE MATRIZES

Nesta seção, você verá como calcular os autovalores de uma matriz e como
utilizá-los no processo de diagonalização de matrizes, essencial na resolução de
sistemas lineares (SILVA, 2006).
Um número é um autovalor de uma matriz se existe algum vetor
v, tal que:

Em palavras é um autovalor de se existir um vetor v , tal que, ao


aplicarmos sobre v obtemos Nesse caso, a operação de aplicar uma
transformação linear foi capsulada no produto por um número. Diremos, também, que v
é um autovetor de associado ao autovalor

54
Isso é equivalente a dizer que é um autovalor de se existir solução
para o sistema linear homogêneo
Outra maneira de procurar pelos autovalores de uma matriz é por meio do
polinômio característico. Dada uma matriz seu polinômio característico é definido
por:

Agora, você verá um resultado apresentado por Nicholson (2006), que nos
permite relacionar autovalores e autovetores com o processo de diagonalização de
matrizes (JUNIOR, 2006).

Teorema: seja uma matriz, então:


1. a é diagonalizável se, e somente se, ela possui autovetores tais que a
matriz é invertível;

55
2. quando esse for o caso, temos
onde é o autovalor associado ao autovetor

Veja um último exemplo sobre a diagonalização de matrizes (JUNIOR, 2006).

Um último resultado, extremamente interessante e relacionado ao polinômio


característico de uma matriz, é o Teorema de Cayley-Hamilton. Esse resultado, atribuído
aos matemáticos Arthur Cayley e William Hamilton, diz que uma matriz
é um zero de seu próprio polinômio característico. De maneira mais precisa, quer
dizer o seguinte

Teorema(Cayley-Hamilton): considere a matriz é o polinômio


característico da matriz então:

56
Esse teorema fornece um excelente teste para verificar se o cálculo do polinômio
característico foi efetuado de maneira correta (JUNIOR, 2006).

22 ESPAÇOS VETORIAIS: EXEMPLOS E PROPRIEDADES BÁSICAS

Um espaço vetorial E é um conjunto de vetores, no qual estão definidas


operações de soma e de multiplicação por um número real, de modo que dados vetores

Quando as condições anteriores são satisfeitas, podemos dizer que o conjunto E


é fechado em relação às operações de soma e multiplicação por número real.
Adicionalmente, essas operações devem satisfazer, para quaisquer α, β ∈ ℝ e u, v, w ∈
E, as seguintes condições, ditas axiomas do espaço vetorial (DANESI, 2018).

a) Comutatividade:
b) Associatividade:
c) Vetor nulo: existe dito vetor nulo, tal que, para todo

d) Inverso aditivo: para cada existe dito inverso aditivo


de u, tal que:

e) Distributividade:
f) Identidade por 1: para todo

Uma curiosidade é reparar que usamos o símbolo “0” tanto para o número real
zero quanto para o vetor nulo. Isso não será problema, pois uma consequência desses
axiomas é que

57
O exemplo trivial que poderíamos citar é o caso que e os vetores u
são as n-uplas de números reais. Ao invés dele, falaremos de um espaço vetorial muito
similar, mas que mostra uma flexibilidade da definição para outros tipos de conjuntos
(DANESI, 2018).

Esse exemplo não é muito diferente do porque existe uma identificação entre
os polinômios de grau n de coeficientes reais, definidos em ℝ, e as n-uplas de números
reais na medida em que:

58
Contudo, é válido imaginar o significado de um produto interno nesse espaço
vetorial, o que seriam polinômios ortogonais e as transformações lineares sobre esses
elementos (DANESI, 2018).
Antes de prosseguir com essas questões, vamos explorar um exemplo:

Esse exemplo é mais distante do porque uma função é definida pelas imagens
dos infinitos
Isso nos dá abertura para imaginarmos o conceito de dimensão aplicado a esse
conjunto. Como será que podemos definir uma base? Novamente, antes de falarmos
dessas questões mais avançadas, seguiremos com a próxima definição natural (DANESI,
2018).

59
22.1 Subespaços vetoriais

Seja E um espaço vetorial. Um subespaço vetorial (ou apenas subespaço) de E


é um subconjunto que ainda é um espaço vetorial em relação às operações de
E. Isto é, F apresenta as seguintes propriedades.

São considerados subespaços triviais de E o conjunto {0} que contém apenas o


vetor nulo e o próprio E. Aproveitando os exemplos anteriores, podemos dar os seguintes
subespaços não triviais (DANESI, 2018).

O espaço vetorial definido pelas funções contínuas em também nos dá


um exemplo de subespaço.

60
22.2 Subespaços gerados

Dado um conjunto de vetores contido no espaço vetorial E,

dizemos que u ∈ E é combinação linear de se existem

O conjunto de todas as combinações lineares dos vetores de B é dito gerado de B


(DANESI,2018).

Esse conjunto é subespaço vetorial de E, pois:

61
Dessa maneira, os vetores u + v e αu também são combinações lineares de B,
pois, para todo α ∈ ℝ:

Isso quer dizer que é fechado em relação às operações de E.

22.3 Um conjunto como espaço vetorial

Pelo que foi definido anteriormente, um conjunto E dotado de uma operação de


soma e uma operação de multiplicação por um número real é um espaço vetorial, se E
satisfaz as condições (i) e (ii) de fechamento das operações e as condições de (a) até (f)
das propriedades necessárias às operações (DANESI, 2018).
Podemos reescrever essa definição como um algoritmo, a fim de verificar se um
determinado conjunto E com duas operações é espaço vetorial.

1) Identificar o conjunto E de elementos que serão os vetores.


2) Identificar as operações de soma e multiplicação por escalar
3) Verificar as condições (i) e (ii), isto é, se as operações de soma e multiplicação
por escalar são fechadas em E.
4) Verificar as propriedades (a) até (f).
Exemplo de espaços que são comuns nas aplicações (DANESI, 2018).

62
23 UM SUBCONJUNTO COMO SUBESPAÇO VETORIAL

Como foi definido, dado E espaço vetorial, um subespaço vetorial (ou subespaço)
de E é um subconjunto que ainda é um espaço vetorial em relação às
operações de E. Isto é, F precisa ser fechado em relação às operações de E.
Confirmamos isso se verificarmos o seguinte.

 Se então
 Se então, para todo

A tarefa de determinar se um subconjunto é subespaço depende de um número


menor de condições por F herdar as operações do espaço E. Essas operações trazem,
de forma implícita, as propriedades (a) até (f), necessitando apenas mostrar que F é
fechado em respeito a essas operações (DANESI, 2018).
63
24 DEPENDÊNCIA E INDEPENDÊNCIA LINEAR

Dado um conjunto de vetores em diremos que o vetor


É uma combinação linear desses, se existirem em
tais que:

Veja, a seguir, um exemplo de combinação linear (DANESI, 2018).

Consideremos, agora, um conjunto de vetores que


diremos que é linearmente independente, se os únicos valores de
que tornam a combinação verdadeira, são

Em outras palavras, um conjunto de vetores é linearmente independente se, e


somente se, a única combinação deles, que resulta no vetor nulo, for a que apresenta
todos os coeficientes iguais a zero (JUNIOR, 2006).

64
Diremos que um conjunto é linearmente dependente se existirem coeficientes
tais que:

Isto é, existe uma combinação não nula que resulta no vetor nulo. Uma
interpretação importante de um conjunto linearmente dependente é que qualquer um dos
vetores desse conjunto pode ser escrito como combinação linear dos demais.
Um importante teorema sobre esse assunto é apresentado em Nicholson (2006).

Teorema: se é um conjunto linearmente independente,


então, todo vetor tem uma escrita única como combinação linear dos
vetores
Em palavras, se um conjunto de geradores é linearmente independente, cada
vetor do espaço gerado é escrito de maneira única, a menos da ordenação, como
combinação linear dos vetores geradores.

25 GERADOR E MATRIZ INVERSA

O último exemplo da seção anterior nos fornece uma bela ideia de como
conjuntos geradores estão relacionados com conjuntos linearmente independentes.
Agora, você verá de perto essa relação e como matrizes inversas e determinantes podem
ser utilizadas para auxiliar na identificação de conjuntos linearmente independentes de
vetores. O método do exemplo anterior pode ser sumarizado da seguinte maneira
(NICHOLSON, 2006).

Teste para independência linear: para verificar que um conjunto de vetores

é linearmente independente, proceda do seguinte modo.

1) Escreva uma combinação linear dos vetores e iguale ao vetor nulo:

65
2) Mostre que a única maneira de isso ocorrer é trivialmente, ou seja, com todos
os coeficientes iguais a zero.
É claro que, se existir alguma solução não trivial, o conjunto de vetores é
linearmente dependente (JUNIOR, 2006).

O sistema linear associado ao problema poderia ser escrito em forma matricial,


como:

Observe, primeiramente, que o sistema é homogêneo. Portanto, se a matriz


principal for invertível, ele admite como solução apenas o vetor nulo. Com efeito, a matriz
principal do sistema tem determinante igual 36 e, portanto, é invertível. Segue que a única
solução possível para esse sistema é a trivial. Resumindo o fato exposto, temos o
seguinte teorema (NICHOLSON, 2015).
Seja A uma matriz então as seguintes afirmações são equivalentes:

1) A é invertível.
2) As colunas de A são linearmente independentes em .
3) As colunas de A geram o espaço
4) As linhas de A são linearmente independentes em
5) As linhas de A geram o espaço

Esse método de verificar se a matriz é invertível para concluir sobre a


independência de um conjunto de vetores pode ser muito útil. Veja o exemplo a seguir.

66
26 COMBINAÇÕES LINEARES E GEOMETRIA

A geometria dos espaços e algumas de suas relações com conjuntos


geradores, dependência e independência linear (NICHOLSON, 2015).
Em continuação ao tópico anterior, um corolário imediato daquele teorema pode
ser enunciado como em Nicholson (2015).
Corolário: sejam vetores não nulos em ou 2 , então:

67
Esse simples resultado pode nos ajudar a estabelecer alguns testes muito úteis
para a compreensão de algumas propriedades geométricas. No plano euclidiano, por
exemplo, é muito importante conhecer quando dois vetores são paralelos (JUNIOR,
2006).
Veja o exemplo a seguir:

Uma consequência importante desse corolário é a possibilidade de determinar


se duas retas em são paralelas ou não, com o simples cálculo de um
determinante (NICHOLSON, 2015).
Em temos algumas possibilidades quanto à geometria de espaços gerados.
Conjuntos com um único vetor não nulo dão origem a retas em

68
Conjunto com dois vetores linearmente independentes geram, como subespaços,
planos em
Por fim, conjuntos com três vetores linearmente independentes geram o próprio
espaço
Unindo essa informação com a ideia de que, em transformações matriciais, as
colunas geram o espaço imagem, podemos determinar a geometria do espaço imagem
por meio da dependência ou independência linear dos vetores coluna da matriz da
transformação.
As relações de dependência e independência linear fornecem poderosas
informações sobre conjuntos de vetores. Futuramente, você aprenderá sobre o
importante papel que conjuntos geradores linearmente independentes exercem em
álgebra linear (JUNIOR, 2006).

69
27 REFERÊNCIAS BIBLIOGRÁFICAS

27.1 Bibliografia Básica

ANTON, Howard. Álgebra linear com aplicações. 8. ed. Porto Alegre: Bookman, 2001.
LIPSCHUTZ, Seymour.

Álgebra linear: teoria e problemas. 3. ed. São Paulo: Makron Books, 2004. 647p.
STRANG, Gilbert. Álgebra Linear e suas aplicações. São Paulo: Cengage, 2010.

27.2 Bibliografia Complementar

ANTON, H.; BUSBY, R. C. Álgebra linear contemporânea. Porto Alegre: Bookman,


2006.

ANTON, H.; RORRES, C. Álgebra linear com aplicações. 8. ed. Porto Alegre:
Bookman, 2003.

ANTON, H.; RORRES, C. Álgebra linear com aplicações. 8. ed. Porto Alegre:
Bookman, 2012. 786 p.

CRISPINO, M. L. 320 questões resolvidas de álgebra linear. Rio de Janeiro: Ciência


Moderna, 2012.

NICHOLSON, W. K. Álgebra linear. 2. ed. São Paulo: McGraw-Hill, 2006. 394 p

NICHOLSON, W. K. Álgebra linear. 2. ed. São Paulo: McGraw-Hill, 2006.

70

Você também pode gostar