Escolar Documentos
Profissional Documentos
Cultura Documentos
ÁLGEBRA LINEAR
GUARULHOS – SP
0
SUMÁRIO
1 INTRODUÇÃO .................................................................................................. 4
4 IGUALDADE ................................................................................................... 11
5 ADIÇÃO .......................................................................................................... 12
1
8 EQUAÇÃO MATRICIAL .................................................................................. 19
2
26 COMBINAÇÕES LINEARES E GEOMETRIA ................................................ 67
3
1 INTRODUÇÃO
Prezado aluno!
Bons estudos!
4
2 DEFINIÇÃO E CLASSIFICAÇÃO DE MATRIZES
Para que você desenvolva uma intuição inicial sobre matrizes, considere o
seguinte exemplo hipotético: você e uma amiga são agentes autônomos e atuam em um
escritório ofertando produtos financeiros a clientes que queiram investir na formação de
poupança. Os produtos financeiros são: fundos de renda fixa (RF), fundos multimercado
(M) e planos de previdência (P). Para o mês de janeiro, você e sua amiga elaboraram um
quadro com o quantitativo (Quadro 1) que cada um ofertou desses produtos (SILVA,
2012).
5
O tamanho de uma matriz é definido pelo número de linhas e colunas que ela
contém. Assim, uma matriz é dita ser do tipo (leia-se m por n) quando ela tem
m linhas e n colunas. No exemplo anterior, a matriz que representa
o quantitativo de produtos financeiros ofertados por você e sua amiga no mês de janeiro
é do tipo
Consequentemente, pode-se desenvolver uma classificação de diferentes tipos
de matrizes baseada no tamanho delas (SILVA, 2012).
Outro exemplo desse tipo de matriz seria o seguinte, que é uma matriz do tipo 3
× 2:
É um caso particular de matriz retangular, composta por uma única coluna. Por
isso, é do tipo
O exemplo a seguir mostra uma matriz coluna do tipo 3 × 1.
6
2.4 Matriz linha
É outro caso particular de matriz retangular, pois é composta por uma única linha
e, por isso, do tipo
O exemplo a seguir mostra uma matriz linha do tipo 1 × 2.
7
Os elementos da matriz são identificados como:
8
2.7 Matriz escalar
9
2.10 Matriz simétrica
10
3 OPERAÇÕES COM MATRIZES
4 IGUALDADE
Duas matrizes são iguais quando elas têm o mesmo tamanho, e seus elementos
são todos iguais. Se as matrizes quadradas A e B do tipo 2 × 2 são iguais, então
11
5 ADIÇÃO
12
5.2 Propriedade associativa
5.3 Subtração
13
6 MULTIPLICAÇÃO DE UMA MATRIZ POR UM ESCALAR
14
7 MULTIPLICAÇÃO ENTRE MATRIZES
Logo:
17
Contudo, vale a pena observar que, em geral, o produto entre duas matrizes não
é comutativo, isto é, AB ≠ BA (note que o produto entre dois escalares é sempre
comutativo, ou seja, 2 ∙ 3 = 3 ∙ 2 = 6).
Para que você entenda isso, considere duas matrizes quadradas do tipo 2 × 2.
Logo, quando você compara elemento por elemento em cada uma das matrizes
resultantes de AB e BA (por exemplo, você percebe
que eles são todos diferentes (SILVA, 2012).
No entanto, a partir desse tratamento geral para o produto de duas matrizes, é
possível extrair algumas condições particulares que possibilitam gerar AB = BA. Uma
primeira condição surge quando uma das matrizes é a matriz identidade. Por exemplo,
se B = I, então o produto entre A e I será comutativo:
18
A segunda condição particular é aquela em que as duas matrizes são diagonais,
𝑎11 0 𝑏 0
ou seja, A= [ ] e B= [ 11 ]. Nesse caso, o produto entre as duas matrizes é
0 𝑎22 0 𝑏22
comutativo, pois:
8 EQUAÇÃO MATRICIAL
Uma equação matricial é uma relação de igualdade entre duas ou mais matrizes,
assim como ocorre com os escalares por exemplo, 2x – 4 = 0.
Algumas equações matriciais típicas são A + B = C; A – 2B = 3C; AX = B; A² = X
e assim por diante (SILVA, 2012).
19
Portanto, a quantidade de diferentes produtos financeiros que vocês ofertaram
nesses dois meses é:
Logo, você ofertou 24 fundos de renda fixa e fundos multimercado, enquanto sua
amiga ofertou 30 fundos de renda fixa e 22 fundos multimercados (SILVA, 2012).
Agora, considere que vocês recebem uma comissão para cada produto financeiro
ofertado. Para fundos de renda fixa, a comissão é de R$ 100,00 por produto ofertado. Já
para os fundos multimercados e os planos de previdência, as comissões são,
respectivamente, de R$ 120,00 e R$ 150,00 por produto ofertado. Para saber o valor total
que cada um de vocês receberá de comissão ao final desses dois meses, basta primeiro
criar uma matriz do tipo 3 × 1, em que cada elemento será o valor da comissão para cada
produto. Assim:
20
10 INVERSA DE UMA MATRIZ
21
Esse conceito também pode ser estendido para as matrizes com a devida
adaptação. Com efeito, se A for uma matriz quadrada, e B for outra matriz quadrada de
mesmo tamanho, então, a verificação de uma relação do tipo:
Pois:
22
Para o caso de uma matriz quadrada do tipo 2 × 2, é possível desenvolver uma
solução geral para se determinar sua inversa (SILVA, 2012).
Sejam a, b, c e d os elementos de uma matriz A:
23
A partir das duas últimas equações, determinam-se z e t (por exemplo, basta
isolar a variável z na terceira equação, e substituir na quarta,
Obtendo-se a variável t, que, depois, pode ser substituída na terceira equação, a
fim de se obter z). Desse modo:
24
Existem algumas propriedades envolvendo as matrizes inversas que valem a
pena ser conhecidas.
10.1 Propriedade 1
10.2 Propriedade 2
25
As respectivas matrizes inversas são:
10.3 Propriedade 3
Cuja inversa é:
26
Você tem que o quadrado de A é:
11 MATRIZ ORTOGONAL
Uma matriz A é dita ortogonal se sua matriz transposta é igual à sua matriz
inversa:
Embora o resultado obtido para encontrar a matriz inversa de uma matriz do tipo
2 × 2:
28
Se você multiplicar essa relação por pela esquerda, você tem:
Observe atentamente que essa operação fez com que, no lado esquerdo,
aparecesse a matriz identidade, mas, principalmente, do lado direito, surge a matriz
inversa de A (SILVA, 2012).
Portanto, se você executar operações elementares entre linhas, tal como
multiplicar uma linha por uma constante ou somar uma linha com outra linha, de modo a
transformar a matriz A do lado esquerdo em uma matriz identidade, então, a matriz
resultante que aparece no lado direito após esse processo é essencialmente a matriz
inversa de A:
Agora, você deve efetuar algumas operações elementares sobre essa "matriz 2
× 4", a fim de transformar o bloco 2 × 2 do lado esquerdo em uma matriz identidade.
Para isso, multiplique toda a segunda linha por –3:
29
E a nova segunda linha fica:
Note que a segunda linha do lado esquerdo já tem a aparência da segunda linha
de uma matriz identidade (SILVA, 2012).
Agora, multiplique a segunda linha por –5 e, depois, some com a primeira linha:
30
Por fim, dívida toda a primeira linha por:
Esse resultado para a matriz inversa de certamente já era esperado, pois ele já
foi obtido de outra maneira no início desta seção. No entanto, exatamente por já ser um
resultado conhecido, você pode desenvolver a aplicação desse método de obtenção da
matriz inversa com mais segurança.
A partir deste ponto, você já tem condições de empregar o método de inversão
de matrizes para matrizes maiores que uma do tipo 2 × 2. Essa é a grande vantagem
desse método (SILVA, 2012).
Então, para um segundo exemplo de uso do método, considere a seguinte matriz
quadrada do tipo 3 × 3:
31
Multiplique a primeira linha por –1 e some com a última linha:
32
Aqui, você já conseguiu obter a última linha de uma matriz identidade do tipo 3 ×
3 do lado esquerdo (SILVA, 2012).
Agora, o próximo passo é transformar a segunda linha do lado esquerdo na
segunda linha de uma matriz identidade. Então, multiplique a terceira linha por 3 e some
com a segunda linha:
Por fim, multiplique a segunda linha por –2 e some com a primeira linha:
33
Observe que, finalmente, a matriz que aparece do lado esquerdo é a matriz
identidade do tipo 3 × 3. Portanto, a matriz inversa de C é dada por:
Em princípio, você pode obter a matriz inversa, desde que ela exista de uma dada
matriz quadrada de qualquer tamanho, por meio desse método (SILVA, 2012).
Talvez a primeira questão que lhe venha à mente ao iniciar o seu estudo sobre o
conteúdo deste capítulo é: o que é uma equação linear? Então respondemos: uma
equação linear pode ser uma equação da reta no plano (que tem duas dimensões
bidimensional), que pode ser escrita como:
O esboço do gráfico dessas duas retas aparece na Figura 1a. Observe que essas
duas retas contêm um ponto P em comum, demarcando o local no plano onde elas se
encontram. Encontrar os valores das variáveis x e y desse ponto P significa resolver esse
sistema de duas equações lineares. Essa tarefa é simples nesse exemplo. Igualando as
34
duas equações de reta, você encontra o valor de 4 para a variável x. Logo, substituindo
esse valor de x em qualquer uma das duas equações de reta, você
obtém o valor de
Será que sempre é possível resolver um sistema de equações lineares? A
resposta é dada na Figura 1b. Veja que se trata de duas retas
paralelas, ou seja, um sistema de duas equações lineares. E, por isso, elas não se
encontram para nenhum valor de x (ou y). Logo, não há solução para esse sistema.
35
Em que os coeficientes e b são todos constantes (SILVA, 2012).
Para uma reta no plano, são as variáveis, e a equação
linear fica por outro lado, equações do tipo:
Não são lineares, pois, nas equações lineares, as variáveis aparecem apenas na
potência 1 (lembre-se de que
E multiplicadas apenas por coeficientes constantes. As variáveis não estão
multiplicadas entre si nas equações lineares. Dessa maneira, o conjunto de mais de uma
equação linear constitui um sistema de equações lineares (SILVA, 2012).
Um exemplo de sistema de equações lineares do tipo 2 × 2 (são duas equações
para duas variáveis) é:
36
Substituindo esses dois resultados para y e z, como funções de x, na terceira
equação, você encontra o valor da variável x que satisfaz esse sistema:
logo,
Com efeito,
É possível que dois sistemas lineares contenham o mesmo conjunto de soluções,
e, por isso, eles são denominados de sistemas lineares equivalentes. Como exemplo,
dois sistemas de equações lineares equivalentes são:
37
Onde:
Ou seja:
E como a matriz dos coeficientes não é nula em geral, então uma possível
solução é aquela em que:
38
Aqui, é solução do sistema. Observe atentamente que essas duas
equações lineares representam retas que passam pela origem; que é exatamente o ponto
onde elas se cruzam (SILVA, 2012).
Além da solução trivial, um sistema linear homogêneo pode admitir infinitas
soluções. Esse é o caso quando o número de variáveis é maior que o de equações. Por
exemplo, o sistema linear homogêneo:
Portanto, uma vez escolhido um valor para a variável y, você encontra os valores
correspondentes das variáveis x e z. Exatamente por haver infinitas possibilidades de
escolha de valor para y, que o sistema contém infinitas soluções. Por exemplo, se:
39
14 SISTEMAS LINEARES COM UMA EQUAÇÃO MATRICIAL
Com efeito, o sistema de equações lineares pode ser substituído por uma
representação em forma de equação matricial do tipo:
Em que a matriz A:
40
É a matriz das variáveis, e a matriz B:
41
Nesse caso, é fácil reconhecer a matriz dos coeficientes:
42
E a nova primeira linha fica:
Observe que você já tem, do lado esquerdo, uma matriz identidade do tipo 2 × 2.
Logo, a matriz inversa de A é dada por:
Por fim, para você determinar a matriz X, basta calcular o produto matricial
Em que:
43
16 RESOLUÇÃO DE SISTEMAS DE EQUAÇÕES LINEARES
Cuja solução é
As três operações elementares sobre linhas são as seguintes:
44
1) Multiplicar uma equação por uma constante
Se você multiplicar a primeira equação desse sistema por, então, o novo sistema
será:
Agora, construa outro sistema no qual a segunda equação será igual à soma das
duas equações do sistema acima; ou seja, soma-se a primeira linha com a segunda do
sistema:
45
A segunda linha já fornece diretamente o valor da variável y: y = 5. Substituindo
esse resultado na primeira equação: então
Portanto, novamente a solução original não foi alterada por essa operação elementar
(SILVA, 2012).
Note que a aplicação das três operações fornece sistemas equivalentes, pois
conduz a soluções iguais. Contudo, é a operação (iii) que representa a essência do
método de eliminação de Gauss, pois, a partir dela, é possível obter um sistema
equivalente em que uma das equações tenha apenas uma variável. Como você já deve
ter percebido, as três operações acima agem apenas nos coeficientes e constantes
Por isso, é mais conveniente escrever a matriz aumentada do sistema para
aplicar o método da eliminação de Gauss. Uma vez que a matriz dos coeficientes
e a matriz da constantes é para o exemplo discutido acima, então, a matriz
aumentada fica sendo:
46
Observe que apareceu um zero no primeiro elemento da segunda linha
(destacado na cor verde). Se você restabelecer o formato de sistema novamente:
47
A primeira e segunda linhas da nova matriz aumentada ficam:
Quarto passo: multiplique a primeira equação por –1, e depois some a segunda
a ela.
Caso 2 × 2:
48
Consideremos a seguinte matriz:
49
Caso 3 × 3
51
Como dito anteriormente, a expansão em cofatores pode ser utilizada para
matrizes de qualquer dimensão, não apenas 2 × 2 ou 3 × 3 (JUNIOR, 2006).
Uma matriz possui inversa se, e somente se, seu determinante é diferente de
zero. Além disso, você também aprendeu a calcular a matriz inversa de uma matriz 2 ×
2, utilizando o determinante.
Agora, verá como utilizar a fórmula de expansão em cofatores para encontrar a
inversa de uma matriz quadrada de qualquer dimensão. Para tal, você precisará do
seguinte resultado (JUNIOR, 2006).
Outro fato importante sobre matrizes inversas é que elas são fortemente
relacionadas aos sistemas lineares. Considere um sistema de equações lineares
homogêneo, cuja forma matricial seja:
Fato: o sistema linear homogêneo anterior tem apenas a solução trivial se, e
somente se, a matriz A é invertível.
Esse fato nos fornece uma maneira simples e prática de verificar se a solução
trivial (vetor nulo) é a única de um sistema linear homogêneo (JUNIOR, 2006).
Concluímos esta seção com uma importante relação entre o determinante de
uma matriz e o determinante de sua inversa.
Teorema: seja uma matriz invertível, então:
53
Observe que a exigência de o determinante ser diferente de zero, A invertível é
necessária, uma vez que não se pode ter divisão por zero.
Nesta seção, você verá como calcular os autovalores de uma matriz e como
utilizá-los no processo de diagonalização de matrizes, essencial na resolução de
sistemas lineares (SILVA, 2006).
Um número é um autovalor de uma matriz se existe algum vetor
v, tal que:
54
Isso é equivalente a dizer que é um autovalor de se existir solução
para o sistema linear homogêneo
Outra maneira de procurar pelos autovalores de uma matriz é por meio do
polinômio característico. Dada uma matriz seu polinômio característico é definido
por:
Agora, você verá um resultado apresentado por Nicholson (2006), que nos
permite relacionar autovalores e autovetores com o processo de diagonalização de
matrizes (JUNIOR, 2006).
55
2. quando esse for o caso, temos
onde é o autovalor associado ao autovetor
56
Esse teorema fornece um excelente teste para verificar se o cálculo do polinômio
característico foi efetuado de maneira correta (JUNIOR, 2006).
a) Comutatividade:
b) Associatividade:
c) Vetor nulo: existe dito vetor nulo, tal que, para todo
e) Distributividade:
f) Identidade por 1: para todo
Uma curiosidade é reparar que usamos o símbolo “0” tanto para o número real
zero quanto para o vetor nulo. Isso não será problema, pois uma consequência desses
axiomas é que
57
O exemplo trivial que poderíamos citar é o caso que e os vetores u
são as n-uplas de números reais. Ao invés dele, falaremos de um espaço vetorial muito
similar, mas que mostra uma flexibilidade da definição para outros tipos de conjuntos
(DANESI, 2018).
Esse exemplo não é muito diferente do porque existe uma identificação entre
os polinômios de grau n de coeficientes reais, definidos em ℝ, e as n-uplas de números
reais na medida em que:
58
Contudo, é válido imaginar o significado de um produto interno nesse espaço
vetorial, o que seriam polinômios ortogonais e as transformações lineares sobre esses
elementos (DANESI, 2018).
Antes de prosseguir com essas questões, vamos explorar um exemplo:
Esse exemplo é mais distante do porque uma função é definida pelas imagens
dos infinitos
Isso nos dá abertura para imaginarmos o conceito de dimensão aplicado a esse
conjunto. Como será que podemos definir uma base? Novamente, antes de falarmos
dessas questões mais avançadas, seguiremos com a próxima definição natural (DANESI,
2018).
59
22.1 Subespaços vetoriais
60
22.2 Subespaços gerados
61
Dessa maneira, os vetores u + v e αu também são combinações lineares de B,
pois, para todo α ∈ ℝ:
62
23 UM SUBCONJUNTO COMO SUBESPAÇO VETORIAL
Como foi definido, dado E espaço vetorial, um subespaço vetorial (ou subespaço)
de E é um subconjunto que ainda é um espaço vetorial em relação às
operações de E. Isto é, F precisa ser fechado em relação às operações de E.
Confirmamos isso se verificarmos o seguinte.
Se então
Se então, para todo
64
Diremos que um conjunto é linearmente dependente se existirem coeficientes
tais que:
Isto é, existe uma combinação não nula que resulta no vetor nulo. Uma
interpretação importante de um conjunto linearmente dependente é que qualquer um dos
vetores desse conjunto pode ser escrito como combinação linear dos demais.
Um importante teorema sobre esse assunto é apresentado em Nicholson (2006).
O último exemplo da seção anterior nos fornece uma bela ideia de como
conjuntos geradores estão relacionados com conjuntos linearmente independentes.
Agora, você verá de perto essa relação e como matrizes inversas e determinantes podem
ser utilizadas para auxiliar na identificação de conjuntos linearmente independentes de
vetores. O método do exemplo anterior pode ser sumarizado da seguinte maneira
(NICHOLSON, 2006).
65
2) Mostre que a única maneira de isso ocorrer é trivialmente, ou seja, com todos
os coeficientes iguais a zero.
É claro que, se existir alguma solução não trivial, o conjunto de vetores é
linearmente dependente (JUNIOR, 2006).
1) A é invertível.
2) As colunas de A são linearmente independentes em .
3) As colunas de A geram o espaço
4) As linhas de A são linearmente independentes em
5) As linhas de A geram o espaço
66
26 COMBINAÇÕES LINEARES E GEOMETRIA
67
Esse simples resultado pode nos ajudar a estabelecer alguns testes muito úteis
para a compreensão de algumas propriedades geométricas. No plano euclidiano, por
exemplo, é muito importante conhecer quando dois vetores são paralelos (JUNIOR,
2006).
Veja o exemplo a seguir:
68
Conjunto com dois vetores linearmente independentes geram, como subespaços,
planos em
Por fim, conjuntos com três vetores linearmente independentes geram o próprio
espaço
Unindo essa informação com a ideia de que, em transformações matriciais, as
colunas geram o espaço imagem, podemos determinar a geometria do espaço imagem
por meio da dependência ou independência linear dos vetores coluna da matriz da
transformação.
As relações de dependência e independência linear fornecem poderosas
informações sobre conjuntos de vetores. Futuramente, você aprenderá sobre o
importante papel que conjuntos geradores linearmente independentes exercem em
álgebra linear (JUNIOR, 2006).
69
27 REFERÊNCIAS BIBLIOGRÁFICAS
ANTON, Howard. Álgebra linear com aplicações. 8. ed. Porto Alegre: Bookman, 2001.
LIPSCHUTZ, Seymour.
Álgebra linear: teoria e problemas. 3. ed. São Paulo: Makron Books, 2004. 647p.
STRANG, Gilbert. Álgebra Linear e suas aplicações. São Paulo: Cengage, 2010.
ANTON, H.; RORRES, C. Álgebra linear com aplicações. 8. ed. Porto Alegre:
Bookman, 2003.
ANTON, H.; RORRES, C. Álgebra linear com aplicações. 8. ed. Porto Alegre:
Bookman, 2012. 786 p.
70