Escolar Documentos
Profissional Documentos
Cultura Documentos
COMPLEXAS
Introdução
O advento da unidade imaginária i possibilitou não apenas a representação
algébrica de um número complexo, mas também a representação de
raízes negativas de uma forma geométrica. Com isso, mais aplicações
para os números complexos surgiram. Foi possível, por exemplo, que
polinômios de raízes não reais fossem representados no plano cartesiano.
A álgebra moderna também incorporou os números complexos para
representar vetores.
Neste capítulo, você verá mais sobre as características algébricas e
geométricas de um número complexo. Avançaremos em nossos estudos
pelas operações com os números complexos e as suas representações
geométricas.
Igualdade:
(m, 0) = (n, 0) se, e somente se, m = n
Adição:
(m, 0) + (n, 0) + (m + n, 0 + 0) = (m + n, 0)
Multiplicação:
(m, 0).(n, 0) = (m.n – 0.0, m.0 + 0.n) = (m.n, 0)
[...]
Sendo , de um modo geral, temos:
Qual é o resultado de ?
Solução:
Adição e subtração
Multiplicação
Divisão
Portanto, e .
, com
Moivre formulou ainda, fórmulas para o produto, quociente e para raízes, todas utili-
zando sua forma polar (MAPLI, 2018; FÓRMULA, 2017):
https://goo.gl/BB4aXi
https://goo.gl/zpq7ui
https://goo.gl/nFThNv
https://goo.gl/pMoN5g
c) .
d) .
e) .
a) .
Leituras recomendadas
BARRETO FILHO, B.; SILVA, C. X. Matemática aula por aula: volume único. São Paulo:
FTD, 2005.
IEZZI, G. et al. Matemática: volume único. 6. ed. São Paulo: Atual, 2015.
RIGONATTO, M. Plano de Argand-Gauss. Brasil Escola, Goiânia, 2018. Disponível em:
<http://brasilescola.uol.com.br/matematica/plano-argand-gauss.htm>. Acesso em:
21 fev. 2018.
Introdução
As matrizes são ferramentas matemáticas muito úteis para organizar e
processar informações. Por isso, elas estão frequentemente presentes
em várias áreas da ciência.
Neste capítulo, você aprenderá a construir e classificar uma matriz,
bem como manipulá-la algebricamente por meio das operações de
soma, subtração e multiplicação (entre um escalar e uma matriz e entre
matrizes). A partir disso, você aplicará esse conhecimento na resolução
de problemas cotidianos por meio de matrizes.
RF M P
Você 14 10 12
Amiga 20 8 16
Matriz retangular
É aquela na qual o número de linhas e colunas é diferente, isto é, m ≠ n.
A matriz a seguir é retangular, pois é do tipo 2 × 3:
Outro exemplo desse tipo de matriz seria o seguinte, que é uma matriz
do tipo 3 × 2:
Matriz quadrada
É aquela que contém o mesmo número de linhas e colunas, isto é, m = n. Esse
é o caso de uma matriz do tipo 2 × 2:
Matriz coluna
É um caso particular de matriz retangular, composta por uma única coluna.
Por isso, é do tipo m × 1. O exemplo a seguir mostra uma matriz coluna do
tipo 3 × 1.
Uma matriz coluna pode representar as componentes de um vetor e, por isso, também
é conhecida por vetor coluna.
4 Introdução ao estudo das matrizes
Matriz linha
É outro caso particular de matriz retangular, pois é composta por uma única
linha e, por isso, do tipo 1 × n. O exemplo a seguir mostra uma matriz linha
do tipo 1 × 2.
[3 5]
Uma matriz linha também pode representar as componentes de um vetor e, por isso,
é conhecida por vetor linha.
Matriz diagonal
Os elementos da diagonal principal de uma matriz são aqueles em que i = j,
ou seja, a11, a22, a33, etc.
Uma matriz quadrada em que os elementos fora da diagonal principal são
todos nulos, isto é aij = 0 para i ≠ j, é dita ser diagonal. No exemplo a seguir,
a matriz B é diagonal, pois os elementos b21 e b12 são nulos.
Matriz triangular
Há dois tipos de matriz triangular: a superior, em que os elementos abaixo da
diagonal principal são nulos, ou seja,
Matriz escalar
É uma matriz diagonal em que todos os elementos são iguais.
6 Introdução ao estudo das matrizes
Matriz identidade
É um caso particular da matriz escalar, pois todos seus elementos da diagonal
principal são iguais à unidade, isto é, ajj = 1 para i = j. Uma notação convencional
para a matriz identidade é rotulá-la por I. A matriz identidade do tipo 3 × 3 é:
Matriz transposta
Dada uma matriz A:
1 0 AT = 1 6
A matriz transposta de A = é .
6 4 0 4
2 –2 1 2 3 –3
A matriz transposta de B = 3 0 7 é BT = –2 0 4 .
–3 4 5 1 7 5
Introdução ao estudo das matrizes 7
Matriz simétrica
Uma matriz quadrada é simétrica quando AT = A, o que implica na seguinte
relação entre os elementos da matriz fora da diagonal principal: aij = aji. Por
exemplo, a matriz a seguir é simétrica, uma vez que a12 = a21 = 3.
Matriz nula
É aquela matriz em que todos os elementos são nulos, isto é, aij = 0 para
qualquer valor de i e j.
Igualdade
Duas matrizes são iguais quando elas têm o mesmo tamanho, e seus elementos
são todos iguais. Se as matrizes quadradas A e B do tipo 2 × 2 são iguais,
então aij = bij.
8 Introdução ao estudo das matrizes
b b12
Se a matriz quadrada B do tipo 2 × 2, dada por B = 11 , for igual à matriz
b21 b22
1 0 , então é verdadeiro que:
A=
6 4
b11 b12 1 0
=
b21 b22 6 4
1 2 x y
Se a matriz A = for igual à matriz C = , então:
0 1 0 1
1 2 x y
=
0 1 0 1
implicando que x = 1 e y = 2.
Adição
A operação de adição entre duas matrizes A e B de mesmo tamanho é realizada
por meio da soma direta dos elementos de cada matriz, que estão localizados
em uma mesma linha e uma mesma coluna, ou seja, aij + bij.
1 2 2 5
Dadas duas matrizes quadradas do tipo 2 × 2, A = eB= , então o resultado
3 4 3 3
da soma dessas duas matrizes, A + B, é:
1 2 2 5 3 7
A+B= + =
3 4 3 3 6 7
Observe que:
a11 + b11 = 1 + 2 = 3
a12 + b12 = 2 + 5 = 7
a21 + b21 = 3 + 3 = 6
a22 + b22 = 4 + 3 = 7
Introdução ao estudo das matrizes 9
Propriedade comutativa
A+B=B+A
Propriedade associativa
(A + B) + C = A + (B + C)
Subtração
A operação de subtração entre duas matrizes A e B de mesmo tamanho é
realizada por meio da subtração direta dos elementos de cada matriz, que
estão localizados em uma mesma linha e uma mesma coluna, ou seja, aij – bij.
4 8 2 5
Dadas duas matrizes quadradas do tipo 2 × 2, A = eB= , então o resultado
3 5 3 3
da subtração de A por B, A – B é:
4 8 2 5 2 3
A–B= – =
3 5 3 3 0 2
Observe que:
a11 – b11 = 4 – 2 = 2
a12 – b12 = 8 – 5 = 3
a21 – b21 = 3 – 3 = 0
a22 – b22 = 5 – 3 = 2
10 Introdução ao estudo das matrizes
c(A + B) = cA + cB
(c + d)A = cA + dA
c(dA) = (cd)A
Introdução ao estudo das matrizes 11
[1 3]
Logo:
Introdução ao estudo das matrizes 13
3 2 1 0 3 2
AI = =
–1 5 0 1 –1 5
2 1 3 –1 3 0
2. Considere duas matrizes quadradas do tipo 3 × 3, A = 1 0 1 e B= 0 5 1 .
Então, o resultado produto entre elas, AB, é: 4 2 3 –2 2 2
2 · (–1) + 1 · 0 + 3 · (–2) 2 · 3 + 1 · 5 + 3 · 2 2 · 0 + 1 · 1 + 3 · 2
AB = 1 · (–1) + 0 · 0 + 1 · (–2) 1 · 3 + 0 · 5 + 1 · 2 1 · 0 + 0 · 1 + 1 · 2
4 · (–1) + 2 · 0 + 3 · (–2) 4 · 3 + 2 · 5 + 3 · 2 4 · 0 + 2 · 1 + 3 · 2
–8 17 7
AB = –3 5 2
–10 28 8
3 2 2 0
3. Se uma matriz A = multiplica uma matriz B = que contém uma coluna
–1 5 1 0
(ou uma linha) inteira com elementos nulos, então o resultado será igual a uma matriz
que também contém uma coluna (ou uma linha) inteira com elementos nulos:
3 2 2 0 8 0
AB = =
–1 5 1 0 3 0
Propriedade associativa
A(BC) = (AB)C
14 Introdução ao estudo das matrizes
Propriedade distributiva
(A + B)C = AC + BC
A(B + C) = AB + AC
Contudo, vale a pena observar que, em geral, o produto entre duas matrizes
não é comutativo, isto é, AB ≠ BA (note que o produto entre dois escalares é
sempre comutativo, ou seja, 2 ∙ 3 = 3 ∙ 2 = 6).
Para que você entenda isso, considere duas matrizes quadradas do tipo 2 × 2:
Logo, quando você compara elemento por elemento em cada uma das
matrizes resultantes de AB e BA (por exemplo, (AB)11 = a11 ∙ b11 + a12 ∙ b21 ≠
a11 ∙ b11 + a21 ∙ b12 = (BA)11), você percebe que eles são todos diferentes.
No entanto, a partir desse tratamento geral para o produto de duas matri-
zes, é possível extrair algumas condições particulares que possibilitam gerar
AB = BA. Uma primeira condição surge quando uma das matrizes é a matriz
identidade. Por exemplo, se B = I, então o produto entre A e I será comutativo:
Introdução ao estudo das matrizes 15
Equação matricial
Uma equação matricial é uma relação de igualdade entre duas ou mais matrizes,
assim como ocorre com os escalares — por exemplo, 2x – 4 = 0.
Algumas equações matriciais típicas são: A + B = C; A – 2B = 3C;
AX = B; A² = X; e assim por diante.
3 2 B= x y 0 –1
1. Dadas as matrizes A = , eC= , é possível encontrar os
–1 5 z t 1 2
valores dos elementos da matriz B que satisfaçam a equação matricial 2A + B = C. Veja:
3 2 x y 0 –1
2A + B = C 2 + =
–1 5 z t 1 2
6 4 x y 0 –1
+ =
–2 10 z t 1 2
6 + x 4 + y 0 –1
=
–2 + z 10 + t 1 2
Agora, como os elementos da matriz do lado esquerdo devem ser iguais aos da
matriz do lado direito, você tem simplesmente quatro equações escalares para as
variáveis x, y, z e t: 6 + x = 0, então x = –6; 4 + y = –1, então y = –5; –2 + z = 1, então z = 3;
e 10 + t = 2, então t = –8.
16 Introdução ao estudo das matrizes
a a12 x b
2. Dadas as matrizes A = a11 X = e B = 1 , a equação matricial AX = B
21
a22 , y b2
resulta em um sistema de duas equações lineares para as variáveis x e y. Veja:
a11 a12 x b
AX = B → = 1
a21 a22 y b2
a11x + a12y b
= 1
a21x + a22y b2
Ou seja:
{ a11x + a12y b1
=
a21x + a22y b2
{ 3x – y = 2
x + 4y = 1
3 –1
onde, nesse caso, você pode identificar a matriz A como sendo , e a matriz
1 4
B como sendo 2 .
1
a11 a12
A=
a21 a22
I= 1 0
0 1
ANTON, H.; BUSBY, R. C. Álgebra linear contemporânea. Porto Alegre: Bookman, 2006.
ANTON, H.; RORRES, C. Álgebra linear com aplicações. 8. ed. Porto Alegre: Bookman, 2003.
CRISPINO, M. L. 320 questões resolvidas de álgebra linear. Rio de Janeiro: Ciência Mo-
derna, 2012.
ÁLGEBRA LINEAR
Introdução
Os sistemas de equações lineares são conjuntos de equações lineares que
envolvem várias incógnitas simultaneamente e que podem ser represen-
tados por uma equação matricial. Essa representação matricial permite
obterá obtenção da solução de um sistema linear de equações por meio
do cálculo da matriz inversa dos coeficientes do sistema.
Neste capítulo, você aprenderá a calcular a matriz inversa e a escrever
um sistema de equações lineares como uma equação matricial e, a partir
daí, a resolver esse sistema de equações lineares usando o método da
matriz inversa.
AB = BA = I
AA–1 = A–1A = I
pois:
Inversão de matrizes 3
ax + cy = 1
bx + dy = 0
az + ct = 0
bz + dt = 1
Se uma matriz A admite a existência de uma matriz inversa A–1, então, A–1 é única, não
havendo outra matriz inversa para A.
Propriedade 1
Se uma matriz A contém uma inversa A–1, então, a inversa da matriz inversa
é a própria matriz A:
(A–1) –1 = A
Inversão de matrizes 5
Propriedade 2
(AB) –1 = B–1A–1
Propriedade 3
(An) –1 = (A–1)n
cuja inversa é:
Matriz ortogonal
Uma matriz A é dita ortogonal se sua matriz transposta é igual à sua matriz
inversa:
AT = A–1
Assim como A–1A = AA–1 = I, para uma matriz ortogonal, vale também:
ATA = AAT = I
[A|I]
Se você multiplicar essa relação por A–1 pela esquerda, você tem:
Observe atentamente que essa operação fez com que, no lado esquerdo,
aparecesse a matriz identidade, mas, principalmente, do lado direito, surge
a matriz inversa de A.
Portanto, se você executar operações elementares entre linhas, tal como
multiplicar uma linha por uma constante ou somar uma linha com outra linha,
de modo a transformar a matriz A do lado esquerdo em uma matriz identidade,
então, a matriz resultante que aparece no lado direito após esse processo é
essencialmente a matriz inversa de A:
[I|A–1]
Agora, você deve efetuar algumas operações elementares sobre essa "matriz
2 × 4", a fim de transformar o bloco 2 × 2 do lado esquerdo em uma matriz
identidade.
Inversão de matrizes 9
Esse resultado para a matriz inversa de certamente já era esperado, pois ele
já foi obtido de outra maneira no início desta seção. No entanto, exatamente
por já ser um resultado conhecido, você pode desenvolver a aplicação desse
método de obtenção da matriz inversa com mais segurança.
A partir deste ponto, você já tem condições de empregar o método de
inversão de matrizes para matrizes maiores que uma do tipo 2 × 2. Essa é a
grande vantagem desse método.
Então, para um segundo exemplo de uso do método, considere a seguinte
matriz quadrada do tipo 3 × 3:
Por fim, multiplique a segunda linha por –2 e some com a primeira linha:
Em princípio, você pode obter a matriz inversa, desde que ela exista de
uma dada matriz quadrada de qualquer tamanho, por meio desse método.
Inversão de matrizes 13
Com efeito, o sistema de equações lineares pode ser substituído por uma
representação em forma de equação matricial do tipo:
AX = B
em que a matriz A:
X = A–1B
Um sistema de equações lineares contém uma única solução quando a matriz dos
coeficientes do sistema for invertível.
Observe que você já tem, do lado esquerdo, uma matriz identidade do tipo
2 × 2. Logo, a matriz inversa de A é dada por:
Por fim, para você determinar a matriz X, basta calcular o produto matricial
A B:
–1
em que x = –1 e y = 5.
ANTON, H.; BUSBY, R. C. Álgebra linear contemporânea. Porto Alegre: Bookman, 2006.
612 p.
ANTON, H.; RORRES, C. Álgebra linear com aplicações. 8. ed. Porto Alegre: Bookman,
2012. 786 p.
Leitura recomendada
CRISPINO, M. L. 320 questões resolvidas de álgebra linear. Rio de Janeiro: Ciência Moderna,
2012. 352 p.
ÁLGEBRA LINEAR
Introdução
Neste capítulo, exploraremos um pouco mais o assunto sobre matrizes.
Você verá algumas aplicações práticas de matrizes, como no estudo da
geometria das transformações lineares. Nesta etapa, estaremos seguindo
uma linha semelhante à apresentada em Nicholson (2006). Seguiremos
estabelecendo as relações entre transformações lineares e matrizes.
Finalmente, você será apresentado à conexão entre transformações
lineares e inversão de matrizes.
Transformações matriciais
Para caminhar na direção do primeiro objetivo, trabalharemos com o plano (R2)
euclidiano. E para tal fim, não realizaremos distinção entre um ponto e o vetor
associado ao transporte da origem até esse ponto, conforme Figura 1, a seguir.
2 Geometria vetorial e transformações lineares
4 (x,y)
2 v
–6 –4 –2 0 2 4 6
Como pode ser visto na figura, não há distinção entre o ponto P(x,y) e o
vetor a ele associado . Nesse contexto, uma transformação matricial
pode ser definida como o resultado do produto de uma matriz 2x2 pelos vetores
do plano. Isto é, uma transformação matricial relaciona um vetor do plano à
sua imagem pelo produto com uma determinada matriz. Dessa forma, serão
válidas todas as propriedades do produto de matrizes.
Para entender como matrizes se relacionam com transformações geomé-
tricas do plano euclidiano, apresentaremos alguns exemplos.
1 0 → x
Considere a matriz R = . Seja v = um vetor qualquer do plano euclidiano,
0 –1 y
→
qual é a imagem do vetor v pela transformação R? Tem-se:
→ 1 0 x 1×x+0×y x
Rv = = = –y
0 –1 y 0×x–1×y
→ x
Em palavras, a transformação R reflete o vetor v = em torno do eixo coordenado
y
x, conforme Figura 2.
Geometria vetorial e transformações lineares 3
(x,y)
2
v
1
–2 –1 0 1 2 3
–1 u
(x,–y)
–2
Uma observação interessante sobre essa transformação é que ela é sua própria
inversa. Isto é, ao aplicarmos a reflexão R duas vezes seguidas, voltamos ao vetor
original. Tem-se:
1 0 1 0 1 0
RR = =
0 –1 0 –1 0 1
4
(x,y)
3
2 u
1
α = C30º
–7 –6 –5 –4 –3 –2 –1 0 1 2 3 4 5 6 7
–1
v
–2
(–x,–y) –3
–4
Figura 3. Transformação geométrica rotacionando vetores 180º em torno da origem o x.
→
para todo v no plano R2.
→
A igualdade acima deve ser válida para v no plano R2. Perceba, por exemplo, que a
rotação de 180º apresentada no exemplo anterior é igual à transformação de reflexão
→ 1 → –1
em torno do eixo y para os vetores v = e u = , mas não para os demais do
0 0
plano. Com efeito, a matriz que induz a transformação de reflexão em torno do eixo
y apresenta a seguinte forma:
–1 0
Ref =
0 1
Geometria vetorial e transformações lineares 5
Vamos determinar a matriz que induz a rotação de 45º em torno da origem no plano
euclidiano. Pela forma geral apresentada anteriormente, tem-se:
√2 √2
2 –
2
Rθ =
√2 √2
2 2
1 →
Considere a reta de equação y = 2x. Vamos determinar a reflexão do vetor v = em
–3
torno dessa reta. Primeiramente, utilizaremos o teorema anteriormente apresentado
para encontra a matriz Q que induz tal transformação. Como o coeficiente angular
da reta é m = 2, temos:
1 1 – 22 2 × 2
Q= 2 ×
1+2 2 × 2 22–1
–3 4
Q= 1 ×
5 4 3
–3 4
5 5
Q=
4 3
5 5
→ 1
Agora, vamos calcular o resultado da ação da matriz Q sobre o vetor v = . Obtemos:
–3
–3 4 –3 4
× 1 + × (–3)
5 5 1 5 5 –3
Q= = =
4 3 –3 4 –1
× 1 + 3 × (–3)
5 5 5 5
y = 2x
E
–6 –4 –2 0 2 4 6
D Qv
v
–2
A
–4
→ 1
Figura 4. Reflexão do vetor v = em torno da reta y = 2x.
–3
Cabe destacar que nem toda matriz de ordem 2x2 representa uma transformação
geométrica do plano.
Geometria vetorial e transformações lineares 7
Transformações lineares
Na seção anterior, você aprendeu sobre algumas transformações geométricas
do plano euclidiano e como elas podem ser representadas por matrizes que
induzem tais transformações — que eram casos particulares de um conceito
mais abrangente que ocupa um papel central no estudo da álgebra linear: as
transformações lineares.
Inicialmente, vamos apresentar a definição de transformação linear, que
pode ser encontrada em Nicholson (2006) e Anton e Busby (2006).
→
Definição: seja T: R2 → R2 uma aplicação que a cada vetor v do plano associa
→
um vetor T v também em R2 Diremos que T é uma transformação linear se
ela satisfizer as seguintes condições.
→
1. para todo α ∈ R e todo v ∈ R2.
→ →
2. para todo v , u ∈ R2.
→
para todo v no plano R2. Então, podemos verificar que T é, de fato, uma
→ →
transformação linear. Com efeito, dados α ∈ R e v , u ∈ R2, temos:
Temos, ainda:
→ →
T(v + u ) = T(x + r, y + s) = (2(x + r), –(y + s)) = (2x + 2r, –y –s) = (2x, –y) + (2r, –s)
Portanto:
→ → → →
T(v + u ) = T(v ) + T(u )
MT = [T(e1)|E(e2)]
1
Isto é, MT é uma matriz cujas colunas é a imagem dos vetores canônicos de R2, e1 =
0 0
e e2 = , pela transformação T. Neste exemplo, temos:
1
T(e1) = (2 × 1, –0) = (2, 0) e T(e2) = (2 × 0, –1) = (0, –1)
Dessa maneira:
2 0
MT =
0 –1
Geometria vetorial e transformações lineares 9
→ → →
I2×2(v ) = v para todo v ∈ R2
Temos, ainda:
→ →
I2×2(v + u ) = I2×2(x + r, y + s) = ((x + r) + (y + s)) = (x + r, y + s) = I2×2(x,y) + I2×2(r,s)
Portanto:
Seja T uma transformação linear, tal que T(2, 1) = (4, 1) e que T(1, 1) = (2, 1). Qual é a
forma matricial da transformação T?
Observe que, neste caso, não temos em mãos a expressão da transformação linear
para que possamos calcular T(e1) e T(e2). Entretanto, podemos proceder da seguinte
maneira:
→ 2 → 1
v= e u=
1 1
10 Geometria vetorial e transformações lineares
Segue das propriedades aritméticas das matrizes e dos vetores que podemos escrever:
→ → → →
e1 = v – u e e2 = 2u – v
→ → → →
T(e1) = T(v – u ) = T(v ) – T(u ) = (4,1) – (2,1) = (2,0)
De forma análoga:
→ → → → → →
T(e2) = T(2u – v ) = T(2u ) – T(v ) = 2T(u ) – T(v ) = 2(2,1) – (4,1) = (4,2) – (4,1) = (0,1)
2 0
MT =
0 1
→
Isto é, primeiramente, aplicamos S e, em seguida, T ao resultado S(v ).
Veja um exemplo de como podemos utilizar essa informação.
Geometria vetorial e transformações lineares 11
–1 0
MT =
0 1
cos θº –sen θº
Rθ° =
sen θº cos θº
√3 1
2 –
cos 30º –sen 30º 2
R30 = =
sen 30º cos 30º
1 √3
2 2
√3 1 √3 1
– –
–1 0 2 2 2 2
MTMS = =
0 1
1 √3 1 √3
2 2 2 2
É comum o erro de inverter a ordem do produto das matrizes. Fique atento ao realizar
esses cálculos e lembre-se de que o produto das matrizes segue a mesma ordem da
composição das transformações.
Vimos, ainda, que MR era sua própria inversa. Essa matriz MR induz a
transformação que pode ser representada por R(x,y) = (x,–y). Dada a experiência
com a forma matricial, seria natural imaginar que R é um bom candidato para
ser sua própria transformação inversa. Agora, vamos calcular RºR. Temos:
Portanto, R–1 = R.
Geometria vetorial e transformações lineares 13
Esse resultado não aconteceu por acaso. Temos o seguinte teorema, que
também pode ser encontrado em Nicholson (2015).
1 √3
–
2 2
MT =
√3 1
2 2
1 √3
2 2
MT–1 =
√3 1
–
2 2
Essa MT–1 é nossa candidata à matriz inversa. Vejamos se, de fato, ela é inversa de MT.
Para tal, basta calcular os produtos MTMT–1 e MT–1MT. Temos:
1 √3 1 √3
–
2 2 2 2 1 0
MTMT–1 = =
√3 1 0 1
√3 1
–
2 2 2 2
1 √3 1 √3
–
2 2 2 2 1 0
M T MT =
–1
=
–√3 1 0 1
√3 1
2 2 2 2
det(MT) ≠ 0.
→
Null(T) = {0}.
T é invertível.
MT é invertível.
0 –1
R90 =
1 0
Não é difícil perceber que o determinante dessa matriz é igual 1 e, portanto, diferente
de zero. Como consequência do resultado anterior, temos:
→
Null(T) = {0 }
16 Geometria vetorial e transformações lineares
ANTON, H.; BUSBY, R. C. Álgebra linear contemporânea. Porto Alegre: Bookman, 2006.
NICHOLSON, W. K. Álgebra linear. 2. ed. Porto Alegre: McGraw-Hill, 2006.
Leitura recomendada
LIPSCHUTZ, S.; LIPSON, M. L. Álgebra linear. 4. ed. Porto Alegre: Bookman, 2011. (Coleção
Schaum).
ÁLGEBRA LINEAR
Introdução
Neste capítulo, exploraremos um pouco mais os conjuntos de vetores
em ℝ n. Você verá as definições de conjuntos linearmente independentes
e dependentes, conforme Nicholson (2006). Seguiremos estabelecendo
conexão entre a geometria e as combinações lineares, bem como re-
lacionando as ideias de dependência, independência linear e gerador
com matrizes.
→ a a 0 1 0
v= = + =a +b = ae1 + be2
b 0 b 0 1
Mais precisamente, qualquer vetor do plano pode ser escrito como uma combinação
→ →
linear de e 1 e e 2.
→ 1 → 0
No exemplo anterior, os vetores e 1 = e e 2 = , formavam um conjunto de vetores
0 1
→
linearmente independentes. De fato, se ae1 + be2 = 0 , teríamos:
a+0=0
0+b=0
Portanto, a única combinação desses vetores, que resulta no vetor nulo, é a que tem
todos os coeficientes nulos.
O espaço vetorial ℝ n: dependência e independência linear 3
w = 2e1 + 3e2
Segue daí, pelas propriedades algébricas dos vetores, que também podemos escrever:
→
w – 2e1 + 3e2 = 0
Ou seja, existem coeficientes, não todos nulos, que formam uma combinação do
vetor igual ao nulo.
Isto é, existe uma combinação não nula que resulta no vetor nulo.
Uma interpretação importante de um conjunto linearmente dependente é
que qualquer um dos vetores desse conjunto pode ser escrito como combinação
linear dos demais.
Veja o exemplo a seguir.
a 1 0 0
→
v = b = a 0 + b 1 + c 0 = ae1 + be2 + ce3
c 0 0 1
5
→
w = 3 = 5e1 + 3e2 + 15e3
15
Segue que:
1 1 1
e3 = w – e1 + e2
15 3 5
Considere a matriz identidade In×n. Vamos mostrar que as colunas dessa matriz formam
um conjunto gerador de ℝ n linearmente independente. Temos:
1 ⋯ 0
In×n = ⋮ ⋱ ⋮
0 ⋯ 1
e os vetores:
1 0 0
e1 = 0 , e2 = 1 , ..., e = 0
⋮ ⋮ n
⋮
0 0 1
podemos escrever:
w1 1 0 0
w2 0 +w 1 +⋯+w 0 =we +we +⋯+w e
w= = w1 2 n 1 1 2 1 n n
⋮ ⋮ ⋮ ⋮
wn 0 0 1
concluindo que ger{e1, e2, ⋯, en} = ℝ n. Agora, a parte sobre a independência linear:
digamos que exista uma combinação linear dos vetores e1, e2, ⋯, en, tal que:
→
a1e1 + a2e2 + ⋯ + anen = 0
Teríamos, então:
a1 + 0 + ⋯ + 0 =0
0 + a2 + ⋯ + 0 = 0
⋮
0 + 0 + ⋯ + an =0
a1 = 0
a2 = 0
⋮
an = 0
Portanto, a única combinação desses vetores, que resulta no vetor nulo, é a com
todos os coeficientes nulos.
6 O espaço vetorial ℝ n: dependência e independência linear
Considere a matriz:
1 2 0 0
2 1 0 0
A=
0 0 –1 2
0 0 3 6
Vamos verificar que as colunas dela não formam um conjunto linearmente inde-
pendente de vetores. Temos os seguintes vetores:
O espaço vetorial ℝ n: dependência e independência linear 7
1 2 0 0
v1 = 2 + v2 = 1 , v = 0 , v4 = 0
0 0 3 –1 2
0 0 3 6
→
Escrevemos a combinação linear a1v1 + a2v2 + a3v3 + a4v4 = 0 , que dá origem ao
seguinte sistema linear:
a1 + 2a2 = 0
2a1 + a2 = 0
–a3 + 2a4 = 0
3a3 + 6a4 = 0
1. A é invertível.
2. As colunas de A são linearmente independentes em ℝ n.
3. As colunas de A geram o espaço ℝ n.
4. As linhas de A são linearmente independentes em ℝ n.
5. As linhas de A geram o espaço ℝ n.
8 O espaço vetorial ℝ n: dependência e independência linear
Vamos utilizar o resultado anterior para verificar que os vetores a seguir formam um
conjunto de vetores linearmente independentes e mais ger{v1 + v2 + v3 + v4 } = ℝ 4.
1 2 3 0
v1 = 0 + v2 = 1 , v3 = 2 , v4 = 3
0 0 3 4
0 0 0 5
Começamos montando uma matriz A, cujas colunas são esses vetores. Temos:
1 2 3 0
0 1 2 3
A=
0 0 3 4
0 0 0 5
Pelo teorema anterior, basta verificar se a matriz A é invertível ou não, para podermos
obter as informações desejadas. Observe que a matriz A é diagonal superior, e seu
determinante é igual ao produto dos elementos em sua diagonal. Segue que:
det(A) = 1 × 1 × 3 × 5 = 15 ≠ 0
cos(θ) –sen(θ)
Consideremos os vetores v1 = ,v = . Vamos verificar que, para qualquer
sen(θ) 2 cos(θ)
valor de θ, esses vetores formam um conjunto de geradores linearmente independentes
para o plano euclidiano. Com efeito, construímos a matriz:
cos(θ) –sen(θ)
A=
sen(θ) cos(θ)
O espaço vetorial ℝ n: dependência e independência linear 9
1.6
1.4
1.2
0.8
0.6
0.4
0.2
90º
45º
–2 –1.8 –1.6 –1.4 –1.2 –1 –0.8 –0.6 –0.4 –0.2 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 2.2
–0.2
–0.4
–0.6
–0.8
–1
→ →
Corolário: sejam u e v vetores não nulos em ℝ 3 ou ℝ 2, então:
→ →
1. {u , v } é linearmente dependente se, e somente se, os vetores são
paralelos;
→ →
2. {u , v } é linearmente independente se, e somente se, os vetores não
são paralelos.
Esse simples resultado pode nos ajudar a estabelecer alguns testes muito
úteis para a compreensão de algumas propriedades geométricas. No plano
euclidiano, por exemplo, é muito importante conhecer quando dois vetores
são paralelos. Veja o exemplo a seguir.
Temos:
Considere a matriz:
4 1 5
A = –7 5 –2
9 –3 6
4a + b + 5c =0
–7a + 5b – 2c = 0
9a – 3b + 6c =0
Resolvendo esse sistema linear, pelo método de eliminação gaussiana, por exemplo,
obtemos a solução a = 1, b = 1, c = –1 Temos, portanto:
4 1 5 0
1 –7 + 1 5 – 1 –2 = 0
9 –3 6 0
12 O espaço vetorial ℝ n: dependência e independência linear
4 1 5
1 –7 + 1 5 = –2
9 –3 6
A terceira coluna é a soma das duas primeiras que, por sua vez, não são paralelas.
De fato, não existe λ ∈ ℝ, tal que:
4 1
–7 = λ 5
9 –3
5 7 9
H= 0 2 4
0 –6 –8
5=2×7–9
0=2×2–4
0 ≠ 2 × (–6) – (–8)
O espaço vetorial ℝ n: dependência e independência linear 13
det(H) = 40
Uma vez que o determinante é diferente de zero, sabemos que a matriz H é invertível,
e suas colunas formam um conjunto linearmente independente. Assim, o espaço
imagem da transformação matricial é o próprio ℝ 3.
É importante estar atento ao fato de que, em muitas das contas envolvendo trans-
formações matriciais, podemos utilizar os vetores linha ao invés dos vetores coluna.
Referência
Leitura recomendada
ANTON, H.; BUSBY, R. C. Álgebra linear contemporânea. Porto Alegre: Bookman, 2007.
LIPSCHUTZ, S.; LIPSON, M. Álgebra linear. 4. ed. Porto Alegre: Bookman, 2011. (Coleção
Schaum).
ÁLGEBRA LINEAR
Introdução
Neste capítulo, você vai definirá o conceito de independência linear entre
vetores dentro da definição generalizada dos espaços vetoriais. Também,
verá exemplos de independência e dependência linear no espaço vetorial
das matrizes, dos polinômios e, principalmente, das funções.
A generalização de independência linear depende fortemente da
definição estudada no ℝ n. Você verá como esse conhecimento anterior
está sendo usado como base e como adaptamos propriedades do ℝ n
para o espaço vetorial das matrizes, dos polinômios e das funções em ℝ.
u1 = x2 + 2x – 1
u2 = 3x2 + x
u3 = –5x + 3
α1u1 + α2u2 = 0
admite solução não trivial, tal que α1, α2 ≠ 0. Assim, a igualdade é equi-
valente a:
2 1 1 2
1. B1 = u1 = –3 2 , u2 = –1 1
–1 0 3 2
–2 –4 3 6
2. B2 = v1 = 2 –2 , v2 = –3 3
–6 –4 9 6
Observe o seguinte:
B1 é linearmente independente, pois não existe λ ∈ ℝ, tal que u1 = λu2. Para isso,
basta verificar que a igualdade u1 = λu2 é equivalente ao sistema a seguir, o qual
não tem solução:
2 = 1λ
1 = 2λ
–3 = –1λ
2 = 1λ
–1 = 3λ
0 = 2λ
B2 é linearmente dependente, pois existe λ ∈ ℝ, tal que v1 = λv2. Para isso, verificamos
que a igualdade v1 = λv2 é equivalente ao sistema:
–2 = 3λ
–4 = 6λ
2 = –3λ
–2 = 3λ
–6 = 9λ
–4 = 6λ
–2 –4 3 6 0 0
1 ∙ 2 –2 + (–2/3) ∙ –3 3 = 0 0
–6 –4 9 6 0 0
4 Espaços vetoriais: dependência e independência linear
cos2(x) + sen2(x) = 1
Portanto:
sen(x) = λcos(x)
sen(x)
= tg(x) = λ
cos(x)
onde a função tg(x) não é constante. Isto é, não existe λ, tal que v1(x) = λv2(x) para
todo x ∈ ℝ.
Espaços vetoriais: dependência e independência linear 5
Esse último exemplo saiu um pouco da nossa zona de conforto porque nem
sempre conseguimos identificar de imediato as várias formas que uma função
assume. O critério a seguir ajuda imensamente nesse sentido.
Dados I ⊂ ℝ intervalo aberto e o espaço vetorial C0(I) das funções reais
contínuas em I, se as funções u1, u2, ..., un são diferenciáveis, pelo menos (n – 1)
vezes em I (ANTON; RORRES, 2012), e a função:
du dnu
u’ = e u(n) =
dx dxn
Em C0(ℝ), considere {v1 = sen(x), v2 = cos(x)}. Para esse conjunto, o wronskiano calcula:
v1 v2 sen(x) cos(x)
W(x) = det = det = –sen(x) sen(x) – cos(x) cos(x)
v’1 v’2 cos(x) –sen(x)
= –(sen2(x) + cos2(x)) = –1
u1 = x2 + 2x – 1
u2 = 3x2 + x
u3 = –5x + 3
u1 u2 u3 x2 + 2x –1 3x2 + x –5x + 3
W(x) = det u’1 u’2 u’3 = det 2x + 2 6x + 1 –5
u’1’ u’2’ u’3’ 2 6 0
Assim, W(x) = 0 para todo x ∈ ℝ. Não podemos garantir que esse conjunto seja
linearmente independente.
Outras propriedades
Antes de prosseguirmos, é importante citarmos outras propriedades já co-
nhecidas e generalizar mais algumas. Dados E espaço vetorial B ⊂ E um
conjunto de vetores, se:
u1 = x3 – 2x + 4
u2 = x2 + 1
u3 = 2x3 – x2 + x + 1
Essa igualdade afirma, então, que cada coeficiente à esquerda é igual ao respectivo
coeficiente do vetor nulo à direita. Ou seja:
α1 + 2α3 = 0
α2 – α3 = 0
–2α1 + α3 = 0
4α1 + α2 + α3 = 0
8 Espaços vetoriais: dependência e independência linear
1 0 2 α 0
0 1 –1 . α1 0
2 =
–2 0 1 α3 0
4 1 1 0
1 0 2 1 0 2 1 0 2 1 0 2
0 1 –1 0 1 –1 0 1 –1 0 1 –1
~ ~ ~
–2 0 1 0 0 5 0 0 5 0 0 1
4 1 1 0 1 –7 0 0 –6 0 0 0
é uma matriz triangular superior com 3 pivôs, o que significa que a única solução dessa
equação é a solução trivial α1 = α2 = α3 = 0, e {u1, u2, u3} é linearmente independente.
O próximo exemplo explora uma relação similar no espaço vetorial Mm×n (ℝ)
(n, m ∈ ℕ fixados) das matrizes m × n de coeficientes reais.
Espaços vetoriais: dependência e independência linear 9
–3 12
u1 = –2 6
–4 –11
0 3
u2 = –4 0
–2 –4
–1 2
u3 = 2 2
0 –1
3 –2
u4 = 0 –1
–3 2
Pela definição, {u1, u2, u3, u4} é linearmente independente se:
Essa igualdade afirma, então, que cada entrada à esquerda seja igual à respectiva
entrada do vetor nulo à direita. Ou seja:
–3 0 –1 3 0
12 3 2 –2 α1 0
–2 –4 2 0 α2 0
. =
6 0 2 –1 α3 0
–4 –2 0 –3 α4 0
–11 –4 –1 2 0
1 2 –1 0 1 2 –1 0 1 2 –1 0 3 0 1 0
0 –21 14 –2 0 –21 14 0 0 3 –2 0 0 3 –2 0
~ 0 6 –4 3 ~ 0 6 –4 0 ~ 0 3 –2 0 ~ 0 0 0 1
0 0 0 5 0 0 0 1 0 0 0 1 0 0 0 0
0 0 0 –6 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 –7 0 0 0 0 0 0 0 0 0 0 0 0
é uma matriz com 3 pivôs, uma variável livre, o que significa que existe solução não
nula, e {u1, u2, u3, u4} é linearmente dependente. Em particular, as soluções da equação
matricial são da forma:
–1 , 2 , 1, 0
(α1, α2, α3, α4) = α3
3 3
–3 12 0 3 –1 2 3 –2
–1/3 –2 6 + 2/3 –4 0 + 1 2 2 + 0 0 –1 = 0
–4 –11 –2 –4 0 –1 –3 2
ou
–1 2 –3 12 0 3
1 2 2 = +1/3 –2 6 – 2/3 –4 0
0 –1 –4 –11 –2 –4
u3 = + 1 u1 – 2 u2
3 3
Isso confere com a propriedade que diz que, se o conjunto é linearmente dependente,
então, algum vetor é combinação dos demais.
Espaços vetoriais: dependência e independência linear 11
I. E = ℝ n e k > n;
II. E = Pn e k > n + 1;
III. E = Mm×n (ℝ) e k > m ∙ n.
1. B1 é linearmente dependente, pois existe λ ∈ ℝ, tal que u1 = λu2. Para isso, basta
1
tomar λ = 1/2 e observar que, para todo x ∈ ℝ, ex = (2ex).
2
2. B2 é linearmente independente, pois não existe λ ∈ ℝ, tal que v1 = λv2. Essa última
igualdade ocorre porque v1 = λv2 significa que ex = λxex. Ou, de forma equivalente,
ex 1
que x = = λ , onde a função 1/x não é uma constante. Aliás, também podemos
xe x
justificar que esse conjunto é linearmente independente, tomando o wronskiano:
v v ex xex
W(x) = det v’1 v’2 = det x = (x + 1)e2x – xe2x = e2x
1 2 e (x + 1)ex
Assim, W(x) = e2x ≠ 0 para todo x ∈ ℝ. E podemos afirmar que esse conjunto é, de
fato, linearmente independente.
u1 = 3x2 – 2x + 1
u2 = –x2 – x + 1
u3 = x2 + x
u4 = 3x + 5
2. B2 = {v1 = 1, v2 = x, v3 = x2}
Observe o seguinte:
1. Pela definição, {u1, u2, u3, u4} é linearmente independente se α1u1 + α2u2 + α3u3 +
α4u4 = 0 admite apenas a solução trivial α1 = α2 = α3 = α4 = 0. Substituindo u1, u2, u3,
u4 na condição anterior, podemos reescrevê-la como:
α1(3x2 – 2x + 1) + α2(–x2 – x + 1) + α3(x2 + x) + α4(3x + 5) = 0
3α1 – α2 + α3 = 0
–2α1 – α2 + α3 + 3α4 = 0
α1 + α2 + 5α4 = 0
α1
3 –1 1 0 α 0
–2 –2 1 3 . α2 = 0
3
1 1 0 5 α4 0
Observe que, para essa quantidade de vetores, o método de Gauss nos indicará ao
menos uma variável livre, e, por esse motivo, {u1, u2, u3, u4} é linearmente dependente.
Em particular:
3 –1 1 0 1 1 0 5 1 1 0 5 1 1 0 5
–2 –2 1 3 ~ 3 –1 1 0 ~ 0 –4 1 –15 ~ 0 –4 0 –28
1 1 0 5 –2 –2 1 3 0 0 1 13 0 0 1 13
1 1 0 5 1 0 0 –2
~ 0 1 0 7 ~ 0 1 0 7
0 0 1 13 0 0 1 13
14 Espaços vetoriais: dependência e independência linear
ou
v1 v2 v3 1 x x2
W(x) = det v’1 v’2 v’3 = det 0 1 2x = 2
v’1’ v’2’ v’3’ 0 0 2
1 0 0 0 1 0 0 0 1
A11 = ,A = ,A = ,
0 0 0 12 0 0 0 13 0 0 0
A21 = 0 0 0 ,A = 0 0 0 ,A = 0 0 0
1 0 0 22 0 1 0 23 0 0 1
Espaços vetoriais: dependência e independência linear 15
Referência
ANTON, H.; RORRES, C. Álgebra linear: com aplicações. 10. ed. Porto Alegre: Bookman,
2012.
Leituras recomendadas
ANTON, H.; BIVENS, I.; DAVIS, S. Cálculo. 10. ed. Porto Alegre: Bookman, 2014. v. 1.
LAY, D.; LAY, S.; MACDONALD, J. Álgebra linear e suas aplicações. 5. ed. Rio de Janeiro:
LTC, 2018.
ÁLGEBRA LINEAR
Introdução
Neste capítulo, você aprenderá sobre matrizes ortogonais, matrizes
simétricas, as propriedades que permitem reescrever as matrizes simé-
tricas a partir de matrizes ortogonais, o uso desse método para formas
quadráticas, a classificação de matrizes simétricas em relação aos seus
autovalores e o cálculo da Decomposição de Cholesky para matrizes de
uma classe das simétricas.
Para uma matriz simétrica, seus autovalores e autovetores são essen-
ciais para um tipo especial de diagonalização. Usaremos essa decom-
posição para definir e reescrever as formas quadráticas -dimensionais
e classificá-las. Veremos, também, como a diagonalização de matrizes
simétricas por matrizes ortogonais permite calcular uma forma especial
de decomposição LU: a decomposição de Cholesky — que, quando
possível, requer aproximadamente metade do número de operações
necessário na fase de eliminação da fatoração LU.
2 O espaço vetorial ℝ n : formas quadráticas
A ∙ AT = AT ∙ A = I
Isto é, se:
A–1 = AT
–3/5 4/5
A=
4/5 3/5
Solução:
A forma mais simples é calcular o produto da matriz pela sua transposta. Se esse
produto resultar na matriz identidade, então, a matriz em questão será ortogonal.
a) A é ortogonal.
b) Os vetores coluna de A formam uma base ortonormal do ℝ n.
c) Os vetores linha de A formam uma base ortonormal do ℝ n.
AT = A
aij = aji
A= 3 –4
–4 –3
1 5 0
B= 5 –2 –3
0 –3 0
–2 0 0
C= 0 0 0
0 0 5
A= 3 –4
–4 –3
Solução:
A equação característica de A é:
det(A – λI) = 0
det 3 – λ –4 = 0
–4 –3 – λ
(3 – λ)(–3 – λ) –16 = 0
–9 – 3λ + 3λ + λ2 – 16 =0
λ2 – 25 = 0
O espaço vetorial ℝ n : formas quadráticas 5
Para λ1 = 5:
x 0
(A – 5I) ∙ x1 =
2 0
–2 –4 x 0
∙ x1 =
–4 –5 2 0
{ 1x1 + 2x2 = 0
x2 = x2
→
Portanto, o autovetor associado é o vetor v 1 = (–2,1).
Para λ2 = –5:
x 0
(A + 5I) ∙ x1 =
2 0
8 –4 x 0
∙ x1 =
–4 2 2 0
{ x1 = x1
–2x1 + x2 = 0
→
Portanto, o autovetor associado é o vetor v 2 = (1,2).
Assim, A contém dois autovalores reais e distintos com autovetores formando uma
base:
→ →
C = {v 1 = (–2,1), v 2 = (1,2)}
G= { –2 1
,
√5 √5
,
1 2
,
√5 √5 {
6 O espaço vetorial ℝ n : formas quadráticas
Dessa forma,
–2/√5 1/√5 5 0
P= eD=
1/√5 2/√5 0 –5
P–1AP = D
Isto é, a matriz simétrica A é diagonalizável por uma matriz ortogonal formada pelos
seus autovetores.
2 –2 –4
A = –2 5 –2
–4 –2 2
Solução:
A equação característica de A é:
– λ³ + 9λ² – 108 = 0
(λ + 3)(λ – 6)² = 0
Para λ1 = –3:
x1 0
(A + 3I) ∙ x2 = 0
x3 0
5 –2 –4 x1 0
–2 8 –2 ∙ x2 = 0
–4 –2 5 x3 0
{
1x1 – 2x2 = 0
x2 = x2
–2x2 + x3 = 0
→
Portanto, o autovetor associado é o vetor v 1 = (2,1,2).
8 O espaço vetorial ℝ n : formas quadráticas
Para λ2, λ3 = 6:
x1 0
(A – 6I) ∙ x2 = 0
x3 0
–4 –2 –4 x1 0
–2 –1 –2 ∙ x2 = 0
–4 –2 –4 x3 0
{
x1 = x1
2x1 + 1x2 + 2x3 = 0
x3 = x3
x1 1 0
x2 = x –2 + x –2
1 3
x3 0 1
→ →
Portanto, os autovetores associados são os vetores v 2 = (1,–2,0), v 3 = (0,–2,1).
Isso nos mostra que o subespaço associado ao autovalor λ2, λ3 = 6 tem dimensão 2
e é ortogonal ao subespaço determinado pelo autovalor λ1 = –3. Contudo, a base
associada a λ2, λ3 = 6 não é ortogonal. O que faremos é ortogonalizar o conjunto
→ →
{v 2, v 3} a fim de encontrar uma base ortogonal do subespaço definido pelo autovalor
λ2, λ3 = 6. Podemos fazer essa ortogonalização devido ao fato de que uma combinação
linear de autovetores do mesmo autovalor também é um autovetor associado ao
mesmo autovalor.
→ →
Aplicando o método de Gram-Schmidt à base {v 2, v 3}, obtemos a base ortogonal:
{(1,–2,0), 15 (–4,–2,5) }
Assim, A contém três autovalores reais (contando multiplicidade) com autovetores
formando uma base ortogonal do ℝ 2:
{
C = (2,1,2), (1,–2,0),
1
5
(–4,–2,5) }
O espaço vetorial ℝ n : formas quadráticas 9
G= { 2 , 1 , 2 , 1 , –2 , 0 , –4 , –2 , 5
3 3 3 √5 √5 √45 √45 √45 }
Dessa forma:
P–1AP = D
Isto é, a matriz simétrica A é diagonalizável por uma matriz ortogonal formada pelos
seus autovetores.
λ1 ... 0 0
⋮ λ1 ... 0
D= 0 .
⋮ ⋱ ⋮
0 0 ... λn
PTAP = D
λ1 ... 0 0
⋮ λ1 ... 0
D= 0 ⋮ ⋱ ⋮
0 0 ... λn
A = PDPT
Isto é,
→
λ1 ... 0 0 v 1T
→
→ → → ⋮ λ2 ... 0 v 2T
A = [v 1 v2 ... v n]
0 ⋮ ⋱ ⋮ ⋮
0 0 ... λn →T
vn
→ → → → → →
A = λ1v 1v 1T + λ2v 2v 2T + ... + λnv nv nT
O espaço vetorial ℝ n : formas quadráticas 11
2 –2 –4
A = –2 5 –2
–4 –2 2
nos dá que:
2/3 1/√5
A = –3 1/3 [2/3 1/3 2/3] + 6 –2/√5 [1/√5 –2/√5 0]
2/3 0
–4/√45
+ 6 –2/√45 [–4/√45 – 2/√45 5/√45]
5/√45
Formas quadráticas
Uma forma quadrática é uma função Q: ℝ n → ℝ que transforma o vetor
→
x = (x1, x2, ..., xn) no número real dado pela expressão:
x1
x2
→ →T →
Q(x ) = x Ax = [x1 x2 ... xn] A ⋮
xn
A= 3 –4
–4 –3
Pela definição:
3 –4 x1
Q(x1, x2) = [x1 x2] –4 –3 x2
Logo:
Q(x1, x2, ..., xn) = α1x12 + α2x22 + ... + αnxn2 + β1,2x1x2 + ... + βn–1,nxn–1xn
Com α1, ..., αn, β1,2, ..., βn–1,n ∈ ℝ, sempre conseguiremos encontrar uma
matriz simétrica A, n × n, que reduz a expressão acima a uma forma quadrá-
tica. Para tanto, basta ocupar a diagonal principal de A com os coeficientes
dos termos xi2 e dividir igualmente, entre as posições (i,j) e ( j,i) de A, i ≠ j, os
coeficientes dos termos cruzados xixj.
O espaço vetorial ℝ n : formas quadráticas 13
1 –7/2 5/2
A = –7/2 – 3 –2
5/2 –2 2
→
x→ = Py
→ →
ou reciprocamente P–1x = y , temos:
→ → → → → → →
Q(x ) = (Py )T A(Py ) = y T (PT AP)y = y TDy
14 O espaço vetorial ℝ n : formas quadráticas
A forma quadrática Q(x1, x2) = 3x12 – 3x22 –8x1x2 tem matriz simétrica associada:
A= 3 –4
–4 –3
–2/√5 1/√5 5 0
P= eD=
1/√5 2/√5 0 –5
–2 1
x1 = y + y
√5 1 √5 2
1 2
x2 = y + y
√5 1 √5 2
ou reciprocamente:
–2 1
y1 = x + x
√5 1 √5 2
1 2
y2 = x + x
√5 1 √5 2
~
Q (y1, y2) = 5y12 –5y22
O espaço vetorial ℝ n : formas quadráticas 15
→ →
Para o cálculo de P–1x = y , lembre-se de que P–1 = PT, já que P é ortogonal.
Uma forma quadrática tem por imagem o conjunto de todos os valores possíveis de
→ → → →
Q(x ) com x variando em ℝ n. A mudança de coordenadas x = Py não altera a imagem
→ →
da forma quadrática, ou seja, a imagem de Q(x ) com x , variando em ℝ n, é igual à
→
imagem de y→ TDy→ com y , variando em ℝ n.
→
Q(x ) = λ1y12 + λ2y22 + ... + λn yn2
2 4
A matriz simétrica A = define a forma quadrática:
4 3
1 , –1 2 3 8
Q = + – <0
2 2 4 4 4
Podemos verificar que Q é uma forma indefinida por meio do cálculo dos autovalores
de A, que são:
5 + √65 5 – √65
λ1 = e λ2 =
2 2
2 4
A=
4 3
A1 = [2]
2 4
A2 = =A
4 3
det(A1) = 2 > 0
det(A2) = –10 < 0
O exemplo anterior mostra que esse critério não nos dá os valores dos
autovalores, mas permite identificar se a matriz simétrica A é positiva definida
ou não.
18 O espaço vetorial ℝ n : formas quadráticas
A matriz simétrica:
1 –1 –1 –1
–1 4 2 0
B=
–1 2 3 1
–1 0 1 2
B1 = [1]
1 –1
B2 =
–1 4
1 –1 –1
B3 = –1 4 2
–1 2 3
B4 = B
det(B1) = 1
det(B2) = 3
det(B3) = 5
det(B4) = 3
Fatoração de Cholesky
Quando uma matriz simétrica A é positiva definida, podemos aplicar um tipo
decomposição muito útil para uma importante classe de algoritmos computa-
cionais. Algebricamente, essa decomposição é consequência da fatoração LU.
Contudo, para calcularmos a fatoração de Cholesky, não precisamos calcular
as matrizes L e U, poupando, assim, um esforço computacional considerável.
O espaço vetorial ℝ n : formas quadráticas 19
A = L ∙ LT
l11 = √a11
ai1
li1 = l se i = 2, ..., n
11
2 –2 –4
A = –2 5 –2
–4 –2 21
20 O espaço vetorial ℝ n : formas quadráticas
Solução:
Explicitamente, L é uma matriz 3 × 3, tal que:
l11 = √a11 = √2
a21 –2
l21 = =
l11 √2
a31 –4
l31 = =
l11 √2
Logo:
√2 0 0
L = –2/√2 √3 0
–4/√2 –6/√3 1
2 –2 –4 √2 0 0 √2 –2/√2 –4/√2
A= –2 5 –2 = –2/√2 √3 0 . 0 √3 –6/√3
–4 –2 21 –4/√2 –6/√3 1 0 0 1
O espaço vetorial ℝ n : formas quadráticas 21
É importante ressaltar que, enquanto A for uma matriz simétrica positiva de-
finida, todas as operações (quocientes e raízes quadradas) estão bem-definidas,
e podemos calcular a matriz L de acordo com o algoritmo da decomposição
de Cholesky.
1 –1 –1 –1
–1 4 2 0
B=
–1 2 3 1
–1 0 1 2
Solução:
Explicitamente, L é uma matriz 4 × 4, tal que:
l11 = √a11 = √1 =1
a21 –1
l21 = = = –1
l11 1
a31 –1
l31 = = = –1
l11 1
a41 –1
l41 = = = –1
l11 1
22 O espaço vetorial ℝ n : formas quadráticas
√5
l44 = √a44 – (l412 + l422 + l432 ) = √2 – ((–1)2 + (–1/√3)2 + (–1/3)2) =
3
Logo:
1 0 0 0
–1 √3 0 0
L=
–1 1/√3 1 0
–1 –1/√3 1/3 √5/3
1 –1 –1 –1 1 0 0 0 1 –1 –1 –1
–1 4 2 0 –1 √3 0 0 . 0 √3 1/√3 –1/√3
B = –1 2 =
3 1 –1 1/√3 1 0 0 0 1 1/3
–1 0 1 2 –1 –1/√3 1/3 √5/3 0 0 0 √5/3
Leituras recomendadas
ANTON, H.; RORRES, C. Álgebra linear com aplicações. 10. ed. Porto Alegre: Bookman, 2012.
CHAPRA, S. C.; CANALE, R. P. Métodos numéricos para engenharia. 7. ed. Porto Alegre:
AMGH, 2016.
LAY, D. C.; LAY, S. R.; MACDONALD, J. J. Álgebra linear e suas aplicações. 5. ed. Rio de
Janeiro: LTC, 2018.
ÁLGEBRA LINEAR
Introdução
Neste capítulo, você definirá o conceito geral de base e dimensão de
espaços vetoriais, verá exemplos de conjuntos e suas bases e como
podemos usar o conceito de dimensão junto com as transformações
lineares a fim de melhor perceber os subespaços associados a ela. Além
disso, saberá como construir a base de espaço vetorial usando as técnicas
desenvolvidas em ℝ n.
A definição de base e dimensão num espaço vetorial qualquer permite
uma aproximação do ℝ n, por meio das coordenadas de um vetor, e for-
nece as ferramentas que faltavam para entendermos as transformações
lineares, mediante aplicação do teorema do núcleo e da imagem.
v = α1 ⋅ v1 + ⋯ + αn ⋅ vn.
2 Espaços vetoriais: base
v1 = x3 + 2x – 4
v2 = x2 + 3x – 2
v3 = x3 + 2x2 + 3x – 3
v4 = 4x3 – x2 + 2x + 7
α1 + α3 + 4α4 = 0
α2 + 2α3 + α4 = 0
2α1 + 3α2 + 3α3 + 2α4 = 0
–4α1 – 2α2 – 3α3 + 7α4 = 0
1 0 1 4 α1 0
0 1 2 –1 . α2 0
2 3 3 2 α3 = 0
–4 –2 –3 7 α4 0
que admite apenas a solução trivial. Podemos calcular isso por meio do método
de Gauss.
Espaços vetoriais: base 3
v = α1 ⋅ v1 + ⋯ + αn ⋅ vn.
11x3 – 3x2 + 7x + 4 = (α1 + α3 + 4α4) x3 + (α2 + 2α3 – α4)x2 + (2α1 + 3α2 + 3α3 + 2α4)x
+ (– 4α1 – 2α2 – 3α3 + 7α4).
α1 + α3 + 4α4 = 11
α2 + 2α3 – α4 = –3
2α1 + 3α2 + 3α3 + 2α4 = 7
–4α1 – 2α2 – 3α3 + 7α4 = 4
1 0 1 4 α1 11
0 1 2 –1 . α2 –3
2 3 3 2 α3 = 7
–4 –2 –3 7 α4 4
que podemos resolver usando o método de Gauss. Desse modo, podemos calcular
que existe uma única solução dada por (v)B = (α1, α2, α3, α4 ) = (3, –1, 0, 2).
e dim(M(m×n)) = mn.
Em M(2 × 3), o espaço vetorial das matrizes, 2 × 3, de coeficientes reais, gerado pela
base (canônica):
1 0 0 0 1 0 0 0 1 0 0 0
B = {A1,1 = ,A = ,A = ,A = ,
0 0 0 1,2 0 0 0 1,3 0 0 0 2,1 1 0 0
A2,2 = 0 0 0 ,A = 0 0 0 }
0 1 0 2,3
0 0 1
e dim(M(2 × 3)) = 6.
Espaços vetoriais: base 5
De imediato, podemos afirmar que essa transformação não é sobrejetora, pois Im(T)
≤ dim(P4) = 5, enquanto que dim(P5) = 6.
Investigando o núcleo de T, dado u = ax4 + bx3 + cx2 + dx + e ∈ P4, temos que u∈N(A)
se A(u) = 0. Isto é, se:
2a + b – c – d = 0
a + 2c + d + e = 0
b–d+e=0
2a + 2b – c – 2d + e = 0
–2a + c + e = 0
2a + b – 6c – 3d – 3e = 0
2 1 –1 –1 0 0
a
1 0 2 1 1 0
b
0 1 0 –1 1 . 0
c =
2 2 –1 –2 1 0
d
–2 0 1 0 1 0
e
2 1 –6 –3 –3 0
TA
1 0 2 1 1 1 0 2 1 1 5 0 0 1 –1
0 1 –5 –3 –2 0 1 –5 –3 –2 0 1 0 –1 1
0 1 0 –1 1 0 0 5 2 3 0 0 5 2 3
TA~ ~ ~
0 2 –5 –4 –1 0 0 5 2 3 0 0 0 0 0
0 0 5 2 3 0 0 5 2 3 0 0 0 0 0
0 1 –10 –5 –5 0 0 –5 –2 –3 0 0 0 0 0
5a + d – e = 0
b–d+e=0
5c + 2d + 3e = 0
d=d
e=e
Espaços vetoriais: base 7
ou:
1 1
a=– d+ e
5 5
b=d–e
2 3
c=– d– e
5 5
d=d
e=e
(A) = ger{– 1 x4 + x3 – 2 x2 + x, 1 x4 – x3 – 3 x2 + 1}
5 5 5 5
Observe que essa última condição pode ser substituída pela dim(E) =
dim(ger(B)). Assim, podemos afirmar que um conjunto B é base de E se B
tiver dim(E) vetores e for linearmente independente.
8 Espaços vetoriais: base
v1 = x2 + 2x – 4
v2 = x2 + 3x – 2
v3 = – x2 + 2x + 7,
v1 = x2 + 2x – 1
v2 = – x2 + x – 2
v3 = – x2 + 4x – 5.
α1 – α2 – α3 = 0
2α1 + α2 + 4α3 = 0
–α1 – 2α2 – 5α3 = 0
1 –1 –1 α1 0
2 1 4 . α2 = 0
–1 –2 –5 α3 0
1 –1 –1 1 –1 –1 1 –1 –1 1 0 1
2 1 4 ~ 0 3 6 ~ 0 1 2 ~ 0 1 2
–1 –2 –5 0 –3 –6 0 0 0 0 0 0
α1 + α3 = 0
α2 + 2α3 = 0
α3 = α3
ou:
α1 = –α3
α2 = – 2α3
α3 = α3
10 Espaços vetoriais: base
Isto é, (α1, α2, α3) = α3 (– 1, – 2, 1), com α3 ∈ ℝ e uma solução não trivial, seria:
ou:
v3 = v1 + 2v2
mostrando que v3 é combinação linear de v1 e v2. Dessa maneira, {v1, v2} é um conjunto
linearmente independente, e ger{v1, v2 } = ger(C).
No exemplo anterior, o isomorfismo entre Pn e ℝ n+1 poderia ser usado para justificar
que, quando escalonamos a matriz de coeficientes na forma triangular superior:
1 –1 –1
0 1 2
0 0 0
essa matriz indica, através dos seus pivôs, que os vetores nas colunas 1 e 2 da matriz
original eram linearmente independentes e o vetor na coluna 3 da matriz original era
uma combinação deles, onde:
1
2 ↔ x2 + 2x –1
–1
–1
1 ↔ –x2 + x – 2
–2
escreva a matriz ;
v1 = x2 + 2x – 1
v 2 = – x2 + x – 2
são linearmente independentes e que ger(B) ≠ P2. Isso significa que deve existir
v ∈ P2, tal que {v} ∪ B é base de P2.
Aplicando o algoritmo que descrevemos, procedemos da seguinte forma.
Na base canônica {x2, x, 1} de P2, escrevemos os vetores em coordenadas:
(v1) = (1, 2, – 1)
(v2) = (– 1, 1, – 2)
1 2 –1
A=
–1 1 –2 2×3
12 Espaços vetoriais: base
a
1 2 –1 . b = 0
–1 1 –2 0
c
1 2 –1 1 2 –1 1 0 1
~ ~ 0 1 –1
–1 1 –2 0 3 –3
a+c=0
b–c=0
c=c
ou:
a = –c
b=c
c=c
v = – 1x2 + 1x + 1
1 –2 –2 1 1 0 –2 3
B = v1 = –1 0 , v2 = 0 2 , v3 = 1 –1 , v4 = 0 –2
2 3 1 –1 –2 1 0 1
1 0 0 1 0 0 0 0 0 0 0 0
A1,1 = 0 0 , A1,2 = 0 0 , A2,1 = 1 0 , A2,2 = 0 1 , A3,1 = 0 0 , A2,3 = 0 0
0 0 0 0 0 0 0 0 1 0 0 1
1 –2 –1 0 2 3
–2 1 0 2 1 –1
A=
1 0 1 –1 –2 1
–2 3 0 –2 0 1 4×6
a
1 –2 –1 0 2 3 b 0
–2 1 0 2 1 –1 . c 0
=
1 0 1 –1 –2 1 d 0
–2 3 0 –2 0 1 e 0
f
14 Espaços vetoriais: base
1 –2 –1 0 2 3 1 –2 –1 0 2 3
–2 1 0 2 1 –1 0 –3 –2 2 5 5
~ 0 2 2 –1 –4 –2 ~
1 0 1 –1 –2 1
–2 3 0 –2 0 1 0 –1 –2 –2 4 7
1 –2 –1 0 2 3 1 –2 –1 0 2 3
0 –3 –2 2 5 5 0 –3 –2 2 5 5
~ 0 0 2 1 –2 4 ~
0 0 2 1 –2 4
0 0 –4 –8 7 16 0 0 0 –2 1 8
1 –2 –1 0 2 3 4 –8 0 0 5 28
0 –3 –2 0 6 13 0 2 0 0 –3 –14
0 0 4 0 –3 16 ~ 0 0 4 0 –3 16 ~
0 0 0 –2 1 8 0 0 0 –2 1 8
4 0 0 0 –7 –28
0 2 0 0 –3 –14
0 0 4 0 –3 16
0 0 0 –2 1 8
4a – 7e – 28f = 0
2b – 3e –14f = 0
4c – 3e – 16f = 0
–2d + e + 8f = 0
e=e
f=f
ou:
7
a= e + 7f
4
3
b= e + 7f
2
3
c= e + 4f
4
1
d= e + 4f
2
e=e
f=f
Espaços vetoriais: base 15
7 , 3 , 3 , 1 , 1, 0 + f (7,7,–4,4,0,1)
Isto é, (a, b, c, d, e, f) = e , com e, f ∈ ℝ e
4 2 4 2
7 , 3 , 3 , 1 , 1, 0 , (7,7,–4,4,0,1)
(A) = ger ⊂ ℝ6.
4 2 4 2
Esse resultado está de acordo com o que esperávamos de l = 2 vetores para com-
plementar a base B.
Escrevemos os vetores v5, v6 ∈ M3×2(ℝ), usando as coordenadas na base canônica:
1 0 0 1 0 0 0 0 0 0 0 0 7/4 3/2
7 3 3 1
v5 = 0 0 + 0 0 + 1 0 + 0 1 + 1 0 0 + 0 0 0 = 3/4 1/2
4 2 4 2
0 0 0 0 0 0 0 0 1 0 0 1 1 0
1 0 0 1 0 0 0 0 0 0 0 0 7 7
v6 = 7 0 0 +7 0 0 –4 1 0 +4 0 1 +0 0 0 + 1 0 0 = –4 4
0 0 0 0 0 0 0 0 1 0 0 1 0 1
{v5, v6} ∪ B = {v1, v2, v3, v4, v5, v6} é uma base de M3×2(ℝ).
Não será demonstrado neste material, mas vale lembrar-se de que {v1, v2, v3, v4, v5, v6}
é linearmente independente.
ANTON, H.; BIVENS, I. C.; DAVIS, S. L. Cálculo. 10. ed. Porto Alegre: Bookman, 2014. 2 v.
ANTON, H.; RORRES, C. Álgebra linear com aplicações. 10. ed. Porto Alegre: Bookman, 2012.
LAY, D.; LAY, S.; MACDONALD, J. Álgebra linear e suas aplicações. 5. ed. Rio de Janeiro:
LTC, 2018.
LIMA, E. Álgebra linear. 9. ed. Rio de Janeiro: IMPA, 2016.
ÁLGEBRA LINEAR
Introdução
Neste capítulo, você definirá o conceito de produto interno e norma para
um espaço vetorial qualquer, com exemplos no espaço vetorial das n-uplas
reais, das matrizes e das funções contínuas; verá como a ortogonalidade
fica definida de acordo com o produto interno do espaço vetorial e alguns
exemplos de conjuntos ortogonais no espaço das funções.
O conceito de produto interno generaliza, para um espaço vetorial
qualquer, a noção de medida de vetores, ângulos, distâncias e ortogona-
lidade definida pelo produto escalar no ℝ n. Inclusive, essa generalização
permite que, no ℝ n, seja definida uma medida diferente da proposta
pelo produto escalar, criando uma geometria diferente entre os vetores.
⟨ , ⟩D: ℝ2 × ℝ2 → ℝ
⟨(u1, u2), (v1, v2)⟩D = 3u1v1 + 5u2v2
→ → →
3. ⟨u , v + w⟩D = ⟨(u1, u2), (v1, v2) + (w1, w2)⟩D = ⟨(u1, u2), (v1 + w1, v2 + w2)⟩D =
→ → → →
3u1(v1 + w1) + 5u2(v2 + w2) = 3u1v1 + 5u2v2 + 3u1w1 + 5u2w2 = ⟨u , v ⟩D + ⟨u , w ⟩D ;
Espaços vetoriais: produtos internos gerais 3
→ →
4. ⟨u , α · v ⟩D = ⟨(u1, u2), α · (v1, v2)⟩D = ⟨(u1, u2), (αv1, αv2)⟩D = 3u1αv1 + 5u2αv2 = .
→ →
α · (3u1v1 + 5u2v2) = α · ⟨u , v ⟩D.
→ → →
||u ||D = √⟨u , u ⟩D = √3u12 + 5u22
→ →
Nessa norma, dados u = (1, 1), v = (–1, 1), podemos calcular que o comprimento
→ →
de u e v é:
→
||u ||D = √3 · 12 + 5 · 12 = √8
→
||v ||D = √3 · (–12) + 5 · 12 = √8
→ →
u ∙ v = (1, 1) ∙ (–1, 1) = 1 ∙ (–1) + 1 ∙ 1 = 0
Isto é, além de a norma ⟨,⟩ D medir o comprimento dos vetores de maneira distinta
da canônica, ela também altera a relação de ortogonalidade entre vetores do ℝ 2.
1. , pois cada
parcela é positiva, e a igualdade vale se, e somente se, u1 = ... = un =
0, logo ;
2. ;
3.
4.
O produto interno ponderado recebe esse nome por admitir um peso λi > 0 em cada
direção xi. Esse peso pode ser interpretado como uma importância maior ou menor
dos dados naquela direção ou, ainda, como uma mudança de escala naquela direção.
Essa definição não é intuitiva. Então, mostraremos como ela funciona em M2×3(ℝ),
dadas as matrizes:
a a12 a13
A = a11 a22 a23
21
b b12 b13
B = b11 b22 b23
21
Temos:
Observe que não calculamos as entradas fora da diagonal principal porque elas não
serão necessárias para o cálculo do traço (que calcula somente a soma dos elementos
da diagonal principal). Assim:
tr(BTA) = (a11b11 + a21b21) + (a12b12 + a22 + b22) + (a13b13 + a23b23)
6 Espaços vetoriais: produtos internos gerais
1.
e a igualdade vale se, e somente se, uij = 0 para todo i, j e, portanto U = 0;
2.
;
3. ;
4. .
1 0 2 0 3 –1 6 2 –1
U= V= W=
–2 1 –1 –2 0 1 2 1 1
Espaços vetoriais: produtos internos gerais 7
Calculamos:
2. ;
3.
8 Espaços vetoriais: produtos internos gerais
4.
Para mostrarmos como esse produto interno funciona, no que segue, fixamos a = –1
e b = 1 de modo que [a, b] = [–1, 1] é um intervalo simétrico em torno de x = 0.
Assim, dados u = x, v = x2, w = x3, podemos calcular que:
1
1 1 x3 13 (–1)3 2
⟨x, x⟩ = ∫ x · x dx = ∫ x2 dx = = – =
–1 –1 3 –1 3 3 3
1
1 1 x4 14 (–1)4
⟨x, x2⟩ = ∫ x · x2 dx = ∫ x3 dx = = – =0
–1 –1 4 –1 4 4
1
1 1 x5 15 (–1)5 2
⟨x, x3⟩ = ∫ x · x3 dx = ∫ x4 dx = = – =
–1 –1 5 –1 5 5 5
1 1 2
⟨x2, x2⟩ = ∫ x2 · x2 dx = ∫ x4 dx =
–1 –1 5
1
x6 (–1)6
= 1 –
1 1 6
⟨x2, x3⟩ = ∫ x2 · x3 dx = ∫ x5 dx = =0
–1 –1 6 –1 6 6
1
1 1 x7 17 (–1)7 2
⟨x3, x3⟩ = ∫ x3 · x3 dx = ∫ x6 dx = = – =
–1 –1 7 –1 7 7 7
Espaços vetoriais: produtos internos gerais 9
2
||x|| = √⟨x, x⟩ =
3
2
||x2|| = √⟨x2, x2⟩ =
5
2
||x3|| = √⟨x3, x3⟩ =
7
Ortogonalidade
Seja E um espaço vetorial munido do produto interno ⟨,⟩. Dados u, v ∈ E,
dizemos que u, v são ortogonais (com respeito ao produto interno ⟨,⟩) se, e
somente se, ⟨u, v⟩ = 0, e denotamos por u ⊥ v.
Assim como na definição de produto interno, é importante ressaltar que
ortogonalidade não é uma propriedade intrínseca ou fora de qualquer con-
venção, mas que depende do produto interno definido em E. Se E aceita dois
produtos internos distintos, então, por uma medida, dois vetores podem ser
ortogonais e, por outra medida, não.
→ → →
Em ℝ 2, dados os vetores u = (2, –3), v = (3, 2), w = (5, 2) e os produtos internos:
⟨(u1, u2), (v1, v2)⟩ = (u1, u2) · (v1, v2) = u1v1 + u2v2
repare que:
→ →
1. com respeito ao produto escalar, os vetores u e v são ortogonais, pois
→ →
u · v = (2, –3) · (3, 2) = 2 · 3 + (–3) · 2 = 0
10 Espaços vetoriais: produtos internos gerais
→ →
2. com respeito ao produto interno ⟨,⟩ D, os vetores u e v não são ortogonais, pois:
→ →
⟨u, v ⟩D = 3 · 2 · 3 + 5 · (–3) · 2 = –12
→ →
Contudo, em relação a ⟨,⟩ D, os vetores u e w são ortogonais, uma vez que:
→ →
⟨u, w⟩D = 3 · 2 · 5 + 5 · (–3) · 2 = 0
1. 0 ⊥ v para todo v ∈ E;
2. u ⊥ v se, e somente se, v ⊥ u;
3. se u ⊥ v para todo v ∈ E, então u = 0;
4. se u ⊥ v e α ∈ ℝ, então (α ∙ u) ⊥ v.
Além disso, dado C = {u1, u2, ..., un} ⊂ E, dizemos que C é um conjunto
ortogonal, se os vetores de C são dois a dois ortogonais, isto é, se ⟨ui, uj⟩ = 0
se i ≠ j.
Citando o exemplo anterior em M2×3(ℝ) com o produto interno ⟨A, B⟩ = tr(BTA), podemos
afirmar que, para as seguintes matrizes:
1 0 2
U=
–2 1 –1
0 3 –1
V=
–2 0 1
6 2 –1
W=
4 5 1
Espaços vetoriais: produtos internos gerais 11
calculamos que:
⟨U, V⟩ = 1
⟨U, W⟩ = 0
⟨V, W⟩ = 0
1. Se f(x) é função par (uma função f: I → ℝ é dita par se f(x) = f(–x) para
todo x ∈ I), então, para todo a > 0:
Podemos citar o exemplo anterior, em C0([–1, 1]), que calculamos para u = x, v = x2,
w = x3, que:
⟨x, x2⟩ = 0
2
⟨x, x3⟩ =
5
⟨x 2, x 3⟩ = 0
Em C0([–1, 1]), podemos verificar explicitamente que os polinômios de Legendre P1, P3,
P5 são dois a dois ortogonais. Para isso, calculamos:
1 1 5 1 3 1 5 2 3 2
⟨P1, P3⟩ = ∫ (x) · (5x3 – 3x) dx = ∫ –1 x4 dx – ∫ –1 x2 dx = – =0
–1 2 2 2 2 5 2 3
1 1 63 1 70 1 4 15 1
⟨P1, P3⟩ = ∫ ∫ –1 8 ∫ –1 ∫ –1 x2 dx
(x) · (63x5 – 70x3 – 15x) dx = x6 dx – x dx +
–1 8 8 8
63 2 70 2 15 2
= – + =0
8 7 8 5 8 3
1 1 3 1
⟨P3, P5⟩ = ∫ (5x – 3x) · (63x5 – 70x3 – 15x) dx
–1 5 5
315 285 45 1 2
x8 dx – 539 ∫ x6 dx +
1 1 1
=
16 ∫ –1 16 –1 16 ∫ –1 x4 dx –
16 ∫ –1
x dx
Para o cálculo daws integrais, vale lembrar-se de que as integrais de x6, x4 e x2 foram
calculadas anteriormente e que ∫1–1 x8 dx = 2/9.
14 Espaços vetoriais: produtos internos gerais
1 dn
Pn(x) = [(x2 – 1)n]
n! 2n dxn
1. Dados p, q ∈ ℝ:
2. Se k ∈ ℤ e k ≠ 0, então:
Espaços vetoriais: produtos internos gerais 15
Esse paralelo que fizemos serve para mostrar dois conjuntos ortogonais
diferentes em C0([–L, L]), que requerem diferentes abordagens para que essa
ortogonalidade seja verificada. Em termos de aplicações, toda função em
C∞([–L, L]) pode ser escrita como uma combinação linear de polinômios,
via série de Taylor e Maclaurin ou via série de Legendre, sendo esta última
especialmente importante no eletromagnetismo e na solução do potencial
elétrico com simetria axial.
De forma alternativa, toda função em C∞([–L, L]) pode ser escrita como
Referência
ANTON, H.; RORRES, C. Álgebra linear com aplicações. 10. ed. Porto Alegre: Bookman, 2012.
Leituras recomendadas
ANTON, H.; BIVENS, I. C.; DAVIS, S. L. Cálculo. 10. ed. Porto Alegre: Bookman, 2014. 2 v.
LAY, D.; LAY, S.; MACDONALD, J. Álgebra linear e suas aplicações. 5. ed. Rio de Janeiro:
LTC, 2018.
LIMA, E. Álgebra linear. 9. ed. Rio de Janeiro: IMPA, 2016.
Capa_Nicholson.qxd 27.08.56 9:16 AM Page 1
Aplicações
Livro-texto para a disciplina Introdução à Álgebra Linear dos cursos de Matemática,
Física, Estatística, Ciência da Computação e Engenharia, bem como dos cursos de
Economia e Administração, Ciências Sociais e Química.
2a Edição
ISBN 85-86804-92-4
Nenhuma parte desta publicação poderá ser reproduzida ou distribuída de qualquer forma ou por qualquer meio, ou
armazenada em um banco de dados ou sistema de recuperação, sem o consentimento, por escrito, da Editora, incluindo,
mas não limitado a, qualquer rede ou outro dispositivo eletrônico de armazenamento ou transmissão ou difusão para
ensino a distância.
CDU 517.986.3
Se você tem dúvidas, críticas ou sugestões, entre em contato pelo endereço eletrônico: sac@grupoa.com.br
Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 11
Exemplo 4 Um sistema de equações pode não ter solução. Por exemplo, o sistema
x+y =1
x −z =2
y+z =1
não tem solução. Na verdade, a soma das últimas duas equações dá x + y = 3, contrariando a
primeira equação.
* NTT: Os termos impossível e incompatível também são usados para denominar um sistema de equações lineares inconsistente,
assim como os termos possível ou compatível são também empregados para designar um sistema de equações consistente.
Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 12
Para ver como isso é feito, convém chamar dois sistemas de equivalentes se eles
possuírem as mesmas soluções. Começando com um dado sistema de equações lineares,
nós o resolvemos escrevendo uma série de sistemas, um depois do outro, cada um deles
equivalente ao anterior. Como todos os sistemas têm as mesmas soluções, a finalidade é
encontrar um que seja fácil de resolver. Existe um método simples e rotineiro de realizar isso.
O exemplo a seguir proporciona uma ilustração.
SOLUÇÃO O sistema está escrito a seguir junto com sua matriz completa;
x1 − 2x2 + 3x3 + x4 = −3 1 −2 3 1 −3
2x1 − x2 + 3x3 − x4 = 0 2 −1 3 −1 0
Esse novo sistema é equivalente ao original (ver Teorema 1 a seguir). Observe que a nova
matriz completa pode ser obtida diretamente da original se subtrairmos duas vezes a
primeira linha da segunda.
Agora multiplicamos a segunda equação por 13 para obter outro sistema equivalente
x1 − 2x2 + 3x3 + x4 = −3 1 −2 3 1 −3
x2 − x3 − x4 = 2 0 1 −1 −1 2
Mais uma vez, a nova matriz completa é resultado da multiplicação da segunda linha por 13 .
Finalmente, eliminamos x2 da equação 1 pela adição de duas vezes a segunda equação à
primeira. O resultado é o sistema (equivalente)
x1 + x3 − x4 = 1 1 0 1 −1 1
x2 − x3 − x4 = 2 0 1 −1 −1 2
Esse sistema é fácil de resolver. De fato, escolhendo-se arbitrariamente números x3 e x4, então
x1 e x2 podem ser encontrados de maneira que as equações sejam satisfeitas. Mais
precisamente, se estabelecermos que x3 = s e que x4 = t onde s e t são parâmetros
arbitrários, as equações passam a ser x1 + s − t = 1 e x2 − s − t = 2, portanto,
x1 = 1 + t − s e x2 = 2 + t + s
Isso nos dá a solução exibida no Exemplo 5 e, como todos os sistemas na série são
equivalentes (como será provado no Teorema 1), obtivemos todas as soluções para o
problema original.
Observe que, a cada estágio do procedimento acima, uma certa operação é executada no
sistema (e, portanto, na matriz completa) para produzir um sistema equivalente.
As operações a seguir, chamadas operações elementares, podem ser efetuadas
rotineiramente em sistemas para produzir sistemas equivalentes:
I Trocar a ordem das equações.
II Multiplicar uma equação por um número diferente de zero.
III Somar um múltiplo de uma equação com outra equação.
Valemo-nos apenas dos procedimentos II e III para o cálculo no Exemplo 6, mas a operação
do tipo I às vezes também tem sua utilidade. O teorema a seguir é crucial para o método que
estamos desenvolvendo.
Agora, usamos o 1 na segunda posição da linha 2 para limpar a coluna 2; isto é, para
obter zeros nas posições acima e abaixo (isso corresponde a eliminar x2 das equações 1 e 3).
Conseguimos isso subtraindo a linha 1 da 2, e adicionando duas vezes a linha 2 à linha 3.
Assim, temos ⎡ ⎤
1 0 3 1
⎢ ⎥
⎢0 2⎥
⎣ 1 −6 ⎦.
0 0 3 −1
Observe que essas duas operações não afetaram a coluna 1 porque o primeiro elemento da
linha 2 é zero.
A seguir, dividimos a linha 3 por 3 para obter o número 1 na terceira posição:
⎡ ⎤
1 0 3 1
⎢ ⎥
⎢0 2⎥
⎣ 1 −6 ⎦.
0 0 1 − 13
Finalmente, limpamos a coluna 3 por meio da subtração da linha 1 por três vezes a linha 3, e
pela adição de seis vezes a linha 3 à linha
⎡
2: ⎤
1 0 0 2
⎢ ⎥
⎢0 0⎥
⎣ 1 0 ⎦.
0 0 1 − 13
respectivamente, onde cada ∗ indica um número. Em ambos os casos, a solução foi facilmente
obtida pelos sistemas de equações correspondentes. As matrizes que aparecem são geralmente
descritas da maneira a seguir.
Dizemos que uma matriz está na forma escalonada por linha (e será chamada matriz
escalonada por linhas*) se as seguintes condições forem satisfeitas:
1. Todas as linhas nulas estão abaixo de todas as linhas não nulas.
2. O primeiro elemento não nulo em cada linha não nula é igual a 1 e é chamado pivô.**
3. Cada pivô se localiza à direita de todos os pivôs das linhas acima dele.
Uma matriz está na forma escalonada reduzida se, além disso, satisfizer
4. Cada pivô é o único elemento não nulo em sua coluna.
18 Carl Friedrich Gauss (1777–1855) foi um dos maiores matemáticos de todos os tempos. Ele realizou descobertas fundamentais
em todos os tópicos da matemática, e fez importantes contribuições à astronomia e à física.
** NTT: Ou simplesmente denominada matriz escalonada.
** NTT: Alguns autores chamam-no 1-líder.
Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 15
Assim, as matrizes escalonadas possuem uma forma de “escada” como indicado a seguir
(novamente, os asteriscos indicam números arbitrários):
⎡ ⎤
0 1 ∗ ∗ ∗ ∗ ∗
⎢ ⎥
⎢0 0 0 1 ∗ ∗ ∗⎥
⎢ ⎥
⎢ ⎥
⎢0 0 0 0 1 ∗ ∗ ⎥.
⎢ ⎥
⎢ ⎥
⎣0 0 0 0 0 0 1⎦
0 0 0 0 0 0 0
Os pivôs se localizam à direita e abaixo uns dos outros, ao longo da matriz, e todo elemento
à esquerda e abaixo de um pivô é nulo. Em uma matriz escalonada reduzida, a condição
adicional é que todos os elementos acima de cada pivô também sejam nulos. Qualquer
matriz escalonada pode ser colocada na forma reduzida por meio de mais algumas
operações elementares por linhas (zerando um por um os elementos acima dos pivôs).
Exemplo 8 A primeira matriz abaixo está na forma escalonada, e a segunda, na forma escalonada
reduzida, para qual pode ser transformada por meio de operações por linhas:
⎡ ⎤ ⎡ ⎤
1 ∗ ∗ ∗ ∗ 1 ∗ 0 ∗ 0
⎢ ⎥ ⎢ ⎥
⎢0
⎣ 0 1 ∗ ∗⎥⎦ → ⎢0
⎣ 0 1 ∗ 0⎥
⎦
0 0 0 0 1 0 0 0 0 1
Em geral usamos uma seta → para indicar que foram efetuadas operações com as linhas.
Aqui temos um procedimento pelo qual qualquer matriz pode ser levada à forma
escalonada (e depois, à forma escalonada reduzida, se desejado) utilizando nada além de
operações elementares de linhas.
ALGORITMO DE GAUSS 9 Qualquer matriz pode ser levada à forma escalonada pelo método a seguir:
Passo 1. Se a matriz consiste inteiramente de zeros, pare: ela já se encontra na forma
escalonada.
Passo 2. Caso contrário, encontre a primeira coluna, vindo da esquerda, que contém um
elemento k não nulo, e mova a linha contendo esse elemento ao topo da matriz.
Passo 3. Multiplique a linha no topo por 1k para obter o primeiro pivô.
Passo 4. Anule cada elemento abaixo do pivô, subtraindo múltiplos de suas linhas das linhas
inferiores.
Isso completa a primeira linha; todas as demais operações por linha são efetuadas nas
demais linhas.
Passo 5. Repita os passos 1–4 na matriz formada pelas linhas remanescentes.
Observe que o algoritmo de Gauss* é recursivo no seguinte sentido: depois de se obter o
primeiro pivô, todo o processo é repetido nas demais linhas. Isso torna fácil de se usar o
método no computador. Observe ainda que, no passo 4, podemos também anular cada
elemento acima do pivô. Nesse caso, o algoritmo leva a matriz à forma escalonada reduzida
(como nos exemplos 6 e 7). A razão para a distinção entre as duas formas de escalonamento
será discutida posteriormente.
T EOREMA 2 Toda matriz pode ser colocada na forma escalonada (reduzida, se desejado) mediante uma
seqüência de operações elementares por linhas.
SOLUÇÃO A matriz completa é dada a seguir. Como o primeiro pivô está no lugar, passamos a anular
os demais elementos da coluna 1:
⎡ ⎤ ⎡ ⎤
1 −2 −1 3 1 1 −2 −1 3 1
⎢ ⎥ ⎢ ⎥
⎢2
⎣ −4 1 0 5⎥⎦ → ⎢0
⎣ 0 3 −6 3⎥
⎦
1 −2 2 −3 4 0 0 3 −6 3
Agora subtraímos a segunda linha da terceira e então10 multiplicamos a segunda linha por 13 ,
para conseguir a matriz abaixo (agora na forma escalonada por linhas):
⎡ ⎤
1 −2 −1 3 1
⎢ ⎥
→ ⎢0
⎣ 0 1 −2 1⎥
⎦
0 0 0 0 0
Agora use o segundo pivô (na coluna 3) para anular os demais elementos da coluna 3 e,
portanto, conseguir a forma escalonada:
⎡ ⎤
1 −2 0 1 2
⎢ ⎥
→ ⎢0
⎣ 0 1 −2 1⎥
⎦
0 0 0 0 0
Essa forma é até onde o algoritmo de Gauss pode nos levar. O sistema de equações
correspondente é
x1 − 2x2 + x4 = 2
x3 − 2x4 = 1
0=0
Os pivôs estão nas colunas 1 e 3 e as incógnitas correspondentes, x1 e x3, são chamadas
variáveis dependentes. Para resolver o sistema, atribuímos valores arbitrários às variáveis
independentes* (chamados parâmetros), e então as duas equações são usadas para
determinar as variáveis dependentes em termos dos parâmetros. Mais precisamente,
escrevemos x2 = s, e x4 = t onde s e t são parâmetros arbitrários, de modo que as equações se
tornam x1 − 2s + t = 2 e x3 − 2t = 1. Resolvendo, obtemos x1 = 2 + 2s − t e x3 = 1 + 2t.
Logo, as soluções são dadas por ⎡ ⎤
2 + 2s − t
⎢ ⎥
⎢ ⎥
⎢ s ⎥
X = [2 + 2s − t s 1 + 2t t] = T
⎢
⎢ 1 + 2t ⎥
⎥.
⎣ ⎦
t
Método de Eliminação Assuma que um sistema de equações lineares tem pelo menos uma solução. Então a solução
de Gauss geral pode ser encontrada na forma paramétrica da seguinte maneira:
Passo 1. Reduza a matriz completa do sistema à forma escalonada reduzida por linhas.
Passo 2. Atribua parâmetros às variáveis livres.
10 Esses passos não estão na ordem especificada pelo algoritmo. Entretanto, o objetivo é levar a matriz à forma escalonada usando
alguma seqüência de operações por linhas. A seqüência estabelecida no algoritmo sempre irá funcionar, mas pode não ser a mais
eficiente.
1* NTT: Também chamadas variáveis livres.
Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 17
Quando se usa o método de eliminação de Gauss para resolver um sistema grande é mais
eficiente reduzir a matriz completa apenas até a forma escalonada,11 atribuir parâmetros às
variáveis livres, e então calcular as variáveis dependentes fazendo substituição de trás para
frente. Use a última equação para encontrar a última variável dependente em termos dos
parâmetros, substitua esse valor na penúltima equação para calcular a penúltima variável
dependente e assim por diante. Esse método é mais eficiente do que transformar a matriz até
a forma escalonada reduzida, como pode ser confirmado por uma contagem do número de
operações envolvidas (ver na maioria dos livros de análise numérica).
11 Isso é com freqüência conhecido como algoritmo de Gauss, particularmente em análise numérica.
Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 18
⎡ ⎤
1 2 −1 3
⎢ ⎥
Exemplo 11 Calcule o posto de A = ⎢ 2
⎣ 1 1 5⎥
⎦.
−1 4 −5 −1
T EOREMA 3 Suponha que um sistema de m equações em n indeterminadas tem pelo menos uma solução.
Se o posto da matriz completa é r, o conjunto de soluções tem exatamente (n − r) parâmetros.
DEMONSTRAÇÃO Reduza a matriz completa do sistema a uma forma escalonada R. Então R tem r pivôs (já que
o posto é r), logo há exatamente r variáveis dependentes. Conseqüentemente, há (n − r)
variáveis livres e a cada uma delas associamos um parâmetro.
DEMONSTRAÇÃO Se existir uma solução, então ou toda variável é uma variável dependente (solução única) ou
há pelo menos uma variável livre (infinitas soluções porque há um parâmetro envolvido).
Y L1 Y Y
L1 L2 L1 = L2
L2
0 X 0 X 0 X
(1) (2) (3)
Figura 1.1
Nesta seção, vamos nos concentrar em uma classe particular de sistemas de equações
lineares, a saber, os sistemas em que o termo constante de cada equação é igual a 0.
T EOREMA 1 Se um sistema de equações lineares homogêneo tem mais incógnitas que equações, então ele
admite uma solução não-trivial.
DEMONSTRAÇÃO Suponha que existam m equações em n incógnitas, de forma que nossa hipótese é que
n > m. Se r é o posto da matriz completa, então r ≤ m porque o número r de pivôs não
pode exceder o número m de equações. Portanto, r ≤ m < n, donde r < n. Pelo Teorema 3
da Seção 1.2, isso significa que o número n − r de parâmetros é não-nulo. Então existem
(infinitas) soluções não-triviais.
SOLUÇÃO Suponha que as coordenadas dos cinco pontos sejam (p1, q1), (p2, q2), (p3, q3), (p4, q4),e
(p5, q5). O gráfico da equação ax2 + bxy + cy2 + dx + ey + f = 0 passa pelo ponto (pi, qi) se
ap2i + bpiqi + cq2i + dpi + eqi + f = 0
Como há cinco pontos, temos cinco equações lineares homogêneas nas seis incógnitas
a, b, c, d, e e f. Conseqüentemente, há uma solução não-trivial, pelo Teorema 1. Se nessa
solução ocorrer a = b = c = 0, então todos os cinco pontos estão sobre a reta de equação
dx + ey + f = 0, contrário às nossas suposições. Por essa razão, a, b ou c é não-nulo e temos
uma cônica.
Algebra_Chap01_PORTUGUES.qxd 31.08.56 11:20 AM Page 22
Introdução
Neste capítulo, você aprenderá a identificar espaços vetoriais não ne-
cessariamente n-dimensionais (como ℝ n), seus subespaços vetoriais,
as condições necessárias às operações que definem o espaço e seus
subespaços, as propriedades básicas dos espaços e subespaços, assim
como verá exemplos principais de espaços e subespaços vetoriais.
É natural que o primeiro contato do aluno com a álgebra linear seja
por meio de matrizes e vetores do ℝ n. Nesse ambiente, é mais fácil visuali-
zarmos os resultados e as propriedades desses espaços, as operações e as
relações de ângulo e medida. Agora que temos uma visão mais aguçada
do assunto, podemos generalizar esses conceitos a fim de percebermos
essa estrutura (linear) em outros sistemas, conjuntos ou aplicações.
2 Espaços vetoriais: exemplos e propriedades básicas
Os espaços vetoriais
Um espaço vetorial E é um conjunto de vetores, no qual estão definidas ope-
rações de soma e de multiplicação por um número real, de modo que dados
vetores u, v ∈ E e α ∈ ℝ:
a) Comutatividade: u + v = v + u.
b) Associatividade: (u + v) + w = u + (v + w) e (αβ) u = α(βu).
c) Vetor nulo: existe 0 ∈ E, dito vetor nulo, tal que, para todo v ∈ E:
v + 0 = 0 + v = v;
– u + u = u + (–u) = 0;
Uma curiosidade é reparar que usamos o símbolo “0” tanto para o nú-
mero real zero quanto para o vetor nulo. Isso não será problema, pois uma
consequência desses axiomas é que 0 ⋅ u = 0.
Espaços vetoriais: exemplos e propriedades básicas 3
Num espaço vetorial qualquer, os elementos que compõem E não são necessariamente
n-uplas de números reais representando um segmento orientado. Logo, não usamos
→
a notação u para os elementos d e E como fazíamos no espaço vetorial ℝ n.
u = an xn + ⋯ + a1x + a0
v = bn xn + ⋯ + b1x + b0,
onde an, … , a1, a0, bn, … , b1, b0 ∈ ℝ. Nesse espaço, definimos as operações de
modo que:
0 = 0xn + ⋯ + 0x + 0
E o inverso aditivo de u é:
– u = – an xn – … – a1x – a0.
4 Espaços vetoriais: exemplos e propriedades básicas
u = u(x)
v = v(x).
u + v = u(x) + v(x),
αu = α ⋅ u(x).
0 = 0(x) = 0
E o inverso aditivo de u é:
– u = – u(x).
Espaços vetoriais: exemplos e propriedades básicas 5
Subespaços vetoriais
Seja E um espaço vetorial. Um subespaço vetorial (ou apenas subespaço)
de E é um subconjunto F ⊂ E que ainda é um espaço vetorial em relação às
operações de E. Isto é, F apresenta as seguintes propriedades.
i. Se u, v ∈ F, então u + v ∈ F.
ii. Se u ∈ F, então, para todo α ∈ ℝ, αu ∈ F.
Subespaços gerados
Dado um conjunto de vetores B = {u1, u2, … , un } contido no espaço vetorial
E, dizemos que u ∈ E é combinação linear de u1, u2, … , un, se existem α1, α2,
…, αn ∈ ℝ:
onde n = 1, …, + ∞.
Assim, podemos afirmar que o gerado de B é um subespaço de C0 (I) no qual, para
todo u ∈ ger (B), existem α1, α2, … ∈ ℝ, tal que:
Podemos entender esse conjunto como sendo o das cordas tensionadas e vibrantes
entre os pontos fixos (0,0) e (1,0), onde cada ui representa uma frequência de u.
Veja, a seguir, a Figura 1.
a11 a12
Considere o conjunto F das matrizes 2 × 2 da forma u = a
21
a22 , onde aij ∈ ℝ para
todo i,j = 1,2.
a a b b
Dados u = a11 a12 , v = b11 b12 e α є ℝ , definimos a soma e a multiplicação
21 22 21 22
αa11 αa12
αu =
αa21 αa22
a11 + b11 a12 + b12 c11 c12 a11 + b11 + c11 a12 + b12 + c12
b) (u + v) + w = a + b
21 21
a22 + b22 + c21 c22 = a21 + b21 + C21 a22 + b22 + c22 =
0 0
c) Tomando 0 = , então, para todo v ∈ E:
0 0
–a11 –a12
d) Para cada u ∈ E tomando –u = (–1)u = , temos:
–a21 –a22
a11 a12 –a11 –a12 0 0
u + (–u) = + = ;
a21 a22 –a21 –a22 0 0
1a11 1a12
1·u= u.
1a21 1a22
a a
u = a11 λ12
21
a +b a12 + b12 c11 c12 a11 + b11 + c11 a12 + b12 + c12
b) (u + v) + w = a11 + b11 + c
21 21
λ 21
λ = a21 + b21 + c21 λ
0 0
c) Tomando 0 = , então, para todo v ∈ E:
0 λ
0 0 b b12 b b12
0+v= + 11 = 11 = v;
0 λ b21 λ b21 λ
Espaços vetoriais: exemplos e propriedades básicas 11
–a11 –a12
d) Para cada u ∈ E tomando –u = (–1)u = –a λ , temos:
21
a a –a –a12 0 0
u + (–u) = a11 λ12 + –a11 λ = 0 ;
21 21 λ
e) a a (α + β)a11 (α + β)a12
(α + β)u = (α + β) a11 λ12 = =
21 (α + β)a21 λ
a a12
u = a11 a22
21
escalar em H, como:
a11
2
+ b112 a122 + b122
u + v = a2 + b 2 a 2 + b 2
21 21 22 22
αa11 αa12
αu =
αa21 αa22
Dessa forma, as condições (i) e (ii) funcionam igual aos demais exemplos, assim como
a condição (a). Contudo, a condição (b) não é verificada, pois:
2 2
a112 + b112 a122 + b122 c11 c12 (a11
2
+ b11
2
) + c112 (a122 + b122 ) + c122
(u + v) + w = a 2 + b 2 a 2 + b 2 + c c22 = (a21
2
+ b21
2
2
) + C212 (a222
2
+ b222 ) + c222
21 21 22 22 21
Enquanto que:
2 2
a a b112 + c112 b122 + c122 a112 + (b112 + c112 ) a122 + (b122 + c122 )
u + (v + w) = a11 a12 + 2 = 2 2 2
21 22 b21 + c21 b22 + c22
2 2 2
a21 + (b212 + c212 ) a222 + (b222 + c222 )
u = [aij],
v = [bij]
u + v = [cij ],
0 = [0]
E o inverso aditivo de u é:
– u = [– aij].
Outro exemplo são as sequências ordenadas de infinitos números reais, o ℝ∞. Nesse
conjunto, os elementos de ℝ∞ são:
onde a1, b1, a2, b2, a3, b3, …∈ ℝ. Nesse espaço, definimos as operações de modo que:
0 = (0, 0, 0,…)
E o inverso aditivo de u é:
Se u, v ∈ F, então u + v ∈ F.
Se u ∈ F , então, para todo α ∈ ℝ, α u ∈ F.
Lembrando que uma matriz A = [aij], n × n é dita simétrica se, para todo i,j = 1, …, n,
aij = aji, isto é, se A coincide com a sua transposta (A = AT ).
Nessas condições, verificamos que Sn é um subespaço de Mn × n(ℝ), pois:
Espaços vetoriais: exemplos e propriedades básicas 15
αaij = αaji
F = M2×2(ℝ).
Gλ =
{ a11
a21
a12
λ
; a11, a12, a21 є ℝ
{
Com as operações de soma e multiplicação por número real, de forma que:
αa11 αa12
αu =
αa21 λ
Essa comparação ilustra o fato que os espaços e subespaços são formados por
uma terna de um conjunto e duas operações, e que um subconjunto só é subespaço
quando usa as mesmas operações do espaço que o contém.
Gx0 = {u ∈ E; u(x0) = 0}
das funções contínuas em I e que contém um ponto fixo em (x0,0). Tomando as opera-
ções naturais de soma de funções e multiplicação por número escalar, verificamos que:
1. dadas as funções u, v ∈ Gx0, então u + v = u(x) + v(x) é uma função contínua, de
forma que (u + v)(x0 ) = u(x0 ) + v(x0 ) = 0 + 0 = 0, logo u + v ∈ Gx0;
2. dada a função u ∈ Gx0 e α ∈ ℝ, então αu = αu(x) é uma função contínua, de forma
que (αu)(x0 ) = αu(x0 ) = α0 = 0, logo αu ∈ Gx0.
Isso mostra que Gx0 é um subespaço de C0 (I).
Espaços vetoriais: exemplos e propriedades básicas 17
das funções contínuas em I e que contém um ponto fixo em (x0,λ). Esse não é subes-
paço vetorial de C0 (I) porque a soma de funções em Hx0 não é fechada Hx0.
Dadas as funções u, v ∈ Hx0, então u + v = u(x) + v(x) é uma função contínua, de
forma que (u + v)(x0 ) = u(x0) + v(x0 ) = λ + λ = 2λ ≠ λ, logo u + v ∉ Hx0.
Isso mostra que Hx0 não é um subespaço de C0 (I).
Seja M3×2(ℝ) o espaço vetorial das matrizes 3 × 2 de coeficientes reais com as operações
naturais de soma de matrizes e multiplicação por número real. Definindo subconjunto:
a11 a12
G= u = a21 a22 є M3×2 (ℝ); a11 ≥ 0
a31 a32
Verificamos o seguinte.
1. Dadas as matrizes:
então:
2 3 –2 –3
2. Dados α = – 1 e u = 3 4 então α ∈ ℝ, u ∈ G , enquanto que: αu = –3 –4 є G.
4 5 –4 –5
Logo G não é fechado para a multiplicação por número real.
Portanto, G não é subespaço de M3×2(ℝ).
Seja M2×2(ℝ) o espaço vetorial das matrizes 2 × 2 de coeficientes reais com as operações
naturais de soma de matrizes e multiplicação por número real. Definindo subconjunto:
2 3 v= 0 0
Verificamos que G não é fechado para a soma, pois, dados u = e ,
0 0 1 0
temos que u, v ∈ G . Os determinantes de u e v são nulos (logo, não contêm inversa),
2 3
enquanto que u + v = , cujo determinante é diferente de zero (logo, contém
1 0
inversa). Portanto, u + v ∉ G e G não é subespaço de M2×2(ℝ).
Referência
ANTON, H.; RORRES, C. Álgebra linear com aplicações. 10. ed. Porto Alegre: Bookman, 2012.
Leituras recomendadas
ANTON, H.; BIVENS, I.; DAVIS, S. Cálculo. 10. ed. Porto Alegre: Bookman, 2014. v. 1.
LAY, D.; LAY, S.; MACDONALD, J. Álgebra linear e suas aplicações. 5. ed. Rio de Janeiro:
LTC, 2018.
ÁLGEBRA LINEAR
Introdução
Neste capítulo, você estudará um pouco mais sobre álgebra linear, sendo
apresentado ao espaço ℝ n, uma generalização natural dos conceitos
que aprendemos em ℝ 2 e ℝ 3. Verá, também, o que são subespaços e
conjuntos de geradores, além de entender como alguns subespaços
especiais se relacionam com transformações matriciais.
Espaços ℝ n
O espaço ℝ n é uma generalização natural dos espaços ℝ 2 e ℝ 3, para dimen-
sões maiores. No espaço ℝ n, para n ≥ 4, perdemos a capacidade de desenhar,
ficando sem o apelo da visualização. Contudo, como será visto, as propriedades
algébricas dos espaços e das transformações matriciais continuam válidas e
passam a ter um papel ainda mais importante. Seguiremos uma linha seme-
lhante à apresentada em Nicholson (2006).
2 O espaço ℝ n: subespaços e geradores
P(x,y)
3
2
v
B
–3 –2 –1 0 1 2 3
Paulo, um economista que trabalha para uma rede de pizzarias, tem em mãos dados
sobre as vendas das unidades e a quantidade de estudantes que moram nas redondezas
dessas lojas.
3 30
1 27
1 26
0,5 23
3,5 32
Paulo deseja encontrar a reta de regressão desses valores, isto é, uma reta que tente
explicar como as vendas variam à medida que o número de estudantes aumenta.
Veja a Figura 2.
y1 y’1
y2 y’2
Y = y3 e Y’ = y’3
y4 y’4
y5 y’5
d(Y,Y’) = √(y1 – y’1)2 + (y2 – y’2)2 + (y3 – y’3)2 + (y4 – y’4)2 + (y5 – y’5)2
y = 2,47x + 23,13
Você pode encontrar mais sobre o método dos mínimos quadrados em Nicholson
(2006), na seção 4.6.
e em ℝ n e α ∈ ℝ, temos:
1.
2.
O espaço ℝ n: subespaços e geradores 5
Subespaços vetoriais
Na seção anterior, apresentamos os espaços ℝ n, como são definidos e alguns
exemplos deles. Agora, você estudará os subespaços do espaço ℝ n.
Começamos em moldes semelhantes ao apresentado em Nicholson (2006)
e Anton e Busby (2006), apresentando a definição de subespaço.
Considere um espaço ℝ n. Diremos que um subconjunto de vetores E ⊆ ℝ n
é um subespaço de ℝ n, se, com as operações de soma e produto por escalar
definidas em ℝ n, ele atender às seguintes condições:
→
1. 0 ∈ E;
→ → → →
2. se u , v ∈ E, então u + v ∈ E;
→ →
3. dados α ∈ ℝ e v ∈ E, tem-se que α v ∈ E.
x1
x2
→ →
Vamos verificar que o E = {v є R5|u = 0 } é um subespaço de ℝ 5. Com efeito, tomando
0
0
x1 = x2 = 0, concluímos que a primeira condição é satisfeita. Agora, para verificar-
→ →
mos as demais, vamos tomar um par de vetores u , v ∈ E e α ∈ ℝ, digamos com
6 O espaço ℝ n: subespaços e geradores
x1 y1
x2 y2
→ →
u = 0 ev = 0 . Temos, portanto:
0 0
0 0
x1 y1 x1 + y1 x1 + y1
x2 y2 x2 + y2 x2 + y2
→ →
1. u + v = 0 + 0 = 0+0 = 0 єE
0 0 0+0 0
0 0 0+0 0
x1 αx1 αx1
x2 αx2 αx2
→
2. αu = α 0 = α0 = 0 є E .
0 α0 0
0 α0 0
Logo, E é, de fato, um subespaço de ℝ 5. Na verdade, o leitor mais ávido percebeu
que se trata, em algum sentido, de uma cópia do espaço ℝ 2 imersa em ℝ 5.
→ 1+t
Considere o subconjunto E do plano formado pelos vetores da forma v = |tєR.
–1 + t
Observe que ele não inclui o vetor nulo. De fato, se 1 + t = 0 → t = –1, temos a primeira
coordenada nula. Mas, para esse mesmo valor, a segunda será igual a –2.
Esse conjunto coincide com a reta de equação:
y=x–2
x+y
→ → y
E = v є R4 | v = , onde x, y, є R
x–y
y
v1 + v2 u1 + u2
→ v2 → u2
v= e u=
v1 – v2 u1 – u2
v2 u2
Obtemos:
v1 + v2 u1 + u2 x+y
→ → v2 u y
u + v = v – v + u –2 u = x–y
1 2 1 2
v2 u2 y
→ →
onde x = v1 + u2 e y = v2 + u2. Portanto, u + v ∈ E
Temos, também, que:
→
onde x = αu1 e y = αu2. Portanto, α u ∈ E.
Concluímos que E é, de fato, um subespaço de ℝ n.
→
1. aNul(A) = {0 };
2. det(A) ≠ 0;
3. Im(A) = ℝ n.
1 1 1
A= 0 2 1
0 0 1
1 1 1 x1 0
0 2 1 x2 = 0
0 0 1 x3 0
x1 + x2 + x3 = 0
2x2 + x3 = 0
x3 = 0
O espaço ℝ n: subespaços e geradores 9
Resolvendo o sistema por substituição, obtemos que a única solução é o vetor nulo
→
x1 = x2 = x3 = 0. Segue, do resultado enunciado acima, que aNul(A) = {0 } e Im(A) = ℝ 3.
Observe que poderíamos ter calculado o determinante de A para chegarmos à
mesma conclusão.
1 1 1 1
0 0 2 1
A=
0 2 1 0
0 0 1 0
1 1 1 1 x1 0
0 0 2 0 x2 0
x3 =
0 2 1 0 0
0 0 1 0 x4 0
x1 + x2 + x3 + x4 = 0
2x3 = 0
2x2 + x3 = 0
x3 = 0
x1 + x4 = 0
x3 = 0
x2 = 0
x3 = 0
10 O espaço ℝ n: subespaços e geradores
x1
0
Obtemos, portanto, que os vetores no espaço anulado de A são da forma , ou
0
ainda: –x1
1
aNul(A) = {x1 0 | x1 є R}
0
–1
1 1 1 1 x1 x1 + x2 + x3 + x4 1 1 1 1
0 0 2 0 x2 2x3 0 0 2 0
0 2 1 0 x3 = 2x2 + x3
= x1
0
+ x2
2
+ x3
1
+ x4
0
0 0 1 0 x4 x3 0 0 1 0
1 1 1
= (x1 + x4) 0 + x2 0 +x 2
0 2 3
1
0 0 1
1 1 1
v = (x1 + x4) 0 + x2 0 +x 2 ; x,x,x,x єR
→
Im(A) = 3 1 2 3 4
0 2 1
0 0 1
1 0
Considere os vetores e1 = e e2 = . Vamos verificar que o conjunto gerado por
0 1 v1
→
eles é o próprio plano euclidiano. De fato, dado um vetor v = v , podemos escrever:
2
→ v 1 0
v = v1 = v1 + v2 = v1e1 + v2e2
2 0 1
→
Portanto, o vetor v pertence ao ger{e1, e2}. A outra inclusão — de que os vetores
desse conjunto gerado pertencem ao plano — segue de forma natural.
1 0 0
Os vetores v1 = 0 , v2 = 0 e v3 = 3 formam um conjunto de geradores para o espaço
1 1 0
euclidiano? Esse tipo de verificação costuma ser feito por meio de duas inclusões.
A primeira ger{v1, v2, ..., vn } ⊆ ℝ 3 é natural, restando a necessidade de verificar
v1
→ →
que ℝ 3 ⊆ ger{v1, v2, v3}. Com efeito, dado um vetor v ∈ ℝ n, digamos v = v2 , observe
inicialmente que: v3
v1 1 0 0
→
v = v2 = v1 0 + v2 1 + v3 0
v3 0 0 1
O espaço ℝ n: subespaços e geradores 13
e1 = v1 – v2
1
e2 = v
3 3
e3 = v2
v1
→ 1
v = v2 = v1(v1 – v2) + v2 v3 + v3v2
3
v3
→ v2
v = v1v1 + (v3 – v1) v2 + v3 є ger {v1, v2, v3 }
3
2
O vetor v1 = , sozinho, não pode gerar o plano euclidiano. De fato, se isso fosse
0
possível, existiriam números reais a e b, tais que:
1
av1 + bv1 =
1
1
(a + b)v1 =
1
(a + b)1 1
=
(a + b)0 1
ANTON, H.; BUSBY, R. C. Álgebra linear contemporânea. Porto Alegre: Bookman, 2007.
NICHOLSON, W. K. Álgebra linear. 2. ed. São Paulo: McGraw-Hill, 2006.
Leitura recomendada
LIPSCHUTZ, S.; LIPSON, M. Álgebra linear. 4. ed. Porto Alegre: Bookman, 2011. (Coleção
Schaum).
ÁLGEBRA LINEAR
Introdução
Neste capítulo, você definirá o conceito de transformação linear entre
espaços vetoriais dentro da definição generalizada desses. Você também
verá exemplos de transformações lineares nos espaços das matrizes,
dos polinômios, das funções e, principalmente, como elas identificam
propriedades entre espaços vetoriais ditos isomorfos. Adicionalmente,
em cada exemplo, você verá como identificar se uma função é uma
transformação linear e argumentar a validade de cada afirmação.
A definição de transformação linear entre espaços vetoriais quaisquer
expande enormemente o conceito de transformações lineares no ℝ n
estabelece uma forma de compararmos famílias de espaços vetoriais
bastante diferentes e permite definir um conjunto de vetores canônicos
no espaço dos polinômios e no espaço das matrizes.
2 Espaços vetoriais: transformações lineares
Transformações lineares
Sejam E, F espaços vetoriais, uma transformação linear A: E → F é uma lei
que associa a cada vetor u ∈ E um vetor A(u) ∈ F, de modo que, para quaisquer
u, v ∈ E e α ∈ ℝ, A satisfaz que:
Lembrando-se de que Mn×m(ℝ) é o espaço vetorial das matrizes n×m, fixamos TA uma
matriz 3x2 e definimos a transformação A: M2×m(ℝ) → M3×m(ℝ), tal que, dado u ∈ M2×m(ℝ):
A(u) = TA ∙ u
Ou seja, essa transformação calcula a imagem A(u) ∈ M3×m(ℝ) por meio da multi-
plicação matricial da matriz TA com a matriz u. Veja que essa transformação é, de fato,
linear, já que, dados α ∈ ℝ e u ∈ M2×m(ℝ), temos:
1. A(u + v) = TA ∙ (u + v) = TA ∙ u + TA ∙ v = A(u) + A(v)
2. A(α ∙ u) = TA ∙ (α ∙ u) = α ∙ TA ∙ u = α ∙ A(u)
Portanto, A é uma transformação linear de M2×m(ℝ) em M3×m(ℝ).
Espaços vetoriais: transformações lineares 3
B(u) = u ∙ u
C(u) = det(u)
1 0 1 0 0 0
u= ,u = ,u =
0 1 1 0 0 2 0 1
temos u = u1 + u2 e:
1 0 2 0 2 0 2 0 4 0
1. B 2 =B = · =
0 1 0 2 0 2 0 2 0 4
Enquanto que:
1 0 1 0 1 0 1 0 2 0
2B =2 · =2 =
0 1 0 1 0 1 0 1 0 2
Logo:
1 0 1 0
B 2 ≠ 2B
0 1 0 1
1 0 1 0
2. C(u) = C 0 1 = det =1
0 1
Enquanto que:
1 0 1 0
C(u1) = C 0 0 = det 0 0 = 0
0 0 0 0
C(u2) = C 0 1 = det 0 =0
1
Logo:
A(u) = (x + 1) ∙ u
Essa é uma função que, dado qualquer v ∈ P2 (o espaço vetorial dos polinômios
de grau menor ou igual a dois) calcula um valor associado em ℝ (que também é um
espaço vetorial). Veja que essa transformação é, de fato, linear, já que, dados α ∈ ℝ e
u, v ∈ P2, tal que:
u = a2 x2 + a1x + a0
v = b2 x2 + b1x + b0
temos:
1. A(u + v) = A((a2 + b2)x2 + (a1 + b1)x + (a0 + b0)) = (a2 + b2) + (a1 + b1) + (a0 + b0) =
(a2 + a1 + a0) + (b2 + b1 + b0) = A(u) + A(v)
2. A(α ∙ u) = A(αa2 x2 + αa1x + αa0) = αa2 + αa1 + αa0 = α(a2 + a1 + a0) = α ∙ A(u)
Portanto, A é um funcional linear de P2 em ℝ.
A(u) = u’
Veja que essa transformação é, de fato, linear, já que, dados α ∈ ℝ e u, v ∈ C∞(ℝ), temos:
1. A(u + v) = (u + v)’ = u’ + v’ = A(u) + A(v)
2. A(α ∙ u) = (α ∙ u)’ = α ∙ u’ = α ∙ A(u)
Logo, A é um operador linear em C∞(ℝ) e, dado u polinômio de grau n, então
u ∈ ger(xn, ..., x2, x, 1) de forma que existem α0, α1, ..., αn ∈ ℝ, tal que:
e definindo:
A(xi) = ixi–1
A(1) = 0
para todo i = 1, ..., n, podemos calcular a derivada de u pelas regras (de derivação)
anteriores, de maneira que:
Usando a teoria de integração do cálculo, podemos falar de outro operador que trabalha
no espaço das funções contínuas. Dados a, b ∈ ℝ, a < b, fixamos uma função contínua
𝛿: [a, b] × [a, b] → ℝ e definimos a transformação A:C0(ℝ) → C0(ℝ) por:
A(u) = ∫ a
δ(x, y)u(y) dy
Espaços vetoriais: transformações lineares 7
1. A(u + v) = ∫ a
δ(x, y)(u + v)(y) dy = ∫a
δ(x, y)(u(y) + u(y)) dy
b b
= ∫ a
δ(x, y)u(y) dy + ∫ a
δ(x, y)v(y) dy = A(u) + A(v)
b b b
2. A(α · u) = ∫a
δ(x, y)(αu)(y) dy = ∫ a
αδ(x, y)u(y) dy = α ∫a
δ(x, y)u(y) dy = α · A(u)
Im(A) = {w = A(u); u ∈ E}
Im(A) = ℝ
w w w
Pois, para todo w ∈ ℝ, se tomarmos o polinômio u ∈ P2, tal que u(x) = 3 x2 + 3 x + 3 ,
então:
w w w
A(u) = + + =w
3 3 3
A(u) = T ∙ u
Dado w = (x1, x2) ∈ ℝ 2, temos que w ∈ Im(A) se existe u = ax2 + bx + c, tal que
A(u) = w, isto é, se:
a2 + 2a1 – a0 = x1
3a2 – 2a1 + a0 = x2
a2
1 2 –1 .
a1 = w
3 –2 1
a0
TA
Esse sistema também significa que w pertence ao gerado das colunas de TA , pois
essa igualdade pode ser reescrita como:
1 2 –1
a2 + a1 + a0 =w
3 –2 1
O núcleo de A é o subconjunto de E:
A(u) = (x + 1) ∙ u
(x + 1) ∙ u = 0 ⇔ u = 0
Logo, o único vetor em P3 que tem como imagem o vetor nulo é u(x) = 0. Portanto,
𝒩(A) = 0, e essa transformação é injetora.
Por outro lado, essa transformação não é sobrejetora, pois, dada qualquer constante
real k ≠ 0, ela não é imagem de algum u(x) ∈ P3, isto é:
(x + 1)u(x) ≠ k
A(u) = T ∙ u
a2 + 2a1 – a0 = 0
3a2 – 2a1 + a0 = 0
a2
1 2 –1 . 0
a1 =
3 –2 1 0
a0
TA
1 2 –1 1 2 –1 1 2 –1 1 0 0
~ ~ ~
3 –2 1 0 –8 4 0 2 –1 0 2 –1
12 Espaços vetoriais: transformações lineares
a2 = 0
2a1 – a0 = 0
a0 = a0
ou:
a2 = 0
1
a1 = a
2 0
a0 = a0
Dessa forma:
1
(A) = u = a0 0x2 + x + 1 , a0 є ℝ
2
1
Isso significa que 𝒩(A) é um subespaço vetorial de P2 dos vetores múltiplos de x+1.
2
A(u) = (x + 1) ∙ u
é linear e injetora. Sabemos que o conjunto {1, x, x2, x3} é linearmente independente
em P3 Agora, se tomamos a imagem por A de cada um desses vetores:
A(1) = x + 1
A(x) = x2 + x
A(x2) = x3 + x2
A(x3) = x4 + x3
Espaços vetoriais: transformações lineares 13
x + 1 x2 + x x3 + x2 x4 + x3
1 2x + 1 3x2 + 2x 4x3 + 3x2
= det = –12(9x4 + 6x3 – 9x2 – 7x –1)
0 2 6x + 2 12x2 + 6x
0 0 6 24x + 6
Isto é, W(x) ≠ 0 para todo x ∈ ℝ. E podemos afirmar que {A(1), A(x), A(x2), A(x3)} é
linearmente independente sobre P4.
I(u) = u
B(A(u)) = u
A(B(w)) = w
O exemplo anterior pode ser estendido ao caso geral que afirma que, dado
n ∈ ℕ, existe um isomorfismo entre ℝ n+1 e Pn , de forma que {1, x, x2, ..., xn}
é um conjunto linearmente independente dos vetores ditos canônicos em Pn.
Outro isomorfismo entre os espaços vetoriais que estudamos é ilustrado
no exemplo a seguir.
Espaços vetoriais: transformações lineares 15
a1 a2 a3
B(a1, a2, a3, a4, a5, a6) =
a4 a5 a6
a1 + b1 a2 + b2 a3 + b3 a a a b b b
= a1 a2 a3 + b1 b2 b3 = B(u) + B(v)
a4 + b4 a5 + b5 a6 + b6 4 5 6 4 5 6
αa αa αa3 a1 a2 a3
2. B(αu) = B(αa1, αa2, αa3, αa4, αa5, αa6) = αa1 αa2 αa6 = α a4 a5 a6 = αB(u)
4 5
B é injetora, pois:
a1 a2 a3
1. B(u) = 0 implica que , isto é, o vetor nulo de M2×3(ℝ), portanto
a4 a5 a6 = 0
a1 = a2 = a3 = a4 = a5 = a6 = 0, o que significa que 𝒩(A) = {0}.
B é sobrejetora, pois:
2. para todo w ∈ M2×3(ℝ), existem w1, w2, w3, w4, w5, w6 ∈ ℝ, tal que B(w1, w2, w3, w4,
w5, w6) = w.
Uma consequência importante desse isomorfismo é que todo conjunto linearmente
independente de ℝ 6 é transformado num conjunto linearmente independente de
M2×3(ℝ). Em particular, se tomarmos o conjunto dos vetores canônicos de ℝ 6, eles
serão transformados no conjunto linearmente independente de M2×3(ℝ).
1 0 0 , 0 1 0 , 0 0 1
0 0 0 0 0 0 0 0 0
{B(e1), B(e2), B(e3), B(e4), B(e5), B(e6)} =
0 0 0 , 0 0 0 , 0 0 0
1 0 0 0 1 0 0 0 1
16 Espaços vetoriais: transformações lineares
O exemplo anterior pode ser estendido ao caso geral, que afirma que,
dados, existe um isomorfismo entre ℝ mn e Mm×n(ℝ), de forma que o conjunto
de todas as matrizes Er,s = [aij] ∈ Mm×n(ℝ) com r = 1, ..., m, s = 1, ..., n, tal que:
Referência
ANTON, H.; BIVENS, I. C.; DAVIS, S. L. Cálculo. 10. ed. Porto Alegre: Bookman, 2014. v. 1 e 2.
Leituras recomendadas
ANTON, H.; RORRES, C. Álgebra Linear com aplicações. 10. ed. Porto Alegre: Bookman, 2012.
LAY, D. C.; LAY, S. R.; MACDONALD, J. J. Álgebra linear e suas aplicações. 5. ed. Rio de
Janeiro: LTC, 2018.
LIMA, E. L. Álgebra linear. 9. ed. Rio de Janeiro: SBM, 2016.
ÁLGEBRA
LINEAR
Introdução
Neste capítulo, você identificará quando um conjunto de vetores é uma
base, saberá como decompor vetores sobre uma base qualquer de seu
subespaço por meio de matrizes especiais, como definir dimensão de
um subespaço e identificar a base de um subespaço. Esse caminho levará
a uma decomposição do espaço vetorial ℝ n em dois subespaços que
veremos a seguir.
Bases do ℝn
Uma base do ℝ n é um conjunto:
→ →
B = {v 1, ..., v n}
→
v 1 + ... + αn ∙ →
v = α1 ∙ → vn
2 Espaço vetorial ℝ n: base e dimensão
Repare que esses vetores são linearmente independentes, e a matriz 5x5 da forma
demonstrada a seguir é a matriz identidade 5x5.
1 0 0 0 0
0 1 0 0 0
→
[e 1 ... e→ ] = 0 0 1 0 0
5
0 0 0 1 0
0 0 0 0 1
→ → → →
a) B = { v 1, v 2, v 3, v 4} é um conjunto linearmente independente?
→
b) Como podemos escrever o vetor v 1 = (11,–3,7,4) como uma combinação linear
→
dessa base? Isto é, quais são as coordenadas de v na base B?
Solução:
a) B é um conjunto linearmente independente porque a a seguinte equação matricial
admite apenas a solução trivial (0,0,0,0). Podemos calcular isso pelo método de Gauss.
(( ((
1 0 1 4 x1 0
0 1 2 –1 x2 0
∙ x3 =
2 3 3 2 0
–4 –2 –3 7 x4 0
→ → → → →
v = α1 ∙ v 1 + α2 ∙ v 2 + α3 ∙ v 3 + α4 ∙ v 4
(( (( (( (( ((
11 1 0 1 4
–3 = α1 ∙ 0 = α2 ∙ 1 = α3 ∙ 2 = α4 ∙ –1
7 2 3 3 2
4 –4 –2 –3 7
Isso equivale a solucionar a seguinte equação matricial, que pode ser resolvida
usando o método de Gauss.
((((
1 0 1 4 a1 11
0 1 2 –1 a2 –3
∙ a3 =
2 3 3 2 7
–4 –2 –3 7 a4 4
Dessa forma, podemos calcular que existe uma única solução dada por (α1, α2, α3, α4) =
(3,–1,0,2).
4 Espaço vetorial ℝ n: base e dimensão
v na base B de ℝ n. O caso
se esse é o vetor formado pelos coeficientes de →
particular, onde B é a base canônica, temos que (v )B = →
→
v.
→
Quando fixamos um vetor v em ℝ n, ele existe independente de uma base. Quando
fixamos uma base B e escrevemos a representação de →
v na base B, essa representação
(→
v )B é única em relação a B, e para cada base teremos uma representação diferente.
essa matriz transforma um vetor (v→)B, na sua forma canônica → v . Desse modo,
se quisermos calcular uma matriz que faça o caminho contrário, isto é, que
v , precisamos calcular a matriz inversa de MB→E.
calcule (v→)B a partir do vetor →
Espaço vetorial ℝ n: base e dimensão 5
3 –2
MB→ℰ =
1 –1
Assim,
a) como podemos calcular a inversa dessa matriz?
→
b) dado v = (–3,4), como calcular a sua forma na base B?
Solução:
a) Como essa é uma matriz 2 × 2 e seu determinante é não nulo, podemos usar a
fórmula:
–1
a b 1
= ∙ d –b
c d ad – bc –c a
1 1
–1
MB→ℰ = ∙ –1 +2 = ∙ –1 2 = 1 –2
3 ∙ (–1) – (1) ∙ (–2) –1 3 –1 –1 3 1 –3
→ –1
( v )B = MB→ℰ
→
∙v =
1
1
–2
–3 ( ( (
∙ –3 =
4
–3 –8
–3 –12
= –11
–15 ( ( (
Isto é, ( →
v )B = (–11,–15). Isso significa que →
v = –11 ∙ (3,1) – 15 ∙ (–2,–1) = (–3,4), onde
essa última igualdade mostra como ( →
v )B é o vetor →
v , só que escrito de uma forma
alternativa (não canônica).
–1 –2 1
MB→ℰ = 2 –1 4
1 0 1
Assim,
a) como podemos calcular a inversa dessa matriz?
→
b) dado v (–5,2,1), como calcular a sua forma na base B?
Solução:
a) Como essa é uma matriz 3 × 3, usamos o método de redução linear (ANTON; ROR-
RES, 2012, p. 55), onde juntamos a matriz identidade I à direita de MB→ℰ, da forma:
[MB→ℰ | I]
e efetuamos operações com as linhas dessa matriz até que o lado esquerdo esteja
reduzido a I. Desse modo, a matriz final terá a forma:
[I | Mℰ→B]
–1 –2 1 1 0 0
2 –1 4 0 1 0
1 0 1 0 0 1
1 0 1 0 0 1
–2 1 –4 0 –1 0
–1 –2 1 1 0 0
1 0 1 0 0 1
0 1 –2 0 –1 2
0 –2 2 1 0 1
Espaço vetorial ℝ n: base e dimensão 7
1 0 1 0 0 1
0 1 –2 0 –1 2
0 0 –2 1 –2 5
1 0 1 0 0 1
0 1 –2 0 –1 2
0 0 1 –1/2 1 –5/2
Somamos –1 vez a terceira linha à primeira e duas vezes a terceira linha à segunda:
1 0 0 1/2 –1 7/2
0 1 0 –1 1 –3
0 0 1 –1/2 1 –5/2
Portanto:
1 7
–1
2 2
Mℰ→B = –1 1 –3
1 5
– 1 –
2 2
((( (((
1/2 –1 7/2 –5 –5/2 –2 + 7/2 –1
→ →
( v )B = Mℰ→B ∙ v = –1 1 –3 ∙ 2 = 5+2–3 = 4
–1/2 1 –5/2 1 +5/2 + 2 – 5/2 2
Isto é, ( →
v )B = (–1,4,2). Isso significa que →
v = –1 ∙ (–1,2,1) + 4 ∙ (–2,–1,0) + 2 ∙ (1,4,1) = (–5,2,1),
onde esta última igualdade mostra como ( →
v )B é o vetor →
v , só que escrito de uma forma
alternativa (não canônica).
8 Espaço vetorial ℝ n: base e dimensão
Bases de um subespaço do ℝ n
De forma similar ao que definimos anteriormente, dado um subespaço vetorial
E do ℝ n, uma base de E é um conjunto B de vetores linearmente independentes,
tal que B⊂E e B é gerador de E. Isto é, se → v ∈E e B é uma base de E, então
existem → v 1, ... , →
v m e α1, ..., αm ∈ ℝ, tal que:
v = α1 . →
→
v 1 + ... + αm . →
vm
Solução:
a) B1 é linearmente independente, pois seus vetores não são múltiplos. Isso significa
que o espaço gerado por B1 é um subespaço de ℝ 3.
b) B2 é linearmente dependente, pois a equação matricial:
(( ((
2 1 3 x1 0
1 –2 4 . x2 = 0
–2 3 –7 x3 0
admite outras soluções diferentes da solução trivial (0,0,0). Podemos observar isso
por meio do método de Gauss e da falta de pivôs na forma escalonada. Logo, B2 não
é uma base de um subespaço do ℝ 3.
Espaço vetorial ℝ n: base e dimensão 9
(( ((
1 0 1 x1 0
4 2 1 . x2 = 0
–3 5 1 x3 0
admite apenas a solução trivial (0,0,0), calculada, por exemplo, pelo método de
Gauss. Logo, B3 é uma base de um subespaço do ℝ 3 (base do próprio ℝ 3, na verdade).
b) Em B1, →
v pertence ao subespaço gerado, se existe solução para a equação vetorial:
(( ( ( ((
1 1 0
2 = α1 ∙ 4 + α2 ∙ 2
0 –3 5
No caso, essa igualdade não tem solução, pois as soluções na primeira (α1 = 1) e
segunda coordenadas (α2 = –1) não são soluções na terceira coordenada. Portanto, →
v
não pertence ao gerado de B1.
Em B3, a equação vetorial:
(( ( ( (( ((
1 1 0 1
2 = α1 ∙ 4 + α2 ∙ 2 + α3 ∙ 1
0 –3 5 1
(( ((
1 0 1 a1 1
4 2 1 . a2 = 2
–3 5 1 a3 0
Subespaços vetoriais de ℝ 2 e ℝ 3
Se considerarmos apenas os subespaços vetoriais próprios de ℝ 2 e ℝ 3, conforme
Figura 1, observamos o seguinte.
x + 2y – 4z = 0
Solução:
A equação x + 2y – 4z = 0 admite infinitas soluções (x,y,z). Uma maneira de expres-
sarmos essas soluções é escrevendo a equação como:
x = –2y + 4z
3x – y + z = 0
2x + 3y + w = 0
Solução:
Esse exemplo, apesar de mais complexo, não é tão diferente do anterior, no qual
identificamos algumas variáveis livres na equação e escrevemos as variáveis depen-
dentes a partir dessas. Neste exemplo, faremos o mesmo no sistema de equações
dado. Considerando:
3x – y + z = 0
2x + 3y + w = 0
Escrevemos z e w em função de x e y:
z = –3x + y
w = –2x – 3y
Substituindo as variáveis z e w em →
v , podemos reescrever →
v como:
→
v = (x,y, –3x + y, –2x – 3y)
que, por sua vez, por ser reescrito como a soma de um vetor que depende de x e
um vetor que depende de y:
→
v = (x,y, –3x + y, –2x – 3y) = (x,0,–3x,–2y) + (0,y,+y,–3y)
Espaço vetorial ℝ n: base e dimensão 13
que, por sua vez, pode ser reescrito como a combinação (linear) de dois vetores:
→
v = x ∙ (1,0,–3,–2) + y ∙ (0,1,1,–3)
Portanto, qualquer →
v ∈F é uma combinação linear de:
v1 = (1,0,–3,–2)
v2 = (0,1,1,–3)
E {→
v 1, →
v 2} é uma base do subespaço vetorial F de dimensão 2 em ℝ 4.
Solução:
Vamos tentar generalizar os exemplos anteriores por meio deste. O sistema de
equações lineares:
e→v como a soma de 3 vetores, cada um dependendo de apenas uma das variáveis
livres:
→
v = (2x3 + 3x4 – 2x5,4x3 + 5x4 – 3x5,x3,x4,x5) =
= (2x3,4x3,x3,0,0) + (3x4,5x4,0,x4,0) + (–2x5,–3x5,0,0,x5)
= x3 ∙ (2,4,1,0,0) + x4 ∙ (3,5,0,1,0) + x5 ∙ (–2,–3,0,0,1)
Portanto, qualquer →
v ∈G é uma combinação linear de:
v1 = (2,4,1,0,0)
v2 = (3,5,0,1,0)
v3 = (–2,–3,0,0,1)
E {→
v 1, →
v 2, →
v 3} é uma base do subespaço vetorial G de dimensão 3 em ℝ 5.
e veja que:
a) C é linearmente dependente;
b) podemos determinar um subconjunto de C que é linearmente independente e
que gera o mesmo subespaço que C.
Solução:
a) Por definição, { →
v 1, →
v 2, →
v 3, →
v 4} é linearmente independente, se:
→
α1 . →
v 1 + ... + αn . →
vn = 0
admite apenas a solução trivial (α1,α2,α3,α4) = (0,0,0,0). Quando aplicamos esse critério
aos vetores dados, temos:
( ( ( ( ( ( ( (((
2 0 2 2 0
0 1 2 3 0
α1 ∙ –3 + α2 ∙ 1 + α3 ∙ –1 + α4 ∙ 0 = 0
1 –2 –3 –5 0
–4 2 0 2 0
((((
2 0 2 2 a1 0
0 1 2 3 a2 0
–3 1 –1 0 ∙ a3 = 0
1 –2 –3 –5 a4 0
–4 2 0 2 0
2 0 2 2 0
0 1 2 3 0
–3 1 –1 0 0
1 –2 –3 –5 0
–4 2 0 2 0
16 Espaço vetorial ℝ n: base e dimensão
1 0 1 1 0
0 1 2 3 0
–3 1 –1 0 0
1 –2 –3 –5 0
2 –1 0 –1 0
Somamos 3 vezes a primeira linha à terceira,–1 vez a primeira linha à quarta e–2
vezes a primeira linha à quinta:
1 0 1 1 0
0 1 2 3 0
0 1 2 3 0
0 –2 –4 –6 0
0 –1 –2 –3 0
1 0 1 1 0
0 1 2 3 0
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
Nesse momento, podemos analisar que α3 e α4 são variáveis livres do sistema. Isso
significa que existem infinitas combinações (α1,α2,α3,α4) que resultam no vetor nulo.
Portanto, C é linearmente dependente.
então →
v4 =→v 1 + 3v→ 2 e →
v3 =→
v 1 + 2v→ 2. Isso nos permite afirmar que B = { →
v 1, →
v 2} é uma
base do gerado de C. Isso ocorre por percebermos que todos os vetores de C são
obtidos por combinações de apenas dois vetores não múltiplos e, portanto, linearmente
independentes. Assim, quaisquer dois vetores não múltiplos no gerado de C formam
uma base do gerado de C.
Espaço vetorial ℝ n: base e dimensão 17
→
v 3 = 1v→ 1 + 2v→ 2 + 0v→ 3 + 0v→ 4
ou como:
→
v 3 = 0v→ 1 + 0v→ 2 + 1v→ 3 + 0v→ 4
M = [v→1 ... v m]
→
2 0 2 2
0 1 2 3
–3 1 –1 0
1 –2 –3 –5
–4 2 0 2
1 0 1 1
0 1 2 3
0 0 0 0
0 0 0 0
0 0 0 0
Solução:
Como esse conjunto de vetores tem uma matriz associada:
1 2 1 3
–1 1 2 –3
2 0 –2 5
1 –2 –3 2
para calcular a sua forma escalonada, somamos a primeira linha à segunda,–2 vezes
a primeira linha à terceira e–1 vez a primeira linha à quarta:
1 2 1 3
0 3 3 0
0 –4 –4 –1
0 –4 –4 –1
Espaço vetorial ℝ n: base e dimensão 19
Multiplicamos a segunda linha por 1/3, somamos –1 vez a terceira linha à quarta:
1 2 1 3
0 1 1 0
0 –4 –4 –1
0 0 0 0
1 2 1 3
0 1 1 0
0 0 0 –1
0 0 0 0
E chegamos à forma escalonada que nos permite contar 3 pivôs. Logo, o subespaço
gerado por C tem dimensão 3, e uma base para esse subespaço é { →
v 1, →
v 2, →
v 4} pela forma
escalonada ter pivôs nas colunas 1, 2 e 4.
https://goo.gl/sYUrHS
ANTON, H.; RORRES, C. Álgebra linear com aplicações. 10. ed. Porto Alegre: Bookman,
2012. 786 p.
LAY, D. C.; LAY, S. R.; MCDONALD, J. J. Álgebra linear e suas aplicações. 5. ed. Rio de
Janeiro: LTC, 2018. 480 p.
ÁLGEBRA LINEAR
Introdução
Os sistemas de equações lineares são conjuntos de equações lineares
que envolvem muitas variáveis. A representação matricial desses sistemas
possibilita encontrar uma única solução por meio da matriz inversa dos
coeficientes do sistema.
Por outro lado, quando o sistema de equações lineares em questão é
grande, o método de obtenção da solução para ele pode ser por meio da
fatoração de matrizes, recomenda para situações que envolvem muitos
cálculos, por ser um método direto e rápido.
Neste capítulo, você aprenderá a obter a matriz inversa e relacioná-la
a um sistema de equações lineares, bem como desenvolver e aplicar a
fatoração LU para a solução de um sistema de equações lineares.
Matrizes elementares
Um importante método para resolver um sistema de equações lineares é en-
contrar um sistema equivalente mais simples que se possa resolver e contenha
o mesmo conjunto de soluções do sistema original. Felizmente, isso não é
apenas possível para muitos casos como é facilitado pelo uso das matrizes.
Isso porque os sistemas de equações lineares podem ser representados pelas
matrizes — cada equação é uma linha de uma matriz —, de modo que qualquer
2 Matrizes elementares e fatoração LU
multiplicar uma linha inteira por uma constante qualquer que seja
diferente de zero;
fazer a troca de posições entre duas linhas;
somar um múltiplo de uma linha com outra linha.
3 ∙ [1 –1] = [3 –3]
Logo:
Matrizes elementares e fatoração LU 3
1. A seguinte matriz é elementar, pois foi obtida da matriz identidade, por meio da
multiplicação por 5 da primeira linha.
5 0
0 1
2. Esta matriz é elementar, pois foi obtida da matriz identidade, por meio da troca
entre a primeira e a segunda linha.
0 1 0
1 0 0
0 0 1
3. A matriz, a seguir, é elementar, pois foi obtida da matriz identidade, por meio da
multiplicação da última linha por 2, somada com a primeira linha.
1 2
0 1
4 Matrizes elementares e fatoração LU
e a matriz A for:
2 3
A=
1 –1
–3 ∙ [4 6] = [–12 –18]
[–12 –18] + [1 –1] = [–11 –19]
Matrizes elementares e fatoração LU 5
o resultado é:
Inversão de matrizes
Um aspecto importante sobre as operações elementares é que a mudança gerada
por uma operação pode ser desfeita por meio de outra operação elementar.
Considere a matriz elementar:
Nesse caso, vale a pena notar que essa matriz elementar é ortogonal, pois
= E2T, ou seja, a matriz inversa é igual à matriz transposta e, também,
uma matriz simétrica, já que = E2 implica que E2T = E2.
A matriz elementar do tipo 3 × 3, que faz a troca da primeira linha com a terceira,
também é uma matriz ortogonal e simétrica.
Matrizes elementares e fatoração LU 7
Portanto, para uma dada matriz elementar, que representa uma operação
elementar sobre a matriz identidade, sua matriz inversa é simplesmente a
operação elementar inversa, ou seja, retorna-se novamente à matriz identidade.
Toda matriz elementar contém uma matriz inversa que, por sua vez, também é uma
matriz elementar.
Isso pode ser visto da seguinte maneira, desde que A–1A = I, então, pela
proposição 1, você pode identificar diretamente que A–1 = En ... E2E1.
(A–1) –1 = A
Então:
Portanto:
AX = B
Matrizes elementares e fatoração LU 9
que é a solução do sistema de equações lineares. Como você pode notar, essa
solução depende da existência da matriz inversa dos coeficientes do sistema.
Agora, a segunda aplicação importante é fornecer um método para deter-
minar — quando existir — a inversa de uma matriz que, por tabela, também
auxilia na solução de um sistema linear (que é a primeira aplicação). Se você
multiplicar pela direita a equação matricial En ... E2E1A = I por A–1, você obtém:
En ... E2E1A = I
A–1 = En ... E2E1I
Com efeito, para que você possa encontrar a inversa de uma matriz A, basta
executar uma sequência de operações elementares sobre linhas, que transforma
A em uma matriz identidade; e, simultaneamente, essa mesma sequência de
operações elementares sobre linhas para transformar I na matriz inversa de A.
Para que você possa executar simultaneamente a mesma sequência de
operações elementares sobre as matrizes A e I, é recomendável que você
perfile as matrizes A e I, lado a lado, da seguinte maneira:
[A|I]
Veja que, embora as duas matrizes estejam uma do lado da outra, há uma
divisória (simbolizada por |) que permite separá-las de forma individual.
A partir dessa configuração, a execução de operações elementares sobre
A (lado esquerdo), que resultará na matriz I, ocorre simultaneamente sobre I
(lado direito), cujo resultado é a matriz A–1:
Fatoração LU
Em diversas situações evolvendo cálculos, torna-se útil a fatoração de um
número, ou mesmo a fatoração de uma expressão matemática, para simplificar
um cálculo. Veja os dois exemplos de fatoração a seguir:
a)
b)
A = LU
12 Matrizes elementares e fatoração LU
En ... E2E1A = U
Multiplicando, pela esquerda, os dois lados dessa relação por (En ... E2E1) –1,
você obtém:
Desde que:
Se uma matriz quadrada A pode ser reduzida à forma escalonada, U, por meio do
método de eliminação de Gauss sem troca de linhas, então, essa matriz pode ser
fatorada como A = LU, em que a matriz L é uma matriz triangular inferior.
Matrizes elementares e fatoração LU 13
Veja:
Claro que você poderia ter obtido esse mesmo resultado observando que a
operação elementar sobre linhas contrárias à realizada para obter a matriz U
é de multiplicar a primeira linha da matriz identidade por –3 e, depois, somar
com a segunda linha (que tem o mesmo efeito de multiplicar a primeira linha
da matriz identidade por 3 e, depois, fazer a subtração com a segunda linha):
LUX = B
LY = B e UX = Y
Sendo:
Logo, x2 = 5 e x1 = x2 – 6 = –1.
Portanto:
ANTON, H.; BUSBY, R. C. Álgebra linear contemporânea. Porto Alegre: Bookman, 2006.
612 p.
ANTON, H.; RORRES, C. Álgebra linear com aplicações. 8. ed. Porto Alegre: Bookman,
2012. 786 p.
Leitura recomendada
CRISPINO, M. L. 320 questões resolvidas de álgebra linear. Rio de Janeiro: Ciência Moderna,
2012. 352 p.
ÁLGEBRA LINEAR
Introdução
Neste capítulo, você estudará um pouco mais sobre matrizes, que têm
aplicações nos mais variados locais — desde a planilha de Excel ao pro-
cesso de gerenciamento de estoques, ou mesmo o controle de complexos
sistemas de produção.
Nesse contexto, o determinante é uma poderosa ferramenta, um
invariante numérico de uma matriz que pode auxiliar a obter preciosas
informações sobre a matriz e, até mesmo, o sistema associado a ela.
Você também será apresentado às ferramentas utilizadas no processo
de diagonalização de uma matriz, como autovetores, autovalores e po-
linômios característicos.
Caso 2 × 2
Consideremos a seguinte matriz:
det(A) = (2 × 1) – (3 × 1) = 2 – 3 = –1
Se , então det(A) = (a × d) – (c × b)
1 1
Para calcular o determinante da matriz B = . Você deverá proceder da seguinte
2 2
maneira:
det(B) = (1 × 2) – (2 × 1) = 2 – 2 = 0
Caso 3 × 3
Para matrizes de tamanho 3 × 3, você poderá calcular o determinante utilizando
determinantes menores e cofatores.
1 0 2
Considere a matriz A = 1 1 1 . O cálculo para C31 pode ser realizado da seguinte
maneira. 3 0 2
Sabe-se que C31 = (–1)3+1M31 e que o menor M31 é o determinante da matriz que
obtemos após eliminar a linha 3 e a coluna 1 da matriz A. Ou seja:
0 2
M= = 0 × 1 – 1 × 2 = –2
1 1
Portanto:
C31 = (–1)3+1M31
C31 = (–1)4(–2)
C31 = 1(–2)
C31 = –2
Expansão em cofatores
É muito importante estar alerta ao termo (–1)i+j, pois um erro de sinal nessa parte do
cálculo é muito comum. Para evitar que isso aconteça, lembre-se de que o resultado
dessa conta depende da paridade de i + j. Se i + j for par, o resultado será igual a 1; se
i + j for ímpar, o resultado será igual a –1.
C11 = 2 C31 = –3
Segue que:
det(A) = 2 + 2 × (–3) = –4
1 0 0
Considere a matriz H = 3 2 1 . Pode-se calcular o seu determinante fazendo a
3 1 1
expansão em cofatores a partir da linha 1, tendo em mente que essa é a linha que tem
a maior quantidade de elementos nulos.
Utilizando a fórmula de expansão, obtemos:
Perceba que, como a linha tem dois elementos nulos, o cálculo do determinante
reduziu-se ao de um determinante de ordem 2 × 2.
6 Determinantes e autovalores
C11 = 1
1 2 3
Considere a matriz A = 2 4 6 . Pode-se calcular o seu determinante fazendo uso
3 0 2
das propriedades do determinante. Observe que a linha 2 é múltipla da linha 1. De
forma mais precisa, L2 = 2L1. Portanto, o determinante da matriz é igual a zero.
7 0 0
Considere a matriz A = 2 –1 0 . Pode-se calcular o seu determinante fazendo uso
1 1 –4
das propriedades do determinante. Observe que a matriz é do tipo triangular superior.
Logo, seu determinante é igual ao produto dos elementos em sua diagonal. Portanto:
1 0 0 5
Considere a matriz A = 1 2 4 1 . Pode-se calcular o seu determinante fazendo
3 0 0 0
1 1 0 0
uso da fórmula de expansão em cofatores. Para tal, a escolha da terceira linha da
matriz pode ser uma boa opção, tendo em vista que é a que contém mais elementos
nulos. Obtém-se:
0 0 5
C31 = (–1)3+1 × 2 4 1
1 0 0
0 5
C31 = 1 × 1 (–1)3+1 ×
4 1
C31 = –20
Matriz inversa
Na seção anterior, você aprendeu que uma matriz possui inversa se, e somente
se, seu determinante é diferente de zero. Além disso, você também aprendeu
a calcular a matriz inversa de uma matriz 2 × 2, utilizando o determinante.
Agora, verá como utilizar a fórmula de expansão em cofatores para encon-
trar a inversa de uma matriz quadrada de qualquer dimensão. Para tal, você
precisará do seguinte resultado.
Teorema: seja A3×3 uma matriz cujo determinante é diferente de zero, e então
sua matriz inversa A–1 pode ser calculada desta forma:
1 0 3
Considere a matriz A = 0 1 0 , do tipo triangular inferior. Portanto, seu determinante
0 0 2
é igual ao produto dos elementos em sua diagonal. Segue que det(A) = 1 × (1) × (2) = 2.
Portanto, pode-se aplicar o resultado anterior a essa matriz. Agora, basta montar a
transposta da matriz de cofatores para encontrar a inversa:
2 0 –3
1 0 2 0
A–1 =
2 0 0 1
1 0 –3/2
A–1 = 0 1 0
0 0 1/2
Uma simples multiplicação das matrizes é suficiente para verificar que A × A–1 = I3×3.
Teorema: dada uma matriz An×n, as afirmações listadas a seguir são equivalentes.
1. An×n é invertível.
2. det(A) ≠ 0.
3. As n linhas de An×n são linearmente independentes.
1 1 0
Considere a matriz A = 0 1 0 . Como decidir se ela é invertível ou não? Podemos
1 0 2
utilizar qualquer um dos itens da equivalência apresentada. Escolhemos, então, a mais
comum: o valor do determinante.
Usaremos a expansão em cofatores a partir da segunda linha. Por que? Porque essa
é a linha com a maior quantidade de elementos nulos. Obtemos:
1 0
C22 = (–1)2+2 ×
1 2
1 0
C22 = 1 ×
1 2
C22 = 1
Logo:
det(A) = 1 ≠ 0
Outro fato importante sobre matrizes inversas é que elas são fortemente
relacionadas aos sistemas lineares. Considere um sistema de equações lineares
homogêneo, cuja forma matricial seja:
Ax = 0
Fato: o sistema linear homogêneo anterior tem apenas a solução trivial se, e
somente se, a matriz A é invertível.
Esse fato nos fornece uma maneira simples e prática de verificar se a solução
trivial (vetor nulo) é a única de um sistema linear homogêneo.
23 0 0
Considere a matriz A = 2 1 0 . Qual é o determinante de A–1?
1 1 1
Sabemos que A é uma matriz triangular inferior. Logo, segundo as propriedades
do determinante, ele é igual ao produto dos elementos em sua diagonal. Ou seja:
det(A) = 23
1
det(A–1) =
23
Av = λv
12 Determinantes e autovalores
2 0 0
Dada a matriz A = 3 1 0 , que é do tipo triangular superior, pode-se encontrar
1 –2 2
o polinômio característico da seguinte maneira:
2–λ 0 0
p(λ) = 3 1–λ 0
1 –2 2–λ
p(λ) = (2 – λ)2(1 – λ)
Agora, você verá um resultado apresentado por Nicholson (2006), que nos
permite relacionar autovalores e autovetores com o processo de diagonalização
de matrizes.
Determinantes e autovalores 13
1. a é diagonalizável se, e somente se, ela possui autovetores x1, x2, ..., xn,
tais que a matriz P = [x1, x2, ..., xn] é invertível;
2. quando esse for o caso, temos PAP–1 = diag(λ1, λ2, ..., λ n), onde λi é o
autovalor associado ao autovetor xi.
2 0 0
A = –3 0 0
0 1 0
–1 0 0
v1 = 2 v2 = 1 v3 = 1
1 1 –1
Segue que a matriz P tem a seguinte forma:
–1 0 0
P= 2 1 1
1 1 –1
–1 0 0 2 0 0 –1 0 0 2 0 0
2 1 1 –3 0 0 2 1 1 = 0 1 0
1 1 –1 0 1 0 1 1 –1 0 0 –1
O fato de termos P = P–1 foi apenas uma coincidência, não é uma regra.
14 Determinantes e autovalores
https://qrgo.page.link/htszk
Dada a matriz:
3 0 0
H= 0 2 0
–1 0 7
Deve-se encontrar sua forma diagonal D. Para tal, começa-se encontrando o poli-
nômio característico da matriz. Observe, ainda, que essa matriz é do tipo triangular
superior. Portanto:
3 0 0
D= 0 2 0
0 0 7
p(A) = 0
ANTON, H.; BUSBY, R. C. Álgebra linear contemporânea. Porto Alegre: Bookman, 2006.
612 p.
NICHOLSON, W. K. Álgebra linear. 2. ed. São Paulo: McGraw-Hill, 2006. 394 p.
Leitura recomendada
LIPSCHUTZ, S.; LIPSON, M. Álgebra linear: mais de 600 exercícios resolvidos. 4. ed. Porto
Alegre: Bookman, 2011. 434 p. (Coleção Schaum).