Escolar Documentos
Profissional Documentos
Cultura Documentos
DEPARTAMENTO DE MATEMÁTICA
Notas de Aulas
Armando Paulino
Ano - 2020
2
SUMÁRIO
Apresentação 7
1 Números complexos 9
1.1 Definição e exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 O plano complexo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3 Operações em C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Conjugação em C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5 Módulo de um número complexo . . . . . . . . . . . . . . . . . . . . . . . 14
1.6 Forma polar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.7 Potência e raiz em C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.8 Exponêncial e logaritmo em C . . . . . . . . . . . . . . . . . . . . . . . . . 18
2 Matrizes 21
2.1 Noções de Corpos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Matrizes. Definição e exemplos . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3 Operações com matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.4 Matriz inversı́veis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3 Determinantes 31
3.1 Noção de permutação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2 Determinantes. Definição e propriedades . . . . . . . . . . . . . . . . . . . 33
3.3 Menores e Cofatores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4 Adjunta clássica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4 Sistemas lineares 39
4.1 Conceitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3
4.2 Sistema e matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.3 Soluções de sistema lineares . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.4 Discussão de sistemas lineares . . . . . . . . . . . . . . . . . . . . . . . . . 48
5 Vectores 49
5.1 Conceitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.2 Conceito de Vector . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.3 Tipos de vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.4 Operações com Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.5 Expressão analı́tica de um vector . . . . . . . . . . . . . . . . . . . . . . . 54
5.5.1 Vectores no Plano . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.5.2 Operações com vectores . . . . . . . . . . . . . . . . . . . . . . . . 56
5.5.3 Vector definido por dois pontos . . . . . . . . . . . . . . . . . . . . 56
5.5.4 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.5.5 Vectores no Espaço . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.5.6 Operações com vectores . . . . . . . . . . . . . . . . . . . . . . . . 58
5.5.7 Vector definido por dois pontos no espaço . . . . . . . . . . . . . . 58
5.5.8 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.6 Produto de vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.7 Produto vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.8 Produto Misto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.9 A Recta e o Plano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.9.1 Equações da Recta . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.9.2 Equação de um Plano . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.10 Distâncias, areas e volumes . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.10.1 Distância de dois pontos . . . . . . . . . . . . . . . . . . . . . . . . 72
5.10.2 Distância de um ponto a uma recta . . . . . . . . . . . . . . . . . . 72
5.10.3 Distância de um ponto a um plano . . . . . . . . . . . . . . . . . . 73
6 Espaços vectorias 75
6.1 Definição e exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
6.2 Subespaços Vectorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.3 Combinação linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4
6.4 Dependência e independência linear . . . . . . . . . . . . . . . . . . . . . . 86
6.5 Bases e dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
6.5.1 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
6.5.2 Dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
6.6 Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
7 Transformações lineares 95
7.1 Definições e exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.2 Núcleo e Imagem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
7.3 Transformação linear e matrizes . . . . . . . . . . . . . . . . . . . . . . . . 104
7.4 Álgebra das transformações . . . . . . . . . . . . . . . . . . . . . . . . . . 107
7.5 Operadores lineares inversı́veis . . . . . . . . . . . . . . . . . . . . . . . . . 109
7.6 Mudança de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6
Apresentação
O principal objetivo destas notas é fazer uma apresentação rigorosa e clara das
provas dos teoremas e exemplos da Álgebra Linear e Geometria Analı́tica no nı́vel de
graduação, desenvolvendo, também, a capacidade de resolução de problemas envolvendo
vectores, combinações lineares, transformações lineares, matrizes, diagonalizações de ope-
radores lineares e formas quadriticas.
O referente texto encontra-se ainda em edição, pelo que alguns capı́tulos ainda
estão pra concluir bem como lista a de exercı́cios para cada capı́tulo. Para mais detalhes
o estudante pode consultar as referências [1], [2], [3], [4], [5] e [6].
1
Email:armandomath83@gmail.com
Compilado por LateX-TeXstudio
7
8
Capı́tulo 1
Números complexos
Definição 1.1. Chamaremos números complexos, a todo par ordenado de números reais
a qual denotaremos por z = (a, b). Ao conjunto dos números complexos denotaremos por
C = R × R = {(a, b) : a ∈ R e b ∈ R}.
Nota 1.2. A parte real de um número complexo é a sua primeira componente e a parte
imaginária é a sua segunda componente, logo tanto a parte real como imaginária de um
número complexo são números reais.
Definição 1.4. Um número complexo é real, se e só se, sua parte imaginária é zero e é
um imaginário puro, se e só se, sua parte real é zero, isto é, z = (a, b) um complexo é
real ⇐⇒ Im(z) = b = 0 e z = (a, b) é um imaginário puro ⇐⇒ Re(z)a = 0.
1. Re(z) = 5
2. Im(z) ≤ 4
3. Re(z) + Im(z) = 3
4. −1 ≤ Re(z) ≤ 1 e −1 ≤ Im(z) ≤ 1.
Definição 1.6 (Zero e oposto). Um número complexo é zero, se tanto a sua parte real
como imaginária é zero, isto é, z = (a, b) é um complexo zero, se e somente se, a = 0 e
b = 0. O oposto de um número complexo z = (a, b) é definido por −z = (−a, −b).
10
1.3 Operações em C
Definição 1.7 (Igualdade). Dois números complexos são iguais, quando são iguais as
partes reais e imaginárias, isto é, z1 = (a, b) e z2 = (c, d) são iguais, se e somente se,
a=c e b = d.
Definição 1.8 (Soma). Sejam z1 = (a, b) e z2 = (c, d) dois números complexos, então
definimos a soma de z1 e z2 por
1. Clausura: z1 + z2 ∈ C
2. Comutativa: z1 + z2 = z2 + z1
1. Clausura: z1 .z2 ∈ C
5. Existência e unicidade do neutro multiplicativo: ∃!u ∈ C, tal que u.z = z, para todo
z ∈ C sendo u = (1, 0).
a −b
α = z −1 = ( , 2 )
a2 + b a + b2
2
c −d
z2−1 = ( , )
c2 + d2 c2 + d2
portanto
z1 c −d ac + bd bc − ad
= z1 .z2−1 = (a, b).( 2 2
, 2 2
)=( 2 , ).
z2 c +d c +d c + d 2 c2 + d 2
12
Nota 1.16. A multiplicação de um número complexo real pela unidade imaginária per-
muta as componentes, isto é, (a, 0).i = (a, 0).(0, 1) = (0, a).
Definição 1.17 (Forma álgebrica). Seja z = (a, b) um número complexo, então pela
definição da soma temos que
Demonstração. i2 = i.i = (0, 1).(0, 1) = (−1, 0) = −1, portanto i2 = −1. Como i2 = −1,
√
então i = −1.
1.4 Conjugação em C
Definição 1.19. Chamaremos conjugado de z = a + bi ao número complexo a − bi do
qual representaremos por z = a − bi.
13
Proposição 1.22. Sejam z1 , z2 ∈ C, então:
1. z1 ± z2 = z1 ± z2
2. z1 .z2 = z1 .z2
3. z1 = z1
2. |z1 | = | − z1 | = |z1 |
3. |z1 |2 = z1 .z1
|z1 |
6. | zz12 | = |z2 |
, z2 6= (0, 0)
Definição 1.26. Seja z = a + bi, um número complexo não nulo, então o módulo de z é
√
|z| = r = a2 + b2 6= 0.
Se z2 6= (0, 0) e r2 6= 0, então
z1 r1 (cosθ1 + isenθ1 ) r1
= . = [cos(θ1 − θ2 ) + isen(θ1 − θ2 )]
z2 r2 (cosθ2 + isenθ2 ) r2
Exemplo 1.30. Se z1 = 3(cos π6 + isen π6 ) e z2 = 4(cos π3 + isen π3 ) determine:
1. z1 .z2
z2
2. z1
16
1.7 Potência e raiz em C
Teorema 1.31 (1a fórmula de Moivre). Para todo z = a + bi e todo n ∈ Z+ se cumpre a
seguinte relação:
√
Exemplo 1.32. Calcular (1 + 3i)7
1 1 θ + 2kπ θ + 2kπ
z n = r n [cos( ) + isen( )]
n n
para valores de k = 0 : n − 1.
wn = z
m 1
z n = (z n )m
m m θ + 2kπ θ + 2kπ
z n = r n [cos m( ) + isen m( )]
n n
para valores de k = 0 : n − 1.
√ 5
Exemplo 1.36. Efectuar a operação (1 + 3i) 6 .
ez
2. ew
= ez−w
3. Se ez = 1, então z = 2nπi, n ∈ Z
4. (ez )n = enz , n ∈ Z.
Nota 1.42. Para todo complexo z 6= (0, 0), corresponde um e somente um valor de θ com
0 ≤ θ ≤ 2π.
19
20
Capı́tulo 2
Matrizes
K×K→K
(x, y) 7−→ x + y
chamada de adição e
K×K→K
6. Existe um único elemento 1 (um) em K tal que, x.1 = 1.x = x, para todo x ∈ K.
Exemplo 2.2. O conjunto dos números racionais Q, dos reais R e dos complexos C com
as operações usuais de adição e multiplicação são corpos.
A = (aij ), 1 ≤ i ≤ m, 1 ≤ j ≤ n
ou simplesmente
A = (aij ).
22
Nota 2.6. 1. O sı́mbolo aij significa o elemento da matriz A que está na i-ésima linha
e j-ésima coluna e será chamada de entrada da matriz.
• Matriz linha: m = 1
• Matriz coluna: n = 1
• Matriz quadrada: m = n.
Definição 2.7. O conjunto de todas as matrizes m × n será denotado por Mm×n (K)
ou simplesmente Mm×n . Quando m = n, Mn (K) será chamada o conjunto de todas as
matrizes quadradas com elementos em K ou simplesmente Mn .
Observação 2.8. Os elementos de uma matriz, também podem ser dadas por recorrência
mediante fórmulas.
Definição 2.11. Dadas duas matrizes A, B ∈ Mm×n (K), A = (aij ), B = (bij ). Diz-se
que são iguais quando
aij = bij
Nota 2.12. Numa matriz quadrada A = (aij ), i, j ∈ {1, . . . , n}, destacamos os seguintes
elementos:
23
1. Diagonal principal: formada pelos termos aii , isto é, pelos termos com os ı́ndices
de linha e de colunas iguais;
1. Triangular superior: quando aij = 0, se i > j, isto é, possui todos os elementos
abaixo da diagonal principal nulos;
2. Triangular inferior: quando aij = 0, se i < j, isto é, possui todos os elementos
acima da diagonal principal nulos;
3. Diagonal: quando aij = 0, se i 6= j, isto é, possui todos os elementos fora da dia-
gonal principal nulos. Uma matriz diagonal, é ao mesmo tempo, triagular superior
e triangular inferior.
0, se i 6= j
4. Escalar: quando aij = , para algum k ∈ R. Isto é, uma matriz
k, se i = j
escalar é diagonal e possui todos os elementos da diagonal principal iguais a um
certo escalar k.
0, se i 6= j
5. Identidade: quando aij = . Isto é, a identidade é uma matriz
1, se i = j
escalar e possui todos os elementos da diagonal principal iguais a 1. Representaremos
a matriz identidade de ordem n por In . De um modo geral, sendo n um número
natural maior ou igual a 1, a matriz identidade de ordem n é
1
0 ... 0
0 1 . . . 0
In = .
.. . . ..
.. . . .
0··· 0 ··· 1
Definição 2.14. Seja A = (aij ) ∈ Mm×n (K). A matriz nula em Mm×n (K) é a matriz
m × n que possui todos os elementos iguais a zero.
24
Definição 2.15. Seja A = (aij ) ∈ Mm×n (K), a oposta de A é a matriz B = (bij ) ∈
Mm×n (K) tal que
bij = −aij
bji = aij
Nota 2.17. Para obter a transporta de uma matriz A, basta escrever as linhas de A como
sendo as colunas da nova matriz (ou, equivalentemente, escrever as colunas de A como as
linhas da nova matriz.)
1. Simétrica, se A = AT ;
2. Anti-simétrica, se AT = −A.
Definição 2.19 (Adição). Dadas as matrizes A = (aij ), B = (bij ) ∈ Mm×n (K). A soma
de A e B é a matriz C = (cij ) ∈ Mm×n (K) tal que tal que
Proposição 2.20. Sejam A = (aij ), B = (bij ), C = (cij ) ∈ Mm×n (K). Valem as seguin-
tes:
1. A + B = B + A.
25
2. (A + B) + C = A + (B + C)
5. (A + B)T = AT + B T .
Definição 2.21 (Multiplicação por um escalar). Dada matriz A = (aij ) ∈ Mm×n (K)
e α ∈ R. A matriz produto de A por α é a matriz C = (cij ) ∈ Mm×n (K) tal que tal que
cji = αaij
1. (αβ)A = α(βA).
2. (α + β)A = αA + βA.
3. α(A + B) = αA + αB.
4. 1A = A.
5. (αA)T = αAT .
6. (AT )T = A.
Observação 2.24. Suponhamos que A = (aik ), B = (bkj ) são matrizes tal que o número
de colunas de A é igual ao número de linhas de B. Diz-se que A é uma matriz m × p e
26
B é uma matriz p × n. Então o produto A.B é uma matriz m × n que tem ij-entradas
obtidas pela multiplicação das linhas de A pelas colunas de B, isto é,
a a12 ... a1p
11 b11 b1j . . . b1n c ... c1n
ai1 ai2
. . . aip 11
.. .. .. .. ..
A.B = ..
.. . . . = .
.. .. ...
. . cij .
. . .
bp1 · · · bpj · · · bpn cm1 · · · · · · cmn
am1 · · · am2 · · · amp
onde
p
X
cij = ai1 b1j + ai2 b2j + . . . + aip bpj = aik bkj
k=1
Nota 2.25. O produto A.B não é definida se A é uma matriz m × p e B é uma matriz
q × n, onde p 6= q.
1 3 2 0 −4
Exemplo 2.26. Determinar A.B, onde A = e B=
2 −1 5 −2 6
Nota 2.27. A multiplicação de matrizes não é comutativa, isto é, se A = (aik ) e B = (bkj ),
então AB 6= BA.
Li ←→ Lj .
27
2. Multiplicar uma linha de A por um número real não nulo. Indicamos a multiplicação
da linha Li de A pelo escalar λ escrevendo
Li → λLi .
3. Somamos a uma linha de A uma outra linha, multiplicada por um número real.
Indicamos esta operação, somando a linha Li a linha Lj pelo número real por:
Li → Li + λLj .
1. Reflexiva: A v A.
2. Simétrica: Se A v B então B v A.
3. Transitiva: Se A v B e B v C, então A v C.
isto é, a relação v é uma relação de equivalência no conjunto Mm×n (K). Assim, se A v B
ou B v A podemos dizer, simplesmente, que A e B são equivalentes.
Definição 2.30 (Traço de uma matriz). Seja A = (aij ) ∈ Mn (K). O traço de A, escrito
tr(A), é a soma dos elementos diagonal, isto é,
2. tr(kA) = ktr(A).
3. tr(AT ) = tr(A).
4. tr(AB) = tr(A)tr(B).
Definição 2.32 (Matrizes inversı́veis). Dada uma matriz A = (aij ) ∈ Mn (K). Se existir
uma matriz B = (bij ) ∈ Mn (K), tal que A.B = In , então a matriz A é dita inversı́vel(ou
não singular) e a matriz B é a sua inversa, e podemos escrever B = A−1 .
28
Nota 2.33. Uma matriz inversı́vel sempre comuta com a sua inversa, isto é, se A.B = In ,
então B.A = In e A é a inversa de B.
2 5
Exemplo 2.34. Determinar a matriz inversa de A = .
1 3
Teorema 2.35. Seja A = (aij ) ∈ Mn (K). Então A é inversı́vel se, e somente se, A v In .
Se A é inversı́vel, então a mesma sucessão de operações elementares que transforma A
em In , transforma In na inversa de A.
(A|In )
3. Usando a linha 1 como linha-pivô, obtemos zeros nas outras posições da coluna 1.
5. Usando a linha 2 como linha-pivô, obtemos zeros nas outras posições da coluna 2.
7. Se, em alguma etapa do processo, uma linha toda se anula, podemos concluir que
a matriz em questão não é inversı́vel, nesse caso, nenhuma operação elementar
igualaria essa linha a uma linha da matriz identidade.
−1
Exemplo 2.36.
Determinar
se for possı́vel, A nos seguintescasos:
3 1 2 2 4 −1
(a) A = −1 0 3 (b) A = 0 −3 2
4 2 −5 0 11 −4
Definição 2.38 (Matrizes ortogonais). Diz-se que uma matriz A ∈ Mn (K), inversı́vel, é
ortogonal, quando
A−1 = AT ⇐⇒ A.AT = In .
Nota 2.39. Para verificar se uma matriz A é ortogonal, multiplicamos A por AT e veri-
ficamos se o produto é a identidade.
√
1 3
2 2
Exemplo 2.40. Provar se a matriz A = √ é ortogonal.
3 1
− 2 2
30
Capı́tulo 3
Determinantes
1. A aplicação inversa σ −1 ∈ Sn .
2. Se σ, τ ∈ Sn , então a composta σ ◦ τ ∈ Sn .
Definição 3.7. Diz-se inversão em σ, a um par de inteiros (i, k) tais que i > k, mas i
precede k em σ. Definimos então, o sinal ou a paridade de σ como
1,
se σ par
sig(σ) =
−1, se σ ı́mpar
Nota 3.9. A permutação identidade ε = 1 2 . . . n é par porque não há inversões nela.
1. τ ◦ σ.
2. σ −1 .
solução
(a): τ ◦ σ(i) =
τ (σ(i)), isto é, σ(i) = ji ∀i = 1 : 5
1 2 3 4 5
σ= então, σ(1) = 2, σ(2) = 4, σ(3) = 5, σ(4) = 1, σ(5) = 3
2 4 5 1 3
1 2 3 4 5
τ = então, τ (1) = 4, τ (2) = 1, τ (3) = 3, τ (4) = 5, τ (5) = 2
4 1 3 5 2
Portanto
τ (σ(1)) = τ (2) = 1, τ (σ(2)) = τ (4) = 5, τ (σ(3)) = τ (5) = 2, τ (σ(4)) = τ (1) = 4,
τ (σ(5)) = τ (3) = 3
1 2 3 4 5
Logo, τ ◦ σ = 1 5 2 4 3 ou τ ◦ σ =
1 5 2 4 3
32
solução (b): Por definição σ −1 (j) = k ⇐⇒ σ(k) = j. Logo
2 4 5 1 3 1 2 3 4 5
σ −1 = =
1 2 3 4 5 4 1 5 2 3
ou σ −1 = 4 1 5 2 3.
isto é, onde os factores provêm de linhas sucessivas e, assim, os primeiros ı́ndices estão na
ordem natural 1, 2, . . . , n. Mas como os factores provêm de colunas diferentes a sequência
dos segundos ı́ndices formam uma permutação σ = j1 j2 . . . jn em Sn . Reciprocamente,
cada permutação em Sn determina um produto da forma acima. assim, a matriz A contém
n! desses produtos.
a sua ordem natural. Assim, det(A) é a soma de n! termos, onde o sinal está bem definido,
e qualquer termo tem n elementos, um e somente um, de cada linha e coluna de A.
33
Nota 3.13. Seja A = (aij ) ∈ Mn (K). Então o determinante da matriz A é:
1. Se n = 1 então, A = (aij ) ∈ M1 (K). Como S1 só tem uma permutação que é par,
então
det(A) = a11
o próprio número.
Exemplo3.15. Encontre
o determinante de A
nos seguintescasos:
2 1 1 3 2 1
5 3
(a) A = 0 5 −2 (b) A = 0 5 −2 (c) A =
4 6
1 −3 4 2 −3 4
|AB| = |A||B|.
3. Se A é triangular, isto é, A tem zeros acima e abaixo da diagonal principal, então
|A| é igual ao produto dos elementos diagonais. Assim, em particular, |I| = 1 onde
I é a matriz identidade.
Teorema 3.19. Suponha B ∈ Mn (K), foi obtida de A por uma sequência de operações
elementar de linha (ou coluna).
2. Multiplicando-se uma linha (ou coluna) de A por um escalar k, então |B| = k|A|.
3. Somando-se uma linha (coluna) um multiplo de outra linha (ou coluna), então |B| =
|A|.
Teorema 3.20. Seja A ∈ Mn (K) uma matriz quadrada de ordem n. Então as seguintes
proposições são equivalentes:
Nota 3.22. Mij denota uma matriz, enquanto que Aij denota um escalar.
2 3 4
Exemplo 3.23. Seja A = 5 6 7 . Determine:
8 9 1
35
1. |M23 | e A23 .
2. |M31 | e A31 .
Teorema 3.24 (Teorema de Laplace). Seja A = (aij ) ∈ Mn (K) uma matriz quadrada de
ordem n sobre o corpo K. O determinante de A é igual à soma dos produtos obtidos pela
multiplicação dos elementos de qualquer linha (ou coluna) por seus respectivos cofatores,
isto é :
n
X
|A| = ai1 Ai1 + ai2 Ai2 + . . . + ain Ain = aij Aij
j=1
ou
n
X
|A| = a1j A1j + a2j A2j + . . . + anj Anj = aij Aij
i=1
2. Passo: Usando aij como elemento pivô, aplique operações elementares sobre linhas
(ou colunas) para reduzir a zero todas as outras posições da coluna (ou linha)
contendo aij .
Teorema 3.30. Para qualquer matriz A = (aij ) ∈ Mn (K) quadrada vale o seguinte:
Teorema 3.32. Seja A = (aij ) ∈ Mn (K). A é inversı́vel se, e somente se, seu determi-
nante é diferente de zero, isto é,
A é inversı́vel ⇐⇒ detA 6= 0.
2 3 −4
Exemplo 3.33. Seja A = 0 −4 2 .
1 −1 5
1. Determine a sua inversa, isto é, A−1 .
2. Prove que
A(adjA) = (adjA)A = |A|I3
37
38
Capı́tulo 4
Sistemas lineares
4.1 Conceitos
a11 x1 + a12 x2 + . . . + a1n xn = b1
a x + a x + ... + a x
21 1 22 2 2n n = b2
(∗)
.. .. .. ..
. . . .
a x + a x + ... + a x
m1 1 m2 2 mn n = bm
Definição 4.2. Uma solução do sistema (*), é uma n-uplas de números (x1 , x2 , . . . , xn )
que satisfaça simultâneamente estas m equações.
Definição 4.3. Dois sistemas de equações lineares são equivalentes se, e somente se, toda
solução de qualquer um dos sistemas também é solução do outro.
39
4.2 Sistema e matrizes
Podemos escrever o sistema (*) numa forma matricial seguinte
a a12 . . . a1n x b
11 1 1
a21 a22 . . . a2n x2 b2
.. .. .. . .. = ..
..
.
. . . . .
am1 · · · am2 · · · amn xn bm
ou
AX = B
onde
a a12 ... a1n
11
a21 a22 ... a2n
A=
.. .. .. ..
. . . .
am1 · · · am2 · · · amn
é a matriz dos coeficientes
x1
x2
X=
..
.
xn
é a matriz das incógnitas e
b1
b2
B=
..
.
bm
a matriz dos termos independentes.
Definição 4.8 (forma escada). Uma matriz A ∈ Mm×n (K) é linha reduzida à forma
escada se:
2. Cada coluna que contém o primeiro elemento não nulo de alguma linha tem todos
os seus outros elementos iguais a zero.
3. Toda linha não nula ocorre abaixo de todas as linhas não nulas (isto é, daquelas que
possuem pelo menos um elemento não nulo).
Isto é, o número de zeros precedendo o primeiro elemento não nulo de uma linha aumenta
a cada linha, até que sobrem somente linhas nulas, se houver.
Teorema 4.9. Toda matriz A ∈ Mm×n (K) é linha equivalente a uma única matriz-linha
reduzida à forma escada.
Definição 4.10. Dada uma matriz A ∈ Mm×n (K) e seja B ∈ Mm×n (K) a matriz-linha
reduzida à forma escada linha equivalente a A. A caracterı́stica de A (ou posto), denotado
por r(A) (ou post(A)), é o número de linhas não nulas de B. A nulidade de A denotada
por N ul(A), é o número n − r(A).
42
Observação 4.11. Dada uma matriz A qualquer, para achar sua caraterı́stica, necessi-
tamos encontrar primeiro sua matriz-linha reduzida à forma escada, e depois contar suas
linhas não nulas. Este número é a caraterı́stica de A. A nulidade é a diferença entre
colunas de A e a caracterı́stica.
cujos coeficientes aij e termos constantes bi são números reais (ou complexos). Este
sistema poderá ter
2. Infinitas soluções.
3. Nenhuma solução.
Exemplo 4.14. Em cada caso, é dada a matriz-linha reduzida à forma escada da matriz
ampliada:
1 0 0 3
1. 0 1 0 −2 ., temos que r(A) = r(A|B) = 3, m = 3 e n = 3, portanto a
0 0 1 2
solução é única, isto é, x = 3, y = −2 e , z = 2.
1 0 7 −10
2. , temos que r(A) = r(A|B) = 2 < n = 3, m = 2 e n =
0 1 5 −6
3, portanto temos um grau de liberdade (sistema possı́vel indeterminado), isto é,
x = −10 − 7z, e y = −6 − 5z.
1 0 7 −10
3. 0 1 5 −6 , temos que r(A) = 2 < r(A|B) = 3, m = 3 e n = 3, portanto
0 0 0 2
o sistema é impossı́vel, isto é, não tem solução.
44
1 0 −10 −2 −10
4. 0 1 7 4 , temos que r(A) = r(A|B) = 2, m = 3 e n = 4,
1
0 0 0 0 0
portanto temos dois graus de liberdade, isto é, x = −10+10z +2t e y = 4−7z −t.
Exemplo
4.15. Dados os seguintes sistemas
lineares:
2x + 3y + z = 1
2x − y = −7
2x + y − z = −6
(a) 3x − 3y + z = 8 (b) −3x + 4y = 13 (c) x − y + 3z = 21
= −1
2y + z = 0 x + 2y 3x + 2z = 15
resolve e classifique em:
• Possı́vel determinado.
• Possı́vel indeterminado.
• Impossı́vel.
ou
AX = B
45
onde
a a12 ...
11 1n
a21 a22 . . . a2n
A=
.. .. .. ..
. . . .
an1 · · · an2 · · · ann
é a matriz dos coeficientes
x1
x2
X=
..
.
xn
é a matriz das incógnitas e
b1
b2
B=
..
.
bn
é a matriz dos termos independentes. Para esta equação suponhamos que det(A) 6= 0 e
portanto, que A tenha a inversa A−1 . Então
Na forma matricial
−1
x1 a a12 ... b1
11 1n
x2 a21 a22 . . . a2n b2
X= ..
=
.. .. .. ..
. ..
.
. . . . .
xn an1 · · · an2 · · · ann bn
Então
b1 A11 + . . . + bn An1
x1 =
det(A)
46
O numerador desta fração é igual ao determinante da matriz que obtemos de A, subis-
tituindo a primeira coluna pela matriz dos termos independentes. De facto, usando o
desenvolvimento de Laplace, obtemos
b1 a12 . . . a1n
b2 a22 . . . a2n
det .. .. .. . = b1 A11 + . . . + bn An1
. ..
. .
bn an2 . . . ann
Ou seja
b1 a12 . . . a1n
b2 a22 . . . a2n
det .. .. . . ..
.
. . .
bn an2 . . . ann
x1 =
a11 a12 . . . a1n
a21 a22 . . . a2n
det .. .. . . ..
.
. . .
an1 an2 . . . ann
ou
∆i
xi =
det(A)
∀i = 1, 2, . . . , n, onde ∆i é o determinante da matriz que se obtém, a partir de A,
substituindo-se a i-ésima coluna pela coluna dos termos independentes do sistema. Quando
∆i 6= 0 (isto é, quando a matriz A é inversı́vel), o sistema é chamado sistema de Cramer.
47
x + 2y − 3z = −15
Exemplo 4.17. Seja o sistema 2x − y + z = 10 .
3x − z
= 1
Resolva aplicando o método de Cramer.
Exemplo 4.18. Discutir os seguintes sistemas lineares em função dos parâmetros dados:
x+y+z = 6
1. x + 2y − z = 4
x + 3z = a
2x − 2y + az = 2
2. 2x − y + az = 3
x − ay + z
= 0
x + az = −2
3. x − y − 2z = a
x + ay + 4z = −5
48
Capı́tulo 5
Vectores
Neste capı́tulo, faremos os estudos sobre os vectores, que constituem uma importante
ferramenta para o estudo da Geometria Analı́tica, da Fı́sica, da Análise e as demais
ciências.
5.1 Conceitos
Definição 5.1 (Recta orientada). Uma recta r é orientada quando se fixa nela um sentido
de percurso, considerado positivo e indicado por uma secta. O sentido oposto é negativo,
uma recta orientada é denominada eixo.
49
Definição 5.3 (Segmento oposto e medida de um segmento). Se AB é um segmento
orientado, o segmento orientado BA é o oposto de AB. Fixada uma unidade de compri-
mento, a cada segmento orientado, pode-se associar um número real não negativo, que é
a medida do segmento em relação àquela unidade. A medida do segmento orientado é o
seu comprimento ou seu módulo. O comprimento do segmento AB é indicado por AB.
Definição 5.4 (Direcção e sentido). Dois segmentos orientados não nulos AB e CD têm
a mesma direcção se as rectas suportes desses segmentos são paralelas ou coincidentes.
1. Só se pode comparar os sentidos de dois segmentos orientados se eles têm as mesmas
direcções.
1. AB v AB (reflexiva).
−→
Um mesmo vetor AB é determinado por uma infinidade de segmentos orienta-
dos,chamados representantes desse vetor, e todos equipolentes entre si.
As caracterı́sticas de um vetor →
−
v são as mesmas de qualquer um de seus representantes,
isto é: o módulo, a direção e o sentido do vetor são o módulo, a direção e o sentido de
qualquer um de seus representantes. O módulo de → −v é denotado por |→
−v |.
Definição 5.10 (Vector nulo). Os segmentos nulos, por serem equipolentes entre si, de-
terminam um único vector, chamado vector nulo ou vector zero, e que é denotado por
→
−
O.
−→ −→
Definição 5.11 (Vector oposto). Dado um vector →
−
v = AB, o vector BA é o oposto de
−→ −→
AB e se indica por −AB ou por −→ −v.
→
−
s =→
−
u +→
−
v.
1. Comutativa: →
−
u +→
−
v =→
−
v +→
−
u.
2. Associativa: (→
−
u +→
−
v)+→
−
w =→
−
u + (→
−
v +→
−
w ).
→
− →
− →
−−
3. Existe um só vector nulo O tal que para todo o vector →
−
v se tem →
−
v +O = O→v =→
−
v.
→
− →
−
v + (−→
−
v ) = −→
−
v +→
−
v =O
52
.
→
−
u + (−→
−
v ).
→
−
Definição 5.19 (Multiplicação por escalar). Dado um vector →− 6 O e um número real
v =
(ou escalar) k 6= 0. Diz-se produto do número real k pelo vector →
−
v o vector p = k →
−
v , tal
que:
1. Módulo: |→
−
p | = |k →
−
v | = |k||→
−
v |.
2. Direcção: a mesma de →
−
v.
3. Sentido: o mesmo de →
−
v , se k > 0, e contrário ao de →
−
v , se k < 0.
→
−
Observação 5.20. 1. Se k = 0 ou →
−
v = 0, o produto é o vector O .
−
→
v 1
2. Se k é um escalar não nulo, a notação k
significa k−
→v
.
3. Se →
− −
→
v é um vector não nulo, o vector v
|−
→
v|
é o versor de →
−
v.
4. Identidade: 1.→
−
u =→
−
u.
Definição 5.22. Dados dois vectores v~1 e v~2 , não colineares, qualquer vector ~v pode ser
decomposto segundo as direções de v~1 e v~2 e cuja soma seja ~v . Em outras palavras,
queremos determinar dois números reais a1 e a2 tais que
Quando o vector ~v estiver representado por 5.1, dizemos que ~v é combinação linear de v~1
e v~2 .
O par de vectores v~1 e v~2 , não colineares, é chamado base do plano. Qualquer
conjunto {v~1 , v~2 } de vectores não colineares, constitui uma base no plano. Os números a1
e a2 em 5.1 são chamados componentes ou coordenadas de ~v em relação à base {v~1 , v~2 }.
O vector a1 v~1 é chamado projecção de ~v sobre v~1 segundo a direção de v~2 . Analogamente,
O vector a2 v~2 é a projecção de ~v sobre v~2 segundo a direção de v~1 conforme a fı́gura.
Definição 5.23. Uma base {e1 , e2 } é dita ortonormal se os seus vectores forem ortogonais
e unitários, isto é
e1 ⊥ e2 e |e1 | = |e2 | = 1.
Definição 5.24. Dado um vector ~v qualquer do plano, existe uma só dupla de números
x e y tal que
~v = (x, y)
Exemplo 5.25. Para exemplficar alguns vectores e suas expressões analı́ticas correspon-
dentes, consideremos os seguintes:
2. 3~j = (0, 3)
2. Soma: ~u + ~v = (x1 + x2 , y1 + y2 )
ou ainda,
−→
AB = (x2 − x1 , y2 − y1 )
−→
isto é, as componentes de AB são obtidas subtraindo-se das coordenadas da extremidade
−→
B as coordenadas da origem A, razão pela qual, também se escreve AB = B − A.
Nota 5.26. É importante lembrar que um vector tem infinitos representantes, que são
os segmentos orientados de mesmo comprimento, mesma direcção e o mesmo sentido. E
−→
dentre os infinitos representantes do vector AB, o que melhor o caracteriza é aquele que
tem origem em O(0, 0) e extremidade em P = (x2 − x1 , y2 − y1 ) conforme (5.12).
56
Figura 5.12: Vector definido por dois pontos
−→
O vector ~v = AB é também chamado vector posição ou representante natural
−→ −→
de AB. Por outro lado, sempre que tivermos ~v = AB ou ~v = B − A, podemos também
−→
concluir que B = A + ~v ou B = A + AB , isto é, o vector ~v transporta o ponto inicial A
para o ponto extremo B.
5.5.4 Exercı́cios
1
2. Determinar o vector w
~ na igualdade 3w
~ + 2~u = 2
~v ~ sendo ~u = (3, −1) e
+ w,
~v = (−2, 4).
3. Dados os pontos A(−1, 2), B(3, −1) e C(−2, 4), determinar o ponto D de modo que
−−→ 1 −→
CD = AB.
2
5. Dados os pontos A(−1, 3), B(1, 0) e C(2, −1), determinar o ponto D de modo que
−−→ −→
DC = BA.
Consideraremos a base canônica {~i, ~j, ~k} , onde estes três vetores unitários e dois a dois
ortogonais estão representados com origem no ponto O. Este ponto e a direção de cada
um dos vetores da base determinam os três eixos cartesianos:
As setas nessa figura indicam o sentido positivo de cada eixo, chamado também de eixo
coordenado.
Cada dupla de vetores de base, e, consequentemente, cada dupla de eixos, determina um
plano coordenado. Portanto, temos três planos coordenados, que são, o plano xOy, o
plano xOz e o plano yOz.
Assim como no plano, a cada ponto P (x, y, z) do espaço irá corresponder o vector
−→
OP = x~i + y~j + z~k
isto é, as próprias coordenadas x, y e z são denominadas abscissas, ordenada e cota, res-
−→ −→
pectivamente. O vector OP = x~i + y~j + z~k também será denotado por OP = ~v = (x, y, z).
2. Soma: ~u + ~v = (x1 + x2 , y1 + y2 , z1 + z2 )
58
−→ −−→ −→ −−→
Os vectores OA e OB têm expressões analı́ticas, OA = (x1 , y1 , z1 ) e OB =
(x2 , y2 , z2 ) . Por outro lado, do triângulo OAB, vem
−→ −→ −−→
OA + AB = OB
−→ −−→ −→
em que AB = OB − OA ou
−→
AB = (x2 , y2 , z2 ) − (x1 , y1 , z1 )
ou ainda,
−→
AB = (x2 − x1 , y2 − y1 , z2 − z1 )
−→
isto é, as componentes de AB são obtidas subtraindo-se das coordenadas da extremidade
−→
B as coordenadas da origem A, razão pela qual, também se escreve AB = B − A.
ou
x1 y1 z1
= = = α.
x2 y2 z2
5.5.8 Exercı́cios
1. Dados os seguintes pontos A(4, 0, 1), B(5, 1, 3), C(3, 2, 5) e D(2, 1, 3). Represente
cada um desses pontos no sistema cartesiano.
−→ −→
2. Dados os pontos A(−1, 2, 3) e B(4, −2, 0), determinar o ponto P tal que AP = 3AB.
4. Dados os pontos A(−1, 2, 3) e B(4, 5, −2), determinar e construir o ponto P tal que
−→ −−→
AP = P B.
O produto escalar de →
−
u por →
−
v também é denotado por h→
−
u ,→
−
v i e se lê (→
−
u escalar →
−
v ).
→
− →
− →
− − →
− − →
→ −
Exemplo 5.29. Dados os vectores →
−
u =3 i −5j +8k e →
v = 4 i − 2 j − k , tem-se
→
−
u .→
−
v = 3.4 − 5.(−2) + 8.(−1) = 14
ou ainda
p
|~v | = x2 + y 2
~v
~u = .
|~v |
1. ~u.~v = ~v .~u
2. ~u.(~v + w)
~ = ~u.~v + ~u.w
~
60
3. α(~u.~v ) = (α~u).~v = ~u.(α~v )
5. ~u.~u = |~u|2 .
Definição 5.32 (Ânglo entre vectores). O ânglo de dois vectores não nulos ~u e ~v é o
ângulo θ formado pelas semi-rectas OA e OB e tal que 0 ≤ θ ≥ π.
Agora, vamos estabelecer uma maneira de calcular o ângulo formado entre dois
vectores, a partir de suas componentes. Aplicando a lei dos cossenos ao triangulo ABC
da fı́gura que se segue, temos que
61
dai,
Definição 5.34. Dois vectores ~u e ~v diz-se que são ortogonais se, e somente se, o produto
escalar deles é nulo, isto é, se
~u. ~v = 0
v~1 = proj~u ~v .
Sendo v~1 //~u, temos v~1 = α~u e como v~2 = ~v − v~1 = ~v − α~u é ortogonal a ~u, ven
que
(~v − α~u). ~u = 0
62
ou
~v . ~u − α~u. ~u = 0
~v .~u
onde α = . Portanto, sendo v~1 = α~u, conclui-se que
~u.~u
~v .~u
proj~u ~v = ~u.
~u.~u
3. ~u × (~v + w)
~ = ~u × ~v + ~u × w.
~
1. ~v × w.
~
2. (~v + ~u) × w.
~
~u.(~v × w).
~
Portanto,
x 1 x 1 x1
~u.(~v × w)
~ = det x2 y2 z2 .
x3 y3 z3
64
Exemplo 5.46. Calcular o produto misto dos vectores ~u = 2~i + 3~j + 5~k, ~v = −~i + 3~j +
3~k e w
~ = 4~i − 3~j + 2~k.
Solução:
2 3 5
~u.(~v × w)
~ = −1 3 3 = 27.
4 −3 2
4. (~u, ~v , w)
~ = (~v , w,
~ ~u) = (w,
~ ~u, ~v ).
5. (α~u, ~v , w)
~ = (~u, α~v , w)
~ = (~u, ~v , αw)
~ = α(~u, ~v , w).
~
Exemplo 5.48. Verificar se são coplãnares os vectores ~u = (2, −1, 1), ~v = (1, 0, −1) e
~ = (2, −1, 4).
w
Solução:
2 −1 1
~ = det 1 0 −1 = 3 6= 0
(~u, ~v , w)
2 −1 4
Exemplo 5.49. Qual deve ser o valor de m para que os vectores ~u = (2, m, 0), ~v =
(1, −1, 2) e w
~ = (−1, 3, −1) sejam coplanares.
Consideremos um ponto A(x1 , y1 , z1 ) e um vector não nulo ~v = (a, b, c). So existe uma
recta r que passa por A e tem a direcção de ~v .
−→
Definição 5.51. Um pontp P (x, y, z) pertence a r se, e somente se, o vector AP é paralelo
a ~v , isto é,
−→
AP = t~v , para algum real t. (5.6)
P = A + t~v (5.7)
ou, em coordenadas
Qualquer uma das equações (5.7) ou (5.8) é denominada equação vectorial da recta r. O
vector ~v é chamado vector director da recta r e t é denominado parâmetro
Exemplo 5.52. Determine a equação vectorial da recta r que passa pelo ponto A(3, 0, −5)
e que tem a direcção do vector ~v = 2~i + 2~j − ~k.
Solução: Seja P (x, y, z) um ponto genérico dessa recta, tem-se
P = A + t~v
isto é,
(x, y, z) = (3, 0, −5) + t(2, 2, −1).
ou ainda
(x, y, z) = (x1 + at, y1 + bt, z1 + ct)
Exemplo 5.53. Dados o ponto A(2, 3, −4) e o vector ~v = (1, −2, 3), pede-se:
x = x1 + at y = y1 + bt z = z1 + ct
x − x1 y − y1 z − z1
t= t= t=
a b c
Como para cada ponto da recta corresponde um só valor para t, obtemos as igualdades
x − x1 y − y1 z − z1
= = (5.10)
a b c
As equações (5.10) são denominadas equações simétricas da recta que passa pelo ponto
A(x1 , y1 , z1 ) e tem a direcção do vector ~v = (a, b, c).
67
Exemplo 5.54. Achar as equações simétricas da recta que passa pelo ponto A(3, 0, −5)
e que tem a direcção do vector ~v = (2, 2, −1).
Nota 5.55. No caso, uma das coordenadas do vector ~v = (a, b, c) for igual à zero, por
exemplo b = 0, as equações simétricas da recta são:
x − x1 z − z1
= , y = y1 .
a c
x − x1 y − y1 z − z1
= =
a b c
x − x1 y − y1 b b b
= =⇒ y − y1 = (x − x1 ) ⇐⇒ y = x − x1 + y1
a b a a a
b b
Fazendo =m e − x1 + y1 = n , obtemos
a a
y = mx + n (5.11)
Analogamente para
x − x1 z − z1
=
a c
temos
z = px + q (5.12)
Exemplo 5.56. Estabelecer as equações reduzidas da recta r que passa pelos pontos
A(2, 1, −3) e B(4, 0, −2).
−→
Definição 5.57. Um ponto P (x, y, z) pertence a π se, e somente se, o vector AP é
ortogonal a ~n, isto é,
~n. (P − A) = 0
ou
ou ainda
ax + by + cz − ax1 − by1 − cz1 = 0.
ax + by + cz + d = 0
Exemplo 5.58. Obtenha uma equação geral do plano π que passa pelo ponto A(2, −1, 3)
e tem ~n = (3, 2, −4) como um vector normal.
Solução: Como ~n é normal a π, sua equação é do tipo
3x + 2y − 4z + d = 0
sendo A um ponto do plano, suas coordenadas devem verificar a equação, isto é,
3x + 2y − 4z + 8 = 0.
ou
P = A + αv~1 + β v~2
ou, em coordenadas
Esta equação é denominada equação vectorial do plano π. Os vectores v~1 e v~2 são vectores
directores de π.
Nota 5.60. Sejam A(x1 , y1 , z1 ), B(x2 , y2 , z2 ) e C(x3 , y3 , z3 ) três pontos não colineares no
−→ −→
espaço. Podemos tomar AB, AC como dois vectores directores do plano π que passa por
três pontos A, B, C.
Exemplo 5.61. Seja o plano π que passa pelo ponto A(2, 2, −1) e é paralelo aos vectores
v~1 = (2, −3, 1) e v~2 = (−1, 5, −3). Obtenha:
Equações paramétricas:
x = 2 + 2α − β
y = 2 − 3α + 5β
z = −1 + α − 3β,
α, β ∈ R
é simultaneamente ortogonal a v~1 e v~2 , ele é um vector normal ~n ao plano π. Então, uma
equação geral de π é da forma
4x + 5y + 7z + d = 0
e como A ∈ π tem-se
4x + 5y + 7z − 11 = 0.
Exemplo 5.62. Dado o plano π determinado pelos pontos A(1, −1, 2), B(2, 1, −3) e C(−1, −2, 6).
Obtenha:
Dado dois pontos A(x1 , y1 , z1 ) e B(x2 , y2 , z2 ), a distância entre dois pontos A e B se calcula
pela fórmula
p
d(A, B) = (x2 − x1 )2 + (y2 − y1 )2 + (z2 − z1 )2 .
Dado o ponto P e a recta r, para calcular a distância d(P, r), podemos achar M , que é a
−−→
projecção ortogonal de P sobre r, e calcular |P M | que é a distância procurada.
O processo de achar d(P, r): Sejam A, B dois pontos quaisquer de r, A 6= B. A área
do triângulo ABP é
1 −→ −→
S4 = |AP × AB|
2
por outro lado, a área deste triângulo ABP é
1 −→
S4 = |AB|.h
2
1 −→ −→ 1 −→
|AP × AB| = |AB|.h
2 2
logo
−→ −→
|AP × AB|
d(P, r) = h = −→ .
|AB|
−→
Como A, B são dois pontos quaisquer, podemos vêr AB como vector director ~v da recta
r. Então,
−→
|AP × ~v |
d(P, r) = h =
|~v |
onde A é um certo ponto de r.
72
Solução: Comecemos por determinar as equações reduzidas da recta r, e tem-se
y = x − 1
y = x−1
r: =⇒
z = x+y z = 2x − 1
−−→
d(P0 , π) = |AP0 |.
−−→ −−→
Observando que o vector AP0 é a projecção do vector P P0 na direccção de ~n, de acordo
com a equação acima, vem:
−−→ −−→ ~n
d(P0 , π) = |AP0 | = |P P0 . |
|~n|
73
mas
−−→
P P0 = (x0 − x, y0 − y, z0 − z)
e
~n (a, b, c)
=√
|~n| a + b2 + c 2
2
logo,
(a, b, c) |ax0 + by0 + cz0 − ax − by − cz|
d(P0 , π) = |(x0 − x, y0 − y, z0 − z). √ |= √
a2 + b 2 + c 2 a2 + b 2 + c 2
Em virtude de P pertencer ao plano π, −ax − by − cz = d, e portanto
|ax0 + by0 + cz0 + d|
d(P0 , π) = √
a2 + b 2 + c 2
Observação 5.64. Se o ponto considerado for a origem O(0, 0, 0) do sistema, tem-se:
|d|
d(P0 , π) = √
a2 + b 2 + c 2
Exemplo 5.65. Calcule a distância do ponto P0 (−4, 2, 5) ao plano π : 2x+y +2z +8 = 0.
Solução: Neste caso, temos:
~v = (2, 1, 2) é um vector normal ao plano π, isto é a = 2, b = 1 e c = 2 e as coordenadas
do ponto P0 são, x0 = −4, y0 = 2 e z0 = 5. Portanto,
|2(−4) + 1(2) + 2(5) + 8| | − 8 + 2 + 10 + 8| 12
d(P0 , π) = √ = √ = = 4 u.c.
2 2
2 +1 +2 2 4+1+4 3
Definição 5.66. Dados dois planos π1 e π2 , paralelos, a distância d entre eles é a
distância de um ponto qualquer de um dos planos ao outro, isto é,
ou
d(π1 , π2 ) = d(P0 , π1 ), com P0 ∈ π2
Como se vê, a distância entre dois planos paralelos se reduz ao cálculo da distância de
um ponto a um plano.
74
Capı́tulo 6
Espaços vectorias
+ : V × V −→ V
(u, v) 7−→ u + v
(α, v) 7−→ αu
4. v + u = u + v, para todos u, v ∈ V .
u + v = (x1 + y1 , . . . , xn + yn )
V = {A : A ∈ Mm×n (K)}.
A + B = (aij + bij )
V = Pn (K) = {p : p = a0 + a1 x + . . . + an xn , ai ∈ K}.
(αp)(x) = αp(x)
Tarefa.
4. α0 =, para todos α ∈ K e 0 ∈ V .
5. ou = 0, para todos 0 ∈ K e u ∈ V .
1. W 6= ∅.
2. u + v ∈ W , para todos u, v ∈ W .
77
3. αu ∈ W , para todo α ∈ K e u ∈ W .
2. Todo espaço vetorial V admite pelo menos dois subespaços, a saber {0} e V ,
chamados de subespaços triviais ou impróprios. Os demais subespaços de V são
chamados de subespaços não-triviais ou próprios.
W = {(x1 , . . . , xn ) ∈ V : x1 = 0}
então W é um subespaço de V .
0 = (0, . . . , 0) ∈ W.
u+v =
= (0, x2 , . . . , xn ) + (0, y2 , . . . , yn )
= (0 + 0, x2 + y2 , . . . , xn + yn )
= (0, x2 + y2 , . . . , xn + yn ) ∈ W
Portanto, W é um subespaço de V .
W = {A ∈ V : AT = A}
AT = A e B T = B.
Logo,
(A + B)T = AT + B T = A + B ∈ W
e
(αA)T = αAT = αA ∈ W.
Portanto, W é um subespaço de V .
Exemplo 6.11. Sejam A ∈ Mm×n (R) uma matriz fixada, V = Mn×1 (R) e
W = {X ∈ V : AX = 0}
Demonstração. (Tarefa)
W = {f ∈ V : f (−x) = f (x), ∀x ∈ R}
Demonstração. (Tarefa)
W = {p ∈ V : p(1) = p(7) = 0}
Demonstração. (Tarefa)
W = {(x1 , . . . , xn ) ∈ V : x2 = x1 + 1}.
u + v = (1, 3) ∈
/ W.
0 ∈ W1 e 0 ∈ W2 =⇒ 0 ∈ W1 ∩ W2
e
αu ∈ W1 , αu ∈ W2
Logo,
u + v ∈ W1 ∩ W2 e αu ∈ W1 ∩ W2
Portanto, W1 ∩ W2 é um subespaço de V .
Determine W1 ∩ W2 .
Solução: Sejam u = (x, y, z) ∈ W1 ∩ W2 , temos que u = (x, y, z) ∈ W1 e u = (x, y, z) ∈
W2 . Logo, x = 0 e y = 0. Portanto, u = (x, y, z) ∈ W1 ∩W2 se, e somente se, x = y = 0
e z qualquer. Assim,
W1 ∩ W2 = {(x, y, z) ∈ V : x = y = 0}.
80
Exemplo 6.19. Sejam V = P3 (R),
Determine W1 ∩ W2 .
Solução: Como p ∈ P3 , então p = a + bx + cx2 + dx3 com a, b, c, d ∈ R. Se p ∈ W1
então, p0 (1) = 0 =⇒ p0 (1) = b + 2cx + 3dx2 = b + 2c + 3d = 0. Analogamente, se p ∈ W2
então, p00 (1) = 0 =⇒ p00 (1) = 2cx + 6dx = 2c + +6d = 0.
Para que p ∈ W1 ∩ W2 , devemos resolver o sistema homogêneo:
b + 2c + 3d = 0
b = 3d
⇐⇒
2c + 6d = 0 c = −3d
Portanto,
W1 ∩ W2 = {p ∈ P3 : p = a + 3dx − 3dx2 + dx3 }.
Determine W1 ∩ W2 .
Solução: Para encontrar W1 ∩ W2 devemos resolver o sistema homogêneo
x+y+z = 0
n
⇐⇒ x = −y
x+y−z = 0
Portanto,
W1 ∩ W2 = {(x, y, z) ∈ V : y = −x e z = 0}.
Determine W1 ∩ W2 .
Solução: Sejam
a b
A= ∈ W1 ∩ W2
c 0
81
temos que A ∈ W1 e A ∈ W2 . Logo, d = 0, b = 0 e c = 0. Portanto,
a b
A= ∈ W1 ∩ W2
c 0
W1 = {(x, y) ∈ V : y = 0} e W2 = {(x, y) ∈ V : x = 0}
mas
u + v = (1, 0) + (0, 1) = (1, 1) ∈
/ W1 ∪ W2
Teorema 6.22 (Soma de subespaços). Seja V um espaço vetorial sobre K (real ou com-
plexo). Se W1 e W2 são subespaços de V , então o conjunto
W1 + W2 = {u1 + u2 : u1 ∈ W1 e u2 ∈ W2 }
é um subespaço de V .
Demonstração. (Tarefa)
Nota 6.23. W1 ∪ W2 ⊆ W1 + W2 .
Determine W1 ∩ W2 e W1 + W2
Solução: Sejam u = (x, y, z) ∈ W1 ∩ W2 , temos que u = (x, y, z) ∈ W1 e u = (x, y, z) ∈
W2 . Logo, x = 0 e y = z = 0. Portanto, u = (x, y, z) ∈ W1 ∩ W2 se, e somente se,
x = y = z = 0. Assim,
W1 ∩ W2 = {(0, 0, 0)}.
82
Agora, dados u ∈ W1 + W2 , existem u1 = (0, y, z) ∈ W1 e u2 = (x, 0, 0) ∈ W2 com
x, y, z ∈ R tais que
u = u1 + u2 = (x, y, z).
Portanto,
W1 + W2 = V.
Definição 6.25 (Soma direta). Sejam V um espaço vectorial sobre o corpo K (real ou
complexo) e W1 e W2 subespaços de V . Dizemos que V é decomposto em soma direta de
W1 e W2 , denotado por W1 ⊕ W2 , se as seguintes condições são satisfeitas:
1. V = W1 + W2 .
2. W1 ∩ W2 = {0}.
u = α1 u1 + α2 u2 + . . . + αn un .
Exemplo 6.27. Verifique se o vector v = (3, 2, 1) pode ser escrito como uma combinação
linear dos vectores v1 = (1, 1, 1), v2 = (1, −1, 1), e v3 = (1, 1, −1).
é um subespaço de V .
u = α1 u1 + α2 u2 + . . . + αn un e v = λ1 u1 + λ2 u2 + . . . + λn un
Logo,
u+v =
= (α1 u1 + α2 u2 + . . . + αn un ) + (λ1 u1 + λ2 u2 + . . . + λn un )
Portanto, W é um subespaço de V .
O subespaço
n
X
W = α1 u1 + α2 u2 + . . . + αn un = αi ui : αi ∈ R
i=1
Portanto,
[i, j] = R2 .
84
Exemplo 6.30.
W1 + W2 = [u1 , u2 , . . . , un , v1 , v2 , . . . , vn ].
W1 = {(x, y, z) ∈ V : x + y + z = 0}
e
W2 = {(x, y, z) ∈ V : x = y = 0}
Assim,
W1 + W2 = [(1, 0, −1), (0, 1, −1), (0, 0, 1)] = R3 .
W1 = {(x, y, z) ∈ R3 : x + y + z = 0}
e
W2 = {(x, y, z) ∈ R3 : x + y = 0 e x − z = 0}.
85
Solução: Seja u = (x, y, z) ∈ W1 , então x + y + z = 0 =⇒ z = −x − y, logo u =
(x, y, −x − y) =⇒ W1 = [(1, 0, −1), (0, 1, −1)]. Analogamente, se v = (x, y, z) ∈ W2 ,
então x + y = 0 e x − z = 0, logo v = (x, −x, x) =⇒ W2 = [(1, −1, 1)]. Portanto,
implica que
α1 = α2 = . . . = αn = 0.
6.5.1 Bases
1. β é LI.
{e1 , e2 , e3 }
Exemplo 6.41. Seja V = Pn (R) o espaço vectorial de todos os polinómios com coefici-
entes reais e
β = {1, x, x2 , x3 , . . .}.
Exemplo 6.42. Seja V = R2 e β = {(1, 1), (−1, 0)}. O conjunto β é uma base de V ?
Exemplo 6.43. O conjunto β = {(0, 1), (0, 2)} não é uma base de R2 , pois é um conjunto
LD.
W = {(x, y, z) ∈ R3 : 3x − y − z = 0}.
Teorema 6.46. Sejam u1 , u2 , . . . , un vectores não nulos que geram um espaço vectoial
V . Então, dentre estes vectores podemos extrair uma base de V .
Proposição 6.47. Sejam V um espaço vectorial gerado por um conjunto finito de vectores
u1 , u2 , . . . , un . Então qualquer conjunto com mais de n vectores é necessariamente LD
(e, portanto, qualquer conjunto LI tem no máximo n vectores).
6.5.2 Dimensão
1. Se V possui uma base com n vectores, então V tem dimensão n e denota-se dim V =
n.
3. Se V possui uma base com infinitos vectores, então dim V é infinita e denota-se por
dim V = ∞.
3. dim Pn (K) = n + 1.
4. Se dim W = 3, então W = R3 .
Exemplo 6.54. O conjunto β = {(2, 1); (1, 3)} é uma base do R2 . De fato, como dim R2 =
2 e os dois vetores dados são LI (pois nenhum vetor é múltiplo escalar do outro), eles
formam uma base do R2 .
p = ax3 + bx2 + cx + d ∈ W
Portanto, p ∈ W é da forma
e dim W = 3.
89
Teorema 6.56. Seja V um espaço vectorial de dimensão finita. Se W1 e W2 são su-
bespaços vectorias de V então
W1 = {(x, y, z, t) ∈ V : y + z + t = 0}
e
W2 = {(x, y, z, t) ∈ V : x + y = 0 e z − 2t = 0}
subespaços de V .
2. dim (W1 + W2 ).
3. V é a soma direta de W1 e W2 .
Solução:
W1 = {(x, y, z, t) ∈ V : y + z + t = 0} =
= {(x, y, z, −y − z) ∈ V : x, y, z ∈ R}
temos que V não é soma direta de W1 e W2 . Agora, vamos determinar uma base de
W1 ∩ W2 resolvendo o sistema homogêneo
y+z+t = 0
x = 3t
=⇒
x+y = 0
y = −3t
z − 2t
= 0
z = 2t
Assim,
W1 ∩ W2 = [(3, −3, 2, 1)].
subespaços de V .
2. V é a soma direta de W1 e W2 .
Solução: É evidente que dim W1 = 2 e dim W2 = 2. Agora, para determinar uma base
para W1 ∩ W2 , devemos primeiro determinar os vectores u = (x, y, z) ∈ R3 que estão nos
91
subespaços W1 e W2 , isto é, escalonar as matrizes
1 0 x 1 1 x
0 1 y e 2 −1 y
−1 2 z 3 1 z
Assim,
1 0 x 1 0 x
0 1 y v 0 1
y
−1 2 z 0 0 x − 2y + z
que tera solução se, e somente se, x − 2y + z = 0. Analogamente,
x+y
1 1 x 1 0 3
2x−y
2 −1 y v 0 1
3
3 1 z 0 0 −5x−2y+3z
3
6.6 Coordenadas
Definição 6.60. Sejam V um espaço vectorial gerado e β uma base de V formada pelos
vectores u1 , u2 , . . . , un ∈ V sendo
v = α1 u1 + α2 u2 + . . . + αn un .
92
Os coeficientes α1 , α2 , . . . , αn são chamados componentes ou coordenadas de v em relação
à base β e representa-se por
α1
α2
[v]β =
..
.
.
αn
Exemplo 6.61. Mostre que os vectores (1, 1, 1), (0, 1, 1) e (0, 0, 1) formam uma base
de R3 . Encontre as coordenadas de (1, 2, 0) ∈ R3 com relação à base β formada pelos
vectores acima.
Exemplo 6.62. Sejam V = R3 e β = {(1, 0, −1), (1, 1, 1), (1, 0, 0)} uma base ordenada
de V . Determine [(a, b, c)]β .
Exemplo 6.63. Sejam V = P2 (R). Mostre que β = {1, 1 + x, (1 + x)2 } é uma base
ordenada de V e determine [a0 + a1 x + a2 x2 ]β .
93
94
Capı́tulo 7
Transformações lineares
Neste capı́tulo vamos estudar um tipo especial de funções, as quais são chamadas de
transformações lineares e que é um dos objetos fundamentais da álgebra linear.
T (u + v) = T (u) + T (v).
T (αu) = αT (u).
Observação 7.2. Intituivamente, uma transformação linear é uma função que preserva
as operações dos espaços vectorias.
TA (X) = AX,
e
TA (αX) = α(AX) = αTA (X), ∀α ∈ R e X ∈ V.
(Dp)(x) = p0 (x), ∀p ∈ V,
T (ui ) = wi , i = 1, . . . , n.
u = α1 u1 + α2 u2 + . . . + αn un .
T (ui ) = wi , i = 1, . . . , n.
96
e pela linearidade de T tem-se que
T (u) = T (α1 u1 + α2 u2 + . . . + αn un )
= α1 w 1 + α2 w 2 + . . . + αn w n
Corolário 7.7. Sejam V e W dois espaços vectoriais sobre R e β = {ui }i∈I uma base de V
e {wi }i∈I uma famı́lia arbitrário de vectores em W . Então existe uma única transformação
linear T : V → W tal que
T (ui ) = wi , ∀i ∈ I.
Exemplo 7.9. Qual a transformação linear T : R2 → R3 tal que T (1, 0) = (2, −1, 0) e T (1, 1) =
(0, 0, 1)
Im(T ) = {w ∈ W : T (u) = w}
97
Definição 7.11 (Núcleo). Sejam V, W espaços vectorias sobre R e T : V → W uma
transformação linear. O conjunto de todos os vectores u ∈ V tais que T (u) = {0} é
chamado núcleo de T , sendo denotado por ker(T ), isto é,
Im(T ) = {(a, b, c) ∈ R3 : a − 3b + 2c = 0}
T (u1 ) = w1 e T (u2 ) = w2 .
Analogamente, para o núcleo de T . Primeiramente, vemos que 0 ∈ ker(T ), uma vez que
T (0) = 0 ∈ W . Portanto, ker(T ) 6= ∅.
Sejam u1 , u2 vectores no núcleo de T , isto é,
T (u1 ) = 0 e T (u2 ) = 0
então,
T (u1 + u2 ) = T (u1 ) + T (u2 ) = 0 + 0 = 0.
Logo, (αu) ∈ kert(T ), o que mostra que o núcleo é fechado para o produto por escalar.
99
Definição 7.16. Sejam V, W espaços vectorias sobre R e T : V → W uma transformação
linear. Dizemos que T é injectiva se
ou, equivalentemente,
T (u) = w,
isto é, Im(T ) = W . Finalmente, dizemos que T é bijectiva se T for ingectiva e sobrejectiva
ao mesmo tempo. Neste caso,
w = T (u) ⇐⇒ u = T −1 (w).
Demonstração. Suponhamos que T seja não-singular, isto é, ker(T ) = {0}. Dados u, v ∈
V , se T (u) = T (v), então
Demonstração. Suponhamos que T seja não-singular, isto é, ker(T ) = {0}. Seja α =
{u1 , u2 , . . . , un } um conjunto qualquer LI de V . Queremos provar que
Logo,
Assim,
α1 u1 + α2 u2 + . . . + αn un ∈ ker(T ) = {0},
isto é,
α1 u1 + α2 u2 + . . . + αn un = 0.
1. T é bijectiva.
2. T é não-singular.
3. T é sobrejectiva.
Como
T (u1 + u2 ) = T (u1 ) + T (u2 ) = w1 + w2
temos que
T −1 (w1 + w2 ) = u1 + u2 = T −1 (w1 ) + T −1 (w2 ).
Finalmente, como
T (αu1 ) = αT (u1 ) = αw1
temos que
T −1 (αw1 ) = αu1 = αT −1 (w1 ).
Portanto, T −1 é linear.
β = {u1 , u2 , . . . , un }
Definimos Tβ : Rn → V por
Tβ (α1 , α2 , . . . , αn ) = u
É fácil verificar que Tβ está bem definida, é linear e injectiva. Portanto, V é isomorfo a
Rn .
Solução: Para mostrar que T é um isomorfismo, basta determinar o seu núcleo, isto é,
= {(0, 0, 0)}
temos que T é injectiva, pois ker(T ) = {0}. Portanto, T é um isomorfismo. Agora, dado
(a, b, c) ∈ R3 , existe um único (x, y, z) ∈ R3 tal que
Logo,
(a, b, c) = (x − 2y, z, x + y),
103
isto é,
x − 2y = a
z = b
x+y = c
Assim,
a + 2c c−a
x= ,y= ez = b
3 3
Portanto,
a + 2c c − a
T −1 (a, b, c) = ( , , b)
3 3
ou ainda
x + 2z z − x
T −1 (x, y, z) = ( , , y)
3 3
TA (u) = Au, ∀u ∈ V.
..
.
Representando a matriz m × n por [T ]ββ 0 . Dizemos que a matriz [T ]ββ 0 é a matriz de T (ou
matriz associada à T ) em relação às bases β e β 0 .
Determinar a matriz associada a T , relativamente às bases β = {(2, 1), (−1, 0)} e β 0 =
{(1, 2, 1), (0, 1, 1), (0, 0, 3)}.
Solução: Como a transformação é T : R2 → R3 , então a matriz associada a [T ]ββ 0 será do
tipo 3 × 2 e que cada coluna é a imagem do respectivo vector da base β escrita na base
β 0 . Agora procedemos o seguinte:
2. Provar que β 0 gera R3 , isto é, escrever um vector (x, y, z) ∈ R3 como combinação
linear dos vectores da base β 0 .
α1 = x
(x, y, z) = α1 (1, 2, 1) + α2 (0, 1, 1) + α3 (0, 0, 3) ⇐⇒ α2 = y − 2x
α = x−y+z
3 3
105
3. Obter os vector-coordenadas dos vectores do primeiro passo, isto é,
3 −1
[(3, 4, −1)]β = −2 e [(−1, −2, −1)]β = 0
−2
3
0
4. Escrever a matriz
3 −1
[T ]ββ 0 = −2 0 .
−2
3
0
Sejam α = {(1, 1, 1), (1, 1, 0), (1, 0, 0)} e β = {(1, 3), (1, 4)} bases ordenadas de R2 e R3 ,
respectivamente. Determine [T ]αβ .
Observação 7.35. Quando as bases consideradas são as canônicas, dizemos que a matriz
obtida é a matriz canônica da transformação linear. Além disso, quando lidamos com
operadores lineares, ou seja, com transformações lineares em que o domı́nio e o contra-
domı́nio coincidem, se consideramos uma única base para representar, tanto os vetores de
entrada quanto suas imagens, podemos simplificar a notação. Por exemplo, sendo β base
escolhida, representamos [T ]ββ 0 por [T ]ββ ou simplesmente [T ].
dim ker(T ) = N ul([T ]ββ 0 ) = número de colunas de[T ]ββ 0 − r([T ]ββ 0 ).
106
7.4 Álgebra das transformações
Nesta secção, iremos unir os conceitos de operações com matrizes e transformações line-
ares. Definiremos operações que nos possibilitarão combinar transformações lineares, de
modo a obter novas transformações lineares.
(T + S) : V → W.
(T + S)(u + v) = T (u + v) + S(u + v)
= (T + S)(u) + (T + S)(v)
u 7−→ kT (u).
107
Teorema 7.40. Sejam V e W espaços vectorias e T : V → W uma transformações linear
e k ∈ R. Então, o produto de transformações linear por um escalar é uma transformação
linear.
L(V, W).
Determine:
1. (T + S)(x, y, z)
2. (3T )(x, y, z)
3. (2T − 5S)(x, y, z)
(S ◦ T ) : V → W.
(S ◦ T )(u + v) = S[T (u + v)] = S[T (u) + T (v)] = S(T (u)) + S(T (v)) = (S ◦ T )(u) + (S ◦ T )(v)
Teorema 7.48. Um operador linear T é inversı́vel se, e somente se, for um isomorfismo.
B = P −1 AP.
Demonstração. (Tarefa)...
u = α1 u1 + α2 u2 + . . . + αn un (7.1)
u = λ1 w1 + λ2 w2 + . . . + λn wn (7.2)
u = λ1 w 1 + . . . + λn w n =
Em forma matricial
α1 a11 a12 ... a1n λ1
α2 a21 a22 . . . a2n λ2
= . .
.. .. .. .. ..
...
. . . . .
αn am1 am2 . . . amn λn
temos a relação
0
[u]β = [I]ββ .[u]β 0
0
A matriz [I]ββ é chamada matriz mudança de base β 0 para a base β.
0
Nota 7.55. Uma vez obtida [I]ββ podemos encontrar as coordenadas de qualquer vec-
tor u em relação à base β multiplicando a matriz pelas coordenadas de u na base β 0
supostamente conhecida.
112
Exemplo 7.56. Sejam β = {(2, −1), (3, 4)} e β 0 = {(1, 0), (0, 1)} bases de R2 , respecti-
0
vamente, determine [I]ββ .
Exemplo 7.57. Considere as bases em R3 β = {(1, 0, 1), (1, 1, 1), (1, 1, 2)} e β 0 =
0
{(1, 0, 0), (0, 1, 0), (0, 0, 1)}. Encontre [I]ββ .
113
114
Capı́tulo 8
Nosso objetivo neste capı́tulo é determinar uma base de V , em relação à qual, a matriz
de T tenha uma forma a mais simples possı́vel.
T (v) = λ v.
1. λ é um autovalor de T .
3. det(T − λ I) = 0.
115
4. r(T − λ I) <.
Demonstração. (Tarefa)
x1
x2
Definição 8.4. Sejam A ∈ Mm×n (K) e v =
..
∈ V . Para encontramos os autova-
.
xn
lores e autovectores de A, devemos resolver a equação:
→
− →
−
Av = λv = Iλv =⇒ Av − Iλv = 0 ⇐⇒ (A − λI)v = 0 .
Logo, pela regra de Cramer, se det B = 0, então o sistema homogêneo terá infinitas
soluções. Assim, a única maneira de encontramos autovectores v, soluções não-nulas da
→
−
equação Bv = 0 , é termos det B = 0, ou seja,
det(A − λI) = 0
Portanto,
p(λ) = 0 ⇐⇒ λ2 + λ − 2 = 0 =⇒ λ1 = 1 e λ2 = −2
→
−
Vλi = ker(A − λi I), ∀i = 1 : 2 ou (A − λi I)v = 0 =⇒
Logo,
Analogamente, para λ2 = −2
−x + 4y = 0
−3 − (−2)
4 x 0
. = =⇒ =⇒ x = 4y.
−1 2 − (−2) y 0
−x + 4y = 0
Logo,
{v1 , v2 , . . . , vn }
é linearmente independente.
β = {v1 , v2 , . . . , vn }
Demonstração. (Tarefa)
é uma base de R3 , pelo teorema (8.11), e portanto o operador T representado pela matriz
A é diagonalizável.
D = P −1 AP.
0
P = [I]ββ .
Nota 8.17. Pela definição da matriz P , podemos concluir que ela é uma matriz cujas
colunas são os autovectores do operador T . A matriz D é obtida pela ”atução”da matriz
P , quando ela existe, sobre a matriz A. Dizemos então, que a matriz P diagonaliza A ou
P é a matriz diagonalizadora.
Solução: Devemos encontrar uma matriz P inversı́vel e uma matriz D diagonal tal que
D = P −1 AP ou P D = AP.
Teorema 8.19. Se A é uma matriz m × n com n autovalores distintos entre se, então A
é diagonalizável.
Demonstração. (Tarefa)
mg (λ) = dim Vλ .
120
2. O número de vezes que λ aparece como autovalor de A é chamado de multiplicidade
algébrica de λ e denotado por ma (λ).
mg (λ) = ma (λ).
Av = λv
121
multiplicando esta igualdade por A temos
(A.A...A)Av = (A.A...A)λv =⇒ Ak v = λk v.
Teorema 8.25. Se A é diagonalizável, então existe uma matriz inversı́vel P e uma dia-
gonal D tais que
A = P DP −1 .
Assim,
= P D (P −1 P ) D(P −1 P )D...(P −1 P )D P −1
= P Dk P −1 .
tal que
com λ1 , λ2 , . . . , λr distintos.
p([T ]ββ ) = 0.
123
a b
Exemplo 8.33. Seja [T ]ββ = . Então o polinómio caracterı́stico é
c d
a−λ
β b
p(λ) = det([T ]β − λI) = = (a − λ)(d − λ) − bc.
d−λ
c
Então,
0 0
p([T ]ββ ) = .
0 0
Teorema 8.34. As raı́zes do polinómio mı́nimo são as mesmas raı́zes distintas do po-
linómio caracterı́stico.
Observação 8.35. O polinómio mı́nimo deve ser de grau menor ou no máximo igual ao
do polinómio caracterı́stico e ainda deve ter as mesmas raı́zes.
Como m(λ) é o de menor grau que [T ]ββ verificamos primeiramente se m1 ([T ]ββ ) = 0. Em
caso afirmativo, m1 (λ) será o polinómio mı́nimo. Se m1 ([T ]ββ ) 6= 0 testamos m2 ([T ]ββ )
e assim sucessivamente. Na pior das hipóteses, o polinómio mı́nimo será p(λ), isto é, o
polinómio caracterı́stico.
124
Teorema 8.37. Sejam λ1 , λ2 , . . . , λr os autovalores distintos de um operador linear T .
Então, T será diagonalizável se, e somente se, o polinómio
(λ − λ1 )(λ − λ2 ) . . . (λ − λr )
anular a matriz de T .
é diagonalizável?
Solução: Seja β a base canônica de R4 , então a matriz de T é
3 0 −4 0
β
0 3 5 0
[T ]β =
.
0 0 −1 0
0 0 0 −1
Então,
p(λ) = det([T ]ββ − λI) = (3 − λ)2 (−1 − λ)2 .
1. m(λ) = (3 − λ)(−1 − λ)
Notemos que m1 ([T ]ββ ) = 0, e é dentre os candidatos o de menor grau. Então, m1 (λ) =
(3 − λ)(−1 − λ) é o polinómio mı́nimo. Portanto, T é diagonalizável, isto é, existe uma
base β de autovectores e nesta base
3 0 0 0
β
0 3 0 0
[T ]β = .
0 0 −1 0
0 0 0 −1
125
126
Capı́tulo 9
Nosso objetivo neste capı́tulo é o seguinte: Se T não pode ser diagonalizável, então
determinar uma base de V em relação à qual a matriz de T tenha uma forma tão próximo
quanto possı́vel da matriz diagonal.
Teorema 9.2. Seja T : V → V um operador linear, cujo polinómio caracterı́stico pode ser
factorado em polinómios lineares. Então existe uma base de V na qual T é representado
por uma matriz triangular.
Teorema 9.3. Seja A ∈ Mn (R) uma matriz quadrada cujo polinómio caracterı́stico
factora-se em polinómios lineares. Então, A é semelhante a uma matriz triangular, isto
é, existe uma matriz inversı́vel P tal que P −1 A P é triangular.
127
Definição 9.4. Dizemos que um operador linear T pode ser posto em forma triangular,
se ele pode ser representado por uma matriz triangular. Neste caso, os autovalores de T
são precisamente os elementos que aparecem na diagonal princı́pal.
9.2 Invâriancia
Definição 9.5. Seja T : V → V um operador linear. Diz-se que um subespaço W de V é
invariante sob T , ou T − invariante, se T aplica W em si mesmo, isto é, se v ∈ W então
T (v) ∈ W .
T̂ (W ) = T (W ), ∀w ∈ W.
v = w1 + w2 + . . . + wr , com wi ∈ Wi .
Teorema 9.9. Sejam W1 , W2 , . . . , Wr subespaços de V , e supomos que {w11 , . . . , w1n1 }, . . . , {wr1 , . . . , wrn
sejam bases de W1 , W2 , . . . , Wr , respectivamente. Então V é a soma direta dos Wi se, e
somente se, a união
V = W1 ⊕ W2 ⊕ . . . ⊕ Wr , e T (Wi ) ⊆ Wi , i = 1 : r.
T = T1 ⊕ T2 ⊕ . . . ⊕ Tr .
e
T2 (w1 ) = b11 w1 + b12 w2 + b13 w3
Logo,
b11 b21 b31
a11 a21
A= e B = b12 b22 b32
a12 a22
b13 b23 b33
são representações matriciais de T1 e T2 , respectivamente, e pelo teorema 9.9
{u1 , u2 , w1 , w2 , w3 }
é uma base de V . Como T (ui ) = T1 (ui ) e T (wj ) = T2 (wj ) a matriz de T nesta base é
a matriz diagonal em bloco
A O
.
O B
129
Teorema 9.12. Seja T : V → V um operador linear e V a soma direta de subespaços T −
invariante, digamos W1 , W2 , . . . , Wr . Se Ai é uma representação matricial da restrição
de T a Wi , então T pode ser representada pela matriz diagonal em bloco
A 0 ... 0
1
0 A2 . . . 0
M = .. .. . . . .
. . . ..
0 0 . . . Ar
M = A1 ⊕ A2 ⊕ . . . ⊕ Ar
onde os fi (λ) são polinómios mônicos distintos irredutı́veis. Então V é a soma direta de
subespaços T − invariantes W1 , W2 , . . . , Wr . Se Ai , onde Wi é o núcleo de fini (T ).
Teorema 9.15. Se f (λ) é o polinómio mı́nimo de T e g(λ), h(λ) são mônicos, então g(λ)
e h(λ) são os polinómios mı́nimos das restrições de T a U e W , respectivamente.
Teorema 9.16. Uma matriz A ∈ Mn (R) é semelhante a uma matriz diagonal se, e
somente se, seu polinómio mı́nimo é o produto de polinómios lineares distintos.
130
9.5 Forma canônica de Jordan
Definição 9.17 (Operadores Nilpotentes). Um operador linear T : V → V é chamado
nilpotente se T n = 0 para algum inteiro n, k é o ı́ndice de nilpotência de se T k = 0, mas
T k−1 6= 0. Analogamente, uma matriz quadrada A ∈ Mn é chamada nilpotente se An = 0,
para algum inteiro n, e de ı́ndice k se Ak = 0, mas Ak−1 6= 0.
Um operador T pode ser posto em forma canônica de Jordan, se seus polinómios carac-
terı́sticos e mı́nimos poderem factorar-se em polinómios lineares. Assim, em um sentido
âmplo, todo operador tem uma forma canônica de Jordan, analogamente, toda matriz é
semelhante a uma matriz em forma canônica de Jordan.
p(λ) = (λ − λ1 )n1 .(λ − λ)n2 ...(λ − λr )nr e m(λ) = (λ − λ1 )1 .(λ − λ)m2 ...(λ − λr )mr
onde os λi são escalares distintos. Então T admite uma representação matricial em bloco
J, cujos elementos diagonais têm a forma:
λ 1 0 ... 0 0
i
0 λi 1 ... 0 0
. . .. . . .. ..
Jij = .. .. . .
. . .
0 0 0 . . . λi 1
0 0 0 ... 0 λi
131
onde
Jij = J(λi ).
ou seja,
λi 1 0 ... 0 0 λi 0 0 ... 0 0 0 1 0 ... 0 0
0 λi 1 ... 0 0 0 λi 0 ... 0 0 0 0 1 ... 0 0
.. .. .. . . .. .. .. .. .. . . .. .. .. .. .. . . .. ..
Jij = . = . + . .
. . . . . . . . . . . . . . .
0 0 0 . . . λi 1 0 0 0 . . . λi 0 0 0 0 ... 0 1
0 0 0 ... 0 λi 0 0 0 ... 0 λi 0 0 0 ... 0 0
v, T (v), T 2 (v), . . . ,
de potências de T actuando sobre v. Seja k o menor inteiro tal que T k (v) é uma com-
binação linear desses vectores que o precedem na sequência:
Então,
é o único polinómio mônico de grau mı́nimo para o qual mv (λ) = 0. Chamamos mv (λ) o
T-anulador de v e Z(v, T ).
1. O conjunto {v, T (v), . . . , T k−1 (v)} é uma base de Z(v, T ), logo dim Z(v, T ) = k.
Lema 9.24. Seja T : V → V um operador linear, cujo polinómio mı́nimo é f n (λ), onde
f (λ) é um polinómio irredutı́vel. Então V é a soma direta
onde os fi (λ) são polinómios mônicos distintos irredutiveis. Então, T possui uma única
134
representação matricial em bloco
C
11
...
C1r1
...
C s1
...
Csrs
Então a forma racional de T é uma das seguintes somas diretas das matrizes companheira:
v + W = {v + w : w ∈ W }.
W = {(a, b) : a = b}.
Isto é, W é a recta dada pela equação x − y = 0. Então, podemos encarar v + W como
uma translação da recta, obtida somando-se o vector v a cada ponto em W . Assim, as
classes laterais de W em R2 são precisamente todas as rectas paralelas a W .
1. (u + W ) + (v + W ) = (u + v) + W, ∀u, v ∈ V .
2. k(u + W ) = ku + W, u ∈ V e k ∈ K.
T (u + W ) = T (u) + W.
136
Capı́tulo 10
Espaço Euclidiano
O principal objetivo neste capı́tulo é estudar espaços vetorias nos quais tenha sentido falar
do comprimento de um vetor e do ângulo entre dois vetores.
1. hu, ui ≥ 0 e hu, ui = 0 ⇐⇒ u = 0, ∀u ∈ V .
hu, vi = x1 y1 + x2 y2 + x3 y3
e
hu, ui = 0 =⇒ u = 0
137
hu + v, wi
= x1 z1 + y1 z1 + x2 z2 + y2 z2 + x3 z3 + y3 z3
= (x1 z1 + x2 z2 + x3 z3 ) + (y1 z1 + y2 z2 + y3 z3 )
onde
x1 y1
x2 y2
X=
..
e Y =
..
. .
xn yn
Exemplo 10.4. Seja V o espaço das funções contı́nuas no intervalo [a, b]. Se f e g ∈V.
Então Z 1
hf, gi = f (t)g(t) dt
0
hA, Bi = trhAT , Bi
Exemplo 10.6. Seja V = M2 (R) o espaço de todas as matrizes quadradas com elementos
reais, sendo
u1 u2 v1 v2
u= e v=
u3 u4 v3 44
138
a relação
hu, vi = u1 v1 + u2 v2 + u3 v3 + u4 v4
u⊥v.
hu, vi = 0, ∀u ∈ α e v ∈ β.
hui , uj i = 0, i 6= j
Então
0 = h0, uj i = hα1 u1 + α2 u2 + . . . + αn un , uj i
.
139
pois hui , uj i = 0, se i 6= j. Como huj , uj i ≥ 0 temos que αj = 0, j = 1, . . . , n. Portanto,
β é linearmente independente.
β = {u1 , u2 , . . . , un , . . .}
β = {u1 , u2 , . . . , un }
β = {e1 , e2 , . . . , en }
hu, vi = x1 y1 − x1 y2 − x2 y1 + 5x2 y2
temos que os vectores (2, 1) e (−3, 1) são LI. Portanto, β é uma base ortogonal de V .
onde u = a0 + a1 x e g = b0 + b1 x ∈ V . Então
β = {1, 1 − 2x}
140
é uma base ortogonal de V .
Solução: Como Z 1
h1, 1 − 2xi = (1 − 2t)dt = 0
0
u = α1 u1 + α2 u2 + . . . + αn un .
Então,
hu, uj i = hα1 u1 + α2 u2 + . . . + αn un , uj i
= αj huj , uj i
Assim,
hu, uj i
αj = , j = 1, . . . , n.
huj , uj i
Portanto,
n
X hu, ui i
u= ui , ∀u ∈ V.
i=1
hui , ui i
hu, uj i
αj = , j = 1, . . . , n.
huj , uj i
Portanto,
5
2
[(2, 3)]β = .
1
2
10.2 Norma
Definição 10.19. Seja V um espaço euclidiano. A norma ou comprimento de um vector
u ∈ V é definido como
p
kuk = hu, ui.
v
u=
|v|
Demonstração. (4) As propriedades (1), (2) e (3) podem ser provadas directamente a par-
tir das propriedades do produto interno.
Sejam u, v ∈ V com u 6= 0, para qualquer t ∈ R temos que,
temos então uma equação do segundo grau que deve ser positivo para qualquer valor de
t. Como o coeficiente hu, ui de t2 é sempre positivo, o descriminante ∆ deve ser negativo,
isto é,
4hu, vi2 − 4hu, uihv, vi ≤ 0 =⇒ 4hu, vi2 − 4kuk2 kvk2 ≤ 0
Definição 10.23 (Ângulo entre dois vectores). Seja V um espaço euclidiano, para quais-
quer u, v ∈ V − {0}, o ângulo entre u e v é definido como o ângulo θ tal que
1. 0 ≤ θ ≤ π.
hu, vi
2. cos θ = .
kukkvk
hu, vi
−1 ≤ ≤1
kukkvk
β = {e1 , e2 , . . . , en }
Exemplo 10.26. A partir do conjunto β = {(1, 2, −3), (3, 0, 1), (1, −5, −3)} obtenha uma
base ortonormal para o R3 .
hu2 , v1 i
v2 = u2 − v1
kv1 k2
[v1 , v2 ] = [u1 , u2 ].
α1 v1 + α2 v2
hu3 , v1 i
hu3 − (α1 v1 + α2 v2 , v1 )i = 0 ⇐⇒ α1 = .
kv1 k2
144
Analogamente,
hu3 , v2 i
hu3 − (α1 v1 + α2 v2 ), v2 i = 0 ⇐⇒ α2 = .
kv2 k2
Assim, o vector
hu3 , v1 i hu3 , v2 i
v3 = u3 − 2
v1 − v2
kv1 k kv2 k2
é tal que
v1 ⊥v3 , v2 ⊥v3 e [v1 , v2 , v3 ] = [u1 , u2 , u3 ]
β = {v1 , v2 , . . . , vn }
de V , onde
k−1
X huk , vi i
vk = uk − vi , k = 1, 2, . . . , n.
i=1
kvi k2
Este processo de ortogonalização é conhecido como o processo de ortogonalização de
Gram-Schmidt.
Observação 10.28. A partir de uma base qualquer de V podemos sempre obter uma base
ortogonal (ortonormal) de V . Mais geralmente, se α = (u1 , u2 , . . . , un ) é uma sequência
LI de V , então podemos construir, indutivamente, uma sequência ortogonal
β = (v1 , v2 , . . . , vn )
de V tal que
[v1 , v2 , . . . , vk ] = [u1 , u2 , . . . , uk ], ∀k ∈ R.
u1 = (1, 1, 1) = v1 .
Agora, tomamos
v1 v2 v3
β={ , , }
kv1 k kv2 k kv3 k
de V .
hu, vi = 2x1 x2 − x1 y2 − x2 y1 + y1 y2
e
β = {(1, 0), (0, 1)}
β = {1, x, x2 , x3 , . . .}.
p1 = 1.
Agora, tomamos
hx, p1 i
p2 = x − p1 = x,
kp1 k2
hx, p1 i hx2 , p2 i 1
p 3 = x2 − 2
p 1 − 2
p 2 = x2 − ,
kp1 k kp2 k 3
146
hx, p1 i hx2 , p2 i hx3 , p3 i 3
p 4 = x3 − 2
p 1 − 2
p 2 − 2
p3 = x3 − x,
kp1 k kp2 k kp3 k 5
e assim por diante. Finalmente, normalizando os vetores p1 , p2 , p3 e p4 obtemos uma
base ortonormal
α = {q1 , q2 , q3 , q4 , . . .}
β ⊥ = {v ∈ V : hv, ui = 0, ∀u ∈ β}.
um subespaço de V . Determine W ⊥ .
Solução: Para resolver este problema basta encontrar u = (x, y, z, t) ∈ V tal que
1. W ⊥ é um subespaço de V .
2. W ∩ W ⊥ = {0}.
3. (W ⊥ )⊥ = W .
148
Capı́tulo 11
Funcionais lineares
Definição 11.2 (Espaço dual). Seja V ∈ Kn o espaço vectorial de n-uplas que escrevemos
como vector coluna. Então o espaço dual V ∗ pode ser identificado com o espaço dos
vectores linha. Em particular, qualquer funcional linear φ = (a1 , a2 , . . . , an ) ∈ V ∗ admite
a representação
x1
x2
φ(x1 , x2 , . . . , xn ) = (a1 , a2 , . . . , an ).
..
.
xn
ou simplesmente
φ(x1 , x2 , . . . , xn ) = a1 x1 + a2 x2 + . . . + an xn .
Então, {φ1 , φ2 , . . . , φn } é uma base de V ∗ . A base {φi } acima é chamada de base dual
de {vi } ou base dual.
A fórmula acima, que utiliza o delta de Kronecher δij , é uma maneira abreviada
de escrever:
φ1 (v1 ) = 1, φ1 (v2 ) = 0, . . . , φ1 (vn ) = 0
Exemplo 11.4. Consideremos as seguintes bases de R2 {v1 = (2, 1), v2 = (3, 1)}. Deter-
mine a base dual {φ1 , φ2 }.
Solução: Procuremos funcionais lineares da forma φ1 (x, y) = ax + by e φ2 (x, y) = cx + dy
tais que
φ1 (v1 ) = 1, φ1 (v2 ) = 0, φ2 (v1 ) = 0, φ2 (v2 ) = 1.
Assim,
φ (v ) = φ1 (1, 2) = 2a + b = 1
1 1
=⇒ a = −1, b = 3.
φ (v ) = φ (3, 1) = 3a + b = 0
1 2 1
Analogamente,
φ (v ) = φ2 (1, 2) = 2c + d = 0
2 1
=⇒ c = 1, d = −2.
φ (v ) = φ (3, 1) = 3c + d = 1
2 2 2
Logo a base dual é {φ1 (x, y), φ2 (x, y)} = {−x + 3y, x − 2y}.
150
Teorema 11.5. Sejam {v1 , v2 , . . . , vn } uma base de V e {φ1 , φ2 , . . . , φn } a base dual de
V ∗ . Então, para qualquer vector u ∈ V ,
v̂(φ) = φ(v).
11.3 Anuladores
Definição 11.9. Seja W um subconjunto (não necessariamente um subespaço) de um
espaço vectorial V . Um funcional linear φ ∈ V ∗ é chamado um anulador de W se φ(w) =
0 para todo w ∈ W , isto é, se φ(W ) = 0.
151
Mostraremos que o conjunto de todas essas aplicações denotado por W 0 , e cha-
mado anulador de W , é um subespaço de V ∗ . É evidente que 0 ∈ W 0 . Suponhamos agora
φ, σ ∈ W 0 , então, para qualquer escalares a, b ∈ K e qualquer w ∈ W , temos que
Teorema 11.10. Suponhamos que V tenha dimensão finita e que W seja um subespaço
de V . Então,
2. W 00 = W .
152
Capı́tulo 12
Definição 12.1. Seja V um espaço vectorial real. Uma forma bilinear é uma aplicação
B : V × V → R definida por
(v, w) 7−→ B(v, w)
tal que:
é bilinear. De facto,
= B((x1 , y1 ), (x2 + x3 , y2 + y3 ))
Exemplo 12.3. Seja V um espaço vectorial com produto interno h, i. Podemos definir a
forma biliniear V × V → R por
B(v1 +v2 , w1 +w2 ) = B(v1 , w1 +w2 )+B(v2 , w1 +w2 ) = B(v1 , w1 )+B(v1 , w2 )+B(v2 , w1 )+B(v2 , w2 ).
Logo,
B(v, w) = [v]0β A [w]β .
Então,
B(v, w) =
= B(x1 v1 + x2 v2 + . . . + xn vn , y1 v1 + y2 v2 + . . . + yn vn )
n
X
= xi yj B(vi , vj )
i,j=1
B(v1 , v1 ) B(v1 , v2 ) . . . B(v1 , vn ) y1
B(v2 , v1 ) B(v2 , v2 ) . . . B(v2 , vn ) y2
= [x1 x2 ... xn ] .. .. .. ..
..
.
. . . .
B(vn , v1 ) B(vn , v2 ) . . . B(vn , vn ) yn
Teorema 12.13. Uma forma bilinear B : V × V → R é simétrica se, e somente se, [B]ββ
é uma matriz simétrica.
Q(v) = B(v, v)
Observação 12.15. Seja β uma base de V . Então Q pode ser expressa na seguinte forma
Sabemos que
a b x
Q(v) = [x y] = ax2 + 2bxy + cy 2 .
b c y
Então, ax2 + 2bxy + cy 2 = x2 − 10xy + y 2 . Logo, a = 1, b = −5, c = 1. Subistituindo,
1 −5 x
Q(v) = [x y] .
−5 1 y
157
Observação 12.17. Observe ainda que Q é a forma quadrática associada à forma bilinear
1 −5 x
B(v, w) = [x1 y1 ] 2
−5 1 y2
onde,
x1 x2 1 −5
[v]β = , [w]β = e [B]ββ = .
y1 y2 −5 1
Nota 12.18. O procedimento adoptado no exemplo anterior pode ser aplicado a uma
forma quadrática genérica Q : R2 → R, onde
Teorema 12.19. Seja Q(v) = B(v, v) uma forma quadrática em V . Então existe uma
base ortonormal β de V tal que, se
y1
y2
[v]β =
..
.
yn
então,
Q(v) = λ1 y12 + λ2 y22 + . . . + λn yn2 .
Logo, a matriz [B]αα é uma matriz simétrica e, portanto, corresponde a um operador auto-
adjunto T : V → V que tem como matriz [T ]αα = [B]αα . Como um operador auto-adjunto
158
pode ser diagonalizado mediante uma base β de autovectores ortonormais, então
[B]αα = [T ]αα =
λ1 0 ... 0 λ1 0 ... 0
0 λ2 . . . 0 0 λ2 . . . 0
[I]β = ([I]αβ )−1
β
α α
= [I]α .. .. . . .. .. .. . . ..
[I]β
. .
. . . . . .
0 0 . . . λn 0 0 . . . λn
λ1 0 ... 0
0 0 λ2 . . . 0 α
= ([I]αβ ) .. .. . . ..
[I]β
.
. . .
0 0 . . . λn
pois α e β são bases ortonormais e, portanto, [I]αβ é uma matriz ortogonal. Então,
Q(v) =
λ1 0 ... 0 λ1 0 ... 0
α 0
0 λ2 . . . 0 0 λ2 . . . 0
0 [I]β [v]α = ([I]αβ [v]α )0
α
= [v]α .([I]β ) ([I]αβ [v]α )
.. .. . . .. .. .. . . ..
. .
. . . . . .
0 0 . . . λn 0 0 . . . λn
λ1 0 ... 0 λ1 0 ... 0 y1
0 0 λ2 . . . 0 0 λ2 ... 0 y2
= [v]β .. .. . . ..
[v]β = [y1 y2 ... yn ] .. .. .. ..
..
. . .
. . . . . .
0 0 . . . λn 0 0 . . . λn yn
159
Exemplo 12.20. Seja Q : R2 → R a forma quadrática definida por
Calculemos os autovalores:
−4 − λ −3 √ √
p(λ) = det = λ2 − 2λ − 33 = 0 ⇐⇒ λ1 = 1 − 34 e λ2 = 1 + 34.
−3 6−λ
Então existe uma base β (que é aquela de autovectores da matriz) tal que se
y1
[v]β =
y2
então √
1− 34 0 y1
Q(v) = [y1 y2 ] √
0 1+ 34 y2
isto é,
√ √
Q(v) = (1 − 34)y12 + (1 + 34)y22 .
160
Referências Bibliográficas
[3] José Luiz Boldrini at al, Álgebra Linear,3.ed., São Paulo, Editora Harper e Row,
Brasil, 1980.
[5] Luiz Manuel Figueiredo at al, Caderno-Álgebra Linear, 2.ed., volume 2., Rio de
Janeiro-Brasil, 2009.
[6] Sı́lvio Antonio Bueno at al, Caderno-Geometria Analı́tica, São José del Rei, Minas
Gerais, UFS-Brasil, 2011.
161