Você está na página 1de 161

FACULDADE DE CIÊNCIAS

DEPARTAMENTO DE MATEMÁTICA

Notas de Aulas

Álgebra Linear e Geometria Analı́tica

Armando Paulino

Ano - 2020
2
SUMÁRIO

Apresentação 7

1 Números complexos 9
1.1 Definição e exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 O plano complexo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3 Operações em C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Conjugação em C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5 Módulo de um número complexo . . . . . . . . . . . . . . . . . . . . . . . 14
1.6 Forma polar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.7 Potência e raiz em C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.8 Exponêncial e logaritmo em C . . . . . . . . . . . . . . . . . . . . . . . . . 18

2 Matrizes 21
2.1 Noções de Corpos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Matrizes. Definição e exemplos . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3 Operações com matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.4 Matriz inversı́veis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

3 Determinantes 31
3.1 Noção de permutação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2 Determinantes. Definição e propriedades . . . . . . . . . . . . . . . . . . . 33
3.3 Menores e Cofatores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4 Adjunta clássica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

4 Sistemas lineares 39
4.1 Conceitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3
4.2 Sistema e matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.3 Soluções de sistema lineares . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.4 Discussão de sistemas lineares . . . . . . . . . . . . . . . . . . . . . . . . . 48

5 Vectores 49
5.1 Conceitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.2 Conceito de Vector . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.3 Tipos de vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.4 Operações com Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.5 Expressão analı́tica de um vector . . . . . . . . . . . . . . . . . . . . . . . 54
5.5.1 Vectores no Plano . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.5.2 Operações com vectores . . . . . . . . . . . . . . . . . . . . . . . . 56
5.5.3 Vector definido por dois pontos . . . . . . . . . . . . . . . . . . . . 56
5.5.4 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.5.5 Vectores no Espaço . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.5.6 Operações com vectores . . . . . . . . . . . . . . . . . . . . . . . . 58
5.5.7 Vector definido por dois pontos no espaço . . . . . . . . . . . . . . 58
5.5.8 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.6 Produto de vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.7 Produto vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.8 Produto Misto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.9 A Recta e o Plano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.9.1 Equações da Recta . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.9.2 Equação de um Plano . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.10 Distâncias, areas e volumes . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.10.1 Distância de dois pontos . . . . . . . . . . . . . . . . . . . . . . . . 72
5.10.2 Distância de um ponto a uma recta . . . . . . . . . . . . . . . . . . 72
5.10.3 Distância de um ponto a um plano . . . . . . . . . . . . . . . . . . 73

6 Espaços vectorias 75
6.1 Definição e exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
6.2 Subespaços Vectorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.3 Combinação linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4
6.4 Dependência e independência linear . . . . . . . . . . . . . . . . . . . . . . 86
6.5 Bases e dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
6.5.1 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
6.5.2 Dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
6.6 Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

7 Transformações lineares 95
7.1 Definições e exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.2 Núcleo e Imagem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
7.3 Transformação linear e matrizes . . . . . . . . . . . . . . . . . . . . . . . . 104
7.4 Álgebra das transformações . . . . . . . . . . . . . . . . . . . . . . . . . . 107
7.5 Operadores lineares inversı́veis . . . . . . . . . . . . . . . . . . . . . . . . . 109
7.6 Mudança de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

8 Formas canônicas elementares 115


8.1 Autovalores e Autovectores . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
8.2 Operadores Diagonalizáveis . . . . . . . . . . . . . . . . . . . . . . . . . . 118
8.3 Matriz diagonalizadora . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
8.4 Polinómio mı́nimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123

9 Formas Racionais e de Jordan 127


9.1 Forma triangular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
9.2 Invâriancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
9.3 Decomposição em soma direta invariante . . . . . . . . . . . . . . . . . . . 128
9.4 Decomposição primária . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
9.5 Forma canônica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
9.6 Forma canônica Racional . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
9.7 Espaços Quociente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136

10 Espaço Euclidiano 137


10.1 Produto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
10.2 Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
10.3 Processo de Ortogonalização de Gram-Schmidt . . . . . . . . . . . . . . . . 144
10.4 Complemento ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
5
11 Funcionais lineares 149
11.1 Base dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
11.2 Segundo Espaço dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
11.3 Anuladores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151

12 Formais Bilineares e Quadráticas 153


12.1 Forma Bilinear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
12.2 Matriz de uma forma Bilinear . . . . . . . . . . . . . . . . . . . . . . . . . 155
12.3 Forma Bilinear Simétrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
12.4 Formas Quadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
12.5 Diagonalização da Forma Quadrática . . . . . . . . . . . . . . . . . . . . . 158

Referências Bibliográficas 161

6
Apresentação

Estas notas de aulas surgiram da experiência do Docente na administração da disciplina


de Álgebra Linear e Geometria Analı́tica para cursos de Licenciatura em Matemática,
Ciências da Computação e Meteorologia na Faculdade de Ciências da UAN.

O principal objetivo destas notas é fazer uma apresentação rigorosa e clara das
provas dos teoremas e exemplos da Álgebra Linear e Geometria Analı́tica no nı́vel de
graduação, desenvolvendo, também, a capacidade de resolução de problemas envolvendo
vectores, combinações lineares, transformações lineares, matrizes, diagonalizações de ope-
radores lineares e formas quadriticas.

O referente texto encontra-se ainda em edição, pelo que alguns capı́tulos ainda
estão pra concluir bem como lista a de exercı́cios para cada capı́tulo. Para mais detalhes
o estudante pode consultar as referências [1], [2], [3], [4], [5] e [6].

Armando Joaquim Paulino


1

1
Email:armandomath83@gmail.com
Compilado por LateX-TeXstudio
7
8
Capı́tulo 1

Números complexos

1.1 Definição e exemplos


Consideremos a equação ax2 + bx + c = 0, a 6= 0, com coeficientes reais. Logo a solução
em R é dado por: √
−b ± ∆
x1,2 =
2a
onde ∆ = b2 − 4ac. Nesta condições, analisemos os seguintes:

1. Se ∆ > 0, então as raı́zes x1 e x2 seram distintas ou diferentes;

2. Se ∆ = 0, então as raı́zes x1 e x2 são iguais;

3. Se ∆ < 0, então a equação não tem solução em R.

Portanto para resolver a equação ax2 + bx + c = 0, a 6= 0, quando ∆ < 0, ampliaremos o


conjunto dos números reais (R), dando origem ao conjunto dos números complexos.

Definição 1.1. Chamaremos números complexos, a todo par ordenado de números reais
a qual denotaremos por z = (a, b). Ao conjunto dos números complexos denotaremos por

C = R × R = {(a, b) : a ∈ R e b ∈ R}.

Nota 1.2. A parte real de um número complexo é a sua primeira componente e a parte
imaginária é a sua segunda componente, logo tanto a parte real como imaginária de um
número complexo são números reais.

Definição 1.3. Se z = (a, b) é um número complexo, então a parte real de z = (a, b)


denotaremos por Re(z) = a e parte imaginária por Im(z) = b.
9
1.2 O plano complexo

Entre os números complexos e os pontos do plano cartesiano, existe uma correspondência


biunivôca, de tal maneira que todo número complexo z = (a, b) se pode representar geo-
metricamente por um segmento orientado que tem sua origem, na origem de coordenadas
e seus extremos no ponto z = (a, b).

Figura 1.1: Plano complexo

Definição 1.4. Um número complexo é real, se e só se, sua parte imaginária é zero e é
um imaginário puro, se e só se, sua parte real é zero, isto é, z = (a, b) um complexo é
real ⇐⇒ Im(z) = b = 0 e z = (a, b) é um imaginário puro ⇐⇒ Re(z)a = 0.

Exemplo 1.5. Determinar analiticamente e geometricamente os complexos z = (x, y)


tais que verificam:

1. Re(z) = 5

2. Im(z) ≤ 4

3. Re(z) + Im(z) = 3

4. −1 ≤ Re(z) ≤ 1 e −1 ≤ Im(z) ≤ 1.

Definição 1.6 (Zero e oposto). Um número complexo é zero, se tanto a sua parte real
como imaginária é zero, isto é, z = (a, b) é um complexo zero, se e somente se, a = 0 e
b = 0. O oposto de um número complexo z = (a, b) é definido por −z = (−a, −b).
10
1.3 Operações em C
Definição 1.7 (Igualdade). Dois números complexos são iguais, quando são iguais as
partes reais e imaginárias, isto é, z1 = (a, b) e z2 = (c, d) são iguais, se e somente se,
a=c e b = d.

Definição 1.8 (Soma). Sejam z1 = (a, b) e z2 = (c, d) dois números complexos, então
definimos a soma de z1 e z2 por

z1 + z2 = (a, b) + (c, d) = (a + c, b + d).

Definição 1.9 (Diferenças). Sejam z1 = (a, b) e z2 = (c, d) dois números complexos,


então definimos a diferença de z1 e z2 por

z1 − z2 = z1 + (−z2 ) = (a, b) + (−c, −d) = (a − c, b − d).

Proposição 1.10. Sejam z1 , z2 , z3 ∈ C, então:

1. Clausura: z1 + z2 ∈ C

2. Comutativa: z1 + z2 = z2 + z1

3. Associativa: (z1 + z2 ) + z3 = z1 + (z2 + z3 )

4. Existência e unicidade do neutro aditivo: ∃w ∈ C, tal que z + w = z, para todo


z ∈ C.

5. Existência do inverso aditivo: ∀z ∈ C, ∃ − z ∈ C, tal que z + (−z) = (0, 0).

Definição 1.11 (Multiplicação). Sejam z1 = (a, b) e z2 = (c, d) dois números complexos,


ao produto de z1 e z2 definimos por

z1 .z2 = (a, b).(c, d) = (ac − bd, ad + bc).

Proposição 1.12. Sejam z1 , z2 , z3 ∈ C, então:

1. Clausura: z1 .z2 ∈ C

2. Comutativa: z1 .z2 = z2 .z1

3. Associativa: (z1 .z2 ).z3 = z1 .(z2 .z3 )


11
4. Distribuitiva: (z1 + z2 ).z3 = z1 .z3 + z2 .z3

5. Existência e unicidade do neutro multiplicativo: ∃!u ∈ C, tal que u.z = z, para todo
z ∈ C sendo u = (1, 0).

6. Existência do inverso multiplictivo: ∀z ∈ C, z 6= (0, 0), ∃α ∈ C, tal que α.z = u


sendo α = z −1 .

7. ∀z ∈ C, k ∈ R, k.z = k(a, b) = (ka, kb).

Definição 1.13 (Unicidade e recı́proco). O elemento neutro multiplicativo é a unidade


complexa e denotaremos por u = (1, 0) ou também 1 = (1, 0). O inverso multiplicatico α
de um número complexo z = (a, b) 6= (0, 0) se chama recı́proco de z e denotaremos por

a −b
α = z −1 = ( , 2 )
a2 + b a + b2
2

Definição 1.14 (Divisão). Sejam z1 , z2 ∈ C sendo z2 = 6 (0, 0). A divisão de z1 e z2


z1
definiremos por = z1 .z2−1 . Consideremos z1 = (a, b) e z2 = (c, d) 6= (0, 0), então
z2

c −d
z2−1 = ( , )
c2 + d2 c2 + d2

portanto
z1 c −d ac + bd bc − ad
= z1 .z2−1 = (a, b).( 2 2
, 2 2
)=( 2 , ).
z2 c +d c +d c + d 2 c2 + d 2

Definição 1.15 (Unidade imaginária). O número complexo imaginário puro de segunda


componente igual a 1, se chama unidade imaginária e denotamos por i = (0, 1).

Figura 1.2: Números reais e unidade imaginária

12
Nota 1.16. A multiplicação de um número complexo real pela unidade imaginária per-
muta as componentes, isto é, (a, 0).i = (a, 0).(0, 1) = (0, a).

Definição 1.17 (Forma álgebrica). Seja z = (a, b) um número complexo, então pela
definição da soma temos que

z = (a, b) = (a, 0) + (b, 0) = a(1, 0) + b(0, 1) = a + bi

logo, z = a + bi é a forma álgebrica do número complexo z.

Teorema 1.18. i2 = −1.

Demonstração. i2 = i.i = (0, 1).(0, 1) = (−1, 0) = −1, portanto i2 = −1. Como i2 = −1,

então i = −1. 

1.4 Conjugação em C
Definição 1.19. Chamaremos conjugado de z = a + bi ao número complexo a − bi do
qual representaremos por z = a − bi.

Definição 1.20. Um número complexo e o seu conjugado, se diferem somente em suas


partes imaginárias no sinal.

Nota 1.21. Os números complexos e os seus conjugados, caracterizam pontos simétricos


com respeito ao eixo real, isto é, se z = a + bi é um complexo, então seu conjugado é
z = a − bi conforme a fı́gura 1.3.

Figura 1.3: conjugado

13
Proposição 1.22. Sejam z1 , z2 ∈ C, então:

1. z1 ± z2 = z1 ± z2

2. z1 .z2 = z1 .z2

3. z1 = z1

4. (z1 )−1 = (z1−1 ), z1 6= (0, 0)


z1 z1
5. ( )= , z2 6= (0, 0).
z2 z2

1.5 Módulo de um número complexo


Definição 1.23. O módulo de um número complexo z = a+bi, é um número real positivo
definido por

|z| = a2 + b 2 .

Nota 1.24. Geometricamente, o módulo de um número complexo, é a longitude do seg-


mento orientado que representa z.

Figura 1.4: Módulo

Proposição 1.25. Sejam z1 , z2 ∈ C, então:

1. Se z1 6= (0, 0), então |z1 | > 0 e |z1 | = 0 se z1 = (0, 0)

2. |z1 | = | − z1 | = |z1 |

3. |z1 |2 = z1 .z1

4. |z1 + z2 | ≤ |z1 | + |z2 | (Desigualdade triangular).


14
5. |z1 .z2 | = |z1 |.|z2 |

|z1 |
6. | zz12 | = |z2 |
, z2 6= (0, 0)

7. Re(z1 ) ≤ |z1 | e Im(z1 ) ≤ |z1 |.

Demonstração. (Prop.4): Sejam z1 , z2 ∈ C, então tem-se que:

|z1 + z2 |2 = (z1 + z2 ).(z1 + z2 )

= (z1 + z2 ).(z1 + z2 ) = z1 .z1 + z1 .z2 + z2 .z1 + z2 .z2

= |z1 |2 + z1 .z2 + z2 .z1 + |z2 |2

≤ |z1 |2 + 2Re(z1 .z2 ) + |z2 |2

= |z1 |2 + 2|z1 |.|z2 | + |z2 |2

= |z1 |2 + 2|z1 |.|z2 | + |z2 |2

= (|z1 | + |z2 |)2 .

Portanto , |z1 + z2 |2 ≤ (|z1 | + |z2 |)2 então, |z1 + z2 | ≤ |z1 | + |z2 | 

1.6 Forma polar

Definição 1.26. Seja z = a + bi, um número complexo não nulo, então o módulo de z é

|z| = r = a2 + b2 6= 0.

Figura 1.5: Módulo e argumento

Denotaremos por θ o ângulo formado pelo segmento orientado que representa o


15
número complexo z com o eixo Ox, no sentido anti-horário. Logo do gráfico tem-se que:
 a 
a 
 cosθ =  cosθ = a = rcosθ
|z|
  
r

 
 

  
⇐⇒ =⇒
b b

 
 

  
 b = rsenθ
 senθ =
  senθ =

|z| r
Como z = a + bi, subistituindo a e b temos que

z = rcosθ + irsenθ = r(cosθ + isenθ)

que chamaremos de forma polar (ou trigonométrica) de um número complexo z. Ao ângulo


θ chamaremos argumento de z e denotaremos por θ = arg(z) = arct( ab ).

Nota 1.27. Seja z = a + bi um complexo na forma algébrica, então tem-se que:

1. Se a > 0 e b > 0, então θ = α ∈ I.Q

2. Se a < 0 e b > 0, então θ = π − α ∈ II.Q

3. Se a < 0 e b < 0, então θ = π + α ∈ III.Q

4. Se a > 0 e b < 0, então θ = 2π − α ∈ IV.Q.


b
onde α é um ângulo a ser determinado por α = tg( ).
a
Exemplo 1.28. Expressar os seguintes números complexos na forma polar:

1. z = 1 + 3i

2. z = −3 + 3i

Definição 1.29 (Multiplicação e divisão na forma polar). Sejam z1 = r1 (cosθ1 + isenθ1 )


e z2 = r2 (cosθ2 + isenθ2 ) dois números complexos na forma polar, então

z1 .z2 = r1 (cosθ1 + isenθ1 ).r2 (cosθ2 + isenθ2 ) = r1 .r2 [cos(θ1 + θ2 ) + isen(θ1 + θ2 )]

Se z2 6= (0, 0) e r2 6= 0, então
z1 r1 (cosθ1 + isenθ1 ) r1
= . = [cos(θ1 − θ2 ) + isen(θ1 − θ2 )]
z2 r2 (cosθ2 + isenθ2 ) r2
Exemplo 1.30. Se z1 = 3(cos π6 + isen π6 ) e z2 = 4(cos π3 + isen π3 ) determine:

1. z1 .z2

z2
2. z1
16
1.7 Potência e raiz em C
Teorema 1.31 (1a fórmula de Moivre). Para todo z = a + bi e todo n ∈ Z+ se cumpre a
seguinte relação:

(a + bi)n = rn (cosnθ + isennθ)

Demonstração. A demostração é por indução.

1. Para n = 1 então, a + bi = r(cosθ + isenθ)

2. Para n = k então,(a + bi)k = rk (coskθ + isenkθ) a fórmula é valida para n = k,


então é suficiente mostrar que a mesma é valida para n = k + 1.

3. Para n = k + 1, tem-se que

(a + bi)k+1 = (a + bi)k .(a + bi)

= rk [cos(kθ) + isen(kθ)].r(cosθ + isenθ)

= rk+1 [cos(k + 1)θ + isen(k + 1θ)]

Portanto, a fórmula se cumpre para todo n ∈ Z+ .



Exemplo 1.32. Calcular (1 + 3i)7

Teorema 1.33 (2a fórmula de Moivre). Seja z = a + bi um complexo e n ∈ Z+ . Então a


raiz n-ésima de z é:

1 1 θ + 2kπ θ + 2kπ
z n = r n [cos( ) + isen( )]
n n

para valores de k = 0 : n − 1.

Demonstração. Seja w = x + yi, a raiz n-ésima de z, isto é,

wn = z

como z = r(cosθ + isenθ) e w = ρ(cosα + isenα) então

(x + yi)n = a + bi ⇐⇒ ρn (cosnα + isennα) = r(cosθ + isenθ)


17
1 θ+2kπ
onde ρn = r e αn = θ + 2kπ, k = 0 : n − 1. Logo ρ = r n , α = n
,k = 0 : n − 1.
1
Como w = ρ(cosα + isenα), tem-se que w = r n [cos( θ+2kπ
n
) + isen( θ+2kπ
n
)]. Como w é a
raiz n-ésima de z tem-se
que
1 1 θ + 2kπ θ + 2kπ
z n = r n [cos( ) + isen( )]
n n
com k = 0 : n − 1. 
1
Exemplo 1.34. Achar a raiz de (−4 + 4i) 5 .

Teorema 1.35. Seja z = a + bi, definimos

m 1
z n = (z n )m

para algum m, n ∈ Z+ e cumpre-se a seguinte relação:

m m θ + 2kπ θ + 2kπ
z n = r n [cos m( ) + isen m( )]
n n

para valores de k = 0 : n − 1.
√ 5
Exemplo 1.36. Efectuar a operação (1 + 3i) 6 .

1.8 Exponêncial e logaritmo em C


Definição 1.37 (fórmula de Euler). Admitimos a definição da exponêncial real

x 2 x3 X xk
ex = 1 + x + + + ... = .
2! 3! k=0
k!

definimos a exponêncial complexa por

eix = cosx + isenx

onde e número de Euler, que é chamado fórmula de Euler.

Se z = x + yi, então ez = ex+yi = ex .eyi = ex (cosy + iseny).

1. Quando y = 0, então ez = ex se obtém a exponêncial real;

2. Quando x = 0, então ez = eyi = cosy + iseny, se obtém a fórmula de Euler.

Proposição 1.38. Sejam z, w ∈ C, tem-se:


18
1. ez+w = ez .ew

ez
2. ew
= ez−w

3. Se ez = 1, então z = 2nπi, n ∈ Z

4. (ez )n = enz , n ∈ Z.

Definição 1.39. Se z = r(cosθ + isenθ) então, z = reiθ é a fórmula exponêncial do


complexo z, onde r = |z| e θ = arg(z).

Exemplo 1.40. Demostrar as seguintes expressões:

1. Se z = eiθ , então |z| = 1


π
2. e 2 i = i

Definição 1.41. O logaritmo complexo é o inverso da exponêncial complexa, isto é, se z =


reiθ é um número complexo, então ∃!w ∈ C tal que, r = |z| e θ = arg(z), generalizando,
temos que
w = lnz = ln(reiθ ) = lnr + lneiθ = lnr + i(θ + 2kπ).

O valor principal de lnz se obtém quando k = 0,isto é, V p = lnr + iθ.

Nota 1.42. Para todo complexo z 6= (0, 0), corresponde um e somente um valor de θ com
0 ≤ θ ≤ 2π.

Exemplo 1.43. Achar lnz, onde z = 1 − i.

19
20
Capı́tulo 2

Matrizes

Neste capı́tulo apresentaremos as principais definições e resultados sobre matrizes e que


serão necessárias para o desenvolvimento deste texto.

2.1 Noções de Corpos


Definição 2.1. U corpo é um conjunto K munido de duas operações, uma

K×K→K

(x, y) 7−→ x + y

chamada de adição e
K×K→K

(x, y) 7−→ x.y

outra chamada de multiplicação, tais que as seguintes propriedades são satisfeitas:

1. Adição é associativa: (x + y) + z = x + (y + z), para todos x, y, z ∈ K.

2. Existe um único elemento 0 (zero) em K tal que, x + 0 = 0 + x = x, para todo


x ∈ K.

3. A cada x em K corresponde um único elemento −x(oposto) em K tal que, x+(−x) =


(−x) + x = 0.

4. A adição é comutativa, x + y = y + x, para todos x, y ∈ K.


21
5. A multiplicação é associativa: (x.y).z = x.(y.z), para todos x, y, z ∈ K.

6. Existe um único elemento 1 (um) em K tal que, x.1 = 1.x = x, para todo x ∈ K.

7. A cada x em K − {0} corresponde um único elemento x−1 (inverso) em K tal que,


x.x−1 = x−1 .x = 1.

8. A multiplicação é comutativa, x.y = y.x, para todos x, y ∈ K.

9. A multiplicação é distribuitiva em relação à adição, x.(y + z) = x.y + x.z e


(x + y).z = x.z + y.z para todos x, y, z ∈ K.

Exemplo 2.2. O conjunto dos números racionais Q, dos reais R e dos complexos C com
as operações usuais de adição e multiplicação são corpos.

Definição 2.3. Sejam F e K corpos. Dizemos que K é uma extensão de corpos de F se


F ⊆ K e nesse caso, F é um subcorpo de K.

Exemplo 2.4. R, é uma extensão de corpos de Q e Q é um subcorpo de R, pois Q ⊆ R.

2.2 Matrizes. Definição e exemplos


Definição 2.5. Sejam K um corpo e m e n números inteiros positivos. Designa-se por
matriz sobre K, a todo o quadrado de elementos de K dispostos em m linhas e n colunas
da forma  
a a12 ... a1n
 11 
 
 a21 a22 . . . a2n 
A=
 .. .. .. .. 

 . . . . 
 
am1 · · · am2 · · · amn
onde os aij ∈ K, i = 1, . . . , m e j = 1, . . . , n.

Usaremos também a notação

A = (aij ), 1 ≤ i ≤ m, 1 ≤ j ≤ n

ou simplesmente
A = (aij ).
22
Nota 2.6. 1. O sı́mbolo aij significa o elemento da matriz A que está na i-ésima linha
e j-ésima coluna e será chamada de entrada da matriz.

2. K, em particular, pode ser o conjunto dos números reais R ou C. Nestes casos, as


matrizes dizem-se reais ou complexas.

3. De acordo com o número de linhas e coluna de uma matriz, podemos destacar os


seguintes:

• Matriz linha: m = 1

• Matriz coluna: n = 1

• Matriz quadrada: m = n.

Definição 2.7. O conjunto de todas as matrizes m × n será denotado por Mm×n (K)
ou simplesmente Mm×n . Quando m = n, Mn (K) será chamada o conjunto de todas as
matrizes quadradas com elementos em K ou simplesmente Mn .

Observação 2.8. Os elementos de uma matriz, também podem ser dadas por recorrência
mediante fórmulas.

Exemplo 2.9. Construir a matriz A ∈ M2×4 (R), A = (aij ) tal que





 i2 + j, se i = j

aij =


 i − 2j, se i 6= j

Exemplo 2.10. Construir a matriz A ∈ M2×3 (R), A = (aij ) tal que





 3i + j, se i = j

aij =


 i − 4j, se i 6= j

Definição 2.11. Dadas duas matrizes A, B ∈ Mm×n (K), A = (aij ), B = (bij ). Diz-se
que são iguais quando
aij = bij

∀i ∈ {1, . . . , m} e ∀j ∈ {1, . . . , n}.

Nota 2.12. Numa matriz quadrada A = (aij ), i, j ∈ {1, . . . , n}, destacamos os seguintes
elementos:
23
1. Diagonal principal: formada pelos termos aii , isto é, pelos termos com os ı́ndices
de linha e de colunas iguais;

2. Diagonal secundária: formada pelos termos aij tais que i + j = n + 1.

Definição 2.13. Seja A = (aij ) ∈ Mn (K). Dizemos que A é uma matriz :

1. Triangular superior: quando aij = 0, se i > j, isto é, possui todos os elementos
abaixo da diagonal principal nulos;

2. Triangular inferior: quando aij = 0, se i < j, isto é, possui todos os elementos
acima da diagonal principal nulos;

3. Diagonal: quando aij = 0, se i 6= j, isto é, possui todos os elementos fora da dia-
gonal principal nulos. Uma matriz diagonal, é ao mesmo tempo, triagular superior
e triangular inferior.



 0, se i 6= j

4. Escalar: quando aij = , para algum k ∈ R. Isto é, uma matriz



 k, se i = j
escalar é diagonal e possui todos os elementos da diagonal principal iguais a um
certo escalar k.



 0, se i 6= j

5. Identidade: quando aij = . Isto é, a identidade é uma matriz



 1, se i = j
escalar e possui todos os elementos da diagonal principal iguais a 1. Representaremos
a matriz identidade de ordem n por In . De um modo geral, sendo n um número
natural maior ou igual a 1, a matriz identidade de ordem n é
 
1
0 ... 0
 
 
 0 1 . . . 0
In =  .

.. . . .. 

 .. . . .
 
0··· 0 ··· 1

Definição 2.14. Seja A = (aij ) ∈ Mm×n (K). A matriz nula em Mm×n (K) é a matriz
m × n que possui todos os elementos iguais a zero.
24
Definição 2.15. Seja A = (aij ) ∈ Mm×n (K), a oposta de A é a matriz B = (bij ) ∈
Mm×n (K) tal que
bij = −aij

∀i ∈ {1, . . . , m} e ∀j ∈ {1, . . . , n}. Denotemos a oposta de A por −A.

2.3 Operações com matrizes


Definição 2.16 (Transposição). Seja A ∈ Mm×n (K) , A = (aij ), a transporta de A é a
matriz B ∈ Mn×m (K), B = (bji ) tal que

bji = aij

∀i ∈ {1, . . . , m} e ∀j ∈ {1, . . . , n}. Representamos a matriz transporta de A por AT .

Nota 2.17. Para obter a transporta de uma matriz A, basta escrever as linhas de A como
sendo as colunas da nova matriz (ou, equivalentemente, escrever as colunas de A como as
linhas da nova matriz.)

Definição 2.18. Seja A ∈ Mm×n (K). Diz-se que A é:

1. Simétrica, se A = AT ;

2. Anti-simétrica, se AT = −A.

Definição 2.19 (Adição). Dadas as matrizes A = (aij ), B = (bij ) ∈ Mm×n (K). A soma
de A e B é a matriz C = (cij ) ∈ Mm×n (K) tal que tal que

cji = aij + bij

∀i ∈ {1, . . . , m} e ∀j ∈ {1, . . . , n}. Representamos a matriz soma de A por A + B. A


diferença de A e B, indicada por A − B, é a soma de A com a oposta de B, isto é,

A − B = A + (−B) = aij + (−bij ).

Proposição 2.20. Sejam A = (aij ), B = (bij ), C = (cij ) ∈ Mm×n (K). Valem as seguin-
tes:

1. A + B = B + A.
25
2. (A + B) + C = A + (B + C)

3. ∃ O ∈ Mm×n (K) tal que, A + O = A.

4. ∃ (−A) ∈ Mm×n (K) tal que, A + (−A) = O.

5. (A + B)T = AT + B T .

Definição 2.21 (Multiplicação por um escalar). Dada matriz A = (aij ) ∈ Mm×n (K)
e α ∈ R. A matriz produto de A por α é a matriz C = (cij ) ∈ Mm×n (K) tal que tal que

cji = αaij

∀i ∈ {1, . . . , m} e ∀j ∈ {1, . . . , n}. Representaremos a matriz produto de A por α como


αA.

Proposição 2.22. Sejam A = (aij ), B = (bij ) ∈ Mm×n (K) e α, β ∈ R. Valem as


seguintes:

1. (αβ)A = α(βA).

2. (α + β)A = αA + βA.

3. α(A + B) = αA + αB.

4. 1A = A.

5. (αA)T = αAT .

6. (AT )T = A.

Definição 2.23 (Multiplicação de matrizes). Sejam as matrizes A = (aik ) ∈ Mm×p (K) e


B = (bkj ) ∈ Mp×n (K). A matriz produto de A por B é a matriz
p
X
cij = aik .bkj
k=1

∀i ∈ {1, . . . , m} e ∀j ∈ {1, . . . , n}. Representaremos a matriz produto de A por B por


A.B.

Observação 2.24. Suponhamos que A = (aik ), B = (bkj ) são matrizes tal que o número
de colunas de A é igual ao número de linhas de B. Diz-se que A é uma matriz m × p e
26
B é uma matriz p × n. Então o produto A.B é uma matriz m × n que tem ij-entradas
obtidas pela multiplicação das linhas de A pelas colunas de B, isto é,

 
a a12 ... a1p    
 11  b11 b1j . . . b1n c ... c1n

 ai1 ai2

. . . aip     11
.. .. ..   .. .. 

A.B =  ..
..  .  . . = .

 .. .. ...
 . . cij . 
 . . .     
  bp1 · · · bpj · · · bpn cm1 · · · · · · cmn
am1 · · · am2 · · · amp

onde
p
X
cij = ai1 b1j + ai2 b2j + . . . + aip bpj = aik bkj
k=1

Nota 2.25. O produto A.B não é definida se A é uma matriz m × p e B é uma matriz
q × n, onde p 6= q.
   
1 3 2 0 −4
Exemplo 2.26. Determinar A.B, onde A =   e B= 
2 −1 5 −2 6

Nota 2.27. A multiplicação de matrizes não é comutativa, isto é, se A = (aik ) e B = (bkj ),
então AB 6= BA.

Proposição 2.28. Dadas as matrizes A, B e C e λ ∈ R, tem-se que:

1. (AB)C = a(BC), A ∈ Mm×n (K), B ∈ Mn×p (K) e C ∈ Mp×q (K).

2. A(B + C) = AB + AC, A ∈ Mm×n (K), B, C ∈ Mn×p (K).

3. λ(AB) = (λA)B, λ ∈ R, A ∈ Mm×n (K), B ∈ Mn×p (K).

4. Im A = AIn = A, ∀A ∈ Mm×n (K).

5. (AB)T = B T AT , ∀A ∈ Mm×n (K) e ∀B ∈ Mn×p (K).

2.4 Matriz inversı́veis


Definição 2.29 (Operações elementares). Dada A ∈ Mm×n (K). Diz-se operações ele-
mentares sobre as linhas (ou colunas) de uma matriz as seguintes ações:

1. Permutar duas linhas de A. Indicamos a troca das linhas Li e Lj por

Li ←→ Lj .
27
2. Multiplicar uma linha de A por um número real não nulo. Indicamos a multiplicação
da linha Li de A pelo escalar λ escrevendo

Li → λLi .

3. Somamos a uma linha de A uma outra linha, multiplicada por um número real.
Indicamos esta operação, somando a linha Li a linha Lj pelo número real por:

Li → Li + λLj .

Consideremos o conjunto Mm×n (K). Se ao aplicar uma sequência de operações


elementares a uma matriz A, obtemos a matriz B, dizemos que B é equivalente à A e
indicamos por B v A. Assim, fica definida uma relação no conjunto Mm×n (K), que é:

1. Reflexiva: A v A.

2. Simétrica: Se A v B então B v A.

3. Transitiva: Se A v B e B v C, então A v C.

isto é, a relação v é uma relação de equivalência no conjunto Mm×n (K). Assim, se A v B
ou B v A podemos dizer, simplesmente, que A e B são equivalentes.

Definição 2.30 (Traço de uma matriz). Seja A = (aij ) ∈ Mn (K). O traço de A, escrito
tr(A), é a soma dos elementos diagonal, isto é,

tr(A) = a11 + a22 + . . . + ann .

Proposição 2.31. Sejam A = (aij ), B = (bij ) ∈ Mn (K) e k ∈ R, então ∀i ∈ {1, . . . , m}


e ∀j ∈ {1, . . . , n} tem-se:

1. tr(A + B) = tr(A) + tr(B).

2. tr(kA) = ktr(A).

3. tr(AT ) = tr(A).

4. tr(AB) = tr(A)tr(B).

Definição 2.32 (Matrizes inversı́veis). Dada uma matriz A = (aij ) ∈ Mn (K). Se existir
uma matriz B = (bij ) ∈ Mn (K), tal que A.B = In , então a matriz A é dita inversı́vel(ou
não singular) e a matriz B é a sua inversa, e podemos escrever B = A−1 .
28
Nota 2.33. Uma matriz inversı́vel sempre comuta com a sua inversa, isto é, se A.B = In ,
então B.A = In e A é a inversa de B.
 
2 5
Exemplo 2.34. Determinar a matriz inversa de A =  .
1 3

Teorema 2.35. Seja A = (aij ) ∈ Mn (K). Então A é inversı́vel se, e somente se, A v In .
Se A é inversı́vel, então a mesma sucessão de operações elementares que transforma A
em In , transforma In na inversa de A.

Este teorema, permite determinar mediante sua aplicação, se a matriz é ou não


inversı́vel. A ideia é a seguinte:

1. Escrevemos, lado-a-lado, a matriz que queremos inverter e a matriz identidade de


mesma ordem, segundo o esquema:

(A|In )

2. Por meio de alguma operação elementar, obtemos o número 1 na posição a11 .

3. Usando a linha 1 como linha-pivô, obtemos zeros nas outras posições da coluna 1.

4. Por meio de uma operação elementar, obtemos o núumero 1 na posição a22 .

5. Usando a linha 2 como linha-pivô, obtemos zeros nas outras posições da coluna 2.

6. Passamos para a terceira coluna e assim por diante.

7. Se, em alguma etapa do processo, uma linha toda se anula, podemos concluir que
a matriz em questão não é inversı́vel, nesse caso, nenhuma operação elementar
igualaria essa linha a uma linha da matriz identidade.

8. Se chegarmos à matriz identidade, então a matriz à direita, no esquema, será a


matriz inversa procurada.

−1
Exemplo 2.36.
 Determinar
 se for possı́vel, A  nos seguintescasos:
3 1 2 2 4 −1
   
(a) A =  −1 0 3  (b) A =  0 −3 2 
   
   
4 2 −5 0 11 −4

Proposição 2.37. Seja A, B ∈ Mn (K).


29
1. Se A é inversı́vel, então (A−1 )−1 = A.

2. Se A e B são inversı́veis, então A.B é inversı́vel e (A.B)−1 = B −1 .A−1 .

3. Se A é inversı́vel, então (AT )−1 = (A−1 )T .

Definição 2.38 (Matrizes ortogonais). Diz-se que uma matriz A ∈ Mn (K), inversı́vel, é
ortogonal, quando
A−1 = AT ⇐⇒ A.AT = In .

Nota 2.39. Para verificar se uma matriz A é ortogonal, multiplicamos A por AT e veri-
ficamos se o produto é a identidade.
 √ 
1 3
2 2
Exemplo 2.40. Provar se a matriz A =  √  é ortogonal.
3 1
− 2 2

30
Capı́tulo 3

Determinantes

3.1 Noção de permutação


Definição 3.1. Uma permutação σ é uma aplicação injectiva do conjunto {1, 2, . . . , n} em
si mesmo, ou equivalentemente, uma reordenação dos números 1, 2, . . . , n. Denotaremos
a permutação σ por
   
1 2 ... n 1 2 ... n
σ=  ou σ= 
j1 j2 . . . jn σ(1) σ(2) . . . σ(n)

ou ainda σ = j1 j2 . . . jn onde ji = σ(i).

Definição 3.2. Denotemos por Sn o conjunto de todas essas permutações, e o número


delas por n!.

Exemplo 3.3. Consideremos n = 2, então 2! = 2, logo em S2 há duas permutações que


são 1 2 e 2 1.

Exemplo 3.4. Consideremos agora n = 3, então 3! = 3.2.1 = 6, logo em S3 há seis


permutações que são 1 2 3, 1 3 2, 2 1 3, 2 3 1, 3 1 2 e 3 2 1.

Proposição 3.5. Se σ ∈ Sn , então:

1. A aplicação inversa σ −1 ∈ Sn .

2. Se σ, τ ∈ Sn , então a composta σ ◦ τ ∈ Sn .

3. A aplicação identidade ε = σ ◦ σ −1 ∈ Sn . De facto, ε = 1 2 . . . n.


31
Definição 3.6. Seja σ uma permutação arbitrária em Sn , digamos σ = j1 j2 . . . jn .
Dizemos que σ é par (respectivamente ı́mpar) conforme houver um número par ( respec-
tivamente ı́mpar) de inversões em σ.

Definição 3.7. Diz-se inversão em σ, a um par de inteiros (i, k) tais que i > k, mas i
precede k em σ. Definimos então, o sinal ou a paridade de σ como

 1,

 se σ par

sig(σ) =


 −1, se σ ı́mpar

Exemplo 3.8. Considere a permutação σ = 3 5 1 4 2 ∈ S5 . Determine o sinal de σ.


Solução: Para cada elemento em σ , conte o número de elementos menores que ele e à
sua direita. Assim,
3 origina as inversões (3, 1) e (3, 2).
5 origina as inversões (5, 1), (5, 4) e (5, 2).
4 origina a inversão (4, 2).
1 e 2 não originam nenhuma inversão. Como há, ao todo seis inversões, então σ é par e
sig(σ) = 1.

Nota 3.9. A permutação identidade ε = 1 2 . . . n é par porque não há inversões nela.

Exemplo 3.10. Sejam σ = 2 4 5 1 3 e τ = 4 1 3 5 2 permutaçoes em S5 . Determine:

1. τ ◦ σ.

2. σ −1 .

solução
 (a): τ ◦ σ(i) =
 τ (σ(i)), isto é, σ(i) = ji ∀i = 1 : 5
1 2 3 4 5
σ=  então, σ(1) = 2, σ(2) = 4, σ(3) = 5, σ(4) = 1, σ(5) = 3
2 4 5 1 3
 
1 2 3 4 5
τ =  então, τ (1) = 4, τ (2) = 1, τ (3) = 3, τ (4) = 5, τ (5) = 2
4 1 3 5 2
Portanto
τ (σ(1)) = τ (2) = 1, τ (σ(2)) = τ (4) = 5, τ (σ(3)) = τ (5) = 2, τ (σ(4)) = τ (1) = 4,
τ (σ(5)) = τ (3) = 3  
1 2 3 4 5
Logo, τ ◦ σ = 1 5 2 4 3 ou τ ◦ σ =  
1 5 2 4 3
32
solução (b): Por definição σ −1 (j) = k ⇐⇒ σ(k) = j. Logo
   
2 4 5 1 3 1 2 3 4 5
σ −1 =  = 
1 2 3 4 5 4 1 5 2 3

ou σ −1 = 4 1 5 2 3.

3.2 Determinantes. Definição e propriedades


Definição 3.11. Seja A = (aij ) ∈ Mn (K) uma matriz quadrada de ordem n sobre o corpo
K.  
a11 a12 . . . a1n
 
 
 a21 a22 . . . a2n 
A=
 .. .. ... .. 

 . . . 
 
an1 · · · an2 · · · ann
Consideremos um produto de n elementos de A tais que um e somente um elemento
provenha de cada linha e um e somente um elemento provenha de cada coluna. Um tal
produto pode escrever-se na forma

a1j1 a2j2 . . . anjn

isto é, onde os factores provêm de linhas sucessivas e, assim, os primeiros ı́ndices estão na
ordem natural 1, 2, . . . , n. Mas como os factores provêm de colunas diferentes a sequência
dos segundos ı́ndices formam uma permutação σ = j1 j2 . . . jn em Sn . Reciprocamente,
cada permutação em Sn determina um produto da forma acima. assim, a matriz A contém
n! desses produtos.

Definição 3.12 (Determinate). Seja A = (aij ) ∈ Mn (K). O determinante da matriz A é


definido por
X X
det(A) = |A| = sig(σ) (a1σ(1) . . . anσ(n) ) = (sigσ) (a1j1 . . . anjn )
σ∈Sn σ∈Sn

onde Sn é o conjunto de todas as permutações do conjunto {1, 2, . . . , n} e sig(σ) = (−1)N ,


com N igual ao número de inversões necessárias para trazer de volta o conjunto

{σ(1), σ(2), . . . , σ(n)}

a sua ordem natural. Assim, det(A) é a soma de n! termos, onde o sinal está bem definido,
e qualquer termo tem n elementos, um e somente um, de cada linha e coluna de A.
33
Nota 3.13. Seja A = (aij ) ∈ Mn (K). Então o determinante da matriz A é:

1. Se n = 1 então, A = (aij ) ∈ M1 (K). Como S1 só tem uma permutação que é par,
então
det(A) = a11

o próprio número.

2. Se n = 2 então, A = (aij ) ∈ M2 (K). Em S2 a permutação 1 2 é par e a permutação


2 1 é ı́mpar, logo

a11 a12
det(A) = = a11 a22 − a21 a12 .

a21 a22

3. Se n = 3 então, A = (aij ) ∈ M3 (K). Em S3 as permutações 1 2 3, 2 3 1 e 3 1 2 são


pares e as permutações 3 2 1, 2 1 3 e 1 3 2 são ı́mpares, logo

a11 a12 a13


det(A) = a21 a22 a23 = a11 a22 a33 +a12 a23 a31 +a13 a21 a32 −(a13 a22 a31 +a12 a21 a33 +a11 a23 a32 )



a31 a32 a33

Observação 3.14. A medida que n cresce, o número de termos no determinante torna-


se astronómico. Por isto, para calcular determinantes, utilizamos métodos indireitos em
determento da definição.

Exemplo3.15. Encontre
o determinante de A
nos seguintescasos:
2 1 1 3 2 1  
    5 3
(a) A =  0 5 −2  (b) A =  0 5 −2  (c) A = 
    
    4 6
1 −3 4 2 −3 4

Teorema 3.16. Sejam A, B ∈ Mn (K). Então o determinante do produto de duas matri-


zes A e B é igual ao produto dos determinantes, isto é,

|AB| = |A||B|.

Teorema 3.17. Seja A ∈ Mn (K). Então o determinante de A com a sua transporta AT


são iguais, isto é,
|A| = |AT |.

Teorema 3.18. Seja A ∈ Mn (K).


34
1. Se A tem uma linha (ou coluna) zero, então |A| = 0.

2. Se A tem duas linhas (colunas) idênticas, então |A| = 0.

3. Se A é triangular, isto é, A tem zeros acima e abaixo da diagonal principal, então
|A| é igual ao produto dos elementos diagonais. Assim, em particular, |I| = 1 onde
I é a matriz identidade.

Teorema 3.19. Suponha B ∈ Mn (K), foi obtida de A por uma sequência de operações
elementar de linha (ou coluna).

1. Permutando-se duas linhas ( ou colunas) de A,então |B| = −|A|.

2. Multiplicando-se uma linha (ou coluna) de A por um escalar k, então |B| = k|A|.

3. Somando-se uma linha (coluna) um multiplo de outra linha (ou coluna), então |B| =
|A|.

Teorema 3.20. Seja A ∈ Mn (K) uma matriz quadrada de ordem n. Então as seguintes
proposições são equivalentes:

1. A é inversı́vel, isto é, A tem uma inversa A−1 .

2. AX = 0, tem apenas a solução zero.

3. O determinante de |A| não é zero, isto é,|A| =


6 0.

3.3 Menores e Cofatores


Definição 3.21. Consideremos A ∈ Mn (K) uma matriz quadrada de ordem n. Denote-
mos por Mij a submatriz quadrada de ordem n − 1 de A obtida por eliminação da i-ésima
linha e j-ésima coluna. O determinante |Mij | é chamado menor relativo ao elemento aij
de A e o cofactor de aij denotado por Aij é o menor com sinal correspondente

Aij = (−1)i+j |Mij |.

Nota 3.22. Mij denota uma matriz, enquanto que Aij denota um escalar.
 
2 3 4
 
Exemplo 3.23. Seja A =  5 6 7 . Determine:
 
 
8 9 1
35
1. |M23 | e A23 .

2. |M31 | e A31 .

Teorema 3.24 (Teorema de Laplace). Seja A = (aij ) ∈ Mn (K) uma matriz quadrada de
ordem n sobre o corpo K. O determinante de A é igual à soma dos produtos obtidos pela
multiplicação dos elementos de qualquer linha (ou coluna) por seus respectivos cofatores,
isto é :
n
X
|A| = ai1 Ai1 + ai2 Ai2 + . . . + ain Ain = aij Aij
j=1

ou
n
X
|A| = a1j A1j + a2j A2j + . . . + anj Anj = aij Aij
i=1

As fórmulas acima são chamadas de desenvolvimento de Laplace do determi-


nante de A segundo a i-ésima linha e j-ésima coluna, respectivamente, juntamente com as
operações elementares de linha (coluna). Elas proporcionam um método de simplificação
do cálculo de |A| conforme descrito abaixo:

Definição 3.25 (Algoritmo). O algoritmo seguinte reduz o cálculo de um determinante


de ordem n ao cálculo de um determinante de ordem n − 1. Seja A = (aij ) ∈ Mn (K) uma
matriz quadrada de ordem n não nula, n > 1:

1. Passo: Escolha um elemento aij = 1 ou na sua falta aij 6= 0.

2. Passo: Usando aij como elemento pivô, aplique operações elementares sobre linhas
(ou colunas) para reduzir a zero todas as outras posições da coluna (ou linha)
contendo aij .

3. Passo: Desenvolva o determinante seugndo a coluna (ou linha) contendo aij .


 
5 4 2 1
 
1 −2 
 
 2 3
Exemplo 3.26. Calcule o determinante de A = 
  usando o algo-
 −5 −7 −3 9 

 
1 −2 −1 4
ritmo.
36
3.4 Adjunta clássica
Definição 3.27. Sejam A = (aij ) ∈ Mn (K) uma matriz quadrada sobre um corpo K e Aij
o cofator de aij . A adjunta clássica de A, denotada por adjA, é a transporta da matriz
de cofatores de A, isto é,
 
A11 A21 . . . An1
 
 
T
 A12 A22 . . . An2 
adjA = (Aij ) = 
 .. .. .. ..  .

 . . . . 
 
A1n · · · A2n · · · Ann
Nota 3.28. Dizemos ”Adjunta clássica”em lugar de ”adjunta”simplesmente, porque o
termo adjunta é frequentemente usado em um sentido inteiramente diferente.
 
2 3 −4
 
Exemplo 3.29. Seja A =  0 −4 2 . Determine a matriz adjunta clássica de
 
 
1 −1 5
A.

Teorema 3.30. Para qualquer matriz A = (aij ) ∈ Mn (K) quadrada vale o seguinte:

A(adjA) = (adjA)A = |A|In

onde In é a matriz identidade. Assim, se |A| =


6 0, então
1
A−1 = (adjA).
|A|
Observação 3.31. O teorema acima nos dá um outro método para obter a inversa de
uma matriz.

Teorema 3.32. Seja A = (aij ) ∈ Mn (K). A é inversı́vel se, e somente se, seu determi-
nante é diferente de zero, isto é,

A é inversı́vel ⇐⇒ detA 6= 0.
 
2 3 −4
 
Exemplo 3.33. Seja A =  0 −4 2 .
 
 
1 −1 5
1. Determine a sua inversa, isto é, A−1 .

2. Prove que
A(adjA) = (adjA)A = |A|I3

onde I3 é a matriz identidade de terceira ordem.

37
38
Capı́tulo 4

Sistemas lineares

4.1 Conceitos

Definição 4.1. Um sistema de equações lineares com m equações e n incógnitas é um


conjunto de equações do tipo:




 a11 x1 + a12 x2 + . . . + a1n xn = b1









 a x + a x + ... + a x
21 1 22 2 2n n = b2
(∗)



 .. .. .. ..




 . . . .



 a x + a x + ... + a x
m1 1 m2 2 mn n = bm

com aij ∈ K, i = 1, . . . , m e j = 1, . . . , n, números reais ou complexos.

Definição 4.2. Uma solução do sistema (*), é uma n-uplas de números (x1 , x2 , . . . , xn )
que satisfaça simultâneamente estas m equações.

Definição 4.3. Dois sistemas de equações lineares são equivalentes se, e somente se, toda
solução de qualquer um dos sistemas também é solução do outro.
39
4.2 Sistema e matrizes
Podemos escrever o sistema (*) numa forma matricial seguinte
     
a a12 . . . a1n x b
 11   1   1 
     
 a21 a22 . . . a2n   x2   b2 
 .. .. ..  .  ..  =  ..
     
..
.

 . . .   .   . 
     
am1 · · · am2 · · · amn xn bm

ou
AX = B

onde  
a a12 ... a1n
 11 
 
 a21 a22 ... a2n 
A=
 .. .. .. .. 

 . . . . 
 
am1 · · · am2 · · · amn
é a matriz dos coeficientes  
x1
 
 
 x2 
X=
 ..


 . 
 
xn
é a matriz das incógnitas e  
b1
 
 
 b2 
B=
 ..


 . 
 
bm
a matriz dos termos independentes.

Definição 4.4. Uma outra matriz que podemos associar ao sistema é


 
a a12 . . . a1n b1
 11 
 
 a21 a22 . . . a2n b2 
 .. .. .. .. 
 
..
 . . . . .
 
am1 · · · am2 · · · amn bm

que chamamos matriz ampliada do sistema.


40
Cada linha desta matriz é simplesmente uma representação abreviada da equação
correspondente no sistema.

Exemplo 4.5. Consideremos o sistema de equações lineares:





 x1 + 4x2 + 3x3 = 1







2x1 + 5x2 + 4x3 = 4








 x − 3x − 2x

= 5
1 2 3

A forma matricial do sistema é


     
1 4 3 x 1
   1   
 .  x2  =  4 
     
 2 5 4
     
1 −3 −2 x3 5

A matriz ampliada, na resolução do sistema é


 
1 4 3 1
 
 
 2 5 4 4 
 
1 −3 −2 5

através de operações elementares efectuadas sobre a linha do sistema, chegamos a


 
1 0 0 3
 
 0 1 0 −2 
 
 
0 0 1 2

que é a matriz ampliada do sistema e temos que





 x1 = 3







x2 = −2









 x = 2
3

Definição 4.6. Sejam A, B ∈ Mm×n (K). Dizemos que B é linha equivalente a A, se B


for obtida de A através de un número finito de operações elementares sobre as linhas de
A.
41
Teorema 4.7. Dois sistemas que possuem matrizes ampliadas equivalentes são equiva-
lentes.

Definição 4.8 (forma escada). Uma matriz A ∈ Mm×n (K) é linha reduzida à forma
escada se:

1. O primeiro elemento não nulo de uma linha não nula é 1.

2. Cada coluna que contém o primeiro elemento não nulo de alguma linha tem todos
os seus outros elementos iguais a zero.

3. Toda linha não nula ocorre abaixo de todas as linhas não nulas (isto é, daquelas que
possuem pelo menos um elemento não nulo).

4. Se as linhas 1, . . . , r são as linhas não nulas, e se o primeiro elemento não nulo da


linha i ocorre na coluna kj , então k1 < k2 < . . . < kr . Esta última condição impõe
a forma escada à matriz:

Figura 4.1: Forma escada

Isto é, o número de zeros precedendo o primeiro elemento não nulo de uma linha aumenta
a cada linha, até que sobrem somente linhas nulas, se houver.

Teorema 4.9. Toda matriz A ∈ Mm×n (K) é linha equivalente a uma única matriz-linha
reduzida à forma escada.

Definição 4.10. Dada uma matriz A ∈ Mm×n (K) e seja B ∈ Mm×n (K) a matriz-linha
reduzida à forma escada linha equivalente a A. A caracterı́stica de A (ou posto), denotado
por r(A) (ou post(A)), é o número de linhas não nulas de B. A nulidade de A denotada
por N ul(A), é o número n − r(A).
42
Observação 4.11. Dada uma matriz A qualquer, para achar sua caraterı́stica, necessi-
tamos encontrar primeiro sua matriz-linha reduzida à forma escada, e depois contar suas
linhas não nulas. Este número é a caraterı́stica de A. A nulidade é a diferença entre
colunas de A e a caracterı́stica.

Exemplo 4.12. Determinar a caracterı́stica e a nulidade


 das seguintes
 matrizes reais:
  2 −1 3
1 2 1 0 



   1 4 2 
(a) A =  −1 0 3 5  (b) B =  .
 
−5 1 
 
   1
1 −2 1 1  
4 16 8

4.3 Soluções de sistema lineares

Consideremos um sistema de m equações lineares com n incógnitas x1 , x2 , . . . , xn





 a11 x1 + a12 x2 + . . . + a1n xn = b1









 a x + a x + ... + a x
21 1 22 2 2n n = b2



.. .. .. ..





 . . . .



 a x + a x + ... + a x
m1 1 m2 2 mn n = bm

cujos coeficientes aij e termos constantes bi são números reais (ou complexos). Este
sistema poderá ter

1. Uma única solução.

2. Infinitas soluções.

3. Nenhuma solução.

No primeiro caso, dizemos que o sistema é possı́vel (compatı́vel) e determinado, no segundo


caso, dizemos que o sistema é possı́vel e indeterminado e no terceiro caso, dizemos que o
sistema é impossı́vel (incompatı́vel).
Consideremos a matriz ampliada do sistema anterior e tomemos sua matriz-linha reduzida
à forma escada conforme a figura abaixo
43
Figura 4.2: Matriz-linha reduzida e forma escada

Teorema 4.13. Um sistema de m equações e n incógnitas admite solução se e somente


se, a caracterı́stica da matriz ampliada for igual a caracterı́stica da matriz dos coeficientes,
isto é,
r(A|B) = r(A)

1. Se as as duas matrizes têm a mesma caracterı́stica r e r(A) = r(A|B) = n, a solução


será única (compatı́vel e determinado).

2. Se as duas matrizes têm a mesma caracterı́stica r(A) = r(A|B) < n, podemos


escolher n−r(A) incógnitas livres, e as outras r(A) incógnitas serão dadas em função
destas. Neste caso dizemos que o grau de liberdade do sistema é n − r(A) = N ul(A)
(compatı́vel e indeterminado).

3. Se r(A) < r(A|B), então o sistema não tem solução (incompatı́vel).

Exemplo 4.14. Em cada caso, é dada a matriz-linha reduzida à forma escada da matriz
ampliada:
 
1 0 0 3
 
1.  0 1 0 −2  ., temos que r(A) = r(A|B) = 3, m = 3 e n = 3, portanto a
 
 
0 0 1 2
solução é única, isto é, x = 3, y = −2 e , z = 2.
 
1 0 7 −10
2.  , temos que r(A) = r(A|B) = 2 < n = 3, m = 2 e n =
0 1 5 −6
3, portanto temos um grau de liberdade (sistema possı́vel indeterminado), isto é,
x = −10 − 7z, e y = −6 − 5z.
 
1 0 7 −10
 
3.  0 1 5 −6 , temos que r(A) = 2 < r(A|B) = 3, m = 3 e n = 3, portanto
 
 
0 0 0 2
o sistema é impossı́vel, isto é, não tem solução.
44
 
1 0 −10 −2 −10
 
4.  0 1 7 4 , temos que r(A) = r(A|B) = 2, m = 3 e n = 4,
 
1
 
0 0 0 0 0
portanto temos dois graus de liberdade, isto é, x = −10+10z +2t e y = 4−7z −t.

Exemplo
 4.15. Dados os seguintes sistemas
 lineares: 


 2x + 3y + z = 1 

 2x − y = −7 

 2x + y − z = −6

 
 


 
 


 
 

  
(a) 3x − 3y + z = 8 (b) −3x + 4y = 13 (c) x − y + 3z = 21

 
 


 
 


 
 


 
 

= −1
  
 2y + z = 0  x + 2y  3x + 2z = 15
resolve e classifique em:

• Possı́vel determinado.

• Possı́vel indeterminado.

• Impossı́vel.

Teorema 4.16 (Método de Cramer). Suponhamos que desejamos resolver um sistema


linear de n equações e n incógnitas conforme abaixo



 a11 x1 + a12 x2 + . . . + a1n xn = b1









 a x + a x + ... + a x
21 1 22 2 2n n = b2



.. .. .. ..





 . . . .



 a x + a x + ... + a x = b
n1 1 n2 2 nn n n

Podemos escrever este sistema na forma matricial


     
a a12 . . . 1n x1 b1
 11     
     
 a21 a22 . . . a2n   x2   b2 
..  . 
=
 .. .. .. ..
   
..
.
  
 . . .   .   . 
     
an1 · · · an2 · · · ann xn bn

ou
AX = B
45
onde  
a a12 ...
 11 1n

 
 a21 a22 . . . a2n 
A=
 .. .. .. .. 

 . . . . 
 
an1 · · · an2 · · · ann
é a matriz dos coeficientes  
x1
 
 
 x2 
X=
 ..


 . 
 
xn
é a matriz das incógnitas e  
b1
 
 
 b2 
B=
 ..


 . 
 
bn
é a matriz dos termos independentes. Para esta equação suponhamos que det(A) 6= 0 e
portanto, que A tenha a inversa A−1 . Então

A−1 (AX) = A−1 B = (A−1 A)X = A−1 B = In X ⇐⇒ X = A−1 B

Na forma matricial
   −1  
x1 a a12 ... b1
   11 1n
  
     
 x2   a21 a22 . . . a2n   b2 
X= ..
=
  .. .. .. .. 
 . ..

.
  
 .   . . .   . 
     
xn an1 · · · an2 · · · ann bn

Usando a relação A−1 = 1


det(A)
[Aij ]T para a matriz inversa dada temos que
     
x1 A11 A21 . . . An1 b1
     
     
 x2  1  A12 A22 . . . An2   b2 
= .
..  det(A)  .. .. ..  .  ..
    
..
.
 
 .   . . .   . 
     
xn A1n · · · A2n · · · Ann bn

Então
b1 A11 + . . . + bn An1
x1 =
det(A)
46
O numerador desta fração é igual ao determinante da matriz que obtemos de A, subis-
tituindo a primeira coluna pela matriz dos termos independentes. De facto, usando o
desenvolvimento de Laplace, obtemos
 
b1 a12 . . . a1n
 
 
 b2 a22 . . . a2n 
det  .. .. .. .  = b1 A11 + . . . + bn An1

. .. 

 . .
 
bn an2 . . . ann

Ou seja
 
b1 a12 . . . a1n
 
 
 b2 a22 . . . a2n 
det  .. .. . . .. 

.

 . . . 
 
bn an2 . . . ann
x1 =  
a11 a12 . . . a1n
 
 
 a21 a22 . . . a2n 
det  .. .. . . .. 

.

 . . . 
 
an1 an2 . . . ann

Fazendo deduções análogas, obtemos


 
a11 . . . b1 . . . a1n
 
 
 a21 . . . b2 . . . a2n 
det  .. . . .. . . .. 

. . . . 

 .
 
an1 . . . bn . . . ann
xi =  
a a . . . a1n
 11 12 
 
 a21 a22 . . . a2n 
det 
 .. .. . . . 

 . . . .. 
 
an1 an2 . . . ann

ou
∆i
xi =
det(A)
∀i = 1, 2, . . . , n, onde ∆i é o determinante da matriz que se obtém, a partir de A,
substituindo-se a i-ésima coluna pela coluna dos termos independentes do sistema. Quando
∆i 6= 0 (isto é, quando a matriz A é inversı́vel), o sistema é chamado sistema de Cramer.
47



 x + 2y − 3z = −15







Exemplo 4.17. Seja o sistema 2x − y + z = 10 .








 3x − z

= 1
Resolva aplicando o método de Cramer.

4.4 Discussão de sistemas lineares


Discutir um sistema é analisar sob quais condiçõess ele admite soluções e, quando estas
existem, quantas são. Nesta seccão, vamos analisar sistemas lineares segundo os valo-
res assumidos por parâmetros presentes nas equações, assim como impor valores a esses
parâmetros para que uma desejada situação ocorra.

Exemplo 4.18. Discutir os seguintes sistemas lineares em função dos parâmetros dados:



 x+y+z = 6







1. x + 2y − z = 4









 x + 3z = a



 2x − 2y + az = 2







2. 2x − y + az = 3








 x − ay + z

= 0



 x + az = −2







3. x − y − 2z = a








 x + ay + 4z = −5

48
Capı́tulo 5

Vectores

Neste capı́tulo, faremos os estudos sobre os vectores, que constituem uma importante
ferramenta para o estudo da Geometria Analı́tica, da Fı́sica, da Análise e as demais
ciências.

5.1 Conceitos
Definição 5.1 (Recta orientada). Uma recta r é orientada quando se fixa nela um sentido
de percurso, considerado positivo e indicado por uma secta. O sentido oposto é negativo,
uma recta orientada é denominada eixo.

Figura 5.1: Recta r

Definição 5.2 (Segmento orientado). Um segmento orientada é determinado por um par


ordenado de pontos, o primeiro chamado de origem do segmento, o segundo chamado
extremidade. O segmento orientado de origem A e extremidade B será representado por
AB, e geometricamene, indicado por uma secta que caracteriza visualmente o sentido de
segmentoUm segmento nulo é aquele cuja extremidade coincide com a origem.

Figura 5.2: Segmento AB

49
Definição 5.3 (Segmento oposto e medida de um segmento). Se AB é um segmento
orientado, o segmento orientado BA é o oposto de AB. Fixada uma unidade de compri-
mento, a cada segmento orientado, pode-se associar um número real não negativo, que é
a medida do segmento em relação àquela unidade. A medida do segmento orientado é o
seu comprimento ou seu módulo. O comprimento do segmento AB é indicado por AB.

Definição 5.4 (Direcção e sentido). Dois segmentos orientados não nulos AB e CD têm
a mesma direcção se as rectas suportes desses segmentos são paralelas ou coincidentes.

Observação 5.5. Podemos enfatizar os seguintes:

1. Só se pode comparar os sentidos de dois segmentos orientados se eles têm as mesmas
direcções.

2. Dois segmentos orientados opostos têm sentidos contrários.

Definição 5.6 (Segmentos equipolentes). Dois segmentos orientados, AB e CD são equi-


polentes quando têm a mesma direcção, o mesmo sentido e o mesmo comprimento. A
equipolência dos segmentos AB e CD é representada por AB v CD.

Proposição 5.7 (Da equipolência). Dados os seguintes segmentos orientados. Então:

1. AB v AB (reflexiva).

2. Se AB v CD, então CD v AB (simétrica).

3. Se AB v CD, CD v EF , então AB v EF (transitiva).

4. Dado um segmento orientado AB e um ponto C, existe um único ponto D tal que


AB v CD.

5.2 Conceito de Vector


Definição 5.8. Vector determinado por um segmento orientado AB é o conjunto de
todos os segmentos orientados equipolentes a AB. Se indicamos com →

v este conjunto,
simbolicamente, podemos escrever:


v = {XY /XY v AB}

em que XY é um segmento orientado qualquer do conjunto. O vector determinado por


−→
AB é indicado por AB ou B − A ou simplesmente →

v.
50
Figura 5.3: Conjunto de Segmento orientados equipolentes AB

−→
Um mesmo vetor AB é determinado por uma infinidade de segmentos orienta-
dos,chamados representantes desse vetor, e todos equipolentes entre si.
As caracterı́sticas de um vetor →

v são as mesmas de qualquer um de seus representantes,
isto é: o módulo, a direção e o sentido do vetor são o módulo, a direção e o sentido de
qualquer um de seus representantes. O módulo de → −v é denotado por |→
−v |.

5.3 Tipos de vectores


−→ −−→
Definição 5.9 (Igualdade). Dois vectores AB e CD são iguais se, e somente se, AB v
−→ −−→
CD =⇒ AB = CD.

Definição 5.10 (Vector nulo). Os segmentos nulos, por serem equipolentes entre si, de-
terminam um único vector, chamado vector nulo ou vector zero, e que é denotado por


O.
−→ −→
Definição 5.11 (Vector oposto). Dado um vector →

v = AB, o vector BA é o oposto de
−→ −→
AB e se indica por −AB ou por −→ −v.

Definição 5.12 (Vector unitário). Um vector →−


v , é unitário se |−
→v| = 1. Versor de um
vector não nulo →

v é o vector unitário de mesma direcção e mesmo sentido de →−v.

Definição 5.13 (Vector colineares). Dois vectores →



u e →−v são colineares, se tiverem a
mesma direcção. Em outras palavras, →−
u e →−v são colineares se tiverem representantes

Figura 5.4: Vectores colineares

AB e CD pertencentes a uma mesma recta ou as rectas paralelas.


51
Definição 5.14 (Vector coplanares). Se os vectores não nulos →

u ,→

v e→

w possuem os re-

Figura 5.5: Vectores coplanares

presentantes AB, CD e EF pertencentes a um mesmo plano π, diz-se que são coplanares.

Nota 5.15. Dois vectores →



u e→

v sempre são coplanares. Três vectores →

u, →

v e→

w poderão
ou não ser coplanares.

5.4 Operações com Vectores


Definição 5.16 (Adição de vectores). Sejam os vectores →

u e →

v representados pelos
segmentos AB e BC. Os pontos A e C determinam um vector → −
s que, é por definição, a

Figura 5.6: Adicção de vectores

soma dos vectores →



u e→

v , isto é,



s =→

u +→

v.

Proposição 5.17. Dados os vectores →



u, →

v e →

w:

1. Comutativa: →

u +→

v =→

v +→

u.

2. Associativa: (→

u +→

v)+→

w =→

u + (→

v +→

w ).

− →
− →
−−
3. Existe um só vector nulo O tal que para todo o vector →

v se tem →

v +O = O→v =→

v.

4. Qualquer que seja o vector →



v , existe um só vector −→

v tal que,


− →

v + (−→

v ) = −→

v +→

v =O
52
.

Definição 5.18 (Diferença de vectores). Chama-se diferença de dois vectores →



u e→

v,e


se representa por d = →−u −→ −v , ao vector



u + (−→

v ).

Figura 5.7: Diferença de vectores



Definição 5.19 (Multiplicação por escalar). Dado um vector →− 6 O e um número real
v =
(ou escalar) k 6= 0. Diz-se produto do número real k pelo vector →

v o vector p = k →

v , tal
que:

1. Módulo: |→

p | = |k →

v | = |k||→

v |.

2. Direcção: a mesma de →

v.

3. Sentido: o mesmo de →

v , se k > 0, e contrário ao de →

v , se k < 0.

Figura 5.8: Multiplicação por escalar



Observação 5.20. 1. Se k = 0 ou →

v = 0, o produto é o vector O .


v 1
2. Se k é um escalar não nulo, a notação k
significa k−
→v
.

3. Se →
− −

v é um vector não nulo, o vector v
|−

v|
é o versor de →

v.

Proposição 5.21. Sejam →



u, →

v vectores quaisquer e a, b ∈ R, números reais, temos:
53
1. Associativa: a(b→

u ) = (ab)→

u.

2. Distribuitiva em relação à adição de escalares: (a + b)→



u = a→

u + b→

u.

3. Distribuitiva em relação à adição de vectores: a(→



u +→

v ) = a→

u + a→

v.

4. Identidade: 1.→

u =→

u.

Dois vectores não nulos →



u e→

v são paralelos se, e somente se, existe um escalar k tal que


u = k→−v , e consequentemente, k 6= 0 e →

v = u.


k

5.5 Expressão analı́tica de um vector

5.5.1 Vectores no Plano

Definição 5.22. Dados dois vectores v~1 e v~2 , não colineares, qualquer vector ~v pode ser
decomposto segundo as direções de v~1 e v~2 e cuja soma seja ~v . Em outras palavras,
queremos determinar dois números reais a1 e a2 tais que

~v = a1 v~1 + a2 v~2 (5.1)

Quando o vector ~v estiver representado por 5.1, dizemos que ~v é combinação linear de v~1
e v~2 .

O par de vectores v~1 e v~2 , não colineares, é chamado base do plano. Qualquer
conjunto {v~1 , v~2 } de vectores não colineares, constitui uma base no plano. Os números a1
e a2 em 5.1 são chamados componentes ou coordenadas de ~v em relação à base {v~1 , v~2 }.
O vector a1 v~1 é chamado projecção de ~v sobre v~1 segundo a direção de v~2 . Analogamente,
O vector a2 v~2 é a projecção de ~v sobre v~2 segundo a direção de v~1 conforme a fı́gura.

Definição 5.23. Uma base {e1 , e2 } é dita ortonormal se os seus vectores forem ortogonais
e unitários, isto é
e1 ⊥ e2 e |e1 | = |e2 | = 1.

Dentre as infinitas bases ortonormais no plano, uma delas é particularmente im-


portante, trata-se da base que determina o conhecido sistema cartesiano ortogonal xOy.
Os vectores ortogonais e unitários, neste caso, são simbolizados por ~i e ~j, ambos com a
origem em O e extremidade em (1, 0) e (0, 1), respectivamente, sendo a base C = {~i, ~j}
chamada de canônica. Portanto, ~i = (1, 0) e ~j = (0, 1)
54
Figura 5.9: Projecção de um vector sobre o outro

Figura 5.10: Base canõnica

Definição 5.24. Dado um vector ~v qualquer do plano, existe uma só dupla de números
x e y tal que

~v = x~i + y~j (5.2)

Os números x e y são as componentes de ~v na base canônica. A primeira componente x


é chamada abscissa de ~v e a segunda componente y é a ordenada de ~v

O vector ~v será também representado por

~v = (x, y)

dispresando-se á base canônica C, a igualdade acima é chamado expressão anlı́tica de ~v .

Exemplo 5.25. Para exemplficar alguns vectores e suas expressões analı́ticas correspon-
dentes, consideremos os seguintes:

1. 3~i − 5~j = (3, −5)

2. 3~j = (0, 3)

3. −4~i = (−4, 0).


55
5.5.2 Operações com vectores

Sejam os vectores ~u = (x1 , y1 ) e ~v = (x2 , y2 ) e α ∈ R. Define-se:

1. Dois vectores ~u = (x1 , y1 ) e ~v = (x2 , y2 ) são iguais se, e somente se, x1 = x2 e


y1 = y2 , escrevendo-se ~u = ~v .

2. Soma: ~u + ~v = (x1 + x2 , y1 + y2 )

3. Produto por escalar: α~u = (αx1 , αx2 ).

5.5.3 Vector definido por dois pontos


−→
Consideremos agora o vector AB de origem no ponto A(x1 , y1 ) e extremidade em B(x2 , y2 )
−→ −−→ −→ −−→
Os vectores OA e OB têm expressões analı́ticas, OA = (x1 , y1 ) e OB = (x2 , y2 ) . Por

Figura 5.11: Vector definido por dois pontos

outro lado, do triângulo OAB da figura, vem


−→ −→ −−→
OA + AB = OB
−→ −−→ −→
em que AB = OB − OA ou
−→
AB = (x2 , y2 ) − (x1 , y1 )

ou ainda,
−→
AB = (x2 − x1 , y2 − y1 )
−→
isto é, as componentes de AB são obtidas subtraindo-se das coordenadas da extremidade
−→
B as coordenadas da origem A, razão pela qual, também se escreve AB = B − A.

Nota 5.26. É importante lembrar que um vector tem infinitos representantes, que são
os segmentos orientados de mesmo comprimento, mesma direcção e o mesmo sentido. E
−→
dentre os infinitos representantes do vector AB, o que melhor o caracteriza é aquele que
tem origem em O(0, 0) e extremidade em P = (x2 − x1 , y2 − y1 ) conforme (5.12).
56
Figura 5.12: Vector definido por dois pontos

−→
O vector ~v = AB é também chamado vector posição ou representante natural
−→ −→
de AB. Por outro lado, sempre que tivermos ~v = AB ou ~v = B − A, podemos também
−→
concluir que B = A + ~v ou B = A + AB , isto é, o vector ~v transporta o ponto inicial A
para o ponto extremo B.

5.5.4 Exercı́cios

1. Considere os vectores ~u = (m + 2n, n − 7) e ~v = (4 − m, m + 9). Determine o valor


de m e n de modo que ~u = ~v .

1
2. Determinar o vector w
~ na igualdade 3w
~ + 2~u = 2
~v ~ sendo ~u = (3, −1) e
+ w,
~v = (−2, 4).

3. Dados os pontos A(−1, 2), B(3, −1) e C(−2, 4), determinar o ponto D de modo que
−−→ 1 −→
CD = AB.
2

4. Dados os vectores ~u = (3, −1) e ~v = (−1, 2), obtenha o vector w ~ − (2~v −


~ tal que 3w
~ − 3~u).
~u) = 2(4w

5. Dados os pontos A(−1, 3), B(1, 0) e C(2, −1), determinar o ponto D de modo que
−−→ −→
DC = BA.

5.5.5 Vectores no Espaço

Consideraremos a base canônica {~i, ~j, ~k} , onde estes três vetores unitários e dois a dois
ortogonais estão representados com origem no ponto O. Este ponto e a direção de cada
um dos vetores da base determinam os três eixos cartesianos:

1. O eixo Ox ou eixo dos x (das abscissas) corresponde ao vetor ~i.


57
2. O eixoOy ou eixo dos y (das ordenadas) corresponde ao vetor ~j.

3. O eixo Oz ou eixo dos z (das cotas) corresponde ao vetor ~k.

Figura 5.13: Sistema cartesiano ortogonal Oxyz

As setas nessa figura indicam o sentido positivo de cada eixo, chamado também de eixo
coordenado.
Cada dupla de vetores de base, e, consequentemente, cada dupla de eixos, determina um
plano coordenado. Portanto, temos três planos coordenados, que são, o plano xOy, o
plano xOz e o plano yOz.
Assim como no plano, a cada ponto P (x, y, z) do espaço irá corresponder o vector
−→
OP = x~i + y~j + z~k

isto é, as próprias coordenadas x, y e z são denominadas abscissas, ordenada e cota, res-
−→ −→
pectivamente. O vector OP = x~i + y~j + z~k também será denotado por OP = ~v = (x, y, z).

5.5.6 Operações com vectores

Sejam os vectores ~u = (x1 , y1 , z1 ) e ~v = (x2 , y2 , z2 ) e α ∈ R. Define-se:

1. Dois vectores ~u = (x1 , y1 , z1 ) e ~v = (x2 , y2 , z2 ) são iguais se, e somente se, x1 =


x2 , y1 = y2 e z1 = z2 escrevendo-se ~u = ~v .

2. Soma: ~u + ~v = (x1 + x2 , y1 + y2 , z1 + z2 )

3. Produto por escalar: α~u = (αx1 , αy1 , αz1 ).

5.5.7 Vector definido por dois pontos no espaço


−→
Consideremos agora o vector AB de origem no ponto A(x1 , y1 , z1 ) e extremidade em
B(x2 , y2 , z2 )

58
−→ −−→ −→ −−→
Os vectores OA e OB têm expressões analı́ticas, OA = (x1 , y1 , z1 ) e OB =
(x2 , y2 , z2 ) . Por outro lado, do triângulo OAB, vem

−→ −→ −−→
OA + AB = OB

−→ −−→ −→
em que AB = OB − OA ou

−→
AB = (x2 , y2 , z2 ) − (x1 , y1 , z1 )

ou ainda,
−→
AB = (x2 − x1 , y2 − y1 , z2 − z1 )
−→
isto é, as componentes de AB são obtidas subtraindo-se das coordenadas da extremidade
−→
B as coordenadas da origem A, razão pela qual, também se escreve AB = B − A.

Definição 5.27 (Paralelismo). Se dois vectores ~u = (x1 , y1 , z1 ) e ~v = (x2 , y2 , z2 ) são


colineares (ou paralelos) eles têm a mesma direcção, então existe um número real α tal
que ~u = α~v , isto é,

(x1 , y1 , z1 ) = α(x2 , y2 , z2 ) =⇒ x1 = αx2 , y1 = αy2 , z1 = αz2

ou
x1 y1 z1
= = = α.
x2 y2 z2

5.5.8 Exercı́cios

1. Dados os seguintes pontos A(4, 0, 1), B(5, 1, 3), C(3, 2, 5) e D(2, 1, 3). Represente
cada um desses pontos no sistema cartesiano.

−→ −→
2. Dados os pontos A(−1, 2, 3) e B(4, −2, 0), determinar o ponto P tal que AP = 3AB.

3. Obtenha os valores de a e b de modo que os vectores ~u = (4, 1, −3) e ~v = (6, a, b)


sejam paralelos.

4. Dados os pontos A(−1, 2, 3) e B(4, 5, −2), determinar e construir o ponto P tal que
−→ −−→
AP = P B.

5. Determinar o vector ~v sabendo que (3, 7, 1) + 2~v = (6, 10, 4) − ~v .


59
6. Mostre que os pontos A(4, 0, 1), B(5, 1, 3), C(3, 2, 5) e D(2, 1, 3) são vertı́ces de um
paralelogramo.

7. Verificar se são colineares os pontos:

(a) A(−1, −5, 0), B(2, 1, 3) e C(−2, −7, −1).

(b) A(2, 1, −1), B(3, −1, 0) e C(1, 0, 4).

5.6 Produto de vectores


Definição 5.28 (Produto escalar). Chama-se produto escalar ou produto interno de dois

− →
− →
− − →
− →
− →

vectores →
−u = x i +y j +z k e →
1 1 1 v = x i + y j + z k , e se representa por →
2 2 2

u .→

v,
ao número real


u→−
v = x1 x2 + y1 y2 + z1 z2 .

O produto escalar de →

u por →

v também é denotado por h→

u ,→

v i e se lê (→

u escalar →

v ).

− →
− →
− − →
− − →
→ −
Exemplo 5.29. Dados os vectores →

u =3 i −5j +8k e →
v = 4 i − 2 j − k , tem-se



u .→

v = 3.4 − 5.(−2) + 8.(−1) = 14

Definição 5.30 (Módulo). O módulo ou norma de um vector →



v , denotado por |→

v | é o
número real não negativo

|~v | = ~v .~v

Caso ~v = (x, y), teremos


p
|~v | = (x, y).(x, y)

ou ainda
p
|~v | = x2 + y 2

No caso, em que ~v é não nulo, é possı́vel obter um vector unitário ~u fazendo

~v
~u = .
|~v |

Proposição 5.31. Para quaisquer vectores ~u, ~v e w


~ e o número real α temos que:

1. ~u.~v = ~v .~u

2. ~u.(~v + w)
~ = ~u.~v + ~u.w
~
60
3. α(~u.~v ) = (α~u).~v = ~u.(α~v )

4. ~u.~u > 0 se ~u 6= ~0 e ~u = ~0, se ~u = ~0 = (0, 0, 0)

5. ~u.~u = |~u|2 .

Definição 5.32 (Ânglo entre vectores). O ânglo de dois vectores não nulos ~u e ~v é o
ângulo θ formado pelas semi-rectas OA e OB e tal que 0 ≤ θ ≥ π.

Figura 5.14: Ângulo entre dois vectores

Agora, vamos estabelecer uma maneira de calcular o ângulo formado entre dois
vectores, a partir de suas componentes. Aplicando a lei dos cossenos ao triangulo ABC
da fı́gura que se segue, temos que

Figura 5.15: Triangulo ABC

|~u − ~v |2 = |~u|2 + |~v |2 − 2|~u||~v | cos θ (5.3)

por outro lado, tem-se

|~u − ~v |2 = |~u|2 + |~v |2 − 2~u~v (5.4)

comparando as igualdades (5.3) e (5.4) resulta em

|~u|2 + |~v |2 − 2~u~v = |~u|2 + |~v |2 − 2|~u||~v | cos θ (5.5)

61
dai,

~u. ~v = ~u||~v | cos θ, 0 ≤ θ ≥ 180.

Exemplo 5.33. Calcule o ângulo entre os vectores →



u = (1, 1, 4) e →

v = (−1, 2, 2).
Solução:

~u.~v (1, 1, 4).(−1, 2, 2) −1 + 2 + 8 9 2
cos θ = =√ √ = √ √ = √ =
|~u||~v | 1 + 1 + 16 1 + 4 + 4 18 9 9 2 2

2 π
Como cos θ = 2
, concluimos que θ = 4
radianos.

Definição 5.34. Dois vectores ~u e ~v diz-se que são ortogonais se, e somente se, o produto
escalar deles é nulo, isto é, se
~u. ~v = 0

e serão denotados por ~u⊥~v .

Exemplo 5.35. Verifique se os vectores ~u = (−2, 3, −2) e ~v = (−1, 2, 4) são ou não


ortogonais.

Definição 5.36 (Projecção ortogonal). Consideremos os vectores ~u e ~v não nulos e θ o


ângulo entre eles. Pretendemos decompor um dos vectores, digamos ~v , tal que

~v = v~1 + v~2 , sendo v~1 //~u e v~2 ⊥~u.

Figura 5.16: Projecção de um vector sobre o outro

O vector v~1 é chamado projecção ortogonal de ~v sobre ~u e denotado por

v~1 = proj~u ~v .

Sendo v~1 //~u, temos v~1 = α~u e como v~2 = ~v − v~1 = ~v − α~u é ortogonal a ~u, ven
que
(~v − α~u). ~u = 0
62
ou
~v . ~u − α~u. ~u = 0
~v .~u
onde α = . Portanto, sendo v~1 = α~u, conclui-se que
~u.~u
 
~v .~u
proj~u ~v = ~u.
~u.~u

Exemplo 5.37. Determine o vector projecção de →



u = (2, 3, 4) sobre →

v = (1, −1, 0).

5.7 Produto vectorial


Definição 5.38. Chama-se produto vectorial de dois vectores ~u = x1~i + y1~j + z1~k e
~v = x2~i + y2~j + z2~k, tomados nesta ordem, e se representa por ~u × ~v , ao vector
 
~i ~j ~k      
  y1 z1 x z x y
~u × ~v = det  x1 y1 z1  = det 
  ~i − det  1 1 ~j + det  1 1  ~k
  y2 z2 x2 z2 x2 y 2
x2 y2 z2

Observação 5.39. O produto vectorial de ~u por ~v também é denotado por ~u ∧ ~v

Exemplo 5.40. Calcular ~u × ~v para ~u = 5~i + 4~j + 3~k e ~v = ~i + ~k.

Proposição 5.41. Tendo em conta as propriedades dos determinantes, podemos concluir


que:

1. ~u × ~v = −(~v × ~u), isto é, os vectores são oposto.

2. ~u × ~v = ~0 se, e somente se, ~u//~v .

3. ~u × (~v + w)
~ = ~u × ~v + ~u × w.
~

Caracterı́sticas do vector ~u × ~v :Consideremos os vectores ~u e ~v :

1. Direcção de ~u × ~v : O vector ~u × ~v é simultaneamente ortogonal a ~u e ~v .

2. Sentido de ~u × ~v : O vector ~u × ~v poderá ser determinado utilizando-se a ”regra


da mão direita”.

3. Comprimento de ~u × ~v : Se θ é o ângulo entre os vectores ~u e ~v não nulos, então


O vector |~u × ~v | = |~u||~v | sen θ.
63
Proposição 5.42. O módulo do produto vectorial dos vectores ~u e ~v mede a área do
−→ −→
paralelogramo ABCD determinado pelos vectores ~u = AB e ~v = AC.

Demonstração. De facto a área do paralelogramo é dado por

ABCD = |~u|h = |~u||~v | sen θ = |~u × ~v |.

Exemplo 5.43. Considere os vectores ~u = (2, −1, 1), ~v = (1, −1, 0) e w


~ = (−1, 2, 2).
Calcule:

1. ~v × w.
~

2. (~v + ~u) × w.
~

Exemplo 5.44. Calcule a área do paralelogramo definido pelos vectores ~u = (3, 1, 2) e


~v = (4, −1, 0).

5.8 Produto Misto


Definição 5.45. Chama-se produto misto dos vectores ~u = x1~i + y1~j + z1~k, ~v = x2~i +
y2~j + z2~k e w
~ = x3~i + y3~j + z3~k, tomados nesta ordem, ao número real

~u.(~v × w).
~

O produto misto de ~u, ~v e w


~ também pode ser denotado por (~u, ~v , w).
~

Tendo em conta que


 
~i ~j ~k      
  y2 z2 x z x y
~v × w
~ = det  x2

y2 z2  = det 
 ~i − det  2 2 ~j + det  2 2  ~k
  y3 z3 x3 z3 x3 y 3
x3 y3 z3
vem
     
y2 z2 x2 z2 x2 y2
~u.(~v × w)
~ = x1 det  ~i − y1 det  ~j + z1 det   ~k
y3 z3 x3 z3 x3 y3

Portanto,  
x 1 x 1 x1
 
~u.(~v × w)
~ = det  x2 y2 z2  .
 
 
x3 y3 z3
64
Exemplo 5.46. Calcular o produto misto dos vectores ~u = 2~i + 3~j + 5~k, ~v = −~i + 3~j +
3~k e w
~ = 4~i − 3~j + 2~k.
Solução:

2 3 5


~u.(~v × w)
~ = −1 3 3 = 27.


4 −3 2

Proposição 5.47. O produto misto (~u, ~v , w)


~ muda de sinal ao trocarmos a posição de
dois vectores. Então, se em relação ao produto misto ocorrer:

1. Uma permutação, havéra troca de sinal.

2. Duas permutações, não altera o valor.

~ = ~0 se, e somente se, os três vectores forem coplanares.


3. (~u, ~v , w)

4. (~u, ~v , w)
~ = (~v , w,
~ ~u) = (w,
~ ~u, ~v ).

5. (α~u, ~v , w)
~ = (~u, α~v , w)
~ = (~u, ~v , αw)
~ = α(~u, ~v , w).
~

6. (~u + ~t, ~v , w) ~ + (~t, ~v , w).


~ = (~u, ~v , w) ~

Exemplo 5.48. Verificar se são coplãnares os vectores ~u = (2, −1, 1), ~v = (1, 0, −1) e
~ = (2, −1, 4).
w
Solução:
 
2 −1 1
 
~ = det  1 0 −1  = 3 6= 0
(~u, ~v , w)
 
 
2 −1 4

Portanto, os vectores não são coplanares.

Exemplo 5.49. Qual deve ser o valor de m para que os vectores ~u = (2, m, 0), ~v =
(1, −1, 2) e w
~ = (−1, 3, −1) sejam coplanares.

Exemplo 5.50. Verificar se os pontos A = (1, 2, 4), B = (−1, 0, 2), C = (0, 2, 2) e D =


(−2, 1, −3) pertencem ou estão no mesmo plano.
65
5.9 A Recta e o Plano

5.9.1 Equações da Recta

Consideremos um ponto A(x1 , y1 , z1 ) e um vector não nulo ~v = (a, b, c). So existe uma
recta r que passa por A e tem a direcção de ~v .
−→
Definição 5.51. Um pontp P (x, y, z) pertence a r se, e somente se, o vector AP é paralelo
a ~v , isto é,
−→
AP = t~v , para algum real t. (5.6)

De (5.6), vem P − A = t~v ou

Figura 5.17: Figura

P = A + t~v (5.7)

ou, em coordenadas

(x, y, z) = (x1 , y1 , z1 ) + t(a, b, c) (5.8)

Qualquer uma das equações (5.7) ou (5.8) é denominada equação vectorial da recta r. O
vector ~v é chamado vector director da recta r e t é denominado parâmetro

Exemplo 5.52. Determine a equação vectorial da recta r que passa pelo ponto A(3, 0, −5)
e que tem a direcção do vector ~v = 2~i + 2~j − ~k.
Solução: Seja P (x, y, z) um ponto genérico dessa recta, tem-se

P = A + t~v

isto é,
(x, y, z) = (3, 0, −5) + t(2, 2, −1).

Quando t varia de −∞ a + ∞, P descreve a recta r.


66
Da equação vectorial da recta r

(x, y, z) = (x1 , y1 , z1 ) + t(a, b, c)

ou ainda
(x, y, z) = (x1 + at, y1 + bt, z1 + ct)

e pela condição de igualdade, obtém-se





 x = x1 + at







y = y1 + bt (5.9)









 z = z + ct
1

As equações (5.9) são chamadas equações paramétricas da recta r.

Exemplo 5.53. Dados o ponto A(2, 3, −4) e o vector ~v = (1, −2, 3), pede-se:

1. Escrever as equações paramétricas da recta r que passa por A e tem direcção de ~v .

2. Encontrar o ponto B de r de parâmetro t = 1.

3. Determinar o ponto de r cuja abscissa é 4.

4. Verificar se os pontos D(4, −1, 2) e E(5, −4, 3) pertencem a r.

Das equações paramétricas

x = x1 + at y = y1 + bt z = z1 + ct

supondo abc 6= 0, vem

x − x1 y − y1 z − z1
t= t= t=
a b c

Como para cada ponto da recta corresponde um só valor para t, obtemos as igualdades

x − x1 y − y1 z − z1
= = (5.10)
a b c

As equações (5.10) são denominadas equações simétricas da recta que passa pelo ponto
A(x1 , y1 , z1 ) e tem a direcção do vector ~v = (a, b, c).
67
Exemplo 5.54. Achar as equações simétricas da recta que passa pelo ponto A(3, 0, −5)
e que tem a direcção do vector ~v = (2, 2, −1).

Nota 5.55. No caso, uma das coordenadas do vector ~v = (a, b, c) for igual à zero, por
exemplo b = 0, as equações simétricas da recta são:

x − x1 z − z1
= , y = y1 .
a c

Das equações simétricas da recta r

x − x1 y − y1 z − z1
= =
a b c

agora isolando as variáveis y, z e expressando estas variáveis em função de x, obtemos:

x − x1 y − y1 b b b
= =⇒ y − y1 = (x − x1 ) ⇐⇒ y = x − x1 + y1
a b a a a
b b
Fazendo =m e − x1 + y1 = n , obtemos
a a

y = mx + n (5.11)

Analogamente para

x − x1 z − z1
=
a c

temos

z = px + q (5.12)

As equações (5.11) e (5.12) são chamadas equações reduzidas da recta.

Exemplo 5.56. Estabelecer as equações reduzidas da recta r que passa pelos pontos
A(2, 1, −3) e B(4, 0, −2).

5.9.2 Equação de um Plano

Seja A(x1 , y1 , z1 ) um ponto pertencente a um plano π e ~n = (a, b, c), ~n 6= 0, um vector


normal (ortogonal) ao plano. Como ~n ⊥π, ~n é ortogonal a todo vector representado em
π.
68
Figura 5.18: Plano

−→
Definição 5.57. Um ponto P (x, y, z) pertence a π se, e somente se, o vector AP é
ortogonal a ~n, isto é,
~n. (P − A) = 0

ou

(a, b, c) = (x − x1 , y − y1 , z − z1 ) = 0 ⇐⇒ a(x − x1 ) + b(y − y1 ) + c(z − z1 ) = 0

ou ainda
ax + by + cz − ax1 − by1 − cz1 = 0.

Fazendo, −ax1 − by1 − cz1 = d, obtemos

ax + by + cz + d = 0

esta é a equação geral do plano π.

Exemplo 5.58. Obtenha uma equação geral do plano π que passa pelo ponto A(2, −1, 3)
e tem ~n = (3, 2, −4) como um vector normal.
Solução: Como ~n é normal a π, sua equação é do tipo

3x + 2y − 4z + d = 0

sendo A um ponto do plano, suas coordenadas devem verificar a equação, isto é,

3(2) + 2(−1) − 4(3) + d = 0 ⇐⇒ 6 − 2 − 12 + d = 0 =⇒ d = 8.

Logo, uma equação geral do plano π é

3x + 2y − 4z + 8 = 0.

Consideremos agora um ponto A(x0 , y0 , z0 ) pertencente a um plano π e v~1 =


(a1 , b1 , c1 ) e v~2 = (a2 , b2 , c2 ) dois vectores paralelos a π, porém, v~1 e v~2 não paralelos.
−→
Para todo ponto P do plano, os vectores AP , v~1 e v~2 são coplanares.
69
Definição 5.59. Um ponto P (x, y, z) pertence a π se, e somente se, existem números
α e β tais que
P − A = αv~1 + β v~2

ou
P = A + αv~1 + β v~2

ou, em coordenadas

(x, y, z) = (x0 , y0 , z0 ) + α(a1 , b1 , c1 ) + β(a2 , b2 , c2 ), α, β ∈ R (5.13)

Esta equação é denominada equação vectorial do plano π. Os vectores v~1 e v~2 são vectores
directores de π.

Da equação (5.13) obtém-se

(x, y, z) = (x0 + αa1 + βa2 , y0 + αb1 + βb2 , z0 + αc1 + βc2 )

pela condição de igualdade, vem





 x = x0 + αa1 + βa2







y = y0 + αb1 + βb2 (5.14)








α, β ∈ R

 z = z + αc + βc ,
0 1 2

Estas equações são chamadas equações paramétricas de π e α e β são variáveis auxiliares


denominadas parâmetros.

Nota 5.60. Sejam A(x1 , y1 , z1 ), B(x2 , y2 , z2 ) e C(x3 , y3 , z3 ) três pontos não colineares no
−→ −→
espaço. Podemos tomar AB, AC como dois vectores directores do plano π que passa por
três pontos A, B, C.

Exemplo 5.61. Seja o plano π que passa pelo ponto A(2, 2, −1) e é paralelo aos vectores
v~1 = (2, −3, 1) e v~2 = (−1, 5, −3). Obtenha:

1. Uma equação vectorial.

2. Um sistema de equações paramétricas.

3. Uma equação geral de π.


70
Solução: Equação vectorial:

(x, y, z) = (2, 2, −1) + α(2, −3, 1) + β(−1, 5, −3)

Equações paramétricas:



 x = 2 + 2α − β







y = 2 − 3α + 5β








 z = −1 + α − 3β,

α, β ∈ R

Equação geral: Como o vector


 
~i ~j ~k
 
v~1 × v~2 =  2 −3 1  = (4, 5, 7)
 
 
−1 5 −3

é simultaneamente ortogonal a v~1 e v~2 , ele é um vector normal ~n ao plano π. Então, uma
equação geral de π é da forma

4x + 5y + 7z + d = 0

e como A ∈ π tem-se

4(2) + 5(2) + 7(−1) + d = 0 =⇒ d = −11.

Portanto, uma equação geral do plano π é dada por

4x + 5y + 7z − 11 = 0.

Exemplo 5.62. Dado o plano π determinado pelos pontos A(1, −1, 2), B(2, 1, −3) e C(−1, −2, 6).
Obtenha:

1. Um sistema de equações paramétricas.

2. Uma equação geral de π.


71
5.10 Distâncias, areas e volumes

5.10.1 Distância de dois pontos

Dado dois pontos A(x1 , y1 , z1 ) e B(x2 , y2 , z2 ), a distância entre dois pontos A e B se calcula
pela fórmula
p
d(A, B) = (x2 − x1 )2 + (y2 − y1 )2 + (z2 − z1 )2 .

5.10.2 Distância de um ponto a uma recta

Dado o ponto P e a recta r, para calcular a distância d(P, r), podemos achar M , que é a
−−→
projecção ortogonal de P sobre r, e calcular |P M | que é a distância procurada.
O processo de achar d(P, r): Sejam A, B dois pontos quaisquer de r, A 6= B. A área
do triângulo ABP é
1 −→ −→
S4 = |AP × AB|
2
por outro lado, a área deste triângulo ABP é

1 −→
S4 = |AB|.h
2

onde h é a distância de P à recta r. Portanto,

1 −→ −→ 1 −→
|AP × AB| = |AB|.h
2 2

logo
−→ −→
|AP × AB|
d(P, r) = h = −→ .
|AB|
−→
Como A, B são dois pontos quaisquer, podemos vêr AB como vector director ~v da recta
r. Então,
−→
|AP × ~v |
d(P, r) = h =
|~v |
onde A é um certo ponto de r.

Exemplo 5.63. Calcular a distância do ponto P (1, 1, −1) à recta





 x−y = 1

r:


 x+y−z = 0

72
Solução: Comecemos por determinar as equações reduzidas da recta r, e tem-se
 


 y = x − 1 

 y = x−1
 
r: =⇒

 


 z = x+y  z = 2x − 1

equações reduzidas da recta r. Um vector director desta recta é ~v = (1, 1, 2) e um ponto


desta recta é A(0, −1, −1). Logo,
−→
|AP × ~v |
d(P, r) =
|~v |

~ ~ ~
i j k
−→ −→
Portanto, AP = P − A = (1, 2, 0) e AP × ~v = 1 2 0 = (4, −2, −1)



1 1 2
−→ p √ √ √
|AP × ~v | = 42 + (−2)2 + (−1)2 = 21 e |~v | = 1 + 1 + 4 = 6. Logo,
√ √
21 14
d(P, r) = √ = u.c
6 2

5.10.3 Distância de um ponto a um plano

Dado um ponto P0 (x0 , y0 , z0 ) e um plano π : ax + by + cz + d = 0. Sejam A o pé da


perpendicular conduzida por P0 sobre o plano π e P (x, y, z) um ponto qualquer desse
plano.
−−→
O vector ~n(a, b, c) é normal ao plano π e, por conseguinte, o vector AP0 tem a mesma
direcção de ~n. A distãncia d do ponto P0 ao plano π é:

Figura 5.19: Distãncia do ponto ao Plano

−−→
d(P0 , π) = |AP0 |.
−−→ −−→
Observando que o vector AP0 é a projecção do vector P P0 na direccção de ~n, de acordo
com a equação acima, vem:
−−→ −−→ ~n
d(P0 , π) = |AP0 | = |P P0 . |
|~n|
73
mas
−−→
P P0 = (x0 − x, y0 − y, z0 − z)

e
~n (a, b, c)
=√
|~n| a + b2 + c 2
2

logo,
(a, b, c) |ax0 + by0 + cz0 − ax − by − cz|
d(P0 , π) = |(x0 − x, y0 − y, z0 − z). √ |= √
a2 + b 2 + c 2 a2 + b 2 + c 2
Em virtude de P pertencer ao plano π, −ax − by − cz = d, e portanto
|ax0 + by0 + cz0 + d|
d(P0 , π) = √
a2 + b 2 + c 2
Observação 5.64. Se o ponto considerado for a origem O(0, 0, 0) do sistema, tem-se:
|d|
d(P0 , π) = √
a2 + b 2 + c 2
Exemplo 5.65. Calcule a distância do ponto P0 (−4, 2, 5) ao plano π : 2x+y +2z +8 = 0.
Solução: Neste caso, temos:
~v = (2, 1, 2) é um vector normal ao plano π, isto é a = 2, b = 1 e c = 2 e as coordenadas
do ponto P0 são, x0 = −4, y0 = 2 e z0 = 5. Portanto,
|2(−4) + 1(2) + 2(5) + 8| | − 8 + 2 + 10 + 8| 12
d(P0 , π) = √ = √ = = 4 u.c.
2 2
2 +1 +2 2 4+1+4 3
Definição 5.66. Dados dois planos π1 e π2 , paralelos, a distância d entre eles é a
distância de um ponto qualquer de um dos planos ao outro, isto é,

d(π1 , π2 ) = d(P0 , π2 ), com P0 ∈ π1

ou
d(π1 , π2 ) = d(P0 , π1 ), com P0 ∈ π2

Como se vê, a distância entre dois planos paralelos se reduz ao cálculo da distância de
um ponto a um plano.

Exemplo 5.67. Calcule a distância entre os planos π1 : 2x − 2y + z − 5 = 0 e π2 :


4x − 4y + 2z + 14 = 0.
Solução: Um ponto de π1 é P0 (0, 0, 5) e um vector normal a π2 é ~n = (4, −4, 2). Portanto,
|4(0) − 4(0) + 2(5) + 14| |10 + 14| 24
d(π1 , π2 ) = d(P0 , π2 ) = p = √ = = 4 u.c.
2 2
3 + (−4) + 2 2 36 6

74
Capı́tulo 6

Espaços vectorias

6.1 Definição e exemplos


O principal objetivo deste capı́tulo é levar o aluno a compreender o conceito de espaço
vetorial de um ponto de vista axiomático, isto é, o conceito abstrato de espaço vetorial
como objeto com uma estrutura algébrica especı́fica.

Definição 6.1. Um espaço vectorial sobre o corpo K (R ou C) é um conjunto não-vazio


V munido com duas operações:

+ : V × V −→ V

(u, v) 7−→ u + v

e multiplicação por escalar


. : K × V −→ V

(α, v) 7−→ αu

tal que as seguintes propriedades valem:

1. (u + v) + w = u + (v + w), para todos u, v, w ∈ V .

2. Existe 0 ∈ V tal que u + 0 = v, para todo u ∈ V .

3. Para cada u ∈ V , existe −u ∈ V tal que u + (−u) = 0.

4. v + u = u + v, para todos u, v ∈ V .

5. α(βu) = (αβ)u, para todos α, β ∈ K e u ∈ V .


75
6. (α + β)u = αu + βu, para todos α, β ∈ K e u ∈ V .

7. α(u + v) = αu + αv, para todos u, v ∈ V e α ∈ K.

8. 1.u = u, para todo u ∈ V .

Exemplo 6.2. Seja


V = Kn = {(x1 , . . . , xn ) : xi ∈ K}.

Se u = (x1 , . . . , xn ) e v = (y1 , . . . , yn ) ∈ V , então V , com as operações de adição

u + v = (x1 + y1 , . . . , xn + yn )

e multiplicação por escalar


αu = (αx1 , . . . , αxn )

é um espaço vectorial sobre K.

Exemplo 6.3. Seja V o conjunto de todas as matrizes m × n, isto é

V = {A : A ∈ Mm×n (K)}.

Se A = (aij ) e B = (bij ∈ V ), então V , com as operações de adição

A + B = (aij + bij )

e multiplicação por escalar


αA = (αaij )

é um espaço vectorial sobre K.

Exemplo 6.4. Seja

V = Pn (K) = {p : p = a0 + a1 x + . . . + an xn , ai ∈ K}.

o conjunto de polinómios com coeficientes em K e grau menor ou igual a n. Se p, q ∈ V ,


então V , com as operações de adição p + q dada por

(p + q)(x) = p(x) + q(x)

e multiplicação por escalar αp dada por

(αp)(x) = αp(x)

é um espaço vectorial sobre K.


76
Exemplo 6.5. Sejam S um conjunto não-vazio e

V = F(S, K) = {f : S −→ K : f é uma função}.

o conjunto de todas as funções de valores em K. Se f, g ∈ V , então V , com as operações


de adição f + g dada por
(f + g)(x) = f (x) + g(x)

e multiplicação por escalar αf dada por

(αf )(x) = αf (x)

é um espaço vectorial sobre K.

Tarefa. 

Proposição 6.6. Seja V um espaço vectorial sobre K. Então:

1. Existe um único vector nulo em V (elemento neutro).

2. Cada vector u ∈ V admite um único vector simétrico −u.

3. Existe um único x ∈ V tal que u + x = v, para todos u, v ∈ V .

4. α0 =, para todos α ∈ K e 0 ∈ V .

5. ou = 0, para todos 0 ∈ K e u ∈ V .

6. Se au =, então a = 0 ou u = 0 para todos a ∈ K e u ∈ V .

7. −u = (−1)u, para todo u ∈ V .

8. (−a)u = a(−u) = −(au), para todos a ∈ K e u ∈ V .

6.2 Subespaços Vectorias


Definição 6.7. Sejam V um espaço vectorial sobre K e W um subconjunto de V . Dizemos
que W é um subespaço (vectorial) de V se as seguintes condições são satisfeitas:

1. W 6= ∅.

2. u + v ∈ W , para todos u, v ∈ W .
77
3. αu ∈ W , para todo α ∈ K e u ∈ W .

Observação 6.8. 1. Qualquer subespaço W de V contém o vetor nulo 0, pois quando


α = 0, temos que
0 = 0u ∈ W.

2. Todo espaço vetorial V admite pelo menos dois subespaços, a saber {0} e V ,
chamados de subespaços triviais ou impróprios. Os demais subespaços de V são
chamados de subespaços não-triviais ou próprios.

Exemplo 6.9. Sejam V = Rn e

W = {(x1 , . . . , xn ) ∈ V : x1 = 0}

então W é um subespaço de V .

Demonstração. É claro que W 6= ∅, pois

0 = (0, . . . , 0) ∈ W.

Dados u, v ∈ W e α ∈ R temos que u = (0, x2 , . . . , xn ) e v = (0, y2 , . . . , yn )


logo,

u+v =

= (0, x2 , . . . , xn ) + (0, y2 , . . . , yn )

= (0 + 0, x2 + y2 , . . . , xn + yn )

= (0, x2 + y2 , . . . , xn + yn ) ∈ W

αu = (α0, αx2 , . . . , αxn ) = (0, αx2 , . . . , αxn ) ∈ W.

Portanto, W é um subespaço de V . 

Exemplo 6.10. Sejam V = Mn (R) e

W = {A ∈ V : AT = A}

o conjunto das matrizes simétricas. Então W é um subespaço de V .


78
Demonstração. W 6= ∅, pois
OT = O ∈ W.

Sejam A, B ∈ W e α ∈ R temos que

AT = A e B T = B.

Logo,
(A + B)T = AT + B T = A + B ∈ W

e
(αA)T = αAT = αA ∈ W.

Portanto, W é um subespaço de V . 

Exemplo 6.11. Sejam A ∈ Mm×n (R) uma matriz fixada, V = Mn×1 (R) e

W = {X ∈ V : AX = 0}

o conjunto solução do sistema homogêneo AX = 0. Mostre que W é um subespaço de V .

Demonstração. (Tarefa) 

Exemplo 6.12. Sejam V = F (R, R) o espaço vectorial de todas as funções reais e

W = {f ∈ V : f (−x) = f (x), ∀x ∈ R}

o conjunto das funções pares. Mostre que W é um subespaço de V .

Demonstração. (Tarefa) 

Exemplo 6.13. Sejam V = Pn (R) com n ≥ 2 o espaço de todos os polinómios de grau


maior ou igual a 2 com coeficientes reais e

W = {p ∈ V : p(1) = p(7) = 0}

. Mostre que W é um subespaço de V .

Demonstração. (Tarefa) 

Exemplo 6.14. Sejam V = Rn e

W = {(x1 , . . . , xn ) ∈ V : x2 = x1 + 1}.

Mostre que W , assim definido, não é um subespaço de V .


79
Exemplo 6.15. Sejam V = R2 e

W = {(x1 , x2 ) ∈ V : x2 = |x1 |}.

Então W não é um subespaço de V , pois u = (−1, 1) ∈ W e v = (2, 2) ∈ W mas

u + v = (1, 3) ∈
/ W.

Nota 6.16. 0 = (0, 0) ∈ W . Portanto, 0 ∈ W é condição necessária mas não suficiente


para que W seja um subespaço de V .

Teorema 6.17 (Intersecção de subespaços). Seja V um espaço vetorial sobre K (real ou


complexo). Se W1 e W2 são subespaços de V , então W1 ∩ W2 é um subespaço de V .

Demonstração. É evidente que W1 ∩ W2 6= ∅, pois

0 ∈ W1 e 0 ∈ W2 =⇒ 0 ∈ W1 ∩ W2

Sejam u, v ∈ W1 ∩ W2 e α ∈ R. Como u, ∈ W1 ∩ W2 temos que u, v ∈ W1 e u, v ∈ W2 .


Assim,
u + v ∈ W1 , u + v ∈ W2

e
αu ∈ W1 , αu ∈ W2

Logo,
u + v ∈ W1 ∩ W2 e αu ∈ W1 ∩ W2

Portanto, W1 ∩ W2 é um subespaço de V . 

Exemplo 6.18. Sejam V = R3 ,

W1 = {(x, y, z) ∈ V : x = 0} e W2 = {(x, y, z) ∈ V : y = 0}.

Determine W1 ∩ W2 .
Solução: Sejam u = (x, y, z) ∈ W1 ∩ W2 , temos que u = (x, y, z) ∈ W1 e u = (x, y, z) ∈
W2 . Logo, x = 0 e y = 0. Portanto, u = (x, y, z) ∈ W1 ∩W2 se, e somente se, x = y = 0
e z qualquer. Assim,

W1 ∩ W2 = {(x, y, z) ∈ V : x = y = 0}.
80
Exemplo 6.19. Sejam V = P3 (R),

W1 = {p ∈ P3 : p0 (1) = 0} e W2 = {p ∈ P3 : p00 (1) = 0}.

Determine W1 ∩ W2 .
Solução: Como p ∈ P3 , então p = a + bx + cx2 + dx3 com a, b, c, d ∈ R. Se p ∈ W1
então, p0 (1) = 0 =⇒ p0 (1) = b + 2cx + 3dx2 = b + 2c + 3d = 0. Analogamente, se p ∈ W2
então, p00 (1) = 0 =⇒ p00 (1) = 2cx + 6dx = 2c + +6d = 0.
Para que p ∈ W1 ∩ W2 , devemos resolver o sistema homogêneo:
 


 b + 2c + 3d = 0 

 b = 3d
 
⇐⇒

 


 2c + 6d = 0  c = −3d

Portanto,
W1 ∩ W2 = {p ∈ P3 : p = a + 3dx − 3dx2 + dx3 }.

Exemplo 6.20. Sejam V = R3 ,

W1 = {(x, y, z) ∈ V : x + y + z = 0} e W2 = {(x, y, z) ∈ V : x + y − z = 0}.

Determine W1 ∩ W2 .
Solução: Para encontrar W1 ∩ W2 devemos resolver o sistema homogêneo



 x+y+z = 0
 n
⇐⇒ x = −y


 x+y−z = 0

Portanto,
W1 ∩ W2 = {(x, y, z) ∈ V : y = −x e z = 0}.

Exemplo 6.21. Sejam V = M2 (R),


   
a b a 0
W1 = {  ∈ V : a, b, c ∈ R} e W2 = {  ∈ V : a, b ∈ R}.
c 0 0 d

Determine W1 ∩ W2 .
Solução: Sejam  
a b
A=  ∈ W1 ∩ W2
c 0
81
temos que A ∈ W1 e A ∈ W2 . Logo, d = 0, b = 0 e c = 0. Portanto,
 
a b
A=  ∈ W1 ∩ W2
c 0

se, e somente se, b = c = d = 0 e a qualquer. Assim,


 
a 0
W1 ∩ W2 = {  ∈ V : a ∈ R}.
0 0

Pergunta? W1 ∪ W2 é um subespaço de V ? A resposta a esta pergunta em geral


é não. De facto sejam V = R2 e

W1 = {(x, y) ∈ V : y = 0} e W2 = {(x, y) ∈ V : x = 0}

subespaços de V . Então, W1 ∪ W2 não é um subespaço de V , pois

u = (x, 0) = x(1, 0) ∈ W1 ∪ W2 e v = (0, y) = y(0, 1) ∈ W1 ∪ W2

mas
u + v = (1, 0) + (0, 1) = (1, 1) ∈
/ W1 ∪ W2

Teorema 6.22 (Soma de subespaços). Seja V um espaço vetorial sobre K (real ou com-
plexo). Se W1 e W2 são subespaços de V , então o conjunto

W1 + W2 = {u1 + u2 : u1 ∈ W1 e u2 ∈ W2 }

é um subespaço de V .

Demonstração. (Tarefa) 

Nota 6.23. W1 ∪ W2 ⊆ W1 + W2 .

Exemplo 6.24. Sejam V = R3 ,

W1 = {(x, y, z) ∈ V : x = 0} e W2 = {(x, y, z) ∈ V : y = z = 0}.

Determine W1 ∩ W2 e W1 + W2
Solução: Sejam u = (x, y, z) ∈ W1 ∩ W2 , temos que u = (x, y, z) ∈ W1 e u = (x, y, z) ∈
W2 . Logo, x = 0 e y = z = 0. Portanto, u = (x, y, z) ∈ W1 ∩ W2 se, e somente se,
x = y = z = 0. Assim,
W1 ∩ W2 = {(0, 0, 0)}.
82
Agora, dados u ∈ W1 + W2 , existem u1 = (0, y, z) ∈ W1 e u2 = (x, 0, 0) ∈ W2 com
x, y, z ∈ R tais que
u = u1 + u2 = (x, y, z).

Portanto,
W1 + W2 = V.

Definição 6.25 (Soma direta). Sejam V um espaço vectorial sobre o corpo K (real ou
complexo) e W1 e W2 subespaços de V . Dizemos que V é decomposto em soma direta de
W1 e W2 , denotado por W1 ⊕ W2 , se as seguintes condições são satisfeitas:

1. V = W1 + W2 .

2. W1 ∩ W2 = {0}.

6.3 Combinação linear


Agora vamos estudar, uma das caracterı́sticas mais importantes de um espaço vectorial,
que é a obtenção de novos vectores a partir de vectores dados.

Definição 6.26. Seja V um espaço vectorial sobre o corpo K (real ou complexo). Um


vector u em V é combinação linear dos vectores u1 , u2 , . . . , un em V se existirem escalares
α1 , α2 , . . . , αn ∈ R tais que

u = α1 u1 + α2 u2 + . . . + αn un .

Exemplo 6.27. Verifique se o vector v = (3, 2, 1) pode ser escrito como uma combinação
linear dos vectores v1 = (1, 1, 1), v2 = (1, −1, 1), e v3 = (1, 1, −1).

Teorema 6.28. Seja V um espaço vectorial sobre o corpo K (real ou complexo) e u1 , u2 , . . . , un


vectores fixados em V . Então o conjunto
n
X
W = α1 u1 + α2 u2 + . . . + αn un = αi ui : αi ∈ R
i=1

é um subespaço de V .

Demonstração. É evidente que W 6= ∅, pois

0 = 0u1 + 0u2 + . . . + 0un ∈ W.


83
Sejam u, v ∈ W e α ∈ R. Como u, v ∈ W temos que existem escalares α1 , α2 , . . . , αn , λ1 , λ2 , . . . , λn
tais que

u = α1 u1 + α2 u2 + . . . + αn un e v = λ1 u1 + λ2 u2 + . . . + λn un

Logo,

u+v =

= (α1 u1 + α2 u2 + . . . + αn un ) + (λ1 u1 + λ2 u2 + . . . + λn un )

= (α1 + λ1 )u1 + (α2 + λ2 )u2 + . . . + (αn + λn )un ∈ W

αu = α(α1 u1 + α2 u2 + . . . + αn un ) = (αα1 )u1 + (αα2 )u2 + . . . + (ααn )un ∈ W

Portanto, W é um subespaço de V . 

O subespaço
n
X
W = α1 u1 + α2 u2 + . . . + αn un = αi ui : αi ∈ R
i=1

de V é chamado o subespaço gerado por e os vectores u1 , u2 , . . . , un são chamados gera-


dores do subespaço W . Mais geralmente, seja β um subconjunto não vazio de V . Então
n
X
W = αi ui : αi ∈ R e ui ∈ β
i=1

é o subespaço de V gerado por β, onde β é o conjunto de geradores de V , e será denotado


por
W = [β]

Quando β = {u1 , . . . , un }, denotamos [β] por [u1 , . . . , un ].

Exemplo 6.29. Os vectores i = (1, 0) e j = (0, 1) geram o espaço vectorial R2 , pois


qualquer (x, y) ∈ R2 é combinação linear de i e j, isto é,

(x, y) = xi + yj = x(1, 0) + y(0, 1) = (x, 0) + (0, y) = (x, y).

Portanto,
[i, j] = R2 .
84
Exemplo 6.30.

Observação 6.31. Usando os geradores, podemos obter uma caracterização da soma de


dois subespaços. Sejam W1 e W2 dois subespaços de V . Se W1 = [u1 , u2 , . . . , un ] e
W2 = [v1 , v2 , . . . , vn ] então

W1 + W2 = [u1 , u2 , . . . , un , v1 , v2 , . . . , vn ].

Exemplo 6.32. Verifique que V = R3 é a soma directa de

W1 = {(x, y, z) ∈ V : x + y + z = 0}

e
W2 = {(x, y, z) ∈ V : x = y = 0}

Solução: Primeiramente, determinemos os geradores dos subespaços W1 e W2 . Seja


u = (x, y, z) ∈ W1 , então x + y + z = 0 =⇒ z = −x − y, logo u = (x, y, −x − y) =⇒ u =
[(1, 0, −1), (0, 1, −1)]. Analogamente, se v = (x, y, z) ∈ W2 , então x = 0 e y = 0, logo
v = (0, 0, z) =⇒ v = [(0, 0, 1)]. Portanto,

u + v = (x, y, −x − y) + (0, 0, z) = (x, y, −x − y + z) = V.

Assim,
W1 + W2 = [(1, 0, −1), (0, 1, −1), (0, 0, 1)] = R3 .

Agora vamos mostrar que W1 ∩ W2 = {0}. Seja (x, y, z) ∈ W1 ∩ W2 , temos que





 x+y+z = 0







x = 0 =⇒ z = 0









 y = 0

Portanto, (x, y, z) = (0, 0, 0) =⇒ W1 ⊕ W2 = R3 .

Exemplo 6.33. Encontre os geradores do subespaço W1 + W2 onde

W1 = {(x, y, z) ∈ R3 : x + y + z = 0}

e
W2 = {(x, y, z) ∈ R3 : x + y = 0 e x − z = 0}.
85
Solução: Seja u = (x, y, z) ∈ W1 , então x + y + z = 0 =⇒ z = −x − y, logo u =
(x, y, −x − y) =⇒ W1 = [(1, 0, −1), (0, 1, −1)]. Analogamente, se v = (x, y, z) ∈ W2 ,
então x + y = 0 e x − z = 0, logo v = (x, −x, x) =⇒ W2 = [(1, −1, 1)]. Portanto,

W1 + W2 = [(1, 0, −1), (0, 1, −1), (1, −1, 1)].

6.4 Dependência e independência linear

Definição 6.34. Sejam V um espaço vectorial sobre corpo K (real ou complexo) e u1 , u2 , . . . , un ∈


V . Dizemos que o conjunto {u1 , u2 , . . . , un } é linearmente independente (LI), se a
equação
α1 u1 + α2 u2 + . . . + αn un = 0

implica que
α1 = α2 = . . . = αn = 0.

No caso, em que exista algum αi 6= 0 dizemos que {u1 , u2 , . . . , un } é linearmente depen-


dente (LD).

Exemplo 6.35. Considere o espaço vectorial R3 e os conjuntos de vectores:

β = {(1, 2, 3), (1, 1, 1), (1, 0, 0)}

ψ = {(1, 2, 3), (1, 1, 1), (1, 0, 0)}

Os conjuntos β e ψ são (LI) ou (LD).

Mais geralmente, sejam V um espaço vectorial sobre K e β um subconjunto não-


vazio de V . Dizemos que β é LI se para quaisquer vectores distintos u1 , u2 , . . . , un ∈ β,
temos que
α1 u1 + α2 u2 + . . . + αn un = 0 =⇒ α1 = α2 = . . . = αn = 0.

isto é, todo subconjunto finito de β é LI. Caso contrário, β é LD.

Teorema 6.36. Sejam V um espaço vectorial sobre corpo K (real ou complexo) e u1 , u2 , . . . , un ∈


V . O conjunto {u1 , u2 , . . . , un } é linearmente dependente (LD) se, e somente se, um dos
desses vectores for combinação linear dos outros.
86
Corolário 6.37. Sejam V um espaço vectorial sobre corpo K (real ou complexo) e u1 , u2 , . . . , un ∈
V com pelo menos dois vectores não-nulos. O conjunto {u1 , u2 , . . . , un } é linearmente
dependente (LD) se, e somente se, um dos desses vectores for combinação linear dos
precedentes.

6.5 Bases e dimensão

6.5.1 Bases

Definição 6.38. Sejam V um espaço vectorial sobre corpo K (real ou complexo). Um


conjunto β = {u1 , u2 , . . . , un } de vectores em V é uma base de V se as seguintes condições
são satisfeitas:

1. β é LI.

2. β gera V , isto é, V = [β] = [u1 , u2 , . . . , un ].

Observação 6.39. Todo espaço vectorial V 6= {0} possui uma base.

Exemplo 6.40. Seja V = R3 . É fácil verificar que o conjunto

{e1 , e2 , e3 }

é uma base finita de V , a qual é chamada de base canônica de V .

Exemplo 6.41. Seja V = Pn (R) o espaço vectorial de todos os polinómios com coefici-
entes reais e
β = {1, x, x2 , x3 , . . .}.

Então β é uma base infinita de V , a qual é chamada de base canônica de V .

Exemplo 6.42. Seja V = R2 e β = {(1, 1), (−1, 0)}. O conjunto β é uma base de V ?

Exemplo 6.43. O conjunto β = {(0, 1), (0, 2)} não é uma base de R2 , pois é um conjunto
LD.

Proposição 6.44. Todo conjunto LI de um espaço vectorial V é base do subespaço por


ele gerado.
87
Exemplo 6.45. O conjunto β = {(1, 2, 1), (−1, −3, 0)} ⊂ R3 é LI, e gera o subespaço

W = {(x, y, z) ∈ R3 : 3x − y − z = 0}.

Então β é uma base de W , pois β é LI e gera W .

Teorema 6.46. Sejam u1 , u2 , . . . , un vectores não nulos que geram um espaço vectoial
V . Então, dentre estes vectores podemos extrair uma base de V .

Proposição 6.47. Sejam V um espaço vectorial gerado por um conjunto finito de vectores
u1 , u2 , . . . , un . Então qualquer conjunto com mais de n vectores é necessariamente LD
(e, portanto, qualquer conjunto LI tem no máximo n vectores).

6.5.2 Dimensão

Definição 6.48. Sejam V um espaço vectorial sobre o corpo K (real ou complexo) e


β = {u1 , u2 , . . . , un } uma base de V . Diz-se dimensão de V e denota-se por dim V , ao
número de vectores linearmente independente de uma base qualquer de V .

Definição 6.49. Seja V um espaço vectorial sobre o corpo K (real ou complexo).

1. Se V possui uma base com n vectores, então V tem dimensão n e denota-se dim V =
n.

2. Se V não possui uma base, ou seja a base é β = ∅, então dim V = 0.

3. Se V possui uma base com infinitos vectores, então dim V é infinita e denota-se por
dim V = ∞.

Exemplo 6.50. Consideremos os seguintes espaços, e determinemos a sua dimensão:

1. dim R2 = 2, pois toda base de R2 tem 2 vectores.

2. dim Mm×n (K) = m × n.

3. dim Pn (K) = n + 1.

Proposição 6.51. Sejam V um espaço vectorial tal que dim V = n. Se W é um subespaço


de V então dim W ≤ n. No caso de dim W = n, tem-se W = V .

Exemplo 6.52. Consideremos os seguintes subespaços de W ⊂ R3 , e tem-se:


88
1. Se dim W = 0, então W = {0} é a origem.

2. Se dim W = 1, então W é a recta que passa pela origem.

3. Se dim W = 2, então W é um plano que passa pela origem.

4. Se dim W = 3, então W = R3 .

Observação 6.53. O conjunto β é base de um espaço vectorial se β é LI e gera V . No


entanto, se soubermos que dim V = n, para obtermos uma base de V basta que apenas
uma das condições de base esteja satisfeita.

Exemplo 6.54. O conjunto β = {(2, 1); (1, 3)} é uma base do R2 . De fato, como dim R2 =
2 e os dois vetores dados são LI (pois nenhum vetor é múltiplo escalar do outro), eles
formam uma base do R2 .

Exemplo 6.55. Seja


W = {p ∈ P3 : p00 (2) + p0 (1) = 0}

um subespaço vectorial de P3 . Encontre uma base e a dimensão de W .


Solução: Comecemos por determinar os geradores de W . Seja p ∈ W , então

p = ax3 + bx2 + cx + d ∈ W

e temos que p00 (2) + p0 (1) = 0. Então





 3a + 2b + c = 0

=⇒ c = −15a − 4b



 12a + 2b = 0

Portanto, p ∈ W é da forma

p(x) = a(x3 − 15x) + b(x2 − 4x) + d.

Logo temos que os geradores

W = [x3 − 15x, x2 − 4x, 1].

Como esse conjunto é LI, temos que uma base de W é

β = {x3 − 15x, x2 − 4x, 1}

e dim W = 3.
89
Teorema 6.56. Seja V um espaço vectorial de dimensão finita. Se W1 e W2 são su-
bespaços vectorias de V então

dim (W1 + W2 ) = dim W1 + dim W2 − dim (W1 ∩ W2 ).

Definição 6.57. Seja V um espaço vectorial sobre o corpo K (real ou complexo) e β =


{u1 , u2 , . . . , un } um subconjunto qualquer de vectores de V . A caracterı́stica de β é
definido por
r(β) = dim [β].

Exemplo 6.58. Sejam V = R4 e

W1 = {(x, y, z, t) ∈ V : y + z + t = 0}

e
W2 = {(x, y, z, t) ∈ V : x + y = 0 e z − 2t = 0}

subespaços de V .

1. Determine uma base de W1 + W2 .

2. dim (W1 + W2 ).

3. V é a soma direta de W1 e W2 .

Solução:

W1 = {(x, y, z, t) ∈ V : y + z + t = 0} =

= {(x, y, z, −y − z) ∈ V : x, y, z ∈ R}

= {(x, 0, 0, 0) + (0, y, 0, −y) + (0, 0, z, −z) : x, y, z ∈ R}

= [(1, 0, 0, 0), (0, 1, 0, −1), (0, 0, 1, −1)]

e dim W1 = 3. Analogamente, mostra-se que

W2 = [(1, −1, 0, 0), (0, 0, 2, 1)]

e dim W2 = 2. Agora para determinar uma base de W1 + W2 , formamos a seguinte matriz


e a seguir escalonamos, isto é, uma matriz cujos elementos são os geradore dos subespaços
90
W1 e W2 , ou seja,    
1 0 0 0 1 0 0 0
   
 0 1 0 −1   0 1 0 −1 
   
   
v
1 −1   0 0 1 −1 
   
 0 0
   
 1 −1
   
0 0   0 0 0 1 
   
0 0 2 1 0 0 0 0
cuja a última linha se anula, por meio de operações elementares efectuadas na matriz.
Portanto, o conjunto

β = {(1, 0, 0, 0), (0, 1, 0, −1), (0, 0, 1, −1), (0, 0, 0, 1)}

é uma base de W1 + W2 e dim (W1 + W2 ) = 4. Assim, V = W1 + W2 = R4 , pois


W1 + W2 ⊆ V . Como

dim (W1 ∩ W2 ) = dim W1 + dim W2 − dim (W1 + W2 ) = 3 + 2 − 4 = 1

temos que V não é soma direta de W1 e W2 . Agora, vamos determinar uma base de
W1 ∩ W2 resolvendo o sistema homogêneo
 


 y+z+t = 0 

 x = 3t

 


 

=⇒


 x+y = 0 

 y = −3t

 

 z − 2t

= 0

 z = 2t

Assim,
W1 ∩ W2 = [(3, −3, 2, 1)].

Exemplo 6.59. Sejam V = R3 ,

W1 = [(1, 0, −1), (0, 1, 2)] e W2 = [(1, 2, 3), (1, −1, 1)]

subespaços de V .

1. Determine uma base de W1 ∩ W2 e a dim (W1 ∩ W2 ).

2. V é a soma direta de W1 e W2 .

Solução: É evidente que dim W1 = 2 e dim W2 = 2. Agora, para determinar uma base
para W1 ∩ W2 , devemos primeiro determinar os vectores u = (x, y, z) ∈ R3 que estão nos
91
subespaços W1 e W2 , isto é, escalonar as matrizes
   
1 0 x 1 1 x
   
 0 1 y  e  2 −1 y
   

   
−1 2 z 3 1 z

Assim,    
1 0 x 1 0 x
   
 0 1 y v 0 1
   
y 
   
−1 2 z 0 0 x − 2y + z
que tera solução se, e somente se, x − 2y + z = 0. Analogamente,
   
x+y
1 1 x 1 0 3
   
2x−y
 2 −1 y v 0 1
   
3

   
3 1 z 0 0 −5x−2y+3z
3

que tera solução se, e somente se, −5x − 2y + 3z = 0.


Logo,

W1 = {(x, y, z) ∈ V : x − 2y + z = 0} e W2 = {(x, y, z) ∈ V : −5x − 2y + 3z = 0}.

Finalmente, para determinar uma base para W1 ∩ W2 , basta resolver o sistema


 


 x − 2y + z = 0 

 x = 2y
 
=⇒

 

 −5 − 2y + 3z = 0
 
 z = 0

Assim, W1 ∩ W2 = [(2, 1, 0)] e dim (W1 ∩ W2 ) = 1. Portanto, V , não é soma direta de W1


e W2 , mas V = W1 + W2 , pois

dim (W1 + W2 ) = 2 + 2 − 1 = 3 = dim V e W1 + W2 ⊆ V.

6.6 Coordenadas
Definição 6.60. Sejam V um espaço vectorial gerado e β uma base de V formada pelos
vectores u1 , u2 , . . . , un ∈ V sendo

v = α1 u1 + α2 u2 + . . . + αn un .
92
Os coeficientes α1 , α2 , . . . , αn são chamados componentes ou coordenadas de v em relação
à base β e representa-se por  
α1
 
 
 α2 
[v]β = 
 ..
.

 . 
 
αn

Exemplo 6.61. Mostre que os vectores (1, 1, 1), (0, 1, 1) e (0, 0, 1) formam uma base
de R3 . Encontre as coordenadas de (1, 2, 0) ∈ R3 com relação à base β formada pelos
vectores acima.

Exemplo 6.62. Sejam V = R3 e β = {(1, 0, −1), (1, 1, 1), (1, 0, 0)} uma base ordenada
de V . Determine [(a, b, c)]β .

Exemplo 6.63. Sejam V = P2 (R). Mostre que β = {1, 1 + x, (1 + x)2 } é uma base
ordenada de V e determine [a0 + a1 x + a2 x2 ]β .

93
94
Capı́tulo 7

Transformações lineares

Neste capı́tulo vamos estudar um tipo especial de funções, as quais são chamadas de
transformações lineares e que é um dos objetos fundamentais da álgebra linear.

7.1 Definições e exemplos


Definição 7.1. Sejam V e W dois espaços vectorias sobre R. Uma transformação linear
(ou aplicação linear) é uma função de V em W , T : V → W , que satisfaz as seguintes
condições:

1. (Aditividade): Qualquer que sejam u e v em V ,

T (u + v) = T (u) + T (v).

2. (Homogeneidade): Qualquer que sejam α ∈ R e u ∈ V ,

T (αu) = αT (u).

Observação 7.2. Intituivamente, uma transformação linear é uma função que preserva
as operações dos espaços vectorias.

1. Se T : V → W é uma transformação linear, então T (0) = 0, pois

T (0) = T (0.u) = 0.T (u) = 0.

2. Se T : V → W é uma transformação linear e V = W , dizemos que T é um operador


linear sobre V .
95
Exemplo 7.3. Sejam V = Mn×1 (R), W = Mm×1 espaços vectoriais sobre R e A ∈
Mm×n (R) uma matriz fixada. A função TA : V → W definida por

TA (X) = AX,

para todo X ∈ V , é uma transformação linear, pois

TA (X + Y ) = A(X + Y ) = AX + AY = TA (X) + TA (Y ), ∀X, Y ∈ V.

e
TA (αX) = α(AX) = αTA (X), ∀α ∈ R e X ∈ V.

Exemplo 7.4. Sejam V = W = Pn (R) o espaço vectorial de todos os polinómios com


coeficientes reais e grau menor ou igual a n. A função D : V → V definida por

(Dp)(x) = p0 (x), ∀p ∈ V,

é uma transformação linear.

Exemplo 7.5. Sejam V = Pn o espaço vectorial de todos os polinómios com coeficientes


reais e grau menor ou igual a n e W = Pn+1 o espaço vectorial de todos os polinómios
com coeficientes reais e grau menor ou igual a n + 1. A função T : Pn → Pn+1 definida
por
T (p(x)) = xp(x), ∀p ∈ V

é uma transformação linear.

Teorema 7.6. Sejam V e W dois espaços vectoriais sobre R e β = {u1 , u2 , . . . , un } uma


base de V . Sejam w1 , w2 , . . . , wn elementos arbitrários de W . Então existe uma única
transformação linear T : V → W tal que

T (ui ) = wi , i = 1, . . . , n.

Demonstração. Seja β = {u1 , u2 , . . . , un } uma base de V temos que cada vector u ∈ V


pode ser escrito de modo único sob a forma

u = α1 u1 + α2 u2 + . . . + αn un .

Então definindo T : V → W por

T (ui ) = wi , i = 1, . . . , n.
96
e pela linearidade de T tem-se que

T (u) = T (α1 u1 + α2 u2 + . . . + αn un )

= α1 T (u1 ) + α2 T (u2 ) + . . . + αn T (un )

= α1 w 1 + α2 w 2 + . . . + αn w n

onde os α1 , α2 , . . . , αn devem ser determinados. 

Corolário 7.7. Sejam V e W dois espaços vectoriais sobre R e β = {ui }i∈I uma base de V
e {wi }i∈I uma famı́lia arbitrário de vectores em W . Então existe uma única transformação
linear T : V → W tal que
T (ui ) = wi , ∀i ∈ I.

Exemplo 7.8. Determine a transformação linear T : R2 → R3 tal que T (1, 2) =


(3, 2, 1) e T (3, 4) = (6, 5, 4)

Exemplo 7.9. Qual a transformação linear T : R2 → R3 tal que T (1, 0) = (2, −1, 0) e T (1, 1) =
(0, 0, 1)

7.2 Núcleo e Imagem


Definição 7.10 (Imagem). Sejam V, W espaços vectorias sobre R e T : V → W uma
transformação linear. A imagem de T é o conjunto de vectores w ∈ W tais que existe um
vector u ∈ V , que satisfaz T (u) = w, ou seja

Im(T ) = {w ∈ W : T (u) = w}

Figura 7.1: Imagem de uma Transformação linear

97
Definição 7.11 (Núcleo). Sejam V, W espaços vectorias sobre R e T : V → W uma
transformação linear. O conjunto de todos os vectores u ∈ V tais que T (u) = {0} é
chamado núcleo de T , sendo denotado por ker(T ), isto é,

ker(T ) = {u ∈ V : T (u) = {0}}

Figura 7.2: Núcleo de uma Transformação linear

Exemplo 7.12. Determinar a imagem de uma transformação linear T : R2 → R3 dada


por
T (x, y) = (x + y, x − y, x − 2y).

Solução: Queremos encontrar os vectores w = (a, b, c) ∈ R3 para os quais existe u =


(x, y) ∈ R2 tal que
T (u) = w

isto é, queremos que a equação

T (x, y) = (x + y, x − y, x − 2y) = (a, b, c)

tenha solução. Isso equivale a analisar as condições para que o sistema





 x+y = a







x−y = b








 x − 2y = c

admita solução. Escalonando, obtemos o seguinte sistema equivalente:





 x+y = a







a−b
y = 2








= a−3b+2c

 0
2
c
98
que admite solução se, e somente se, a − 3b + 2c = 0. Logo,

Im(T ) = {(a, b, c) ∈ R3 : a − 3b + 2c = 0}

Exemplo 7.13. Determinar a imagem de uma transformação linear T : R4 → R3 dada


por
T (x, y, z, t) = (2x, x + 2y − z, x − y + z + t).

Exemplo 7.14. Determinar o núcleo de uma transformação linear T : R3 → R3 dada


por
T (x, y, z) = (x, 2y, 0).

Teorema 7.15. Sejam V, W espaços vectorias sobre R e T : V → W uma transformação


linear. Então a Im(T ) é um subespaço de W e ker(T ) é um subespaço vectorial de V .

Demonstração. É evidente que Im(T ) 6= ∅, pois 0 ∈ Im(T ). Sejam w1 , w2 ∈ Im(T ),


então existem vectores u1 , u2 ∈ V tais que

T (u1 ) = w1 e T (u2 ) = w2 .

De facto, temos que


T (u1 + u2 ) = T (u1 ) + T (u2 ) = w1 + w2

então o vector (w1 + w2 ) pertencem a imagem de T , pois é a imagem do vector (u1 + u2 ).


Finalmente, sejam α ∈ R e w ∈ Im(T ), isto é, existe u ∈ V tal que T (u) = w, então

T (αu) = αT (u) = αw ∈ Im(T ).

Analogamente, para o núcleo de T . Primeiramente, vemos que 0 ∈ ker(T ), uma vez que
T (0) = 0 ∈ W . Portanto, ker(T ) 6= ∅.
Sejam u1 , u2 vectores no núcleo de T , isto é,

T (u1 ) = 0 e T (u2 ) = 0

então,
T (u1 + u2 ) = T (u1 ) + T (u2 ) = 0 + 0 = 0.

Logo, (u1 + u2 ) ∈ ker(T ). Portanto, o núcleo é fechado para a soma.


Sejam α ∈ R e u ∈ ker(T ), isto é, T (u) = 0, então

T (αu) = αT (u) = α.0 = 0.

Logo, (αu) ∈ kert(T ), o que mostra que o núcleo é fechado para o produto por escalar. 
99
Definição 7.16. Sejam V, W espaços vectorias sobre R e T : V → W uma transformação
linear. Dizemos que T é injectiva se

T (u) = T (v) =⇒ u = v, ∀u, v ∈ V

ou, equivalentemente,

T (u) 6= T (v) =⇒ u 6= v, ∀u, v ∈ V

Dizemos que T é sobrejectiva se dado w ∈ W , existe u ∈ V tal que

T (u) = w,

isto é, Im(T ) = W . Finalmente, dizemos que T é bijectiva se T for ingectiva e sobrejectiva
ao mesmo tempo. Neste caso,

w = T (u) ⇐⇒ u = T −1 (w).

Teorema 7.17. Sejam V, W espaços vectorias sobre R e T : V → W uma transformação


linear. Então, ker(T ) = {0}, se e somente se, T é injectiva.

Definição 7.18. Sejam V, W espaços vectorias sobre R e T : V → W uma transformação


linear. Dizemos que T é não-singular se, e somente se, ker(T ) = {0}. Caso contrário,
dizemos que T é singular.

Teorema 7.19. Sejam V, W espaços vectorias sobre R e T : V → W uma transformação


linear. Então T é não-singular se, e somente se, T é injectiva.

Demonstração. Suponhamos que T seja não-singular, isto é, ker(T ) = {0}. Dados u, v ∈
V , se T (u) = T (v), então

T (u − v) = T (u) − T (v) = T (u) − T (u) = 0

Logo, u − v ∈ ker(T ) = {0}. Portanto, u = v, ou seja, T é injectiva. Reciprocamente,


suponhamos que T seja injectiva e dados u ∈ ker(T ), temos que T (u) = 0. Como
T (u) = 0, temos que
T (u) = 0 = T (0) =⇒ u = 0.

Assim, ker(T ) = {0}. Portanto, T é não-singular. 


100
Corolário 7.20. Sejam V, W espaços vectorias sobre R e T : V → W uma transformação
linear. Então T é não-singular se, e somente se, T leva todo conjunto LI de V em algum
conjunto LI de W .

Demonstração. Suponhamos que T seja não-singular, isto é, ker(T ) = {0}. Seja α =
{u1 , u2 , . . . , un } um conjunto qualquer LI de V . Queremos provar que

T (α) = {T (u1 ), T (u2 ), . . . , T (un )}

é um conjunto LI de W . Sejam α1 , α2 , . . . , αn ∈ R tais que

α1 T (u1 ) + α2 T (u2 ) + . . . + αn T (un ) = 0

Logo,

T (α1 u1 + α2 u2 + . . . + αn un ) = α1 T (u1 ) + α2 T (u2 ) + . . . + αn T (un ) = 0

Assim,
α1 u1 + α2 u2 + . . . + αn un ∈ ker(T ) = {0},

isto é,
α1 u1 + α2 u2 + . . . + αn un = 0.

Logo, α1 = α2 = . . . = αn = 0, pois α é LI. Portanto,

{T (u1 ), T (u2 ), . . . , T (un )}

é um conjunto LI de W . Reciprocamente, seja u ∈ ker(T ), com u 6= 0. Então {u} é um


conjunto LI de V . Assim, {T (u)} = {0} é um conjunto LI de W , o que é impossı́vel.
Portanto, u = 0 e T é não-singular. 

Teorema 7.21 (Teorema do Núcleo e da Imagem). Sejam V, W espaços vectorias sobre


R, com dim V = n e T : V → W uma transformação linear. Então,

dim V = dim ker(T ) + dim Im(T ) = N ul(T ) + r(T ).

Corolário 7.22. Sejam V, W espaços vectorias sobre R, com dim V = dim W = n e


T : V → W uma transformação linear. Então T é injectiva se, e somente se, T é
sobrejectiva.
101
Corolário 7.23. Sejam V, W espaços vectorias sobre R, com dim V = dim W = n e
T : V → W uma transformação linear. Então as seguintes condições são equivalentes:

1. T é bijectiva.

2. T é não-singular.

3. T é sobrejectiva.

4. T leva toda base de V em alguma base de W .

Teorema 7.24. Sejam V e W espaços vectorias sobre R, com dim V = dim W = n e


T : V → W uma transformação linear bijectiva. Então a transformação inversa T −1 :
W → V é linear.

Demonstração. É evidente que T −1 (0) = 0, pois T (0) = 0. Sejam w1 , w2 ∈ W e α ∈ R e


T sendo bijectiva, temos que existem únicos u1 , u2 ∈ V tais que

w1 = T (u1 ) ⇐⇒ u1 = T −1 (w1 ) e w2 = T (u2 ) ⇐⇒ u2 = T −1 (w2 )

Como
T (u1 + u2 ) = T (u1 ) + T (u2 ) = w1 + w2

temos que
T −1 (w1 + w2 ) = u1 + u2 = T −1 (w1 ) + T −1 (w2 ).

Finalmente, como
T (αu1 ) = αT (u1 ) = αw1

temos que
T −1 (αw1 ) = αu1 = αT −1 (w1 ).

Portanto, T −1 é linear. 

Definição 7.25. Sejam V, W espaços vectorias sobre R, com dim V = dim W = n e


T : V → W uma transformação linear. Dizemos que T é um isomorfismo se T é
bijectiva. Se existir um isomorfismo de V sobre W , dizemos que V é isomorfo a W e será
denotado por V w W .

Nota 7.26. Intuitivamente, um isomorfismo T de V sobre W é uma regra que consiste


em renomear os elementos de V , isto é, o nome do elemento sendo T (u) ao invés de u ∈ V .
102
Teorema 7.27. Todo espaço vectorial de dimensão n sobre R é isomorfo a Rn .

Demonstração. Sejam V um espaço vectorial sobre R com dim V = n e

β = {u1 , u2 , . . . , un }

uma base ordenada de V . Então para cada u ∈ V existem únicos α1 , α2 , . . . , αn ∈ R tais


que
u = α1 u1 + α2 u2 + . . . + αn un .

Definimos Tβ : Rn → V por
Tβ (α1 , α2 , . . . , αn ) = u

É fácil verificar que Tβ está bem definida, é linear e injectiva. Portanto, V é isomorfo a
Rn . 

Observação 7.28. A transformação linear Tβ : Rn → V é chamada a parametrização de


V dada pela base β e Tβ−1 é chamada de isomorfismo de base canônica de V associada
com a base β.

Exemplo 7.29. Seja T : R3 → R3 uma transformação linear definida por

T (x, y, z) = (x − 2y, z, x + y).

1. Mostre que T é um isomorfismo.

2. Determine uma lei para T −1 .

Solução: Para mostrar que T é um isomorfismo, basta determinar o seu núcleo, isto é,

ker(T ) = {(x, y, z) ∈ R3 : T (x, y, z) = (0, 0, 0)}

= {(x, y, z) ∈ R3 : (x − 2y, z, x + y) = (0, 0, 0)}

= {(0, 0, 0)}

temos que T é injectiva, pois ker(T ) = {0}. Portanto, T é um isomorfismo. Agora, dado
(a, b, c) ∈ R3 , existe um único (x, y, z) ∈ R3 tal que

T (x, y, z) = (a, b, c) ⇐⇒ T −1 (a, b, c) = (x, y, z).

Logo,
(a, b, c) = (x − 2y, z, x + y),
103
isto é, 


 x − 2y = a







z = b









 x+y = c

Assim,
a + 2c c−a
x= ,y= ez = b
3 3
Portanto,
a + 2c c − a
T −1 (a, b, c) = ( , , b)
3 3
ou ainda
x + 2z z − x
T −1 (x, y, z) = ( , , y)
3 3

7.3 Transformação linear e matrizes

Mostraremos, de um ponto de vista matemático, que o estudo de transformações lineares


em espaços vetoriais de dimensão finita pode ser reduzido ao estudo de matrizes.

Definição 7.30. Dados V, W espaços vectorias e T : V → W uma transformação linear.


Pretendemos determinar uma matriz A que nos possibilite escrever

TA (u) = Au, ∀u ∈ V.

Definição 7.31. Sejam V, W espaços vectorias de dimensão n e m, respectivamente, e


β = {u1 , u2 , . . . , un } uma base de V e β 0 = {w1 , w2 , . . . , wm } base de W e T : V → W
uma transformação linear. Então T (u1 ), T (u2 ), . . . , T (un ) são vectores em W e portanto

T (u1 ) = a11 w1 + a21 w2 + . . . + am1 wm

T (u2 ) = a12 w1 + a22 w2 + . . . + am2 wm

..
.

T (un ) = a1n w1 + a2n w2 + . . . + amn wm


104
A transporta da matriz dos coeficientes deste sistema, denotado por [T ]ββ 0 é chamada
matriz de T em relação às bases β e β 0 , isto é
 
a a12 . . . a1n
 11 
 
β
 a21 a22 . . . a2n 
[T ]β 0 = 
 .. .. .. ..
.
.

 . . . 
 
am1 am2 . . . amn

Representando a matriz m × n por [T ]ββ 0 . Dizemos que a matriz [T ]ββ 0 é a matriz de T (ou
matriz associada à T ) em relação às bases β e β 0 .

Exemplo 7.32. Seja T : R2 → R3 a transformação linear definida por

T (x, y) = (x + y, 2x, x − 3y).

Determinar a matriz associada a T , relativamente às bases β = {(2, 1), (−1, 0)} e β 0 =
{(1, 2, 1), (0, 1, 1), (0, 0, 3)}.
Solução: Como a transformação é T : R2 → R3 , então a matriz associada a [T ]ββ 0 será do
tipo 3 × 2 e que cada coluna é a imagem do respectivo vector da base β escrita na base
β 0 . Agora procedemos o seguinte:

1. Aplicar T aos vectores da base β.

T (2, 1) = (3, 4, −1) e T (−1, 0) = (−1, −2, −1)

2. Provar que β 0 gera R3 , isto é, escrever um vector (x, y, z) ∈ R3 como combinação
linear dos vectores da base β 0 .



 α1 = x







(x, y, z) = α1 (1, 2, 1) + α2 (0, 1, 1) + α3 (0, 0, 3) ⇐⇒ α2 = y − 2x








 α = x−y+z

3 3

Assim, o vector-coordenadas de (x, y, z) em relação à base β 0 é


 
x
 
[(x, y, z)]β 0 =  y − 2x  .
 
 
x−y+z
3

105
3. Obter os vector-coordenadas dos vectores do primeiro passo, isto é,
   
3 −1
   
[(3, 4, −1)]β =  −2  e [(−1, −2, −1)]β =  0 
   
   
−2
3
0

4. Escrever a matriz  
3 −1
 
[T ]ββ 0 =  −2 0  .
 
 
−2
3
0

Exemplo 7.33. Seja T : R3 → R2 a transformação linear definida por

T (x, y, z) = (2x + y − z, 3x − 2y + 4z).

Sejam α = {(1, 1, 1), (1, 1, 0), (1, 0, 0)} e β = {(1, 3), (1, 4)} bases ordenadas de R2 e R3 ,
respectivamente. Determine [T ]αβ .

Teorema 7.34. Sejam V, W espaços vectorias, β e β 0 bases de V e W , respectivamente,


e T : V → W uma transformação linear. Então, para todo u ∈ V temos que

[T (u)]β 0 = [T ]ββ 0 .[u]β .

Observação 7.35. Quando as bases consideradas são as canônicas, dizemos que a matriz
obtida é a matriz canônica da transformação linear. Além disso, quando lidamos com
operadores lineares, ou seja, com transformações lineares em que o domı́nio e o contra-
domı́nio coincidem, se consideramos uma única base para representar, tanto os vetores de
entrada quanto suas imagens, podemos simplificar a notação. Por exemplo, sendo β base
escolhida, representamos [T ]ββ 0 por [T ]ββ ou simplesmente [T ].

Teorema 7.36. Sejam T : V → W uma transformação linear e β e β 0 bases de V e W ,


respectivamente. Então

dim Im(T ) = r([T ]ββ 0 )

dim ker(T ) = N ul([T ]ββ 0 ) = número de colunas de[T ]ββ 0 − r([T ]ββ 0 ).
106
7.4 Álgebra das transformações
Nesta secção, iremos unir os conceitos de operações com matrizes e transformações line-
ares. Definiremos operações que nos possibilitarão combinar transformações lineares, de
modo a obter novas transformações lineares.

Definição 7.37 (Adição). Sejam V e W espaços vectorias e T : V → W e S : V → W


transformações lineares. Definimos a transformação soma de T e S como sendo

(T + S) : V → W.

u 7−→ T (u) + S(u).

Teorema 7.38. Sejam V e W espaços vectorias e T : V → W e S : V → W trans-


formações lineares. Então, a soma de duas transformações lineares é uma transformação
linear.

Demonstração. Dados u, v ∈ V e α ∈ R. Então

(T + S)(u + v) = T (u + v) + S(u + v)

= T (u) + T (v) + S(u) + S(v) = T (u) + S(u) + T (v) + S(v)

= (T + S)(u) + (T + S)(v)

(T + S)(αu) = T (αu) + S(αu)

= αT (u) + αS(u) = α[T (u) + S(u)] = α(T + S)(u).

Definição 7.39 (Multiplicação por um escalar). Sejam V e W espaços vectorias e T :


V → W uma transformações lineares e k ∈ R. Definimos a transformação produto de T
por α como sendo
(kT ) : V → W.

u 7−→ kT (u).
107
Teorema 7.40. Sejam V e W espaços vectorias e T : V → W uma transformações linear
e k ∈ R. Então, o produto de transformações linear por um escalar é uma transformação
linear.

Demonstração. Dados u, v ∈ V e α ∈ R. Então

(kT )(u + v) = kT (u + v) = kT (u) + kT (v) = (kT )(u) + (kT )(v)

(kT )(αu) = kT (αu) = kαT (u) = α[kT (u)] = α(kT )(u).

Definição 7.41. Sejam V e W espaços vectoriais, com as operações de adição e multi-


plicação por escalar vistas acima. O conjunto de todas as transformações lineares de V
em W formam um espaço vectorial, representado por

L(V, W).

Além disso, se dim V = n e dim W = m, temos que dim L(V, W) = m × n. No caso


particular de V = W , o espaço vectorial de todos os operadores lineares definido em V
será representado por
L(V).

Exemplo 7.42. Sejam T, S : R3 → R2 as transformações lineares dadas por

T (x, y, z) = (x + y, x − y + z) e S(x, y, z) = (x, y).

Determine:

1. (T + S)(x, y, z)

2. (3T )(x, y, z)

3. (2T − 5S)(x, y, z)

Definição 7.43 (Composição). Sejam V, U, W espaços vectorias, T : V → U e S : U →


W transformações lineares. Definimos a transformação composta de S ◦ T como sendo

(S ◦ T ) : V → W.

u 7−→ S(T (u)).


108
Teorema 7.44. Sejam V, U, W espaços vectorias, T : V → U e S : U → W trans-
formações lineares. Então, a composição de transformações lineares é uma transformação
linear.

Demonstração. Dados u, v ∈ V e α ∈ R. Então

(S ◦ T )(u + v) = S[T (u + v)] = S[T (u) + T (v)] = S(T (u)) + S(T (v)) = (S ◦ T )(u) + (S ◦ T )(v)

(S ◦ T )(αu) = S[T (αu)] = αS(T (u)) = α(S ◦ T )(u).

Exemplo 7.45. Sejam T : R2 → R3 a transformação linear definida por T (x, y) =


(x + y, 3x, x − 2y) e S : R3 → R4 dada por S(x, y, z) = (x + y, x − y, 0, x + y + z).
Determine a transformação composta S ◦ T .

7.5 Operadores lineares inversı́veis


Definição 7.46. Uma transformação linear T : V → V é chamada de operador linear.

Definição 7.47. Seja T : V → V um operador linear. Se existir um operador T −1 : V ◦ V


tal que
T ◦ T −1 = T −1 ◦ T = I

onde I : V → V é a identidade em V , então dizemos que o operador T é inversı́vel e T −1


é o operador inverso de T .

Teorema 7.48. Um operador linear T é inversı́vel se, e somente se, for um isomorfismo.

Corolário 7.49. Seja T : V → V um operador linear. Então:

1. O operador T é inversı́vel se, e somente se, ker(T ) = {0}.

2. O operador T é inversı́vel se, e somente se, det[T ] 6= 0.

3. Se T é inversı́vel, T transforma base em base, isto é, se β = {u1 , u2 , . . . , un } é a


base de V então T (β) = {T (u1 ), T (u2 ), . . . , T (un )} é base de V .
109
4. Se T é inversı́vel e β é uma base de V então T −1 : V → V é linear e

[T −1 ]ββ = ([T ]ββ )−1 .

Definição 7.50 (Semelhança de matrizes). Sejam A, B ∈ Mn (K). Dizemos que B é


semelhante a A quando existe uma matriz P ∈ Mn (K), inversı́vel, tal que

B = P −1 AP.

Teorema 7.51. A relação de semelhança, definida em Mn (K), é uma relação de equi-


valência em Mn (K).

Demonstração. (Tarefa)... 

Teorema 7.52. Matrizes semelhantes possuem o mesmo determinante

Demonstração. Sejam A, B ∈ Mn (K) semelhantes. Então B = P −1 AP , para alguma


matriz P ∈ Mn (K). Agora usando a propriedade do determinante da matriz inversa,
podemos escresver:

det B = det (P −1 .A.P ) = det P −1 .det Adet P

= (det P )−1 .det A.det P

= [(detP )−1 .det P ].det A = 1.det A = det A.

Podemos concluir que todas as matrizes que representam um mesmo operador


linear T têm o mesmo determinante. Além disso, a condição de T ser inversı́vel pode,
agora, ser dada na forma:
T é inversı́vel ⇐⇒ detT 6= 0.

Exemplo 7.53. Sejam T : R3 → R3 um operador linear dado por

T (x, y, z) = (x + 2y + 2z, x + y + 3z, x + 2y + z).

Determine o operador inverso T −1 .


110
7.6 Mudança de base

Nesta secção, vamos discutir o problema de mudar de um sistema de coordenadas para o


outro.

Definição 7.54. Sejam β = {u1 , u2 , . . . , un } e β 0 = {w1 , w2 , . . . , wm } base de um


mesmo espaço V e T : V → V um operador linear. Dado u ∈ V então podemos escrever
u como combinação linear dos vectores de β, isto é, existem escalares α1 , α2 , . . . , αn tais
que

u = α1 u1 + α2 u2 + . . . + αn un (7.1)

u = λ1 w1 + λ2 w2 + . . . + λn wn (7.2)

Como podemos relacionar as coordenadas de u em relação à base β


 
α1
 
 
 α2 
[u]β =  . 

 .. 

 
αn

com as coordenadas do mesmo vector u em relação à base β 0


 
λ
 1 
 
 λ2 
[u]β 0 = 
 .. 

 . 
 
λn

já que {u1 , u2 , . . . , un } é base de V , podemos escrever os vectores wi como combinação


linear dos uj , isto é
w1 = a11 u1 + a21 u2 + . . . + an1 un

w2 = a12 u1 + a22 u2 + . . . + an2 un


..
.

wn = a1n u1 + a2n u2 + . . . + ann un


111
Subistituindo estas expressões em (7.2) temos que

u = λ1 w 1 + . . . + λn w n =

= λ1 (a11 u1 + a21 u2 + . . . + an1 un ) + . . . + λn (a1n u1 + a2n u2 + . . . + ann un )

= (a11 λ1 + . . . + ann λn )u1 + . . . + (an1 λ1 + . . . + ann λn )

Mas u = α1 u1 + . . . + αn un , e como as coordenadas em relação a uma base são únicas,


temos
α1 = a11 λ1 + a21 λ2 + . . . + an1 λn

α2 = a12 λ1 + a22 λ2 + . . . + an2 λn


..
.

αn = a1n λ1 + a2n λ2 + . . . + ann λn

Em forma matricial
     
α1 a11 a12 ... a1n λ1
     
     
 α2   a21 a22 . . . a2n   λ2 
= . .
..   .. .. .. ..

 ...   
 .   . . .   . 
     
αn am1 am2 . . . amn λn

Logo, se usarmos a notação


 
a a12 ... a1n
 11 
 
0  a21 a22 ... a2n
[I]ββ = 

.
 .. .. .. ..
.

 . . . 
 
am1 am2 . . . amn

temos a relação
0
[u]β = [I]ββ .[u]β 0
0
A matriz [I]ββ é chamada matriz mudança de base β 0 para a base β.

0
Nota 7.55. Uma vez obtida [I]ββ podemos encontrar as coordenadas de qualquer vec-
tor u em relação à base β multiplicando a matriz pelas coordenadas de u na base β 0
supostamente conhecida.
112
Exemplo 7.56. Sejam β = {(2, −1), (3, 4)} e β 0 = {(1, 0), (0, 1)} bases de R2 , respecti-
0
vamente, determine [I]ββ .

Exemplo 7.57. Considere as bases em R3 β = {(1, 0, 1), (1, 1, 1), (1, 1, 2)} e β 0 =
0
{(1, 0, 0), (0, 1, 0), (0, 0, 1)}. Encontre [I]ββ .

113
114
Capı́tulo 8

Formas canônicas elementares

Nosso objetivo neste capı́tulo é determinar uma base de V , em relação à qual, a matriz
de T tenha uma forma a mais simples possı́vel.

8.1 Autovalores e Autovectores


Definição 8.1. Sejam V um espaço vectorial sobre R e T : V → V um operador linear.
Um escalar λ ∈ R é um autovalor de T se existir v ∈ V, v 6= 0, tal que

T (v) = λ v.

O vector v é chamado um autovector de T associado a λ.

Definição 8.2. Seja T : V → V um operador linear. Para cada λ ∈ R, consideremos o


conjunto
Vλ = {v ∈ V : T (v) = λv} = ker(T − λI).

Se Vλ 6= {0}, então λ é um autovalor de T e, neste caso, dizemos que Vλ é o auto-espaço


(ou subespaço próprio) de T associado ao autovalor λ.

Teorema 8.3. Seja T : V → V um operador linear com dim V = n e λ ∈ R. Então, as


seguintes condições são equivalentes:

1. λ é um autovalor de T .

2. T − λ I é um operador singular, isto é, Vλ 6= {0}.

3. det(T − λ I) = 0.
115
4. r(T − λ I) <.

Demonstração. (Tarefa) 
 
x1
 
 
 x2 
Definição 8.4. Sejam A ∈ Mm×n (K) e v = 
 ..
 ∈ V . Para encontramos os autova-

 . 
 
xn
lores e autovectores de A, devemos resolver a equação:

− →

Av = λv = Iλv =⇒ Av − Iλv = 0 ⇐⇒ (A − λI)v = 0 .

Escrevendo esta equação explicitamente, temos


     
a −λ a12 ... a1n x1 0
 11     
a22 − λ . . .
     
 a21 a2n   x2   0 
. =
 .. .. .. .. ..
 
...     
 . . .   .   . 
     
am1 am2 . . . amn − λ xn 0
Fazendo  
a −λ a12 ... a1n
 11 
a22 − λ
 
 a21 ... a2n 
B=
 .. .. ... ..


 . . . 
 
am1 am2 . . . amn − λ
temos o sistema


Bv = 0

Logo, pela regra de Cramer, se det B = 0, então o sistema homogêneo terá infinitas
soluções. Assim, a única maneira de encontramos autovectores v, soluções não-nulas da


equação Bv = 0 , é termos det B = 0, ou seja,

det(A − λI) = 0

Impondo esta condição, determinemos primeiramente os autovalores λ que satisfazem a


equação e depois os autovectores a eles associados.

Observação 8.5. Observamos que



a11 − λ a12 ... a1n


a22 − λ

a21 ... a2n
p(λ) = det(A − λI) = .. .. .. ..

.

. . .

amn − λ

am1 am2 ...
116
é um polinómio em λ de grau n.

Definição 8.6. O polinómio p(λ) = det(A − λI) é chamado polinómio caraterı́stico


da matriz A.

Exemplo 8.7. Calcular os autovectores e autovalores da matriz


 
−3 4
A= 
−1 2

Solução: Primeiramente, comecemos por determinar o polinómio caracterı́stico de A da


seguinte forma:

−3 − λ

4
p(λ) = det (A − λ I2 ) = = (−3 − λ)(2 − λ) = λ2 + λ − 2.
−1 2−λ

Portanto,
p(λ) = 0 ⇐⇒ λ2 + λ − 2 = 0 =⇒ λ1 = 1 e λ2 = −2

são os autovalores. Necessitamos calcular os autovectores de A, para isso basta resolver-


mos a equação



Vλi = ker(A − λi I), ∀i = 1 : 2 ou (A − λi I)v = 0 =⇒

para λ1 = 1, temos que encontrar (x, y) ∈ R2 tal que



      
 −4x − 4y = 0
−3 − 1

4 x 0 
  .   =   =⇒ =⇒ y = x.
−1 2−1 y 0 

 −x + y = 0

Logo,

Vλ1 = {(x, y) ∈ R2 : y = x} = {(x, x) : x ∈ R} = {x(1, 1) : x ∈ R} =⇒ Vλ1 = [(1, 1)].

Analogamente, para λ2 = −2

      
 −x + 4y = 0
−3 − (−2)

4 x 0 
 . =  =⇒ =⇒ x = 4y.
−1 2 − (−2) y 0 

 −x + 4y = 0

Logo,

Vλ2 = {(x, y) ∈ R2 : x = 4y} = {(4y, y) : y ∈ R} = {y(4, 1) : y ∈ R} =⇒ Vλ2 = [(4, 1)].


117
Exemplo 8.8. Seja T : R3 → R3 um operador linear cuja representação matricial em
relação à base canônica de R3 é
 
4 2 0
 
A = [T ] =  −1 1 0  .
 
 
0 1 2

Determine os autovalores e autovectores de T .

Definição 8.9. Seja T : V → V um operador linear e α e β bases de V , [T ]αα e [T ]ββ


matrizes de T em relação as bases α e β, respectivamente, então

[T ]ββ = [I]αβ .[T ]αα .[I]βα .

As matrizes [T ]αα e [T ]ββ são chamadas semelhantes.

8.2 Operadores Diagonalizáveis

Teorema 8.10. Sejam T : V → V um operador linear e λ1 , λ2 , . . . , λn autovalo-


res distintos de T . Se v1 , v2 , . . . , vn são autovectores de T associados aos autovalores
λ1 , λ2 , . . . , λn então, o conjunto

{v1 , v2 , . . . , vn }

é linearmente independente.

Teorema 8.11. Sejam T : V → V um operador linear tal que dim V = n e λ1 , λ2 , . . . , λn


autovalores distintos de T . Então, o conjunto

β = {v1 , v2 , . . . , vn }

formada pelos correspondentes autovectores, é uma base de V .

Demonstração. (Tarefa) 

Definição 8.12. Seja T : V → V um operador linear com dim V = n. Dizemos que T é


diagonalizável se existe uma base β de V cujos elementos são autovectores de T .
118
Neste caso, a matriz que representa T na base β é uma matriz diagonal, cujos
elementos são autovalores de T , ou seja
 
λ 0 ... 0
 1 
 
 0 λ2 ... 0
[T ]ββ = 

 = D.
 .. ... .. 
 . 0 . 
 
0 0 . . . λn
Exemplo 8.13. Seja T um operador linear, cuja matriz em relação a base canônica de
R3 é  
1 −1 4
 
A = [T ] =  3 2 −1  .
 
 
2 1 −1
os autovalores de T são:
λ1 = 1 =⇒ Vλ1 = [(−1, 4, 1)]
λ2 = −2 =⇒ Vλ2 = [(−1, 1, 1)]
λ3 = 3 =⇒ Vλ3 = [(1, 2, 1)]. Logo, o conjunto

β = {(−1, 4, 1), (−1, 1, 1), (1, 2, 1)}

é uma base de R3 , pelo teorema (8.11), e portanto o operador T representado pela matriz
A é diagonalizável.

Exemplo 8.14. Considere agora o operador T : R3 → R3 , representado pela matriz


 
4 2 0
 
A = [T ] =  −1 1 0 .
 
 
0 1 2
os autovalores e autovectores de T são:
λ1 = λ2 = 2 =⇒ Vλ1 = [(0, 0, 1)]
λ3 = 3 =⇒ Vλ3 = [(−2, 1, 1)]. Logo, A não pode ser diagonalizada, pois não é possivel
encontrar uma base de autovectores para o R3 .

Exemplo 8.15. Seja T : R3 → R3 um operador linear cuja representação matricial em


relação à base canônica de R3 é
 
3 0 −4
 
A = [T ] =  0 3 5 .
 
 
0 0 −1
Mostre que R3 possui uma base de autovectores, isto é, T é diagonalizável?
119
8.3 Matriz diagonalizadora
Definição 8.16. Seja T : V → V um operador linear. Sejam A a matriz canônica do
operador T , isto é, A = [T ] e D a matriz de T na base β de autovectores. As matrizes A
e D são semelhantes, pois representam o mesmo operador T em bases diferentes. Logo, a
relação de matrizes semelhantes permite escrever

D = P −1 AP.

Onde P é a matriz mudança de base β 0 para a base canônica β, isto é

0
P = [I]ββ .

Nota 8.17. Pela definição da matriz P , podemos concluir que ela é uma matriz cujas
colunas são os autovectores do operador T . A matriz D é obtida pela ”atução”da matriz
P , quando ela existe, sobre a matriz A. Dizemos então, que a matriz P diagonaliza A ou
P é a matriz diagonalizadora.

Exemplo 8.18. Sendo possı́vel, encontra a matriz que diagonaliza


 
1 3 5
 
A =  −3 −5 −3  .
 
 
3 3 1

Solução: Devemos encontrar uma matriz P inversı́vel e uma matriz D diagonal tal que

D = P −1 AP ou P D = AP.

Teorema 8.19. Se A é uma matriz m × n com n autovalores distintos entre se, então A
é diagonalizável.

Demonstração. (Tarefa) 

Definição 8.20. Seja T : V → V um operador linear.

1. Se λ é um autovalor de uma matriz A ∈ Mn (R) então a dimensão do subespaço


associado a λ é chamada multiplicidade geométrica de λ, isto é

mg (λ) = dim Vλ .
120
2. O número de vezes que λ aparece como autovalor de A é chamado de multiplicidade
algébrica de λ e denotado por ma (λ).

Teorema 8.21. Seja A ∈ Mn (R).Então:

1. Para cada autovalor de A, a multiplicidade geométrica é menor ou igual à multipli-


cidade algébrica, isto é
mg (λ) ≤ ma (λ).

2. A é diagonalizável se, e somente se, para cada autovalor, a multiplicidade geométrica


é igual a multiplicidade algébrica, isto é

mg (λ) = ma (λ).

Exemplo 8.22. Seja T : R3 → R3 um operador linear cuja representação matricial em


relação à base canônica de R3 é
 
4 2 0
 
A = [T ] =  −1 1 0  .
 
 
0 1 2

Então o polinómio caracterı́stico de T é

p(λ) = (λ − 2)2 (λ − 3).

Portanto, ma (2) = 2 e ma (3) = 1.

Exemplo 8.23. Diagonalize a seguinte matriz, se possı́vel


 
5 0 0 0
 
 
 0 5 0 0 
A= .
4 −3 0 
 
 1
 
−1 −2 0 −3

Teorema 8.24. Seja A ∈ Mn (R) e k um número inteiro. Se v é um autovector de A


associado ao autovalor λ, então v também é um autovector de Ak associado ao autovalor
λk .

Demonstração. Por definição, se v é um autovector de A associado ao autovalor λ então

Av = λv
121
multiplicando esta igualdade por A temos

A2 v = A(λv) = λ(Av) = λ(λv) = λ2 v

A3 v = A2 (λv) = λ(A2 v) = λ(λ2 v) = λ3 v.

Generalizando esta ideia para k vezes, obtemos

(A.A...A)Av = (A.A...A)λv =⇒ Ak v = λk v.

Teorema 8.25. Se A é diagonalizável, então existe uma matriz inversı́vel P e uma dia-
gonal D tais que

A = P DP −1 .

Assim,

Ak = A.A...A = (P D P −1 ).(P D P −1 )...(P D P −1 )

= P D (P −1 P ) D(P −1 P )D...(P −1 P )D P −1

= P Dk P −1 .

Isso sugere, que para calcular Ak podemos diagonalizar A, obtendo P e D, depois


calcular Dk , e o resultado será igual a P Dk P −1 . Como D é diagonal e sua diagonal é
formada pelos autovalores de A, pelo teorema anterior tem-se que
 
λk1 0 ... 0
 
λk2 . . .
 
 0 0 
Dk =  .. .. . . ..
.
.
 
 . . . 
 
0 0 . . . λkn

Exemplo 8.26. Calcule A20 onde


 
1 −2 8
 
A =  0 −2 0 .
 
 
0 0 −2
122
8.4 Polinómio mı́nimo
Definição 8.27. Seja p(λ) = an λn + . . . + a1 λ + a0 um polinómio e A ∈ Mn (R). Então
p(A) é a matriz
p(A) = an An + . . . + a1 A + a0 I.

Quando p(A) = 0 dizemos que o polinómio anula a matriz A.


 
−1 4
Exemplo 8.28. Seja p(λ) = λ2 − 9. Se A =  , então
2 1
 2    
−1 4 1 0 0 0
p(A) =   − 9 = .
2 1 0 1 0 0

Portanto, p(λ) anula A.

Definição 8.29. Seja A ∈ Mn (R). O polinómio mı́nimo de A é um polinómio

m(λ) = λk + ak−1 λk−1 + . . . + a0

tal que

1. m(A) = 0, isto é, m(λ) anula a matriz A.

2. m(λ) é o polinómio de menor grau entre aqueles que anulam A.

Nota 8.30. O coeficiente do termo λk do polinómio mı́nimo é 1, isto é, ak = 1, neste


caso, m(λ) é um polinómio mônico.

Teorema 8.31. Sejam T : V → V um operador linear e β uma base qualquer de V com


dim V = n. Então T é diagonalizável se, e somente se, o polinómio mı́nimo de [T ]ββ é da
forma:
m(λ) = (λ − λ1 )(λ − λ2 ) . . . (λ − λr )

com λ1 , λ2 , . . . , λr distintos.

O problema que consiste, em determinar se T é diagonalizável, reduz-se então ao


de saber achar o polinómio mı́nimo de T .

Teorema 8.32 (Cayley-Hamilton). : Seja T : V → V um operador linear e β uma base


de V e p(λ) o polinómio caracterı́stico de T . Então

p([T ]ββ ) = 0.
123
 
a b
Exemplo 8.33. Seja [T ]ββ =  . Então o polinómio caracterı́stico é
c d

a−λ

β b
p(λ) = det([T ]β − λI) = = (a − λ)(d − λ) − bc.
d−λ

c

Então,  
0 0
p([T ]ββ ) =  .
0 0

Teorema 8.34. As raı́zes do polinómio mı́nimo são as mesmas raı́zes distintas do po-
linómio caracterı́stico.

Observação 8.35. O polinómio mı́nimo deve ser de grau menor ou no máximo igual ao
do polinómio caracterı́stico e ainda deve ter as mesmas raı́zes.

Exemplo 8.36. Seja T : R6 → R6 um operador linear e β uma base de V . Suponhamos


que o polinómio caracterı́stico de T seja da forma

p(λ) = (λ − 3)2 (λ − 1)3 (λ + 5).

Então, o seu polinómio mı́nimo será um dos polinómios:

1. m(λ) = (λ − 3)(λ − 1)(λ + 5)

2. m(λ) = (λ − 3)2 (λ − 1)(λ + 5)

3. m(λ) = (λ − 3)(λ − 1)2 (λ + 5)

4. m(λ) = (λ − 3)(λ − 1)3 (λ + 5)

5. m(λ) = (λ − 3)2 (λ − 1)2 (λ + 5)

6. m(λ) = (λ − 3)2 (λ − 1)3 (λ + 5).

Como m(λ) é o de menor grau que [T ]ββ verificamos primeiramente se m1 ([T ]ββ ) = 0. Em
caso afirmativo, m1 (λ) será o polinómio mı́nimo. Se m1 ([T ]ββ ) 6= 0 testamos m2 ([T ]ββ )
e assim sucessivamente. Na pior das hipóteses, o polinómio mı́nimo será p(λ), isto é, o
polinómio caracterı́stico.
124
Teorema 8.37. Sejam λ1 , λ2 , . . . , λr os autovalores distintos de um operador linear T .
Então, T será diagonalizável se, e somente se, o polinómio

(λ − λ1 )(λ − λ2 ) . . . (λ − λr )

anular a matriz de T .

Exemplo 8.38. O operador linear T : R4 → R4 definido por

T (x, y, z, t) = (3x − 4z, 3y + 5z, −z, −t)

é diagonalizável?
Solução: Seja β a base canônica de R4 , então a matriz de T é
 
3 0 −4 0
 
 
β
 0 3 5 0 
[T ]β = 
 .
 0 0 −1 0 

 
0 0 0 −1

Então,
p(λ) = det([T ]ββ − λI) = (3 − λ)2 (−1 − λ)2 .

Os autovalores são, λ1 = 3 e λ2 = −1 ambos com multiplicidade algébrica 2. Então, os


candidatos para o polinómio mı́nimo são:

1. m(λ) = (3 − λ)(−1 − λ)

2. m(λ) = (3 − λ)2 (−1 − λ)

3. m(λ) = (3 − λ)(−1 − λ)2

4. m(λ) = (3 − λ)2 (−1 − λ)2 .

Notemos que m1 ([T ]ββ ) = 0, e é dentre os candidatos o de menor grau. Então, m1 (λ) =
(3 − λ)(−1 − λ) é o polinómio mı́nimo. Portanto, T é diagonalizável, isto é, existe uma
base β de autovectores e nesta base
 
3 0 0 0
 
 
β
 0 3 0 0 
[T ]β =  .
 0 0 −1 0
 

 
0 0 0 −1

125
126
Capı́tulo 9

Formas Racionais e de Jordan

Nosso objetivo neste capı́tulo é o seguinte: Se T não pode ser diagonalizável, então
determinar uma base de V em relação à qual a matriz de T tenha uma forma tão próximo
quanto possı́vel da matriz diagonal.

9.1 Forma triangular


Definição 9.1. Seja T ∈ L(V ) um operador linear em um espaço vectorial de dimensão
n. Suponhamos que T possa ser representado pela matriz triangular
 
a11 a12 . . . a1n
 
 
 0 a12 . . . a2n 
A= 
.. .. 

 0 0 . . 
 
0 0 . . . ann

então o polinómio caracterı́stico de T é

p(λ) = |A − λI| = (λ − a11 ).(λ − a22 ) . . . (λ − ann )

é um produto de factores lineares. A recı́proca também é verdadeira.

Teorema 9.2. Seja T : V → V um operador linear, cujo polinómio caracterı́stico pode ser
factorado em polinómios lineares. Então existe uma base de V na qual T é representado
por uma matriz triangular.

Teorema 9.3. Seja A ∈ Mn (R) uma matriz quadrada cujo polinómio caracterı́stico
factora-se em polinómios lineares. Então, A é semelhante a uma matriz triangular, isto
é, existe uma matriz inversı́vel P tal que P −1 A P é triangular.
127
Definição 9.4. Dizemos que um operador linear T pode ser posto em forma triangular,
se ele pode ser representado por uma matriz triangular. Neste caso, os autovalores de T
são precisamente os elementos que aparecem na diagonal princı́pal.

9.2 Invâriancia
Definição 9.5. Seja T : V → V um operador linear. Diz-se que um subespaço W de V é
invariante sob T , ou T − invariante, se T aplica W em si mesmo, isto é, se v ∈ W então
T (v) ∈ W .

Neste caso, T restrito a W define um operador linear em W , isto é, T induz um


operador linear T̂ : W → W definido por

T̂ (W ) = T (W ), ∀w ∈ W.

Teorema 9.6. Sejam T : V → V um operador linear arbitrário e p(λ) um polinómio


qualquer. Então o núcleo de p(λ) é invariante sob T .

Teorema 9.7. Seja W um subespaço invariante de T : V → V . Então T admite uma


representação matricial em bloco  
A B
 
O C
onde A é uma representação matricial da restrição T̂ de T à W .

9.3 Decomposição em soma direta invariante


Definição 9.8. Um espaço vectorial V é chamado soma direta de seus subespaços W1 , W2 , . . . , Wr
denotado por
V = W1 ⊕ W2 ⊕ . . . ⊕ Wr

se todo vector v ∈ V pode escrever-se de maneira única na forma

v = w1 + w2 + . . . + wr , com wi ∈ Wi .

Teorema 9.9. Sejam W1 , W2 , . . . , Wr subespaços de V , e supomos que {w11 , . . . , w1n1 }, . . . , {wr1 , . . . , wrn
sejam bases de W1 , W2 , . . . , Wr , respectivamente. Então V é a soma direta dos Wi se, e
somente se, a união

β = {w11 , . . . , w1n1 , . . . , wr1 , . . . , wrnr }


128
é uma base de V .

Suponhamos agora T : V → V um operador linear e que V seja a soma direta de


subespaços (não-vazio) T − invariante W1 , W2 , . . . , Wr

V = W1 ⊕ W2 ⊕ . . . ⊕ Wr , e T (Wi ) ⊆ Wi , i = 1 : r.

Definição 9.10. Denotemos por Ti a restrição de T a Wi . Diz-se então, que T é decom-


ponı́vel nos operadores Ti , ou que T é a soma direta dos Ti , o que se escrave

T = T1 ⊕ T2 ⊕ . . . ⊕ Tr .

Diz-se também que os subespaços W1 , W2 , . . . , Wr reduzem T , ou que formam uma de-


composição em soma direta de V T − invariante.

Exemplo 9.11. Consideremos o caso especial em que dois subespaços U e W reduzem


um operador T : V → V , sejam dim U = 2 e dim W = 3 e suponhamos que {u1 , u2 } e
{w1 , w2 , w3 } sejam as bases de U e W , respectivamente, então temos que:

T1 (u1 ) = a11 u1 + a12 u2

T1 (u2 ) = a21 u1 + a22 u2

e
T2 (w1 ) = b11 w1 + b12 w2 + b13 w3

T2 (w2 ) = b21 w1 + b22 w2 + b23 w3

T2 (w3 ) = b31 w1 + b32 w2 + b33 w3

Logo,  
  b11 b21 b31
a11 a21  
A= e B =  b12 b22 b32
  

a12 a22  
b13 b23 b33
são representações matriciais de T1 e T2 , respectivamente, e pelo teorema 9.9

{u1 , u2 , w1 , w2 , w3 }

é uma base de V . Como T (ui ) = T1 (ui ) e T (wj ) = T2 (wj ) a matriz de T nesta base é
a matriz diagonal em bloco  
A O
 .
O B
129
Teorema 9.12. Seja T : V → V um operador linear e V a soma direta de subespaços T −
invariante, digamos W1 , W2 , . . . , Wr . Se Ai é uma representação matricial da restrição
de T a Wi , então T pode ser representada pela matriz diagonal em bloco
 
A 0 ... 0
 1 
 
 0 A2 . . . 0 
M =  .. .. . . . .

 . . . .. 
 
0 0 . . . Ar

A matriz diagonal em bloco M com elementos diagonais A1 , A2 , . . . , Ar é às vezes cha-


mada soma direta das matrizes A1 , A2 , . . . , Ar e denotada por

M = A1 ⊕ A2 ⊕ . . . ⊕ Ar

9.4 Decomposição primária


Teorema 9.13 (1o Teorema de Decomposição primária). Seja T : V → V um operador
linear com polinómio mı́nimo

m(λ) = f1n1 (λ).f2n2 (λ) . . . frnr (λ)

onde os fi (λ) são polinómios mônicos distintos irredutı́veis. Então V é a soma direta de
subespaços T − invariantes W1 , W2 , . . . , Wr . Se Ai , onde Wi é o núcleo de fini (T ).

Além disso, fini (T ) é o polinómio mı́nimo da restrição de T a Wi . Como o


polinómio fi (λ) são mutuamente primos, o resultado fundamental acima, decorre dos
seguintes teoremas:

Teorema 9.14. Seja T : V → V um operador linear e suponhamos que f (λ) = g(λ)h(λ)


sejam polinómios tais que f (T ) = 0 e g(λ) e h(λ) sejam mutuamente prı́mos. Então,
V é a soma direta dos subespaços T − invariantes de U e W , onde U = ker(g(T )) e
W = ker(h(T )).

Teorema 9.15. Se f (λ) é o polinómio mı́nimo de T e g(λ), h(λ) são mônicos, então g(λ)
e h(λ) são os polinómios mı́nimos das restrições de T a U e W , respectivamente.

Teorema 9.16. Uma matriz A ∈ Mn (R) é semelhante a uma matriz diagonal se, e
somente se, seu polinómio mı́nimo é o produto de polinómios lineares distintos.
130
9.5 Forma canônica de Jordan
Definição 9.17 (Operadores Nilpotentes). Um operador linear T : V → V é chamado
nilpotente se T n = 0 para algum inteiro n, k é o ı́ndice de nilpotência de se T k = 0, mas
T k−1 6= 0. Analogamente, uma matriz quadrada A ∈ Mn é chamada nilpotente se An = 0,
para algum inteiro n, e de ı́ndice k se Ak = 0, mas Ak−1 6= 0.

obviamente, o polinómio mı́nimo de um operador (resp. matriz) nilpotente de


ı́ndice k é m(λ) = λk , logo 0 é o seu único autovalor.

Teorema 9.18. Seja T : V → V um operador nilpotente de ı́ndice k. Então T admite


uma representação matricial em bloco, cujos elementos diagonais têm a forma
 
0 1 0 ... 0 0
 
 0 0 1 ... 0 0 
 
 . .. .. . . .. .. 
 
N =  .. . . . . . .
 
 
 0 0 0 ... 0 1 
 
0 0 0 ... 0 0

Um operador T pode ser posto em forma canônica de Jordan, se seus polinómios carac-
terı́sticos e mı́nimos poderem factorar-se em polinómios lineares. Assim, em um sentido
âmplo, todo operador tem uma forma canônica de Jordan, analogamente, toda matriz é
semelhante a uma matriz em forma canônica de Jordan.

Teorema 9.19. Seja T : V → V um operador linear cujos polinómios caracterı́sticos e


mı́nimos são, respectivamente

p(λ) = (λ − λ1 )n1 .(λ − λ)n2 ...(λ − λr )nr e m(λ) = (λ − λ1 )1 .(λ − λ)m2 ...(λ − λr )mr

onde os λi são escalares distintos. Então T admite uma representação matricial em bloco
J, cujos elementos diagonais têm a forma:
 
λ 1 0 ... 0 0
 i 
 0 λi 1 ... 0 0
 

 . . .. . . .. ..
 
Jij =  .. .. . .

. . .
 
 
 0 0 0 . . . λi 1 
 
0 0 0 ... 0 λi
131
onde
Jij = J(λi ).

Para cada λi , os blocos correspondentes Jij têm as seguintes propriedades:

1. Há ao menos um Jij de ordem mi , todos os outros Jij são de ordem ≤ mi .

2. A soma das ordens dos Jij é ni = ma (λi ).

3. O número de Jij é igual à multiplicidade geométrica de λi .

4. O número de Jij de cada ordem possı́vel é univocamente determinado por T .

A matriz J que aparece no teorema acima é chamada forma canônica de Jordan do


operador T . Um bloco diagonal Jij é chamado bloco de Jordan pertencente ao autovalor
λi . Observe que
Jij = λi I + N

ou seja,
     
λi 1 0 ... 0 0 λi 0 0 ... 0 0 0 1 0 ... 0 0
     
0 λi 1 ... 0 0 0 λi 0 ... 0 0 0 0 1 ... 0 0
     
     
.. .. .. . . .. .. .. .. .. . . .. .. .. .. .. . . .. ..
     
Jij =  . = . + . .
     
. . . . . . . . . . . . . . .
     
     
 0 0 0 . . . λi 1   0 0 0 . . . λi 0   0 0 0 ... 0 1 
     
0 0 0 ... 0 λi 0 0 0 ... 0 λi 0 0 0 ... 0 0

Exemplo 9.20. Suponhamos que os polinómios caracterı́sticos e mı́nimos de um operador


T sejam, respectivamente,

p(λ) = (λ − 2)4 (λ − 3)3 e m(λ) = (λ − 2)2 (λ − 3)2 .

Então, a forma canônica de Jordan de T é uma das matrizes seguintes:


     
2 1  2 1 
     
 0 2  0 2
   
 
     h i 
2 1 2
   
   
     h i 
0 2  ou  .
 

     2 
   
3 1
 

  



 3 1 

   
0 3
 


 
 0 3 

h i  h i
3 3
132
A primeira matriz ocorre se T tem dois autovectores independentes pertecentes ao seu
autovalor 2, e a segunda matriz ocorre se T tem três autovectores independentes perten-
centes a 2.

9.6 Forma canônica Racional

Nesta secção veremos a forma canônica racional para um operador linear T : V → V .


Esta forma existe, quando o polinómio mı́nimo não pode ser factorado em polinómios
lineares, o que não ocorre no caso da forma canônica de Jordan.

Definição 9.21 (Subespaços cı́clicos). Seja T um operador linear em um espaço vectorial


V de dimensão finita sobre K (real ou complexo). Sejam v ∈ V e v 6= 0. O conjunto
de todos os vectores da forma f (T )(v), onde f (λ) percorre todos os polinómios sobre K,
é um subespaço T − invariante de V chamado subespaço T-cı́clico de V gerado por v, e
denotamos por Z(v, T ) e representamos por T , a restrição de T a Z(v, T ).

Definição 9.22. Consideremos agora a sequência

v, T (v), T 2 (v), . . . ,

de potências de T actuando sobre v. Seja k o menor inteiro tal que T k (v) é uma com-
binação linear desses vectores que o precedem na sequência:

T k (v) = −ak−1 T k−1 − . . . − a1 T (v) − a0 v.

Então,

mv (λ) = λk + ak−1 λk−1 + . . . + a1 λ + a0

é o único polinómio mônico de grau mı́nimo para o qual mv (λ) = 0. Chamamos mv (λ) o
T-anulador de v e Z(v, T ).

Teorema 9.23. Sejam Z(v, T ), Tv , e mv (λ) definidos como acima. Então:

1. O conjunto {v, T (v), . . . , T k−1 (v)} é uma base de Z(v, T ), logo dim Z(v, T ) = k.

2. O polinómio mı́nimo de Tv é mv (λ).


133
3. A representação matricial de Tv na base acima é
 
0 0 0 ... 0 −a0
 
1 0 0 ... 0 −a1
 
 
 
−a2
 
 0 1 0 ... 0 
C= .. .. .. . . .. ..
.
.
 
 . . . . . 
 
 
 0 0 0 . . . 0 +ak−2 
 
0 0 0 . . . 1 −ak−1

A matriz C acima, é chamada de matriz companheira do polinómio mv (λ).

Lema 9.24. Seja T : V → V um operador linear, cujo polinómio mı́nimo é f n (λ), onde
f (λ) é um polinómio irredutı́vel. Então V é a soma direta

V = Z(v1 , T ) ⊕ Z(v2 , T ) ⊕ . . . ⊕ Z(vr , T )

de subespaços T − cı́clicos Z(vi , T ) com T − anuladores correspondentes,

f1n1 (λ), f2n2 (λ), . . . , frnr (λ), e n = n1 ≥ n2 ≥ . . . ≥ nr

Qualquer outra decomposição de V em subespaços T − cı́clicos tem o mesmo


número de componentes e o mesmo conjunto de T − anuladores. Assim, Tv ou T tem uma
única representação matricial
 
C1
 
 
 C2 
 
..
.
 
 
 
Cr

os os Ci são matrizes companheiras dos polinómios f ni (λ).

Teorema 9.25. Seja T : V → V um operador linear com polinómio mı́nimo

m(λ) = f1m1 (λ).f2m2 (λ) . . . frmr (λ)

onde os fi (λ) são polinómios mônicos distintos irredutiveis. Então, T possui uma única
134
representação matricial em bloco
 
C
 11 
...
 
 
 
C1r1
 
 
 
 
 ... 
 
 
 C s1 
 
 
 ... 
 
Csrs

os Cij são matrizes companheiras. Em particular, os Cij são as matrizes companheiras


dos polinómios fini (λ), onde

m1 = n11 ≥ n12 ≥ . . . ≥ n1r1 , . . . , ms = ns1 ≥ ns2 ≥ . . . ≥ nsrs

A representação matricial de T acima é a sua forma canônica racional e os polinómios


fini (λ) são chamados divisores elementares de T .

Exemplo 9.26. Seja V um espaço vectorial de dimensão 6 sobre R e T um operador


linear cujo polinómio mı́nimo é

m(λ) = (λ2 − λ + 3)(λ − 2)2 .

Então a forma racional de T é uma das seguintes somas diretas das matrizes companheira:

1. C(λ2 − λ + 3) ⊕ C(λ2 − λ + 3) ⊕ C((λ − 2)2 ).

2. C(λ2 − λ + 3) ⊕ C((λ − 2)2 ) ⊕ C((λ − 2)2 ).

3. C(λ2 − λ + 3) ⊕ C((λ − 2)2 ) ⊕ C(λ − 2) ⊕ C(λ − 2).

onde os C(f (λ)) é a matriz companheira de f (λ), isto é,


     
0 −3 0 −3
     
 1 1  1 1
   
 
       
0 −3 0 −4
   
   
   ,    
   
 1 1   1 4 
       
0 −4 0 −4
   
   
       
1 4 1 4
135
ou   
0 −3
  
 1 1
 

   
0 −4
 
 
   
1 4
 
 
 h i 
 
 2 
 h i 
2

9.7 Espaços Quociente


Definição 9.27. Sejam V um espaço vectorial sobre um corpo K e W um subespaço de
V . Se v é um vector arbitrário de V , escrevemos v + W para representar o conjunto de
somas v + w com w ∈ W , isto é

v + W = {v + w : w ∈ W }.

Esses conjuntos, são chamados classes laterais de W em V .

Exemplo 9.28. Seja W o subespaço de R2 definido por

W = {(a, b) : a = b}.

Isto é, W é a recta dada pela equação x − y = 0. Então, podemos encarar v + W como
uma translação da recta, obtida somando-se o vector v a cada ponto em W . Assim, as
classes laterais de W em R2 são precisamente todas as rectas paralelas a W .

Teorema 9.29. Seja W um subespaço de um espaço vectorial sobre o corpo K. Então


as classes laterais de W em V formam um espaço vectorial sobre K com as seguintes
operações:

1. (u + W ) + (v + W ) = (u + v) + W, ∀u, v ∈ V .

2. k(u + W ) = ku + W, u ∈ V e k ∈ K.

Teorema 9.30. Seja W um subespaço invariante sob um operador linear T : V → V .


Então T induz um operador linear T : V → V /W definido por

T (u + W ) = T (u) + W.

Além disso, se T é um zero de um polinómio arbitrário, então T também é. Logo, o


polinómio mı́nimo de T divide o polinómio mı́nimo de T .

136
Capı́tulo 10

Espaço Euclidiano

O principal objetivo neste capı́tulo é estudar espaços vetorias nos quais tenha sentido falar
do comprimento de um vetor e do ângulo entre dois vetores.

10.1 Produto interno


Definição 10.1. Sejam V um espaço vectorial sobre K (real ou complexo). Uma função
h , i : V × V −→ R é um produto interno sobre V se a cada par de vetores u e v, associa
um número real, denotado por hu, vi e que satisfaz as seguintes propriedades:

1. hu, ui ≥ 0 e hu, ui = 0 ⇐⇒ u = 0, ∀u ∈ V .

2. hu, vi = hv, ui, ∀u, v ∈ V .

3. hu + vi = hu, wi + hv, wi, ∀u, v, w ∈ V .

4. hku, vi = khu, vi, ∀u, v ∈ V e k ∈ R.

Exemplo 10.2. Sejam V = R3 e u = (x1 , x2 , x3 ), v = (y1 , y2 , y3 ) ∈ V . Então

hu, vi = x1 y1 + x2 y2 + x3 y3

é um produto interno sobre V , a qual é chamado de produto interno usual (canônico).


Solução: Dados u = (x1 , x2 , x3 ), v = (y1 , y2 , y3 ) e w = (z1 , z2 , z3 ) ∈ V e k ∈ R temos que:

hu, ui = x21 + x22 + x23 ≥ 0

e
hu, ui = 0 =⇒ u = 0
137
hu + v, wi

= (x1 + y1 )z1 + (x2 + y2 )z2 + (x3 + y3 )z3

= x1 z1 + y1 z1 + x2 z2 + y2 z2 + x3 z3 + y3 z3

= (x1 z1 + x2 z2 + x3 z3 ) + (y1 z1 + y2 z2 + y3 z3 )

= hu, wi + hv, wi.

As condições (2) e (4) são análogas a (1).

Nota 10.3. Se V = Rn , então


hu, vi = X T Y

onde    
x1 y1
   
   
 x2   y2 
X=
 ..

 e Y =
 ..


 .   . 
   
xn yn

Exemplo 10.4. Seja V o espaço das funções contı́nuas no intervalo [a, b]. Se f e g ∈V.
Então Z 1
hf, gi = f (t)g(t) dt
0

é um produto interno sobre V .

Exemplo 10.5. Se A e B são duas matrizes quaisquer de V = M2 (R) então, definimos

hA, Bi = trhAT , Bi

onde tr é o traço de uma matriz quadrada definida por


n
X
tr(A) = aii
i=1

é um produto interno sobre V .

Exemplo 10.6. Seja V = M2 (R) o espaço de todas as matrizes quadradas com elementos
reais, sendo    
u1 u2 v1 v2
u=  e v= 
u3 u4 v3 44
138
a relação
hu, vi = u1 v1 + u2 v2 + u3 v3 + u4 v4

é um produto interno usual em M2 (R)

Definição 10.7 (Espaço euclidiano). Um espaço euclidiano é um espaço vectorial V sobre


R munido com um produto interno. Sejam V um espaço euclidiano e u, v ∈ V , dizemos
que u e v são ortogonais se hu, vi = 0 e denotamos por

u⊥v.

Definição 10.8. Sejam α e β subconjuntos de V . Dizemos que α e β são ortogonais se

hu, vi = 0, ∀u ∈ α e v ∈ β.

Proposição 10.9. Seja V um espaço euclidiano. Então:

1. 0⊥u, para todou ∈ V .

2. Se u⊥v, então v⊥u, para todos u, v ∈ V .

3. Se u⊥v, para todo v ∈ V , então u = 0.

4. Se u⊥w, v⊥w, então (u + v)⊥w, para todos u, v, w ∈ V .

5. Se u⊥v, então (αu)⊥v, para todos u, v ∈ V e α ∈ R.

Teorema 10.10. Sejam V um espaço euclidiano e β = {u1 , u2 , . . . , un } um subconjunto


(finito ou infinito) de V formado de vectores não-nulos ortogonais aos pares, isto é,

hui , uj i = 0, i 6= j

então, β é linearmente independente.

Demonstração. Sejam u1 , u2 , . . . , un vectores distintos de β e α1 , α2 , . . . , αn ∈ R tais


que
α1 u1 + α2 u2 + . . . + αn un = 0.

Então

0 = h0, uj i = hα1 u1 + α2 u2 + . . . + αn un , uj i

= α1 hu1 , uj i + . . . + αn hun , uj i = αj huj , uj i

.
139
pois hui , uj i = 0, se i 6= j. Como huj , uj i ≥ 0 temos que αj = 0, j = 1, . . . , n. Portanto,
β é linearmente independente. 

Definição 10.11 (Base ortogonal). Seja V um espaço euclidiano. Dizemos que

β = {u1 , u2 , . . . , un , . . .}

é uma base ortogonal (ou de Hamel) de V se ui ⊥uj , quando i 6= j.

Corolário 10.12. Seja V um espaço euclidiano com dim V = n. Se

β = {u1 , u2 , . . . , un }

é um conjunto de vectores não-nulos ortogonais aos pares de V , então β é uma base


ortogonal de V .

Exemplo 10.13. Seja V = Rn com o produto interno usual. Então

β = {e1 , e2 , . . . , en }

é uma base ortogonal de V .

Exemplo 10.14. Seja V = R2 com o produto interno

hu, vi = x1 y1 − x1 y2 − x2 y1 + 5x2 y2

onde u = (x1 , x2 ) e v = (y1 , y2 ) ∈ V . Então

β = {(2, 1), (−3, 1)}

é uma base ortogonal de V .


Solução: Como

h(2, 1), (−3, 1)i = 2(−3) − 2.1 − 1(−3) + 5.1.1 = 0

temos que os vectores (2, 1) e (−3, 1) são LI. Portanto, β é uma base ortogonal de V .

Exemplo 10.15. Seja V = P1 (R) com o produto interno


Z 1
hu, vi = f (t)g(t)dt
0

onde u = a0 + a1 x e g = b0 + b1 x ∈ V . Então

β = {1, 1 − 2x}
140
é uma base ortogonal de V .
Solução: Como Z 1
h1, 1 − 2xi = (1 − 2t)dt = 0
0

temos que os vectores 1 e 1 − 2x são LI. Portanto, β é uma base ortogonal de V .

Definição 10.16. Seja V um espaço euclidiano e β = {u1 , u2 , . . . , un } uma base orto-


gonal de V . Então
n
X hu, ui i
u= ui , ∀u ∈ V.
i=1
hu i , ui i
Neste caso,  
hu,u1 i
hu1 ,u1 i
..
 
[u]β =  .
 
.
 
hu,un i
hun ,un i

De facto, dado u ∈ V existem únicos α1 , α2 , . . . , αn ∈ R tais que

u = α1 u1 + α2 u2 + . . . + αn un .

Então,

hu, uj i = hα1 u1 + α2 u2 + . . . + αn un , uj i

= α1 hu1 , uj i + α2 hu2 , uj i + . . . + αn hun , uj i

= αj huj , uj i

Assim,
hu, uj i
αj = , j = 1, . . . , n.
huj , uj i
Portanto,
n
X hu, ui i
u= ui , ∀u ∈ V.
i=1
hui , ui i

Observação 10.17. Os escalares

hu, uj i
αj = , j = 1, . . . , n.
huj , uj i

são chamados os coeficientes de Fourier de u em relação à base β e a expressão para u no


lado direito é chamada de expansão de Fourier de u em relação à base β. Os vetores αi ui
são os vectores projeções de u sobre [ui ]. Neste caso, (u − αi ui )⊥ui , i = 1, . . . , n.
141
Exemplo 10.18. Seja V = R2 com o produto interno usual. Então

β = {(1, 1), (−1, 1)}

é uma base ortogonal de V . Determine [(2, 3)]β .


Solução: É evidente que
h(1, 1), (−1, 1)i = 0

logo, β é uma base ortogonal de V . Agora vamos determinar as coordenadas do vector


u = (2, 3) em relação à base β, para isso basta calcular

h(2, 3), (1, 1)i 5 h(2, 3), (−1, 1)i 1


α1 = = e α2 = =
h(1, 1), (1, 1)i 2 h(−1, 1), (−1, 1)i 2

Portanto,  
5
2
[(2, 3)]β =  .
1
2

10.2 Norma
Definição 10.19. Seja V um espaço euclidiano. A norma ou comprimento de um vector
u ∈ V é definido como
p
kuk = hu, ui.

pois hu, ui ≥ 0, para todo u ∈ V

Definição 10.20. Seja u ∈ V um vector qualquer. Dizemos que u é um vector unitário


se
kuk= 1.

Se v ∈ V é um vector não-nulo qualquer, então

v
u=
|v|

é um vector unitário tal que


[v] = [u]

Neste caso, dizemos que u é a normalização do vector v.

Teorema 10.21. Seja V um espaço euclidiano. Então:

1. kuk ≥ 0 e kuk = 0 ⇐⇒ u = 0, para todo u∈V.


142
2. kαuk = |α|kuk, para todo u ∈ V e α ∈ R.

3. ku ± vk2 = kuk2 ± 2hu, vi + kvk2 , para todo u, v ∈ V .

4. |hu, vi| ≤ kukkvk, para todos u, v ∈ V .(Desigualdade de Cauchy-Schwarz)

5. ku ± vk ≤ kuk ± kvk, para todo u, v ∈ V .(Desigualdade de Minkowski)

Demonstração. (4) As propriedades (1), (2) e (3) podem ser provadas directamente a par-
tir das propriedades do produto interno.
Sejam u, v ∈ V com u 6= 0, para qualquer t ∈ R temos que,

htu + v, tu + vi ≥ 0 = hu, uit2 + 2hu, vit + hv, vi ≥ 0

temos então uma equação do segundo grau que deve ser positivo para qualquer valor de
t. Como o coeficiente hu, ui de t2 é sempre positivo, o descriminante ∆ deve ser negativo,
isto é,
4hu, vi2 − 4hu, uihv, vi ≤ 0 =⇒ 4hu, vi2 − 4kuk2 kvk2 ≤ 0

o que implica que


|hu, vi| ≤ kukkvk.

Exemplo 10.22. Sejam V um espaço euclidiano e u, v ∈ V . Mostrenque u⊥v se, e


somente se,
kuk ≤ ku − avk, ∀a ∈ R.

Definição 10.23 (Ângulo entre dois vectores). Seja V um espaço euclidiano, para quais-
quer u, v ∈ V − {0}, o ângulo entre u e v é definido como o ângulo θ tal que

1. 0 ≤ θ ≤ π.

hu, vi
2. cos θ = .
kukkvk

Pela desigualdade de Cauchy-Schwarz, temos que

hu, vi
−1 ≤ ≤1
kukkvk

e, assim, o ângulo θ sempre existe e é único.


143
Definição 10.24 (Base ortonormal). Seja V um espaço euclidiano e β = {u1 , u2 , . . . , un }
uma base de V . Dizemos que β é uma base ortonormal ou sistema de coordenadas carte-
sianas para V se for ortogonal e cada vector tem norma 1, isto é,



 0 se i 6= j

hui , uj i = δij , onde δij =



 1 se i = j

Exemplo 10.25. Seja V = Rn com o produto interno usual. Então

β = {e1 , e2 , . . . , en }

é uma base ortonormal de V .

Exemplo 10.26. A partir do conjunto β = {(1, 2, −3), (3, 0, 1), (1, −5, −3)} obtenha uma
base ortonormal para o R3 .

10.3 Processo de Ortogonalização de Gram-Schmidt


Definição 10.27. Seja V um espaço euclidiano e α = {u1 , u2 , . . . , un } uma base de V .
Então podemos conseguir obter uma base ortogonal β = {v1 , v2 , . . . , vn } de V a partir da
base α.

Para iniciar o processo, vamos escolher v1 como qualquer um dos vectores u1 , u2 , . . . , un ,


digamos v1 = u1 , já vimos que o vector

hu2 , v1 i
v2 = u2 − v1
kv1 k2

é ortogonal ao vector v1 e é claro que

[v1 , v2 ] = [u1 , u2 ].

Assim, os vectores de [v1 , v2 ] são da forma

α1 v1 + α2 v2

para algum α1 , α2 ∈ R. Como u3 ∈


/ [u1 , u2 ] temos que

hu3 , v1 i
hu3 − (α1 v1 + α2 v2 , v1 )i = 0 ⇐⇒ α1 = .
kv1 k2
144
Analogamente,
hu3 , v2 i
hu3 − (α1 v1 + α2 v2 ), v2 i = 0 ⇐⇒ α2 = .
kv2 k2
Assim, o vector
hu3 , v1 i hu3 , v2 i
v3 = u3 − 2
v1 − v2
kv1 k kv2 k2
é tal que
v1 ⊥v3 , v2 ⊥v3 e [v1 , v2 , v3 ] = [u1 , u2 , u3 ]

continuando desta maneira, obtemos uma base ortogonal

β = {v1 , v2 , . . . , vn }

de V , onde
k−1
X huk , vi i
vk = uk − vi , k = 1, 2, . . . , n.
i=1
kvi k2
Este processo de ortogonalização é conhecido como o processo de ortogonalização de
Gram-Schmidt.

Observação 10.28. A partir de uma base qualquer de V podemos sempre obter uma base
ortogonal (ortonormal) de V . Mais geralmente, se α = (u1 , u2 , . . . , un ) é uma sequência
LI de V , então podemos construir, indutivamente, uma sequência ortogonal

β = (v1 , v2 , . . . , vn )

de V tal que
[v1 , v2 , . . . , vk ] = [u1 , u2 , . . . , uk ], ∀k ∈ R.

Exemplo 10.29. Sejam V = R3 com o produto interno usual e

α = {(1, 1, 1), (0, 1, 1), (0, 0, 1)}

uma base de V . Determine a partir de α uma base ortonormal de V .


Solução: Vamos usar o processo de ortogonalização de gram-Schmidt, para resolver este
problema. Escolhendo um vector inicial u1 , isto é,

u1 = (1, 1, 1) = v1 .

Agora, tomamos

hu2 , v1 i h(0, 1, 1), (1, 1, 1)i −2 1 1


v2 = u2 − 2
v1 = (0, 1, 1) − 2
(1, 1, 1) = ( , , ).
kv1 k k(1, 1, 1)k 3 3 3
145
hu3 , v2 i h(0, 1, 1), (1, 1, 1)i h(0, 0, 1), v2 i −1 1
v3 = u3 − 2
v2 = (0, 0, 1) − 2
(1, 1, 1) − 2
v2 = (0, , ).
kv2 k k(1, 1, 1)k kv2 k 2 2
Normalizando os vectores v1 , v2 e v3 , obtemos uma base ortonormal

v1 v2 v3
β={ , , }
kv1 k kv2 k kv3 k

de V .

Exemplo 10.30. Sejam V = R3 com o produto interno usual e

β = {(1, 1, 1), (0, 2, 1), (0, 0, 1)}

uma base de V . Determine a partir de β uma base ortonormal de V

Exemplo 10.31. Sejam V = R2 com o produto interno definido por

hu, vi = 2x1 x2 − x1 y2 − x2 y1 + y1 y2

e
β = {(1, 0), (0, 1)}

a base canônica de R2 onde u = (x1 , y2 ) e v = (x2 , y2 ). Determine a partir de β uma


base ortonormal de V .

Exemplo 10.32. Seja V = P (R) o conjunto de todos os polinómios com coeficientes


reais munido com o produto interno
Z 1
hf, gi = f (t)g(t) dt.
−1

Determine uma base ortonormal de V a partir da base

β = {1, x, x2 , x3 , . . .}.

Solução: Para resolver este problema, vamos usar o processo de ortogonalização de


Gram-Schmidt. Escolhendo um vetor inicial p1 , digamos

p1 = 1.

Agora, tomamos
hx, p1 i
p2 = x − p1 = x,
kp1 k2
hx, p1 i hx2 , p2 i 1
p 3 = x2 − 2
p 1 − 2
p 2 = x2 − ,
kp1 k kp2 k 3
146
hx, p1 i hx2 , p2 i hx3 , p3 i 3
p 4 = x3 − 2
p 1 − 2
p 2 − 2
p3 = x3 − x,
kp1 k kp2 k kp3 k 5
e assim por diante. Finalmente, normalizando os vetores p1 , p2 , p3 e p4 obtemos uma
base ortonormal
α = {q1 , q2 , q3 , q4 , . . .}

de V . Os polinômios nesta sequência são chamados, a menos de constantes, de polinômios


de Legendre.

10.4 Complemento ortogonal


Definição 10.33. Seja V um espaço euclidiano e β um subconjunto não-vazio de V . O
complemento ortogonal de β em V é o conjunto

β ⊥ = {v ∈ V : hv, ui = 0, ∀u ∈ β}.

Exemplo 10.34. Sejam V = R4 com produto interno usual e

W = [(1, 0, 1, 0), (1, 1, 0, 0)]

um subespaço de V . Determine W ⊥ .
Solução: Para resolver este problema basta encontrar u = (x, y, z, t) ∈ V tal que

hu, (1, 0, 1, 0)i = 0 e hu, (1, 1, 0, 0)i = 0,

isto é, resolver o sistema homogêneo





 x+z = 0




 x+y = 0

Logo, x = −z, y = z e z, t quaisquer.Portanto,

W ⊥ = {(x, y, z, t) ∈ V : x = −z, y = z e z, t ∈ R} = [(−1, 1, 1, 0), (0, 0, 0, 1)].

Exemplo 10.35. Seja V = R4 e W um subespaço de V e

β = {(1, 1, 0, 1), (0, −1, 1, 1)}

uma base para W . Encontre uma base para W ⊥ .


147
Teorema 10.36. Sejam V um espaço euclidiano e W um subespaço de V com dim W = k.
Então
V = W ⊕ W ⊥.

Proposição 10.37. Seja W um subespaço de um espaço euclidiano V . Então:

1. W ⊥ é um subespaço de V .

2. W ∩ W ⊥ = {0}.

3. (W ⊥ )⊥ = W .

148
Capı́tulo 11

Funcionais lineares

Estudaremos neste capı́tulo, aplicações lineares de um espaço vectorial V em seu corpo


K de escalares.

Definição 11.1. Seja V um espaço vectorial sobre um corpo K. Uma aplicação φ : V → K


é chamada funcional linear (ou forma linear) se, para todos u, v ∈ v e todos a, b ∈ K
tem-se que

φ(au + bv) = aφ(u) + bφ(v).

Em outras palavras, um funcional linear em V é uma aplicação de V em K.

Definição 11.2 (Espaço dual). Seja V ∈ Kn o espaço vectorial de n-uplas que escrevemos
como vector coluna. Então o espaço dual V ∗ pode ser identificado com o espaço dos
vectores linha. Em particular, qualquer funcional linear φ = (a1 , a2 , . . . , an ) ∈ V ∗ admite
a representação
 
x1
 
 
 x2 
φ(x1 , x2 , . . . , xn ) = (a1 , a2 , . . . , an ). 
 ..


 . 
 
xn

ou simplesmente

φ(x1 , x2 , . . . , xn ) = a1 x1 + a2 x2 + . . . + an xn .

Historicamente, a expressão formal acima foi chamada forma linear.


149
11.1 Base dual
Teorema 11.3. Suponhamos que {v1 , v2 , . . . , vn } seja uma base de V sobre K e sejam
φ1 , φ2 , . . . , φn ∈ V ∗ os funcionais definidos por



 1 se i = j

φi (vj ) = δij =


 0 se i 6= j

Então, {φ1 , φ2 , . . . , φn } é uma base de V ∗ . A base {φi } acima é chamada de base dual
de {vi } ou base dual.

A fórmula acima, que utiliza o delta de Kronecher δij , é uma maneira abreviada
de escrever:
φ1 (v1 ) = 1, φ1 (v2 ) = 0, . . . , φ1 (vn ) = 0

φ2 (v1 ) = 0, φ2 (v2 ) = 1, . . . , φ2 (vn ) = 0


..
.

φn (v1 ) = 0, φn (v2 ) = 0, . . . , φn (vn ) = 1.

Exemplo 11.4. Consideremos as seguintes bases de R2 {v1 = (2, 1), v2 = (3, 1)}. Deter-
mine a base dual {φ1 , φ2 }.
Solução: Procuremos funcionais lineares da forma φ1 (x, y) = ax + by e φ2 (x, y) = cx + dy
tais que
φ1 (v1 ) = 1, φ1 (v2 ) = 0, φ2 (v1 ) = 0, φ2 (v2 ) = 1.

Assim, 
 φ (v ) = φ1 (1, 2) = 2a + b = 1
 1 1


=⇒ a = −1, b = 3.



 φ (v ) = φ (3, 1) = 3a + b = 0
1 2 1

Analogamente,

 φ (v ) = φ2 (1, 2) = 2c + d = 0
 2 1


=⇒ c = 1, d = −2.



 φ (v ) = φ (3, 1) = 3c + d = 1
2 2 2

Logo a base dual é {φ1 (x, y), φ2 (x, y)} = {−x + 3y, x − 2y}.
150
Teorema 11.5. Sejam {v1 , v2 , . . . , vn } uma base de V e {φ1 , φ2 , . . . , φn } a base dual de
V ∗ . Então, para qualquer vector u ∈ V ,

u = φ1 (u)v1 + φ2 (u)v2 + . . . + φn (u)vn

e para qualquer funcional linear σ ∈ V ∗ ,

σ = σ(v1 )φ1 + σ(v2 )φ2 + . . . + σ(vn )φn .

Teorema 11.6. Sejam {v1 , v2 , . . . , vn } e {w1 , w2 , . . . , wn } bases de V e {φ1 , φ2 , . . . , φn }


e {σ1 , σ2 , . . . , σn } as bases de V ∗ duais de {vi } e {wi }, respectivamente. Suponhamos
que P é a matriz de mudança de base de {vi } para {wi }. Então (P −1 )T é a matriz de
mudança de base de {θi } para {σi }.

11.2 Segundo Espaço dual


Definição 11.7. Todo espaço vectorial V tem um espaço dual V ∗ , que consiste de todos
os funcionais lineares em V . Assim, V ∗ admite ele própio um espaço dual V ∗∗ , chamado
segundo dual de V , que consiste de todos os funcionais lineares de V ∗ .

Mostraremos agora, que cada v ∈ V determina um elemento especı́fico v̂ ∈ V ∗∗ .


Em primeiro lugar, para qualquer φ ∈ V ∗ , definimos

v̂(φ) = φ(v).

Basta mostrar que esta aplicação v̂ : V ∗ → K é linear. Para qualquer escalares a, b ∈ K


e quaisquer funcionais lineares φ, σ ∈ V ∗ , temos que

v̂(aφ + bσ) = (aφ + bσ)(v) = aφ(v) + bσ(v) = av̂(φ) + bv̂(σ).

Isto é, v̂ é linear, e portanto, v̂ ∈ V ∗∗ .

Teorema 11.8. Se V tem dimensão finita, então a aplicação v → v̂ é um isomorfismo


de V sobre V ∗∗ .

11.3 Anuladores
Definição 11.9. Seja W um subconjunto (não necessariamente um subespaço) de um
espaço vectorial V . Um funcional linear φ ∈ V ∗ é chamado um anulador de W se φ(w) =
0 para todo w ∈ W , isto é, se φ(W ) = 0.
151
Mostraremos que o conjunto de todas essas aplicações denotado por W 0 , e cha-
mado anulador de W , é um subespaço de V ∗ . É evidente que 0 ∈ W 0 . Suponhamos agora
φ, σ ∈ W 0 , então, para qualquer escalares a, b ∈ K e qualquer w ∈ W , temos que

(aφ + bσ)(w) = aφ(w) + bσ(w) = a.0 + b.0 = 0.

Assim, aφ + bσ ∈ W 0 e, portanto, W 0 é um subespaço de V ∗ .

Teorema 11.10. Suponhamos que V tenha dimensão finita e que W seja um subespaço
de V . Então,

1. dim W + dim W 0 = dim V

2. W 00 = W .

onde W 00 = {v ∈ V : φ(v) = 0, para todo φ ∈ W 0 } é encarado como um subespaço de V


sob a identificação de V e V ∗∗ .

152
Capı́tulo 12

Formais Bilineares e Quadráticas

Consideremos agora funções, associadas a espaços vectorias, que se comportam mais ou


menos como produto internos, isto é, funções que a cada par de vectores associam um
número real de tal forma que uma vez fixado o primeiro vector, a função seja uma forma
linear em relação ao segundo vector, e vice-versa.
Funções deste tipos estão muito relacionados com considerações acerca da energia de um
corpo, e portanto, com toda a Fı́sica.

12.1 Forma Bilinear


Neste secção, definiremos estas funções, que serão denominadas formas bilineares, e es-
tudaremos alguns aspectos técnicos, principalmente o seu relacionamento com matrizes,
que é o mais importante na prática.

Definição 12.1. Seja V um espaço vectorial real. Uma forma bilinear é uma aplicação
B : V × V → R definida por
(v, w) 7−→ B(v, w)

tal que:

1. Para todo w fixado, B(v, w) é uma forma linear em V , isto é,

B(v1 + v2 , w) = B(v1 , w) + B(v2 , w) e B(av, w) = aB(v, w)

2. Para todo v fixado, B(v, w) é uma forma linear em W , isto é,

B(v, w1 + w2 ) = B(v, w1 ) + B(v, w2 ) e B(v, aw) = aB(v, w)


153
Exemplo 12.2. Seja B : R2 × R2 → R dada por

B((x1 , y1 ), (x2 , y2 )) = x1 x2 − 2y1 y2

é bilinear. De facto,

B((x1 , y1 ), (x2 , y2 ) + (x3 , y3 ))

= B((x1 , y1 ), (x2 + x3 , y2 + y3 ))

= x1 (x2 + x3 ) + 2y1 (y2 + y3 )

= (x1 x2 + 2y1 y2 ) + (x1 x3 + 2y1 y3 )

= B((x1 , y1 ), (x2 , y2 )) + B((x1 , y1 ), (x3 , y3 ))

As demais propriedades, são verificadas de modo análogo.

Exemplo 12.3. Seja V um espaço vectorial com produto interno h, i. Podemos definir a
forma biliniear V × V → R por

B(v, w) = hv, wi.

O facto B ser bilinear é uma consequência das propriedades de produto interno.

Exemplo 12.4. Seja  


−2 0 0
 
A= 4 2 0 .
 
 
0 0 2

Podemos associar a A uma forma bilinear B : R3 × R3 → R definida por


  
−2 0 0 y1
  
B((x1 , x2 , x3 ), (y1 , y2 , y3 )) = [x1 x2 x3 ].  4 2 0   y2  = −2x1 y1 +4x2 y1 +2x2 y2 +2x3 y3 .
  
  
0 0 2 y3

A bilinearidade de B decorre das propriedades do produto e da soma de matrizes.

Exemplo 12.5. Sejam V um espaço vectorial de dimensão n e β uma base de V . De


modo análogo, ao exemplo anterior, dada uma matriz qualquer A ∈ Mn×n (R), podemos
associar uma forma bilinear B : V × V → R definida por:
154
Se    
x1 y1
   
   
 x2   y2 
[v]β = 
 ..

 e [w]β = 
 ..
.

 .   . 
   
xn yn
Se B : V × V → R é uma forma bilinear e dados v1 , v2 , w1 , w2 ∈ V , em geral temos

B(v1 +v2 , w1 +w2 ) = B(v1 , w1 +w2 )+B(v2 , w1 +w2 ) = B(v1 , w1 )+B(v1 , w2 )+B(v2 , w1 )+B(v2 , w2 ).

Logo,
B(v, w) = [v]0β A [w]β .

12.2 Matriz de uma forma Bilinear


Definição 12.6. Sejam V um espaço vectorial e B : V × V → R uma forma bilinear.
Dada uma base β = {v1 , v2 , . . . , vn } de V , associamos a B uma matriz [B]ββ chamada
matriz da forma bilinear B, na base β, do seguinte modo:
Se
v = x1 v1 + x2 v2 + . . . + xn vn e w = y1 v1 + y2 v2 + . . . + yn vn

Então,

B(v, w) =

= B(x1 v1 + x2 v2 + . . . + xn vn , y1 v1 + y2 v2 + . . . + yn vn )
n
X
= xi yj B(vi , vj )
i,j=1
  
B(v1 , v1 ) B(v1 , v2 ) . . . B(v1 , vn ) y1
  
  
 B(v2 , v1 ) B(v2 , v2 ) . . . B(v2 , vn )   y2 
= [x1 x2 ... xn ]  .. .. .. ..

..

.
  
 . . .  . 
  
B(vn , v1 ) B(vn , v2 ) . . . B(vn , vn ) yn

= [v]0β [B]ββ [w]β

Exemplo 12.7. Seja B : R2 × R2 → R uma forma bilinear definida por

B(v, w) = −x1 y1 + 2x2 y1 + 5x2 y2


155
onde v = (x1 , x2 ) e w = (y1 , y2 ). Então se β = {e1 , e2 } é a base canônica de R2 , temos
que,    
B(e1 , e1 ) B(e1 , e2 ) −1 0
[B]ββ =  = 
B(e2 , e1 ) B(e2 , e2 ) 2 5
Com isto, podemos escrever a forma bilinear dada na forma matricial
  
−1 0 y1
B(v, w) = [x1 x2 ]   
2 5 y2
ou seja,
B(v, w) = [v]0β [B]ββ [w]β .

Exemplo 12.8. Seja B : R3 × R3 → R uma forma bilinear definida por

B((x1 , x2 , x3 ), (y1 , y2 , y3 )) = −2x1 y1 + 4x2 y1 + 2x2 y2 + 2x3 y3 .

Procuremos [B]ββ , onde β = {e1 , e2 , e3 } é a base canônica de R3 , neste caso,


 
B(e1 , e1 ) B(e1 , e2 ) B(e1 , e3 )
 
[B]ββ =  B(e2 , e1 ) B(e2 , e2 ) B(e2 , e3 )  .
 
 
B(e3 , e1 ) B(e3 , e2 ) B(e3 , e3 )

Nesta matriz, determinamos , por exemplo,

B(e2 , e1 ) = B((0, 1, 0), (1, 0, 0)) = −2.0.1 + 4.1.1 + 2.1.0 + 2.0.0 = 4.

Calculando os outros elementos, obtemos


 
−2 0 0
 
[B]ββ =  4 2 0 .
 
 
0 0 2

12.3 Forma Bilinear Simétrica


Definição 12.9. A forma bilinear B : V × V → R é simétrica se

B(v, w) = B(w, v), para todos v, w ∈ V.

Exemplo 12.10. Seja h , i um produto interno em V . Então a forma bilinear B(v, w) =


hv, wi é simétrica, pois
hv, wi = hw, vi.
156
Exemplo 12.11. Seja B : R2 × R2 → R uma forma bilinear definida por

B(v, w) = −x1 y1 + 3x2 y1 + 3x1 y2 + 2x2 y2

onde v = (x1 , x2 ) e w = (y1 , y2 ). Calculando, B(w, v), temos

B(w, v) = −y1 x1 + 3y1 x2 + 3y2 x1 + 2y2 x2 .

Como B(v, w) = B(w, v), B é simétrica.

Observação 12.12. Observe que [B]ββ é uma matriz simétrica. De facto


  
−1 3 y
B(v, w) = [x1 x2 ]   1 
3 2 y2

Teorema 12.13. Uma forma bilinear B : V × V → R é simétrica se, e somente se, [B]ββ
é uma matriz simétrica.

12.4 Formas Quadráticas


Definição 12.14. Seja V um espaço vectorial real e B : V × V → R uma forma bilinear
simétrica. A função Q : V → R definida por

Q(v) = B(v, v)

é chamada forma quadrática associada a B.

Observação 12.15. Seja β uma base de V . Então Q pode ser expressa na seguinte forma

Q(v) = [v]0β [B]ββ [v]β

onde [B]ββ é uma matriz simétrica.

Exemplo 12.16. Seja Q : R2 → R uma forma quadrática definida por

Q(v) = x2 − 10xy + y 2 , onde v = (x, y).

Sabemos que   
a b x
Q(v) = [x y]    = ax2 + 2bxy + cy 2 .
b c y
Então, ax2 + 2bxy + cy 2 = x2 − 10xy + y 2 . Logo, a = 1, b = −5, c = 1. Subistituindo,
  
1 −5 x
Q(v) = [x y]   .
−5 1 y
157
Observação 12.17. Observe ainda que Q é a forma quadrática associada à forma bilinear
  
1 −5 x
B(v, w) = [x1 y1 ]   2 
−5 1 y2

onde,      
x1 x2 1 −5
[v]β =  , [w]β =   e [B]ββ =  .
y1 y2 −5 1

Nota 12.18. O procedimento adoptado no exemplo anterior pode ser aplicado a uma
forma quadrática genérica Q : R2 → R, onde

Q(v) = Ax2 + Bxy + Cy 2 .

Concluimos então, que a sua forma matricial é


  
B
A 2
x
Q(x, y) = [x y]   .
B
2
C y

12.5 Diagonalização da Forma Quadrática


Veremos a seguir que qualquer que seja a forma quadrática Q : V → R existe sempre uma
base ortonormal de V em relação a qual a matriz de Q é diagonal.

Teorema 12.19. Seja Q(v) = B(v, v) uma forma quadrática em V . Então existe uma
base ortonormal β de V tal que, se
 
y1
 
 
 y2 
[v]β = 
 ..


 . 
 
yn

então,
Q(v) = λ1 y12 + λ2 y22 + . . . + λn yn2 .

Demonstração. Seja α uma base ortonormal qualquer de V . Então,

Q(v) = B(v, v) = [v]0α [B]αα [v]α .

Logo, a matriz [B]αα é uma matriz simétrica e, portanto, corresponde a um operador auto-
adjunto T : V → V que tem como matriz [T ]αα = [B]αα . Como um operador auto-adjunto
158
pode ser diagonalizado mediante uma base β de autovectores ortonormais, então

[B]αα = [T ]αα =
   
λ1 0 ... 0 λ1 0 ... 0
   
   
0 λ2 . . . 0 0 λ2 . . . 0
 [I]β = ([I]αβ )−1 
β
  α   α
= [I]α  .. .. . . .. .. .. . . ..
 [I]β
. .
  
 . . .   . . . 
   
0 0 . . . λn 0 0 . . . λn
 
λ1 0 ... 0
 
 
0  0 λ2 . . . 0  α
= ([I]αβ )  .. .. . . ..
 [I]β
.
 
 . . . 
 
0 0 . . . λn

pois α e β são bases ortonormais e, portanto, [I]αβ é uma matriz ortogonal. Então,

Q(v) =
   
λ1 0 ... 0 λ1 0 ... 0
   
   
α 0
0 λ2 . . . 0 0 λ2 . . . 0
0  [I]β [v]α = ([I]αβ [v]α )0 
  α  
= [v]α .([I]β )   ([I]αβ [v]α )
.. .. . . .. .. .. . . ..
. .
  
 . . .   . . . 
   
0 0 . . . λn 0 0 . . . λn
    
λ1 0 ... 0 λ1 0 ... 0 y1
    
    
0  0 λ2 . . . 0   0 λ2 ... 0  y2 
= [v]β  .. .. . . ..
 [v]β = [y1 y2 ... yn ]  .. .. .. ..  

..

. . . 
   
 . . .   . . . 
    
0 0 . . . λn 0 0 . . . λn yn

= λ1 y12 + λ2 y22 + . . . + λn yn2


159
Exemplo 12.20. Seja Q : R2 → R a forma quadrática definida por

Q(v) = −4x21 − 6x1 x2 + 6x22

= −4x21 − 3x1 x2 − 3x1 x2 + 6x22


  
−4 −3 x1
= [x1 x2 ]   
−3 6 x2

Calculemos os autovalores:
 
−4 − λ −3 √ √
p(λ) = det   = λ2 − 2λ − 33 = 0 ⇐⇒ λ1 = 1 − 34 e λ2 = 1 + 34.
−3 6−λ

Então existe uma base β (que é aquela de autovectores da matriz) tal que se
 
y1
[v]β =  
y2

então  √  
1− 34 0 y1
Q(v) = [y1 y2 ]  √  
0 1+ 34 y2
isto é,
√ √
Q(v) = (1 − 34)y12 + (1 + 34)y22 .

160
Referências Bibliográficas

[1] Eduardo Espinoza Ramos, Matematica Basica,2.ed., Lima-Perú, 2005.

[2] António de Andrade e Silva, Introdução à Álgebra Linear, 2007.

[3] José Luiz Boldrini at al, Álgebra Linear,3.ed., São Paulo, Editora Harper e Row,
Brasil, 1980.

[4] Seymour Lipschutz at al, Linear Algebra, 4.ed., 2009.

[5] Luiz Manuel Figueiredo at al, Caderno-Álgebra Linear, 2.ed., volume 2., Rio de
Janeiro-Brasil, 2009.

[6] Sı́lvio Antonio Bueno at al, Caderno-Geometria Analı́tica, São José del Rei, Minas
Gerais, UFS-Brasil, 2011.

161

Você também pode gostar