Você está na página 1de 111

UENF CCT-LCMAT

Universidade Estadual do Norte Fluminense Darcy Ribeiro Laboratório de Ciências Matemáticas

ÁLGEBRA LINEAR

Liliana A. L. Mescua †
Rigoberto G. S. Castro

Agosto 2019
.

Liliana A. L. Mescua
*27/03/1970 +06/02/2019

Embora o tempo não perdoe,


a memória é o nosso livro,
e não há ausência para apagar,
o que nós já escrevemos juntos.
Tu me darás algo de magia,
algo do Céu, algo da alma,
e nada de esquecer,
porque eu sempre
te levarei comigo.
A saudade te trará de volta,
lembraremos do teu sorriso,
do teu dom de ensinar,
da tua empatia para com o próximo...
será inevitável sentir algo na alma,
saberemos que aqui tu estarás.

‘‘Dai-lhe Senhor,
em felicidade
no Céu
o que ela nos deu
em ternura
na Terra’’
Sumário

1 Matrizes 1

1.1 Tipos de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

1.2 Operações com Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.2.1 Adição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.2.2 Subtração . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.2.3 Multiplicação de um número real por uma Matriz . . . . . . . . . . . 4

1.2.4 Multiplicação de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . 5

1.3 Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.3.1 Método de Gauss Jordam para o Cálculo de Inversa . . . . . . . . . . 7

1.4 Determinante de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.4.1 Propriedades do Determinante . . . . . . . . . . . . . . . . . . . . . . 11

1.4.2 Cálculo por Redução de Linhas ou Colunas-Triangulação . . . . . . . 11

1.5 A Matriz Adjunta e a Inversibilidade de Matrizes . . . . . . . . . . . . . . . 12

1.6 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2 Sistemas de Equações Lineares Algébricas 16

2.1 Classificação de um Sistema Linear . . . . . . . . . . . . . . . . . . . . . . . 17

2.2 Método de Eliminação de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . 18

2.3 Resolução de Sistemas pela Regra de Cramer . . . . . . . . . . . . . . . . . . 21

2.4 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

ii
3 Vetores 24

3.1 Interpretação Geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

3.2 Adição de Vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

3.3 Multiplicação de um Número Real por um Vetor . . . . . . . . . . . . . . . . 26

3.4 Ângulo entre dois vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

3.5 Interpretação Algébrica em Rn . . . . . . . . . . . . . . . . . . . . . . . . . . 27

3.5.1 Interpretação Algébrica no Plano (R2 ) . . . . . . . . . . . . . . . . . 28

3.5.2 Interpretação Algébrica no Espaço (R3 ) . . . . . . . . . . . . . . . . . 30

3.6 Produto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

3.6.1 Interpretação Geométrica do Produto Escalar . . . . . . . . . . . . . 32

3.6.2 Ângulo entre dois Vetores . . . . . . . . . . . . . . . . . . . . . . . . 32

3.6.3 Projeção de um Vetor sobre Outro . . . . . . . . . . . . . . . . . . . 33

3.7 Produto Vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

3.7.1 Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

3.7.2 Interpretação Geométrica . . . . . . . . . . . . . . . . . . . . . . . . 36

3.8 Retas e Planos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

3.9 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

4 Espaço Vetorial 40

4.1 Subespaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

4.1.1 Propriedades dos Subespaços . . . . . . . . . . . . . . . . . . . . . . 42

4.2 Combinação Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

4.3 Espaço Gerado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

4.4 Independência e Dependência Linear . . . . . . . . . . . . . . . . . . . . . . 46

4.5 Base e Dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

4.5.1 Componentes de um Vetor . . . . . . . . . . . . . . . . . . . . . . . . 53

4.6 Espaço Vetorial Euclideano . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

iii
4.6.1 Complementos Ortogonais . . . . . . . . . . . . . . . . . . . . . . . . 55

4.6.2 Uma Relação Geométrica Entre Espaço Nulo e Espaço Linha . . . . . 55

4.6.3 Conjuntos Ortogonais e Ortonormais . . . . . . . . . . . . . . . . . . 56

4.6.4 Processo de Gram - Schimidt . . . . . . . . . . . . . . . . . . . . . . 57

4.7 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

5 Transformações Lineares 65

5.1 Propriedades das Transformações Lineares . . . . . . . . . . . . . . . . . . . 67

5.1.1 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

5.2 Núcleo de uma Transformação Linear . . . . . . . . . . . . . . . . . . . . . . 70

5.3 Imagem de uma Transformação Linear . . . . . . . . . . . . . . . . . . . . . 71

5.4 Propriedades do Núcleo e da Imagem . . . . . . . . . . . . . . . . . . . . . . 72

5.4.1 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

5.5 Matriz de uma Transformação Linear . . . . . . . . . . . . . . . . . . . . . . 74

5.6 Operações com Transformações Lineares . . . . . . . . . . . . . . . . . . . . 78

5.6.1 Adição ou Soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

5.6.2 Multiplicação por Escalar . . . . . . . . . . . . . . . . . . . . . . . . 79

5.6.3 Composição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

5.6.4 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

5.7 Mudança de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

5.8 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

6 Autovalores e Autovetores 84

6.1 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

7 Diagonalização de Matrizes 89

7.1 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

7.2 Matrizes Simétricas e autovetores ortogonais . . . . . . . . . . . . . . . . . . 91

iv
8 Aplicações 93

8.1 Método de Mínimos Quadrados . . . . . . . . . . . . . . . . . . . . . . . . . 93

8.1.1 Ajuste de Mínimos Quadrados a Dados . . . . . . . . . . . . . . . . . 95

8.2 Rotação de Cônicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98

A Números Complexos 102

v
Capítulo 1

Matrizes

Definição 1.1. Uma matriz de ordem m ⇥ n é uma tabela de números chamados de ele-
mentos ou termos da matriz. Esta tabela possui mn elementos escalares (números reais
ou complexos) dispostos em m linhas (número de filas horizontais) e n colunas (número de
filas verticais). Por convenção usaremos sempre as letras maiúsculas A, B, C, D, . . . para
nomeá-las
0 1 2 3
a11 a12 . . . a1n a11 a12 . . . a1n
B C 6 7
B C 6 7
B a21 a22 . . . a2n C 6 a21 a22 . . . a2n 7
A=B
B .. .. ..
C 6
.. C = 6 .. .. ..
7
.. 7 = (aij )m⇥n . (1.1)
B . . . . C 6 . . . . 7
@ A 4 5
am1 am2 . . . amn am1 am2 . . . amn

Exemplo: 0 1 2 3
2 2 0 1 4
A=@ A B=4 5 (1.2)
1 3 5 0 7
2⇥3 2⇥2

Exercício: Escreva a matriz A = (aij )3⇥2 , onde seus elementos aij = 2i + j.

Observação 1.1. De acordo com o número de linhas e colunas da matriz, podemos destacar
os seguintes casos particulares

• Quando m = 1, matriz linha

• Quando n = 1, matriz coluna

• Quando m = n, matriz quadrada

Definição 1.2. (Igualdade de Matrizes:) Duas matrizes A = (aij )m⇥n e B = (bij )m⇥n são
ditas iguais, se todos seus elementos correspondentes são iguais, isto é, se aij = bij .

1
2 3 2 3
a 1 2 1
6 7 6 7
6 7 6 7
Exercício: Determine a, b, c, d de modo que: 6 1 b + 17 = 61 1 7.
4 5 4 5
c 2 d2 6 3

1.1 Tipos de Matrizes

Matriz Nula: É uma matriz cujos elementos são todos nulos, isto é aij = 0, 8 i, j.
Denotamos por O ou Om⇥n

Matriz Diagonal Uma matriz quadrada D = (dij )n⇥n é dita diagonal quando dij = 0,
8 i 6= j.
0 1
2 0
Exemplo: D=@ A
0 4
Matriz Identidade: É uma matriz diagonal onde aii = 1 para todo i, e aij = 0 para todo
i 6= j.
0 1
1 0 ... 0
B C
B C
B0 1 . . . 0C
Exemplo: I=B
B .. ..
C
.. C
B. . .C
@ A
0 0 ... 1
Matriz Triangular Uma matriz quadrada A = (aij )nxn é dita triangular superior, se aij = 0
para i > j. Uma matriz B = (bij )nxn é dita triangular inferior quando bij = 0, para i < j.
0 1 0 1
5 4 4 5 5 0 0 0
B C B C
B C B C
B0 1 9 6C B2 1 0 0C
Exemplo: A = B B
C
C e B=B B
C
C
B0 0 3 8C B9 7 3 0C
@ A @ A
0 0 0 0 8 6 5 1
Matriz Simétrica: É uma matriz quadrada, onde aij = aji .
0 1
0 1 a b c d
4 3 1 B C
B C B C
B C B b e f g C
Exemplo: B 3 2 0 C e B C
@ A B C
B c f h i C
1 0 5 @ A
d g i k
Observe que, no caso de uma matriz simétrica, a parte superior é uma “reflexão"da parte
inferior, em relação à diagonal.

Matriz Transposta A transposta de uma matriz A = (aij )m⇥n , é uma outra matriz AT =

2
(bij )n⇥m , cujas linhas são as colunas de A, isto é, bij = aji .
0 1
3 1 0 1
B C 3 4 5
B C
Exemplo: A transposta de A = B 4 2 C é AT = @ A
@ A 1 2 3
5 3 2⇥3
3⇥2

É simples verificar que:

1. A transposta da transposta de uma matriz é ela mesma, isto é (AT )T = A.

2. Uma matriz é simétrica se somente se ela for igual à sua transposta, isto é, A = AT .

1.2 Operações com Matrizes

Ao utilizar matrizes, surge naturalmente a necessidade de efetuarmos certas operações.


Veremos algumas delas e suas propriedades a seguir:

1.2.1 Adição

A soma de duas matrizes da mesma ordem, A = (aij )m⇥n e B = (bij )m⇥n , é uma matriz
m ⇥ n, definida por A + B = (aij + bij )m⇥n .
0 1 0 1 0 1 0 1
1 4 1 1 1 1 4+1 0 5
B C B C B C B C
B C B C B C B C
Exemplo: B 2 5 C + B 3 0 C = B 2 3 5+0 C=B 1 5 C.
@ A @ p A @ p A @ p A
3 6 4 2 3+4 6+ 2 7 6+ 2

Propriedades da Adição

Se as matrizes A, B e C possuem a mesma ordem, valem as seguintes propriedades:

1. A + B = B + A (comutativa).

2. A + (B + C) = (A + B) + C (associativa).

3. A + O = A, quando O é uma matriz nula (elemento neutro).

4. Seja A = (aij )m⇥n . Chama-se matriz oposta de A, a matriz m ⇥ n representada por


A = ( aij )m⇥n , tal que A + ( A) = O ( A é o elemento oposto).

3
5. (A + B)T = AT + B T , a transposta de uma soma é igual a somas das transpostas.
0 1 0 1
1 4 1 4
B C B C
B C B C
Exemplo: A matriz oposta de A = B 2 0 C é A=B 2 0 C.
@ A @ A
7 3 7 3

1.2.2 Subtração

A diferença de duas matrizes da mesma ordem, A = (aij )m⇥n e B = (bij )m⇥n , é uma matriz
m ⇥ n, que denota-se por A B, que é a soma de A com a oposta de B; isto é:

A
B = A + ( B) = (aij )m⇥n + ( bij )m⇥n = (aij bij )m⇥n (1.3)
0 1 0 1 0 1 0 1
1 4 1 1 1+1 4 1 2 3
B C B C B C B C
B C B C B C B C
Exemplo: B 2 5 C B 3 0 C = B 2 + 3 5 0 C = B 5 5 C.
@ A @ A @ A @ A
3 6 4 2 3 4 6 2 1 4

Exercício:

1. Sejam A = (aij )3⇥2 e B = (bij )3⇥2 , tal que aij = 2i + j e bij = 1 + i j.

(a) Determine as matrizes C = A + B e D = A B.

(b) Determine uma fórmula para os elementos cij de C e dij de D.

2. Encontre as matrizes 2 ⇥ 2, A e B, sabendo que:


0 1 0 1 0 1
1 1 4 0 0 2
A+B+@ A=@ A+@ A
1 1 1/2 1 3/2 4
0 1 0 1
6 3 2 2
A B=@ A @ A.
4 0 2 1

1.2.3 Multiplicação de um número real por uma Matriz

Seja A = (aij )m⇥n e k um número escalar. Definimos o múltiplo escalar B = kA =


(bij )m⇥n , a matriz m ⇥ n onde bij = kaij .
0 1 0 1 0 1
3 1 6 2 1 1/3
B C B C 1 B C
B C B C B C
Exemplo Se A = B 1 0 C, então 2A = B 2 0 Ce A = B 1/3 0 C
@ A @ A 3 @ A
6 4 12 8 2 4/3

4
1.2.4 Multiplicação de Matrizes

Sejam as matrizes A = (aij )m⇥p e B = (bij )p⇥n . Definimos C = A · B = (cuv )m⇥n , tal que
p
X
cuv = auk bkv para todo 1  u  m e 1  v  n (1.4)
k=1

Observação 1.2. Só se pode efetuar o produto de duas matrizes Am⇥p e Bp⇥n , se o número
de colunas da primeira matriz for igual ao número de linhas da segunda matriz, sendo assim
o resultado da multiplicação de A por B será uma matriz de ordem m ⇥ n. Note que o
elemento cij é obtido multiplicando os elementos da i-ésima linha da primeira matriz pelos
elementos correspondentes da j-ésima coluna da segunda matriz, e somando este produtos.

Exemplo:
0 1 0 1 0 1
1 ⇣ ⌘ 1.( 3) 1.(4) 3 4
a) @ A 3 4 =@ A=@ A
2 1⇥2 2.( 3) 2.(4) 6 8
2⇥1 2⇥2
0 1 0 1 0 1 0 1
1 0 1 1 1.( 1) + 0.(5) 1.(1) + 0.(3) 1 1
b) @ A @ A =@ A=@ A
3 2 5 3 3.( 1) + 2.(5) 3.(1) + 2.(3) 13 3
2⇥2 2⇥2 2⇥2

Observação 1.3. A propriedade comutativa em matrizes nem sempre é válida, isto é AB e


BA não necessariamente são iguais. No item b) do exemplo anterior verifique se AB = BA.

Se A é uma matriz quadrada n ⇥ n e I a matriz identidade n ⇥ n, então

AI = IA = A.

Propriedades da Multiplicação

Supondo que a ordem das matrizes A, B e C estejam definidas de modo que cada uma
das operações abaixo indicadas possam ser efetuadas, então as propriedades seguintes serão
válidas.

1. (A.B).C = A.(B.C) (associatividade).

2. (A ± B).C = A.C ± B.C (distributividade à direita).

3. A.(B ± C) = A.B ± A.C (distributividade à esquerda).

4. k(B ± C) = kB ± kC, k, s 2 R

5. (k ± s)A = kA ± sA, k, s 2 R

5
6. k(sA) = (ks)A, k, s 2 R

7. (↵.A)T = ↵.AT , onde ↵ é qualquer escalar.

8. (A.B)T = B T .AT (deve-se observar a ordem).

Matriz Anti-simétrica: É uma matriz quadrada, onde AT = A.


0 1
0 3 4
B C
B C
Exemplo: A = B 3 0 6C é anti-simétrica.
@ A
4 6 0

1.3 Matriz Inversa

Uma matriz quadrada A é dita inversível ou não singular, se existir uma outra matriz
B (inversa multiplicativa), da mesma ordem, tal que A.B = I e B.A = I. Denotaremos
B = A 1 , sendo que
1
A.A = A 1 .A = I.

Definição 1.3. Uma matriz A é dita não inversível ou singular se ela não tem uma
inversa multiplicativa.

Propriedades

1. Uma matriz inversível tem uma única inversa multiplicativa.

2. Se A e B são matrizes de mesma ordem, ambas inversíveis, então A e B é inversível e


(A.B) 1
=B 1
. A 1.

3. Nem toda matriz tem inversa.


0 1 0 1
2 1 1/2 1/8
Exemplo: As matrizes A = @ AeB =@ A são inversas uma da outra ja
0 4 0 1/4
que A.B = B.A = I
0 1
1 1
Exercício: Encontre a inversa da matriz A = @ A.
0 1

6
1.3.1 Método de Gauss Jordam para o Cálculo de Inversa

Uma forma para achar a inversa de uma matriz quadrada A, e que envolve substancialmente
menos contas do que aplicando a definição diretamente, é usando as operações elementares
sobre as linhas da matriz aumentada associada (A|I) de modo que esta se transforme numa
matriz aumentada da forma (I|B). Diremos que B = A 1 .

As operações elementares permitidas são:

1. Permutar linhas Li ! Lj

2. Multiplicar uma linha por um número real ↵ não nulo, Li ! ↵Li .

3. Somar a uma linha um múltiplo de uma outra, Li ! Li + ↵Lj .


0 1
2 3 0
B C
B C
Exemplo: Ache a inversa da matriz A = B 1 2 1 C se existir.
@ A
2 0 1
Solução: A partir da matriz aumentada (A|I), usando as operações por linhas temos:
0 1
2 3 0 | 1 0 0 L1 ! L2
B C
B C
(A|I) = B1 2 1 | 0 1 0C L2 ! L1
@ A
2 0 1 | 0 0 1 L3 ! L3
0 1
1 2 1 | 0 1 0 L1 ! L1
B C
B C
= B2 3 0 | 1 0 0C L2 ! L2 2L1
@ A
2 0 1 | 0 0 1 L3 ! L3 2L1
0 1
1 2 1 | 0 1 0 L1 ! L1
B C
B C
= B0 7 2 | 1 2 0 C L2 ! L2 /7
@ A
0 4 1 | 0 2 1 L3 ! L3
0 1
1 2 1 | 0 1 0 L1 ! L1 + 2L2
B C
B C
= B0 1 2/7 | 1/7 2/7 0C L2 ! L2
@ A
0 4 1 | 0 2 1 L3 ! L3 4L2
0 1
1 0 3/7 | 2/7 3/7 0 L1 ! L1 3L3
B C
B C
= B0 1 2/7 | 1/7 2/7 0C L2 ! L2 + 2L3
@ A
0 0 1/7 | 4/7 6/7 1 L3 ! 7L3

7
0 1
1 0 0 | 2 3 3
B C
B C 1
= B0 1 0 | 1 2 2 C = (I|A )
@ A
0 0 1 | 4 6 7
0 1
2 3 3
B C
B C
Portanto, a inversa da matriz A existe e é dada por A 1
=B 1 2 2C
@ A
4 6 7
0 1
2 1 4
B C
B C
Exemplo: Encontre a inversa da matriz A = B 4 1 6 C se existir.
@ A
2 2 2
Solução: A partir da matriz aumentada (A|I), usando as operações por linhas temos:
0 1
2 1 4 | 1 0 0 L1 ! L1
B C
B C
(A|I) = B 4 1 6 | 0 1 0C L2 ! L2 + 2L1
@ A
2 2 2 | 0 0 1 L3 ! L3 + L1
0 1
2 1 4 | 1 0 0 L1 ! L1
B C
B C
= B0 1 2 | 2 1 0C L 2 ! L2
@ A
0 3 6 | 1 0 1 L3 ! L3 3L2
0 1
2 1 4 | 1 0 0
B C
B C
= B0 1 2 | 2 1 0C
@ A
0 0 0 | 5 3 1

Nesse ponto vemos que não é possível reduzir A a I, ja que encontramos uma linha de zeros
do lado esquerdo da matriz completa. Consequentemente A não é inversível.
0 1
a b
Exemplo Seja a matriz A = @ A. Usando o método de Gauss Jordam, prove que a
c d
matriz inversa dela é 0 1
1 d b
A 1= @ A (1.5)
ad bc c a

Solução:
0 1
L1
a b | 1 0 L1 !
(A|I) = @ A a
L2
c d | 0 1 L2 ! d
0 1
1 ab | 1/a 0 L1 ! L1
=@ A
c c
d
1 | 0 1/d L2 ! L2 L
d 1

8
0 1
b 1
1 b
| 1
0 L1 ! L1 L
a (1 bc ) 2
=@ a a A ad
bc c 1 1
0 1 ad
| ad d
L2 ! 1
L2 bc
ad
0 1 0 1
1 b 1 c b 1
1 0 | a
+ a (1 bc ) ad ad (1 bc ) 1 0 | d b
=@ ad ad A
=@ (ad bc) ad bc A
c 1 1 1 c a
0 1 | ad (1 bc ) d (1 bc )
0 1 | ad bc ad bc
.
ad ad

Nesta última matriz, colocando em evidência o fator 1


ad bc
segue o resultado (1.5).

1.4 Determinante de uma Matriz

É possível associar a cada matriz A de ordem n ⇥ n, um escalar (número real ou complexo),


que denotaremos por det A, cujo valor vai nos dizer se a matriz é ou não invertível. Antes
de dar a definição geral vamos a considerar alguns casos particulares.

Caso 1. Se A = (a) é uma matriz 1 ⇥ 1, definimos o determinante de A por:

det A = a.

Diremos que A tem inversa multiplicativa (A é invertível) se e só se det A 6= 0.


0 1
a11 a12
Caso 2. Se A = @ A é uma matriz 2 ⇥ 2, definimos o determinante de A pelo
a21 a22
fator inverso que aparece em (1.5), neste caso será:

det A = a11 a22 a12 a21 .


0 1
a a a
B 11 12 13 C
B C
Caso 3. Se A = B a21 a22 a23 C é uma matriz 3 ⇥ 3, definimos o determinante de A por:
@ A
a31 a32 a33

det A = a11 a22 a33 a11 a32 a23 a12 a21 a33 + a12 a31 a23 + a13 a21 a32 a13 a31 a22 .

Note que o det A é o fator inverso que se obtém ao calcular a matriz inversa de A usando
o método de Gauss Jordam.

Podemos reescrever a equação anterior na forma

det A = a11 (a22 a33 a32 a23 ) a12 (a21 a33 a31 a23 ) + a13 (a21 a32 a31 a22 ) (1.6)

Para j = 1, 2, 3, vamos denotar por M1j a submatriz 2 ⇥ 2 de A formada retirando-se a


primeira linha e a j-ésima coluna de A. O determinante de A (1.6) pode ser, então, colocado

9
na forma
det A = a11 det M11 a12 det M12 + a13 det M13 (1.7)

Para ver como generalizar (1.7) para o caso n > 3, vamos a dar a seguinte definição.

Definição 1.4. (Menores e Cofatores): Seja A = (aij ) uma matriz n ⇥ n. O ij-ésimo


menor de A é o determinante da submatriz Mij , de ordem (n 1) ⇥ (n 1), que sobra
quando suprimimos a i-ésima linha e a j-ésima coluna de A. O ij-ésimo Cofator Aij de A
(ou o cofator de aij ) é definido como

Aij = ( 1)i+j det Mij .

Definição 1.5. (Desenvolvimento de Laplace) O determinante de uma matriz n ⇥ n é


o número real det A, definido por

det A = ai1 .Ai1 + ai2 .Ai2 + ... + a1n .Ain (1.8)

ou

det A = a1j .A1j + a2j .A2j + ... + anj .Anj , (1.9)

onde Aij é ij-ésimo cofator de A.


0 1
0 1 5
B C
B C
Exemplo: Ache o determinante da matriz A = B 3 6 9 C.
@ A
2 6 1
Solução.: Calculando a matriz de cofatores temos:
0 1
60 15 30
B C
B C
cof (A) = B 29 10 2 C
@ A
39 15 3

Logo, o determinante de A pode-se obter por exemplo das seguintes formas:

1. Em relação a primeira linha, det A = 0( 60) + 1(15) + 5(30) = 165.

2. Em relação a terceira linha, det A = 2(39) + 6(15) + 1( 3) = 165.

3. Em relação a segunda coluna, det A = 1(15) 6( 10) + 6(15) = 165.

10
1.4.1 Propriedades do Determinante

Seja A uma matriz de ordem n ⇥ n.

1. Se A tem uma linha o uma coluna de zeros, então det A = 0.

2. Se duas linhas ou colunas de A são iguais, então det A = 0.

3. det A = det AT .

4. Se A é uma matriz, triangular superior ou triangular inferior ou diagonal, então o det A


é igual ao produto de seus elementos da diagonal.

5. Se B é uma matriz de ordem n ⇥ n, então: det(A + B) 6= det A + det B e det(AB) =


det A det B

6. Seja B a matriz obtida ao multiplicar uma única linha ou coluna de A por k, então:
1
det B = k det A (det A = det B).
k
7. Seja B a matriz obtida ao permutar duas linhas (ou duas colunas) de A, então det B =
det A.

8. Seja B a matriz obtida ao somar um múltiplo de uma linha (ou colunas) de A a uma
outra linha (ou coluna), então det B = det A.

1.4.2 Cálculo por Redução de Linhas ou Colunas-Triangulação

A seguir apresentamos um método para calcular determinantes que envolve substancialmente


menos contas que aplicando a definição diretamente.

Assim, tendo em mente as propriedades 6, 7 e 8, a idéia será reduzir a matriz A ao


formato triangular.
0 1
0 1 5
B C
B C
Exemplo: Ache o determinante da matriz A = B 3 6 9 C.
@ A
2 6 1

11
Solução: Usando as propriedades 6, 7 e 8, obtemos que

0 1 5 3 6 9
det A = 3 6 9 = 0 1 5 (linhas 2 e 3 foram permutadas)
2 6 1 2 6 1

1 2 3
= 3 0 1 5 (o fator comun 3 da linha 1 foi retirado)
2 6 1

1 2 3
= 3 0 1 5 (linha 3 + (-2) (linha 1))
0 10 5

1 2 3
= 3 0 1 5 (linha 3 + (-10) (linha 2))
0 0 55

= 3(1)(1)( 55) = 165


0 1
1 0 0 3
B C
B C
B 2 7 0 6 C
Exemplo: Ache o determinante da matriz A = B
B
C.
C
B 0 6 3 0 C
@ A
7 3 1 5
Solução: Reduzindo a matriz a uma triangular inferior usando operações por coluna, obte-
mos que

1 0 0 3 1 0 0 0
2 7 0 6 2 7 0 0
det A = = (coluna 4 + (-3)(coluna 1))
0 6 3 0 0 6 3 0
7 3 1 5 7 3 1 26

= (1)(7)(3)( 26) = 546

1.5 A Matriz Adjunta e a Inversibilidade de Matrizes

Suponhamos que An⇥n tenha inversa, isto é, existe A 1


tal que A · A 1
= I. Usando o
determinante obtém-se

det (A · A 1 ) = det A · det A 1


e det I = 1

12
Então:
1 1
det A =
det A
Definição 1.6. Seja a matriz A 2 Mn⇥n (R). Chamaremos Adjunta de A, a matriz Adj(A)
que é a transposta da matriz de cofatores. Simbolicamente,

Adj(A) = (cof (A))T .

Teorema 1.1. Se A é uma matriz inversível, então:

1 1
A = Adj (A).
det A

Uma condição necessária para que A tenha inversa é que o det A 6= 0.

0 1
1 2
Ex.: Ache a inversa de A = @ A.
1 3
0 1
3 1
Solução: Calculando temos que det A = 5, a matriz de cofatores cof (A) = @ Aea
2 1
0 1
3 2
adjunta Adj(A) = (cof (A))T = @ A, logo pelo Teorema 1.1
1 1
0 1
1 @3 2
A.
A 1
= · (1.10)
5 1 1

Teorema 1.2. Uma matriz A de ordem n ⇥ n é não inversível se e somente se

det(A) = 0

13
1.6 Exercícios

Para conferir seus resultados recomenda-se usar um calculador online


Dica: http://www.solvemymath.com/online_math_calculator/algebra_combinatorics/
0 1
0 1 0 1 1 2 0 1
3 0 4 2 1 B C 0 3
1. Sejam A = @ A, B = @ A, C = B C
B3 4C e D = @ A.
1 5 0 2 3 @ A 2 1
5 6
Calcular A + 2D, B C T , B T C T CB, A3 , DA AD.
0p 1
2
2 x
2. Seja A = @ A. Calcule os possíveis valores de x, para que AT = A.
4x 1

3. (i) Se A é uma matriz simétrica n ⇥ n, calcule AT A.

(ii) Se A é uma matriz triangular inferior, AT é uma matriz triangular . . . . . . .

(iii) A é uma matriz diagonal, calcule AT .


0 1
2 3 4
B C
B C
4. Seja a matriz A = B0 4 2 C. Usando cofatores,
@ A
1 1 5
(i) Calcule det A desenvolvendo em relação à primeira linha.

(ii) Calcule det A desenvolvendo em relação à primeira coluna.

(iii) Calcule det A desenvolvendo em relação à segunda coluna.

5. Usando
0 cofatores 1
e fazendo o0menor número
1 de operações,
0 calcule o 1
determinante de
2 0 3 0 4 0 2 1 2 0 0 1
B C B C B C
B C B C B C
B3 0 0 1C B5 0 4 2 C B0 1 0 0C
A=B B
C, B = B
C B
C e C=B
C B
C.
C
B0 2 3 0C B2 0 3 4 C B1 6 2 0C
@ A @ A @ A
2 0 1 4 1 1 2 3 1 1 2 3

6. Calcule o determinante de cada uma das seguintes matrizes (use as operações elemen-
tares por linhas para reduzir as matrizes abaixo à sua forma triangular).
0 1 0 1 0 1
2 0 1 t+3 1 1 1 4 5
B C B C B C
B C B C B C
A = B3 0 2 C , B = B 5 t 3 1 C e C = B 0 0 1 C.
@ A @ A @ A
4 3 7 6 6 t+4 1 8 7

14
0 1
1 1 1
B C
B C
7. Encontre todos os valores possíveis de c que tornem a matriz inversível B1 9 c C.
@ A
1 c 3

8. Sejam as matrizes
0 1 0 1 0 1
1 3 4 1 0 0 cos ✓ sen ✓ 0
B C B C B C
B C B C B C
A=B 2 4 1 C B = B1 3 0C C = B sen ✓ cos ✓ 0C
@ A @ A @ A
4 2 9 1 3 5 0 0 1
0 1 0 1 0 1
2 5 5 2 0 3 2 0 0
B C B C B C
B C B C B C
D=B 1 1 0C E=B 0 3 2 C F =B 8 1 0C e
@ A @ A @ A
2 4 3 2 0 4 5 3 6
0 1
a b c
B C
B C
G = B c a b C.
@ A
b c a
(i) Calcule os cofatores das matrizes A, B, C, D, E, F e G.

(ii) Determine a inversa das matrizes A, B e C usando o Teorema 1.1.

9. Encontre a inversa das matrizes dadas usando operações por linha


0 1 0 p p 1
0 1 0 1 0 1 1 0 0 0 2 0 2 2 0
2 3 0 1 1 0 0 a 0 B C B p p C
B C B C B C B C B C
B C B C B C B 0 1 0 0C B 4 2 2 0 0C
B1 2 1 C, B1 0 1 C, B b 0 c C, B C, B C.
@ A @ A @ A B C B
B0 0 1 0C B 0 0 1 0C
C
2 0 1 0 1 1 0 d 0 @ A @ A
a b c d 0 0 3 1

10. Sejam A e B matrizes 3 ⇥ 3 com det A = 4 e det B = 5. Encontre o valor de det(AB),


det(3A), det(2AB), det(A 1 B)

11. Uma matriz A é ortogonal0se sua inversa 1


é igual a sua transposta, ou seja, A 1
= AT .
cos ✓ sen ✓
Provar que a matriz A = @ A é ortogonal.
sen ✓ cos ✓

15
Capítulo 2

Sistemas de Equações Lineares


Algébricas

Uma equação linear de n incógnitas é uma equação da forma

a1 x 1 + a2 x 2 + · · · + an x n = b (2.1)

Um sistema linear de m equações algébricas lineares de n variáveis (incógnitas) é um


conjunto de equações lineares que devem ser resolvidas simultaneamente, por exemplo:
8
>
> a11 x1 + a12 x2 + · · · + a1n xn = b1
>
>
>
>
< a x + a x + ··· + a x = b
21 1 22 2 2n n 2
.. (2.2)
>
> .
>
>
>
>
: a x + a x + ··· + a x = b
m1 1 m2 2 mn n m

onde os aij e bi são números reais.

Em 1858, o matemático inglês Artur Cayley introduz uma notação abreviada para ex-
pressar o sistema linear (2.2), na forma matricial:
0 1 0 1 0 1
a a12 · · · a1n x1 b1
B 11 C B C B C
B C B C B C
B a21 a22 · · · a2n C B x2 C B b2 C
B C . B C =B C . (2.3)
B .. .. ... . C
.. C B .. C B .. C
B . . B . C B . C
@ A @ A @ A
am1 am2 · · · amn xn bm
m⇥n n⇥1 m⇥1
Assim a forma matricial (2.3) escreve-se abreviadamente por:

Ax = b, (2.4)

onde A é uma matriz m ⇥ n, b um vetor m ⇥ 1 e x é um vetor n ⇥ 1.

“Se b = 0, o sistema é dito homogêneo, caso contrário ele é não-homogêneo".

16
2.1 Classificação de um Sistema Linear

O sistema linear (2.2) pode ter ou não solução. Assim, classificaremos os sistemas lineares
em dois tipos:
8
< Determinado, uma única solução
1. Compatível (ou possível)
: Indeterminado mais de uma solução.

2. Incompatível (ou impossível) quando não possui solução.

Se o sistema linear (2.2) tem o número de equações igual ao número de incognitas (m = n),
então a matriz A associada a forma matricial equivalente (2.4) será uma matriz quadrada
n ⇥ n. Logo,

• Se a matriz A é inversível, isto é, o det A 6= 0, então o sistema tem uma única solução,
ou seja, x = A 1 b.

• Se a matriz A não é inversível, isto é det A = 0, então o sistema não tem solução, ou
existe solução mas não é única.

(Um sistema homogêneo: Ax = 0, onde det A = 0, possui infinitas soluções)

Observação 2.1. Um sistema linear homogêneo Ax = 0 admite sempre a solução nula,


chamada solução trivial. Logo, um sistema linear homogêneo é sempre compatível.

Exemplo: É simples verificar que a solução nula x = (0, 0, 0)T é solução do sistema linear
homogêneo,
0 1 0 1
8 0 1 x1 0
< 3x x2 + 7x3 = 0 3 1 7 B C B C
1
() @ AB C B C
Bx2 C = B0C () Ax = 0
: x 2x2 + 3x3 = 0. 1 2 3 @ A @ A
1
x3 0

Uma interpretação geométrica das soluções de um sistema linear, pode ser observada
para sistemas de ordem 2 ⇥ 2. Por exemplo, sejam os sistemas:
8 8 8
< x +x =2 < x +x =2 < x +x =2
1 2 1 2 1 2
I) II) III)
: x x2 = 2 : x +x =1 : x x2 = 2.
1 1 2 1

A solução dos respectivos sistemas podem ser visualizados nos seguintes gráficos da Figura
2.1

17
(a) Caso I (b) Caso II (c) Caso III

Figura 2.1: Solução de sistemas de equações lineares de ordem 2 ⇥ 2

2.2 Método de Eliminação de Gauss

Consiste na resolução de Sistemas por Escalonamento onde o objetivo é migrar de um


sistema linear Ax = b para outro que lhe seja equivalente, e de resolução mais simples. A
ideia então é, usar as operações elementares sobre as linhas da matriz aumentada (A | b) de
modo que esta se transforme à forma (A0 | b0 ) onde A0 é uma matriz escalonada (Defini-
ção 2.1). Assim, o sistema final equivalente A0 x = b 0 será resolvido usando substituições
regressivas.

Definição 2.1. Uma matriz esta escalonada por linhas quando satisfaz as seguintes pro-
priedades:

1. Todas as linhas que consistem inteiramente de zeros estão na parte inferior da matriz.

2. Em cada linha não nula, o primeiro elemento não nulo (chamado elemento líder) está
em uma coluna à esquerda de qualquer outro elemento líder abaixo dele.

Observação 2.2. A forma escalonada de uma matriz não é única. Logo, dependendo de
sua escolha na hora de fazer as operações elementares você poderá obter várias matrizes
equivalentes, porém sempre uma mesma solução.

Exemplo: Ache a solução do sistema linear


8 0 10 1 0 1
>
> x + 2x + x = 3 1 2 1 x 3
>
< 1 2 3
B C B 1C B C
B CB C B C
3x1 x2 3x3 = 1 () B3 1 3 C Bx 2 C = B 1 C () Ax = b
>
> @ A@ A @ A
>
: 2x + 3x + x = 4.
1 2 3 2 3 1 x3 4

18
Sol.: Apartir da matriz aumentada, usando as operações por linhas temos:
0 1
1 2 1 | 3
B C
B C
(A|b) = B3 1 3 | 1C L2 ! L2 3L1
@ A
2 3 1 | 4 L3 ! L3 2L1
0 1
1 2 1 | 3
B C
B C
= B0 7 6 | 10C L2 ! L3
@ A
0 1 1 | 2
0 1
1 2 1 | 3
B C
B C
= B0 1 1 | 2C
@ A
0 7 6 | 10 L3 ! L3 7L2
0 1
1 2 1 | 3
B C
B C 0 0
= B0 1 1 | 2C = (A |b )
@ A
0 0 1 | 4

O sistema equivalente resultante é


8
>
> x +2x2 + x3 = 3
>
< 1
x2 x3 = 2
>
>
>
: x3 = 4.

A solução deste último sistema obtém-se resolvendo a última equação e substituindo a res-
pectiva solução na equação anterior, até chegar na primeira. Neste caso temos que x3 = 4,
x2 = 2 e x1 = 3

Exemplo: Resolva o sistema


8
>
< x + 2y + z + t = 1
>
: x + 3y z + t = 3
0 1
1 2 1 1 1
B C
B C
B1 3 1 1 3C
Sol.: A matriz aumentada (A|b) associada ao sistema é B
B
C.
C
B0 0 0 0 0C
@ A
0 0 0 0 0
0 1
1 2 1 1 1
B C
B C
B0 1 2 0 2C
Logo, fazendo L2 ! L2 L1 , a forma escalonada torna-se B
B
C.
C
B0 0 0 0 0C
@ A
0 0 0 0 0

19
Observemos que o número de variáveis livres ( que não dependem de outras variáveis)
é igual ao número de linhas não nulas na forma escalonada. No exemplo dado, z e t são
as variáveis livres .

Assim , para z = 1 e t= 2 obtemos mediante substituições regressivas:

y = 2 + 2 1, x=1 2(2 + 2 1 ) 1 2 = 3 5 1 2.

Definição 2.2. O posto de uma matriz, posto(A), é o número de linhas não nulas de
qualquer uma de suas formas escalonadas por linhas.

Teorema 2.1. (O Teorema do Posto) Seja A a matriz dos coeficientes de um sistema de


equações lineares com n variáveis. Se o sistema for possível, então o

número de variáveis livres = n posto(A)

No último exemplo, como o sistema tem solução, pelo Teorema do Posto temos 4 2=2
variáveis livres, neste caso z e t.

Exemplo Resolva o sistema


8
>
>
>
> x y + 2z = 3
>
<
> x + 2y z = 3
>
>
>
>
: 2y 2z = 1
0 1
1 1 2 3
B C
B C
Sol.: A matriz aumentada (A|b) associada ao sistema é B1 2 1 3 C.
@ A
0 2 2 1
0 1
1 1 2 3
B C
B C
Logo, fazendo L2 ! L2 L1 , a forma escalonada torna-se B0 3 3 6 C.
@ A
0 2 2 1
0 1
1 1 2 3
B C
B C
Finalmente, fazendo L3 ! 3L3 2L2 , temos B0 3 3 6C levando à equação
@ A
0 0 0 15
impossível, 0 = 15.

Assim, o sistema não tem solução, ele é impossível.

20
2.3 Resolução de Sistemas pela Regra de Cramer

O método de Cramer nos permitirá escrever a solução de um sistema de equações lineares


n ⇥ n em função de determinantes. Entretanto, devemos salientar que este método envolve
o cálculo de n + 1 determinantes de ordem n o que equivale a resolver mais operações que
no método de Gauss.

Seja A uma matriz inversível n ⇥ n e seja b 2 Rn . Seja Ai a matriz obtida substituindo-se


a i-ésima coluna de A por b. Se x = (x1 , x2 , . . . , xn )T for a única solução de Ax = b, então:
det (Ai )
xi = para i = 1, 2, . . . , n.
det A

Exemplo: Ache a solução do sistema linear


8 0 10 1 0 1
>
> x1 + 2x2 + x3 = 3 1 2 1 x 3
>
< B C B 1C B C
B CB C B C
3x1 x2 3x3 = 1 () B3 1 3 C Bx 2 C = B 1 C () Ax = b
>
> @ A@ A @ A
>
: 2x + 3x + x = 4.
1 2 3 2 3 1 x3 4

Sol.: Usando o método de Cramer e sabendo que

det A = 1( 1 + 9) 2(3 + 6) + 1(9 + 2) = 8 18 + 11 = 1

temos que:

3 2 1
x1 = 1 1 3 = (3( 1 + 9) 2( 1 + 12) + 1( 3 + 4)) = 24 22 + 1 = 3
4 3 1

1 3 1
x2 = 3 1 3 = (1( 1 + 12) 3(3 + 6) + 1(12 + 2)) = 11 27 + 14 = 2
2 4 1

1 2 3
x3 = 3 1 1 = (1( 4 + 3) 2(12 + 2) + 3(9 + 2)) = 1 28 + 33 = 4
2 3 4

2.4 Exercícios

1. Resolva os seguintes sistemas pelo método de Gauss-Jordan.

21
8 8
>
< 3x >
< 2x
y= 4 3y = 4
(i) (ii)
>
: 2x 1 >
:
2
y = 1 x 3y = 1
8 8
>
> >
>
>
> x 3y 2z = 0 >
> 2x + 3y z + 4w = 0
>
< >
<
(iii) x + 2y + z = 0 (iv) 3x y + w= 1
>
> >
>
>
> >
>
>
: 2x >
: 3x
+ 4y + 6z = 0 4y + z w= 2
8 8
>
> p >
>
>
> 2x + y + 2z = 1 >
> x + 3y 2z + 4w = 0
>
< >
<
p p
(v) 2y 3z = 2 (vi) 2x 6y + z 2w = 3
>
> >
>
>
> p >
>
>
: >
: x
y + 2z = 1 3y + 4z 8w = 2
8 8
>
> 1 >
>
>
> x + y z 6w =2 >
> 2x + y = 3
>
< 2 >
<
(vii) 1
x + 1
y 3w +t = 1 (viii) 4x + y = 7
>
> 6 2 >
>
>
> >
>
>
: 1x >
: 2x + 5y =
3
2z 4t = 8 1
8 8
>
> x + y + z + w = 4 >
> x + y + 2z + w = 1
>
> >
>
>
> >
>
>
> >
>
< x + 2y + 3z + 4w = 10 < x y z + w= 0
ix) x)
>
> >
>
>
> x + 3y + 6z + 10w = 20 >
> y + z = 1
>
> >
>
>
> >
>
: x + 4y + 10z + 20w = 35 : x + y + w= 2

2. O sistema seguinte não tem soluções para quais valores de a?. Exatamente uma solu-
ção?. Infinitas soluções.
8 8
>
> >
>
> x + 2y
> 3z = 4 >
> x + y + az = 1
>
< >
<
> 3x y + 5z = 2 > x + ay + z = 1
>
> >
>
>
> >
>
: 4x + y + (a2 14)z = a + 2 : ax + y + z = 2

3. Determine k para que o sistema admita solução


8
>
>
>
> 4x + 3y = 2
>
<
> 5x 4y = 0
>
>
>
>
: 2x y = k

4. Resolva o sistema
8
>
< x + y + z = 4
>
: 2x + 5y 2z = 3

22
5. Estabeleça a condição que deve ser satisfeita a e b para que o sistema seja compatível.
8
>
> 8 8
>
> x 2y z = a
>
< >
<ax + y = >
< x + ay = 1
1
a) 2x + y + 3z = b b) c)
>
> >
:2x + y = b >
:bx + 2y = 5
>
>
>
:4x 3y + z = 1

6. Encontre os coeficientes do polinômio p(x) = ax3 + bx2 + cx + d cujo gráfico passa


pelos pontos (0, 3), (2, 5), (3, 0) e ( 1, 8).

7. Encontre a reta interseção de cada par de planos dados

a) 3x + 2y + z = 1 e 2x y + 4z = 5

b) 4x + y z=0 e 2x y + 3z = 4

8. Mentiras que meu Computador me Contou (David Poole) Existem sistemas


chamados Mal condicionados que são extremadamente sensíveis a arredondamentos,
a seguir um exemplo deste para você pensar.

a) Resolva o seguinte sistema exatamente (trabalhe apenas com frações)


8
>
< x+y = 0
>
:x + 801
800
y = 1.

b) Sabendo que a forma decimal de 801


800
= 1, 00125 use uma calculadora online e resolva
o sistema: 8
>
< x+y = 0
>
:x + 1, 00125y = 1.

Dica: http://www.solvemymath.com/online_math_calculator/

c) Resolva o sistema dado em a) arredondando 801


800
= 1, 0012 e 801
800
= 1, 001.

d) Conclua que mesmo um pequeno erro de arredondamento pode levar a grandes erros
de resultado. Explique geometricamente.

23
Capítulo 3

Vetores

Com o intuito de esclarecer melhor o conceito de vetor, uma abordagem geométrica e algé-
brica serão apresentadas.

3.1 Interpretação Geométrica

Existem dois tipos de grandezas: as escalares e as vetoriais. As escalares são aquelas que
ficam definidas por apenas um número real (acompanhado de uma unidade adequada). Por
exemplo, comprimento, área, volume, massa, densidade e temperatura. As grandezas vetori-
ais, são o caso contrario, isto é, não basta saber seu módulo e unidade correspondente, para
serem perfeitamente caracterizadas precisamos sua direção e seu sentido. Por exemplo,
força, velocidade e aceleração.

Definição 3.1. Um vetor ~v é uma classe de objetos matemáticos (segmentos) com a mesma
direção, mesmo sentido e mesmo módulo, sendo:

- A direção, a da reta colinear que contém o segmento ou reta paralela.

- O sentido, dado pela orientação do movimento.

- O módulo, o comprimento do segmento.

!
Um vetor que vai do ponto A (origem) até o ponto B (extremidade) é denotado por AB.

Na seguinte figura todos os segmentos orientados paralelos ou colineares, de mesmo sen-


tido e mesmo comprimento, representam um único vetor.

24
Figura 3.1:

3.2 Adição de Vetores

Consideremos dois vetores ~u e ~v , cuja soma ~u + ~v pretendemos encontrar. Tomemos um


!
ponto A qualquer e, com origem nele, tracemos um segmento orientado AB representante do
!
vetor ~u e um segmento orientado BC representante do vetor ~v . O vetor representado pelo
!
segmento orientado AC será o representante do vetor soma ~u + ~v , isto é,

!
~u + ~v = AC

ou
! ! !
AB + BC = AC

Sendo ~u, ~v e w
~ vetores quaisquer, a adição admite as seguintes propriedades

1. Comutativa: ~u + ~v = ~v + ~u.

2. Associativa: (~u + ~v ) + w
~ = ~u + (~v + w).
~

3. Elemento Neutro: ~u + ~0 = ~u

4. Elemento Oposto: ~u + ( ~u) = ~0

Observação 3.1. O vetor ~


u + ( ~v ) escreve-se ~u ~v ,é chamado diferença entre ~u e ~v . Ver
Figura 3.2.

25
Figura 3.2: Soma de vetores.

3.3 Multiplicação de um Número Real por um Vetor

Dado um vetor ~u 6= 0 e um número real ↵ 6= 0, chama-se produto do número real ↵ pelo


vetor ~u, o vetor ↵~u tal que:

1. Módulo ou comprimento: |↵~v | = |↵||~v |

2. Direção: ↵~v é paralelo a ~v

3. Sentido: ↵~v e ~v tem o mesmo sentido se ↵ > 0, e contrário se ↵ < 0. Ver Figura 3.3.

Figura 3.3: Multiplicação de um Número Real por um Vetor

26
3.4 Ângulo entre dois vetores
!
O ângulo entre os vetores não nulos u e v é o ângulo ✓ formado por duas semi-retas OA e
! ! !
OB de mesma origem O, onde ~u = OA, ~v = OB e 0  ✓  ⇡.

• Se ~u//~v e ~u e ~v têm o mesmo sentido, então ✓ = 0. Na figura acima, o ângulo entre


~u e 2~u é zero.

• Se ~u//~v e ~u e ~v têm sentidos contrários, então ✓ = ⇡. Na figura acima, o ângulo entre


~u e 3~u é ⇡.

3.5 Interpretação Algébrica em Rn


!
O representante de um vetor ~v = AB, está na posição padrão se seu ponto inicial A
!
coincidir com a origem O do sistema de coordenadas (Figura 3.4). Então ~v = OP , onde
o ponto P = B A é extremidade do vetor. Dessa forma, todo vetor ~v é vetor posição
de algum ponto P (unicamente determinado) e as coordenadas de P são as mesmas que as
componentes de ~v .

Figura 3.4: Interpretação Algébrica de Vetores


0 1
x1
B C
B C
B x2 C
Observação 3.2. Todo vetor ~v em R pode-se representar matricialmente por: ~v = B
n
B ..
C
C
B . C
@ A
xn
ou ~v = (x1 , x2 , . . . , xn ), em ambos casos ~v é o vetor posição de P .

27
Exemplo: Se um vetor tem origem em (1, 2) e extremidade em (7, 12), ele é representado
por !
v = (6, 10), pois:
!
v = (7, 12) (1, 2) = (6, 10)

3.5.1 Interpretação Algébrica no Plano (R2 )

Consideremos dois vetores v~1 e v~2 não paralelos, representados com a origem no mesmo ponto
O, e sejam r1 e r2 retas contendo estes representantes, respectivamente.

Os vetores ~u, ~v , w,
~ ~x e ~y , representados na figura podem ser escritos em função de v~1 e
v~2 por

~u = 3~v1 + 4~v2 ~v = 2~v1 + 3~v2 w


~= 3~v1 ~v2

~x = 2~v1 + 0~v2 ~y = 0~v1 + 3~v2

De modo geral dados dois vetores quaisquer v~1 e v~2 , existe uma só dupla de números reais
a1 e a2 , tal que
v = a1 v~1 + a2 v~2 .

O vetor ~v é chamado combinação linear de v1 e v2 . O conjunto B = {v~1 , v~2 } é chamado


de base no plano.

“Qualquer conjunto de dois vetores não paralelos forma uma base no plano"

28
Observação 3.3. Dentre as infinitas bases que existem no plano a mais importante é aquela
que determina o conhecido sistema cartesiano ortogonal xOy. Esta base é chamada de base
canônica e esta determinada pelos vetores ortogonais e unitários ~i = (1, 0) e ~j = (0, 1).

Assim, qualquer vetor ~v = (x, y) do plano pode-se escrever da forma

v = x ~i + y ~j.

Igualdade de Vetores. Dois vetores ~u = (x1 , y1 ) e ~v = (x2 , y2 ) são iguais se,

x1 = x2 e y1 = y2 .

Neste caso, escrevemos ~u = ~v .

Definição 3.2. Sejam dois vetores ~u = (x1 , y1 ) e ~v = (x2 , y2 ) e ↵ 2 R. Define-se

1. ~u + ~v = (x1 + x2 , y1 + y2 )

2. ↵~u = (↵ x1 , ↵ y1 )

3. ~u = ( 1)~u = ( x1 , y1 )

4. ~u ~v = ~u + ( ~v ) = (x1 x 2 , y1 y2 ).

As definições anteriores e as operações algébricas dos números reais permitem demonstrar


as propriedades seguintes:

1. ~u + ~v = ~v + ~u

2. ~u + ~0 = ~u

3. (~u + ~v ) + w
~ = ~u + (~v + w)
~

4. ~u + ( ~u) = ~0

5. ↵( ~v ) = (↵ )~v

6. ↵(~u + ~v ) = ↵~u + ↵~v

7. (↵ + )~u = ↵~u + ~u

8. 1~u = ~u.

29
Observação 3.4. É importante lembrar que um vetor tem infinitos representantes que são os
segmentos orientados de mesmo comprimento, mesma direção e mesmo sentido. E, dentre os
!
infinitos representantes de AB (A = (x1 , y1 ), B = (x2 , y2 )), o que “melhor o caracteriza" é
aquele que tem origem em O = (0, 0) e extremidade no ponto P = (x2 x1 , y2 y1 ). O vetor
!
~v = OP é também chamado vetor posição, vetor diretor ou representante natural de
!
AB.

Módulo de um vetor Seja o vetor ~u = (x, y). Pelo Teorema de Pitágoras, vem
p
|u| = x2 + y 2 . (3.1)

3.5.2 Interpretação Algébrica no Espaço (R3 )

No plano vimos que dado qualquer vetor ~u, este pode ser escrito como uma combinação da
base canônica {~i, ~j}, isto é, ~u = (x, y) = x~i + y ~j. Analogamente, no espaço, consideraremos
a base canônica {~i, ~j, ~k}, como aquela que irá determinar o sistema cartesiano ortogonal
Oxyz, neste caso
~i = (1, 0, 0), ~j = (0, 1, 0), ~k = (0, 0, 1).

Assim, dado um vetor qualquer ~u 2 R3 este pode-se expressar da forma

~u = (x, y, z) = x~i + y ~j + z ~k. (3.2)

As definições e conclusões no espaço são análogas às do plano.

Definição 3.3. Sejam os vetores ~u = (x1 , y1 , z1 ) e ~v = (x2 , y2 , z2 ) e ↵ 2 R. Define-se

1. ~u = ~v se e somente se x1 = x2 , y1 = y2 e z1 = z2 .

2. ~u + ~v = (x1 + x2 , y1 + y2 , z1 + z2 )

3. ↵~u = (↵ x1 , ↵ y1 , ↵ z1 )

4. ~u = ( 1)~u = ( x1 , y1 , z1 )

5. ~u ~v = ~u + ( ~v ) = (x1 x 2 , y1 y2 , z 1 z2 ).

Além disso,

1. ~u + ~v = ~v + ~u

30
2. ~u + ~0 = ~u

3. (~u + ~v ) + w
~ = ~u + (~v + w)
~

4. ~u + ( ~u) = ~0

5. ↵( ~v ) = (↵ )~v

6. ↵(~u + ~v ) = ↵~u + ↵~v

7. (↵ + )~u = ↵~u + ~u

8. 1~u = ~u.

Módulo de um vetor Seja o vetor ~u = (x, y, z),


p
|u| = x2 + y 2 + z 2 . (3.3)

3.6 Produto Escalar

Chama-se produto escalar de dois vetores ~u e ~v ao número real ~u · ~v , o qual é a soma dos
produtos de suas componentes correspondentes de ~u e ~v .

Quando ~u = (x1 , y1 ) e ~v = (x2 , y2 ) =) ~u · ~v = x1 x2 + y1 y2 . (3.4)

Quando u = (x1 , y1 , z1 ) e v = (x2 , y2 , z2 ) =) ~u · ~v = x1 x2 + y1 y2 + z1 z2 . (3.5)

Propriedades do Produto Escalar Dados os vetores u, v e w e o número real ↵, é fácil


verificar que: Além disso,

1. ~u · ~v = ~v · ~u

2. ~u · (~v + w)
~ = ~u · ~v + ~u · w
~

3. (~u + ~v ) · w
~ = ~u · w
~ + ~v · w
~

4. ↵ · (~u · ~v ) = (↵~u) · ~v = ~u · (↵~v )

5. ~u · ~u > 0 se ~u 6= ~0 e ~u · ~u = 0 se ~u = ~0.

6. ~u · ~u = |~u|2 .

31
3.6.1 Interpretação Geométrica do Produto Escalar

Se ~u e ~v são dois vetores não nulos e ✓ é o ângulo entre eles, então:

~u · ~v = |~u| |~v | cos ✓. (3.6)

De fato, aplicando a lei dos cossenos ao triângulo ABC, temos:

|~u ~v |2 = |~u|2 + |~v |2 2|~u||~v | cos ✓.

Por outro lado, como |~u ~v |2 = (~u ~v ) · (~u ~v ) = |~u|2 2~u · ~v + |~v |2 , então a igualdade
segue-se.

Exemplo 3.1. Sejam |~


u| = 2, |~v | = 3 e 120o o ângulo entre ~u e ~v . Calcular

i) ~u · ~v ii) |~u + ~v | iii) |~u ~v |.

Sol.
1
i) ~u · ~v = |~u||~v | cos 120o = (2)(3) = 3 (3.7)
2
p p p
ii) |~u + ~v | = |~u|2 + |~v |2 + 2~u · ~v = 22 + 32 + 2( 3) = 7 (3.8)
p p p
ii) |~u ~v | = |~u|2 + |~v |2 2~u · ~v = 22 + 32 2( 3) = 19. (3.9)

3.6.2 Ângulo entre dois Vetores

Seja ✓ o ângulo entre ~u e ~v , então:


~u · ~v
cos ✓ = .
|~u||~v |

32
Exemplo 3.2. Sejam ~
u = (4, 2), ~v = (3, 1)
p
(4, 2) · (3, 1) 4.3 + ( 2).1 10 2
cos ✓ = =p p =p p =
|(4, 2)||(3, 1)| 42 + ( 2)2 32 + 1 20 10 2
p
2
Logo, ✓ = arccos ) ✓ = 45o .
2

Exemplo 3.3. Um vetor ~v do espaço forma com os vetores ~i e ~j ângulos de 60o e 120o ,
respectivamente. Determinar o vetor ~v , sabendo que |~v | = 2.

Solução Das hipôteses temos para v = (x, y, z) que:

~v · ~i ~v · ~i
cos 60o = = ) x = ~v · ~i = 2 cos 60o = 1
~
|~v ||i| (2)(1)

e
~v · ~j ~v · ~j
cos 120o = = ) y = ~v · ~j = 2 cos 120o = 1
|~v ||~j| (2)(1)
p p p
Por outro lado, ja que |~v | = x2 + y 2 + z 2 = 2, tem-se z = ± 2. Portanto, ~v = (1, 1, 2)
p
ou ~v = (1, 1, 2).

Observação 3.5. Note que dois vetores ~


u e ~v diferentes de zero, são ortogonais (~u?~v ), se
e somente se ~u · ~v = 0.

p p
Exemplo. Os vetores ~u = (10, 2) e ~v = ( 1
5
, 2) formam um ângulo de 90o , pois ~u · ~v =
p p
10( 15 ) + 2( 2) = 0

Observação 3.6. Sejam dois vetores ~


u e ~v quaisquer,

1. |~u · ~v |  |~u||~v | (Desigualdade de Schwartz)

2. |~u + ~v |  |~u| + |~v | (Desigualdade Triangular).

3.6.3 Projeção de um Vetor sobre Outro

Sejam os vetores ~u e ~v não nulos e ✓ o ângulo entre eles. O objetivo será decompor um
dos vetores, digamos ~u, da forma
~u = ~u1 + ~u2

33
sendo ~u1 k~v e ~u2 ? ~v .

O vetor ~u1 é chamado projeção ortogonal de ~u sobre ~v , e denotado por:

~u1 = Proj ~v ~u.

Com efeito, ja que: ~u1 k~v ) ~u1 = ↵~v e dado que ~u2 = ~u ~u1 = ~u ↵~v então
~u · ~v
~u2 ? ~v ) (~u ↵~v ) ? ~v ) (~u ↵~v ) · ~v = 0 ) ↵=
|~v |2
Portanto, ✓ ◆
~u · ~v
Proj ~v ~u = ~u1 = ~v .
|~v |2

Chamamos de componente de u sobre v ao vetor

Comp ~v ~u = ~u2 = ~u ↵~v = ~u Proj ~v ~u.

3.7 Produto Vetorial

Chama-se produto vetorial de dois vetores ~u = (x1 , y1 , z1 ) e ~v = (x2 , y2 , z2 ) de R3 , tomados


nessa ordem, e reprentados por ~u ⇥ ~v , ao vetor:

y1 z 1 x1 z 1 x1 y1
~u ⇥ ~v = ~i ~j + ~k.
y2 z 2 x2 z 2 x2 y2
Pela facilidade para memorizar denotaremos a definição anterior da forma:
~i ~j ~k
~u ⇥ ~v = x1 y1 z1 .
x2 y2 z 2

34
Exemplo 3.4. Calcular ~
u ⇥ ~v para ~u = (5, 4, 3) e ~v = (1, 0, 1).

Solução
~i ~j ~k
4 3 5 3 5 4
~u ⇥ ~v = 5 4 3 = ~i ~j + ~k = 4~i 2~j 4~k.
0 1 1 1 1 0
1 0 1
Observação 3.7. Uma forma prática para o cálculo de ~
u ⇥ ~v é dispondo os dois vetores em
linha, e repetindo pela ordem, as duas primeras colunas, As três componentes de ~u ⇥ ~v são
dadas pelos três determinantes, conforme a seguir.

O sentido do vetor ~u ⇥ ~v poderá ser determinado pela regra da mão direita, isto é, se os
dedos da mão direita forem dobrados na mesma direção de rotação, então o polegar estendido
indicará o sentido de ~u ⇥ ~v .

3.7.1 Propriedades

As demonstrações das seguintes propriedades são uma consequência direta da definição de


produto vetorial e das propriedades de determinante.

35
1. ~v ⇥ ~u = ~u ⇥ ~v .

2. ~u ⇥ ~v = ~0, se e somente se, ~u k ~v .

3. O vetor ~u ⇥ ~v é simultaneamente perpendicular a ~u e ~v , isto é

(~u ⇥ ~v ) · ~u = ~0 e (~u ⇥ ~v ) · ~v = ~0.

4. ~u ⇥ (~v + w)
~ = ~u ⇥ ~v + ~u ⇥ w
~ e (~u + ~v ) ⇥ w
~ = ~u ⇥ w
~ + ~v ⇥ w.
~

5. ↵ (~u ⇥ ~v ) = (↵ ~u) ⇥ ~v = ~u ⇥ (↵ ~v ).

6. ~u · (~v ⇥ w)
~ = (~u ⇥ ~v ) · w.
~

7. |~u ⇥ ~v |2 = |~u|2 |~v |2 (~u · ~v )2 , (chamada identidade de Lagrange).

Observação 3.8. Como uma consequência da identidade de Lagrange e tendo em conta que
~u · ~v = |~u| |~v | cos ✓, temos que:
|~u ⇥ ~v | = |~u| |~v | sen ✓

3.7.2 Interpretação Geométrica

• A área A de um paralelogramo determinado pelos vetores ~u e ~v , onde a medida da


base é ~u e a altura é |~v | sen ✓, é

A = (base)x(altura) = |~u| |~v | sen ✓ = ku ⇥ vk

• O volume V do paralelepípedo de arestas determinadas pelos vetores não coplanares


~u, ~v e w
~ (os três vetores não se encontram num mesmo plano) é:

V = |~u · (~v ⇥ w)|


~ = |det[u v w]|.

36
3.8 Retas e Planos

Definição 3.4. Em R2 ou R3 , a equação vetorial de uma Reta L, com direção ~v 6= 0


!
que passa pelo ponto P0 cujo vetor posição é P~0 = OP 0 , é:

P~ = P~0 + t ~v
!
O ponto P com vetor posição P~ = OP está sobre a reta L, 8 t 2 R.

Definição 3.5. A equação normal de um Plano P com vetor normal ~n 6= 0 que contém
o ponto P0 = (x0 , y0 , z0 ) é:
~n.(P~ P~0 ) = 0.
!
O ponto P com vetor posição P~ = OP está sobre o plano P, 8 t 2 R.

3.9 Exercícios

1. Sejam A = (1, 2), B = (0, 1), C = ( 1, 1) e D = (2, 3) pontos de R2 . Calcule e


grafique os vetores posição (na posição padrão) de modo que sejam o resultado de:
! ! ! ! ! ! ! ! 1 !
a) AB + BC b) CD + 2AB c) AB CD d) CD AB e) 2
DC

2. Sejam A = (1, 0, 2), B = (0, 1, 1), C = (1, 1, 2) e D = (2, 1, 0) pontos de R3 . Calcule e


grafique os vetores posição de modo que sejam o resultado de:
! ! ! ! ! ! ! !
a) AB b) CD + AB c) AB ⇥ CD d) (CD AB) ⇥ CD

3. Encontre um vetor não-nulo ~u com ponto inicial P = ( 1, 3, 1) tal que

a) ~u tenha a mesma direção e sentido que ~v = (2, 1, 1).

b) ~u tenha a mesma direção mas sentido oposto que ~v = (1, 1, 1).

37
4. Um excursionista anda 4 na direção norte e depois 5 na direção nordeste. Desenhe
os vetores deslocamento que representam o passeio do excursionista e o vetor que
representa o deslocamento a partir do ponto inicial.
p
5. Sejam ~u = (1, 3), ~v = (0, 1) e w
~ = (1, 1) vetores de R2 .

(i) Calcular a) |2~u| b) 1/|w|


~ c) |~u + ~v | d) (~u ~v ) · ~v e) ~u · ~v w.
~

(ii) Calcular a) P r~v ~u b) P rw~ ~v c) P r~v w


~ d) ](~u, ~v ) e) ](~v , w).
~

(iii) Calcule a área do paralelogramo determinado por: a) ~u e ~v b) ~v e w.


~

6. Ache as componentes dos vetores u, v, u + v e u v onde u e v aparecem na figura

7. Encontre todos os possíveis valores de k para os quais os vetores são ortogonais

i) ~u = (2, 3), ~v = (k + 1, k 1) ii) ~u = (1, 1, 2), ~v = (k 2 , k, 3).

8. Sejam ~u = (2, 1, 1), ~v = (0, 1, 2) e w


~ = ( 1, 1, 3) vetores de R3 .

(i) Calcular a) ~u ⇥ ~v b) w/|


~ w|~ c) |~u.(~v ⇥ w)|
~ d) 2~v ⇥ w
~ e) |~u ⇥ ~v ⇥ w|.
~

(ii) Calcular a) P r~v ~u b) P r~u~v c) P r~u w


~ d) ](~u, ~v ) e) ](~v , w).
~

9. Calcule o valor de m para que a área do paralelogramo determinado pelos vetores


p
~u = (m, 3, 1) e ~v = (1, 2, 2) seja igual a 26.

10. Calcule a área do triângulo ABC e a altura relativa ao lado BC, sendo dados A =
( 4, 1, 1), B = (1, 0, 1), C = (0, 1, 3).

11. Sejam os pontos A = (1, 1, 1), B = ( 3, 2, 2), C = (2, 2, 4). Prove que o
triângulo ABC é retângulo.

38
12. Encontre o vetor ortogonal ao plano determinado pelos pontos A = (3, 0, 0), B =
(0, 3, 0), C = (0, 0, 2). Calcule a área do triângulo ABC.

13. Prove que ku vk kuk kvk para todo vetor u e v em Rn (Dica: Substitua u por
u v na desigualdade triangular).

14. Suponha conhecido que u.v = u.w. Pode-se concluir que u = w?. Em caso afirmativo
dê uma prova válida em Rn , caso contrário dê um contra-exemplo específico de vetores
u, v, w para os quais a igualdade é falsa.

15. Prove que:

(a) (u + v) · (u v) = kuk2 kvk2

(b) ku + vk2 + ku vk2 = 2kuk2 + 2kvk2

(c) u · v = 14 ku + vk2 1
4
ku vk2

(d) ku + vk = ku vk se, e somente se u ? v

(e) proju (v proju (v)) = ~0.

16. Um paralelepípedo é determinado pelos vetores ~u = (3, 1, 4), ~v = (2, 0, 1) e w


~ =
( 2, 1, 5). Calcule seu volume, e a altura relativa à base definida pelos vetores ~u e ~v .

17. Encontre as equações vetoriais para as retas que passam por:

(a) P0 = (4, 3, 5) e é paralela a ~v = (0, 1, 3).

(b) P = (5, 7, 2) e Q = (0, 0, 4)

(c) P = (2, 5, 7) e é perpendicular ao plano 3x 2y + 5z = 7.

18. Encontre uma equação para o plano que passa por:

(a) P0 = (3, 7, 5) e é paralelo ao plano de equação 3x y + 2z = 5.

(b) P = (3, 1, 2), Q = (5, 1, 3) e ( 4, 2, 0).

(c) P = (2, 3, 0) e é perpendicular à reta (x, y, z) = (2, 5, 3) + t(6, 6, 5).

19. Determine a distância do ponto Q = (1, 0, 2) à reta r que passa por P0 = (3, 1, 1) e é
paralela a ~v = ( 1, 1, 0)

39
Capítulo 4

Espaço Vetorial

Nos capítulos anteriores vimos que a álgebra de matrizes e vetores são similares em
muitos aspectos. Em particular podemos fazer a adição de matrizes e vetores, e podemos
multiplicar ambos por um escalar. As propriedades resultantes de essas duas operações são
idênticas para as matrizes e vetores. O que se pretende agora é usar essas propriedades para
definir “vetores"de forma geral.

Um espaço vetorial é um conjunto V de elementos chamados vetores, onde estão


definidas duas operações:

1. Axioma da Adição: Para todo u, v 2 V, a soma u v 2 V.

2. Axioma do Produto por um escalar ↵: Seja ↵ 2 R (ou ↵ 2 C) e v 2 V, então


↵ v 2 V.

Além disso, para todo u, v, w 2 V e ↵, 2 R (ou C), os seguintes axiomas são satisfeitos:

Em relação à adição: Em relação ao produto por um escalar:


Ax.3. (u v) w=u (v w) Ax.7. (↵ ) u=↵ ( u)
Ax.4. u v=v u Ax.8. (↵ + ) u = (↵ u) ( u)
Ax.5. 9 0 2 V, u 0=u Ax.9. ↵ (u v) = (↵ u) (↵ v)
Ax.6. 9 ( u) 2 V, u ( u) = 0 Ax.10. 1 u=u

Observação 4.1. Quando os escalares considerados são números reais, diremos que V é um
espaço vetorial real. No caso dos escalares serem complexos, V será chamado espaço
vetorial complexo.

40
Em diante, nos trabalharemos só com espaços vetoriais reais.

Exemplo 4.1. V = Rn = {(x1 , x2 , . . . , xn )/xi 2 R} é um espaço vetorial real com as opera-


ções

(x1 , x2 , . . . , xn ) (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ) (4.1)

↵ (x1 , x2 , . . . , xn ) = (↵x1 , ↵x2 , . . . , ↵xn ) (4.2)

Solução A prova é simplesmente a generalização das propriedades vistas para vetores no


plano e no espaço. Assim, pelas próprias definições de adição de vetores (4.1) e multiplicação
de um vetor por um escalar real (4.2), é simples verificar todos os axiomas de espaço vetorial.

Exemplo 4.2. O conjunto V = Mm⇥n (R) de todas as matrizes reais de ordem m ⇥ n é um


espaço vetorial real com as operações de adição de matrizes e multiplicação por um escalar.
Assim, para A = [aij ]m⇥n , B = [bij ]m⇥n e ↵ 2 R, definimos:

A B = [cij ]m⇥n onde cij = aij + bij (4.3)

↵ A = [dij ]m⇥n onde dij = ↵ aij (4.4)

Exemplo 4.3. O conjunto V = Pn (R), de todos os polinômios de grau menor ou igual de que
n a0 + a1 t + · · · + an tn com coeficientes ai 2 R é um espaço vetorial real com as operações
usuais de adição de polinômios e multiplicação por um escalar.

De fato, para p(t) = a0 + a1 t + · · · + an tn 2 Pn (R) e q(t) = b0 + b1 t + · · · + bn tn 2 Pn (R),


basta definir

(p q)(t) = p(t) + q(t) = (a0 + b0 ) + (a1 + b1 )t + · · · + (an + bn )tn

(↵ p)(t) = ↵ p(t) = ↵ a0 + (↵ a1 )t + · · · + (↵ an )tn .

Exemplo 4.4. O conjunto V de todas as funções reais definidas sobre o intervalo [a, b], é um
espaço vetorial. Para isso, basta definirmos para f = f (x) e g = g(x) 2 V, as operações
usuais:

(f g)(x) = f (x) + g(x)

(↵ f )(x) = ↵ f (x)

Exemplo 4.5. Nenhum dos conjuntos N, Z, Q é espaço vetorial real, pois em todos eles
o produto de um de seus elementos por um escalar, é um número real, o que contraria o
Axioma 2 de espaço vetorial.

41
4.1 Subespaços Vetoriais

Seja W , (W 6= ;) um subconjunto do espaço vetorial V. Dizemos que W é um subespaço


vetorial em relação às operações de V, se:

i) u, v 2 W ) u v2W

ii) ↵ 2 R e u 2 W ) ↵ u 2 W.

Exemplo 4.6. Seja V = M2⇥2 (R) e

W = {A 2 M2⇥2 (R)/todos os elementos da diagonal de A são zeros}.

Prove que W é um subespaço vetorial de V, com as operações usuais de matrizes.


2 3 2 3
0 a12 0 b12
Solução: Sejam A = 4 5 e B=4 5 matrizes quaisquer de W , então
a21 0 b21 0
2 3
0 a12 + b12
A+B =4 5 2 W.
a21 + b21 0

Se ↵ 2 R e A 2 W , então
2 3 2 3
↵.0 ↵.a12 0 ↵.a12
↵A = 4 5=4 52W
↵.a21 ↵.0 ↵.a21 0

Exemplo 4.7. Considere o subconjunto W = {(x, 1) 2 R2 /x 2 R} com as operações usuais


de R2 . Prove que W não é um subespaço vetorial.

Solução:Basta notar que a soma de dois elementos de W não pertence a W . Os elementos


(3, 1) 2 W e (5, 1) 2 W , mas a soma

(3, 1) + (5, 1) = (8, 2) 2


/W

4.1.1 Propriedades dos Subespaços

Soma.

Sejam W1 e W2 subespaços de um espaço vetorial V. Então, o conjunto

W1 + W2 = {v 2 V / v = w1 + w2 , w 1 2 W1 e w 2 2 W2 } (4.5)

é um subespaço de V.

42
Exemplo 4.8. Sejam W1 e W2 duas retas de R3 que passam pela origem, então W1 + W2
é o plano em R3 que contém as duas retas.

Interseção.

Sejam W1 e W2 subspaços de um espaço vetorial V. A interseção W1 \ W2 é um subespaço


de V.

Exemplo 4.9. Sejam W1 e W2 dois planos de R3 que passam pela origem, de modo que
W1 \ W2 é uma reta em R3 que contém o (0, 0, 0). A interseção W1 \ W2 é um subespaço
de R3 .

Quando W1 \ W2 = {0}, então W1 + W2 é chamada soma direta de W1 com W2 , e será


denotada por W1 W2 .

43
4.2 Combinação Linear

Dizemos que um vetor w é uma combinação linear dos vetores v1 , v2 , . . . , vn do espaço


vetorial real V, (V, +, .), se existem ↵1 , ↵2 , . . . , ↵n 2 R tal que

w = ↵ 1 · v1 + ↵ 2 · v2 + . . . + ↵ n · vn .

Exemplo 4.10. Considere os vetores ~


u = (1, 2, 1), ~v = (6, 4, 2) 2 R3 . Mostre que w
~ =
(9, 2, 7) é uma combinação linear de ~u e ~v

Solução: Suponhamos que existem ↵, 2 R de modo que

(9, 2, 7) = ↵(1, 2, 1) + (6, 4, 2).


8
>
>
>
> ↵+6 =9
>
<
Então, 2↵ + 4 = 2 implica que ↵= 3, =2
>
>
>
>
>
: ↵+2 =7

Portanto, (9, 2, 7) = 3(1, 2, 1) + 2(6, 4, 2), consequentemente w


~ é uma combinação
linear de ~u e ~v .

Exemplo 4.11. Considere os polinômios p(x) = 1, q(x) = 1 + x e r(x) = 1 + x + x2 .


Mostre que qualquer polinômio de ordem 2 pode-se escrever como uma combinação linear de
p(x), q(x) e r(x).

Solução: Suponhamos que existem ↵, , 2 R de modo que

a0 + b0 x + c0 x2 = ↵(1) + (1 + x) + (1 + x + x2 ).
8
>
>
>
> ↵ + + = a0
>
<
Então, + = b0 , logo = c0 , = b0 c0 , ↵ = a0 b0 c0 .
>
>
>
>
>
: = c0

Portanto, a0 + b0 x + c0 x2 = (a0 b0 c0 ) p(x) + (b0 c0 ) q(x) + c0 r(x).

4.3 Espaço Gerado

O subconjunto S de todos os vetores do espaço vetorial real V (V, +, .), que são com-
binações lineares dos vetores v1 , v2 , . . . , vn , é chamado de subespaço vetorial gerado por

44
v1 , v2 , . . . , vn e será denotado por

S = ger{v1 , v2 , . . . , vn } = [v1 , v2 , . . . , vn ]

Para verificar que S é subespaço vetorial de V, basta notar que para qualquer u, v 2 S
e ↵ 2 R verifica-se que

u + v = (↵1 · v1 + ↵2 · v2 + · · · + ↵n · vn ) + ( 1 · v1 + 2 · v2 + · · · + n · vn )

= (↵1 + 1) · v1 + (↵2 + 2) · v2 + · · · + (↵n + n) · vn 2 S

↵ · u = ↵ · (↵1 · v1 + ↵2 · v2 + · · · + ↵n · vn )

= (↵↵1 ) · v1 + (↵↵2 ) · v2 + · · · + (↵↵n ) · vn 2 S.

Exemplo 4.12. Calcule o conjunto de geradores do subespaço vetorial S de M2⇥2 (R), quando
(2 3 )
a b
S= 4 5 2 M2⇥2 (R) a= d e c = 2b . (4.6)
c d

Solução Usando a definição de S temos


(2 3 )
d b
S= 4 5 bed2R . (4.7)
2b d

Logo,
( 2 3 2 3 ) (2 3 2 3)
1 0 0 1 1 0 0 1
S= d4 5 + b4 5 bed2R = ger 4 5,4 5 .
0 1 2 0 0 1 2 0

Exemplo 4.13. Mostre que o conjunto de polinômios {t2 + t, t, 1} gera o espaço vetorial,
P2 (R), dos polinômios de grau  2.

Solução Consideremos p(t) = a2 t2 + a1 t + a0 2 P2 (R). Suponhamos ↵, , 2 R tais que:

p(t) = ↵(t2 + t) + t + 1 ) a2 t2 + a1 t + a0 = ↵t2 + (↵ + )t + .

Comparando o primeiro e último polinômio obtemos ↵ = a2 , ↵ + = a1 e = a0 , logo

↵ = a2 , = a1 a2 , = a0 .

45
4.4 Independência e Dependência Linear

Seja V um espaço vetorial real, (V, +, ·), e v1 , v2 , . . . , vn 2 V. Dizemos que o conjunto


{v1 , v2 , . . . , vn } é linearmente independente (L.I.), se:

↵ 1 · v1 + ↵ 2 · v2 + . . . + ↵ n · vn = 0 =) ↵1 = ↵2 = . . . = ↵n = 0. (4.8)

No caso em que exista algum ↵i 6= 0, diremos que o conjunto {v1 , v2 , . . . , vn } é linearmente


dependentes (L.D.).

Teorema 4.1. {v1 , . . . , vn } é linearmente dependente, se e somente se, um destes vetores


for combinação linear dos outros.

Prova:

{v1 , . . . , vn } é L.D () 9 ↵i 6= 0 / ↵1 v1 + ↵2 v2 + . . . + ↵i vi + . . . + ↵n vn = 0

() ↵i vi = ↵ 1 v1 ... ↵ i 1 vi 1 ↵i+1 vi+1 . . . ↵n vn


↵1 ↵i 1 ↵i+1 ↵n
() vi = v1 ... vi 1 vi+1 . . . vn
↵i ↵i ↵i ↵i
() vi 2 ger{v1 , v2 , . . . , vi 1 , vi+1 . . . , vn } (4.9)

Exemplo 4.14. Os vetores canônicos (1, 0, 0), (0, 1, 0), (0, 0, 1) são L.I.?

Solução Suponhamos que

↵1 (1, 0, 0) + ↵2 (0, 1, 0) + ↵3 (0, 0, 1) = (0, 0, 0).

Somando temos que (↵1 , ↵2 , ↵3 ) = (0, 0, 0). Logo, ↵1 = ↵2 = ↵3 = 0, consequentemente os


vetores canônicos são linearmente independentes.
0 1 0 1
1 2 4 2 4 8
Exemplo 4.15. As matrizes A = @ AeB=@ A são L.D.
3 0 1 6 0 2

Solução De fato, 0 1
0 0 0
↵1 A + ↵2 B = @ A , ↵1 = 2↵2 .
0 0 0

Corolário 4.1. Qualquer conjunto de vetores contendo o vetor nulo é L.D.

Exemplo 4.16. Os vetores ~


u = (1, 2, 3), ~v = (2, 4, 6) e w
~ = (1, 1, 1) são L.D. pois

2~u ~ = ~0.
~v + 0w

46
Corolário 4.2. Todo subconjunto de um conjunto de vetores L.I. é L.I.

Exemplo 4.17. É sabido que o conjunto S = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} é L.I, logo qualquer
subconjunto de S também é L.I.

Observação 4.2. Se ~
u1 = (x11 , . . . , x1n ), ~u2 = (x21 , . . . , x2n ), . . . , ~un = (xn1 , . . . , xnn ) são
n-vetores L.I. em Rn ,

↵1~u1 + ↵2~u2 + · · · + ↵n~un = ~0 =) ↵1 = ↵2 = · · · = ↵n = 0.

Da afirmação anterior deduzimos que


0 10 1 0 1
x x21 . . . xn1 ↵ 0
B 11 C B 1C B C
B .. .. C B .. C B .. C
B . . . . . . . . C B . C = B.C =) ↵1 = ↵2 = · · · = ↵n = 0.
@ A@ A @ A
x1n x2n . . . xnn ↵n 0

sempre que
0 1
x x21 . . . xn1
B 11 C
B .. .. C
det B . ... ... . C = 6 0
@ A
x1n x2n . . . xnn
p
Exemplo 4.18. Os vetores ~
u1 = (1, 2, 7, 2), ~u2 = (0, 4, 6, 1), ~u3 = (0, 0, 1, ⇡), ~u4 =
(0, 0, 0, sen 1) são L.I. em R4

Solução Segundo a observação anterior eles são L.I. pois o determinante da matriz (u1 , u2 , u3 , u4 )
é diferente de zero. De fato,
0 1
1 0 0 0
B C
B C
B 2 4 0 C
0
det B
B
C = 4 sen 1
C
B 7 6 1 0 C
@p A
2 1 ⇡ sen 1

Exemplo 4.19. Seja r > n. Qualquer conjunto com r vetores no espaço vetorial Rn é line-
armente dependente pois todo sistema homogêneo de equações lineares com mais incógnitas
do que equações admite uma solução não trivial (diferente de zero).

Observação 4.3. Geometricamente, a dependência de dois vetores no plano R2 acontece se


e somente se eles se encontram sobre a mesma reta passando pela origem. No espaço R3 ,
três vetores são L. D. se eles estão contidos no mesmo plano passando pela origem.

47
Às vezes é possível deduzir a dependência linear de funções apartir de identidades conhe-
cidas, por exemplo ao provar que: {sen2 x, cos2 x, 5} é um conjunto L.D no espaço vetorial
das funções reais de variável real, F(R, R), basta notar que

↵ sen2 x + cos2 x + 5=0 () ↵= = 5, = 1.

De modo geral, não existe um método para provar a dependência ou independência linear de
conjuntos em F(R, R), pois existem casos onde estas idêntidades não podem ser aplicadas.
Um teorema útil para determinar se um conjunto particular de funções é L.I é enunciado a
seguir.

Teorema 4.2. Sejam as funcões reais f1 , f2 , . . . , fn 2 C n 1 ([a, b]) (contínuas e com deri-
vadas contínuas até a ordem n 1 em todo [a, b]). Se existe um ponto x0 2 [a, b] tal que o
wronskiano W [f1 , f2 , . . . , fn ](x0 ),
0 1
f (x ) f2 (x0 ) ... fn (x0 )
B 1 0 C
B 0 C
B f1 (x0 ) f20 (x0 ) ... fn0 (x0 ) C
B
W [f1 , f2 , . . . , fn ](x0 ) = det B C 6= 0, (4.10)
.. .. .. C
B . . ··· . C
@ A
f1n 1 (x0 ) f2n 1 (x0 ) ... fnn 1 (x0 )

então f1 , f2 , . . . , fn são L.I. em C n 1 ([a, b]). Mais ainda, são L.I em C([a, b]).

Exemplo 4.20. As funções ex , e x


são L.I. em C(R)?.

Solução Segundo o teorema anterior eles são L.I. em C 2 (R), pois o Wronskiano
0 1
x0 x0
e e
W [ex , e x ](x0 ) = det @ A = 2 6= 0, 8x0 2 R. (4.11)
e x0 e x0

Por outro lado, ja que C 2 (R) ✓ C(R) o resultado segue-se.

Exemplo 4.21. As funções 1, x, x2 , x3 são L.I. em C(R)?.

Solução Segundo o teorema anterior eles são L.I. em C 3 (R), pois o Wronskiano
0 1
1 x0 x20 x30
B C
B 2C
B0 1 2x0 3x0 C
W [1, x, x , x ](x0 ) = det B
2 3
B
C = 12 6= 0, 8x0 2 R.
C (4.12)
B0 0 2 6x0 C
@ A
0 0 0 6

Por outro lado, ja que C 3 (R) ✓ C(R) o resultado segue-se.

48
Exemplo 4.22. As funções x2 e x|x| são L.I. em C([ 1, 1])?.

Solução Ja que x2 , x|x| 2 C 1 ([ 1, 1]), calculando o Wronskiano temos


0 1
2
x0 x0 |x0 |
W [x2 , x|x|](x0 ) = det @ A ⌘ 0, (4.13)
2x0 2|x0 |

o que não nos dá a informação sobre se as funções são L.I ou não. Logo, para responder a
pergunta, suponha que:
↵x2 + x|x| = 0, x 2 [ 1, 1].

Em particular, para x = 1 e para x = 1, temos o sistema

↵+ =0

↵ = 0,

para o qual a única solução é ↵ = = 0. Portanto, as funções x2 , x|x| são L.I em C([ 1, 1]).

4.5 Base e Dimensão

Os vetores v1 , v2 , . . . , vn formam uma base do espaço vetorial V se, e somente se,

1. {v1 , v2 , . . . , vn } é um conjunto linearmente independente.

2. V = ger{v1 , v2 , . . . , vn }.
(i.e: 8 v 2 V, 9 ↵1 , ↵2 , . . . , ↵n 2 R / v = ↵1 v1 + . . . + ↵n vn ).

Exemplo 4.23. O conjunto B = {(1, 1), (0, 1)} é uma base de R2 .

Solução: De fato, B é L.I pois

↵(1, 1) + (0, 1) = (0, 0) ) (↵, ↵ + ) = (0, 0) ) ↵ = 0 e = 0.

Por outro lado, para (x, y) 2 R2 suponhamos que 9 ↵1 , ↵2 2 R tal que

(x, y) = ↵1 (1, 1) + ↵2 (0, 1) = (↵1 , ↵1 + ↵2 ) ) ↵1 = x 2 R e ↵2 = y x2R

Logo,
(x, y) = x(1, 1) + (y x)(0, 1), isto é, (x, y) 2 ger{(1, 1), (0, 1)}.

Portanto, R2 ✓ ger{(1, 1), (0, 1)} e desde que R2 é um espaço vetorial a igualdade entre estes
dois conjuntos segue-se.

49
(0 1 0 1 0 1 0 1)
1 0 0 1 0 0 0 0
Exemplo 4.24. O conjunto B = @ A,@ A,@ A,@ A é uma base de
0 0 0 0 1 0 0 1
M2⇥2 (R)

Exemplo 4.25. Os conjuntos {(1, 0, 0), (0, 1, 0), (0, 0, 1)} e {(1, 2, 1), (1, 0, 1), (1, 2, 1)}
constituem bases distintas para R3 . Podemos encontrar mais de uma base para um espaço
vetorial dado, entretanto, o número de vetores de cada base não varia.

Definição 4.1. Se uma base de um espaço vetorial real V tem n-vetores, dizemos que V tem
dimensão finita n. Denotaremos
dim V = n.

Conveniremos que o espaço vetorial V = {0} tem dimensão zero.

Exemplo 4.26. Pelo visto nos exemplos anteriores, temos que:

1. dim R 2 = 2.

2. dim R n = n.

3. dim Pn (R) = n + 1.

4. dim Mm⇥n (R) = mn.

Teorema 4.3. Se U e W são subespaços de um espaço vetorial V que tem dimensão finita,
então:

dim (U + W ) = dim U + dim W dim (U \ W ), (4.14)

sendo que dim U  dim V e dim W  dim V.

Exemplo 4.27. Considere U um plano que passa pela origem em V = R3 , e W uma reta
contida em U que passa pela origem, então:

dim (U + W ) = 2 + 1 1 = 2.

Teorema 4.4. Seja V um espaço vetorial real de dimensão finita n. Qualquer conjunto de
vetores L.I. em V é parte de uma base, isto é, pode ser completado até formar uma base de
V.

Exemplo 4.28. Sejam os vetores v1 = (1, 1, 1, 2) e v2 = ( 1, 1, 1, 0) completar o


conjunto {v1 , v2 } de modo a formar uma base de R4 .

50
Solução: Como dim R4 = 4 uma base terá 4 vetores L.I. Portanto, faltam dois. Escolhemos
um vetor v3 que não é combinação linear de v1 = (1, 1, 1, 2) e v2 = ( 1, 1, 1, 0), isto é,
v3 6= a1 v1 + a2 v2 para todo a1 , a2 2 R. Dentre os infinitos vetores existentes, um deles é o
vetor v3 = (1, 1, 0, 0), e o conjunto {v1 , v2 , v3 } é L.I.

Para completar, escolhemos um vetor v4 que não seja uma combinação linear de v1 , v2
e v3 . Um deles é o vetor v4 = (1, 0, 0, 0), e o conjunto {v1 , v2 , v3 , v4 } é L.I. Logo,

v1 = (1, 1, 1, 2) v2 = ( 1, 1, 1, 0), v3 = (1, 1, 0, 0), v4 = (1, 0, 0, 0).

Observação 4.4. Muitas vezes será necessário saber calcular a dimensão de um subespaço
vetorial de forma rápida, pois uma vez que esta é conhecida, obtém-se facilmente uma base
desse subespaço. Uma forma prática para determinar a dimensão de um subespaço vetorial
é verificar o número de variáveis livres de seu vetor genérico. Este número é a dimensão do
subespaço.

Exemplo 4.29. Determinar a dimensão e a base do subespaço vetorial

S = {(x, y, z) 2 R3 /2x + y + z = 0}

Solução: Isolando z temos que: z = 2x y, onde x, y são variáveis livres. Isto é,

S = {(x, y, z) 2 R3 /2x + y + z = 0}

= {(x, y, z) 2 R3 /z = 2x y}

= {(x, y, 2x y)/x 2 R, y 2 R}

= {(x, 0, 2x) + (0, y, y)/x 2 R, y 2 R}

= {x (1, 0, 2) + y (0, 1, 1)/x 2 R, y 2 R},

isto é, todo vetor de S é combinação linear dos vetores {(1, 0, 2), (0, 1, 1)}. Como esses
dois vetores geradores de S são L.I, o conjunto é uma base de S e, consequentemente,
dim S = 2.

Exemplo 4.30. Obtenha uma base do subespaço vetorial

U = ger{(1, 1, 0, 2), (2, 0, 1, 1), (0, 1, 2, 1), (1, 1, 1, 3)} ✓ R4 .

Determine a dimensão de U .

Solução: Bastará saber quais vetores em U são L.I.

51
Suponhamos que,

↵(1, 1, 0, 2) + (2, 0, 1, 1) + (0, 1, 2, 1) + (1, 1, 1, 3) = (0, 0, 0, 0)

ou
0 10 1 0 1
1 2 0 1 ↵ 0
B CB C B C
B CB C B C
B1 0 1 1 C B C B0 C
B CB C = B C.
B CB C B C
B0 1 2 1 C B C B0 C
@ A@ A @ A
2 1 1 3 0

Para achar a solução deste sistema homogêneo Ax = 0 será suficiente reduzir a matriz A a
uma de tipo escalonado (método de operações por linha).
0 1 0 1
1 2 0 1 L1 ! L 1 1 2 0 1 L ! L1
B C B C 1
B C B C
B1 0 1 1 C L 2 ! L 2 L 1 B0 2 1 0 C L 2 ! L3
A=B B
C
C
B
B
C
C
B0 1 2 1C L3 ! L 3 B0 1 2 1C
@ A @ A
2 1 1 3 L4 ! L4 + 2L1 0 3 1 1 L 4 ! L4
0 1 0 1
1 2 0 1 L1 ! L 1 1 2 0 1 L 1 ! L1
B C B C
B C B C
B0 1 2 1C L2 ! L 2 B0 1 2 1C L 2 ! L2
⇡B B
C
C
B
B
C
C
B0 2 1 0 C L3 ! L3 + 2L2 B0 0 5 2C L 3 ! L3
@ A @ A
0 3 1 1 L4 ! L4 3L2 0 0 5 2 L4 ! L 4 + L 3
0 1
1 2 0 1
B C
B C
B0 1 2 1C
⇡B B C = A0 .
C
B0 0 5 2C
@ A
0 0 0 0

Logo, o sistema equivalente, A0 x = 0 tem infinitas soluções, pois detA0 = 0. Mais ainda,

↵+2 + =0

+2 =0

5 2 = 0,

o que implica que, para cada 2 R,


5 7
= , = , ↵= .
2 2 2

Em outras palavras, ↵ = = = 0 se e somente se = 0. Portanto, só os vetores


B = {(1, 1, 0, 2), (2, 0, 1, 1), (1, 1, 1, 3)} são L.I. Como esses três vetores são geradores
de U , o conjunto é uma base de U e consequentemente, dim U = 3.

52
4.5.1 Componentes de um Vetor

Seja B = {v1 , v2 , . . . , vn } uma base de V. Tomemos v 2 V sendo

v = a1 v 1 + a2 v 2 + . . . + an v n ,

os números a1 , a2 , . . . , an são chamados componentes do vetor v em relação à base B (vetor


coordenada de v em relação à base B) e se representa por

vB = (a1 , a2 , . . . , an )

ou com a notação matricial (matriz-coordenada de v em relação à base B)


0 1
a
B 1C
B C
B a2 C
vB = B C
B .. C .
B.C
@ A
an

Exemplo 4.31. Em R2 consideremos as bases

A = {(1, 0), (0, 1)}, B = {(2, 0), (1, 3)} e C = {(1, 3), (2, 4)}

Achar o vetor coordenada de v = (8, 6) em relação as base A, B e C.

Solução: Desde que:

(8, 6) = 8(1, 0) + 6(0, 1)

(8, 6) = 3(2, 0) + 2(1, 3)

(8, 6) = 2(1, 3) + 3(2, 4),

então,

vA = (8, 6), vB = (3, 2), vC = (2, 3).

4.6 Espaço Vetorial Euclideano

No capítulo 3, foi definido o produto escalar de dois vetores no R2 ou R3 e foram estabelecidas


por meio desse produto, algumas propriedades geométricas daqueles vetores. Nesta seção,
nosso objetivo será generalizar este conceito de produto e definir os conceitos de comprimento,
distância e ângulo em espaços vetoriais mais genéricos.

53
Definição 4.2. Chama-se produto interno no espaço vetorial V, a uma função de V ⇥ V em
R que a todo par de vetores (u, v) 2 V ⇥ V associa um número real, indicado por u.v ou
hu, vi, tal que os seguintes axiomas sejam verificados:

1. hu, vi = hv, ui

2. hu, v + wi = hu, vi + hu, wi

3. h↵u, vi = ↵hu, vi, para todo ↵

4. hu, ui 0 e hu, ui = 0 se, e somente se, u = 0.

Exemplo 4.32. Em V = R2 , para u = (x1 , y1 ) e v = (x2 , y2 )

hu, vi = 3x1 x2 + 4y1 y2 ,

é um produto interno.

Exemplo 4.33. Em V = C([a, b]), para f e g


Z b
hf, gi = f (x) g(x) dx,
a

é um produto interno.

Definição 4.3. Um espaço vetorial real V, de dimensão finita, no qual está definido um
produto interno, é um espaço vetorial euclideano.

Definição 4.4. Seja o produto interno h , i no espaço euclideano V. O comprimento ou


norma do vetor u, em relação a esse produto interno, é definido por
p
kuk = hu, ui.

Definimos a norma euclidiana (ou comprimento euclidiano) de um vetor u = (u1 , u2 , . . . , un )


em Rn por
p q
kuk = u · u = u21 + u22 + · · · + u2n .

Definição 4.5. Chama-se distância entre dois vetores u e v o número real representado
por d(u, v) e definido por
d(u, v) = ku vk.

Definição 4.6. O ângulo entre dois vetores u e v é determinado por


hu, vi
cos ✓ = .
kukkvk
Definição 4.7. Dois vetores u e v de um espaço com produto interno são ortogonais se
< u, v >= 0.

54
4.6.1 Complementos Ortogonais

Definição 4.8. Seja W um subespaço de um espaço com produto interno V. Um vetor u 2 V


é dito ortogonal a W se é ortogonal a cada vetor de W , e o conjunto de todos os vetores
que são ortogonais a W é chamado complemento ortogonal de W , denotaremos por W ? .

Figura 4.1: Cada vetor em W é ortogonal a V, V = W ? .

Teorema 4.5. Se W é um subespaço de um espaço com produto interno V de dimensão


finita, então:

a) W ? é um subespaço de V

b) O único vetor comum a W e W ? é 0.

c) O complemento ortogonal de W ? é W , ou seja, (W ? )? = W

Teorema 4.6. (Da Projeção) Se W é um subespaço de dimensão finita de um espaço com


produto interno V, então cada vetor u 2 V pode-se expressar de forma única por:

u = w1 + w2

onde w1 = ProjW u 2 W e w2 = u ProjW u 2 W ? .

4.6.2 Uma Relação Geométrica Entre Espaço Nulo e Espaço Linha

O seguinte teorema fundamental fornece uma relação geométrica entre o espaço-nulo e o


espaço linha de uma matriz.

55
Teorema 4.7. Se A é uma matriz m ⇥ n, então

a) O espaço nulo de A, N (A) = {v 2 Rn⇥1 /Av = 0}, e o espaço linha de A são comple-
mentos ortogonais em Rn com relação ao produto interno euclideano.

b) O espaço nulo de AT e o espaço coluna de A são complementos ortogonais em Rm com


relação ao produto interno euclideano.

Demonstração: A prova do item (a) encontra-se em Howard and Rorres (2000), pagina
211.

(b) Sejam os vetores coluna r1 , r2 , . . . , rn da matriz A 2 Mm⇥n . Logo, a matriz A


pode-se escrever da forma
h i
A = r 1 r2 . . . rn , onde ri 2 Rm⇥1

Por outro lado, ja que N (AT ) = {v 2 Rm⇥1 /AT v = 0}, então:


2 3
rT
6 17
6 T7
6 r2 7
A v=6
T 7
6 .. 7 v = 0 () < riT , v > = 0, 8 i = 1, 2, . . . , n.
6.7
4 5
rnT

4.6.3 Conjuntos Ortogonais e Ortonormais

Seja V um espaço vetorial euclidiano. Um subconjunto S = {v1 , v2 , . . . , vn } ⇢ V é:

1. Ortogonal, se seus elementos são ortogonais dois a dois, isto é:

hvi , vj i = 0 8 i 6= j.

2. Ortonormal, se S é ortogonal e kvi k = 1 8 i, isto é:


8
>
<0 para i 6= j
hvi , vj i = . (4.15)
>
:1 para i = j

A base gerada por um conjunto de vetores ortogonais é dita uma base orto-
gonal e uma base gerada por um conjunto de vetores ortonormais é dita uma
base ortonormal.

56
Proposição 4.1. Um conjunto ortonormal é L.I.

Demonstração: Seja S = {v1 , v2 , . . . , vn } um conjunto ortonormal e ↵1 , . . . , ↵n 2 R, tal


que
↵1 v1 + ↵2 v2 + . . . + ↵n vn = 0.

Por demonstrar: ↵1 = ↵2 = . . . = ↵n = 0.
Multiplicando ↵1 v1 + ↵2 v2 + . . . + ↵n vn = 0 por vi , temos

0 =h0, vi i = h↵1 v1 + · · · + ↵n vn , vi i

=h↵1 v1 , vi i + h↵2 v2 , vi i + . . . + h↵i vi , vi i + . . . + h↵n vn , vi i

=↵1 hv1 , vi i + ↵2 hv2 , vi i + . . . + ↵i hvi , vi i + . . . + ↵n hvn , vi i (4.16)

Ja que S ortogonal,

0 = ↵i hvi , vi i = ↵i ||vi ||2 ) 0 = ↵i 8i = 1, 2, . . . , n.

Definição 4.9. Seja V um espaço vetorial euclidiano, S = {v1 , v2 , . . . , vn } ⇢ V ortonormal


e u 2 V. A projeção ortogonal de u sobre o subespaço gerado por S é o vetor Proj [S] u dado
por:
Proj [S] u = hu, v1 iv1 + hu, v2 iv2 + . . . + hu, vn ivn .

Exemplo 4.34. Projetar o vetor u = (5, 2, 3) 2 R3 sobre o plano [S], onde

[S] = ger{(1, 0, 0), (0, 1, 0)}.

Solução:

Proj [S] u = h(5, 2, 3), (1, 0, 0)i (1, 0, 0) + h(5, 2, 3), (0, 1, 0)i (0, 1, 0)

= 5(1, 0, 0) 2(0, 1, 0)

= (5, 2, 0).

4.6.4 Processo de Gram - Schimidt

O objetivo do processo de Gram-Schimidt é encontrar uma base ortonormal para um


espaço vetorial euclidiano V.

57
Teorema 4.8. Cada espaço vetorial não-nulo de dimensão finita possui uma base ortonor-
mal.

Demonstração: Seja V um espaço vetorial não-nulo de dimensão finita com produto


interno. Suponha que {u1 , u2 , . . . , un } é uma base de V. É suficiente mostrar que V tem
uma base ortogonal, pois os vetores da base ortogonal podem ser normalizados para produzir
uma base ortonormal de V, para isto bastará dividir eles entre suas respectivas normas.

A seguir, mostramos como achar uma base ortogonal {v1 , v2 , . . . , vn } de V.

1) Seja v1 = u1 .

2) Para obter um vetor v2 que é ortogonal a v1 tomamos o componente de u2 que é ortogonal


ao espaço W1 = ger{v1 }. Para isso nós usamos a fórmula:

hu2 , v1 i
v 2 = u2 Proj W1 u2 = u2 v1
||v1 ||2

3) Para construir um vetor v3 que é ortogonal a ambos v1 e v2 , calculamos o componente


u3 que é ortogonal ao espaço W2 = ger{v1 , v2 }, isto é,

hu3 , v1 i hu3 , v2 i
v 3 = u3 Proj W2 u3 = u3 v1 v2
||v1 ||2 ||v2 ||2

4) Para determinar um vetor v4 que é ortogonal a v1 , v2 e v3 , calculamos o componente de


u4 que é ortogonal ao espaço W3 = ger{v1 , v2 , v3 }.

hu4 , v1 i hu4 , v2 i hu4 , v3 i


v 4 = u4 Proj W3 u4 = u4 v1 v2 v3
||v1 ||2 ||v2 ||2 ||v3 ||2

Continuando desta maneira, nós iremos obter, depois de n passos, um conjunto ortogonal
de vetores {v1 , v2 , . . . , vn }. O processo acima é chamado processo de Gram-Schimidt.

Como V tem dimensão n, e conjuntos ortogonais são linearmente independentes, o con-


junto {v1 , v2 , . . . , vn } é uma base ortogonal de V.

Exemplo 4.35. Considere o espaço vetorial R3 com o produto interno euclidiano. Aplique
o processo de Gram-Schimidt para transformar os vetores de base u1 = (1, 1, 1), u2 =
(0, 1, 1) e u3 = (0, 0, 1) em uma base ortogonal {v1 , v2 , v3 }; depois normalize os vetores da
base ortogonal para obter uma base ortonormal {q1 , q2 , q3 }.

58
Solução: Segundo o teorema anterior,

v1 = u1 = (1, 1, 1)
✓ ◆
hu2 , v1 i 2 2 1 1
v 2 = u2 proj W1 u2 = u2 2
v1 = (0, 1, 1) (1, 1, 1) = , ,
||v1 || 3 3 3 3
hu3 , v1 i hu3 , v2 i
v 3 = u3 proj W2 u3 = u3 2
v1 v2
||v1 || ||v2 ||2
✓ ◆ ✓ ◆
1 1/3 2 1 1 1 1
= (0, 0, 1) (1, 1, 1) , , = 0, , .
3 2/3 3 3 3 2 2

Assim, v1 = (1, 1, 1), v2 = ( 2/3, 1/3, 1/3), v3 = (0, 1/2, 1/2) formam uma base
ortogonal de R3 . As normas desses vetores são:
p p
p 6 2
kv1 k = 3, kv2 k = , kv3 k = ,
3 2

deste modo, uma base ortonormal de R3 é:


p p p
v1 3 3 3
q1 = =( , , ),
||v1 || 3 3 3
v2 2 1 1
q2 = = ( p , p , p ),
||v2 || 6 6 6
v3 1 1
q3 = = (0, p , p ).
||v3 || 2 2

4.7 Exercícios

1. Determine se o conjunto de todos os pares de números reais da forma (1, x) equipa-


dos com as seguintes operações soma e multiplicação por escalar definidas por:
(1, x) (1, y) = (1, x + y), ↵ (1, x) = (1, ↵x), é um espaço vetorial.

2. Em R2 , mantenhamos a definição do produto ↵v de um número real por um vetor,


mas modifiquemos, de 3 maneiras diferentes, a definição de soma u v dos vetores
u = (x, y) e v = (x0 , y 0 ). Em cada tentativa, dizer quais dos axiomas de espaço vetorial
continuam sendo válidos e quais são violados.

(i) u v = (x + y 0 , x0 + y) (ii) u v = (xx0 , yy 0 ) (iii) u v = (3x + 3x0 , 5x + 5x0 ).

3. Verifique se o conjunto V é um espaço vetorial real com as operações indicadas.

(i) V = R2 onde (x, y) (x0 , y 0 ) = (x + x0 , yy 0 ) ↵ (x, y) = (↵x, ↵y ↵ ).

(ii) V = R2 onde (x, y) (x0 , y 0 ) = (x + x0 , y + y 0 ) ↵ (x, y) = (↵x, 0).

(i) V = R2 onde (x, y) (x0 , y 0 ) = (2x 2y, y x) ↵ (x, y) = (3↵x, ↵y).

59
4. Seja V = {(x, y) 2 R2 /x > 0 e y > 0} com as operações usuais de R2 . Prove que V
não é um espaço vetorial.

5. Determine se cada conjunto a seguir é ou não um subespaço de R2 .

(i) {(x, y)/x + y = 0} (ii) {(x, y)/xy = 0} (i) {(x, y)/x = 3y + 1}.

6. O conjunto V = {f : R ! R/f (1) = 0} com as operações definidas no exercicio 2, é


um espaço vetorial?.

7. Determine se cada conjunto a seguir é ou não um subespaço de R3 .

(i) {(x, y, z)/x + y = 1} (ii) {(x, y, z)/x = y = z} (i) {(x, y, z)/z = x2 + y 2 }.

8. Determine quais dos conjuntos a seguir são subespaços do espaço vetorial das funções
contínuas no intervalo [ 1, 1], denotado por V = C([ 1, 1]).

(i) W = {f 2 C([ 1, 1])/f ( 1) = f (1)}

(ii) W = {f 2 C([ 1, 1])/f é não decrescente em [ 1, 1]}

(iii) W = {f 2 C([ 1, 1])/f ( 1) = 0 ou f (1) = 0}

9. Seja V = M2⇥2 o conjunto das matrizes 2⇥2. Se A 2 M2⇥2 , dizemos que A é diagonal
se a12 = a21 = 0, triagular superior se a21 = 0, triagular inferior se a12 = 0 e triangular
se a21 = 0 ou a12 = 0. Denotemos estes subconjuntos por D2⇥2 , T+
2⇥2 , T2⇥2 e T2⇥2 ,

respectivamente.

(i) Prove que D2⇥2 , T+


2⇥2 , T2⇥2 são subespços vetoriais de M2⇥2 .

(ii) Prove que T2⇥2 não é subespaço de M2⇥2 .

(iii) Prove que D2⇥2 é subespaço vetorial de T+


2⇥2 e T2⇥2 e que verifica D2⇥2 =
T
T+2⇥2 T2⇥2 .

10. Seja V = M2⇥2 (R). Diga quais dos conjuntos a seguir são subespaços vetoriais de
M2⇥2 (R).

(i) S1 = {B 2 M2⇥2 (R)/AB = BA}

(ii) S2 = {B 2 M2⇥2 (R)/AB 6= BA}

(iii) S3 = {B 2 M2⇥2 (R)/BA = 0}

11. Quais vetores são combinação linear de ~u = (0, 2, 2) e ~v = (1, 3, 1)?.

a) (2, 2, 2) b) (3, 1, 5) c) (0, 4, 5) d) (0, 0, 0).

60
12. Quais polinômios são combinação linear de p1 (x) = 2 + x + 4x2 , p2 (x) = 1 x + 3x2
e p3 (x) = 3 + 2x + 5x2 ?.

a) 9 7x 15x2 b) 6 + 11x + 6x2 c) 0 d) 7 + 8x + 9x2 .

13. Quais dos seguintes vetores geram R3 .

a) (2, 2, 2), (0, 0, 3), (0, 1, 1) b) (2, 1, 3), (4, 1, 2), (8, 2, 4)

14. Mostre que os polinômios (1 x3 ), (1 x)2 , (1 x) e 1 geram os polinomios


de grau  3.

15. Sejam f = cos2 x e g = sin2 x. Quais das seguintes funções estão no espaço gerado
por f e g?.

a) cos 2x b) 3 + x2 c) 1 d) senx.

16. Determine se os vetores dados são ou não linearmente independentes

(i) u = (1, 2) e v = ( 2, 4) em R2

(ii) u = (2, 3), v = (5, 8) e w = ( 6, 1) em R2

(iii) u = (2, 1, 0), v = (3, 1, 2) e w = (0, 1, 4) em R3

(iv) u = (3, 0, 1), v = (1, 0, 4) em R3

(v) p1 (x) = 6 x2 e p2 (x) = 1 + x + 4x2 em P2


2 3 2 3
1 3 1 3
(vi) A = 4 5; B=4 5 em M2⇥2 .
2 0 2 0

17. Seja V o espaço vetorial de todas as funções reais definidas sobre a reta real. Quais
dos seguintes conjuntos de vetores são linearmente dependentes?

(i) {6, 3 sin2 x, 2 cos2 x}, (ii) {x, cos x}, (iii) {(3 x)2 , x2 6x, 5},

18. Use o Wronskiano para mostrar que os seguintes conjuntos de vetores são linearmente
independentes.

(i) {1, x, ex }, (ii) {cos x, sin x, x sin x}, (iii) {ex , xex , x2 ex }.

19. Dadas as funções x e |x| mostre que:

(a) esses dois vetores são linearmente independentes em C([ 1, 1])

(b) esses dois vetores são linearmente dependentes em C([0, 1])

61
20. Considere o subespaço S = ger{(1, 2, 1)T , (0, 1, 1)T , (2, 1, 3)T }

(a) o vetor ( 1, 2, 1) 2 S ?.

(b) o vetor (2, 0, 1) 2 S ?.

21. Quais dos seguintes conjuntos são bases de R2 ?.

a) (2, 1), (3, 0) b) (4, 1), ( 7, 8) c) (0, 0), (1, 3) d) (3, 9), ( 4, 12).

22. Quais dos seguintes conjuntos de vetores são bases de R3 ?.

a) (2, 3, 1), (4, 1, 1), (0, 7, 1) b) (3, 1, 4), (2, 5, 6), (1, 4, 8)
c) (1, 0, 0), (2, 2, 0), (3, 3, 3).

23. Quais dos seguintes conjuntos de vetores são bases de P2 ?.

a) 1 3x + 2x2 , 1 + x + 4x2 , 1 7x.

b) 1 + x + x2 , x + x2 , x2 .

c) 4 + x + 3x2 , 6 + 5x + 2x2 , 8 + 4x + x2 .

24. Os quatro primeiros polinômios de Hermite são 1, 2t, 2 + 4t2 e 12t + 8t3 . Mostre
que estes polinômios formam uma base de P3 (R).

25. Encontre as coordenadas do polinômio p(t) = 7 12t 8t2 + 12t3 , na base P3 (R)
formada pelos polinômios de Hermite.

26. Prove que o seguinte conjunto é uma base de M2x2 .


2 3 2 3 2 3 2 3
3 6 0 1 0 8 1 0
4 5; 4 5; 4 5; 4 5
3 6 1 0 12 4 1 2

27. Exiba uma base para os seguintes subespaços de R4 listados a seguir. Qual é a dimensão
destes?.

a) F = {(x, y, z, w)/ x = y = z = w}.

b) G = {(x, y, z, w)/ x = y, z = w}.

c) H = {(x, y, z, w)/ x = y = z}.

d) K = {(x, y, z, w)/ x + y + z + w = 0}.

28. Seja V = ger{S} onde (S = {cos2 x, sin2 x, cos 2x}). Prove que o conjunto S não é
uma base de V. Encontre uma base para V.

62
29. Ache uma base para o espaço solução de cada um dos sistemas homogêneos:
8
8 >
> x1 + x2 x3 = 0
< x + 4x + 2x = 0 >
<
1 2 3
a) b) 3x1 + 2x2 + x3 = 0 c) x1 2x2 + x3 = 0.
: 2x + x + 5x = 0 >
>
1 2 3 >
: 2x1 x2 + 3x3 = 0

30. Considere os vetores ~u = (3, 2, 4), ~v = ( 3, 2, 4), ~ = ( 6, 4, 8). Qual é a


w
dimensão de ger{u, v, w}?.

31. Considere os vetores ~u = (2, 1, 3), ~v = (3, 1, 4), w


~ = (2, 6, 4).

a) Mostre que u, v, w são linearmente dependentes.

b) Mostre que u, v são linearmente independentes.

c) Qual é a dimensão de ger{u, v, w}?. Descreva geometricamente ger{u, v, w}.


2 3 2 3
u1 u 2 v1 v2
32. Em M2x2 (R) para A = 4 5 e B=4 5, a relação
u3 u 4 v3 v4

hA, Bi = u1 v1 + u2 v2 + u3 v3 + u4 v4

é um produto interno usual. Verifique.

33. No espaço euclideano M2x2 (R)


0 1
2 1
(a) Quais das matrizes abaixo são ortogonais a M = @ A;
1 3
0 1 0 1 0 1 0 1
1 2 1 1 0 0 3 2
A=@ A, B = @ A, C = @ A, D = @ A.
4 0 1 1 0 0 1 3

(b) Calcule a norma da Matriz M .


0 1 0 1
2 4 3 1
(c) Determine o ângulo entre as matrizes M1 = @ A , M2 = @ A.
1 3 4 2
(d) Calcule a distância entre as matrizes M1 e M2 .

34. Sejam p = a0 + a1 t + a2 t2 + a3 t3 e q = b0 + b1 t + b2 t2 + b3 t3 2 P3 (R) a relação

hp, qi = a0 b0 + a1 b1 + a2 b2 + a3 b3

define um produto interno em P3 (R).

(a) Dados p = 2 + 3t t2 e q = 2t + t2 5t3 . Calcule hp, qi.

63
(b) Calcule a norma do polinômio p = 3 + 2t2 + t3 .

35. Determine a projeção ortogonal de u = (2, 1, 3) sobre S = ger{(1, 0, 1), (2, 1, 2)}.

36. Use o método de ortonormalização de Gram-Schmidt para obter uma base ortonormal
de R3 a partir de B = {(1, 0, 0), (0, 1, 1), (0, 1, 2)}.

37. Use o método de ortonormalização de Gram-Schmidt para obter uma base ortonormal
de R2 a partir de B = {(1, 2), ( 1, 3)}.

38. Obtenha uma base ortonormal do subespaço vetorial

U = {(x, y, z, t) 2 R4 /x y = 0 e z = 2t} ⇢ R4 .

A seguir projete o vetor u = (1, 3, 4, 2) ortogonalmente sobre U .

64
Capítulo 5

Transformações Lineares

Neste capítulo será estudado um tipo especial de função (ou aplicação) onde o domínio e o
contradomínio são espaços vetoriais reais. Assim, tanto a variável independente como a va-
riável dependente são vetores, razão pela qual essas funções são chamadas de transformações
vetoriais satisfazendo algumas condições de linearidade como na definição que segue.

Definição 5.1. Uma transformação T : V ! W do espaço vetorial V no espaço vetorial


W é chamada uma transformação linear se, para u, v 2 V e ↵ 2 R

i) T (u + v) = T (u) + T (v),

ii) T (↵u) = ↵ T (u),

Figura 5.1:

Observação 5.1. Na definição anterior é importante notar que u + v 2 V, enquanto T (u) +


T (v) 2 W . Do mesmo modo, ↵u 2 V e ↵ T (u) 2 W (ver Figura 5).

Uma transformação linear de V em V (é o caso de V = W) é chamada de operador


linear sobre V

65
Exemplo 5.1. T : R2 ! R3 , T (x, y) = (2x, 4y, x y) é linear.

Solução De fato,

i) Se u = (x1 , y1 ) e v = (x2 , y2 ) são vetores genéricos do R2 , tem-se:

T (u + v) = T ((x1 , y1 ) + (x2 , y2 )) = T (x1 + x2 , y1 + y2 )

= (2(x1 + x2 ), 4(y1 + y2 ), (x1 + x2 ) (y1 + y2 ))

= (2x1 + 2x2 , 4y1 4y2 , x1 + x2 y1 y2 )

= (2x1 , 4y1 , x1 y1 ) + (2x2 , 4y2 , x2 y2 )

= T ((x1 , y1 )) + T ((x2 , y2 ))

= T (u) + T (v)

ii) Para todo ↵ 2 R, tem-se

T (↵u) = T (↵(x1 , y1 )) = T (↵x1 , ↵y1 )

= (2↵x1 , 4↵y1 , ↵x1 ↵y1 )

= ↵(2x1 , 4y1 , x1 y1 )

= ↵T (u)

Exemplo 5.2. T : R ! R , T (x) = 3x é linear.

Solução De fato, se u = x1 e v = x2 são vetores quaisquer de R (os vetores, neste caso, são
números reais), tem-se:

i) T (u + v) = T (x1 + x2 ) = 3(x1 + x2 ) = 3x1 + 3x2 = T (u) + T (v)

ii) T (↵u) = T (↵x1 ) = 3↵x1 = ↵(3x1 ) = ↵T (u)

Exemplo 5.3. A transformação Identidade I : V ! V , I(v) = v, é linear.

Solução De fato:

i) I(u + v) = u + v = I(u) + I(v)

ii) I(↵u) = ↵u = ↵I(u)

Exemplo 5.4. A transformação nula (ou zero) T : V ! W , T (v) = 0 é linear.

66
Solução De fato:

i) T (u + v) = 0 = 0 + 0 = T (u) + T (v)

ii) T (↵u) = 0 = ↵(0) = ↵T (u)

Exemplo 5.5. Seja A uma matriz de ordem 3 ⇥ 2 que determina a transformação

TA : R2 ! R3 , TA (v) = A v .

Prove que TA é linear (v é considerado um vetor-coluna de R2 ).

Solução De fato:

i) TA (u + v) = A(u + v) = Au + A v = TA (u) + TA (v)

ii) TA (↵u) = A(↵u) = ↵(Au) = ↵TA (u).

Exemplo 5.6. A transformação T : R ! R , T (x) = sen(x) não é linear.

Solução De fato, em geral sen(x + y) 6= sen(x) + sen(y).

Exemplo 5.7. A transformação T : R2 ! R2 , T (x, y) = (2x, y 2 ) não é linear.

Solução De fato, se u = (x1 , y1 ) e v = (x2 , y2 ) são vetores quaisquer do R2 , Tem-se

T (u + v) = T (x1 + x2 , y1 + y2 ) = (2(x1 + x2 ), (y1 + y2 )2 )

= (2x1 + 2x2 , y1 2 + 2y1 y2 + y2 2 )

enquanto,

T (u) + T (v) = (2x1 , y1 2 ) + (2x2 , y2 2 ) = (2x1 + 2x2 , y1 2 + y2 2 ),

isto é, T (u + v) 6= T (u) + T (v)

5.1 Propriedades das Transformações Lineares

1. Se T : V ! W , é uma transformação linear, a imagem do vetor 0 2 V é o vetor


0 2 W. Esta propriedade decorre da condição ii) da definição 5.1, de transformação
linear, para ↵ = 0:
T (0) = T (0 v) = 0T (v) = 0

67
• Nos exemplos 1 e 2 desta seção, verifica-se que
T (0, 0) = (0, 0, 0) e T (0) = 0
e, em ambos casos as transformações são lineares. Entretanto, no exemplo 6, embora
T (0) = 0, a transformação não é linear.

Esses exemplos mostram que se T : V ! W é linear, então T (0) = 0, mas a recíproca


não é verdadeira, isto é, pode existir transformação com T (0) = 0 e T não ser linear.
Em conclusão, pois, se impõe: se T (0) 6= 0, a transformação não é linear. É
o caso, por exemplo, da transformação:
T : R3 ! R2 , T (x, y, z) = (4x + 5, x z), que não é linear porque:
T (0, 0, 0) = (5, 0) 6= 0

2. Se T : V ! W é uma transformação linear, tem-se:


T (↵u + v) = ↵T (u) + T (v)
8 u, v 2 V e 8 ↵, 2 R, isto é, a imagem de uma combinação linear dos vetores u e
v é uma combinação linear das imagens T (u) e T (v) com os mesmos coeficientes ↵ e
. Este fato vale de modo geral:
T (↵1 v1 +↵2 v2 + . . . + ↵n vn ) = ↵1 T (v1 ) + ↵2 T (v2 ) + . . . + ↵n T (vn )

• Se B = {v1 , v2 , . . . , vn }, é uma base de V, então para todo v 2 V, existem


↵1 , ↵2 , . . . , ↵n 2 R tal que

v = ↵1 v1 +↵2 v2 + . . . + ↵n vn

e, portanto

T (v) = T (↵1 v1 ) + T (↵2 v2 ) + . . . + T (↵n vn ), isto é,

T (v) = ↵1 T (v1 ) + ↵2 T (v2 ) + . . . + ↵n T (vn )

isto é, dado v 2 V, o vetor T (v) estará bem determinado se forem conhecidas as ima-
gens dos vetores de B. Em outras palavras, sempre que forem dados T (v1 ), . . . , T (vn )
onde {v1 , . . . vn } é base do domínio V, a transformação linear T está perfeitamente
definida.

Exemplo 5.8. Seja o operador linear T : R2 ! R2 , tal que T (1, 0) = (2, 3) e


T (0, 1) = ( 4, 1). Determinar T (x, y) completamente.

68
Sol. De fato, observando que {(1, 0), (0, 1)} é a base canônica do R2 e que

(x, y) = x(1, 0) + y(0, 1), então: T (x, y) = xT (1, 0) + y(T (0, 1)

= x(2, 3) + y( 4, 1)

= (2x, 3x) + ( 4y, y)

= (2x 4y, 3x + y)

5.1.1 Exercícios
0 1
1 2 2
1. Seja T : R3 ! R2 a transformação definida por T v = A v, onde A = @ A.
1 2 1
0 1 0 1
2 1
B C B C
B C B C
Encontre a imagem de u = B 3 C e v = B 1 C.
@ A @ A
0 1

2. Verifique quais das seguintes transformações são lineares.

a) T : R2 ! R2 , T (x, y) = (sen y, x)

b) T : R2 ! R2 , T (x, y) = (x2 , y 2 )

c) T : R2 ! R2 , T (x, y) = (x + 1, y)

d) T : R2 ! R, T (x, y) = xy

e) T : R2 ! R3 , T (x, y) = (3y, 2x, 0)

f ) T : R 3 ! R3 ,
T (x, y, z) = (x + y, x y, x)
02 31
a b
g) T : M2⇥2 (R) ! R2 , T @4 5A = (a c, b + c)
c d
02 31 2 3
a b a b
h) T : M2⇥2 (R) ! R, T @4 5A = det 4 5
c d c d

3. Dada a transformação linear T : R3 ! R2 , tal que

T (1, 0, 0) = (2, 1), T (0, 1, 0) = ( 1, 0), T (0, 0, 1) = (1, 2)

Calcular: a) T (3, 4, 5) b) T (x, y, z).

4. Determinar a transformação linear T : P2 (R) ! P2 (R), tal que

T (1) = x, T (x) = 1 x2 , T (x2 ) = x + 2x2

69
5.2 Núcleo de uma Transformação Linear

Chama-se núcleo de uma transformação linear T :V !W ao conjunto de todos os


vetores v 2 V que são transformados em 0 2 W. Denota-se ese conjunto por N (T ) ou
Ker(T ):

N (T ) = {v 2 V / T (v) = 0}

A Figura 5.2 mostra que N (T ) ⇢ V e todos seu vetores tem uma única imagem que é o vetor
zero de W.

Figura 5.2: N (T ) ⇢ V.

Observe que N (T ) 6= ;, pois 0 2 N (T ) uma vez que T (0) = 0.

Exemplos:

1. O núcleo da transformação linear T : R2 ! R2 , T (x, y) = (x+y, 2x+y) é o conjunto

N (T ) = {(x, y) 2 R2 / T (x, y) = (0, 0)}

= {(x, y) 2 R2 / (x + y, 2x + y) = (0, 0)}

= {(0, 0)}

2. Seja a transformação linear T : R3 ! R2 , T (x, y, z) = (x y + 4z, 3x + y + 8z).


Por definição,

N (T ) = {(x, y, z) 2 R3 / T (x, y, z) = (0, 0)}

= {(x, y, z) 2 R2 / (x y + 4z, 3x + y + 8z) = (0, 0)}

70
Como 8
< x y + 4z = 0
() x= 3z e y=z
: 3x + y + 8z = 0

Logo,

N (T ) = ( 3z, z, z, ) 2 R3 / z 2 R = {z( 3, 1, 1) / z 2 R} = [( 3, 1, 1)].

5.3 Imagem de uma Transformação Linear

Chama-se Imagem de uma transformação linear T :V !W ao conjunto dos vetores


w 2 W que são imagens de vetores v 2 V. Denota-se esse conjunto por Im(T ) ou T (V):

Im(T ) = {w 2 W / T (v) = w para algum v 2 V}

Observe-se que Im(T ) 6= ;, pois 0 = T (0) 2 Im(T ).

• Se Im(T ) = W T diz-se sobrejetora, isto é, para todo w 2 W, existe pelo menos um


v 2 V tal que T (v) = w.

Figura 5.3: Im(T ) ⇢ W e N (T ) ⇢ V

Exemplos:

1. Seja T : R3 ! R3 , T (x, y, z) = (x, y, 0) a projeção ortogonal do R3 sobre o plano


xy. A imagem de T é o próprio plano xy (Figura 1):

Im(T ) = {(x, y, 0) 2 R3 / x, y 2 R}

Observe-se que o núcleo de T é o eixo dos z.

N (T ) = {(0, 0, z) 2 R3 / z 2 R}

71
pois T (0, 0, z) = (0, 0, 0) para todo z 2 R.

2. A imagem da transformação identidade I : V ! V definida por I(v) = v, 8 v 2 V,


é todo o espaço V. O núcleo nesse caso é N (I) = {0}.

3. A imagen da transformação nula T : V ! W , com T (v) = 0, 8 v 2 V, é o


conjunto Im(T ) = {0}. O núcleo nesse caso, é todo o espaço V.

5.4 Propriedades do Núcleo e da Imagem

1. O núcleo de uma transformação linear T : V ! W , é um subespaço vetorial


de V. De fato, sejam v1 e v2 vetores de N (T ) e ↵ um número real qualquer. Então,
T (v1 ) = 0 e T (v2 ) = 0 e

i) T (v1 + v2 ) = T (v1 ) + T (v2 ) = 0 + 0 = 0, isto é v1 + v2 2 N (T )

ii) T (↵ v) = ↵T (v) = ↵0 = 0, isto é, ↵ v 2 N (T )

2. A imagem de uma transformação linear é um subespaço vetorial de W. De fato:

Sejam w1 , w2 2 Im(T ) e ↵ 2 R. A propriedade fica demonstrada se se provar que:

i) w1 + w2 2 Im(T )

ii) ↵ w1 2 Im(T ),

isto é, deve-se mostrar que existem vetores u e v em V, tais que


T (u) = w1 + w2 e T (v) = ↵ w1 .

Como w1 , w2 2 Im(T ), existem vetores v1 , v2 2 V tais que T (v1 ) = w1 e T (v2 ) = w2 .


Fazendo u = v1 + v2 e v = ↵ v1 , tem-se:

72
T (u) = T (v1 + v2 ) = T (v1 ) + T (v2 ) = w1 + w2 e

T (v) = T (↵ v1 ) = ↵T (v1 ) = ↵ w1

Portanto, Im(T ) é um subespaço vetorial de W.

3. Se V é um espaço vetorial de dimensão finita e T :V !W uma transformação


linear, dim N (T ) + dim Im(T ) = dim V.

5.4.1 Exercícios

1. Dado o operador linear


T : R3 ! R3 , T (x, y, z) = (x + 2y z, y + 2z, x + 3y + z),

a) Determinar o núcleo de T , a dimensão do núcleo e uma de suas bases.

b) Determinar a imagem de T , a dimensão da imagem e uma de suas bases.

c) Verificar a propriedade da dimensão (propriedade 3).

2. Dado o operador linear


T : R2 ! R2 , T (x, y) = (x 2y, 2x + 3y),

a) Determinar o núcleo de T , a dimensão do núcleo e uma de suas bases.

b) Determinar a imagem de T , a dimensão da imagem e uma de suas bases.

c) Verificar a propriedade da dimensão (propriedade 3).

3. Nos problemas seguintes são apresentadas transformações lineares. Para cada uma de
elas
(i) Determinar o núcleo, uma base para esse subespaço, e sua dimensão. T é injetora?
Justificar.
(ii) Determinar a imagem, uma base para esse subespaço, e sua dimensão. T é sobre-
jetora? Justificar

a) T : R2 ! R2 , T (x, y) = (3x y, 3x + y)

b) T : R2 ! R3 , T (x, y) = (x + y, x, 2y)

c) T : R3 ! R2 , T (x, y, z) = (x + 2y z, 2x y + z)

d) T : R3 ! R3 , T (x, y, z) = (x 2y 2z, x + 2y + z, x 3z)

e) T : R2 ! R3 , T (x, y) = (3y, 2x, 0)

73
f ) T : R3 ! R3 ,T (x, y, z) = (x + y, x y, x)
02 31
a b
g) T : M2⇥2 (R) ! R2 , T @4 5A = (a c, b + c)
c d

4. Encontrar um operador linear T : R3 ! R3 , cujo núcleo é gerado por (1, 2, 1) e


(1, 1, 0).

5. Encontrar uma transformação linear T : R3 ! R4 , cuja imagem é gerada por


(1, 3, 1, 2) e (2, 0, 1, 1).

5.5 Matriz de uma Transformação Linear

Sejam T :V !W uma transformação linear, A uma base de V e B uma base de W.


Sem perda de generalidade, consideramos o caso em que dim V = 2 e dim W = 3. Sejam
A = {v1 , v2 } e B = {w1 , w2 , w3 } bases de V e W, respectivamente. Um vetor v 2 V pode
ser expresso por:
v = x1 v 1 + x2 v 2 ou vA = (x1 , x2 ) (5.1)

e a imagem T (v) por

T (v) = y1 w1 + y2 w2 + y3 w3 ou T (v)B = (y1 , y2 , y3 ) (5.2)

Por outro lado,


T (v) = T (x1 v1 + x2 v2 ) = x1 T (v1 ) + x2 T (v2 ) (5.3)

Sendo T (v1 ) e T (v2 ) vetores de W, eles serão combinações lineares dos vetores de B

T (v1 ) = a11 w1 + a21 w2 + a31 w3 (5.4)

T (v2 ) = a12 w1 + a22 w2 + a32 w3 (5.5)

Substituindo (5.4) e (5.5) em (5.3), temos

T (v) = x1 (a11 w1 + a21 w2 + a31 w3 ) + x2 (a12 w1 + a22 w2 + a32 w3 )

ou
T (v) = (a11 x1 + a12 x2 )w1 + (a21 x1 + a22 x2 )w2 + (a31 x1 + a32 x2 )w3 (5.6)

Comparando (5.6) com (5.2), conclui-se que

y1 = a11 x1 + a12 x2

y2 = a21 x1 + a22 x2

y3 = a31 x1 + a32 x2

74
ou na forma matricial 2 3 2 3
y a a 2 3
6 1 7 6 11 12 7 x
6 7 6 7 1
6y2 7 = 6a21 a22 7 4 5
4 5 4 5 x2
y3 a31 a32
ou, ainda simbolicamente
T (v)B = AvA

sendo a matriz 2 3
a a
6 11 12 7
6 7
A = [T ]A
B = 6a21 a22 7
4 5
a31 a32
denominada matriz de T em relação às bases A e B. Essa matriz A é, na verdade, um ope-
rador que transforma vA (componentes de um vetor v na base A) em T (v)B (Componentes
da imagem de v na base B). A matriz A é de ordem 3 ⇥ 2 pois dim V = 2 e dim W = 3.

Observação 5.2. Se a transformação linear T : V ! W tivesse dim V = n e dim W = m,


A seria uma matriz de ordem m ⇥ n.

As colunas da matriz A são as componentes das imagens dos vetores v1 e v2 da base A


de V em relação a base B de W, conforme se verifica em (5.4) e (5.5):
2 3
a11 a12
6 7
6 7
6a21 a22 7
4 5
a31 a32

" "
T (v1 )B T (v2 )B

A matriz A depende das bases A e B consideradas, isto é, a cada dupla de bases corres-
ponde uma particular matriz. Assim, uma transformação linear poderá ter uma infinidade
de matrizes a representá-la. No entanto, fixadas as bases, a matriz é única.

A matriz de T em relação às bases A e B será denotada por A = [T ]A


B

Exemplo 5.9. Dada a transformação linear T : R3 ! R2 ,

T (x, y, z) = (2x + y z, x + 2y)

e as bases de R3 e R2 respectivamente,

A = {v1 = (1, 0, 0), v2 = (2, 1, 0), v3 = (0, 1, 1)}

B = {w1 = ( 1, 1), w2 = (0, 1)}

75
a) determinar A, matriz de T nas bases A e B;

b) se v = (2, 1, 4) (vetor com componentes em relação à base canônica do R3 ), calcular


T (v)B utilizando a matriz A.

Solução

a) A matriz A é de ordem 2 ⇥ 3.
2 3
a11 a12 a13
A=4 5
a21 a22 a23

" " "


T (v1 )B T (v2 )B T (v3 )B

T (v1 ) = T (1, 0, 0) = (2, 2) = a11 ( 1, 1) + a21 (0, 1)


8 8
< a =2 < a = 2
11 11
)
: a +a : a =
11 21 = 2 21 4

T (v2 ) = T (2, 1, 0) = (3, 0) = a12 ( 1, 1) + a22 (0, 1)


8 8
< a = 3 < a = 3
12 12
)
: a +a =0 : a = 3
12 22 22

T (v3 ) = T (0, 1, 1) = (0, 2) = a13 ( 1, 1) + a23 (0, 1)


8 8
< a =0 < a = 0
13 13
)
: a +a : a = 2,
13 23 = 2 23

logo, 2 3
2 3 0
A=4 5
4 3 2

b) Sabe-se que
T (v)B = AvA (5.7)

Tendo em vista que v = (2, 1, 4) está expresso na base canônica, deve-se, primeira-
mente, expressá-lo na base A. Seja vA = (a, b, c), isto é,

(2, 1, 4) = a(1, 0, 0) + b(2, 1, 0) + c(0, 1, 1)

76
ou 8
>
> a +2b =2
>
<
b +c = 1
>
>
>
: c =4
sistema cuja solução é a = 8, b = 5 e c = 4, ou seja, vA = ( 8, 5, 4).

Substituindo A e vA em (5.7), temos


2 3
2 38
2 3 0 6 7
T (v)B = 4 56 5 7
6
7
4 3 2 4 5
4
2 3
1
T (v)B = 4 5
9

Observe-se que
T (v) = T (2, 1, 4) = ( 1, 0),

isto é, os números -1 e 0 são as componentes de T (v) em relação à base canônica do


R2 .

Exemplo 5.10. Dada a transformação linear

T : R3 ! R2 , T (x, y, z) = (2x + y z, x + 2y) (5.8)

e as bases canônicas A = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} do R3 e B = {(1, 0), (0, 1) do R2 ,

a) determinar A, matriz de T nas bases A, e B;

b) se v = (2, 1, 4), calcular T (v)B utilizando a matriz A.

Solução

a)

T (1, 0, 0) =(2, 1) = 2(1, 0) + 1(0, 1)

T (0, 1, 0) =(1, 2) = 1(1, 0) + 2(0, 1)

T (0, 0, 1) =( 1, 0) = 1(1, 0) + 0(0, 1),

logo: 2 3
2 1 1
A=4 5 (5.9)
1 2 0

77
Obs1: No caso de serem A e B bases canônicas do domínio e do contradomínio, respec-
tivamente, como é o caso deste problema, a matriz A é chamada matriz canônica
de T e escreve-se, simplesmente
T (v) = A v (5.10)

ficando subentendido que v = vA e T (v) = T (v)B

Obs2: Examinando, em (5.8), a lei que define a transformação T , verifica-se, em


(5.9), que sua matriz canônica A fica determinada formando a primeira coluna com
os coeficientes de x e a segunda coluna com os coeficientes de y e a terceira com os
coeficientes de z

b) Tendo em vista que v = (2, 1, 4) = vA e que T (v)B = T (v) e que


T (v) = A v conforme esta expresso em (5.10), tem-se
2 3
2 3 2
2 1 1 6 7
T (v)B =T (v) = 4 56
6 17
7
1 2 0 4 5
4
2 3
1
T (v)B =T (v) = 4 5
0
2 3
1
Obs3: Observe o leitor que calcular T (v) = 4 5 pela matriz A é o mesmo que fazê-lo
0
pela lei definidora de T , conforme se pode ver na parte final do problema anterior.

5.6 Operações com Transformações Lineares

5.6.1 Adição ou Soma

Sejam T1 : V ! W e T2 : V ! W transformações lineares. Chama-se soma das


transformações T1 e T2 à transformação linear

T1 + T2 : V ! W

v 7 ! (T1 + T2 )(v) = T1 (v) + T2 (v), 8 v2V

Se A1 e A2 são as matrizes de T1 e T2 em bases quaisquer de V e W, a matriz S que


representa T1 + T2 é
S = A1 + A2

78
5.6.2 Multiplicação por Escalar

Sejam T :V !W uma transformação linear e ↵ 2 R. Chama-se produto de T pelo


escalar ↵ à transformação linear

↵T : V ! W

v 7 ! (↵T )(v) = ↵T (v), 8 v2V

Se A é a matriz de T em bases quaisquer de V e W, a matriz E que representa o produto


↵T é
E = ↵A

5.6.3 Composição

Sejam T1 : V ! W e T2 : W ! U transformações lineares. Chama-se transforma-


ção composta de T1 com T2 , e se representa por T2 T1 à transformação linear

T2 T1 : V ! U

v 7 ! (T2 T1 )(v) = T2 (T1 (v)), 8 v2V

Figura 5.4: Transformação Composta T2 T1 : V ! U

Se A1 e A2 são as matrizes de T1 e T2 em bases quaisquer de V, W e U, a matriz P que


representa a composição T2 T1 é
P = A2 A1

Exemplos:

79
Sejam as transformações lineares: T 1 : R2 ! R2 , T1 (x, y) = (x 2y, 2x + y),
T 2 : R2 ! R2 , T2 (x, y) = (x, x y), e T 3 : R2 ! R3 , T3 (x, y) = (2x + 3y, y, x),
determinar:

1. (T1 + T2 )(x, y)
Solução:

(T1 + T2 )(x, y) = T1 (x, y) + T2 (x, y)

= (x 2y, 2x + y) + (x, x y)

= (2x 2y, 3x)

2. (3T1 2T2 )(x, y)


Solução:

(3T1 2T2 )(x, y) = (3T1 )(x, y) (2T2 )(x, y)

= 3(x 2y, 2x + y) 2(x, x y)

= (x 6y, 4x + 5y)

3. (T3 T2 )(x, y)
Solução:

(T3 T2 )(x, y) = T3 (T2 (x, y))

= T3 (x, x y)

= (2x 3(x y), x y, x)

= ( x + 3y, x y, x)

5.6.4 Exercícios

1. Seja a transformação linear T : R3 ! R2 , T (x, y, z) = (2x y, z + 3y) e as bases


A = {(1, 0, 0), (2, 1, 0), (0, 1, 1)} e B = {( 1, 1), (0, 1)}. Determinar a matriz [T ]A
B

2. Seja a transformação linear T : R2 ! R3 , T (x, y) = (2x y, x + 3y, 2y) e as


bases A = {( 1, 1), (2, 1)} e B = {(0, 0, 1), (0, 1, 1), (1, 1, 0)}. Determinar a
matriz [T ]A
B . Qual a matriz [T ]C , onde C é a base canônica do R ?
A 3

80
3. Sabendo que a matriz de uma transformação linear T : R2 ! R3 , nas bases A=
{( 1, 1), (1, 0)} do R2 e B = {(1, 1, 1), (2, 1, 0), (3, 0, 1)} do R3 é:
2 3
3 1
6 7
6 7
[T ]A
B = 6 2 5 7
4 5
1 1

encontrar a expressão de T (x, y) e a matriz [T ] (Matriz asssociada às bases canônicas)

4. Seja a transformação linear T : P3 (R) ! P2 (R), T (p(x)) = p0 (x) + p(0).


Encontre a matriz de T em relação as bases {x2 , x, 1} e {2, 1 x}. Para cada um dos
vetores p(x) em P3 (R) a seguir, encontre as coordenadas de T (p(x)) em relação à base
{2, 1 x}.
a) x2 + 2x 3 b) x2 + 1 c) 3x d) 4x2 + 2x

5. Seja S = ger{ex , xex , x2 ex } o subespaço de C[a, b](Espaço vetorial das funções reais
definidas no intervalo [a, b]). Seja D o operador derivada em S. Encontre a matriz de
D em relação à base {ex , xex , x2 ex }

6. Consideremos as transformações lineares S e T de R3 em R2 definidas por S(x, y, z) =


(2x y, 3x 2y + z) e T (x, y, z) = (x + y z, y 2z).

a) Determinar o núcleo da transformação linear S + T .

b) Encontrar a matriz canônica de 3S 4T .

7. Seja a transformação linear S : R3 ! R4 , S(x, y, z) = (x + y, z, x y, y + z)

a) Calcular (S T )(x, y) se
T : R2 ! R3 , T (x, y) = (2x + y, x y, x 3y)

b) Encontrar a matriz canônica de S T e mostrar que ela é o produto da matriz


canônica de S pela matriz canônica de T .

5.7 Mudança de Base

Descrever o movimento de uma partícula em um plano resulta muitas vezes mas conveniente
se usarmos uma base em R2 formada por um vetor tangente unitário ~t e um vetor normal ~n,
em vez da base canônica {e1 , e2 }.

81
Em geral, se A e B são bases de um espaço vetorial V, e I : V ! V é a transformação
linear identidade, então por (5.7) temos que:

[v]B = [I(v)]B = A [v]A (5.11)

sendo A a matriz associada à transformação identidade I nas bases A e B, e que denotaremos


por
A = [I]A
B.

Esta matriz é também chamada matriz mudança de base de A para B.

Deste modo consegue-se relacionar as coordenadas de um vetor v em relação à base A


com as coordenadas do mesmo vetor v em relação à base B.

Exemplo 5.11. Sejam as bases A = {v1 , v2 } e B = {w1 , w2 } do R2 , onde

v1 = (2, 1), v2 = ( 1, 1) e w1 = (1, 0), w2 = (2, 1)

Ache a matriz mudança de base de A para B.

Sol: Para isso temos que expressar os vetores da base A em relação à base B.

v1 = (2, 1) = a11 (1, 0) + a21 (2, 1)

ou 8 2 3
< a
11 +2a21 = 2 4
=) a11 = 4, a21 = 1 =) [v1 ]B = 4 5.
: a21 = 1 1
Analogamente,
v2 = ( 1, 1) = a12 (1, 0) + a22 (2, 1),

logo
8 2 3
< a
12 +2a22 = 1 3
=) a12 = 3, a22 = 1 =) [v2 ]B = 4 5.
: a22 = 1 1

Portanto, 2 3
4 3
[I]A
B =
4 5
1 1
2 3
4
Sabendo que [v]A = 4 5 podemos calcular [v]B usando a matriz anterior. De fato:
3
2 32 3 2 3
4 3 4 7
[v]B = [I]A
B [v]A =
4 54 5 = 4 5.
1 1 3 1

82
5.8 Exercícios

1. Encontre a matriz mudança de base [I]A


B sendo:

a) A = {(1, 0), (0, 2)} e B = {(2, 1), ( 3, 4)}.

b) A = {( 3, 0, 3), ( 3, 2, 1), (1, 6, 1)} e B = {( 6, 6, 0), ( 2, 3, 7), ( 2, 6, 4)}.

c) A = {6 + 3x, 10 + 2x} e B = {2, 3 + 2x}.

2. Calcule as matrizes coordenadas [w]A a [w]B , onde w = ( 5, 8, 5) e A e B são as


bases dadas no exercicio 1, item b).

83
Capítulo 6

Autovalores e Autovetores

Seja A 2 Mn⇥n (R). A equação


Ax = y

pode ser vista como uma transformação linear que leva (ou transforma) um vetor dado x 2 V
em um novo vetor y 2 V. Vetores que são transformados em múltiplos de si mesmos são
importantes em muitas aplicações. Para encontrar tais vetores, faz-se y = x, onde é um
fator escalar de proporcionalidade. Assim,o objetivo será achar soluções das equações

Ax = x, (6.1)

ou
(A I)x = 0. (6.2)

Definição 6.1. Se A 2 Mn⇥n (R). O polinômio de n-ésimo grau

p( ) = det(A I), (6.3)

se chama polinômio característico da matriz A.

A equação det(A I) = 0 chama-se equação característica de A e suas raízes que


satisfazem a equação (6.3) são os autovalores da matriz A. O vetor x tal que Ax = x
é chamado autovetor correspondente, ou associado, àquele autovalor . O conjunto de
todos os autovetores x 2 V correspondentes ao autovalor , indicado por V , é chamado
autoespaço de .

Proposição 6.1. As seguintes afirmações são equivalentes:

a) A equação (6.1) tem soluções não-nulas

84
b) A matriz (A I) é não-inversível.

c) det(A I) = 0.

Em particular, se A é uma matriz 2 ⇥ 2, então a equação (6.2) fica


0 1 0 1 0 1
a11 a12 x1 0
@ A.@ A = @ A.
a21 a22 x2 0
Esta última equação tem soluções não-nulas se,

p( ) = (a11 ).(a22 ) a12 a21 = 0.

Ex.: Encontrar os autovalores e autovetores da matriz


0 1
3 1
A=@ A
4 2

Solução: Os autovalores e os autovetores v1 e v2 satisfazem a equação (A I)x = 0.


Assim, 0 1 0 1 0 1
3 1 x1 0
@ A.@ A=@ A. (6.4)
4 2 x2 0
Os autovalores são as raízes da equação

3 1 2
det(A I) = = 2=0
4 2
Logo, os autovalores são 1 =2e 2 = 1.

Para encontrar os autovetores, volta-se à equação (6.4) e substitui-se por cada um dos
autovalores encontrados.

Para =2: 0 1 0 1 0 1
1 1 x1 0
@ A.@ A=@ A. (6.5)
4 4 x2 0
Logo, cada linha dessa equação vetorial leva à condição x1 x2 = 0, logo x1 = x2 , mas seus
valores não estão determinados. Se x1 e x2 forem iguais a c, o autovetor v1 será
0 1
1
v1 = c. @ A , c 6= 0. (6.6)
1
Em geral, não se usa a constante arbitrária c para encontrar os autovetores; com isso elimina-
se c da equação (6.6), 0 1
1
v1 = @ A, (6.7)
1

85
e deve ser lembrado que qualquer múltiplo não-nulo desse vetor também é um autovetor.
Diz-se que v1 é o autovetor correspondente ao autovalor 1 = 2.

Agora para = 1 na equação (6.4).


0 1 0 1 0 1
4 1 x 0
@ A.@ 1 A = @ A. (6.8)
4 1 x2 0

Foi obtido mais uma vez uma única condição sobre x1 e x2 , para saber, 4x1 x2 = 0. Logo,
o autovetor correspondente ao autovalor = 1é
2
0 1
1
v2 = @ A , (6.9)
4

ou qualquer múltiplo não-nulo desse vetor.

Observação 6.1. Se um determinado autovalor aparece m vezes como raiz da equação (6.3),
ele é dito de multiplicidade m. Cada autovalor de multiplicidade m pode ter q autovetores
linearmente independentes, onde
1  q  m.

Ex.: Encontrar os autovalores e autovetores da matriz


0 1
0 1 1
B C
B C
A=B 1 0 1 C (6.10)
@ A
1 1 0

Solução: Os autovalores e autovetores satisfazem a equação (A I)x = 0, ou


0 1 0 1 0 1
1 1 x1 0
B C B C B C
B C B C B C
B 1 1 C . B x2 C = B 0 C (6.11)
@ A @ A @ A
1 1 x3 0

Os autovalores são as raízes da equação

1 1
det(A I) = 1 1 = 3
+3 +2=0 (6.12)
1 1

As raízes da equação (6.12) são 1 = 2, 2 = 1e 3 = 1. Sendo assim, 2 é um autovalor


simples e 1 um autovalor de multiplicidade 2.

86
Agora para encontrar o autovetor v1 associado ao autovalor 1, deve-se substituir =2
na equação (6.11); isso nos leva ao sistema
0 1 0 1 0 1
2 1 1 x1 0
B C B C B C
B C B C B C
B 1 2 1 C . B x2 C = B 0 C (6.13)
@ A @ A @ A
1 1 2 x3 0

Usando as operações elementares sobre as linhas do sistema, encontramos um outro sistema


equivalente, 0 1 0 1 0 1
2 1 1 x 0
B C B 1 C B C
B C B C B C
B 0 1 1 C . B x2 C = B 0 C (6.14)
@ A @ A @ A
0 0 0 x3 0
Resolvendo esse sistema, obtemos o autovetor
0 1
1
B C
B C
v1 = B 1 C . (6.15)
@ A
1

Para = 1, o sistema (6.11) se reduz imediatamente a uma única equação

x1 + x2 + x3 = 0. (6.16)

Assim, valores para duas das quantidades x1 , x2 e x3 podem ser escolhidos arbitrariamente
e o terceiro valor fica determinado pela equação (6.16). Por exemplo, se x1 = 1 e x2 = 0,
então x3 = 1e 0 1
1
B C
B C
v2 = B 0 C (6.17)
@ A
1
é um autovetor. Qualquer múltiplo não-nulo de v2 também é um autovetor, mas um segundo
autovetor independente pode ser encontrado para uma outra escolha de x1 e x2 ; por exemplo,
x1 = 0 e x2 = 1. Novamente x3 = 1e
0 1
0
B C
B C
v3 = B 1 C (6.18)
@ A
1

é um autovetor linearmente independente de v2 .

Portanto, neste exemplo, existem dois autovetores linearmente independentes associados


a um autovalor duplo.

87
6.1 Exercícios

1. Encontrar os autovalores e autovetores das matrizes


0 1
0 1 3 0 0
1 4 B C
B C
a) A = @ A b) A = B 0 2 5 C
2 3 @ A
0 1 2

2. Seja T : R3 ! R3 um operador linear definido por

T (x, y, z) = (2x + y, y z, 2y + 4z).

Ache os autovalores e uma base para cada autoespaço do operador T .

3. Calcule os valores proprios e vetores proprios das transformações lineares seguintes:

a) T : R2 ! R2 , T (x, y) = (x + 2y, x + 4y)


b) T : R2 ! R2 , T (x, y) = (y, x)
c) T : R3 ! R3 , T (x, y, z) = (x, 2x y, 2x + y + 2z)

88
Capítulo 7

Diagonalização de Matrizes

Uma matriz A 2 Mn⇥n (R) é dita diagonalizável se existe uma matriz inversível
0 1
p11 p12 . . . p1n
B C
B C
B p21 p22 . . . p2n C
B
P =B . C (7.1)
. .. .. .. C ,
B . . . . C
@ A
pn1 pn2 . . . pnn

tal que: P 1
AP é uma matriz diagonal. Dizemos então que a matriz P diagonaliza A.

Teorema 7.1. Se A 2 Mn⇥n (R), então são equivalentes se:

i) A é diagonalizável

ii) A tem n autovetores L.I.

A seguir veremos os passos do método de diagonalização de matrizes:

1. Encontrar os n autovetores L.I. de A, digamos v1 , v2 , . . . , vn .

2. Forme a matriz P com os vetores coluna v1 , v2 , . . . , vn .

3. A matriz P 1
AP será então diagonal com entradas 1, 2, . . . , n na diagonal principal,
onde i é o autovalor associado a vi .

Ex.: Encontre a matriz que diagonaliza


2 3
0 0 2
6 7
6 7
A=6 1 2 1 7. (7.2)
4 5
1 0 3

89
Solução: Será feita por partes:

i) Cálculo dos autovetores:

0 2
p( ) = det(A I) = det 1 2 1 = ( 2)2 ( 1) (7.3)
1 0 3
Logo, p( ) = 0, se = 1, = 2.
0 1
x
B C
B C
• Para = 1, achar v = B y C /(A I)v = 0
@ A
z
2 3 2 3 2 3
1 0 2 x 0
6 7 6 7 6 7
6 7 6 7 6 7
Assim 6 1 1 1 7 . 6 y 7 = 6 0 7
4 5 4 5 4 5
1 0 2 z 0
8 8
< x+y+z =0 < x = 2z
=) (7.4)
: x + 2z = 0 : y=z

Consequentemente V1 = {( 2z, z, z)/z 2 R} = ger{( 2, 1, 1)}

• Para
2 = 2 temos:
3 2 3 2 3
2 0 2 x 0
6 7 6 7 6 7
6 7 6 7 6 7
6 1 0 1 7.6 y 7 = 6 0 7 =) x= z
4 5 4 5 4 5
1 0 1 z 0

V2 = {(x, y, x)/ x, y 2 R}

= {x(1, 0, 1) + y(0, 1, 0)/x, y 2 R}

= ger{(1, 0, 1), (0, 1, 0)} (7.5)


2 3
2 1 0
6 7
6 7
ii) A matriz P = 6 1 0 1 7 diagonaliza A pois P 1
AP é diagonal.
4 5
1 1 0
Observe que A possui 3 autovetores L.I. que formam uma base.

iii) Provaremos que P 1


AP é diagonal
2 3
1 0 1
6 7
6 7
De fato, calculando obtemos que P 1
=6 1 0 2 7, logo
4 5
1 1 1

90
2 32 32 3 2 3
1 0 1 0 0 2 2 1 0 1 0 0
6 76 76 7 6 7
1 6 76 76 7 6 7
P AP = 6 1 0 2 76 1 2 1 76 1 0 1 7=6 0 2 0 7
4 54 54 5 4 5
1 1 1 1 0 3 1 1 0 0 0 2

7.1 Exercícios

1. Ache a forma diagonal e a matriz diagonalizante P , para cada uma das matrizes.
2 3
2 3 2 3 1 3 3
3 4 1 4 6 7
6 7
a) 4 5 b) 4 5 c) A = 6 3 5 3 7
4 3 2 3 4 5
6 6 4

2. Verifique se as as seguintes matrizes são diagonalizáveis. Se for, calcule uma matriz P


que diagonaliza A.
2 3 2 3
2 3 2 3 1 2 1 1 0 0
2 4 5 1 6 7 6 7
6 7 6 7
i) A = 4 5 ii) A = 4 5 iii) A = 6 1 3 17 iii) A = 6 2 3 17.
3 1 1 3 4 5 4 5
0 2 2 0 4 3

7.2 Matrizes Simétricas e autovetores ortogonais

Pelo Teorema 7.1 sabemos que dois autovetores associados a autovalores distintos de uma
matriz A são linearmente independente. Se temos que A é simétrica tem-se o teorema abaixo:

Teorema 7.2. Os autovetores associados a autovalores distintos de uma matriz simétrica


são ortogonais.

Demonstração: Vamos supor v1 e v2 autovetores associados aos autovalores distintos 1

e 2 da matriz simétrica A. Vamos mostrar que hv1 , v2 i = v1T v2 = 0. De fato, como a matriz
A é simétrica, logo

hv1 , Av2 i = v1T Av2 = v1T AT v2 = (Av1 )T v2 = (v2T Av1 )T = (v2T 1 v1 )


T
= T
1 v1 .v2 (7.6)

e
hv1 , Av2 i = v1T Av2 = v1T 2 v2 = T
2 v1 .v2 (7.7)

são iguais. Então,


( 1
T
2 )v1 v2 = 0. (7.8)

91
Como 1 6= 2 segue-se hv1 , v2 i = 0, portanto os autovetores v1 e v2 são ortogonais.

No Teorema 7.1 vimos que uma matriz A é diagonalizada pela matriz P dos autovetores.
No caso de A ser simétrica, os vetores que compõem P são base ortogonal. Com o
intuito de facilitar futuras aplicações, é conveniente que P seja ortonormal, o que se obtém
normalizando cada vetor.

Assim os autovetores ortonormais de P formarão uma matriz ortonormal (isto é P P T =


I). Como P é inversível e P 1
= P T a relação fica:

D = P T AP, (7.9)

e nesse caso diz- se que P diagonaliza A ortonormalmente.

Observação 7.1. Qualquer matriz B 2 Mn⇥m multiplicada pela sua matriz transposta B T 2
Mm⇥n , é uma matriz quadrada simétrica de ordem n ⇥ n. De fato,

(BB T )T = (B T )T B T = BB T .

Consequentemente os autovetores associados a autovalores distintos da matriz BB T são


ortogonais.

92
Capítulo 8

Aplicações

8.1 Método de Mínimos Quadrados

Sistemas inconsistentes da forma AX = y são muito importantes nas aplicações físicas. É


uma situação comum que algum problema físico leve a um sistema AX = y que deveria
ser consistente em teoria, mas não o é porque "erros de medida” nas entradas de A e y
perturbam o sistema suficientemente a ponto de criar inconsistência.

Nesta seção faremos uso das projeções ortogonais para obter uma técnica de ajustar
uma reta ou uma outra curva polinomial a um conjunto de pontos do plano que foram
determinados experimentalmente gerando um sistema inconsistente.

Um exemplo típico de aproximação consiste em achar um vetor w em um subespaço W


de um espaço vetorial V que melhor aproxime (isto é, seja o mais próximo de) um vetor
v 2 V dado. Este problema da origem a seguinte definição:

Definição 8.1. Se W é um subespaço de dimensão finita de um espaço vetorial V com


produto interno e se v 2 V, então a melhor aproximação para v em W é o vetor u 2 W
tal que:
kv uk  kv wk

para todo w em W diferente de u.

Exemplo 8.1. Geometricamente, se V = R3 e W = {(x, y, 0) 2 R3 / x, y 2 R} podemos


visualizar o seguinte:

Teorema 8.1. (O Teorema da Melhor Aproximação) Seja W ✓ V, onde W é um subespaço


de dimensão finita de um espaço vetorial com produto interno V. Se v 2 V, então Proj W v

93
é a melhor aproximação para v em W , ou equivalentemente:

kv Proj W vk  kv wk 8 w 2 W, w 6= Proj W v.

Agora, vamos a procurar achar uma solução que chegue “tão perto quanto possível” de ser
uma solução, no sentido que minimize o valor de kAX yk em relação ao produto interno
euclideano.

Definição 8.2. Sejam A 2 Mmxn , y 2 Rn e W o espaço coluna de A. Diremos que


Proj W y é uma solução por mínimos quadrados do sistema AX = y se

ky Proj W yk  kAX yk, (8.1)

para todo X em Rn .

Observação 8.1. Uma propriedade que decorre do Teorema 4.6, diz que:

(y Proj W y) 2 W ? .

Como W é o espaço coluna de A segue do Teorema 4.7 que

(y AX) 2 N (AT ).

Desse modo uma solução de mínimos quadrados de AX = y deve satisfazer

AT (y AX) = 0 ou AT AX = AT y.

Este último sistema é chamado de sistema normal associado a AX = y.

94
Proposição 8.1. Para qualquer sistema linear AX = y, o sistema normal associado

AT A X = AT y é consistente.

Mais ainda, se A 2 Mm⇥n tem vetores L.I., então para cada matriz y 2 Mn⇥1 o sistema
linear AX = y, tem uma única solução de mínimos quadrados. Esta solução é dada por:

X = (AT A) 1 AT y

8.1.1 Ajuste de Mínimos Quadrados a Dados

Uma aplicação da proposição anterior pode ser vista sobre projeções ortogonais em espa-
ços com produto interno para obter uma técnica de ajustar uma reta o uma outra curva
polinomial a um conjunto de pontos no plano que foram determinados experimentalmente.

Ajuste Linear de Mínimos Quadrados

Teorema 8.2. Seja (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ) um conjunto de dois o mais pontos de
dados, não todos em uma reta vertical. Então, existe um único ajuste linear de mínimos
quadrados
y = a⇤ + b ⇤ x

aos pontos de dados. Além disto,


2 3 2 3
1 x1 y
2 3 6 7 6 17
6 7 6 7
a⇤ 6 1 x2 7 6 y2 7
4 5 = (AT A) 1 AT y, onde 6
A=6 7 e y=6 7
7 6 7.
b⇤ 6 1 x3 7 6 y3 7
4 5 4 5
1 x4 y4

Exemplo 8.2. Encontre o ajuste linear por mínimos quadrados dos pontos (0, 1), (1, 3),
(2, 4) e (3, 4).

Solução O problema será achar uma reta da forma

y = a⇤ + b ⇤ x

95
que contém os pontos dados, isto é:
8 2 3 2 3
>
> 1 = a⇤ + b ⇤ 0 1 1 0
>
> 6 7 6 72 3
>
> 6 7 6 7
< 3 = a⇤ + b ⇤ 1 6 3 7 6 1 1 7 a⇤
() 6 7=6 74 5
> 6 7 6 7
>
> 4 = a⇤ + b ⇤ 2 6 4 7 6 1 2 7 b⇤
>
> 4 5 4 5 | {z }
>
: 4 = a⇤ + b ⇤ 3 4 1 3
|{z} | {z }
y = A X

Como A tem vetores L.I. pelo Proposição anterior tem-se que


2 3 2 3
1 0 1
2 3 2 36 7! 2 36 7
6 7 1 6 7
a⇤ 1 1 1 1 61 1 7 1 1 1 1 637
4 5 = (A A) A y = 4
T 1 T 56 7 4 56 7
⇤ 6 7 6 7
b 1 2 3 4 6 1 2 7 1 2 3 4 647
4 5 4 5
1 3 4
2 32 3 2 3
1 47 3 12
54 5 = 4 5.
1, 5
= (8.2)
10 3 2 23 1
Portanto, a reta desejada é y = 1, 5 + x.

Ajuste Polinomial de Mínimos Quadrados

A técnica usada para o ajuste linear de Mínimos Quadrados generaliza-se facilmente para
ajustar um polinômio de qualquer grau fixo m, para n dados.

Assim, ajustando o polinômio

y = a0 + a1 x + · · · + am x m

96
aos n pontos (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ), obtemos as n equações:

y 1 = a0 + a1 x 1 + · · · + am x m
1

y 2 = a0 + a1 x 2 + · · · + am x m
2
..
.

y n = a0 + a1 x n + · · · + am x m
n.

Em formato matricial, o anterior escreve-se da forma:


2 3 2 3 2 3
2 m
1 x1 x1 . . . x 1 a y
6 7 6 07 6 17
6 2 m7 6 7 6 7
61 x2 x2 . . . x 2 7 6 a1 7 6 y2 7
AX = y, onde A=6 6 .. .. ..
7,
7 X=6 7
6 .. 7 e y=6 7
6 .. 7 .
6. . . 7 6.7 6.7
4 5 4 5 4 5
2 m
1 xn xn . . . x n an yn

Logo, pela Proposição 8.1 tem-se que as soluções das equações normais

AT AX = AT y

determinam os coeficientes dos polinômios que minimizam

ky AXk.

Exemplo 8.3. O dono de um negócio em rápida expansão descobre que nos 5 primeiros meses
do ano as vendas (em milhares de reais) foram $4, 0; $4, 4; $5, 2; $6, 4 e $8, 0. O dono
coloca estos dados num gráfico e conjectura que, pelo resto do ano, a curva de vendas pode
ser aproximada por um polinômio quadrático de melhor ajuste de mínimos quadrados para a
curva de vendas e use-o para projetar as vendas no décimo segundo mês do ano.

Solução O problema matemático é ajustar a curva quadrática

y = a0 + a1 x + a2 x 2

aos cinco pontos dados

(1; 4), (2; 4, 4), (3; 5, 2), (4; 6, 4), (5; 8).

97
8 2 3 2 3
>
> 4, 0 = a0 + a1 + a2 4, 0 1 1 1
>
> 6 7 6 72 3
>
> 6 7 6 7
>
> 4, 4 = a0 + 2a1 + 4a2 6 4, 4 7 61 2 4 7 a0
>
< 6 7 6 76 7
6 7 6 76 7
5, 2 = a0 + 3a1 + 9a2 () 6 5, 2 7 = 61 3 9 7 6 a1 7
>
> 6 7 6 74 5
>
> 6, 4 = a + 4a + 16a 6 7 6 7
>
> 0 1 2 6 6, 4 7 61 4 167 a2
>
> 4 5 4 5 | {z }
>
: 8, 0 = a + 5a + 25a
0 1 2 8, 0. 1 5 25
| {z } | {z }
y = A X

Como A tem vetores L.I. pelo Proposição anterior tem-se que


2 3 2 3
1 1 1 4, 0
2 36 7 2 36 7
6 7 6 7
1 1 1 1 1 61 2 4 7 ! 1 1 1 1 1 1 6 4, 4 7
6 76 7 6 76 7
6 76 7 6 76 7
X = 61 2 3 4 5 7 61 3 9 7 61 2 3 4 5 7 6 5, 2 7
4 56 7 4 56 7
6 7 6 7
1 4 9 16 25 61 4 167 1 4 9 16 25 6 6, 4 7
4 5 4 5
1 5 25 8, 0.
2 3 2 3
5 15 55 ! 1 28
6 7 6 7
6 7 6 7
= 615 55 2257 6 94 7
4 5 4 5
55 225 979 370, 8
2 32 3
23/5 33/10 1/2 28
6 76 7
6 76 7
= 6 33/10 187/70 3/77 6 94 7 (8.3)
4 54 5
1/2 3/7 1/14 370, 8
2 3
4
6 7
6 7
= 6 0, 27 (8.4)
4 5
0, 2
Portanto, o polinômio desejado é y = 4 0, 2x + 0, 2x2 . Consequentemente no décimo
segundo mês, x = 12, temos que o valor das vendas é:

y=4 2, 4 + 28, 8 = 30, 4 mil reais.

8.2 Rotação de Cônicas

Teorema 8.3. (Dos eixos Principais em R2 ) Seja ax2 + 2bxy + cy 2 + dx + ey + f = 0 a


equação de uma cônica C e seja

X T AX = ax2 + 2bxy + cy 2 (8.5)

98
Figura 8.1: Parábola de ajuste y = 4 0, 2x + 0, 2x2
0 1 0 1
x a b
a forma quadrática associada, onde X = @ A e A = @ A.
y b c
Então, os eixos coordenados podem ser girados de modo que a equação C no novo sistema
x0 , y 0 tenha a forma

1 (x
0 2
) + 2 (y
0 2
) + d0 x0 + e0 y 0 + f 0 = 0, (8.6)

onde 1, 2 são autovalores de A.

A rotação é definida pela substituição


0 1
x0
X = P X 0, @ A (8.7)
y0
onde P diagonaliza A ortogonalmente, isto é P T AP = D e det P = 1 (note-se que
P 1
= P T ).

Observação 8.2. Do teorema anterior temos que a equação da cônica pode-se escrever em
forma matricial da forma
⇣ ⌘
ax2 + 2bxy + cy 2 +dx + ey + f = X T AX + d e X + f = 0 (8.8)
| {z }

99
Logo, substituindo X = P X 0 tem-se
⇣ ⌘
0 = (P X 0 )T A(P X 0 ) + d e P X 0 + f
⇣ ⌘
= (X 0 )T P T
AP
| {z } X 0
+ d e P X0 + f
⇣ ⌘
= (X ) DX + d e P X 0 + f
0 T 0
(8.9)

Exemplo 8.4. Identifique a cônica cuja equação é:

5x2 4xy + 8y 2 y 1=0

Solução A forma quadrática associada é


0 10 1
⇣ ⌘ 5 2 x
5x2 4xy + 8y 2 = x y @ A @ A = X T AX (8.10)
2 8 y

é simples calcular que os autovalores e autovetores (normalizados) são:


0 1
p2
1 = 4, v1 = @ 5A
(8.11)
p1
5
0 1
p1
2 = 9, v2 = @ 5A . (8.12)
p2
5

Portanto, a matriz P que diagonaliza A ortogonalmente é


0 1
p2 p1
P =@ 5 5A
com det P = 1. (8.13)
p1 p2
5 5

Consequentemente da observação anterior, fazendo X = P X 0 temos que


0 10 1 0 10 1
⇣ ⌘ 4 0 x 0 ⇣ ⌘ p2 p 1
x0
0= x y0 0 @ A @ A + 0 1 @ 5 5A @ A
1 (8.14)
0 9 y0 p1 p2 y 0
5 5
1 2
= 4(x0 )2 + 9(y 0 )2 p x0 p y0 1. (8.15)
5 5

Portanto, agrupando temos


✓ ◆2 ✓ ◆2
1 1 1 1 745 149
2x 0
p + 3y 0 p =1+ + = = (8.16)
4 5 3 5 80 45 720 145

Mais ainda,
✓ ◆2 ✓ ◆2
1 1 149
4 x 0
p +9 y 0
p = (8.17)
8 5 9 5 145

100
ou
✓ ◆2 ✓ ◆2
1 1
x 0 p y 0 p ✓r ◆2
8 5 9 5 149
+ = . (8.18)
1 1 145
22 32

Da equação (8.17) é fácil deduzir que 5x2 4xy+8y 2 y 1 = 0 representa uma elipse com
rotação e translação, centrada sobre a interseção dos eixos que tem como vetores diretores
{v1 , v2 } (a escolha da ordem está associada ao fato do detP = 1)

Figura 8.2: Gráfico da cônica 5x2 4xy + 8y 2 y 1=0

101
Apêndice A

Números Complexos

Como x2 0 para todo x 2 R, a equação x2 = 1 não tem solução real. Para contornar
este problema os matemáticos do século 18 introduziram o número imaginário
p
i= 1

ao qual deram a propriedade


i2 = 1.

Assim, foi definido os "números complexos” como o conjunto


p
C = {a + bi /a, b 2 R}, onde i= 1.

Diremos que z 2 C se pode-se escrever da forma

z = a + bi onde a = Re(z), b = Im(z) são a parte real e imaginária de z.

No inicio do século 19, reconhece-se que um número complexo pode representar-se como
um par ordenado (a, b) 2 R2 , de modo que ao definir operações aritméticas análogas a R2 ,
as propriedades fundamentais continuem sendo válidas, com a propriedade adicional que
i2 = 1.

Geometricamente um número complexo z pode ser visto tanto como um ponto quanto
como um vetor no plano xy.

102
Figura A.1: C () R2

Operações Aritméticas Sejam a + bi, c + di 2 C, então

(a + bi) + (c + di) = (a + c) + (b + d)i (A.1)

(a + bi) (c + di) = (a c) + (b d)i (A.2)

k(a + bi) = ka + kbi, 8k2R (A.3)

(a + bi) · (c + di) = (ac bd) + (ad + bc)i (A.4)

Seja z = a + bi, definimos z̄ = a bi o chamado conjugado de z, e o representamos


geometricamente por

Observe-se que
p
|z| = a2 + b2 = z · z̄ = |z̄|.

Por outro lado, se ✓ é o ângulo entre o eixo real positivo e o vetor z (figura A), usando
propriedades trigonométricas obtemos a forma polar de z

z = a + bi = |z| cos ✓ + i |z| sen ✓. (A.5)

103
Note-se que se

z1 = |z1 | cos ✓1 + i |z1 | sen ✓1 e z2 = |z2 | cos ✓2 + i |z2 | sen ✓2 ,

então

z1 z2 = |z1 ||z2 |(cos ✓1 cos ✓2 sen ✓1 sen ✓2 ) + i |z1 ||z2 |(sen ✓1 cos ✓2 + cos ✓1 sen ✓2 )

= |z1 ||z2 | cos(✓1 + ✓2 ) + i |z1 ||z2 | sen(✓1 + ✓2 ) (A.6)

Generalizando a propriedade (A.6) temos

z n = |z|n (cos ✓ + i sen ✓)n = |z|n (cos n✓ + i sen n✓). (A.7)

No caso especial em que |z| = 1 nós temos a chamada fórmula de Moivre

(cos ✓ + i sen ✓)n = cos n✓ + i sen n✓, 8 n 2 Z. (A.8)

Raiz n-ésima de un número complexo

Seja n 2 N e z 2 C, definimos a raiz n-ésima de z como um número complexo w que


satisfaz a equação

wn = z. (A.9)

Denotaremos w = z 1/n .

Sejam,
z = |z|(cos ✓ + i sen ✓) e w = |w|(cos ↵ + i sen ↵),

tais que satisfazem (A.9), isto é

wn = |w|n (cos n↵ + i sen n↵) = |z| (cos ✓ + i sen ✓). (A.10)

Comparando temos que

|w|n = |z|, cos n↵ = cos ✓ e sen n↵ = sen ✓. (A.11)

Logo,
✓ + 2k⇡
|w| = |z|1/n , e ↵= , 8 k 2 Z. (A.12)
n
Consequentemente, a solução de (A.9)
✓ ✓ ◆ ✓ ◆◆
✓ + 2k⇡ ✓ + 2k⇡
w = |z| 1/n
cos + i sen , 8 k 2 Z. (A.13)
n n

104
Referências Bibliográficas

Boldrini, J. L. and Costa, S. I. (1986). Álgebra Linear. Harbra Ltda, São Paulo, 3a edition.

Edwards, C. H. J. and Peney, D. E. (2000). Álgebra Linear Elementar. Brazil.

Howard, A. and Rorres, C. (2000). Álgebra Linear com Aplicações. Bookman, São Paulo, 8a
edition.

Poole, D. (2006). Álgebra Linear. São Paulo. Tradutoras: Martha Salerno Monteiro (coord.)
et al.

Steinbruch, A. and Winterle, P. (1987). Álgebra Linear. Makron Books, São Paulo, 2a
edition.

105

Você também pode gostar