Escolar Documentos
Profissional Documentos
Cultura Documentos
Apostila AlgebraLinear
Apostila AlgebraLinear
ÁLGEBRA LINEAR
Liliana A. L. Mescua †
Rigoberto G. S. Castro
Agosto 2019
.
Liliana A. L. Mescua
*27/03/1970 +06/02/2019
‘‘Dai-lhe Senhor,
em felicidade
no Céu
o que ela nos deu
em ternura
na Terra’’
Sumário
1 Matrizes 1
1.2.1 Adição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2 Subtração . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.6 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.4 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
ii
3 Vetores 24
3.7.1 Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.9 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4 Espaço Vetorial 40
iii
4.6.1 Complementos Ortogonais . . . . . . . . . . . . . . . . . . . . . . . . 55
4.7 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5 Transformações Lineares 65
5.1.1 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.4.1 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.6.3 Composição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
5.6.4 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5.8 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6 Autovalores e Autovetores 84
6.1 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
7 Diagonalização de Matrizes 89
7.1 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
iv
8 Aplicações 93
v
Capítulo 1
Matrizes
Definição 1.1. Uma matriz de ordem m ⇥ n é uma tabela de números chamados de ele-
mentos ou termos da matriz. Esta tabela possui mn elementos escalares (números reais
ou complexos) dispostos em m linhas (número de filas horizontais) e n colunas (número de
filas verticais). Por convenção usaremos sempre as letras maiúsculas A, B, C, D, . . . para
nomeá-las
0 1 2 3
a11 a12 . . . a1n a11 a12 . . . a1n
B C 6 7
B C 6 7
B a21 a22 . . . a2n C 6 a21 a22 . . . a2n 7
A=B
B .. .. ..
C 6
.. C = 6 .. .. ..
7
.. 7 = (aij )m⇥n . (1.1)
B . . . . C 6 . . . . 7
@ A 4 5
am1 am2 . . . amn am1 am2 . . . amn
Exemplo: 0 1 2 3
2 2 0 1 4
A=@ A B=4 5 (1.2)
1 3 5 0 7
2⇥3 2⇥2
Observação 1.1. De acordo com o número de linhas e colunas da matriz, podemos destacar
os seguintes casos particulares
Definição 1.2. (Igualdade de Matrizes:) Duas matrizes A = (aij )m⇥n e B = (bij )m⇥n são
ditas iguais, se todos seus elementos correspondentes são iguais, isto é, se aij = bij .
1
2 3 2 3
a 1 2 1
6 7 6 7
6 7 6 7
Exercício: Determine a, b, c, d de modo que: 6 1 b + 17 = 61 1 7.
4 5 4 5
c 2 d2 6 3
Matriz Nula: É uma matriz cujos elementos são todos nulos, isto é aij = 0, 8 i, j.
Denotamos por O ou Om⇥n
Matriz Diagonal Uma matriz quadrada D = (dij )n⇥n é dita diagonal quando dij = 0,
8 i 6= j.
0 1
2 0
Exemplo: D=@ A
0 4
Matriz Identidade: É uma matriz diagonal onde aii = 1 para todo i, e aij = 0 para todo
i 6= j.
0 1
1 0 ... 0
B C
B C
B0 1 . . . 0C
Exemplo: I=B
B .. ..
C
.. C
B. . .C
@ A
0 0 ... 1
Matriz Triangular Uma matriz quadrada A = (aij )nxn é dita triangular superior, se aij = 0
para i > j. Uma matriz B = (bij )nxn é dita triangular inferior quando bij = 0, para i < j.
0 1 0 1
5 4 4 5 5 0 0 0
B C B C
B C B C
B0 1 9 6C B2 1 0 0C
Exemplo: A = B B
C
C e B=B B
C
C
B0 0 3 8C B9 7 3 0C
@ A @ A
0 0 0 0 8 6 5 1
Matriz Simétrica: É uma matriz quadrada, onde aij = aji .
0 1
0 1 a b c d
4 3 1 B C
B C B C
B C B b e f g C
Exemplo: B 3 2 0 C e B C
@ A B C
B c f h i C
1 0 5 @ A
d g i k
Observe que, no caso de uma matriz simétrica, a parte superior é uma “reflexão"da parte
inferior, em relação à diagonal.
Matriz Transposta A transposta de uma matriz A = (aij )m⇥n , é uma outra matriz AT =
2
(bij )n⇥m , cujas linhas são as colunas de A, isto é, bij = aji .
0 1
3 1 0 1
B C 3 4 5
B C
Exemplo: A transposta de A = B 4 2 C é AT = @ A
@ A 1 2 3
5 3 2⇥3
3⇥2
2. Uma matriz é simétrica se somente se ela for igual à sua transposta, isto é, A = AT .
1.2.1 Adição
A soma de duas matrizes da mesma ordem, A = (aij )m⇥n e B = (bij )m⇥n , é uma matriz
m ⇥ n, definida por A + B = (aij + bij )m⇥n .
0 1 0 1 0 1 0 1
1 4 1 1 1 1 4+1 0 5
B C B C B C B C
B C B C B C B C
Exemplo: B 2 5 C + B 3 0 C = B 2 3 5+0 C=B 1 5 C.
@ A @ p A @ p A @ p A
3 6 4 2 3+4 6+ 2 7 6+ 2
Propriedades da Adição
1. A + B = B + A (comutativa).
2. A + (B + C) = (A + B) + C (associativa).
3
5. (A + B)T = AT + B T , a transposta de uma soma é igual a somas das transpostas.
0 1 0 1
1 4 1 4
B C B C
B C B C
Exemplo: A matriz oposta de A = B 2 0 C é A=B 2 0 C.
@ A @ A
7 3 7 3
1.2.2 Subtração
A diferença de duas matrizes da mesma ordem, A = (aij )m⇥n e B = (bij )m⇥n , é uma matriz
m ⇥ n, que denota-se por A B, que é a soma de A com a oposta de B; isto é:
A
B = A + ( B) = (aij )m⇥n + ( bij )m⇥n = (aij bij )m⇥n (1.3)
0 1 0 1 0 1 0 1
1 4 1 1 1+1 4 1 2 3
B C B C B C B C
B C B C B C B C
Exemplo: B 2 5 C B 3 0 C = B 2 + 3 5 0 C = B 5 5 C.
@ A @ A @ A @ A
3 6 4 2 3 4 6 2 1 4
Exercício:
4
1.2.4 Multiplicação de Matrizes
Sejam as matrizes A = (aij )m⇥p e B = (bij )p⇥n . Definimos C = A · B = (cuv )m⇥n , tal que
p
X
cuv = auk bkv para todo 1 u m e 1 v n (1.4)
k=1
Observação 1.2. Só se pode efetuar o produto de duas matrizes Am⇥p e Bp⇥n , se o número
de colunas da primeira matriz for igual ao número de linhas da segunda matriz, sendo assim
o resultado da multiplicação de A por B será uma matriz de ordem m ⇥ n. Note que o
elemento cij é obtido multiplicando os elementos da i-ésima linha da primeira matriz pelos
elementos correspondentes da j-ésima coluna da segunda matriz, e somando este produtos.
Exemplo:
0 1 0 1 0 1
1 ⇣ ⌘ 1.( 3) 1.(4) 3 4
a) @ A 3 4 =@ A=@ A
2 1⇥2 2.( 3) 2.(4) 6 8
2⇥1 2⇥2
0 1 0 1 0 1 0 1
1 0 1 1 1.( 1) + 0.(5) 1.(1) + 0.(3) 1 1
b) @ A @ A =@ A=@ A
3 2 5 3 3.( 1) + 2.(5) 3.(1) + 2.(3) 13 3
2⇥2 2⇥2 2⇥2
AI = IA = A.
Propriedades da Multiplicação
Supondo que a ordem das matrizes A, B e C estejam definidas de modo que cada uma
das operações abaixo indicadas possam ser efetuadas, então as propriedades seguintes serão
válidas.
4. k(B ± C) = kB ± kC, k, s 2 R
5. (k ± s)A = kA ± sA, k, s 2 R
5
6. k(sA) = (ks)A, k, s 2 R
Uma matriz quadrada A é dita inversível ou não singular, se existir uma outra matriz
B (inversa multiplicativa), da mesma ordem, tal que A.B = I e B.A = I. Denotaremos
B = A 1 , sendo que
1
A.A = A 1 .A = I.
Definição 1.3. Uma matriz A é dita não inversível ou singular se ela não tem uma
inversa multiplicativa.
Propriedades
6
1.3.1 Método de Gauss Jordam para o Cálculo de Inversa
Uma forma para achar a inversa de uma matriz quadrada A, e que envolve substancialmente
menos contas do que aplicando a definição diretamente, é usando as operações elementares
sobre as linhas da matriz aumentada associada (A|I) de modo que esta se transforme numa
matriz aumentada da forma (I|B). Diremos que B = A 1 .
1. Permutar linhas Li ! Lj
7
0 1
1 0 0 | 2 3 3
B C
B C 1
= B0 1 0 | 1 2 2 C = (I|A )
@ A
0 0 1 | 4 6 7
0 1
2 3 3
B C
B C
Portanto, a inversa da matriz A existe e é dada por A 1
=B 1 2 2C
@ A
4 6 7
0 1
2 1 4
B C
B C
Exemplo: Encontre a inversa da matriz A = B 4 1 6 C se existir.
@ A
2 2 2
Solução: A partir da matriz aumentada (A|I), usando as operações por linhas temos:
0 1
2 1 4 | 1 0 0 L1 ! L1
B C
B C
(A|I) = B 4 1 6 | 0 1 0C L2 ! L2 + 2L1
@ A
2 2 2 | 0 0 1 L3 ! L3 + L1
0 1
2 1 4 | 1 0 0 L1 ! L1
B C
B C
= B0 1 2 | 2 1 0C L 2 ! L2
@ A
0 3 6 | 1 0 1 L3 ! L3 3L2
0 1
2 1 4 | 1 0 0
B C
B C
= B0 1 2 | 2 1 0C
@ A
0 0 0 | 5 3 1
Nesse ponto vemos que não é possível reduzir A a I, ja que encontramos uma linha de zeros
do lado esquerdo da matriz completa. Consequentemente A não é inversível.
0 1
a b
Exemplo Seja a matriz A = @ A. Usando o método de Gauss Jordam, prove que a
c d
matriz inversa dela é 0 1
1 d b
A 1= @ A (1.5)
ad bc c a
Solução:
0 1
L1
a b | 1 0 L1 !
(A|I) = @ A a
L2
c d | 0 1 L2 ! d
0 1
1 ab | 1/a 0 L1 ! L1
=@ A
c c
d
1 | 0 1/d L2 ! L2 L
d 1
8
0 1
b 1
1 b
| 1
0 L1 ! L1 L
a (1 bc ) 2
=@ a a A ad
bc c 1 1
0 1 ad
| ad d
L2 ! 1
L2 bc
ad
0 1 0 1
1 b 1 c b 1
1 0 | a
+ a (1 bc ) ad ad (1 bc ) 1 0 | d b
=@ ad ad A
=@ (ad bc) ad bc A
c 1 1 1 c a
0 1 | ad (1 bc ) d (1 bc )
0 1 | ad bc ad bc
.
ad ad
det A = a.
det A = a11 a22 a33 a11 a32 a23 a12 a21 a33 + a12 a31 a23 + a13 a21 a32 a13 a31 a22 .
Note que o det A é o fator inverso que se obtém ao calcular a matriz inversa de A usando
o método de Gauss Jordam.
det A = a11 (a22 a33 a32 a23 ) a12 (a21 a33 a31 a23 ) + a13 (a21 a32 a31 a22 ) (1.6)
9
na forma
det A = a11 det M11 a12 det M12 + a13 det M13 (1.7)
Para ver como generalizar (1.7) para o caso n > 3, vamos a dar a seguinte definição.
ou
10
1.4.1 Propriedades do Determinante
3. det A = det AT .
6. Seja B a matriz obtida ao multiplicar uma única linha ou coluna de A por k, então:
1
det B = k det A (det A = det B).
k
7. Seja B a matriz obtida ao permutar duas linhas (ou duas colunas) de A, então det B =
det A.
8. Seja B a matriz obtida ao somar um múltiplo de uma linha (ou colunas) de A a uma
outra linha (ou coluna), então det B = det A.
11
Solução: Usando as propriedades 6, 7 e 8, obtemos que
0 1 5 3 6 9
det A = 3 6 9 = 0 1 5 (linhas 2 e 3 foram permutadas)
2 6 1 2 6 1
1 2 3
= 3 0 1 5 (o fator comun 3 da linha 1 foi retirado)
2 6 1
1 2 3
= 3 0 1 5 (linha 3 + (-2) (linha 1))
0 10 5
1 2 3
= 3 0 1 5 (linha 3 + (-10) (linha 2))
0 0 55
1 0 0 3 1 0 0 0
2 7 0 6 2 7 0 0
det A = = (coluna 4 + (-3)(coluna 1))
0 6 3 0 0 6 3 0
7 3 1 5 7 3 1 26
12
Então:
1 1
det A =
det A
Definição 1.6. Seja a matriz A 2 Mn⇥n (R). Chamaremos Adjunta de A, a matriz Adj(A)
que é a transposta da matriz de cofatores. Simbolicamente,
1 1
A = Adj (A).
det A
0 1
1 2
Ex.: Ache a inversa de A = @ A.
1 3
0 1
3 1
Solução: Calculando temos que det A = 5, a matriz de cofatores cof (A) = @ Aea
2 1
0 1
3 2
adjunta Adj(A) = (cof (A))T = @ A, logo pelo Teorema 1.1
1 1
0 1
1 @3 2
A.
A 1
= · (1.10)
5 1 1
det(A) = 0
13
1.6 Exercícios
5. Usando
0 cofatores 1
e fazendo o0menor número
1 de operações,
0 calcule o 1
determinante de
2 0 3 0 4 0 2 1 2 0 0 1
B C B C B C
B C B C B C
B3 0 0 1C B5 0 4 2 C B0 1 0 0C
A=B B
C, B = B
C B
C e C=B
C B
C.
C
B0 2 3 0C B2 0 3 4 C B1 6 2 0C
@ A @ A @ A
2 0 1 4 1 1 2 3 1 1 2 3
6. Calcule o determinante de cada uma das seguintes matrizes (use as operações elemen-
tares por linhas para reduzir as matrizes abaixo à sua forma triangular).
0 1 0 1 0 1
2 0 1 t+3 1 1 1 4 5
B C B C B C
B C B C B C
A = B3 0 2 C , B = B 5 t 3 1 C e C = B 0 0 1 C.
@ A @ A @ A
4 3 7 6 6 t+4 1 8 7
14
0 1
1 1 1
B C
B C
7. Encontre todos os valores possíveis de c que tornem a matriz inversível B1 9 c C.
@ A
1 c 3
8. Sejam as matrizes
0 1 0 1 0 1
1 3 4 1 0 0 cos ✓ sen ✓ 0
B C B C B C
B C B C B C
A=B 2 4 1 C B = B1 3 0C C = B sen ✓ cos ✓ 0C
@ A @ A @ A
4 2 9 1 3 5 0 0 1
0 1 0 1 0 1
2 5 5 2 0 3 2 0 0
B C B C B C
B C B C B C
D=B 1 1 0C E=B 0 3 2 C F =B 8 1 0C e
@ A @ A @ A
2 4 3 2 0 4 5 3 6
0 1
a b c
B C
B C
G = B c a b C.
@ A
b c a
(i) Calcule os cofatores das matrizes A, B, C, D, E, F e G.
15
Capítulo 2
a1 x 1 + a2 x 2 + · · · + an x n = b (2.1)
Em 1858, o matemático inglês Artur Cayley introduz uma notação abreviada para ex-
pressar o sistema linear (2.2), na forma matricial:
0 1 0 1 0 1
a a12 · · · a1n x1 b1
B 11 C B C B C
B C B C B C
B a21 a22 · · · a2n C B x2 C B b2 C
B C . B C =B C . (2.3)
B .. .. ... . C
.. C B .. C B .. C
B . . B . C B . C
@ A @ A @ A
am1 am2 · · · amn xn bm
m⇥n n⇥1 m⇥1
Assim a forma matricial (2.3) escreve-se abreviadamente por:
Ax = b, (2.4)
16
2.1 Classificação de um Sistema Linear
O sistema linear (2.2) pode ter ou não solução. Assim, classificaremos os sistemas lineares
em dois tipos:
8
< Determinado, uma única solução
1. Compatível (ou possível)
: Indeterminado mais de uma solução.
Se o sistema linear (2.2) tem o número de equações igual ao número de incognitas (m = n),
então a matriz A associada a forma matricial equivalente (2.4) será uma matriz quadrada
n ⇥ n. Logo,
• Se a matriz A é inversível, isto é, o det A 6= 0, então o sistema tem uma única solução,
ou seja, x = A 1 b.
• Se a matriz A não é inversível, isto é det A = 0, então o sistema não tem solução, ou
existe solução mas não é única.
Exemplo: É simples verificar que a solução nula x = (0, 0, 0)T é solução do sistema linear
homogêneo,
0 1 0 1
8 0 1 x1 0
< 3x x2 + 7x3 = 0 3 1 7 B C B C
1
() @ AB C B C
Bx2 C = B0C () Ax = 0
: x 2x2 + 3x3 = 0. 1 2 3 @ A @ A
1
x3 0
Uma interpretação geométrica das soluções de um sistema linear, pode ser observada
para sistemas de ordem 2 ⇥ 2. Por exemplo, sejam os sistemas:
8 8 8
< x +x =2 < x +x =2 < x +x =2
1 2 1 2 1 2
I) II) III)
: x x2 = 2 : x +x =1 : x x2 = 2.
1 1 2 1
A solução dos respectivos sistemas podem ser visualizados nos seguintes gráficos da Figura
2.1
17
(a) Caso I (b) Caso II (c) Caso III
Definição 2.1. Uma matriz esta escalonada por linhas quando satisfaz as seguintes pro-
priedades:
1. Todas as linhas que consistem inteiramente de zeros estão na parte inferior da matriz.
2. Em cada linha não nula, o primeiro elemento não nulo (chamado elemento líder) está
em uma coluna à esquerda de qualquer outro elemento líder abaixo dele.
Observação 2.2. A forma escalonada de uma matriz não é única. Logo, dependendo de
sua escolha na hora de fazer as operações elementares você poderá obter várias matrizes
equivalentes, porém sempre uma mesma solução.
18
Sol.: Apartir da matriz aumentada, usando as operações por linhas temos:
0 1
1 2 1 | 3
B C
B C
(A|b) = B3 1 3 | 1C L2 ! L2 3L1
@ A
2 3 1 | 4 L3 ! L3 2L1
0 1
1 2 1 | 3
B C
B C
= B0 7 6 | 10C L2 ! L3
@ A
0 1 1 | 2
0 1
1 2 1 | 3
B C
B C
= B0 1 1 | 2C
@ A
0 7 6 | 10 L3 ! L3 7L2
0 1
1 2 1 | 3
B C
B C 0 0
= B0 1 1 | 2C = (A |b )
@ A
0 0 1 | 4
A solução deste último sistema obtém-se resolvendo a última equação e substituindo a res-
pectiva solução na equação anterior, até chegar na primeira. Neste caso temos que x3 = 4,
x2 = 2 e x1 = 3
19
Observemos que o número de variáveis livres ( que não dependem de outras variáveis)
é igual ao número de linhas não nulas na forma escalonada. No exemplo dado, z e t são
as variáveis livres .
y = 2 + 2 1, x=1 2(2 + 2 1 ) 1 2 = 3 5 1 2.
Definição 2.2. O posto de uma matriz, posto(A), é o número de linhas não nulas de
qualquer uma de suas formas escalonadas por linhas.
No último exemplo, como o sistema tem solução, pelo Teorema do Posto temos 4 2=2
variáveis livres, neste caso z e t.
20
2.3 Resolução de Sistemas pela Regra de Cramer
temos que:
3 2 1
x1 = 1 1 3 = (3( 1 + 9) 2( 1 + 12) + 1( 3 + 4)) = 24 22 + 1 = 3
4 3 1
1 3 1
x2 = 3 1 3 = (1( 1 + 12) 3(3 + 6) + 1(12 + 2)) = 11 27 + 14 = 2
2 4 1
1 2 3
x3 = 3 1 1 = (1( 4 + 3) 2(12 + 2) + 3(9 + 2)) = 1 28 + 33 = 4
2 3 4
2.4 Exercícios
21
8 8
>
< 3x >
< 2x
y= 4 3y = 4
(i) (ii)
>
: 2x 1 >
:
2
y = 1 x 3y = 1
8 8
>
> >
>
>
> x 3y 2z = 0 >
> 2x + 3y z + 4w = 0
>
< >
<
(iii) x + 2y + z = 0 (iv) 3x y + w= 1
>
> >
>
>
> >
>
>
: 2x >
: 3x
+ 4y + 6z = 0 4y + z w= 2
8 8
>
> p >
>
>
> 2x + y + 2z = 1 >
> x + 3y 2z + 4w = 0
>
< >
<
p p
(v) 2y 3z = 2 (vi) 2x 6y + z 2w = 3
>
> >
>
>
> p >
>
>
: >
: x
y + 2z = 1 3y + 4z 8w = 2
8 8
>
> 1 >
>
>
> x + y z 6w =2 >
> 2x + y = 3
>
< 2 >
<
(vii) 1
x + 1
y 3w +t = 1 (viii) 4x + y = 7
>
> 6 2 >
>
>
> >
>
>
: 1x >
: 2x + 5y =
3
2z 4t = 8 1
8 8
>
> x + y + z + w = 4 >
> x + y + 2z + w = 1
>
> >
>
>
> >
>
>
> >
>
< x + 2y + 3z + 4w = 10 < x y z + w= 0
ix) x)
>
> >
>
>
> x + 3y + 6z + 10w = 20 >
> y + z = 1
>
> >
>
>
> >
>
: x + 4y + 10z + 20w = 35 : x + y + w= 2
2. O sistema seguinte não tem soluções para quais valores de a?. Exatamente uma solu-
ção?. Infinitas soluções.
8 8
>
> >
>
> x + 2y
> 3z = 4 >
> x + y + az = 1
>
< >
<
> 3x y + 5z = 2 > x + ay + z = 1
>
> >
>
>
> >
>
: 4x + y + (a2 14)z = a + 2 : ax + y + z = 2
4. Resolva o sistema
8
>
< x + y + z = 4
>
: 2x + 5y 2z = 3
22
5. Estabeleça a condição que deve ser satisfeita a e b para que o sistema seja compatível.
8
>
> 8 8
>
> x 2y z = a
>
< >
<ax + y = >
< x + ay = 1
1
a) 2x + y + 3z = b b) c)
>
> >
:2x + y = b >
:bx + 2y = 5
>
>
>
:4x 3y + z = 1
a) 3x + 2y + z = 1 e 2x y + 4z = 5
b) 4x + y z=0 e 2x y + 3z = 4
Dica: http://www.solvemymath.com/online_math_calculator/
d) Conclua que mesmo um pequeno erro de arredondamento pode levar a grandes erros
de resultado. Explique geometricamente.
23
Capítulo 3
Vetores
Com o intuito de esclarecer melhor o conceito de vetor, uma abordagem geométrica e algé-
brica serão apresentadas.
Existem dois tipos de grandezas: as escalares e as vetoriais. As escalares são aquelas que
ficam definidas por apenas um número real (acompanhado de uma unidade adequada). Por
exemplo, comprimento, área, volume, massa, densidade e temperatura. As grandezas vetori-
ais, são o caso contrario, isto é, não basta saber seu módulo e unidade correspondente, para
serem perfeitamente caracterizadas precisamos sua direção e seu sentido. Por exemplo,
força, velocidade e aceleração.
Definição 3.1. Um vetor ~v é uma classe de objetos matemáticos (segmentos) com a mesma
direção, mesmo sentido e mesmo módulo, sendo:
!
Um vetor que vai do ponto A (origem) até o ponto B (extremidade) é denotado por AB.
24
Figura 3.1:
!
~u + ~v = AC
ou
! ! !
AB + BC = AC
Sendo ~u, ~v e w
~ vetores quaisquer, a adição admite as seguintes propriedades
1. Comutativa: ~u + ~v = ~v + ~u.
2. Associativa: (~u + ~v ) + w
~ = ~u + (~v + w).
~
3. Elemento Neutro: ~u + ~0 = ~u
25
Figura 3.2: Soma de vetores.
3. Sentido: ↵~v e ~v tem o mesmo sentido se ↵ > 0, e contrário se ↵ < 0. Ver Figura 3.3.
26
3.4 Ângulo entre dois vetores
!
O ângulo entre os vetores não nulos u e v é o ângulo ✓ formado por duas semi-retas OA e
! ! !
OB de mesma origem O, onde ~u = OA, ~v = OB e 0 ✓ ⇡.
27
Exemplo: Se um vetor tem origem em (1, 2) e extremidade em (7, 12), ele é representado
por !
v = (6, 10), pois:
!
v = (7, 12) (1, 2) = (6, 10)
Consideremos dois vetores v~1 e v~2 não paralelos, representados com a origem no mesmo ponto
O, e sejam r1 e r2 retas contendo estes representantes, respectivamente.
Os vetores ~u, ~v , w,
~ ~x e ~y , representados na figura podem ser escritos em função de v~1 e
v~2 por
De modo geral dados dois vetores quaisquer v~1 e v~2 , existe uma só dupla de números reais
a1 e a2 , tal que
v = a1 v~1 + a2 v~2 .
“Qualquer conjunto de dois vetores não paralelos forma uma base no plano"
28
Observação 3.3. Dentre as infinitas bases que existem no plano a mais importante é aquela
que determina o conhecido sistema cartesiano ortogonal xOy. Esta base é chamada de base
canônica e esta determinada pelos vetores ortogonais e unitários ~i = (1, 0) e ~j = (0, 1).
v = x ~i + y ~j.
x1 = x2 e y1 = y2 .
1. ~u + ~v = (x1 + x2 , y1 + y2 )
2. ↵~u = (↵ x1 , ↵ y1 )
3. ~u = ( 1)~u = ( x1 , y1 )
4. ~u ~v = ~u + ( ~v ) = (x1 x 2 , y1 y2 ).
1. ~u + ~v = ~v + ~u
2. ~u + ~0 = ~u
3. (~u + ~v ) + w
~ = ~u + (~v + w)
~
4. ~u + ( ~u) = ~0
5. ↵( ~v ) = (↵ )~v
7. (↵ + )~u = ↵~u + ~u
8. 1~u = ~u.
29
Observação 3.4. É importante lembrar que um vetor tem infinitos representantes que são os
segmentos orientados de mesmo comprimento, mesma direção e mesmo sentido. E, dentre os
!
infinitos representantes de AB (A = (x1 , y1 ), B = (x2 , y2 )), o que “melhor o caracteriza" é
aquele que tem origem em O = (0, 0) e extremidade no ponto P = (x2 x1 , y2 y1 ). O vetor
!
~v = OP é também chamado vetor posição, vetor diretor ou representante natural de
!
AB.
Módulo de um vetor Seja o vetor ~u = (x, y). Pelo Teorema de Pitágoras, vem
p
|u| = x2 + y 2 . (3.1)
No plano vimos que dado qualquer vetor ~u, este pode ser escrito como uma combinação da
base canônica {~i, ~j}, isto é, ~u = (x, y) = x~i + y ~j. Analogamente, no espaço, consideraremos
a base canônica {~i, ~j, ~k}, como aquela que irá determinar o sistema cartesiano ortogonal
Oxyz, neste caso
~i = (1, 0, 0), ~j = (0, 1, 0), ~k = (0, 0, 1).
1. ~u = ~v se e somente se x1 = x2 , y1 = y2 e z1 = z2 .
2. ~u + ~v = (x1 + x2 , y1 + y2 , z1 + z2 )
3. ↵~u = (↵ x1 , ↵ y1 , ↵ z1 )
4. ~u = ( 1)~u = ( x1 , y1 , z1 )
5. ~u ~v = ~u + ( ~v ) = (x1 x 2 , y1 y2 , z 1 z2 ).
Além disso,
1. ~u + ~v = ~v + ~u
30
2. ~u + ~0 = ~u
3. (~u + ~v ) + w
~ = ~u + (~v + w)
~
4. ~u + ( ~u) = ~0
5. ↵( ~v ) = (↵ )~v
7. (↵ + )~u = ↵~u + ~u
8. 1~u = ~u.
Chama-se produto escalar de dois vetores ~u e ~v ao número real ~u · ~v , o qual é a soma dos
produtos de suas componentes correspondentes de ~u e ~v .
1. ~u · ~v = ~v · ~u
2. ~u · (~v + w)
~ = ~u · ~v + ~u · w
~
3. (~u + ~v ) · w
~ = ~u · w
~ + ~v · w
~
5. ~u · ~u > 0 se ~u 6= ~0 e ~u · ~u = 0 se ~u = ~0.
6. ~u · ~u = |~u|2 .
31
3.6.1 Interpretação Geométrica do Produto Escalar
Por outro lado, como |~u ~v |2 = (~u ~v ) · (~u ~v ) = |~u|2 2~u · ~v + |~v |2 , então a igualdade
segue-se.
Sol.
1
i) ~u · ~v = |~u||~v | cos 120o = (2)(3) = 3 (3.7)
2
p p p
ii) |~u + ~v | = |~u|2 + |~v |2 + 2~u · ~v = 22 + 32 + 2( 3) = 7 (3.8)
p p p
ii) |~u ~v | = |~u|2 + |~v |2 2~u · ~v = 22 + 32 2( 3) = 19. (3.9)
32
Exemplo 3.2. Sejam ~
u = (4, 2), ~v = (3, 1)
p
(4, 2) · (3, 1) 4.3 + ( 2).1 10 2
cos ✓ = =p p =p p =
|(4, 2)||(3, 1)| 42 + ( 2)2 32 + 1 20 10 2
p
2
Logo, ✓ = arccos ) ✓ = 45o .
2
Exemplo 3.3. Um vetor ~v do espaço forma com os vetores ~i e ~j ângulos de 60o e 120o ,
respectivamente. Determinar o vetor ~v , sabendo que |~v | = 2.
~v · ~i ~v · ~i
cos 60o = = ) x = ~v · ~i = 2 cos 60o = 1
~
|~v ||i| (2)(1)
e
~v · ~j ~v · ~j
cos 120o = = ) y = ~v · ~j = 2 cos 120o = 1
|~v ||~j| (2)(1)
p p p
Por outro lado, ja que |~v | = x2 + y 2 + z 2 = 2, tem-se z = ± 2. Portanto, ~v = (1, 1, 2)
p
ou ~v = (1, 1, 2).
p p
Exemplo. Os vetores ~u = (10, 2) e ~v = ( 1
5
, 2) formam um ângulo de 90o , pois ~u · ~v =
p p
10( 15 ) + 2( 2) = 0
Sejam os vetores ~u e ~v não nulos e ✓ o ângulo entre eles. O objetivo será decompor um
dos vetores, digamos ~u, da forma
~u = ~u1 + ~u2
33
sendo ~u1 k~v e ~u2 ? ~v .
Com efeito, ja que: ~u1 k~v ) ~u1 = ↵~v e dado que ~u2 = ~u ~u1 = ~u ↵~v então
~u · ~v
~u2 ? ~v ) (~u ↵~v ) ? ~v ) (~u ↵~v ) · ~v = 0 ) ↵=
|~v |2
Portanto, ✓ ◆
~u · ~v
Proj ~v ~u = ~u1 = ~v .
|~v |2
y1 z 1 x1 z 1 x1 y1
~u ⇥ ~v = ~i ~j + ~k.
y2 z 2 x2 z 2 x2 y2
Pela facilidade para memorizar denotaremos a definição anterior da forma:
~i ~j ~k
~u ⇥ ~v = x1 y1 z1 .
x2 y2 z 2
34
Exemplo 3.4. Calcular ~
u ⇥ ~v para ~u = (5, 4, 3) e ~v = (1, 0, 1).
Solução
~i ~j ~k
4 3 5 3 5 4
~u ⇥ ~v = 5 4 3 = ~i ~j + ~k = 4~i 2~j 4~k.
0 1 1 1 1 0
1 0 1
Observação 3.7. Uma forma prática para o cálculo de ~
u ⇥ ~v é dispondo os dois vetores em
linha, e repetindo pela ordem, as duas primeras colunas, As três componentes de ~u ⇥ ~v são
dadas pelos três determinantes, conforme a seguir.
O sentido do vetor ~u ⇥ ~v poderá ser determinado pela regra da mão direita, isto é, se os
dedos da mão direita forem dobrados na mesma direção de rotação, então o polegar estendido
indicará o sentido de ~u ⇥ ~v .
3.7.1 Propriedades
35
1. ~v ⇥ ~u = ~u ⇥ ~v .
4. ~u ⇥ (~v + w)
~ = ~u ⇥ ~v + ~u ⇥ w
~ e (~u + ~v ) ⇥ w
~ = ~u ⇥ w
~ + ~v ⇥ w.
~
5. ↵ (~u ⇥ ~v ) = (↵ ~u) ⇥ ~v = ~u ⇥ (↵ ~v ).
6. ~u · (~v ⇥ w)
~ = (~u ⇥ ~v ) · w.
~
Observação 3.8. Como uma consequência da identidade de Lagrange e tendo em conta que
~u · ~v = |~u| |~v | cos ✓, temos que:
|~u ⇥ ~v | = |~u| |~v | sen ✓
36
3.8 Retas e Planos
P~ = P~0 + t ~v
!
O ponto P com vetor posição P~ = OP está sobre a reta L, 8 t 2 R.
Definição 3.5. A equação normal de um Plano P com vetor normal ~n 6= 0 que contém
o ponto P0 = (x0 , y0 , z0 ) é:
~n.(P~ P~0 ) = 0.
!
O ponto P com vetor posição P~ = OP está sobre o plano P, 8 t 2 R.
3.9 Exercícios
37
4. Um excursionista anda 4 na direção norte e depois 5 na direção nordeste. Desenhe
os vetores deslocamento que representam o passeio do excursionista e o vetor que
representa o deslocamento a partir do ponto inicial.
p
5. Sejam ~u = (1, 3), ~v = (0, 1) e w
~ = (1, 1) vetores de R2 .
10. Calcule a área do triângulo ABC e a altura relativa ao lado BC, sendo dados A =
( 4, 1, 1), B = (1, 0, 1), C = (0, 1, 3).
11. Sejam os pontos A = (1, 1, 1), B = ( 3, 2, 2), C = (2, 2, 4). Prove que o
triângulo ABC é retângulo.
38
12. Encontre o vetor ortogonal ao plano determinado pelos pontos A = (3, 0, 0), B =
(0, 3, 0), C = (0, 0, 2). Calcule a área do triângulo ABC.
13. Prove que ku vk kuk kvk para todo vetor u e v em Rn (Dica: Substitua u por
u v na desigualdade triangular).
14. Suponha conhecido que u.v = u.w. Pode-se concluir que u = w?. Em caso afirmativo
dê uma prova válida em Rn , caso contrário dê um contra-exemplo específico de vetores
u, v, w para os quais a igualdade é falsa.
(c) u · v = 14 ku + vk2 1
4
ku vk2
19. Determine a distância do ponto Q = (1, 0, 2) à reta r que passa por P0 = (3, 1, 1) e é
paralela a ~v = ( 1, 1, 0)
39
Capítulo 4
Espaço Vetorial
Nos capítulos anteriores vimos que a álgebra de matrizes e vetores são similares em
muitos aspectos. Em particular podemos fazer a adição de matrizes e vetores, e podemos
multiplicar ambos por um escalar. As propriedades resultantes de essas duas operações são
idênticas para as matrizes e vetores. O que se pretende agora é usar essas propriedades para
definir “vetores"de forma geral.
Além disso, para todo u, v, w 2 V e ↵, 2 R (ou C), os seguintes axiomas são satisfeitos:
Observação 4.1. Quando os escalares considerados são números reais, diremos que V é um
espaço vetorial real. No caso dos escalares serem complexos, V será chamado espaço
vetorial complexo.
40
Em diante, nos trabalharemos só com espaços vetoriais reais.
Exemplo 4.3. O conjunto V = Pn (R), de todos os polinômios de grau menor ou igual de que
n a0 + a1 t + · · · + an tn com coeficientes ai 2 R é um espaço vetorial real com as operações
usuais de adição de polinômios e multiplicação por um escalar.
Exemplo 4.4. O conjunto V de todas as funções reais definidas sobre o intervalo [a, b], é um
espaço vetorial. Para isso, basta definirmos para f = f (x) e g = g(x) 2 V, as operações
usuais:
(↵ f )(x) = ↵ f (x)
Exemplo 4.5. Nenhum dos conjuntos N, Z, Q é espaço vetorial real, pois em todos eles
o produto de um de seus elementos por um escalar, é um número real, o que contraria o
Axioma 2 de espaço vetorial.
41
4.1 Subespaços Vetoriais
i) u, v 2 W ) u v2W
ii) ↵ 2 R e u 2 W ) ↵ u 2 W.
Se ↵ 2 R e A 2 W , então
2 3 2 3
↵.0 ↵.a12 0 ↵.a12
↵A = 4 5=4 52W
↵.a21 ↵.0 ↵.a21 0
Soma.
W1 + W2 = {v 2 V / v = w1 + w2 , w 1 2 W1 e w 2 2 W2 } (4.5)
é um subespaço de V.
42
Exemplo 4.8. Sejam W1 e W2 duas retas de R3 que passam pela origem, então W1 + W2
é o plano em R3 que contém as duas retas.
Interseção.
Exemplo 4.9. Sejam W1 e W2 dois planos de R3 que passam pela origem, de modo que
W1 \ W2 é uma reta em R3 que contém o (0, 0, 0). A interseção W1 \ W2 é um subespaço
de R3 .
43
4.2 Combinação Linear
w = ↵ 1 · v1 + ↵ 2 · v2 + . . . + ↵ n · vn .
a0 + b0 x + c0 x2 = ↵(1) + (1 + x) + (1 + x + x2 ).
8
>
>
>
> ↵ + + = a0
>
<
Então, + = b0 , logo = c0 , = b0 c0 , ↵ = a0 b0 c0 .
>
>
>
>
>
: = c0
O subconjunto S de todos os vetores do espaço vetorial real V (V, +, .), que são com-
binações lineares dos vetores v1 , v2 , . . . , vn , é chamado de subespaço vetorial gerado por
44
v1 , v2 , . . . , vn e será denotado por
S = ger{v1 , v2 , . . . , vn } = [v1 , v2 , . . . , vn ]
Para verificar que S é subespaço vetorial de V, basta notar que para qualquer u, v 2 S
e ↵ 2 R verifica-se que
u + v = (↵1 · v1 + ↵2 · v2 + · · · + ↵n · vn ) + ( 1 · v1 + 2 · v2 + · · · + n · vn )
↵ · u = ↵ · (↵1 · v1 + ↵2 · v2 + · · · + ↵n · vn )
Exemplo 4.12. Calcule o conjunto de geradores do subespaço vetorial S de M2⇥2 (R), quando
(2 3 )
a b
S= 4 5 2 M2⇥2 (R) a= d e c = 2b . (4.6)
c d
Logo,
( 2 3 2 3 ) (2 3 2 3)
1 0 0 1 1 0 0 1
S= d4 5 + b4 5 bed2R = ger 4 5,4 5 .
0 1 2 0 0 1 2 0
Exemplo 4.13. Mostre que o conjunto de polinômios {t2 + t, t, 1} gera o espaço vetorial,
P2 (R), dos polinômios de grau 2.
↵ = a2 , = a1 a2 , = a0 .
45
4.4 Independência e Dependência Linear
↵ 1 · v1 + ↵ 2 · v2 + . . . + ↵ n · vn = 0 =) ↵1 = ↵2 = . . . = ↵n = 0. (4.8)
Prova:
{v1 , . . . , vn } é L.D () 9 ↵i 6= 0 / ↵1 v1 + ↵2 v2 + . . . + ↵i vi + . . . + ↵n vn = 0
Exemplo 4.14. Os vetores canônicos (1, 0, 0), (0, 1, 0), (0, 0, 1) são L.I.?
Solução De fato, 0 1
0 0 0
↵1 A + ↵2 B = @ A , ↵1 = 2↵2 .
0 0 0
2~u ~ = ~0.
~v + 0w
46
Corolário 4.2. Todo subconjunto de um conjunto de vetores L.I. é L.I.
Exemplo 4.17. É sabido que o conjunto S = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} é L.I, logo qualquer
subconjunto de S também é L.I.
Observação 4.2. Se ~
u1 = (x11 , . . . , x1n ), ~u2 = (x21 , . . . , x2n ), . . . , ~un = (xn1 , . . . , xnn ) são
n-vetores L.I. em Rn ,
sempre que
0 1
x x21 . . . xn1
B 11 C
B .. .. C
det B . ... ... . C = 6 0
@ A
x1n x2n . . . xnn
p
Exemplo 4.18. Os vetores ~
u1 = (1, 2, 7, 2), ~u2 = (0, 4, 6, 1), ~u3 = (0, 0, 1, ⇡), ~u4 =
(0, 0, 0, sen 1) são L.I. em R4
Solução Segundo a observação anterior eles são L.I. pois o determinante da matriz (u1 , u2 , u3 , u4 )
é diferente de zero. De fato,
0 1
1 0 0 0
B C
B C
B 2 4 0 C
0
det B
B
C = 4 sen 1
C
B 7 6 1 0 C
@p A
2 1 ⇡ sen 1
Exemplo 4.19. Seja r > n. Qualquer conjunto com r vetores no espaço vetorial Rn é line-
armente dependente pois todo sistema homogêneo de equações lineares com mais incógnitas
do que equações admite uma solução não trivial (diferente de zero).
47
Às vezes é possível deduzir a dependência linear de funções apartir de identidades conhe-
cidas, por exemplo ao provar que: {sen2 x, cos2 x, 5} é um conjunto L.D no espaço vetorial
das funções reais de variável real, F(R, R), basta notar que
De modo geral, não existe um método para provar a dependência ou independência linear de
conjuntos em F(R, R), pois existem casos onde estas idêntidades não podem ser aplicadas.
Um teorema útil para determinar se um conjunto particular de funções é L.I é enunciado a
seguir.
Teorema 4.2. Sejam as funcões reais f1 , f2 , . . . , fn 2 C n 1 ([a, b]) (contínuas e com deri-
vadas contínuas até a ordem n 1 em todo [a, b]). Se existe um ponto x0 2 [a, b] tal que o
wronskiano W [f1 , f2 , . . . , fn ](x0 ),
0 1
f (x ) f2 (x0 ) ... fn (x0 )
B 1 0 C
B 0 C
B f1 (x0 ) f20 (x0 ) ... fn0 (x0 ) C
B
W [f1 , f2 , . . . , fn ](x0 ) = det B C 6= 0, (4.10)
.. .. .. C
B . . ··· . C
@ A
f1n 1 (x0 ) f2n 1 (x0 ) ... fnn 1 (x0 )
então f1 , f2 , . . . , fn são L.I. em C n 1 ([a, b]). Mais ainda, são L.I em C([a, b]).
Solução Segundo o teorema anterior eles são L.I. em C 2 (R), pois o Wronskiano
0 1
x0 x0
e e
W [ex , e x ](x0 ) = det @ A = 2 6= 0, 8x0 2 R. (4.11)
e x0 e x0
Solução Segundo o teorema anterior eles são L.I. em C 3 (R), pois o Wronskiano
0 1
1 x0 x20 x30
B C
B 2C
B0 1 2x0 3x0 C
W [1, x, x , x ](x0 ) = det B
2 3
B
C = 12 6= 0, 8x0 2 R.
C (4.12)
B0 0 2 6x0 C
@ A
0 0 0 6
48
Exemplo 4.22. As funções x2 e x|x| são L.I. em C([ 1, 1])?.
o que não nos dá a informação sobre se as funções são L.I ou não. Logo, para responder a
pergunta, suponha que:
↵x2 + x|x| = 0, x 2 [ 1, 1].
↵+ =0
↵ = 0,
para o qual a única solução é ↵ = = 0. Portanto, as funções x2 , x|x| são L.I em C([ 1, 1]).
2. V = ger{v1 , v2 , . . . , vn }.
(i.e: 8 v 2 V, 9 ↵1 , ↵2 , . . . , ↵n 2 R / v = ↵1 v1 + . . . + ↵n vn ).
Logo,
(x, y) = x(1, 1) + (y x)(0, 1), isto é, (x, y) 2 ger{(1, 1), (0, 1)}.
Portanto, R2 ✓ ger{(1, 1), (0, 1)} e desde que R2 é um espaço vetorial a igualdade entre estes
dois conjuntos segue-se.
49
(0 1 0 1 0 1 0 1)
1 0 0 1 0 0 0 0
Exemplo 4.24. O conjunto B = @ A,@ A,@ A,@ A é uma base de
0 0 0 0 1 0 0 1
M2⇥2 (R)
Exemplo 4.25. Os conjuntos {(1, 0, 0), (0, 1, 0), (0, 0, 1)} e {(1, 2, 1), (1, 0, 1), (1, 2, 1)}
constituem bases distintas para R3 . Podemos encontrar mais de uma base para um espaço
vetorial dado, entretanto, o número de vetores de cada base não varia.
Definição 4.1. Se uma base de um espaço vetorial real V tem n-vetores, dizemos que V tem
dimensão finita n. Denotaremos
dim V = n.
1. dim R 2 = 2.
2. dim R n = n.
3. dim Pn (R) = n + 1.
Teorema 4.3. Se U e W são subespaços de um espaço vetorial V que tem dimensão finita,
então:
Exemplo 4.27. Considere U um plano que passa pela origem em V = R3 , e W uma reta
contida em U que passa pela origem, então:
dim (U + W ) = 2 + 1 1 = 2.
Teorema 4.4. Seja V um espaço vetorial real de dimensão finita n. Qualquer conjunto de
vetores L.I. em V é parte de uma base, isto é, pode ser completado até formar uma base de
V.
50
Solução: Como dim R4 = 4 uma base terá 4 vetores L.I. Portanto, faltam dois. Escolhemos
um vetor v3 que não é combinação linear de v1 = (1, 1, 1, 2) e v2 = ( 1, 1, 1, 0), isto é,
v3 6= a1 v1 + a2 v2 para todo a1 , a2 2 R. Dentre os infinitos vetores existentes, um deles é o
vetor v3 = (1, 1, 0, 0), e o conjunto {v1 , v2 , v3 } é L.I.
Para completar, escolhemos um vetor v4 que não seja uma combinação linear de v1 , v2
e v3 . Um deles é o vetor v4 = (1, 0, 0, 0), e o conjunto {v1 , v2 , v3 , v4 } é L.I. Logo,
Observação 4.4. Muitas vezes será necessário saber calcular a dimensão de um subespaço
vetorial de forma rápida, pois uma vez que esta é conhecida, obtém-se facilmente uma base
desse subespaço. Uma forma prática para determinar a dimensão de um subespaço vetorial
é verificar o número de variáveis livres de seu vetor genérico. Este número é a dimensão do
subespaço.
S = {(x, y, z) 2 R3 /2x + y + z = 0}
S = {(x, y, z) 2 R3 /2x + y + z = 0}
= {(x, y, z) 2 R3 /z = 2x y}
= {(x, y, 2x y)/x 2 R, y 2 R}
isto é, todo vetor de S é combinação linear dos vetores {(1, 0, 2), (0, 1, 1)}. Como esses
dois vetores geradores de S são L.I, o conjunto é uma base de S e, consequentemente,
dim S = 2.
Determine a dimensão de U .
51
Suponhamos que,
ou
0 10 1 0 1
1 2 0 1 ↵ 0
B CB C B C
B CB C B C
B1 0 1 1 C B C B0 C
B CB C = B C.
B CB C B C
B0 1 2 1 C B C B0 C
@ A@ A @ A
2 1 1 3 0
Para achar a solução deste sistema homogêneo Ax = 0 será suficiente reduzir a matriz A a
uma de tipo escalonado (método de operações por linha).
0 1 0 1
1 2 0 1 L1 ! L 1 1 2 0 1 L ! L1
B C B C 1
B C B C
B1 0 1 1 C L 2 ! L 2 L 1 B0 2 1 0 C L 2 ! L3
A=B B
C
C
B
B
C
C
B0 1 2 1C L3 ! L 3 B0 1 2 1C
@ A @ A
2 1 1 3 L4 ! L4 + 2L1 0 3 1 1 L 4 ! L4
0 1 0 1
1 2 0 1 L1 ! L 1 1 2 0 1 L 1 ! L1
B C B C
B C B C
B0 1 2 1C L2 ! L 2 B0 1 2 1C L 2 ! L2
⇡B B
C
C
B
B
C
C
B0 2 1 0 C L3 ! L3 + 2L2 B0 0 5 2C L 3 ! L3
@ A @ A
0 3 1 1 L4 ! L4 3L2 0 0 5 2 L4 ! L 4 + L 3
0 1
1 2 0 1
B C
B C
B0 1 2 1C
⇡B B C = A0 .
C
B0 0 5 2C
@ A
0 0 0 0
Logo, o sistema equivalente, A0 x = 0 tem infinitas soluções, pois detA0 = 0. Mais ainda,
↵+2 + =0
+2 =0
5 2 = 0,
52
4.5.1 Componentes de um Vetor
v = a1 v 1 + a2 v 2 + . . . + an v n ,
vB = (a1 , a2 , . . . , an )
A = {(1, 0), (0, 1)}, B = {(2, 0), (1, 3)} e C = {(1, 3), (2, 4)}
então,
53
Definição 4.2. Chama-se produto interno no espaço vetorial V, a uma função de V ⇥ V em
R que a todo par de vetores (u, v) 2 V ⇥ V associa um número real, indicado por u.v ou
hu, vi, tal que os seguintes axiomas sejam verificados:
1. hu, vi = hv, ui
é um produto interno.
é um produto interno.
Definição 4.3. Um espaço vetorial real V, de dimensão finita, no qual está definido um
produto interno, é um espaço vetorial euclideano.
Definição 4.5. Chama-se distância entre dois vetores u e v o número real representado
por d(u, v) e definido por
d(u, v) = ku vk.
54
4.6.1 Complementos Ortogonais
a) W ? é um subespaço de V
u = w1 + w2
55
Teorema 4.7. Se A é uma matriz m ⇥ n, então
a) O espaço nulo de A, N (A) = {v 2 Rn⇥1 /Av = 0}, e o espaço linha de A são comple-
mentos ortogonais em Rn com relação ao produto interno euclideano.
Demonstração: A prova do item (a) encontra-se em Howard and Rorres (2000), pagina
211.
hvi , vj i = 0 8 i 6= j.
A base gerada por um conjunto de vetores ortogonais é dita uma base orto-
gonal e uma base gerada por um conjunto de vetores ortonormais é dita uma
base ortonormal.
56
Proposição 4.1. Um conjunto ortonormal é L.I.
Por demonstrar: ↵1 = ↵2 = . . . = ↵n = 0.
Multiplicando ↵1 v1 + ↵2 v2 + . . . + ↵n vn = 0 por vi , temos
0 =h0, vi i = h↵1 v1 + · · · + ↵n vn , vi i
Ja que S ortogonal,
Solução:
Proj [S] u = h(5, 2, 3), (1, 0, 0)i (1, 0, 0) + h(5, 2, 3), (0, 1, 0)i (0, 1, 0)
= 5(1, 0, 0) 2(0, 1, 0)
= (5, 2, 0).
57
Teorema 4.8. Cada espaço vetorial não-nulo de dimensão finita possui uma base ortonor-
mal.
1) Seja v1 = u1 .
hu2 , v1 i
v 2 = u2 Proj W1 u2 = u2 v1
||v1 ||2
hu3 , v1 i hu3 , v2 i
v 3 = u3 Proj W2 u3 = u3 v1 v2
||v1 ||2 ||v2 ||2
Continuando desta maneira, nós iremos obter, depois de n passos, um conjunto ortogonal
de vetores {v1 , v2 , . . . , vn }. O processo acima é chamado processo de Gram-Schimidt.
Exemplo 4.35. Considere o espaço vetorial R3 com o produto interno euclidiano. Aplique
o processo de Gram-Schimidt para transformar os vetores de base u1 = (1, 1, 1), u2 =
(0, 1, 1) e u3 = (0, 0, 1) em uma base ortogonal {v1 , v2 , v3 }; depois normalize os vetores da
base ortogonal para obter uma base ortonormal {q1 , q2 , q3 }.
58
Solução: Segundo o teorema anterior,
v1 = u1 = (1, 1, 1)
✓ ◆
hu2 , v1 i 2 2 1 1
v 2 = u2 proj W1 u2 = u2 2
v1 = (0, 1, 1) (1, 1, 1) = , ,
||v1 || 3 3 3 3
hu3 , v1 i hu3 , v2 i
v 3 = u3 proj W2 u3 = u3 2
v1 v2
||v1 || ||v2 ||2
✓ ◆ ✓ ◆
1 1/3 2 1 1 1 1
= (0, 0, 1) (1, 1, 1) , , = 0, , .
3 2/3 3 3 3 2 2
Assim, v1 = (1, 1, 1), v2 = ( 2/3, 1/3, 1/3), v3 = (0, 1/2, 1/2) formam uma base
ortogonal de R3 . As normas desses vetores são:
p p
p 6 2
kv1 k = 3, kv2 k = , kv3 k = ,
3 2
4.7 Exercícios
59
4. Seja V = {(x, y) 2 R2 /x > 0 e y > 0} com as operações usuais de R2 . Prove que V
não é um espaço vetorial.
(i) {(x, y)/x + y = 0} (ii) {(x, y)/xy = 0} (i) {(x, y)/x = 3y + 1}.
8. Determine quais dos conjuntos a seguir são subespaços do espaço vetorial das funções
contínuas no intervalo [ 1, 1], denotado por V = C([ 1, 1]).
9. Seja V = M2⇥2 o conjunto das matrizes 2⇥2. Se A 2 M2⇥2 , dizemos que A é diagonal
se a12 = a21 = 0, triagular superior se a21 = 0, triagular inferior se a12 = 0 e triangular
se a21 = 0 ou a12 = 0. Denotemos estes subconjuntos por D2⇥2 , T+
2⇥2 , T2⇥2 e T2⇥2 ,
respectivamente.
10. Seja V = M2⇥2 (R). Diga quais dos conjuntos a seguir são subespaços vetoriais de
M2⇥2 (R).
60
12. Quais polinômios são combinação linear de p1 (x) = 2 + x + 4x2 , p2 (x) = 1 x + 3x2
e p3 (x) = 3 + 2x + 5x2 ?.
a) (2, 2, 2), (0, 0, 3), (0, 1, 1) b) (2, 1, 3), (4, 1, 2), (8, 2, 4)
15. Sejam f = cos2 x e g = sin2 x. Quais das seguintes funções estão no espaço gerado
por f e g?.
a) cos 2x b) 3 + x2 c) 1 d) senx.
(i) u = (1, 2) e v = ( 2, 4) em R2
17. Seja V o espaço vetorial de todas as funções reais definidas sobre a reta real. Quais
dos seguintes conjuntos de vetores são linearmente dependentes?
(i) {6, 3 sin2 x, 2 cos2 x}, (ii) {x, cos x}, (iii) {(3 x)2 , x2 6x, 5},
18. Use o Wronskiano para mostrar que os seguintes conjuntos de vetores são linearmente
independentes.
(i) {1, x, ex }, (ii) {cos x, sin x, x sin x}, (iii) {ex , xex , x2 ex }.
61
20. Considere o subespaço S = ger{(1, 2, 1)T , (0, 1, 1)T , (2, 1, 3)T }
(a) o vetor ( 1, 2, 1) 2 S ?.
a) (2, 1), (3, 0) b) (4, 1), ( 7, 8) c) (0, 0), (1, 3) d) (3, 9), ( 4, 12).
a) (2, 3, 1), (4, 1, 1), (0, 7, 1) b) (3, 1, 4), (2, 5, 6), (1, 4, 8)
c) (1, 0, 0), (2, 2, 0), (3, 3, 3).
b) 1 + x + x2 , x + x2 , x2 .
c) 4 + x + 3x2 , 6 + 5x + 2x2 , 8 + 4x + x2 .
24. Os quatro primeiros polinômios de Hermite são 1, 2t, 2 + 4t2 e 12t + 8t3 . Mostre
que estes polinômios formam uma base de P3 (R).
25. Encontre as coordenadas do polinômio p(t) = 7 12t 8t2 + 12t3 , na base P3 (R)
formada pelos polinômios de Hermite.
27. Exiba uma base para os seguintes subespaços de R4 listados a seguir. Qual é a dimensão
destes?.
28. Seja V = ger{S} onde (S = {cos2 x, sin2 x, cos 2x}). Prove que o conjunto S não é
uma base de V. Encontre uma base para V.
62
29. Ache uma base para o espaço solução de cada um dos sistemas homogêneos:
8
8 >
> x1 + x2 x3 = 0
< x + 4x + 2x = 0 >
<
1 2 3
a) b) 3x1 + 2x2 + x3 = 0 c) x1 2x2 + x3 = 0.
: 2x + x + 5x = 0 >
>
1 2 3 >
: 2x1 x2 + 3x3 = 0
hA, Bi = u1 v1 + u2 v2 + u3 v3 + u4 v4
hp, qi = a0 b0 + a1 b1 + a2 b2 + a3 b3
63
(b) Calcule a norma do polinômio p = 3 + 2t2 + t3 .
35. Determine a projeção ortogonal de u = (2, 1, 3) sobre S = ger{(1, 0, 1), (2, 1, 2)}.
36. Use o método de ortonormalização de Gram-Schmidt para obter uma base ortonormal
de R3 a partir de B = {(1, 0, 0), (0, 1, 1), (0, 1, 2)}.
37. Use o método de ortonormalização de Gram-Schmidt para obter uma base ortonormal
de R2 a partir de B = {(1, 2), ( 1, 3)}.
U = {(x, y, z, t) 2 R4 /x y = 0 e z = 2t} ⇢ R4 .
64
Capítulo 5
Transformações Lineares
Neste capítulo será estudado um tipo especial de função (ou aplicação) onde o domínio e o
contradomínio são espaços vetoriais reais. Assim, tanto a variável independente como a va-
riável dependente são vetores, razão pela qual essas funções são chamadas de transformações
vetoriais satisfazendo algumas condições de linearidade como na definição que segue.
i) T (u + v) = T (u) + T (v),
Figura 5.1:
65
Exemplo 5.1. T : R2 ! R3 , T (x, y) = (2x, 4y, x y) é linear.
Solução De fato,
= T ((x1 , y1 )) + T ((x2 , y2 ))
= T (u) + T (v)
= ↵(2x1 , 4y1 , x1 y1 )
= ↵T (u)
Solução De fato, se u = x1 e v = x2 são vetores quaisquer de R (os vetores, neste caso, são
números reais), tem-se:
Solução De fato:
66
Solução De fato:
i) T (u + v) = 0 = 0 + 0 = T (u) + T (v)
TA : R2 ! R3 , TA (v) = A v .
Solução De fato:
enquanto,
67
• Nos exemplos 1 e 2 desta seção, verifica-se que
T (0, 0) = (0, 0, 0) e T (0) = 0
e, em ambos casos as transformações são lineares. Entretanto, no exemplo 6, embora
T (0) = 0, a transformação não é linear.
v = ↵1 v1 +↵2 v2 + . . . + ↵n vn
e, portanto
isto é, dado v 2 V, o vetor T (v) estará bem determinado se forem conhecidas as ima-
gens dos vetores de B. Em outras palavras, sempre que forem dados T (v1 ), . . . , T (vn )
onde {v1 , . . . vn } é base do domínio V, a transformação linear T está perfeitamente
definida.
68
Sol. De fato, observando que {(1, 0), (0, 1)} é a base canônica do R2 e que
= x(2, 3) + y( 4, 1)
= (2x 4y, 3x + y)
5.1.1 Exercícios
0 1
1 2 2
1. Seja T : R3 ! R2 a transformação definida por T v = A v, onde A = @ A.
1 2 1
0 1 0 1
2 1
B C B C
B C B C
Encontre a imagem de u = B 3 C e v = B 1 C.
@ A @ A
0 1
a) T : R2 ! R2 , T (x, y) = (sen y, x)
b) T : R2 ! R2 , T (x, y) = (x2 , y 2 )
c) T : R2 ! R2 , T (x, y) = (x + 1, y)
d) T : R2 ! R, T (x, y) = xy
f ) T : R 3 ! R3 ,
T (x, y, z) = (x + y, x y, x)
02 31
a b
g) T : M2⇥2 (R) ! R2 , T @4 5A = (a c, b + c)
c d
02 31 2 3
a b a b
h) T : M2⇥2 (R) ! R, T @4 5A = det 4 5
c d c d
69
5.2 Núcleo de uma Transformação Linear
N (T ) = {v 2 V / T (v) = 0}
A Figura 5.2 mostra que N (T ) ⇢ V e todos seu vetores tem uma única imagem que é o vetor
zero de W.
Figura 5.2: N (T ) ⇢ V.
Exemplos:
= {(0, 0)}
70
Como 8
< x y + 4z = 0
() x= 3z e y=z
: 3x + y + 8z = 0
Logo,
Exemplos:
Im(T ) = {(x, y, 0) 2 R3 / x, y 2 R}
N (T ) = {(0, 0, z) 2 R3 / z 2 R}
71
pois T (0, 0, z) = (0, 0, 0) para todo z 2 R.
i) w1 + w2 2 Im(T )
ii) ↵ w1 2 Im(T ),
72
T (u) = T (v1 + v2 ) = T (v1 ) + T (v2 ) = w1 + w2 e
T (v) = T (↵ v1 ) = ↵T (v1 ) = ↵ w1
5.4.1 Exercícios
3. Nos problemas seguintes são apresentadas transformações lineares. Para cada uma de
elas
(i) Determinar o núcleo, uma base para esse subespaço, e sua dimensão. T é injetora?
Justificar.
(ii) Determinar a imagem, uma base para esse subespaço, e sua dimensão. T é sobre-
jetora? Justificar
a) T : R2 ! R2 , T (x, y) = (3x y, 3x + y)
b) T : R2 ! R3 , T (x, y) = (x + y, x, 2y)
c) T : R3 ! R2 , T (x, y, z) = (x + 2y z, 2x y + z)
73
f ) T : R3 ! R3 ,T (x, y, z) = (x + y, x y, x)
02 31
a b
g) T : M2⇥2 (R) ! R2 , T @4 5A = (a c, b + c)
c d
Sendo T (v1 ) e T (v2 ) vetores de W, eles serão combinações lineares dos vetores de B
ou
T (v) = (a11 x1 + a12 x2 )w1 + (a21 x1 + a22 x2 )w2 + (a31 x1 + a32 x2 )w3 (5.6)
y1 = a11 x1 + a12 x2
y2 = a21 x1 + a22 x2
y3 = a31 x1 + a32 x2
74
ou na forma matricial 2 3 2 3
y a a 2 3
6 1 7 6 11 12 7 x
6 7 6 7 1
6y2 7 = 6a21 a22 7 4 5
4 5 4 5 x2
y3 a31 a32
ou, ainda simbolicamente
T (v)B = AvA
sendo a matriz 2 3
a a
6 11 12 7
6 7
A = [T ]A
B = 6a21 a22 7
4 5
a31 a32
denominada matriz de T em relação às bases A e B. Essa matriz A é, na verdade, um ope-
rador que transforma vA (componentes de um vetor v na base A) em T (v)B (Componentes
da imagem de v na base B). A matriz A é de ordem 3 ⇥ 2 pois dim V = 2 e dim W = 3.
" "
T (v1 )B T (v2 )B
A matriz A depende das bases A e B consideradas, isto é, a cada dupla de bases corres-
ponde uma particular matriz. Assim, uma transformação linear poderá ter uma infinidade
de matrizes a representá-la. No entanto, fixadas as bases, a matriz é única.
e as bases de R3 e R2 respectivamente,
75
a) determinar A, matriz de T nas bases A e B;
Solução
a) A matriz A é de ordem 2 ⇥ 3.
2 3
a11 a12 a13
A=4 5
a21 a22 a23
logo, 2 3
2 3 0
A=4 5
4 3 2
b) Sabe-se que
T (v)B = AvA (5.7)
Tendo em vista que v = (2, 1, 4) está expresso na base canônica, deve-se, primeira-
mente, expressá-lo na base A. Seja vA = (a, b, c), isto é,
76
ou 8
>
> a +2b =2
>
<
b +c = 1
>
>
>
: c =4
sistema cuja solução é a = 8, b = 5 e c = 4, ou seja, vA = ( 8, 5, 4).
Observe-se que
T (v) = T (2, 1, 4) = ( 1, 0),
e as bases canônicas A = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} do R3 e B = {(1, 0), (0, 1) do R2 ,
Solução
a)
logo: 2 3
2 1 1
A=4 5 (5.9)
1 2 0
77
Obs1: No caso de serem A e B bases canônicas do domínio e do contradomínio, respec-
tivamente, como é o caso deste problema, a matriz A é chamada matriz canônica
de T e escreve-se, simplesmente
T (v) = A v (5.10)
T1 + T2 : V ! W
78
5.6.2 Multiplicação por Escalar
↵T : V ! W
5.6.3 Composição
T2 T1 : V ! U
Exemplos:
79
Sejam as transformações lineares: T 1 : R2 ! R2 , T1 (x, y) = (x 2y, 2x + y),
T 2 : R2 ! R2 , T2 (x, y) = (x, x y), e T 3 : R2 ! R3 , T3 (x, y) = (2x + 3y, y, x),
determinar:
1. (T1 + T2 )(x, y)
Solução:
= (x 2y, 2x + y) + (x, x y)
= (x 6y, 4x + 5y)
3. (T3 T2 )(x, y)
Solução:
= T3 (x, x y)
= ( x + 3y, x y, x)
5.6.4 Exercícios
80
3. Sabendo que a matriz de uma transformação linear T : R2 ! R3 , nas bases A=
{( 1, 1), (1, 0)} do R2 e B = {(1, 1, 1), (2, 1, 0), (3, 0, 1)} do R3 é:
2 3
3 1
6 7
6 7
[T ]A
B = 6 2 5 7
4 5
1 1
5. Seja S = ger{ex , xex , x2 ex } o subespaço de C[a, b](Espaço vetorial das funções reais
definidas no intervalo [a, b]). Seja D o operador derivada em S. Encontre a matriz de
D em relação à base {ex , xex , x2 ex }
a) Calcular (S T )(x, y) se
T : R2 ! R3 , T (x, y) = (2x + y, x y, x 3y)
Descrever o movimento de uma partícula em um plano resulta muitas vezes mas conveniente
se usarmos uma base em R2 formada por um vetor tangente unitário ~t e um vetor normal ~n,
em vez da base canônica {e1 , e2 }.
81
Em geral, se A e B são bases de um espaço vetorial V, e I : V ! V é a transformação
linear identidade, então por (5.7) temos que:
Sol: Para isso temos que expressar os vetores da base A em relação à base B.
ou 8 2 3
< a
11 +2a21 = 2 4
=) a11 = 4, a21 = 1 =) [v1 ]B = 4 5.
: a21 = 1 1
Analogamente,
v2 = ( 1, 1) = a12 (1, 0) + a22 (2, 1),
logo
8 2 3
< a
12 +2a22 = 1 3
=) a12 = 3, a22 = 1 =) [v2 ]B = 4 5.
: a22 = 1 1
Portanto, 2 3
4 3
[I]A
B =
4 5
1 1
2 3
4
Sabendo que [v]A = 4 5 podemos calcular [v]B usando a matriz anterior. De fato:
3
2 32 3 2 3
4 3 4 7
[v]B = [I]A
B [v]A =
4 54 5 = 4 5.
1 1 3 1
82
5.8 Exercícios
83
Capítulo 6
Autovalores e Autovetores
pode ser vista como uma transformação linear que leva (ou transforma) um vetor dado x 2 V
em um novo vetor y 2 V. Vetores que são transformados em múltiplos de si mesmos são
importantes em muitas aplicações. Para encontrar tais vetores, faz-se y = x, onde é um
fator escalar de proporcionalidade. Assim,o objetivo será achar soluções das equações
Ax = x, (6.1)
ou
(A I)x = 0. (6.2)
84
b) A matriz (A I) é não-inversível.
c) det(A I) = 0.
3 1 2
det(A I) = = 2=0
4 2
Logo, os autovalores são 1 =2e 2 = 1.
Para encontrar os autovetores, volta-se à equação (6.4) e substitui-se por cada um dos
autovalores encontrados.
Para =2: 0 1 0 1 0 1
1 1 x1 0
@ A.@ A=@ A. (6.5)
4 4 x2 0
Logo, cada linha dessa equação vetorial leva à condição x1 x2 = 0, logo x1 = x2 , mas seus
valores não estão determinados. Se x1 e x2 forem iguais a c, o autovetor v1 será
0 1
1
v1 = c. @ A , c 6= 0. (6.6)
1
Em geral, não se usa a constante arbitrária c para encontrar os autovetores; com isso elimina-
se c da equação (6.6), 0 1
1
v1 = @ A, (6.7)
1
85
e deve ser lembrado que qualquer múltiplo não-nulo desse vetor também é um autovetor.
Diz-se que v1 é o autovetor correspondente ao autovalor 1 = 2.
Foi obtido mais uma vez uma única condição sobre x1 e x2 , para saber, 4x1 x2 = 0. Logo,
o autovetor correspondente ao autovalor = 1é
2
0 1
1
v2 = @ A , (6.9)
4
Observação 6.1. Se um determinado autovalor aparece m vezes como raiz da equação (6.3),
ele é dito de multiplicidade m. Cada autovalor de multiplicidade m pode ter q autovetores
linearmente independentes, onde
1 q m.
1 1
det(A I) = 1 1 = 3
+3 +2=0 (6.12)
1 1
86
Agora para encontrar o autovetor v1 associado ao autovalor 1, deve-se substituir =2
na equação (6.11); isso nos leva ao sistema
0 1 0 1 0 1
2 1 1 x1 0
B C B C B C
B C B C B C
B 1 2 1 C . B x2 C = B 0 C (6.13)
@ A @ A @ A
1 1 2 x3 0
x1 + x2 + x3 = 0. (6.16)
Assim, valores para duas das quantidades x1 , x2 e x3 podem ser escolhidos arbitrariamente
e o terceiro valor fica determinado pela equação (6.16). Por exemplo, se x1 = 1 e x2 = 0,
então x3 = 1e 0 1
1
B C
B C
v2 = B 0 C (6.17)
@ A
1
é um autovetor. Qualquer múltiplo não-nulo de v2 também é um autovetor, mas um segundo
autovetor independente pode ser encontrado para uma outra escolha de x1 e x2 ; por exemplo,
x1 = 0 e x2 = 1. Novamente x3 = 1e
0 1
0
B C
B C
v3 = B 1 C (6.18)
@ A
1
87
6.1 Exercícios
88
Capítulo 7
Diagonalização de Matrizes
Uma matriz A 2 Mn⇥n (R) é dita diagonalizável se existe uma matriz inversível
0 1
p11 p12 . . . p1n
B C
B C
B p21 p22 . . . p2n C
B
P =B . C (7.1)
. .. .. .. C ,
B . . . . C
@ A
pn1 pn2 . . . pnn
tal que: P 1
AP é uma matriz diagonal. Dizemos então que a matriz P diagonaliza A.
i) A é diagonalizável
3. A matriz P 1
AP será então diagonal com entradas 1, 2, . . . , n na diagonal principal,
onde i é o autovalor associado a vi .
89
Solução: Será feita por partes:
0 2
p( ) = det(A I) = det 1 2 1 = ( 2)2 ( 1) (7.3)
1 0 3
Logo, p( ) = 0, se = 1, = 2.
0 1
x
B C
B C
• Para = 1, achar v = B y C /(A I)v = 0
@ A
z
2 3 2 3 2 3
1 0 2 x 0
6 7 6 7 6 7
6 7 6 7 6 7
Assim 6 1 1 1 7 . 6 y 7 = 6 0 7
4 5 4 5 4 5
1 0 2 z 0
8 8
< x+y+z =0 < x = 2z
=) (7.4)
: x + 2z = 0 : y=z
• Para
2 = 2 temos:
3 2 3 2 3
2 0 2 x 0
6 7 6 7 6 7
6 7 6 7 6 7
6 1 0 1 7.6 y 7 = 6 0 7 =) x= z
4 5 4 5 4 5
1 0 1 z 0
V2 = {(x, y, x)/ x, y 2 R}
90
2 32 32 3 2 3
1 0 1 0 0 2 2 1 0 1 0 0
6 76 76 7 6 7
1 6 76 76 7 6 7
P AP = 6 1 0 2 76 1 2 1 76 1 0 1 7=6 0 2 0 7
4 54 54 5 4 5
1 1 1 1 0 3 1 1 0 0 0 2
7.1 Exercícios
1. Ache a forma diagonal e a matriz diagonalizante P , para cada uma das matrizes.
2 3
2 3 2 3 1 3 3
3 4 1 4 6 7
6 7
a) 4 5 b) 4 5 c) A = 6 3 5 3 7
4 3 2 3 4 5
6 6 4
Pelo Teorema 7.1 sabemos que dois autovetores associados a autovalores distintos de uma
matriz A são linearmente independente. Se temos que A é simétrica tem-se o teorema abaixo:
e 2 da matriz simétrica A. Vamos mostrar que hv1 , v2 i = v1T v2 = 0. De fato, como a matriz
A é simétrica, logo
e
hv1 , Av2 i = v1T Av2 = v1T 2 v2 = T
2 v1 .v2 (7.7)
91
Como 1 6= 2 segue-se hv1 , v2 i = 0, portanto os autovetores v1 e v2 são ortogonais.
No Teorema 7.1 vimos que uma matriz A é diagonalizada pela matriz P dos autovetores.
No caso de A ser simétrica, os vetores que compõem P são base ortogonal. Com o
intuito de facilitar futuras aplicações, é conveniente que P seja ortonormal, o que se obtém
normalizando cada vetor.
D = P T AP, (7.9)
Observação 7.1. Qualquer matriz B 2 Mn⇥m multiplicada pela sua matriz transposta B T 2
Mm⇥n , é uma matriz quadrada simétrica de ordem n ⇥ n. De fato,
(BB T )T = (B T )T B T = BB T .
92
Capítulo 8
Aplicações
Nesta seção faremos uso das projeções ortogonais para obter uma técnica de ajustar
uma reta ou uma outra curva polinomial a um conjunto de pontos do plano que foram
determinados experimentalmente gerando um sistema inconsistente.
93
é a melhor aproximação para v em W , ou equivalentemente:
kv Proj W vk kv wk 8 w 2 W, w 6= Proj W v.
Agora, vamos a procurar achar uma solução que chegue “tão perto quanto possível” de ser
uma solução, no sentido que minimize o valor de kAX yk em relação ao produto interno
euclideano.
para todo X em Rn .
Observação 8.1. Uma propriedade que decorre do Teorema 4.6, diz que:
(y Proj W y) 2 W ? .
(y AX) 2 N (AT ).
AT (y AX) = 0 ou AT AX = AT y.
94
Proposição 8.1. Para qualquer sistema linear AX = y, o sistema normal associado
AT A X = AT y é consistente.
Mais ainda, se A 2 Mm⇥n tem vetores L.I., então para cada matriz y 2 Mn⇥1 o sistema
linear AX = y, tem uma única solução de mínimos quadrados. Esta solução é dada por:
X = (AT A) 1 AT y
Uma aplicação da proposição anterior pode ser vista sobre projeções ortogonais em espa-
ços com produto interno para obter uma técnica de ajustar uma reta o uma outra curva
polinomial a um conjunto de pontos no plano que foram determinados experimentalmente.
Teorema 8.2. Seja (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ) um conjunto de dois o mais pontos de
dados, não todos em uma reta vertical. Então, existe um único ajuste linear de mínimos
quadrados
y = a⇤ + b ⇤ x
Exemplo 8.2. Encontre o ajuste linear por mínimos quadrados dos pontos (0, 1), (1, 3),
(2, 4) e (3, 4).
y = a⇤ + b ⇤ x
95
que contém os pontos dados, isto é:
8 2 3 2 3
>
> 1 = a⇤ + b ⇤ 0 1 1 0
>
> 6 7 6 72 3
>
> 6 7 6 7
< 3 = a⇤ + b ⇤ 1 6 3 7 6 1 1 7 a⇤
() 6 7=6 74 5
> 6 7 6 7
>
> 4 = a⇤ + b ⇤ 2 6 4 7 6 1 2 7 b⇤
>
> 4 5 4 5 | {z }
>
: 4 = a⇤ + b ⇤ 3 4 1 3
|{z} | {z }
y = A X
A técnica usada para o ajuste linear de Mínimos Quadrados generaliza-se facilmente para
ajustar um polinômio de qualquer grau fixo m, para n dados.
y = a0 + a1 x + · · · + am x m
96
aos n pontos (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ), obtemos as n equações:
y 1 = a0 + a1 x 1 + · · · + am x m
1
y 2 = a0 + a1 x 2 + · · · + am x m
2
..
.
y n = a0 + a1 x n + · · · + am x m
n.
Logo, pela Proposição 8.1 tem-se que as soluções das equações normais
AT AX = AT y
ky AXk.
Exemplo 8.3. O dono de um negócio em rápida expansão descobre que nos 5 primeiros meses
do ano as vendas (em milhares de reais) foram $4, 0; $4, 4; $5, 2; $6, 4 e $8, 0. O dono
coloca estos dados num gráfico e conjectura que, pelo resto do ano, a curva de vendas pode
ser aproximada por um polinômio quadrático de melhor ajuste de mínimos quadrados para a
curva de vendas e use-o para projetar as vendas no décimo segundo mês do ano.
y = a0 + a1 x + a2 x 2
(1; 4), (2; 4, 4), (3; 5, 2), (4; 6, 4), (5; 8).
97
8 2 3 2 3
>
> 4, 0 = a0 + a1 + a2 4, 0 1 1 1
>
> 6 7 6 72 3
>
> 6 7 6 7
>
> 4, 4 = a0 + 2a1 + 4a2 6 4, 4 7 61 2 4 7 a0
>
< 6 7 6 76 7
6 7 6 76 7
5, 2 = a0 + 3a1 + 9a2 () 6 5, 2 7 = 61 3 9 7 6 a1 7
>
> 6 7 6 74 5
>
> 6, 4 = a + 4a + 16a 6 7 6 7
>
> 0 1 2 6 6, 4 7 61 4 167 a2
>
> 4 5 4 5 | {z }
>
: 8, 0 = a + 5a + 25a
0 1 2 8, 0. 1 5 25
| {z } | {z }
y = A X
98
Figura 8.1: Parábola de ajuste y = 4 0, 2x + 0, 2x2
0 1 0 1
x a b
a forma quadrática associada, onde X = @ A e A = @ A.
y b c
Então, os eixos coordenados podem ser girados de modo que a equação C no novo sistema
x0 , y 0 tenha a forma
1 (x
0 2
) + 2 (y
0 2
) + d0 x0 + e0 y 0 + f 0 = 0, (8.6)
Observação 8.2. Do teorema anterior temos que a equação da cônica pode-se escrever em
forma matricial da forma
⇣ ⌘
ax2 + 2bxy + cy 2 +dx + ey + f = X T AX + d e X + f = 0 (8.8)
| {z }
99
Logo, substituindo X = P X 0 tem-se
⇣ ⌘
0 = (P X 0 )T A(P X 0 ) + d e P X 0 + f
⇣ ⌘
= (X 0 )T P T
AP
| {z } X 0
+ d e P X0 + f
⇣ ⌘
= (X ) DX + d e P X 0 + f
0 T 0
(8.9)
Mais ainda,
✓ ◆2 ✓ ◆2
1 1 149
4 x 0
p +9 y 0
p = (8.17)
8 5 9 5 145
100
ou
✓ ◆2 ✓ ◆2
1 1
x 0 p y 0 p ✓r ◆2
8 5 9 5 149
+ = . (8.18)
1 1 145
22 32
Da equação (8.17) é fácil deduzir que 5x2 4xy+8y 2 y 1 = 0 representa uma elipse com
rotação e translação, centrada sobre a interseção dos eixos que tem como vetores diretores
{v1 , v2 } (a escolha da ordem está associada ao fato do detP = 1)
101
Apêndice A
Números Complexos
Como x2 0 para todo x 2 R, a equação x2 = 1 não tem solução real. Para contornar
este problema os matemáticos do século 18 introduziram o número imaginário
p
i= 1
No inicio do século 19, reconhece-se que um número complexo pode representar-se como
um par ordenado (a, b) 2 R2 , de modo que ao definir operações aritméticas análogas a R2 ,
as propriedades fundamentais continuem sendo válidas, com a propriedade adicional que
i2 = 1.
Geometricamente um número complexo z pode ser visto tanto como um ponto quanto
como um vetor no plano xy.
102
Figura A.1: C () R2
Observe-se que
p
|z| = a2 + b2 = z · z̄ = |z̄|.
Por outro lado, se ✓ é o ângulo entre o eixo real positivo e o vetor z (figura A), usando
propriedades trigonométricas obtemos a forma polar de z
103
Note-se que se
então
z1 z2 = |z1 ||z2 |(cos ✓1 cos ✓2 sen ✓1 sen ✓2 ) + i |z1 ||z2 |(sen ✓1 cos ✓2 + cos ✓1 sen ✓2 )
wn = z. (A.9)
Denotaremos w = z 1/n .
Sejam,
z = |z|(cos ✓ + i sen ✓) e w = |w|(cos ↵ + i sen ↵),
Logo,
✓ + 2k⇡
|w| = |z|1/n , e ↵= , 8 k 2 Z. (A.12)
n
Consequentemente, a solução de (A.9)
✓ ✓ ◆ ✓ ◆◆
✓ + 2k⇡ ✓ + 2k⇡
w = |z| 1/n
cos + i sen , 8 k 2 Z. (A.13)
n n
104
Referências Bibliográficas
Boldrini, J. L. and Costa, S. I. (1986). Álgebra Linear. Harbra Ltda, São Paulo, 3a edition.
Howard, A. and Rorres, C. (2000). Álgebra Linear com Aplicações. Bookman, São Paulo, 8a
edition.
Poole, D. (2006). Álgebra Linear. São Paulo. Tradutoras: Martha Salerno Monteiro (coord.)
et al.
Steinbruch, A. and Winterle, P. (1987). Álgebra Linear. Makron Books, São Paulo, 2a
edition.
105