Você está na página 1de 15

Fundação Getulio Vargas

Escola de Matemática Aplicada

Wellington José

Resumo Álgebra Linear

Rio de Janeiro
2020
Sumário
Ortogonalidade

Determinante

Autovalores e Autovetores

Decomposição em Valores Singulares - SVD

Transformações Lineares
Ortogonalidade
Seja E um espaço vetorial. Diremos que u e v são ortogonais se v T u = 0 e
escrevemos v⊥u.

• vT u = v · u

• ||v + u|| = ||v||2 + ||u||2

Sejam V e U dois subespaços vetoriais de E. Diremos que V ⊥U se v⊥u, para


todo v ∈ V e u ∈ U

• w ∈ V ∩ U ⇐⇒ w = 0

Ortogonalidade e os espaços fundamentais


• N (A)⊥C(AT )

• C(A)⊥N (AT )

Complemento Ortogonal
V ⊥ = {w ∈ E; w⊥V }

• V T é um subespaço de E

Seja {v1 , . . . , vk } gera V. Então

• w ∈ V ⊥ ⇐⇒ w⊥vi ∀i ∈ Ik
 
v1T
• Defina A =  ... . Então V T = N (A) e podemos achar uma base
 
vkT
área V T

• V ∩ V ⊥ = {0}

• dim V + dim V ⊥ = dim E

• V = (V ⊥ )⊥

2
Decomposição Ortogonal
Teorema 1 Todo vetor x ∈ E pode ser escrito como x = v +v ⊥ , onde v ∈ V
e v ⊥ ∈ V ⊥ , essa decomposição é única.

Projeção Ortogonal
• Seja a e b dois vetores num espaço vetorial E. A projeção de b em a:

aaT
p= T ·b
a a

Matriz de Projeção
A matriz de projeção P pode ser escrita como

aaT
P =
aT a
Com as propriedades:

• P tem posto 1

• P é simétrico

• P2 = P

Projeção no plano
Seja a1 e a2 uma base para o plano. Então queremos achar x1 e x2 tal que
o vetor projetado p possa ser escrito como x1 a1 + x2 a2 , podemos entender
que o plano pode ser entendido como o espaço coluna de A = [a1 a2 ], então
temos que fazer a projeção no caso mais geral em C(A)

Projeção em C(A)
Dado b, achar x tal que aTi (b − Ax) = 0 para todo i onde ai ∈ C(A),
equivalente a AT Ax = At b, se AT A é inversı́vel (note que é quadrada), então
P = A(AT A)−1 AT , se A for inversı́vel então P = I.
obs.: A projeção em N (AT ) é I − P onde P é a projeção em C(A).

3
AT A
Teorema 2 AT A tem inversa se e somente se as colunas de A são LI.

Mı́nimos quadrados
Como nem sempre Ax∗ = b tem solução podemos projetar b em C(A) e
Ax∗ = b →− AT Ax∗ = AT b →
− x∗ = (AT A)−1 AT b assim x∗ é uma solução em
mı́nimos quadrados.

Mı́nimos Quadrados - Caso Geral


 
1 t1
 1 t2 
Note que x∗ = (AT A)−1 AT b, onde A =  .. .. 
 
 . . 
1 tm
 P   P 
T m P ti T bi
Além disso A A = eA b=
t2i
P P
ti ti bi

Vetores Ortonormais
Os vetores q1 , · · · , qk são ditos ortogonais se qiT qj = 0, para i 6= j diremos
que são ortonormais se além de ortogonais, eles forem unitários, ou seja,
qiT qi = 1 para qualquer i.
Lema 3 Vetores ortogonais são sempre LI

Matriz Ortogonais
Diremos que uma matriz é ortogonal se suas colunas são ortogonais ou Qm×n
é ortogonal se QT Q = In×n . Se Q for quadrada então QT = Q−1
• Matrizes ortogonais preservam o comprimento: |Qx| = |x|

Processo de Gram-Schmidt com 2 vetores


Vamos começar com dois vetores LI v1 e v2 . Queremos achar u1 e u2 tais
que u1 ⊥u2 e span(v1 , v2 ) = span(u1 , u2 ), podemos tomar u1 = v1 e u2 =
ui
v2 − proju1 v2 e para criar vetores ortonormais basta fazer qi =
|ui |

4
v1 , v2 (LI) →
− u1 , u2 (Ortogonal) →
− q1 , q2 (Ortonormal)

Processo de Gram-Schmit geral


Com 3 vetores v1 , v2 e v3 criamos u1 e u2 como acima e u3 = v3 − proju1 v3 −
proju2 v3 e assim u1 · u3 = u2 · u3 = 0. E o processo se repete para n vetores.

Determinante
Se A é uma matriz 2 × 2 então det(A) = a11 a22 − a12 a21
Propriedades:

• Determinante de uma matriz permutação é 1 ou -1 dependendo se a


matriz troca um número par ou ı́mpar de linhas.

• Se duas linhas da matriz são iguais, então o determinante é zero.

• Somar λ ∈ R vezes a linha i na linha j não muda o determinante.

• Se uma linha da matriz é de zeros então o determinante é zero.

• Determinante de uma matriz diagonal é o produto dos valores da dia-


gonal.

• Determinante de uma matriz triangular é o produto dos valores na


diagonal.

• Determinante de uma matriz é ± produto dos pivôs.

• det AB = det A det B


1
• det A−1 =
det A
• det AT = det A

• | det Q| = 1, se Q é uma matriz ortogonal.

5
Fórmula dos pivôs
Q
Como det A = ± pi , onde pi é o i-ésimo pivô, pi pode ser escrito como
(supondo que exista ao menos um pivô).
det Ai
pi =
det Ai−1

Co-fatores
Ver em Explicação Co-fator.

Inversa usando determinante


Se det A 6= 0, então A−1 = 1
det A
CT , onde C é a matriz de cofatores de A.

Regra de Cramer
Usando a fórmula acima temos que a solução de Ax = b pode ser escrita
como
1
x= CT b
det A
A Regra de Cramer é outra forma de olhar a equação:
det Bj
xj =
det A
onde Bj é a matriz A trocando a coluna j por b.

Área de um triângulo em R2
A área de um triângulo em R2 é definida dadas as coordenadas dos vértices
por:

1 1 1
1
A = x1 x2 x3
2
y1 y2 y3

6
Produto Vetorial em R3
O produto vetorial de dois vetores u, v ∈ R3 é definido como


e1 e2 e3

u × v = u1 u2 u3 = (u2 v3 − u3 v2 )e1 + (u3 v1 − u1 v3 )e2 + (u1 v2 − u2 v1 )e3
v1 v2 v3

Onde ei é um vetor unitário, e vale:

• v × u = −(u × v)

• u · (u × v) = v · (u × v) = 0

• u×u=0

• |u × v| = |u||v|| sin θ|

• (u × v) · w = 0 ⇔ u, v, w estão no mesmo plano.

Autovalores e Autovetores
Definição 1 Diremos que λ é um autovalor de A se existe x tal que Ax =
λx e x é dito autovetor de A e por linearidade αx é autovetor para ∀α ∈ R.

Se 0 é autovalor de A, os autovetores serão os elementos de N(A). Além


disso, A é dito singular.

Calculando Autovalores e Autovetores


λ é um autovalor de A se e só se A − λI é singular, o que é equivalente a
det(A − λI) = 0, onde

p(λ) = det(A − λI)


É dito o polinômio caracterı́stico de A, e os autovalores são as raı́zes
desse polinômio, p é de grau n e portanto toda matriz tem n autovalores
(podendo ser repetidos ou complexos), daı́ os autovetores são calculados a
partir do sistema (A − λI)x = 0. Note que autovetor ∈ N (A − λI).

7
Propriedades
• Se Ax = λx e Bx = µx, então λ + µ é autovalor de A + B.

• Ak x = λk x

• Se λ 6= 0 e λ é autovalor de A, então A−1 x = λ1 x, ou seja 1


λ
é autovalor
da inversa.

• Eλ = {x; Ax = λx} é um subespaço vetorial.

• p(λ) = (−1)n det(λI − A) = (−1)n (λn + cn−1 λn−1 + · · · + c1 λ + c0 )

• det A = λ1 · · · λn

• trace(A) := a11 + · · · + ann = λ1 + · · · + λn

Diagonalização
Teorema 4 Os autovetores são LI quando os seus respectivos autovalores
são distintos.

Seja A matriz com n autovetores LI, x1 , · · · , xn e os respectivos autova-


lores λ1 , · · · , λn . Tome S = [x1 · · · xn ], assim

S −1 AS = Λ
Onde Λ é uma matriz diagonal com os termos λi e AS = SΛ

MA e MG
A multiplicidade algébrica (MA) de um autovalor λ como multiplici-
dade da raiz no polinômio caracterı́stico. Já a multiplicidade geométrica
(MG) de um autovalor λ é a dim(N (A − λI)) = dim(Eλ ). Se M G = M A
para todo autovalor, então A é diagonalizável.

Potências de Matrizes
Teorema 5 Se todo autovalor satisfaz |λ| < 1, então Ak → 0, quando k →
+∞.

8
Teorema Espectral
Teorema 6 Se A é uma matriz simétrica (AT = A), então existe uma matriz
ortogonal Q tal que A = QΛQT , ou seja, A é diagonalizável.

Autovalores Reais
Teorema 7 Se A é simétrica, então seus autovalores são reais.

Corolário 7.1 Se λ ∈ C é autovalor de A e x é seu respectivo autovetor,


então λ é um autovalor de A (onde a + ib = a − ib) e x é seu respectivo
autovetor. Ou seja, Ax = λx e Ax = λx onde λ ∈ C

Autovetores Ortogonais
Teorema 8 Se A possui λ1 6= λ2 , com respectivos autovetores x1 , x2 , então
x1 ⊥x2

Autovalores e Pivôs
Lema 9 O número de pivôs é igual ao número de autovalores não nulos.

Teorema 10 Se A é simétrica, então os sinais dos autovalores e pivôs são


iguais.

Equações Diferenciais (Aplicação da diagonalização)


Suponha que u(t) satisfaz a equação:

u0 (t) = λu(t)
A solução é u(t) = Ceλt , onde C é uma constante definida usando o valor
de u(0), por exemplo.
Podemos muitas equações então se escrevemos
 
u1 (t)
u(t) =  ... 
 
un (t)
E tomamos todas as equações na forma de matriz:

9
u0 (t) = Au(t)
Onde A é uma matriz n × n e u(0) é dado. Suponha que A é diagonal,
então as equações são desacopladas (e fica mais fácil resolver). Então no caso
em que A é diagonalizável, a ideia é mudar de base usando os autovetores de
A e resolver as equações desacopladas.

Exponencial de Matriz (Aplicação)


Sabemos que
+∞
x x2 X xn
e =1+x+ + ··· = ∀x ∈ R
2 n=0
n!
A série (de Taylor) acima converge também se considerarmos uma matriz
A:
+∞
A A2 X An
e =1+A+ + ··· =
2 n=0
n!

Lema 11 Se A = SΛS −1 , então eA = SeΛ S −1

(I − A)−1 (Aplicação)
Suponha A é diagonalizável e |λi | < 1 (λi é o i-ésimo autovetor de A), assim
An → 0 quando n → +∞. Então
+∞
X
−1
(I − A) = An = I − An−1 = I
n=0

Equação de Segunda Ordem (Aplicação)


Considere a equação y 00 (t) + by 0 (t) + ky(t) = 0. Tome:
 0   00   
y (t) 0 y (t) −b −k
u(t) = , A = u (t) = = u(t)
y(t) y 0 (t) 1 0
E tome o polinômio caracterı́stico pA = det(I − λI) = λ2 + bλ + k. Se
existem λ1 , λ2 ∈ R raı́zes:

10
u(t) = SeΛt S −1 u(0)
Daı́ achamos y(t) = c1 eλ1 t + c2 eλ2 t , onde c1 , c2 são constantes e dependem
de A que depende de b, k.

Formas Quadráticas
Uma forma quadrática em R2 é uma equação da forma

ax2 + 2bxy + cy 2 = 1

Definição 2 Uma forma quadrática em Rn é definida como (supondo A


simétrico)
n
X
T
q(x) = x Ax = aij xi xj
i,j=1

Pn
E usando o Teorema Espectral xT Ax = y T Λy = i=1 λi yi2 onde y = QT
(ou yi = qiT x)

Positiva Definida
Definição 3 Diremos que A é positiva definida se xT Ax > 0. A matriz
A é dita positiva semi-definida se xT Ax ≤ 0

Teorema 12 A é positiva definida se e somente se todos seus autovalores


são estritamente positivos.

Propriedade: Se A e B são positivas definidas, então A + B é positiva


definida.

Raiz Quadrada (Aplicação de matriz positiva definida)


Suponha que A é uma matriz positiva definida (A é simétrica). Diremos
√ que
R é raiz quadrada de A se A = RT R. Se A = QΛQT , então R = ΛQT .

11
Decomposição de Cholesky
Definição 4 Dada uma matriz positiva definida A, a sua decomposição de
Cholesky é uma raiz quadrada triangular inferior, A = CC T .

Matrizes Similares (generalização de diagonalização)


Definição 5 A e B são ditas similares se existe uma matriz invertı́vel M
tal que A = M BM −1 .
Teorema 13 Matrizes similares tem os mesmos autovalores (maz autoveto-
res mudam).
Corolário 13.1 Matrizes similares tem o mesmo determinante, o mesmo
número de autovetores independentes e uma é diagonalizável se e só se a
outra também é.

Decomposição em Valores Singulares - SVD


Pode ser entendido com uma generalização do Teorema Espectral para ma-
trizes retangulares.
Teorema 14 Sendo Am×n existem matrizes ortogonais Um×m e Vn×n e uma
matriz diagonal Σm×n com diagonal positiva tais que A = U ΣV T .
Vamos definir U, V e Σ.
• Defina σj = λj , que chamamos de valores singulares de A.
p

• Para j = 1, · · · , r, definimos

Aqj
uj =
σj
• Complete a base ortonormal com ur+1 , · · · , un
• Σ é uma matriz diagonal com Σjj = σj
• E V = Q. Logo

U Σ = [σ1 u1 · · · σr ur 0 · · · 0] = [Aq1 · · · Aqr · · · Aqn ] = AV

12
Exemplo de SVD
 
1 1
Encontrar U, V, Σ para a matriz A = 0
 1 .
1 0
 
2 1
AT A =
1 2
Calculando os
√ autovalores fica λ1 = 3 e λ2 = 1 e então temos os valores
singulares σ1 = 3 e "σ2 = 1. #
√1 √1
2 2
Temos V = Q = √1
, note que a posição dos autovetores q1 e
2
− √12
q2 na matriz
 √Q é de 
acordo com os autovalores.
3 0
E Σ =  0 1 , diagonal com os valores singulares.
0 0
Como U é 3 × 3, vamos calcular u1 , u2 e u3
 2 

6
Aq1  √1
u1 = =

6
σ1

√1
6

0

Aq2  √1 
u2 = = − 2
σ2 √1
2
1
 
3
u3 = e1 − (eT1 u1 )u1 − (eT1 u2 )u2 =  − 31 
− 31
Note
 2que u3 não 1está normalizado, então normalizando u3 a matriz fica
√ 0 √
 √16 − √1 − √31 
U = 6 2 3 
√1 √1 − √1
6 2 3

SVD - Bases dos Espaços Fundamentais


Sendo A = U ΣV T

• v1 , · · · , vr é uma base ortonormal para C(AT ).

13
• u1 , · · · , ur é uma base ortonormal para C(A).

• vr+1 , · · · , vn é uma base ortonormal para N (A).

• ur+1 , · · · , un é uma base ortonormal para N (AT )

SVD - Mı́nimos Quadrados


Queremos calcular minx = |Ax − b|, a solução em mı́nimos quadrados fica:
r

X uT bi
x = vi
i=1
σi

Transformações Lineares
Definição 6 Sejam U e V dois espaços vetoriais. Diremos que T : U → V
é uma transformação linear se

• T (u + v) = T (u) + T (v)

• T (αu) = αT (u)

Teorema 15 Se dim U = n, seja {u1 , · · · , u} uma base de U, então

T (u) = x1 T (u1 ) + · · · + xn T (un )


Onde u = x1 u1 + · · · + xn un

Podemos escrever uma certa

14

Você também pode gostar