Escolar Documentos
Profissional Documentos
Cultura Documentos
fl fl fl
1
2
Métodos Matemáticos
I Primeira parte 15
1 Números complexos 17
1.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2 Representação de números complexos . . . . . . . . . . . . . . . . . . . . . 17
1.3 Operações com números complexos . . . . . . . . . . . . . . . . . . . . . . 18
1.3.1 Soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.2 Produto por um número real . . . . . . . . . . . . . . . . . . . . . . 19
1.3.3 Produto de dois números complexos . . . . . . . . . . . . . . . . . 19
1.3.4 Potência de expoente racional . . . . . . . . . . . . . . . . . . . . . 19
1.3.5 Inverso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.6 Quociente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.7 Radicação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.8 Logaritmo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.9 Fórmula de Moivre . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4 Transcendentes elementares . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2 Séries 23
2.1 Séries numéricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.1 Teoremas de convergência . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.2 Séries de termos positivos reais . . . . . . . . . . . . . . . . . . . . 24
2.1.3 Critérios de convergência de séries de termos positivos . . . . . . . 25
2.1.4 Convergência absoluta e convergência condicional . . . . . . . . . . 26
2.1.5 Séries de termos alternados . . . . . . . . . . . . . . . . . . . . . . 27
2.2 Operações com séries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.1 Soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.2 Produto de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3 Sucessão de funções . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4 Série de funções . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.5 Séries de potências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.5.1 Soma, diferença e produto de séries de potência . . . . . . . . . . . 29
2.5.2 Expansão em série de potências . . . . . . . . . . . . . . . . . . . . 30
5
3 Vetores 33
3.1 Sistema de coordenadas cartesiano . . . . . . . . . . . . . . . . . . . . . . 33
3.1.1 Diferentes notações: . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2 Operações com vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.1 Soma, subtração . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.2 Multiplicação por um escalar . . . . . . . . . . . . . . . . . . . . . 35
3.2.3 Produto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2.4 Produto vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.5 Produto escalar triplo . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2.6 Produto vetorial triplo . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2.7 Produto interno entre vetores complexos . . . . . . . . . . . . . . . 37
3.3 Campos vetoriais e escalares . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3.1 Definição de campo vetorial . . . . . . . . . . . . . . . . . . . . . . 38
3.3.2 Definição de campo escalar . . . . . . . . . . . . . . . . . . . . . . 38
3.3.3 Operador Nabla ∇ . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3.4 Operador laplaciano ∆ . . . . . . . . . . . . . . . . . . . . . . . . 41
4 Notação indicial 43
4.1 Notação clássica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2 Notação indicial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2.2 Convenção soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2.3 Notação de diferenciação . . . . . . . . . . . . . . . . . . . . . . . 46
4.2.4 Delta de Kronecker δij . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.2.5 Operador alternante ou alternador εijk . . . . . . . . . . . . . . . . 47
4.2.6 Aplicações do tensor εijk . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2.7 Relação entre δij e εklm . . . . . . . . . . . . . . . . . . . . . . . . 48
4.3 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.4 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5 Vetores Euclidianos 51
5.1 Norma de um vetor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.1.1 Algumas definições para a norma . . . . . . . . . . . . . . . . . . . 53
5.2 Obtenção de uma base ortogonal . . . . . . . . . . . . . . . . . . . . . . . 54
5.2.1 Método de ortogonalização de Gram-Schmidt . . . . . . . . . . . . 54
6
7 Matrizes 67
7.1 Notação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
7.2 Definições e propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . 67
7.3 Norma de matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
7.4 Determinante de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 72
7.5 Cálculo do determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
7.6 Autovalores e autovetores de uma matriz . . . . . . . . . . . . . . . . . . . 73
7.7 Posto de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
7.8 Número de condição espectral . . . . . . . . . . . . . . . . . . . . . . . . . 75
7.9 Produto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
7.10 Subespaços fundamentais de uma matriz . . . . . . . . . . . . . . . . . . 76
7
II Segunda parte 97
9 Autovalores e autovetores de uma matriz 99
9.1 Propriedades, teoremas, definições . . . . . . . . . . . . . . . . . . . . . . 101
9.2 Número de condição espectral de uma matriz . . . . . . . . . . . . . . . . 104
9.3 Teorema do cı́rculo de Gerschgorin . . . . . . . . . . . . . . . . . . . . . . 104
9.4 Translação de autovalores . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
9.5 Problema de autovalores e autovetores
generalizado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
9.6 Cálculo de autovalores e autovetores . . . . . . . . . . . . . . . . . . . . . 107
9.6.1 Algoritmo QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
9.6.2 Método da potência . . . . . . . . . . . . . . . . . . . . . . . . . . 108
9.7 Condicionamento do autosistema [A]{x} = λ{x} . . . . . . . . . . . . . . . 111
9.7.1 Condicionamento dos autovalores . . . . . . . . . . . . . . . . . . . 111
9.7.2 Condicionamento dos autovetores . . . . . . . . . . . . . . . . . . . 112
9.8 Forma quadrática de uma matriz [A]N ×N . . . . . . . . . . . . . . . . . . 112
8
12.2.2 Integradores implı́citos (β1 6= 0) . . . . . . . . . . . . . . . . . . . 141
12.3 Métodos de 2 passos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
12.4 Runge Kutta explı́cito de quarta ordem . . . . . . . . . . . . . . . . . . 141
12.4.1 Generalização para sistemas de equações diferenciais . . . . . . . 143
12.5 Famı́lia de integradores trapezoidais . . . . . . . . . . . . . . . . . . . . 143
12.5.1 Integradores tı́picos . . . . . . . . . . . . . . . . . . . . . . . . . 144
12.5.2 Algoritmos na forma {ẋ} . . . . . . . . . . . . . . . . . . . . . . 144
12.5.3 Algoritmos na forma {x}N +1 . . . . . . . . . . . . . . . . . . . . 145
12.6 Caracterı́sticas relevantes de um integrador . . . . . . . . . . . . . . . . 146
12.6.1 Análise de estabilidade do algoritmo: . . . . . . . . . . . . . . . . 146
12.7 Análise dos integradores da famı́lia trapezoidal . . . . . . . . . . . . . . 147
12.8 Escolha do integrador . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
9
10
Lista de Figuras
4.1 Domı́nio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
11
12
Prefácio
13
cionais. Atualmente é difı́cil conceber qualquer atividade cientı́fica aplicada ou tecnológica
sem o uso da informática. Esta realidade conferiu enorme importância aos métodos aprox-
imados de cálculo numérico, e portanto o conhecimento destas ferramentas é parte impre-
scindı́vel na formação de qualquer cientista ou tecnólogo da atualidade.
14
Parte I
Primeira parte
15
Capı́tulo 1
Números complexos
1.1 Introdução
Uma forma simples de classificar as caracterı́sticas dos números com os quais trabalhamos
é dividi-los em números racionais, irracionais e complexos. O conjunto dos dois primeiros
constitui o universo dos números reais, que podem ser representados graficamente num
eixo (espaço R1). Os números complexos são uma generalização dos números reais para
o plano (espaço R2).
No esquema a seguir é apresentada esta classificação dos números reais, assim como
algumas das suas caracterı́sticas.
Ordenados
Números racionais Densos
Números reais
Representáveis por uma fração
Números irracionais → Não representáveis por uma fração
17
Qualquer número complexo c pode ser representado de diferentes formas, tais como:
√
ρ= a2 + b 2 (Módulo)
b
ϕ = arctg (Fase ou argumento)
a
Propriedades:
• Existência
• Unicidade
• Associativa
• Comutativa
• Existência do neutro
18
1.3.2 Produto por um número real
r.(a + ib) = ra + irb
Propriedades:
• Existência
• Unicidade
• Associativa
• Distributiva
• Existência do neutro
Propriedades:
• Existência
• Unicidade
• Associativa
• Distributiva
• Existência do neutro
Z 0 = 1 ∀ Z 6= 0
Z1 = Z ∀ Z
Z n = Z.Z.....Z
| {z }
n
n n
(ρ∠ϕ) = ρ ∠nϕ
1
Demonstrar a equivalência entre as duas expressões como exercı́cio
19
1.3.5 Inverso
Seja o complexo c = a + ib
Define-se o inverso de c:
1 1 a − ib c
c−1 = = = 2 2
= 2
c a + ib a +b |c|
a2 +b2
Com esta definição se verifica que c. 1c = (a + ib). (a−ib)
a2 +b2
= a2 +b2
=1
−1 −1
Pela definição de potência: (ρ∠ϕ) = ρ ∠ − ϕ
1.3.6 Quociente
Multiplicação pelo inverso.
1.3.7 Radicação
p p 1
n
ρ∠ϕ = n ρ∠(ϕ + 2kπ) = (ρ∠(ϕ + 2kπ))1/n = (ρ)1/n ∠ (ϕ + 2kπ)
n
√ ϕ 2π
= ρ∠
n
+k
n n
1.3.8 Logaritmo
20
1.4 Transcendentes elementares
eiz + e−iz
cos z =
2
eiz = cos z + i sin z eiz − e−iz
=⇒ sin z =
e−iz = cos z − i sin z
2i
1 eiz − e−iz
tan z =
i eiz + e−iz
Definições:
ez + e−z
cosh z =
2
ez − e−z
sinh z =
2
ez − e−z
tanh z = z
e + e−z
Exercı́cios:
1. Demonstrar que:
a. sin(a ± b)
b. cos(a ± b)
c. tan(a ± b)
d. sin(a) ± sin(b)
e. cos(a) ± cos(b)
21
f. tan(a) ± tan(b)
g. sin2 x + cos2 x
h. cos2 x − sin2 x
i. sinh2 x + cosh2 x
j. cosh2 x − sinh2 x
k. sinh(x ± y)
l. cosh(x ± y)
22
Capı́tulo 2
Séries
S1 = a1 ; S2 = a1 + a2 ; S3 = a1 + a2 + a3 ; · · · ; Sn = a1 + a2 + a3 + · · · + an ; · · ·
1
Demonstração por indução finita:
1
−1
- Para n = 1 =⇒ S1 = qq−1 =1
q 2 −1 (q+1)(q−1)
Observação - também poderı́amos começar demonstrando para n = 2: S2 = q−1 = q−1 = q+1
q N −1
- Admitimos para n = N qualquer: SN = 1 + q + .... + q N −1 = q−1
- Finalmente demonstramos que se vale para N , também vale para N + 1:
N N N +1
−1 −q N q N +1 −1
SN +1 = 1 + q + .... + q N −1 + q N = SN + q N = qq−1 + q N = q −1+q
q−1 = q−1
Portanto a igualdade está demonstrada.
23
Para o exemplo anterior;
1
|q| < 1 ⇒ |q n | → 0 ⇒ Sn → 1−q (Converge)
n
|q| > 1 ⇒ |q | → ∞ ⇒ Sn → ∞ (Diverge)
q=1 ⇒ Sn = n ⇒ lim Sn = ∞ (Diverge)
n→∞
n
q −1
−1 ⇒ − + 1 − ...
Sn =
q = Sn = 1 1
q−1
|q| = 1 S n=2N = 0
⇒ (Oscila)
S n=2N +1 = 1
24
2.1.3 Critérios de convergência de séries de termos positivos
1. Comparação
(a) Se
∞
P
an converge de soma A
n=1
b n ≤ an ∀ n
∞
P ∞
P ∞
P
Então bn converge de soma B <= A , pois bn ≤ an ≤ A
n=1 n=1 n=1
(b) Se
∞
P
an diverge
n=1
b n ≥ an ∀ n
∞
P
Então bn diverge. (Se bn convergisse, an convergeria pelo teorema anterior).
n=1
∞ ∞
an
P P
(c) Se 0 < h < bn
< k, então an e bn são da mesma classe.
n=1 n=1
Demonstração:
an < k.bn ⇒ Se bn converge, an também converge por 1.a.
h.bn < an ⇒ Se bn diverge, an também diverge por 1.b.
∞ ∞
(d) Generalização: Se lim abnn = l > 0 finito, então
P P
an e bn são da mesma
n→∞ n=1 n=1
classe.
Exemplos de séries que podem ser utilizadas como referências para classificar outras
séries por comparação:
∞
P n n 2
(a) ( n+1 ) é Convergente
n=1
∞
n
P
(b) 2n
é Convergente
n=1
∞
1
P
(c) n!
é Convergente de soma ”e”
n=1
∞
1
P
(d) 2n
é Convergente de soma 2
n=1
2. Critério de D’Alembert
P∞
<1∀n>N ⇒
an converge
Se an+1
an
n=1
P∞
≥1∀n>N ⇒ an diverge
n=1
25
Ou:
λ < 1 Converge
lim an+1 =λ⇒ λ > 1 Diverge
n→∞ an
λ = 1 Não se sabe
3. Critério de Cauchy:
P∞
<1∀n>N ⇒
an converge
√ n=1
Se ann
∞
P
≥ 1 para infinitos valores de n ⇒
an diverge
n=1
Ou:
λ < 1 Converge
√
lim n an = λ ⇒ λ > 1 Diverge
n→∞
λ = 1 Não se sabe
4. Critério de Rabe
P∞
>1∀n>N ⇒
an converge
an n=1
n(1 − an−1 ) P∞
≤1∀n>N ⇒
an diverge
n=1
Ou:
λ > 1 Converge
an
lim n(1 − an−1 )=λ⇒ λ < 1 Diverge
n→∞
λ = 1 Não se sabe
26
2.1.5 Séries de termos alternados
∞
(−1)n−1 an , an todos com o mesmo sinal.
P
Definição: Sn =
n=1
27
2.3 Sucessão de funções
Seqüência de funções com domı́nio comum.
Definição - limite de uma sucessão de funções:
lim fn (x) = f (x) se dado ε > 0 arbitrário, existe N (ε, x)|fn (x) − f (x)| < ε ∀ n >
n→∞
N (ε, x) ; x ∈ [a, b]
Definição - Convergência uniforme: é dito que fn (x) converge uniformemente para
f (x) quando N é função apenas de ε, e não de x:
Propriedades:
28
2.5 Séries de potências
n
ai (x − a)i , com os termos a, ai constantes.
P
São séries da forma Sn (x) =
i=1
Propriedade: As séries de potência são absolutamente convergentes para todo x tal
que |x − a| < ρ.
Definição: ρ é chamado raio de convergência da série de potências.
Teorema de Abel: Se uma série de potências é convergente para um valor x1 tal que x1 −
a > 0, então ela é uniformemente convergente no intervalo (a − (x1 − a), a + (x1 − a)).
Cálculo de ρ:
1
= lim |a|an+1|
|
(2.1)
ρ n→∞ n
1 p
= lim n |an | (2.2)
ρ n→∞
|an+1 | |an+1 | 1
lim ρ = 1 ⇒ lim =
n→∞ |an | n→∞ |an | ρ
A expressão para o cálculo do ρ da equação 2.2 pode ser demonstrada de forma análoga
utilizando o critério de Cauchy.
Observações:
1. Quando o limite não existe, deve ser utilizado o limite superior, lim.
29
2.5.2 Expansão em série de potências
As funções contı́nuas e infinitamente deriváveis podem ser expandidas em séries de potências.
Qualquer reduzida da série é uma aproximação da sua função soma.
Uma forma muito utilizada para se obter a expansão em série de potências é a
série de Taylor:
∞
X f (p) (a)
f (x) = (x − a)p
p=0
p!
Pode ser observado que a aproximação para f (x) é exata em x = a, para qualquer
ordem da reduzida.
A série de McLaurin é um caso particular da série de Taylor, quando a = 0.
∞
X f (p) (0)
f (x) = xp
p=0
p!
Observações:
• A expansão em série de Taylor ou McLaurin pode ser realizada para várias variáveis
simultaneamente, utilizando derivadas parciais.
30
Exercı́cios:
31
32
Capı́tulo 3
Vetores
Bibliografia sugerida para os capı́tulos 3 e 4: [10] Wai-Fah Chen & Atef F. Saleeb ”Con-
stitutive Equation for Engineering Materials, Vol. 1: Elasticity and Modeling”. Jhon
Wiley, 1982, Cap. 1.
33
3.1.1 Diferentes notações:
→
− → − →− →
− →
−
( i , j , k ) = (→
−
e1 , →
−
e2 , →
−
e3 ) V1 = v1 i = v1 →
−
e1
→
− →
− →
−
||→
−
ei || = 1 (comprimento unitário) V2 = v2 j = v2 e2
→
− →
−
(i = 1, 2, 3) V3 = v3 k = v3 →
−
e3
→
− →
− → − → −
V = V1 + V2 + V3
→
− →
− →
− →
− →
−
V = v1 →
−
e1 + v2 → −
e2 + v3 →
−
e3 ∼ V = v1 i + v2 j + v3 k
v1 →
−
{v} = v2 = [v1 , v2 , v3 ] V = {v} ∈ E 3 , vi ∈ E 1 (i = 1, 2, 3)
v3
34
3.2.2 Multiplicação por um escalar
→
− →
−
B = αA, bi = αai i = (1, 2, 3)
→
− → − →
− →
− →
− →
− →
− →
−
A • B = (a1 i + a2 j + a3 k ) • (b1 i + b2 j + b3 k )
→
− → − →
− → − →
− → −
= a1 b 1 ( i • i ) + a2 b 2 ( j • j ) + a3 b 3 ( k • k )
→
− → − − →
→ − →
− → −
+ a1 b 2 ( i • j ) + a1 b 3 ( i • k ) + a2 b 1 ( j • i )
− →
→ − →
− → − →
− → −
+ a2 b 3 ( j • k ) + a3 b 1 ( k • i ) + a3 b 2 ( k • j )
35
s
N p→
− →
−
~ =
Portanto, A
P
a2i = A•A
i=1
N
→
− − → X
V • W = ({v}∗ )T {w} = v i wi
i=1
→
− →
− → −
C = A×B
→
− →
− →
−
|| C || = || A ||.|| B || sin θ
→
− →
− →−
C ⊥ ao plano definido por A e B
→
− → − → −
A , B e C formam um triedro direto
(destrógiro)
→
− → − →
− → −
Propriedade: A × B = −( B × A )
3 − →
→ − →
−
Negativa - ⇒ (1 3 2), (3 2 1), (2 1 3) ⇒ i × k = − j , etc...
1 2
36
→
− →
− →
−
→
− i j k →
− →
− →
−
C = a1 a2 a3 = i (a2 b3 − a3 b2 ) + j (a3 b1 − a1 b3 ) + k (a1 b2 − a2 b1 )
b1 b2 b3
ou
→
−
e →
−
e →
−
e
1 2 3
→
−
C = a1 a2 a3 =→
−
e1 (a2 b3 − a3 b2 ) + →
−
e2 (a3 b1 − a1 b3 ) + →
−
e3 (a1 b2 − a2 b1 )
b1 b2 b3
→
− →
− → −
|| C || =⇒área do paralelogramo definido por A e B .
→
− →
− → −
C é perpendicular ao plano formado por A e B .
→
− →
− →
− →
− →
− → −
área = || A ||.H H = || B || sin θ =⇒ área = || A ||.|| B || sin θ = A × B
37
→
− → − →
− →
− →
− → − →
− →
−
6 0 . Se < V , V > = 0 ⇒ V = 0 .
2. < V , V > > 0 para V =
→
− −
→ → − →
− → − →
− − →
3. < α V + β W , U >= α < U , V > + β < U , W >
→
− → − −
→ →
− → − −
→ → −
< U , α V + β W >= α < V , U > + β < W , U >
Exemplos:
1) Produto escalar entre vetores reais,
N
→
− − → X −
→ → −
V • W = {v}T {w} = vi wi = {w}T {v} = W • V
i=1
N N
→
− − → X X −
→ → −
V • W = {v}T {w} = v i wi = wi vi = {w}T {v} = W • V
i=1 i=1
38
Gradiente de uma função escalar
O operador 5 é aplicado a uma função escalar, resultando num vetor: Portanto transforma
campos escalares em campos vetoriais.
∂() →
− ∂() →
− ∂() →
− ∂() →
− ∂() →
− ∂() →
−
∇() = i + j + k = e1 + e2 + e3
∂x ∂y ∂z ∂x1 ∂x2 ∂x3
Demonstração:
→
− →
− →
−
Seja → −r = x i + y j + z k , o vetor posição de um ponto P(x,y,z), pertencente à
superfı́cie definida por Φ(x, y, z) = ρ.
→
− →
− →
−
d→
−r = dx i + dy j + dz k é um vetor tangente à superfı́cie no ponto P(x,y,z).
39
Figura 3.7: Curva de equação φ(x, y) = ρ.
−→
d→
−
r = lim ∆S
Q−→P
d→
−
r é um vetor tangente à curva φ(x, y) = ρ
d→
−
r é um vetor tangente à superfı́cie Φ(x, y, z) = ρ.
Mas ∇Φ(x, y, z)•d→
−r = ∂Φ
∂x
dx+ ∂Φ
∂y
dy+ ∂Φ∂z
dz = dΦ = 0, pois Φ(x, y, z) = ρ = constante.
→
−
Logo ∇Φ é normal a d r .
Divergente de um vetor
→
− →
− →
− →
−
V (x, y, z) = v1 i + v2 j + v3 k
→
− →
− ∂v1 ∂v2 ∂v3
DIV V = ∇ • V = + + (3.2)
∂x ∂y ∂z
→
− ∂() →
− ∂() →
− ∂() →
− →
− →
− →
−
∇• V =( i + j + k ) • (v1 i + v2 j + v3 k )
∂x ∂y ∂z
∂v1 →− → − ∂v 2 →
− → − ∂v3 →
− → − ∂v2 →
− → − ∂v3 →− → −
= ( i • i )+ (j • j )+ (k • k)+ ( i • j )+ (i • k)
∂x ∂y ∂z ∂x ∂x
∂v1 →− → − ∂v3 →− → − ∂v1 →− → − ∂v2 →
− → −
+ (j • i )+ (j • k)+ (k • i )+ (k • j )
∂y ∂y ∂z ∂z
→
− → − → −
Lembrando que os produtos escalares de i , j , e k por eles mesmos é igual à unidade,
e que os produtos escalares entre dois deles é igual a zero (ver equações 3.1), chega-se na
equação (3.2).
40
Rotacional de um campo vetorial
→
− →
− →
−
i j k
→
− →
− ∂() ∂() ∂()
ROT V = ∇ × V = ∂x1 ∂x2 ∂x3
v1 v2 v3
→
− ∂v3 ∂v2 →
− ∂v1 ∂v3 →
− ∂v2 ∂v1
= i( − )+ j ( − )+ k( − )
∂x2 ∂x3 ∂x3 ∂x1 ∂x1 ∂x2
→
−
e1 →
−
e2 →
−
e3
→
− ∂v3 ∂v2 ∂v1 ∂v3 ∂v2 ∂v1
∇× V = ∂()
∂x1
∂()
∂x2
∂()
∂x3
=→
−
e1 ( − )+→
−
e2 ( − )+→
−
e3 ( − )
∂x2 ∂x3 ∂x3 ∂x1 ∂x1 ∂x2
v1 v2 v3
∂ 2 () ∂ 2 () ∂ 2 ()
2
∆() = ∇ • ∇() = ∇ () = + +
∂x2 ∂y 2 ∂z 2
Laplaciano de uma função escalar φ(x, y, z):
2 ∂ 2φ ∂ 2φ ∂ 2φ
∆φ(x, y, z) = ∇ φ(x, y, z) = ∇ • ∇φ = + + 2
∂x2 ∂y 2 ∂z
Transforma campos escalares em campos escalares.
ROT GRAD φ = ∇ × ∇φ = 0
→
− →
−
DIV ROT V = ∇ • (∇ × V ) = 0
∇(φ.ψ) = φ∇ψ + ψ∇φ
→
− →
− →
−
∇ • (φ V ) = φ(∇ • V ) + V • ∇φ
41
42
Capı́tulo 4
Notação indicial
a1
→
−
A = a1 →
−
e1 + a2 →
−
e 2 + a3 →
−
e3 ou [a1 , a2 , a3 ] ou a2
a3
b1
→
−
B = b1 →
−
e1 + b2 →
−
e2 + b3 →
−
e3 ou [b1 , b2 , b3 ] ou b2
b3
43
4.1 Notação clássica
3
∂Φ →− ∂Φ →− ∂Φ →−
X ∂Φ
→
−
OΦ(x1 , x2 , x3 ) = e1 + e2 + e3 = ei
∂x1 ∂x2 ∂x3 i=1
∂xi
ou
∂Φ
∂Φ ∂Φ ∂Φ ∂x1
∂Φ
OΦ(x1 , x2 , x3 ) = ( , , ) ou ∂x2
∂x1 ∂x2 ∂x3 ∂Φ
∂x3
∂()
3 ∂x1
X ∂() →
− ∂()
O() = ei = ∂x
i=1
∂xi ∂()2
∂x3
3
→
− →
− X ∂ai ∂a1 ∂a2 ∂a3
DIV A = O • A = = + +
i=1
∂xi ∂x1 ∂x2 ∂x3
→
−
e1 →
−
e2 → −
e3
→
− →
− ∂() ∂() ∂() →
− ∂a3 ∂a2 →
− ∂a1 ∂a3 →
− ∂a2 ∂a1
ROT A = O × A = ∂x ∂x2 ∂x3
= e1 ( − ) + e 2 ( − ) + e3 ( − )
1 ∂x2 ∂x3 ∂x3 ∂x1 ∂x1 ∂x2
a1 a2 a3
3
2
X ∂ 2φ ∂ 2φ ∂ 2φ ∂ 2φ
5 φ = 5 • 5φ = = + +
i=1
∂xi ∂xi ∂x21 ∂x22 ∂x23
44
→
− →
−
B = αA =⇒ [b1 , b2 , b3 ] = [αa1 , αa2 , αa3 ]
↓ ↓
bj = αaj
%k −→j
a111 a121 a131
aijk =⇒ i ↓ a211 a221 a231 (i, j, k) variam de 1 a 3.
a311 a321 a331
Produto escalar:
3
→
− →
− X →
− → −
A•B = ai b i =⇒ A • B = ai b i
i=1
Gradiente:
3
X ∂Φ → − ∂Φ →− ∂Φ →−
OΦ = ei =⇒ ei = ej
i=1
∂x i ∂xi ∂xj
45
Sistema de equações:
i ⇒ ı́ndice livre.
aij xj = bi =⇒ =⇒
j⇒ ı́ndice mudo.
i = 1 a11 x1 + a12 x2 + a13 x3 = b1
=⇒ {ai1 x1 + ai2 x2 + ai3 x3 = bi } =⇒ i = 2 a21 x1 + a22 x2 + a23 x3 = b2 =⇒
i = 3 a 31 x1 +
a32 x2 + a33 x3 = b3
a11 a12 a13 x1 b1
=⇒ a21 a22 a23 x2 = b2
a31 a32 a33 x3 b3
Exemplos:
∂φ →− = φ,i →
−
∇φ =
e
∂xi i
ei (Notação indicial como soma vetorial)
∂φ
Gradiente de φ: ∇φ = ∂xi
= φ,i (Notaçé indicial como componente do vetor gradiente)
∇φ = φ, i
→
−
Divergente de A :
→
− ∂a1 ∂a2 ∂a3 ∂ai
∇• A =( + + )= = ai,i = (a1,1 + a2,2 + a3,3 )
∂x1 ∂x2 ∂x3 ∂xi
Notação indicial
→
−
∇ • A = ai,i
Laplaciano de φ:
∂ 2φ ∂ 2φ ∂ 2φ ∂ 2φ
∇2 φ = ∇ • ∇φ = + + = = φ,ii = φ,11 + φ,22 + φ,33
∂x21 ∂x22 ∂x23 ∂xi ∂xi
(Notação indicial)
∇2 φ = φ,ii
46
δij é também um operador matricial (operador substituição).
δij vj = vi (o operador δij aplicado em um vetor vj substitui o ı́ndice repetido do
vetor pelo ı́ndice livre).
δij vi = vj
δij vj = δi1 v1 + δi2 v2 + δi3 v3 = vi
δij δij = δii ou δjj = δ11 + δ22 + δ33 = 3
δij aij = aii ou ajj = (a11 + a22 + a33 )
→
−ei • →−
ej = δij
a1 a2 a3
→
− →
− → −
A • (B × C ) = b1 b2 b3 = ai →
−
ei • εjkl →
−
ej bk cl = εjkl ai bk cl (→
−
e •→ −
e ) = δij εjkl ai bk cl = εijk ai bj ck
| i {z j}
c1 c2 c3
| {z }
δij εikl
= a1 b2 c3 + a2 b3 c1 + a3 b1 c2 − (a1 b3 c2 + a2 b1 c3 + a3 b2 c1 ) + 0 + 0 + · · · · · · + 0 + 0
47
4.2.7 Relação entre δij e εklm
εijk εist = δjs δkt − δjt δks
4.3 Exercı́cios
Usando notação indicial,
d i = at b i c t − as b s c i
d i = bi (at ct ) − ci (as bs )
↓ ↓ ↓ ↓ ↓
→
− →
− →− → − →
− →− → −
D = B (A • C ) − C (A • B)
3. mostrar que εijk εkji = −6
εkji = −εijk ⇒ εijk εkji = −εijk εijk = −(δjj δkk − δjk δkj )
| {z }
δjj
4. mostrar que 5 × 5φ = 0
∂2φ
∂φ
5 × 5φ = εijk ∂x∂ j ∂x k
= ε ijk ∂x j xk
εijk φ,jk = 0
εijk φ,jk = ε123 φ,23 + ε132 φ,32 + ε213 φ,13 + ε231 φ,31 + ε312 φ,12 + ε321 φ,21 = 0
| {z } | {z } | {z }
0 0 0
→
− →
− →
−
5. Mostrar indicialmente que 5 × (5 × A ) = 5(5 • A ) − 52 A
→
−
A = ai
48
→
−
52 A = 52 a1 → −
e1 + 52 a2 →
−
e2 + 52 a3 →
−
e3
→
−
52 A = 52 ai = ai,jj
→
−
Definindo 5 × A = bi = εijk ak,j ⇒
→
− →
−
5 × (5 × A ) = 5 × B = εlmi bi,m = εlmi εijk ak,jm = εilm εijk ak,,jm = (δlj δmk −
δlk δmj )ak,jm
→
−
5 × (5 × A ) = (δlj δmk ak,jm − δlk δmj ak,jm ) = δlj am,jm − δlk ak,mm = am,lm − al,mm
| {z } | {z } | {z } | {z }
am,jm ak,mm am,lm al,mm
→
− )
am,lm = 5(am,m ) = 5(5 • A ) →
− →
−
2 2→
− ⇒ am,lm − al,mm = 5(5 • A ) − 52 A
al,mm = 5 al = 5 A
4.4 Problemas
Mostrar (indicialmente) que:
→
− → −
a) εijk Aj Ak = A × A = 0
b) εijk δij = 0
→
−
c) 5 • (5 × A ) = 0
Q1 = εijk εijm σkm P1 = σii
d) Dada a matriz simétrica σij (σij = σji ) e
Q2 = εijk εimn σjm σkn P2 = σij σji
Q1 = 2P1
mostrar que,
Q2 = P12 − P2
ai
e) Dado bi = √
aj aj
, mostrar que bi é um vetor unitário.
49
50
Capı́tulo 5
Vetores Euclidianos
→
−
Um vetor V pode ser especificado por suas compo-
nentes,
→
− →
− →
− →
−
V = v1 →
−
e 1 + v2 →
−
e 2 + v3 →
−
e 3 ou v1 i + v2 j + v3 k
v1
→
−
ou simplesmente V = v2 = {V }
v3
Onde
1 0 0 Figura 5.1: Base euclidiana.
→
−
e1= 0 , →
−
e2= 1 , →
−
e3= 0
0 0 1
→
− →
−
Diz-se que V ∈ E 3 (ou V ∈ C 3 se as componentes forem complexas).
Nota: Pode-se generalizar o espaço E 3 para um espaço N-dimensional E N . Neste caso,
{V } ∈ E N pode ser definido por suas N componentes,
v1
v2
{V } = ..
.
v
N
51
α1 {x}1 + α2 {x}2 + . . . + αN {x}N = {0}
admitir somente a solução trivial, α1 = α2 = · · · = αN = 0
α1
α2
{V } = α1 {b}1 + α2 {b}2 + . . . + αN {b}N ou {V } = [{b}1 {b}2 . . . {b}N ] ..
.
α
N
Definição - Base ortogonal: ({b}1 , {b}2 , . . . , {b}N ) é uma base ortogonal se,
52
{b}Ti {b}j = 0 quando i 6= j
6= 0 quando i = j
Definição: Base ortonormal: ({b}1 , {b}2 , . . . , {b}N ) é uma base ortonormal se,
T 0 quando i 6= j
{b}i {b}j = δij =
1 quando i = j
δij → delta de Kronecker.
Obs.: Muitas vezes a base ortonormal é chamada ortogonal.
N
X
k{V }k1 = |vi |
i=1
53
Definição: Vetor unitário ⇒ k{V }k? = 1
Portanto o vetor unitário depende da norma utilizada.
Algoritmo básico:
1. i=1
2. Normalizar {p}1 :
v
u N
uX
α11 = k{p}1 k2 = t p2j (5.2)
j=1
{p}1
{u}1 = (5.3)
α11
Das equações 5.1, 5.2 e 5.3,
3. i = 2
54
Pré-multiplicando a equação 5.4 por {u}T1 ,
4. Normalização de {p}2 ,
{p}2
{u}2 = (5.9)
α22
5. i = 3
da ortogonalidade,
{u}T1 × equação 5.11⇒ {u}T1 {p}3 = {u}T1 {b}3 − α13 {u}T1 {u}1 − α23 {u}T1 {u}2 = 0
| {z } | {z }
1 0
{u}T2 × equação 5.11⇒ {u}T2 {p}3 = {u}T2 {b}3 − α13 {u}T2 {u}1 − α23 {u}T2 {u}2 = 0
| {z } | {z }
0 1
55
6. Normalização de {p}3
i−1
X
{p}i = {b}i − αji {u}j (5.18)
j=1
i
X
{b}i = α1i {u}1 + α2i {u}2 + · · · + αii {u}i = αji {u}j (5.22)
j=1
8. Repetir até i = M , M ≤ N.
Da equação 5.22 pode-se ver que,
α11 α12 α13 ··· α1M
0 α22 α23 ··· α2M
[{b}1 {b}2 · · · {b}M ] = [{u}1 {u}2 · · · {u}M ]
0 0 α33 ··· α3M
.. .. .. .. ..
. . . . .
0 0 0 ··· αM M
[R]
− − −
N B = N U − − M
[0] −
| {z } | {z }| {z }
M M M
T
[U ] [U ] = [I] (as colunas de [U ] são ortogonais entre si)
M ×N N ×M M ×M
Se M = N ⇒ [U ]T [U ] = [U ][U ]T = [I] (as linhas também são ortogonais entre si)
56
Algoritmo Gram-Schmidt modificado:
Do ponto de vista numérico é conveniente modificar ligeiramente o algoritmo básico. O
objetivo é minimizar os erros de truncamento.
1. i = 1
{p}1 = {b}1
v
u N
uX
α11 = k{p}1 k2 = t p2j
j=1
{p}1
{u}1 =
α11
2. i = 2
3. i = 3
57
4. Analogamente para i qualquer:
58
Capı́tulo 6
a1
→
−
A → (a1 , a2 , a3 ), → {a} = a2
a3
→
− b1
B → (b1 , b2 , b3 ), → {b} = b2
b3
→
− →
−
achar a projeção de B em A .
59
s
→
− p 3
a2i
P
A = {a}T {a} =
−
→ −
→ E i=1
A B
cos θ = −
→ • −
→ s
kAk E
kB k E →
− p 3
b2i
P
B = {b}T {b} =
E i=1
→
− →
− →
−
Seja P a projeção de B em A
→
− →
−
→
− A α →
− →
− →
− A {b}T {a}
P =α →
− =p A, α= P =B• →
− =
A {a}T {a} E
A ({a}T {a})1/2
E E
−
→ −
→ →
−
−
→
A
=√ A
⇒ Vetor unitário na direção de A .
kAk E
{a}T {a}
→
−
→
− {b}T {a} A {a}T {b} →
−
∴P = = A
({a}T {a})1/2 ({a}T {a})1/2 {a}T {a}
{a}{a}T
= [P] ⇒ {p} = [P](N ×N ) {b}
{a}T {a} (N ×N )
{a}{a}T
Definição: A matriz [P] = {a}T {a}
é chamada matriz projetora ou matriz projeção.
60
Ela projeta um vetor {b} qualquer na direção de {a}.
Observação: um caso particular importante é o dos vetores {b} que produzem uma
projeção nula.
{a}{a}T
[P]{b} = {0} ⇒ T
{b} = {0} ⇒ {a}T {b} = {0}
{a} {a}
* qualquer vetor {b}⊥{a} produz um vetor nulo quando projetado em {a}.
r1 v11 v12
r2 = x1 v21 + x2 v22
r3 v31 v32
r1 v11 v12
x
1
r2 = v21 v22
x2
r3 v31 v32
{r} = [A]{x}
61
Seja um ponto O de referência no plano S2 . Seja um ponto A(a1 , a2 , a3 ) definido pelo
→
−
vetor R (ou vice-versa), pertencente ao plano S2 . Seja um ponto B(b1 , b2 , b3 ) definido
→
−
pelo vetor B (ou vice-versa).
(O ponto O é a origem
do sistema de referência)
→
− −−→
B = OB
→
− −→ Figura 6.2: Distância de um ponto a um plano.
R = OA
→
− → −
∴ AB = R − B
E
→
− → − →
− →
− →
− →
− →
− → −
Solução: R − B é mı́nimo quando ( R − B ) ⊥ R , isto é ( R − B ) · R = 0 =
E
→
− → − → −
R · ( R − B ).
→
− → − →
− → − 2
Mı́nimo
−
→
R − B = Mı́nimo
−
→
R − B
R R
→
− →
− 2 →
− → − →
− → − →
− → − → − →
− → − → −
R−B = (R − B) · (R − B) = (R − B) · R − (R − B) · B
| {z }
0
→
− → − 2 →
− → − → −
d2 = min R − B = min|( R − B ) · B |
E
62
→
−
Para determinar o vetor R :
→
− →
− → − → −
R = [A]{x} ⇒ R · ( R − B ) = 0 pode ser escrito:
([A]{x})T ([A]{x} − {b}) = {x}T [A]T ([A]{x} − {b}) = 0
{x}T [A]T [A]{x} − {x}T [A]T {b} = 0
{x}T ([A]T [A]{x} − [A]T {b}) = 0 ⇒ [A]T [A]{x} = [A]T {b}
| {z }
{0}
→
−
O vetor R que produz a distância entre B e S2 é obtido de [A]T [A]{x} = [A]T {b}:
→
−
{ R } = [A]{x} = A(AT A)−1 AT {b}
| {z }
(3×3)
• simétrica.
• Idempotente: [P]2 = A(AT A)−1 AT A(AT A)−1 AT = A(AT A)−1 AT = [P]
| {z }
[I]
63
v 11
v 12
· · ·
v 1M
v v · · · v
21 22 2M
[{V }1 {V }2 · · · {V }M ] = = [A]
.. .. . . ..
.
.
.
.
(N ×M )
v v ··· v
N1 N2 NM
O conjunto
de M vetores LI define um plano SM , M -dimensional, SM ⊂ E N .
SM = {R} ∈ E N | {R} = x1 {V }1 + x2 {V }2 + · · · + xM {V }M , (x1 , . . . , xM ) escalares
x1
x2
Na forma matricial, {R} = [{V }1 {V }2 · · · {V }M ] . = [A] {x}
(N ×1) ..
(N ×M )(M ×1)
x
N
b1
b2
Para qualquer vetor {B} = .. , {B} ∈ E N , existe um vetor {p} ∈ SM tal que
.
b
N
k{B} − {p}k2 é mı́nimo.
Nesse caso, ({B} − {p}) é ortogonal a {p}, isto é ({B} − {p}) • {p} = 0.
O vetor {p} é obtido de {p} = [A(AT A)−1 AT ] {B}
(N ×1) | {z }(N ×1)
[P ]
(N ×N )
Solução:
1 0 1 0 0
1 0 1 0 0
{p} = [A(AT A)−1 AT ]{b} ⇒ {p} = 0 1 {b} = 0 1 0 {b}
0 1 0 1 0
0 0 0 0 0
| {z }
[P ]
1 0 0 −5 −5
{p} = 0 1 0 5 = 5
0 0 0 5 0
−5 −5 0
d = k{B} − {p}kE = 5 − 5 = 0 =5
5 0 5
64
Observação:
−1
√ 1 0 √
√ 1 0 √
1 0 0
1 1 0 1 1 0
[P ] = 22 1 1 22 2
2
1 1 2
2
= 0 1 0
0 1 0 0 1 0
0 0 0 0 0 0 0
−5
{p} = [P ]{b} = 5
0
1 0 √ 1 √ 0
Resultado obvio, já que os pares de vetores 0 ; 1 e 2 0 ; 22
1
2
0 0 0 0
definem o mesmo plano.
Exercı́cios:
1
→
−
−2
1. Achar a matriz projetora do vetor { V } =
3
−4
5
→
− →
−
5
Achar a projeção do vetor { B } = na direção de { V }.
5
5
1
2. Dado o plano S que passa por O(2, 1, 0) e definido pelos vetores →
−
e1 = 0 e
1
0
→
−
e2= 0 , e o ponto P (−5, 1, 1), achar:
1
−→
(a) Projeção do vetor OP sobre S.
(b) Distância de P a S.
65
66
Capı́tulo 7
Matrizes
7.1 Notação
a11 a12 ··· a1N
a21 a22 ··· a2N
[A] = [aij ] =
.. .. .. ..
. . . .
aM 1 aM 2 · · · aM N
(M ×N )
Generalização:
67
Definição - Matriz identidade:
1 0 ··· 0
0 1 ··· 0
[I] =
.... . . ..
(N ×N ) . . . .
0 0 ··· 1
[A] = [A]T
68
Definição - Matriz triangular:
− −− −−
Superior → [U ] = − −− uij = 0 se i > j
(N ×N ) 0 −
− 0
Inferior → [L] = −− − lij = 0 se i < j
(N ×N ) −− −− −
[P ]T = [P ]−1
1 0 ··· 0
0 1 ··· 0
[P ]T [P ] = [P ][P ]T = [I] =
.... . . ..
. . . .
0 0 ··· 1
Propriedades:
69
Parte real simétrica → [B] = [B]T
Se [A] hermitiana ⇒
Parte imaginária anti-simétrica → [C] = −[C]T
([N ]∗ )T [N ] = [N ]([N ]∗ )T
Propriedades:
N X
X N
tr([A][B]) = tr([B][A]) = aij bji
i=1 j=1
70
7.3 Norma de matrizes
- Norma de uma matriz [A], k[A]k• : é um escalar que satisfaz as condições
Definição
1) k[A]k• > 0, exceto para [A] = [0]. (k[A]k• = 0 ⇐⇒ [A] = [0])
2) kα[A]k• = |α| . k[A]k• , α escalar
3) k[A] + [B]k• 6 k[A]k• + k[B]k•
4) k[A].[B]k• 6 k[A]k• . k[B]k• (Propriedade das normas subordinadas).
Exemplos de normas:
Seja [A]
(M ×N )
• Norma absoluta
k[A]kA = M ax |aij |
i,j
Tais normas (de uma matriz) são chamadas de norma de uma matriz subordinada à
norma de um vetor e satisfazem a 4a condição da definição de norma acima mencionada:
Exemplos:
• Norma ”Taxicab”:
N
X
k[A]k1 = M ax |aij | (soma da coluna j).
j
i=1
N
P
A norma kk1 é uma norma subordinada a k{x}k1 = |xi |
i=1
71
• Norma ∞:
N
X
k[A]k∞ = M ax |aij | (soma da linha i).
i
j=1
• Norma espectral:
p
k[A]ks = Máximo autovalor de ([A]∗ )T [A]
72
7.5 Cálculo do determinante
Cálculo do determinante de [A] utilizando expansão em cofatores.
(N ×N )
N
X N
X
|[A]| = aij |Mij | = aij |Mij |
j=1 i=1
(Para um i qualquer) (Para um j qualquer)
Note-se que cada cofator |Mij | pode ser expandido de novo pela mesma regra.
Propriedades:
• |[A]| = [A]T
• Se [B] é obtido de [A] substituı́ndo qualquer linha ou coluna de [A] pela soma
(N ×N ) (N ×N )
ou diferença dela com qualquer outra linha ou coluna, então |[B]| = |[A]|.
N
Q
• Se [U ] é triangular superior, então |[U ]| = uii (elementos da diagonal principal).
(N ×N ) i=1
N
Q
• Se [L] é triangular inferior, então |[L]| = lii (elementos da diagonal principal).
(N ×N ) i=1
[A]{x} = λ{x}
ou
73
Esta equação representa um sistema homogêneo, e portanto terá soluções não triviais
somente se o determinante do sistema for nulo. Impondo esta restrição temos,
P (λN ) = aN λN + aN −1 λN −1 + · · · + a1 λ + a0 = 0
Para cada solução (auto-valor) λi , i = 1, . . . , N , existe associada uma solução {x}i do
sistema homogêneo:
([A] − λi [I]){x}i = {0}
{x}i é um auto-vetor de [A] associado ao auto-valor λi .
Propriedades:
1. ρ [A] 6 M in{M, N }
(M ×N )
74
6. Se ρ [A] = K ⇒ existe [X] , [M ] e [Y ] tal que [A] = [X][M ][Y ], det[M ] 6= 0
(M ×N ) (M ×K) (K×K) (K×N )
75
onde < (.), (.) >u e < (.), (.) >v representam produtos internos vetoriais.
Outros exemplos de produtos internos de matrizes:
1. Subespaço das colunas de [A], R([A]) ⇒ subespaço gerado por todas as combinações
das colunas de [A] . R([A]) ⊂ E M .
(M ×N )
2. Subespaço das linhas de [A], R([A]T ) ⇒ subespaço gerado por todas as combinações
das colunas de [A]T (ou linhas de [A]). R([A]T ) ⊂ E N .
(N ×M )
3. Subespaço nulo (direito) de [A], N ([A]) ⇒ subespaço constituı́do por todos os ve-
tores que satisfazem a equação [A] {x} = {0} . N ([A]) ⊂ E N .
(M ×N )(N ×1) (M ×1)
N ([A]) e R([A]T ) ⊂ RN
N ([A]T ) e R([A]) ⊂ RM
76
Capı́tulo 8
Teorema de Rouché
.. P = P 0 = N ⇒ Sistema determinado
ρ[A](N ×N ) 0
= P e ρ[A.{b}] = P =⇒ P = P 0 < N ⇒ Sistema indeterminado
P 6= P 0 ⇒ Sistema incompatı́vel
Exemplo:
77
10−10
10−10
[A] = =⇒ |[A]| = (10−10 )N
..
(N ×N ) .
10−10
Se N = 10 ⇒ |[A]| = 10−100 . Entretanto, [A] tem determinante 6= 0, apesar de
aparentemente desprezı́vel, e é bem condicionada (condicionamento ótimo), pois c[A]s =
1, 0.
Métodos de resolução
Diretos: Decomposição triangular (Gauss, Cholesky, Crout, Doolittle, etc...)
Decomposição QR, QL (por transformação unitária (Givens, Householder))
Iterativos: Jacobi, Lanczos, Gauss-Seidel, Newton-Raphson, etc...
Gradientes conjugados.
Métodos de resolução
Para ρ [A] = N =⇒ Recomendado o método QR ou QL.
Para ρ [A] < N =⇒ SVD.
78
8.1.3 Sistemas sub-determinados
M < N ou ρ[A] < N , para M, N qualquer.
ρ [A] ≤ M M A x = b
| {z }
N
Métodos de resolução:
Como ρ [A] < N ⇒ Sistema não determinado ⇒ Método SVD (decomposição em valores
singulares, ou inversa generalizada ou pseudo-inversa)(Capı́tulo 11).
Métodos de resolução
ρ [A] = N
Se =⇒ Solução única trivial {x} = [A]−1 {0} = {0}
|[A]| =
6 0
79
[U ]{x} = {b} =⇒ {x} = [U ]−1 {b}
l11
x1
b1
l21 l22 [0] x2 b2
l31 l32 l33
x3 = b3
.. .. .. .. .. .
..
. . . .
.
lN 1 lN 2 lN 3 ··· lN N xN b
N
i−1
P
li1 .x1 + li2. x2 + · · · + lii. xi = bi =⇒ xi = (bi − lij .xj )/lii i = 2, 3, ..., N
j=1
u11 · · · u1,N −2 u1,N −1 u1,N x1
b1
. . .. .. .. ..
..
. . . . .
.
=
uN −2,N −2 uN −2,N −1 uN −2,N xN −2
bN −2
[0] uN −1,N −1 uN −1,N
xN −1
bN −1
uN,N x
N
b
N
i = 1, 2, 3, ..., N − 1
N
P
xi = (bi − ui,j .xj )/ui,i i = N − 1, N − 2, ..., 3, 2, 1
j=i+1
- Matriz banda:
81
Figura 8.2: Matriz triangular em banda.
- Matriz ”skyline”:
ij = (j − 1) ∗ j/2 + i i≤j
82
Figura 8.4: Conversão de ı́ndices de matriz para vetor.
83
3. Resolver o sistema triangular superior [R] {x} = {y} =⇒ {x}(N ×1)
Indicador de condicionamento:
10−10 1050
∗ 10−10 [0]
∗ 10−50 [0]
[L] =
∗ ∗ 10−10
[L] =
∗ ∗ 1
.. .. .. .. .. .. .. . .
. . . . . . . .
∗ ∗ ∗ · · · 10−10 ∗ ∗ ∗ ··· 1
(Bem condicionado) (Mal condicionado)
∗ → qualquer valor.
Exemplo para
teste:
d para i = j
aij =
6 j
1 para i =
84
d ··· 1
1 1
1 ··· 1
d 1
λi = d − 1 i = 1, 2, ..., N − 1
N = 10 → [A] =
1 · ·
1 · 1 d 10
.. . ..
. ..
..
λN = N + d − 1
. .. .
.
1 1 1 ··· d
| {z }
10
85
Decomposição CHOLESKY:
− [0] − ··· −
[L] = ... . . . [U ] = [L]T = .. .
. ..
− ··· − [0] −
Decomposição CROUT:
− [0] ··· −
1
[L] = ... . . . [U ] = . . . .. ui,i = 1, 0 i = 1, 2, ..., N
.
− ··· − [0] 1
Decomposição de DOOLITTLE:
1 [0] − ··· −
[L] = ... . . . [U ] = . . . .. li,i = 1, 0 i = 1, 2, ..., N
.
− ··· 1 [0] −
1 [0] ··· −
1 d1,1 [0]
[L] = ... . . . [U ] = .. .
. .. [D] = ..
.
− ··· 1 [0] 1 [0] dN,N
li,i =1,0 ui,i =1,0 di,j =0 ∀ i6=j
86
8.4.3 Decomposição triangular de Cholesky
a11 ···
a21 a22 Sim.
[A] =
a31 a32 a33 ···
.. .. .. ... ..
. . . .
aN 1 aN 2 aN 3 ··· aN N
l11 l11 l21 l31 · · · lN 1
l21 l22 [0]
l22 l32 · · · lN 2
=
l31 l32 l33
l33 · · · lN 3
.. .. .. ... ... ..
. . . [0] .
lN 1 lN 2 lN 3 · · · lN N lN N
87
u1j = a1j j = 1, 2, ..., N
2a linha de [A]: ⇒ a22 = l21 u12 + u22 ⇒ u22 = a22 − l21 u12
a23 = l21 u13 + u23 ⇒ u23 = a23 − l21 u13
a24 = l21 u14 + u24 ⇒ u24 = a24 − l21 u14
..
.
a2N = l21 u1N + u2N ⇒ u2N = a2N − l21 u1N
2a coluna de [A]: ⇒ a32 = l31 u12 + l32 u22 ⇒ l32 = (a32 − l31 u12 )/u22
a42 = l41 u12 + l42 u22 ⇒ l42 = (a42 − l41 u12 )/u22
a52 = l51 u12 + l52 u22 ⇒ l52 = (a52 − l51 u12 )/u22
..
.
aN 2 = lN 1 u12 + lN 2 u22 ⇒ lN 2 = (aN 2 − lN 1 u12 )/u22
3a linha de [A]: ⇒ a33 = l31 u13 + l32 u23 + u33 ⇒ u33 = a33 − l31 u13 − l32 u23
a34 = l31 u14 + l32 u24 + u34 ⇒ u34 = a34 − l31 u14 − l32 u24
a35 = l31 u15 + l32 u25 + u35 ⇒ u35 = a35 − l31 u15 − l32 u25
..
.
a3N = l31 u1N + l32 u2N + u3N ⇒ u3N = a3N − l31 u1N − l32 u2N
3−1
P
u3j = a3j − l3k ukj j = 3, 4, ..., N
k=1
88
3a coluna de [A]: ⇒ Analogamente,
3−1
P
li3 = (ai3 − lik uk3 )/u33 i = 4, 5, ..., N
k=1
Resumo:
u1j = a1j j = 1, 2, ..., N
li1 = ai1 /u11 i = 2, 3, ..., N (l11 = 1)
Calcular alternadamente: (i e j = 2, 3, ..., N )
i−1
P Para um determinado i
uij = aij − lik ukj
k=1 j = i, (i + 1), ..., N
j−1
P Para um determinado j
lij = (aij − lik ukj )/ujj
k=1 i = (j + 1), (j + 2), ..., N
Observação: lii = 1 ∀ i
Repetir para i = i + 1 e j = j + 1.
Nota: As fórmulas para CROUT podem ser obtidas da mesma forma.
8.5.1 Cholesky
Já foi visto na seção 8.4.3
89
(∴ dii = uii )
u1j = d11 u1j j = 1, 2, ..., N
u2j = d22 u2j j = 2, 3, ..., N
..
.
uij = dii uij j = i, (i + 1), ..., N
Portanto os valores uij podem ser calculados usando as equações acima.
Então a decomposição LDU está completa:
[A] = [L][U ] = [L][D][U ]
=⇒ [A] = [L][D][L]T ou [U ]T [D][U ]
Se [A] = [A]T ⇒ [U ] = [L]T
90
··· 1
d 1 1
··· 1
1 d 1
λi = d − 1 i = 1, 2, ..., N − 1
N = 10 → [A] =
··· 1
1 1 d
10
..
. ..
.
. . .. ..
λN = N + d − 1
. .
.
1 1 1 ··· d
| {z }
10
|ds | |λ|M ax
K= = , já visto.
|dr | |λ|M in
91
8.6.2 Estimativa melhorada de K ≈ c[A]:
0
..
.
0
Seja {e}r = 1 →Linha r de [D] correspondente a |dr |, (M in(|di |))
0
..
.
0
0
..
.
0
{e}s = 1 →Linha s de [D] correspondente a |ds |, (M ax(|di |))
0
..
.
0
3. Estimativa melhorada K
b ≈ c[A]:
K
z }| {
b = k{φ}r k . k{φ}s k . |ds |
K E E
|dr |
Observação:
b s = {φ}s é uma estimativa do autovetor de [A] correspondente a λN (M ax(|λ|))
{φ} k{φ}s kE
{φ}r
{φ}r = k{φ}
b
rk
é uma estimativa do autovetor de [A] correspondente a λ1 (M in(|λ|))
E
Analogamente pode-se obter uma estimativa de c[A] para [A] não simétrica e com
autovalores reais.
[A] = [L][D][U ] com [U ] 6= [L]T
|ds | ≥ |di | i = 1, 2, ..., N
|dr | ≤ |di | i = 1, 2, ..., N
|ds |
K= ' c[A]
|dr |
Estimativa melhorada:
92
{φ}r
[U ]{φ}r = {e}r ⇒ {φ}r ⇒ {φ}
b r=
k{φ}r kE
{φ}s
[L]−1 {φ}s = {e}s ⇒ {φ}s = [L]{e}s ⇒ {φ}
b s=
k{φ}s kE
93
d 1 b1
d 2 b2
[A]L {x} = [D]L {b} = .. ⇒ [A]L {x} = {y} ⇒ {x}
| {z } .
y
d b
N N
[A] = [D]−1 −1
L [A]LC [D]C
[D]−1 −1
L [A]LC [D]C {x} = {b}
| {z }
{y}
Exemplo:
1 1 2 × 109
[A] = 2 −1 1 × 109
1 2 0
[A]C = [A][D]C
2 0 0 0, 5 0 0
[D]−1
C =
0 2 0 ⇒ [D]C = 0 0, 5 0
9 −9
0 0 2 × 10 0 0 0, 5 × 10
1 1 2 × 109 0, 5 0, 5 0, 5 1
[A]C = 2 −1 1 × 109 0, 5 = 1 −0, 5 0, 5
−9
1 2 0 0, 5 × 10 0, 5 1 0
cond([A]) = 1, 34 × 109
cond([A]c ) = 2, 61
94
8.7.4 Métodos alternativos de obtenção de [D]L e [D]C
d1
d2
[D]−1 =
..
.
dN
!1/2
N
a2ij
P
(b) (di )L = ⇒ [D]L (Equivalente à norma euclidiana da linha i).
j=1
!1/2
N
a2ji
P
(di )C = ⇒ [D]C (Equivalente à norma euclidiana da coluna i).
j=1
(c) β-scaling
di = β M , onde β é a base numérica do computador (normalmente sistema binário
⇒ β = 2).
M é um número inteiro tal que
dbi
≤ β M < dbi
β
95
O sistema de equações torna-se
[A]
z }| {
−1
[A]C [D]C {x} = {b}
−1
[D]C {x} = {y} ⇒ [A]C {y} = {b}
1
{y} = t{y} = [A]−1 −1
C {b} ⇒ {y} = {y} ⇒ [D]C {x} = {y} ⇒ {x} = [D]C {y}
t
Exercı́cio: Resolver sistemas mal condicionados com e sem condicionamento, usando
{x} = [A]−1 {b}.
96
Parte II
Segunda parte
97
Capı́tulo 9
P (λN ) = λN + αN −1 λN −1 + αN −2 λN −2 + · · · + α0 = 0
As N raizes de P (λN ) = 0 ⇒ λ1 , λ2 , . . . , λN , são chamadas autovalores de [A].
Obtidos os autovalores λi , pode-se voltar à equação (9.1) e resolver o sistema ho-
mogêneo,
99
([A] − λi [I]){x}i = {0} ⇒ {x}i
{x}i é o autovetor associado ao autovalor λi .
Portanto, os autovalores e autovetores aparecem aos pares,
A matriz [S] = [{x}1 {x}2 · · · {x}N ] é a matriz dos autovetores de [A], também
N ×N
chamada matriz modal.
As aplicações da teoria de autovalores e autovetores são inúmeras.
λi = αi + jβi (9.8)
A equação (9.5) pode ser escrita na forma,
N
X
{y} = Ci {φ}i e(αi +jβi )t (9.9)
i=1
100
Se algum autovalor λi possuir parte real positiva αi > 0 o sistema é instável pois o
termo {φ}i eαi t tende a crescer sem limite com o tempo.
A componente imaginária indica caracter oscilatório do sistema, pois,
A solução é da forma,
101
• Se [A] é hermitiana ⇒ os autovalores são reais e os autovetores ortogonais.
[A] é diagonalizável.
• Se [A] é ortogonal → λi = ±1
unitária → autovetores ortonormais.
– Normalização hermitiana → autovetores ortogonais se autovalores diferentes
(Strang [4], pg.295).
λi = uii
• Se [U ] ou [L] forem triangulares → ou
λi = lii
N
P N
P N
Q
• Se λ1 , λ2 , . . . , λN autovalores de [A] → λi = aii = Traço de [A] e λi = |[A]|
i=1 i=1 i=1
(λ1 < λ2 < · · · < λN ) → os autovetores {x}1 , {x}2 , . . . , {x}N são ortogonais entre
si ⇒ {x}Ti {x}j = 0 para todo i 6= j.
Demonstração:
102
{x}Tj [A]{x}i − {x}Ti [A]{x}j = (λi − λj ){x}Ti {x}j
| {z }
0
⇒ (λi − λj ){x}Ti {x}j = 0
{φ}TEj {φ}Di = 0 (i 6= j)
• Se [A] for normal → os autovetores são LI, mesmo se os autovalores forem repetidos.
uma hermitiana é normal
autovetores ortogonais, pois [U ∗ ]T [A][U ] = [Λ],
uma unitária é hermitiana ⇒
onde [U ] é unitária.
uma ortogonal é unitária
103
Uma matriz real simétrica é hermitiana, e portanto:
N X
X N
λ2max ≤ a2ij
i=1 j=1
λi |λi |M ax
c[A]S = k[A]kS . [A]−1 S
= =
λj M ax |λj |min
Aplicação: condicionamento de um sistema linear de equações [A]{x} = {b}
Seja δ{b} uma perturbação em {b}. A solução {x} ficará perturbada de δ{x},
kδ{x}kE kδ{b}kE
≤ c[A]
k{x}kE k{b}kE
ou se δ[A] é uma perturbação nos coeficientes de [A],
kδ{x}k kδ[A]k
([A] + δ[A])({x} + δ{x}) = {b} ⇒ ≤ c[A]
k{x}k k[A]k
c[A]S é uma estimativa para a amplificação das perturbações δ{b} ou δ[A] na solução
{x}.
De um modo geral quanto maior c[A]S ⇒ ”menos bem” condicionado a resolução
numérica de [A]{x} = {b}.
c[A]S = 1 ⇒ condicionamento numérico ideal para a resolução de [A]{x} = {b}.
N
P
∴ |λ − aii | ≤ Ri = |aij |
j=1
i6=j
104
Exemplo:
2, 5 −1 √0 λ1 = 3, 136
[A] = −1 5
√ − 2 =⇒ λ2 = 4, 000
0 − 2 10 λ3 = 10, 364
∴ 1, 5 ≤ λi ≤ 11, 414 i = 1, 2, 3
1, 5 ≤ λ1 ≤ 3, 5 2, 586 ≤ λ2 ≤ 7, 414 8, 585 ≤ λ3 ≤ 11, 414
Observação: O teorema fornece valores limitantes para os autovalores de [A].
λ=µ−α (9.17)
De (9.16) em (9.17),
105
µ1 , µ2 , . . . , µN são os autovalores de [B],
(a11 + α) a12 ··· a1N
a 21 (a22 + α) ··· a2N
[B] =
.. .. .. ..
. . . .
aN 1 aN 2 ··· (aN N + α)
Da equação (9.17),
µi = λi + α
• Quando se soma α[I] à matriz [A] os autovalores µi da matriz ([A] + α[I]) sofrem
uma translação de α em relação aos valores λi de [A].
• Os autovetores não são afetados.
[A]{x} = λ[B]{x}
onde [A] e [B] são reais e simétricas.
[A] → Semi-positivo definida.
[B] → Positivo definida.
Ou
[K]{x} = ω 2 [M ]{x}
ou
106
9.6 Cálculo de autovalores e autovetores
9.6.1 Algoritmo QR
Seja [A] uma matriz qualquer.
N ×N
Teorema: Existe uma matriz [M ] unitária tal que, [M ]∗T [A][M ] = [U ],
N ×N
onde [U ] é uma matriz triangular superior.
Observação: Poderia ser triangular inferior, [L].
Como [A] e [U ] são similares ⇒ λi = uii (i = 1, 2, . . . , N )
Algoritmo:
3. i = 1
4. i = j + 1
[A]j+1 = [R]j [Q]j =⇒ [U ], triangular superior.
[A]j+1 = [Q]Tj [Q]Tj−1 · · · [Q]T2 [Q]T1 [Q]T0 [A]0 [Q]0 [Q]1 [Q]2 · · · [Q]j−1 [Q]j = [Q]T [A]0 [Q]
| {z } | {z }
[Q]T [Q]
j + 1 → ∞ ⇒ [Q] → Tende para a matriz dos autovetores [S] = [{φ}1 {φ}2 · · · {φ}N ]
107
PN PK−1
Outra forma para verificar a convergência: K=2 l=1 |aKl | < ε
Observação: Se os autovalores forem complexos o algoritmo precisa ser modificado
para funcionar.
..
λ1 .
Se [A] for real, simétrica, j+1 → ∞ ⇒ [A]j+1 →
.. =
Λ
.
λN . ..
1.
6 4 4 1
4 λ1 = −1
6 1 4
[A] =
4
λ2 = λ3 = 5
1 6 4
λ4 = 15
1 4 4 6
2.
5 4 1 1
λ1 = 10
4 5 1 1
λ2 =5
[A] =
1
1 4 2
λ3 =2
1 1 2 4 λ4 =1
3.
1 1 1 1 1 1
λ1 = 2, 132376
1/2 1/3 1/4 1/5 1/6 1/7 λ2 = −0, 2214068
1/3 1/4 1/5 1/6 1/7 1/8 λ3 = −0, 0318433
[A] =
1/4 1/5 1/6 1/7 1/8 1/9
λ4 = −0, 8983233 × 10−3
1/5 1/6 1/7 1/8 1/9 1/10 λ = −0, 1706278 × 10−4
5
1/6 1/7 1/8 1/9 1/10 1/11 λ6 = −0, 1394499 × 10−6
108
2. i = 1
[A]{x}0 = {x}1
{x}1
Normalizar {x}1 : {x}1 = k{x}1 k2
=⇒ k{x}1 k2 = 1
3. i = 2
[A]{x}1 = {x}2
{x}2
Normalizar {x}2 : {x}2 = k{x}2 k2
=⇒ k{x}2 k2 = 1
4. i qualquer
[A]{x}i−1 = {x}i
{x}i
{x}i = =⇒ k{x}i k2 = 1
k{x}i k2
5. Critério de convergência:
k{x}i k − k{x}i−1 k
≤ ε ⇒ convergiu
k{x}i k
Prova da convergência:
[A]{x}i = {x}i+1
{x}i+1
{x}i+1 =
k{x}i+1 k
(i + 1) → ∞ ⇒ |λ|Máximo → k{x}i+1 k
{x}i+1 → {φ}, autovetor correspondente a |λ|Máximo
109
1. k{x}0 k2 = 1
{x}0 = α1 {φ}1 +α2 {φ}2 +· · ·+αN {φ}N , {φ}i →autovetores de [A], k{φ}i k =
1, 0
k{x}0 k2 = 1 = {x}T0 {x}0 = (α1 {φ}1 + α2 {φ}2 + · · · + αN {φ}N )T (α1 {φ}1 + α2 {φ}2 +
· · · + αN {φ}N )
2. i = 1
[A]{x}0 = {x}1
{x}1
z }| {
[A](α1 {φ}1 + α2 {φ}2 + · · · + αN {φ}N ) = α1 λ1 {φ}1 + α2 λ2 {φ}2 + · · · + αN λN {φ}N
h i
{x}1 = λ1 α1 {φ}1 + α2 λλ21 {φ}2 + · · · + αN λλN1 {φ}N
p p
k{x}1 k2 = {x}T1 {x}1 = (α1 λ1 )2 + (α2 λ2 )2 + · · · + (αN λN )2
r
λ2 2 λN 2
= |λ1 | α12 + α22 ( )2 + · · · + αN ( )
λ1 λ1
| {z }
β1
k{x}1 k2 = β1 |λ1 |
{x}1 1 λ2 λN
{x}1 = = α1 {φ}1 + α2 ( ){φ}2 + · · · + αN ( ){φ}N
k{x}1 k β1 λ1 λ1
3. i = 2
h i
1 λ22 λ2N
[A]{x}1 = {x}2 = β1
α1 λ1 {φ}1 + α2 ( λ1 ){φ}2 + · · · + αN ( λ1 ){φ}N
h i
|λ1 | λ2 2 λN 2
{x}2 = β1 α1 {φ}1 + α2 ( λ1 ) {φ}2 + · · · + αN ( λ1 ) {φ}N
r
λ2 2 λN 4
k{x}2 k2 = |λβ11 | α12 + α22 ( )4 + · · · + αN ( )
λ1 λ1
| {z }
β2
110
{x}3 1 λ2 3 λN 3
{x}3 = = α1 {φ}1 + α2 ( ) {φ}2 + · · · + αN ( ) {φ}N
k{x}3 k β3 λ1 λ1
q
2 λN 2i
5. βi = α12 + α22 ( λλ12 )2i + · · · + αN ( λ1 )
λ
lim βi = α1 já lim ( λ1j )2i = 0, dado que |λ1 | > |λj |
i→∞ i→∞
lim ββi−1
i
=1
i→∞
111
|λi − µ| ≤ kδ[A]k . k[S]k . [S]−1
Observação: 1) O condicionamento dos autovalores de [A] depende de c[S]S , número
de condição espectral de [S].
2) Se [S] for uma matriz unitária, |λi − µ| ≤ kδ[A]k2 =⇒ os autovalores de matrizes
[A] normais são sempre bem condicionados ([6], pg. 294).
112
Capı́tulo 10
Transformações similares
113
Observar que |[M ]−1 | e |[M ]| cancelam já que |[M ]| . |[M ]−1 | = 1, ou |[M ]| = 1
|[M ]−1 |
.
Portanto temos que:
[A]{x} = λ{x}
[M ][B][M ]−1 {x} = λ{x} ⇒ [B][M ]−1 {x} = λ[M ]−1 {x}
| {z } | {z }
{y} {y}
[B]{y} = λ{y}
114
10.3 Forma diagonal de uma matriz [A]
[A] possui uma forma diagonal quando existe uma matriz diagonal,
N ×N
λ1
λ2
[Λ] = , similar.
. .
.
λN
Exemplo:
Seja [S] = [{x}1 {x}2 · · · {x}N ], a matriz cujas colunas são os autovetores de [A].
N ×N
[A]{x}i = λi {x}i
[A] [S] = [S] [Λ]
λ1
z }| { z }| { λ2
[A] [{x}1 {x}2 · · · {x}N ] = [{x}1 {x}2 · · · {x}N ]
..
.
λN
115
Para qualquer [A] , existe uma matriz [M ] unitária tal que
N ×N
u11 u12 . . . u1N
0 u22 . . . u2N
[M ∗ ]T [A][M ] = [U ] = .. .. ([U ] é triangular superior).
.. . .
. . . .
0 0 ··· uN N
λi = uii (i = 1, 2, . . . , N )
116
Teorema: Se [N ] é uma matriz normal ([N ]H [N ] = [N ][N ]H ), então existe [S]
N ×N N ×N
unitária tal que
λ1
∗ T
λ2
[S ] [N ][S] = ([4], pg.311 e pg. 315).
..
.
λN
dx dv
= [M ] = [A][M ]{v}
dt dt
dv
∴ = [M ]−1 [A][M ]{v}
dt
dv
Se [M ] = [S] é a matriz dos autovetores de [A] e [S] tem colunas LI ⇒ dt
= [Λ]{v}
Obtém-se N equações diferenciais desacopladas.
———————————————————————————————————
117
{ê}i+1 , {ê}i → vetor dos erros.
Seja a transformação {u} = [M ]{v} → {ê} = [M ]{e}
Se |λi | < 1 para todo i, o algoritmo converge para a solução exata, pois o erro
diminui em cada iteração.
onde
λi 1 0 ··· 0
0 λi 1 ··· 0
[J]i =
.. .. .. . . .. r
. . . . .
0 0 0 ··· 1
0 0 0 · · · λi
| {z }
r
118
• Esta decomposição é única.
• Um λi repetido pode aparecer em blocos diferentes.
• Duas matrizes [A] e [B] são similares se tiverem a mesma forma canônica de Jordan,
[J].
• Os métodos numéricos para se obter [J] não são muito estáveis com relação a uma
variação δ[A] da matriz [A].
Exemplo de transformação ortogonal: Matriz de rotação
cos θ − sin θ c −s
Definição - Matriz de rotação plana: [M ] = =
sin θ cos θ s c
T T
[M ] [M ] = [M ][M ] = [I] ⇒ [M ] é uma matriz ortogonal.
⇓ 2
c s c −s (c + s2 ) 0 1 0
= = = [I]
−s c s c 0 (c2 + s2 ) 0 1
Pode ser construı́da uma matriz [M ] de rotação (N × N ):
(i) (j)
.. ..
[I] . [0] . [0]
(i) · · c · · · −s · · ·
·
[0] ... [I] ... [0]
[M ] =
(j)
··· s ··· c ···
. .
[0] .. [0] .. [I]
Teorema: Se [M ]0 e [M ]1 são ortogonais, [M ]2 = [M ]0 [M ]1 também é ortogonal:
(N ×N ) (N ×N )
2{v}{v}T
[H] = [I] − {v}(N ×1) , real.
k{v}k2E
Então H é simétrica e ortogonal.
Demonstração:
• [H] é simétrica, pois [H]T = [H]:
!T T
T 2{v}{v}T T 2 {v}T {v}T 2{v}{v}T
[H] = [I] − = [I] − = [I] − = [H]
k{v}k2E k{v}k2E k{v}k2E
119
• [H] é ortogonal, pois [H]T [H] = [H][H]T = [I]:
!T !
2{v}{v}T 2{v}{v}T
[H]T [H] = [I] − [I] −
k{v}k2E k{v}k2E
4{v}{v}T 4{v}{v}T {v}{v}T
= [I] − +
k{v}k2E k{v}k4E
4{v}{v}T 4{v}{v}T k{v}k2E
= [I] − + = [I]
k{v}k2E k{v}k4E
2{v}{v}T
[H] = [I] − , onde {v} = {x} + σ{Z}
(N ×N ) k{v}k2E
σ = k{x}kE
0.
..
{Z} = 1 → i-ésima linha.
..
.
0
então
0
..
.
[H]{x} = −σ{Z} = −σ → i-ésima linha.
..
.
0
⇒ a transformação zera o vetor {x} com exceção da linha (i).
Portanto k[H]{x}kE = k{x}kE = σ (as matrizes ortogonais preservam as normas dos
vetores).
Exercı́cio: Mostrar que [H]{x} = −σ{Z}.
120
Decomposição QR: ⇒ [A]0 = [Q] [R] onde [Q] é uma matriz ortogonal ([Q]T [Q] =
(N ×N ) (N ×N )(N ×N )
[I] ⇒ [Q]T = [Q]−1 ) e [R] é triangular superior.
T
Se [A]0 , M ≥ N , ⇒ [A]0 = [Q] [R] e [Q] [Q] = [I]
(M ×N ) (M ×N ) (M ×M )(M ×N ) (M ×M ) (M ×M ) (M ×M )
Dado:
[A]0 = [{a}01 {a}02 · · · {a}0N ]
(M ×N )
Constrói-se,
2{v}0 ({v}0 )T
[H]0 = [I] − k{v}0 k2E
onde {v}0 = {a}01 + σ 0 {z}0
(M ×M ) (M ×M ) (M ×1) (M ×1) (M ×1)
1
0
σ 0 = k{a}01 k e {z}0 = ..
.
0
Transformação,
−σ 0 × × ··· ×
0
[A]1 = [H]0 [A]0 ⇒ [A]1 =
.. ..
{a}12 {a}13 {a}1N
(M ×N ) (M ×M )(M ×N ) . .
0
{a}12 a
⇒ 2 coluna a partir do a22 .
(M −1)×1
Constrói-se,
2{v}1 ({v}1 )T
[Ĥ]1 = [I] − onde
k{v}1 k2
{v}1 = {a}12 + σ 1 {z}1
(M −1)×(M −1) (M −1)×1
1
0
1 1 1
σ = k{a}2 k e {z} = ..
.
0
1 0 ··· 0
0
.
[H]1 =
.. [Ĥ]1
(M ×M )
(M −1)×(M −1)
0
Transformação,
[A]2 = [H]1 [A]1 = [H]1 [H]0 [A]0 ⇒
(M ×N ) (M ×M )(M ×N ) | {z }
[A]1
121
−σ 0 × × × ··· ×
0 −σ 1 × × ··· ×
⇒ [A]2 =
0 0
.. .. ..
{a}23 {a}24 {a}2N
. . .
0 0
Construção:
2{v}2 ({v}2 )T
[Ĥ]2 = [I] − k{v}2 k2
onde {v}2 = {a}23 + σ 2 {z}2
(M −2)×(M −2) (M −2)×1
1
0
σ 2 = k{a}23 k e 2
{z} = ..
.
0
1 0 0 ··· 0
0 1 0 ··· 0
[H]2 =
0 0
.. ..
. . [Ĥ]2
0 0
Transformação:
[A]3 = [H]2 [A]2 = [H]2 [H]1 [H]0 [A]0
(M ×N )
(M ×M )(M ×N )
−σ 0 × × × × ··· ×
1
0
−σ × × × ··· ×
2
0 0 −σ × × ··· ×
[A]3 = 0
0 0
.. .. .. ...
{a}34 {a}35 {a}3N
. . .
0 0 0
Fazendo sucessivas transformações:
[A]N −1 = [H]N −2 [H]N −3 · · · [H]1 [H]0 [A]0 = [R]
(M ×N ) | {z }(M ×N ) (M ×N )
[Q]T
(M ×M )
Para efeito computacional pode-se mostrar que: [A]0 = [Q] [R] , onde foram
(M ×N ) (M ×N )(N ×N )
eliminadas as últimas colunas de [Q] e as linhas de [R] abaixo da linha N .
122
10.8 Aplicações da decomposição QR
10.8.1 Resolução de sistemas super-determinados
Exemplo: Ajuste linear por mı́nimos quadrados (Resolução de um sistema de equações
lineares superdeterminado).
y1 = ax21 + bx1 + c
2
y2 = ax2 + bx2 + c
y(x) = ax2 + bx + c =⇒ M medidas y3 = ax23 + bx3 + c
..
.
y = ax2 + bx + c
M M M
Matricialmente,
x21 x1 1 y1
x22 x2 1 y2
a
x23 x3 1
b = y3
.. .. .. .
c ..
. . .
x2M xM
1 y
M
123
x 1
x2
Definição: Vetor dos resı́duos → {r} = [A] {x} − {b} {x} = ..
(M ×1) (M ×N )(N ×1) (M ×1)
.
x
N
Quando M = N e [A] é não singular ⇒ solução única:
(N ×N )
Quando M > N ⇒ geralmente k{r}k > 0 para qualquer {x} não nulo.
124
[R]{x} = [Q]T {b} =⇒ {x} = [R]−1 [Q]T {b}
{x} = ([A]T [A])−1 [A]T {b} = ([R]T [Q]T [Q][R])−1 [R]T [Q]T {b}
| {z }
[I]
= ([R]T [R])−1 [R]T [Q]T {b} = [R]−1 [R]−T [R]T [Q]T {b}
| {z }
[I]
[H]0 é simétrica.
125
a11 a12 a13 ··· a1N
−σ 0 × × ··· ×
[A]0 e [A]1 são
[A]1 = [H]0 [A]0 [H]0 =
0
matrizes similares.
.. ..
{a}12 {a}13 {a}1N
. .
0
Montar [H]1
1 0 0 ··· 0
0 1 0 ··· 0
0 0
[H]1 =
.. ..
. . [Ĥ]1
(N −2)×(N −2)
0 0
2{v}1 {v}T
[Ĥ]1 = [I] − σ12
1
[v]1 = {a}12 + σ1 {z}1 , onde:
(N −1)×(N −1)
1
a32
1
a42
0
{a}12 = .. ; σ1 = k{a}12 k e 1
{z} = ..
.
.
a 0
N2
a11 a12 a13 a14 ··· a1N
−σ0 × × × ··· ×
0 −σ1 × × ··· ×
[A]2 =
0 0
.. .. ...
{a}23 {a}24 {a}2N
. .
0 0
126
[A]H = [A]N −3 = [H]N −4 [A]N −4 [H]N −4
...
− −− −− −− −− −− − →
−σ . . . − −− −−
0 −− −− − →
.
−σ1 . . − −−
−− −− − →
Forma de
.
= −σ2 . . −
−− −− − →
Hessenberg
...
.
[0] −σN −4 . . − − →
..
~ .→
127
128
Capı́tulo 11
Pseudo-inversa e decomposição em
valores singulares
Definição: Dada uma matriz [A] qualquer (M >, = ou < N ), define-se como inversa generalizada
M ×N
(pseudo-inversa ou inversa de Moore-Penrose) de [A], a matriz [A]+ que satisfaz as
N ×M
condições:
Observação: Resultado dos trabalhos publicados por Eliakim Hastings Moore (1920)
[11] e Roger Penrose (1955) [12].
Aplicações importantes:
• Análise numérica.
• Análise funcional.
• Estatı́stica matemática.
129
11.1 Decomposição em valores singulares - SVD
(Singular Value Decomposition)
Teorema: Seja [A] uma matriz qualquer (M >, = ou < N ), real ou complexa.
M ×N
Existe uma decomposição única, [A] = [U ] [Σ] [V ∗ ]T , onde:
M ×N M ×M M ×N N ×N
z M
}| {
σ1 0 ··· 0 0 ··· 0
0 σ2 ··· 0 0 ··· 0
4. [Σ] = .. M se M < N
.. .. .. .. . . ..
M ×N . . . . . . .
0 0 ··· σM 0 ··· 0
| {z }
N
σ1 0 ··· 0
0 σ2 · · · 0
N
.. .. . . . ..
. . .
ou [Σ] =
0 0 · · · σN M se M > N
M ×N
0 0 ··· 0
.. .. . . ..
. . . .
0 ··· 0
0
| {z }
N
√
onde σi = + λi i = 1, 2, . . . , M para M < N
i = 1, 2, . . . , N para M > N
130
Seja [A] real; [U ] e [V ] são ortogonais.
(M ×N ) M ×M N ×N
[A] = [U ] [Σ] [V ]T , [A]T = [V ] [Σ]T [U ]T
(M ×N ) (M ×M ) (M ×N ) (N ×N ) (M ×N ) (N ×N ) (N ×M ) (M ×M )
Demonstração de 2.
[A] [A]T = [U ][Σ][V ]T [V ][Σ]T [U ]T = [U ] [Σ][Σ]T [U ]T
(M ×N )(N ×M ) | {z }
| {z }
[I]
λ1 0
λ2
...
0 λM
Pós-multiplicando por [U ]:
λ1 0
λ2
[([A][A]T )[U ] = [U ] ⇒ [U ] é a matriz dos autovetores de ([A][A]T ).
...
0 λM
Analogamente, demonstração de 3.
[A]T [A] = [V ][Σ]T [U ]T [U ][Σ][V ]T = [V ][Σ]T [Σ][V ]T ⇒
(N ×M )(M ×N ) | {z } | {z }
[I] [λ]
λ1 0
λ2
⇒ [V ]T ([A]T [A])[V ] = ⇒ [V ] é a matriz dos autovetores de
. .
.
0 λN
T
([A] [A]).
131
11.1.1 Armazenamento computacional
M >N :
[A] = [U ] [Σ] [V ]T
(M ×N ) (M ×M ) (M ×N ) (N ×N )
σ1 0
σ2
...
=
0 σN
[0]
N N
N N
σ1 0
σ2
M = M N N
..
.
0 σN
M <N :
[A] = [U ] [Σ] [V ]T
(M ×N ) (M ×M ) (M ×N ) (N ×N )
σ1 0
=
...
[0]
0 σM
N M M N
σ1 0
M = M M
...
M
0 σM
132
[A] = [U ] [Σ] [V ]T
(M ×N ) (M ×M )(M ×N )(N ×N )
σ1
σ2
onde [Σ] =
..
.
σN
[A]+ = [V ] [Σ]+ [U ]T
Teorema: A pseudo-inversa de [A] é dada por (N ×M )
(N ×N )(N ×M )(M ×M ) , onde:
+
σ1 1/σ1
+
σ2+ 1/σ2
[Σ] = =
. . . .
. .
+
σN 1/σN
σi+ = σ1i se σi > 0
σi+ = 0 se σi = 0
[Σ][Σ]+ = [I] se não houver σi = 0, já que σi σi+ = 1 ∀ σi 6= 0.
133
11.2.2 Decomposição polar
Seja [A] qualquer.
(N ×N )
Tese: Existe uma decomposição única na forma,
[A] = [U ] [S]
(N ×N ) (N ×N )(N ×N )
onde
[U ] é unitária e
positivo-definida se [A] for não singular.
[S] é hermitiana
semi-positivo-definida se [A] for singular.
Nota: Se [A] for real ⇒ [U ] = [Q] ortogonal e
[S] é real e simétrica.
134
[Σ]
σ1
σ2
...
σi > 0 i ≤ r
[A] = [U ] σr [V ]T
(N ×N ) (N ×N ) (N ×N ) σi = 0 i = (r + 1), . . . , N
0
..
.
0
(11.1)
[U ] = [{u}1 {u}2 · · · {u}N ]
[V ] = [{v}1 {v}2 · · · {v}N ]
Pós multiplicando (11.1) por [V ],
σ1
..
.
σr
T
[A] [V ] = [A] [{v}1 · · · {v}N ] = [U ] [Σ] [V ] [V ] = [{u}1 · · · {u}N ]
0
| {z }
[I]
...
0
Portanto
[A]{v}1 = σ1 {u}1
[A]{v}2 = σ2 {u}2
..
.
[A]{v}i = σi {u}i i = 1, 2, . . . , r
[A]{v}j = {0} j = (r + 1), (r + 2), . . . , N
{v}j , j = (r + 1), (r + 2), . . . , N ⇒ soluções independentes de [A] {x} = {0}.
Analogamente pode-se achar a solução de [A]T {y} = {0}:
Dado,
Transpondo (11.3),
135
([U ]T [A])T = [A]T [U ] = [V ] [Σ]
σ1
σ2
..
.
[A]T [{u}1 {u}2 · · · {u}N ] = [{v}1 {v}2 · · · {v}N ] σr
0
...
0
Notas:
• Utilizar SVD só se o sistema for muito mal condicionado (ou se |[A]| = 0).
• {x}+ é tal que minimiza k[A] {x} − {b}k2 (é equivalente a mı́nimos quadrados).
136
{x}+ = [A]+ {b}
N ×1 N ×M M ×1
Notas:
... ...
[0]
| | |
| | |
.. ..
. .
[A] = M ⇒ [J] = M
| | | 0 ..
[0] .
| | |
| {z } [0]
N | {z }
N
... ...
[0]
− − − −
[A] = M
− − − − ⇒ [J] = .. ..
0 . . M
[0]
− − − − ..
| {z } [0] .
N | {z }
N
137
onde [Q] e [P ] são matrizes de transformação ortogonais (usando Householder)
Teorema: Os valores singulares de [A] e [J]0 são os mesmos.
2. Obtido [J]0 aplica-se algum método para diagonalizar [J]T0 [J]0 ou [J]0 [J]T0 .
[J]0
.. ..
[J]T . .
0
..
.. ..
.. ..
.
..
.. [0]
.
.. ...
...
= ... ... ...
(tri-diagonal, simétrica).
[0]
... ... ... ...
[0]
N ×M
[0]
N ×N
M ×N
√
Dos autovalores λi de [J]T0 [J]0 , λi ≥ 0 calculam-se os σi = λi (i = 1, . . . , N ).
T
[J]0 = [G] [Σ] [H]
M ×N
3. [A] = [U ] [Σ] [V ]T
M ×N
[U ] = [P ] [G]
onde
[V ] = [Q] [H] ⇒ [H]T [Q]T = [V ]T
138
Capı́tulo 12
12.1 Introdução
Dado dy(t)dt
= f (y, t) com a condição inicial y(t0 ) = y0 calcular y(t) para t ∈ [t0 , tf ].
Nota: y0 e f (y, t) são dados do problema. Se f (y) for não linear a equação diferencial
é não-linear.
y0 = y(t0 ) yi = y(ti )
Notação: f 0 = f (y ,
0 0t ) ··· f i = f (y ,
i it )
ẏ0 = dy(t 0)
= f ẏ = dy(ti )
= fi
dt 0 i dt
Supõe-se o tempo discretizado em vários instantes, t0 < t1 < t2 < . . . < ti < ti+1 <
. . . < tN , e conhecida a função f (y, t).
Hi−1 = ti − ti−1 é o passo de integração.
Se Hi for constante, tN = t0 + N H.
139
Proposto por Euler para resolver o problema da Brachistocrona1 , e tem como funda-
mento a expansão em série de Taylor truncada na primeira ordem (aproximação linear).
yN
yN +1 = yN + Hf (yN , tN ) (nesse caso β2 = ( Hf N
+ 1))
yN +1 = yN + Hf (yN , tN )
yN +2 = yN +1 + Hf (yN +1 , tN +1 )
..
.
O incremento da função é
aproximado pela tangente:
tgθN = yN +1H−yN = ẏN = fN
−yN +1
HtgθN = Hf (yN , tN ) tgθN +1 = yN +2H = ẏN +1 = fN +1
..
.
————————————————————————————————-
Exemplo: dy(t)
dt
= y2 + y
| {z }
f
2
yN +1 = yN + Hf (yN , tN ) = yN + H(yN + yN )
————————————————————————————————-
2
1 dy
y 1 + dx =C
140
12.2.2 Integradores implı́citos (β1 6= 0)
yN +1 = β1 Hf (yN +1 , tN +1 ) + β2 Hf (yN , tN )
H
yN +1 = yN + [f (yN +1 , tN +1 ) + f (yN , tN )]
2
H 2 2
yN +1 = yN + [yN +1 + yN +1 + yN + yN ]
2
Re-arranjando:
2 2 2 2
yN +1 + (1 −)yN +1 + yN + (1 + )yN = 0
H H
A solução deste polinômio de segundo grau fornece yN +1 .
Nota: Os métodos multi-passos não são muito utilizados porque para o primeiro passo
é necessário utilizar um outro método de um passo.
141
Figura 12.2: Método de integração explı́cito de Runge-Kutta de ordem 4.
Nota: Um método de primeira ordem pode ser aplicado numa equação diferencial de
segunda ordem.
Exemplo:
d2 y(t)
dy
= f t, y,
dt2 dt
Condições iniciais: y0 = y(t0 )
ẏ0 = dy(t0)
dt
2
A equação d dty(t)
2 = f t, y, dy
dt
pode ser transformada num sistema de primeira ordem:
dy dZ
Define-se Z(t) = dt ⇒ dt = f (t, y, Z)
Portanto,
( )
dy(t)
dt
Z(t)
dZ(t) =
dt
f (t, y, Z)
142
Com as condições iniciais: y0 = y(t0 )
dy
Z0 = Z(t0 ) = (t )
dt 0
Exemplo: Runge-Kutta
y1
.
{y} = .
.
yN
( n o )
dy1 (t)
dy(t) dt
o
= {f ({y(t)}, t)}
n
dt onde dy(t)
= ..
dt .
{y}0 = {y(t0 )}
dyN (t)
dt
f1 ({y(t)}, t)
{f ({y(t)}, t)} = ..
.
f ({y(t)}, t)
N
H = tN +1 − tN
{y}N +1 = {y}N + 61 [{K1 } + 2{K2 } + 2{K3 } + {K4 }]
onde:
{K1 } = H {f ({y}N , tN )}
1 H
{K2 } = H f ({y}N + {K1 }, tN + ) tN + 1 = tN + H2
2 2 2
tN +1 = tN + H
1 H
{K3 } = H f ({y}N + {K2 }, tN + )
2 2
{K4 } = H {f ({y}N + {K3 }, tN + H)}
143
Notação: {ẋ}N +1 = {ẋ(tN +1 )}
{x}N +1 = {x(tN +1 )}
{F }N +1 = {F (tN +1 )}
144
3. Cálculo do valor preditor para {x}N +1 .
4. Resolver o sistema:
A equação (12.4) foi obtida das combinações das equações (12.1), (12.2) e (12.3).
Combinando (12.2) e (12.3):
6. N = N + 1
Se N ≤ Nmı́nimo repetir passo 3.
4. Resolver 1
α∆t
[[M ] + α∆t[K]]{x}N +1 = {F }N +1 + 1
α∆t
[M ]{x}pN +1
5.
{x}N +1 − {x}pN +1
{ẋ}N +1 =
α∆t
6. N = N + 1
Se N ≤ Nmı́nimo repetir passo 3.
145
12.6 Caracterı́sticas relevantes de um integrador
• Convergência
• Estabilidade
• Precisão
dy(t)
+ λy(t) = 0, λ>0
dt
A solução exata é dada por y(t) = Ce−λt .
Portanto, como λ ≥ 0, o sistema é estável para qualquer perturbação C 6= 0.
146
- Seja um dado integrador e as soluções aproximadas pelo mesmo: y1 , . . . , yN −1 , yN , yN +1 , . . .
nos instantes t1 , . . . , tN −1 , tN , tN +1 , . . .
- ∆t = tN +1 − tN
- Se |y|yNN+1| | ≤ 1 para qualquer ∆t ⇒ o integrador é incondicionalmente estável.
|yN +1 |
- Se |yN |
≤ 1 para 0 ≤ ∆t ≤ ∆tcrı́tico ⇒ o integrador é condicionalmente estável.
|yN +1 |
- Se |yN |
> 1 para qualquer ∆t ⇒ o integrador é instável.
yN +1 = AyN
Condição de estabilidade do integrador: |A| ≤ 1
|yN +1 |
= |A| ≤ 1
|yN |
Análise do termo A ≤ 1
λ>0 (1 + αλ∆t) ≥ 1 (1−(1−α)λ∆t)
A) Como ⇒ λ∆t > 0 ⇒ ⇒ < 1 para
∆t > 0 (1 − α)λ∆t ≥ 0 (1+αλ∆t)
147
1
a. Para 2
≤ α ≤ 1 ⇒ −1 < A qualquer que seja ∆t, (λ∆t).
1
Portanto para 2
≤ α ≤ 1 ⇒ os integradores são incondicionalmente estáveis.
1
b. Para 0 ≤ α < 2
:
(1−(1−α)λ∆t)
−1 ≤ (1+αλ∆t)
yN +1 = AyN
lim A = A∞
λ∆t→∞
148
Para valores de ∆t > (λ∆t)0 ⇒ A < 0. Portanto A(N +1) muda de sinal em cada passo.
Para α = 12 e λ∆t >> 5 ⇒ |A| ≈ 1.
Haverá pouco decaimento e as componentes modais altas se comportará como se A =
(−1)N +1 . São modos espúrios gerados pelo integrador.
Solução: Filtrar as oscilações através do uso da média entre dois passos consecutivos,
yN + 1 = (yN +1 + yN )/2.
2
149
150
Capı́tulo 13
Ajuste de Curvas
13.1 Introdução
151
13.2 Exemplo de regressão polinomial cúbica por mı́nimos
quadrados
Seja um conjunto de dados (x0 , y0 ); (x1 , y1 ); . . . ; (xn , yn ), sobre os quais se deseja ajustar
um polinômio de grau 3, dado por y = a0 + a1 x + a2 x2 + a3 x3 .
A função erro quadrático com relação aos dados disponı́veis é;
n
X
= (yi − a0 − a1 xi − a2 x2i − a3 x3i )2 (13.1)
i=0
n
∂ X
= −2 (yi − a0 − a1 xi − a2 x2i − a3 x3i ) = 0 ⇒ (13.2)
∂a0 i=0
n
X n
X n
X n
X
(n + 1)a0 + a1 x i + a2 x2i + a3 x3i = yi (13.3)
i=0 i=0 i=0 i=0
n
∂ X
= −2 xi (yi − a0 − a1 xi − a2 x2i − a3 x3i ) = 0 ⇒ (13.4)
∂a1 i=0
n
X n
X n
X n
X n
X
a0 x i + a1 x2i + a2 x3i + a3 x4i = xi yi (13.5)
i=0 i=0 i=0 i=0 i=0
n
∂ X
= −2 x2i (yi − a0 − a1 xi − a2 x2i − a3 x3i ) = 0 ⇒ (13.6)
∂a2 i=0
n
X n
X n
X n
X n
X
a0 x2i + a1 x3i + a2 x4i + a3 x5i = x2i yi (13.7)
i=0 i=0 i=0 i=0 i=0
n
∂ X
= −2 x3i (yi − a0 − a1 xi − a2 x2i − a3 x3i ) = 0 ⇒ (13.8)
∂a3 i=0
n
X n
X n
X n
X n
X
a0 x3i + a1 x4i + a2 x5i + a3 x6i = x3i yi (13.9)
i=0 i=0 i=0 i=0 i=0
As equações 13.3, 13.5, 13.7 e 13.9 constituem um sistema de 4 equações que deve ser
resolvido para calcular as 4 incognitas a0 , a1 , a2 e a3 .
152
Utilizando a notação Xj = ni=0 xji e Xj Y = ni=0 xji yi , com j = 0, ..., 6, o sistema
P P
pode ser representado matricialmente por:
n+1 X1 X2 X3 a0
X0 Y
X1 X2 X3 X4 a1 X1 Y
X2 X3 X4 X5 a2 = X2 Y (13.10)
X3 X4 X5 X6 a3 X3 Y
Observação 1: Esta equação deve ser resolvida por qualquer método de resolução de
sistemas de equações lineares, para obter os valores dos coeficientes ai .
Observação 2: Esta equação pode ser generalizada para qualquer número de pontos N
de referência e para qualquer ordem p do polinômio a ser ajustado.
N ... Xp a0
X0 Y
.. . . .. .. .
.
. . . . = . (13.11)
Xp 4 Xp+p ap Xp Y
1. Valor das funções igual ao valor dos pontos nas extremidades dos intervalos ⇒ 2n
condições.
2. As derivadas primeiras devem ser iguais à direita e à esequerda nos nós interiores
⇒ n − 1 condições.
3. As derivadas segundas devem ser iguais à direita e à esequerda nos nós interiores ⇒
n − 1 condições.
153
Aplicando estas condições temos:
De 1.
De 2.
De 3.
(i) (i)
fi00 (x) = 2.a2 + 6.a3 xi ⇒ (13.16)
(i) (i) (i+1) (i+1)
a2 + 3.a3 xi = a2 + 3.a3 xi , i = 1, . . . , n − 1 (13.17)
(1) (1)
a2 + 3.a3 x0 = 0 (13.18)
(n) (n)
a2 + 3.a3 xn = 0 (13.19)
Assim, é obtido um sistema linear de 4n equações com 4n incógnitas, que precisa ser
resolvido por qualquer método.
(i)
Cada um dos polinômios de coeficientes aj obtidos vale para o intervalo i determinado
por [xi−1 , xi ], com i = 1, . . . , n e j = 0, . . . , 3.
154
Bibliografia
[1] C. Lanczos: Linear differential operators. Van Nostrand, New York, 1961.
[3] P.E. Gill, W. Murray & M.H. Wright: Practical Optimization. Academic Press,
(1981).
[4] G. Strang: Linear Algebra and its Applications. Harcourt Brace Jovanovich Publish-
ers, 3rd edition (1988).
[5] J.R. Westlake: A Handbook of Numerical Matrix Inversion and Solution of Linear
Equations. Wiley (1968).
[6] B. Noble & J.W. Daniel: Applied Linear Algebra. Prentice-Hall, 2nd edition (1977).
[7] P. Eykhoff: System Identification. John Wiley & Sons Ltd. (1974).
[8] J.H. Wilkinson: The Algebraic Eigenvalue Problem. Oxford Press (1965).
[10] W.-F. Chen & A.F. Saleeb: Constitutive Equations for Engineering Materials, Vol.
1, Chapter 1. Wiley (1982).
[11] E.H. Moore: On the Reciprocal of the General Algebric Matrix. Bulletin of the
American mathematical Society Number 26, pp. 394-395 (1920).
[12] R. Penrose: A Generalized Inverse for Matrices. Procedings of the Cambridge Philo-
sophical Society Number 51, pp.406-413 (1955).
[13] G.H. Golub & C. Reinsch: SVD and Least Squares Solutions. Numerische Math., 14,
pp. 403-420, (1970).
155