Você está na página 1de 155

fl fl fl fl fl fl fl fl fl fl fl fl fl fl fl fl fl fl fl fl fl fl fl fl fl fl fl fl fl fl fl fl fl fl fl fl

fl fl fl

1
2
Métodos Matemáticos

Prof. Pablo Siqueira Meirelles


Departamento de Mecânica Computacional
UNICAMP

Mar o 11, 2020


4
Conteúdo

I Primeira parte 15
1 Números complexos 17
1.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2 Representação de números complexos . . . . . . . . . . . . . . . . . . . . . 17
1.3 Operações com números complexos . . . . . . . . . . . . . . . . . . . . . . 18
1.3.1 Soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.2 Produto por um número real . . . . . . . . . . . . . . . . . . . . . . 19
1.3.3 Produto de dois números complexos . . . . . . . . . . . . . . . . . 19
1.3.4 Potência de expoente racional . . . . . . . . . . . . . . . . . . . . . 19
1.3.5 Inverso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.6 Quociente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.7 Radicação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.8 Logaritmo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.9 Fórmula de Moivre . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4 Transcendentes elementares . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2 Séries 23
2.1 Séries numéricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.1 Teoremas de convergência . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.2 Séries de termos positivos reais . . . . . . . . . . . . . . . . . . . . 24
2.1.3 Critérios de convergência de séries de termos positivos . . . . . . . 25
2.1.4 Convergência absoluta e convergência condicional . . . . . . . . . . 26
2.1.5 Séries de termos alternados . . . . . . . . . . . . . . . . . . . . . . 27
2.2 Operações com séries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.1 Soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.2 Produto de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3 Sucessão de funções . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4 Série de funções . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.5 Séries de potências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.5.1 Soma, diferença e produto de séries de potência . . . . . . . . . . . 29
2.5.2 Expansão em série de potências . . . . . . . . . . . . . . . . . . . . 30

5
3 Vetores 33
3.1 Sistema de coordenadas cartesiano . . . . . . . . . . . . . . . . . . . . . . 33
3.1.1 Diferentes notações: . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2 Operações com vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.1 Soma, subtração . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.2 Multiplicação por um escalar . . . . . . . . . . . . . . . . . . . . . 35
3.2.3 Produto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2.4 Produto vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.5 Produto escalar triplo . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2.6 Produto vetorial triplo . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2.7 Produto interno entre vetores complexos . . . . . . . . . . . . . . . 37
3.3 Campos vetoriais e escalares . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3.1 Definição de campo vetorial . . . . . . . . . . . . . . . . . . . . . . 38
3.3.2 Definição de campo escalar . . . . . . . . . . . . . . . . . . . . . . 38
3.3.3 Operador Nabla ∇ . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3.4 Operador laplaciano ∆ . . . . . . . . . . . . . . . . . . . . . . . . 41

4 Notação indicial 43
4.1 Notação clássica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2 Notação indicial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2.2 Convenção soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2.3 Notação de diferenciação . . . . . . . . . . . . . . . . . . . . . . . 46
4.2.4 Delta de Kronecker δij . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.2.5 Operador alternante ou alternador εijk . . . . . . . . . . . . . . . . 47
4.2.6 Aplicações do tensor εijk . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2.7 Relação entre δij e εklm . . . . . . . . . . . . . . . . . . . . . . . . 48
4.3 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.4 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

5 Vetores Euclidianos 51
5.1 Norma de um vetor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.1.1 Algumas definições para a norma . . . . . . . . . . . . . . . . . . . 53
5.2 Obtenção de uma base ortogonal . . . . . . . . . . . . . . . . . . . . . . . 54
5.2.1 Método de ortogonalização de Gram-Schmidt . . . . . . . . . . . . 54

6 Produto escalar e projeções em um espaço Euclidiano 59


6.1 Vetor projeção . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
6.2 Matriz projetora . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.3 Teorema da projeção . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

6
7 Matrizes 67
7.1 Notação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
7.2 Definições e propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . 67
7.3 Norma de matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
7.4 Determinante de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 72
7.5 Cálculo do determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
7.6 Autovalores e autovetores de uma matriz . . . . . . . . . . . . . . . . . . . 73
7.7 Posto de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
7.8 Número de condição espectral . . . . . . . . . . . . . . . . . . . . . . . . . 75
7.9 Produto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
7.10 Subespaços fundamentais de uma matriz . . . . . . . . . . . . . . . . . . 76

8 Métodos de resolução de sistemas de equações lineares 77


8.1 Classificação de sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
8.1.1 Sistemas determinados . . . . . . . . . . . . . . . . . . . . . . . . . 77
8.1.2 Sistemas super-determinados . . . . . . . . . . . . . . . . . . . . . 78
8.1.3 Sistemas sub-determinados . . . . . . . . . . . . . . . . . . . . . . 79
8.1.4 Sistemas homogêneos . . . . . . . . . . . . . . . . . . . . . . . . . 79
8.2 Sistemas triangulares (determinados) . . . . . . . . . . . . . . . . . . . . . 79
8.2.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
8.2.2 Sistema triangular inferior ([L]) . . . . . . . . . . . . . . . . . . . . 80
8.2.3 Sistema triangular superior ([U]) . . . . . . . . . . . . . . . . . . . 80
8.3 Armazenamento esparso . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
8.3.1 Conversão de ı́ndice . . . . . . . . . . . . . . . . . . . . . . . . . . 82
8.4 Sistemas determinados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
8.4.1 Método de resolução baseado na decomposição QR: . . . . . . . . . 83
8.4.2 Métodos de resolução baseados em decomposição triangular . . . . 85
8.4.3 Decomposição triangular de Cholesky . . . . . . . . . . . . . . . . 87
8.4.4 Decomposição triangular de Doolittle . . . . . . . . . . . . . . . . 87
8.5 Sistemas simétricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.5.1 Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.5.2 Decomposição LDU: . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.6 Número de condição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
8.6.1 Estimativa de c[A] . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
8.6.2 Estimativa melhorada de K ≈ c[A]: . . . . . . . . . . . . . . . . . 92
8.7 Sistemas de equações lineares: escalonamento (balanceamento) . . . . . . 93
8.7.1 Escalonamento diagonal (por coluna) para [A]{x} = {b} . . . . . . 93
8.7.2 Escalonamento diagonal (por linha) para [A]{x} = {b} . . . . . . . 93
8.7.3 Escalonamento diagonal (linha e coluna) para [A]{x} = {b} . . . . 94
8.7.4 Métodos alternativos de obtenção de [D]L e [D]C . . . . . . . . . . 95

7
II Segunda parte 97
9 Autovalores e autovetores de uma matriz 99
9.1 Propriedades, teoremas, definições . . . . . . . . . . . . . . . . . . . . . . 101
9.2 Número de condição espectral de uma matriz . . . . . . . . . . . . . . . . 104
9.3 Teorema do cı́rculo de Gerschgorin . . . . . . . . . . . . . . . . . . . . . . 104
9.4 Translação de autovalores . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
9.5 Problema de autovalores e autovetores
generalizado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
9.6 Cálculo de autovalores e autovetores . . . . . . . . . . . . . . . . . . . . . 107
9.6.1 Algoritmo QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
9.6.2 Método da potência . . . . . . . . . . . . . . . . . . . . . . . . . . 108
9.7 Condicionamento do autosistema [A]{x} = λ{x} . . . . . . . . . . . . . . . 111
9.7.1 Condicionamento dos autovalores . . . . . . . . . . . . . . . . . . . 111
9.7.2 Condicionamento dos autovetores . . . . . . . . . . . . . . . . . . . 112
9.8 Forma quadrática de uma matriz [A]N ×N . . . . . . . . . . . . . . . . . . 112

10 Transformações similares 113


10.1 Transformação unitária . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
10.2 Transformação ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
10.3 Forma diagonal de uma matriz [A] . . . . . . . . . . . . . . . . . . . . . . 115
10.4 Propriedades e teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
10.5 Forma canônica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
10.6 Transformação de Householder . . . . . . . . . . . . . . . . . . . . . . . . 119
10.7 Decomposição QR usando a transformação de Householder . . . . . . . . 120
10.8 Aplicações da decomposição QR . . . . . . . . . . . . . . . . . . . . . . . . 123
10.8.1 Resolução de sistemas super-determinados . . . . . . . . . . . . . . 123
10.9 Forma de Hessenberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125

11 Pseudo-inversa e decomposição em valores singulares 129


11.1 Decomposição em valores singulares - SVD . . . . . . . . . . . . . . . . . . 130
11.1.1 Armazenamento computacional . . . . . . . . . . . . . . . . . . . . 132
11.2 Algumas aplicações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
11.2.1 Cálculo da pseudo-inversa . . . . . . . . . . . . . . . . . . . . . . . 132
11.2.2 Decomposição polar . . . . . . . . . . . . . . . . . . . . . . . . . . 134
11.2.3 Resolução de sistemas de equações . . . . . . . . . . . . . . . . . . 134
11.2.4 Sistemas não homogêneos . . . . . . . . . . . . . . . . . . . . . . . 136
11.2.5 Sistemas retangulares . . . . . . . . . . . . . . . . . . . . . . . . . 136
11.2.6 Algoritmo SVD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

12 Integradores lineares 139


12.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
12.2 Integradores lineares de um passo . . . . . . . . . . . . . . . . . . . . . . 139
12.2.1 Integradores explı́citos (β1 = 0) . . . . . . . . . . . . . . . . . . . 139

8
12.2.2 Integradores implı́citos (β1 6= 0) . . . . . . . . . . . . . . . . . . . 141
12.3 Métodos de 2 passos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
12.4 Runge Kutta explı́cito de quarta ordem . . . . . . . . . . . . . . . . . . 141
12.4.1 Generalização para sistemas de equações diferenciais . . . . . . . 143
12.5 Famı́lia de integradores trapezoidais . . . . . . . . . . . . . . . . . . . . 143
12.5.1 Integradores tı́picos . . . . . . . . . . . . . . . . . . . . . . . . . 144
12.5.2 Algoritmos na forma {ẋ} . . . . . . . . . . . . . . . . . . . . . . 144
12.5.3 Algoritmos na forma {x}N +1 . . . . . . . . . . . . . . . . . . . . 145
12.6 Caracterı́sticas relevantes de um integrador . . . . . . . . . . . . . . . . 146
12.6.1 Análise de estabilidade do algoritmo: . . . . . . . . . . . . . . . . 146
12.7 Análise dos integradores da famı́lia trapezoidal . . . . . . . . . . . . . . 147
12.8 Escolha do integrador . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149

13 Ajuste de Curvas 151


13.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
13.2 Exemplo de regressão polinomial cúbica por mı́nimos quadrados . . . . . . 152
13.3 Exemplo de interpolação por splines cúbicos . . . . . . . . . . . . . . . . . 153

9
10
Lista de Figuras

1.1 Representação gráfica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3.1 Vetor no espaço cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . 33


3.2 Vetor definido por dois pontos. . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.3 Produto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4 Produto vetorial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.5 área do paralelogramo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.6 Superfı́cie Φ(x, y, z) = ρ. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.7 Curva de equação φ(x, y) = ρ. . . . . . . . . . . . . . . . . . . . . . . . . . 40

4.1 Domı́nio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

5.1 Base euclidiana. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

6.1 Projeção ortogonal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59


6.2 Distância de um ponto a um plano. . . . . . . . . . . . . . . . . . . . . . . 62

8.1 Matriz triangular cheia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81


8.2 Matriz triangular em banda. . . . . . . . . . . . . . . . . . . . . . . . . . . 82
8.3 Matriz triangular ”sky-line”. . . . . . . . . . . . . . . . . . . . . . . . . . . 82
8.4 Conversão de ı́ndices de matriz para vetor. . . . . . . . . . . . . . . . . . . 83

9.1 Cı́rculo de Gerschgorin. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

10.1 Interpolação por mı́nimos quadrados. . . . . . . . . . . . . . . . . . . . . . 123

12.1 Integrador de Euler. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140


12.2 Método de integração explı́cito de Runge-Kutta de ordem 4. . . . . . . . . 142
12.3 Convergência. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
12.4 Fator de amplificação. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148

11
12
Prefácio

A elaboração e resolução de modelos matemáticos que representem os sistemas em


estudo constitui uma atividade essencial nas ciências exatas, e mesmo em algumas não
tão exatas, a exemplo da economia.
O matemático holandês Peter Eikof [7], autor de um dos mais conhecidos livros de
identificação de sistemas, tem porém se preocupado em alertar para dois erros freqüentes
e que devem ser evitados pelos usuários: jamais se apaixonar pelos modelos, pois eles
nunca serão melhores do que a realidade, e nunca tentar ir além dos limites de validade
dos modelos. Somente a experiência profissional é capaz de conferir a real coerência e
dimensão a estas observações.
Em consonância com estas observações, e não apesar delas, é tarefa dos cien-
tistas elaborar modelos cada vez mais precisos, confiáveis e gerais, e ao mesmo tempo
disponibilizar as ferramentas necessárias à exploração destes modelos.
A matemática, através da sua longa história, tem se desenvolvido de maneira não
uniforme no tempo, impulsionada pelas conjunturas e em congruência com circunstâncias
sociais, econômicas, tecnológicas, cientı́ficas e até teológicas e filosóficas. No passado re-
cente o desenvolvimento da matemática aplicada tem se tornado um aliado imprescindı́vel
para o avanço acelerado da tecnologia. A exigência crescente de precisão tem motivado
a elaboração de modelos sofisticados para representar fenômenos mais complexos. A
verificação (validação) e correção (ajuste) dos modelos tem recebido um auxı́lio enorme
pela evolução nos meios de observação dos fenômenos fı́sicos, refletida principalmente na
evolução dos transdutores, possibilitada pela microeletrônica, e nos meios de coleta e
processamento dos sinais.
Por outro lado, a manipulação de modelos maiores e mais sofisticados, somado à
exigência de redução nos tempos de processamento, requerem ”hardwares” cada vez mais
poderosos e métodos numéricos cada vez mais eficientes e robustos.
A procura da fronteira entre a sofisticação dos procedimentos experimentais e o en-
riquecimento dos conhecimentos que a evolução dos processamentos matemáticos podem
extrair das informações obtidas da observação da realidade, pode ser sentida no seguinte
confronto de idéias: Lanczos [1] defende que, a evolução das ferramentas matemáticas
não será jamais capaz de compensar a falta de dados experimentais, ao que Jézéquel [2]
contrapõe, É necessário desenvolver o processamento matemático tanto quanto possı́vel
para extrair o máximo proveito dos dados experimentais disponı́veis.
Finalmente, é impossı́vel não mencionar a virada de página histórica promovida
nas três ultimas décadas do século XX pela evolução e disseminação dos recursos computa-

13
cionais. Atualmente é difı́cil conceber qualquer atividade cientı́fica aplicada ou tecnológica
sem o uso da informática. Esta realidade conferiu enorme importância aos métodos aprox-
imados de cálculo numérico, e portanto o conhecimento destas ferramentas é parte impre-
scindı́vel na formação de qualquer cientista ou tecnólogo da atualidade.

14
Parte I

Primeira parte

15
Capı́tulo 1

Números complexos

1.1 Introdução
Uma forma simples de classificar as caracterı́sticas dos números com os quais trabalhamos
é dividi-los em números racionais, irracionais e complexos. O conjunto dos dois primeiros
constitui o universo dos números reais, que podem ser representados graficamente num
eixo (espaço R1). Os números complexos são uma generalização dos números reais para
o plano (espaço R2).
No esquema a seguir é apresentada esta classificação dos números reais, assim como
algumas das suas caracterı́sticas.

 
 Ordenados 

Números racionais Densos

Números reais
Representáveis por uma fração



Números irracionais → Não representáveis por uma fração

Os números reais constituem um conjunto ordenado, denso e contı́nuo, existindo por-


tanto uma correspondência biunı́voca destes números com os pontos de um eixo orientado.
Os números complexos são formados por um par de números reais, representáveis
em eixos mutuamente perpendiculares, constituindo portanto uma correspondência com
todos os pontos do plano, chamado Plano Complexo.
Os eixos são chamados eixo real e eixo imaginário, abscissa e ordenada do sistema
ortogonal plano de coordenadas respectivamente.

1.2 Representação de números complexos



Define-se o número imaginário puro i = −1 ⇒ i2 = −1. Este é o versor orientação do
eixo imaginário.
Observação: Alguns autores preferem representar o número imaginário puro por j no
lugar de i.

17
Qualquer número complexo c pode ser representado de diferentes formas, tais como:

c = a + ib ; c = ρ(cosϕ + isenϕ) = ρ∠ϕ = ρ∠(ϕ + 2kπ) , c = ρeiϕ , c = (a, b)

Para estas representações são válidas as


relações:


ρ= a2 + b 2 (Módulo)
 
b
ϕ = arctg (Fase ou argumento)
a

Figura 1.1: Representação gráfica.

Definição - Complexo conjugado: é chamado conjugado do número complexo c = a+ib


ao número c = a − ib, para qualquer valor real de a e b.

1.3 Operações com números complexos


1.3.1 Soma
(a + ib) + (c + id) = (a + c) + i(b + d)

Propriedades:

• Existência

• Unicidade

• Associativa

• Comutativa

• Existência do neutro

• Triangular: |Z1 + Z2 | ≤ |Z1 | + |Z2 |

18
1.3.2 Produto por um número real
r.(a + ib) = ra + irb
Propriedades:

• Existência

• Unicidade

• Associativa

• Distributiva

• Existência do neutro

1.3.3 Produto de dois números complexos


Define-se o produto de dois números complexos da forma a seguir 1 :

(a + ib).(c + id) = ac + iad + ibc + i2 bd = (ac − bd) + i(ad + bc)


ρ∠ϕ . τ ∠γ = ρ.τ ∠(ϕ + γ)

Propriedades:

• Existência

• Unicidade

• Associativa

• Distributiva

• Existência do neutro

1.3.4 Potência de expoente racional

Z 0 = 1 ∀ Z 6= 0
Z1 = Z ∀ Z
Z n = Z.Z.....Z
| {z }
n
n n
(ρ∠ϕ) = ρ ∠nϕ
1
Demonstrar a equivalência entre as duas expressões como exercı́cio

19
1.3.5 Inverso
Seja o complexo c = a + ib
Define-se o inverso de c:

1 1 a − ib c
c−1 = = = 2 2
= 2
c a + ib a +b |c|
a2 +b2
Com esta definição se verifica que c. 1c = (a + ib). (a−ib)
a2 +b2
= a2 +b2
=1
−1 −1
Pela definição de potência: (ρ∠ϕ) = ρ ∠ − ϕ

1.3.6 Quociente
Multiplicação pelo inverso.

1.3.7 Radicação

p p 1
n
ρ∠ϕ = n ρ∠(ϕ + 2kπ) = (ρ∠(ϕ + 2kπ))1/n = (ρ)1/n ∠ (ϕ + 2kπ)
n 
√ ϕ 2π
= ρ∠
n
+k
n n

No plano complexo, a raiz de ordem n tem sempre n soluções.

1.3.8 Logaritmo

Ln(ρ∠ϕ) = x + iy ⇔ ex+iy = ρ∠ϕ


ex+iy = ex .eiy = ex ∠y = ρ∠ϕ
⇒ x = Ln(ρ) e y = ϕ + 2kπ
∴ Ln(ρ∠ϕ) = Ln(ρ) + i(ϕ + 2kπ)

1.3.9 Fórmula de Moivre


(cos α + i sin α)m = cos(mα) + i sin(mα) (m inteiro)
Demonstração:

(cos α + i sin α)m = (eiα )m = eiαm = cos(mα) + i sin(mα)


Observação: Para qualquer número complexo

ρeiα = ρ∠α ⇒ (ρ∠α)m = ρm ∠(mα) = ρm eimα

20
1.4 Transcendentes elementares


eiz + e−iz


cos z =





 2
eiz = cos z + i sin z eiz − e−iz

=⇒ sin z =
e−iz = cos z − i sin z 
 2i
1 eiz − e−iz




 tan z =
i eiz + e−iz


Definições:

ez + e−z
cosh z =
2
ez − e−z
sinh z =
2
ez − e−z
tanh z = z
e + e−z

Exercı́cios:

1. Demonstrar que:

a. ρ∠ϕ . τ ∠γ = ρ.τ ∠(ϕ + γ)


eiz +e−iz
b. cos z = 2
eiz −e−iz
c. sin z = 2i
1 eiz −e−iz
d. tan z = i eiz +e−iz
e. cosh z = cos iz
f. sinh z = −i sin iz
g. tanh z = −i tan iz

2. Utilizando as funções transcendentes achar expressões simplificadas para:

a. sin(a ± b)
b. cos(a ± b)
c. tan(a ± b)
d. sin(a) ± sin(b)
e. cos(a) ± cos(b)

21
f. tan(a) ± tan(b)
g. sin2 x + cos2 x
h. cos2 x − sin2 x
i. sinh2 x + cosh2 x
j. cosh2 x − sinh2 x
k. sinh(x ± y)
l. cosh(x ± y)

22
Capı́tulo 2

Séries

2.1 Séries numéricas


Seja uma seqüência de números, reais ou complexos: a1 ; a2 ; a3 ; · · · ; an ; · · · Define-se
a série numérica S como sendo a seqüência de números S1 ; S2 ; S3 ; · · · ; Sn ; · · · , onde
cada termo é obtido pela regra seguinte:

S1 = a1 ; S2 = a1 + a2 ; S3 = a1 + a2 + a3 ; · · · ; Sn = a1 + a2 + a3 + · · · + an ; · · ·

O termo Sn é chamado reduzida de ordem n, ou soma parcial de ordem n, da série.


Portanto pode se definir uma série numérica como sendo uma sucessão de reduzidas.
Definição - Uma série é dita convergente se a sucessão das reduzidas tem limite finito.
Definição - A série é dita convergente, divergente ou oscilante, se S = lim Sn existe
n→∞
finito, existe ∞ ou não existe, respectivamente.

Exemplo - Série geométrica: Sr+1 = 1+q +q 2 +q 3 +....+q r (r = 1, . . . , ∞, q complexo)


q n −1 1
Observação: Sn = n−1 i
P
i=0 q = q−1

1
Demonstração por indução finita:
1
−1
- Para n = 1 =⇒ S1 = qq−1 =1
q 2 −1 (q+1)(q−1)
Observação - também poderı́amos começar demonstrando para n = 2: S2 = q−1 = q−1 = q+1
q N −1
- Admitimos para n = N qualquer: SN = 1 + q + .... + q N −1 = q−1
- Finalmente demonstramos que se vale para N , também vale para N + 1:
N N N +1
−1 −q N q N +1 −1
SN +1 = 1 + q + .... + q N −1 + q N = SN + q N = qq−1 + q N = q −1+q
q−1 = q−1
Portanto a igualdade está demonstrada.

23
Para o exemplo anterior;
 1

 |q| < 1 ⇒ |q n | → 0 ⇒ Sn → 1−q (Converge)
n
|q| > 1 ⇒ |q | → ∞ ⇒ Sn → ∞ (Diverge)





q=1 ⇒ Sn = n ⇒ lim Sn = ∞ (Diverge)
 

n→∞
 
n

q −1  
−1 ⇒ − + 1 − ...

Sn =


 q = Sn = 1 1
q−1 
 
|q| = 1 S n=2N = 0

 ⇒ (Oscila)






 S n=2N +1 = 1

 q 6= ±1 ⇒ q n= cos α + i sin α (α 6= nπ)



 


 
 ⇒ q = cos nα + i sin nα (Oscila)
Definição: r = S − Sn é o resı́duo de ordem n da série convergente de limite S.

2.1.1 Teoremas de convergência


1. Adicionar ou tirar um número finito de termos não altera o carater convergente ou
não da série. ( Pode alterar o valor de S, se a série for convergente)
2. Uma série convergente multiplicada termo a termo por um escalar c continua con-
vergente. O limite passa a ser c.S.
3. A série resultante da soma/diferença termo a termo de duas séries convergentes é
convergente. O limite da nova série será S = S1 ± S2 .
4. Uma condição necessária (não suficiente) para a convergência da série é lim an = 0
n→∞

5. Condição de convergência de Cauchy: Uma série é convergente ⇐⇒ dado ε > 0


arbitrário, existe N  |an+1 + ........ + an+p | < ε ∀ n > N, p natural qualquer ≥ 1.
Esta condição é equivalente a dizer que Sn é convergente ⇐⇒ |Sn+p −Sn | < ε ∀ n > N,
p natural qualquer.

2.1.2 Séries de termos positivos reais


Observações:
1. Séries de termos complexos podem ser reduzidas a pares de séries de termos reais.
2. Séries de termos negativos podem ser interpretadas como o oposto de uma série de
termos positivos.
Propriedade: Séries de termos reais positivos são convergentes ou divergentes, nunca
oscilantes.
Princı́pio de Weierstrass:
Sn < K ∀ n ⇒ Sn → S (Convergente)
Sn não acotada ⇒ Sn Divergente

24
2.1.3 Critérios de convergência de séries de termos positivos
1. Comparação

(a) Se

P
an converge de soma A
n=1
b n ≤ an ∀ n

P ∞
P ∞
P
Então bn converge de soma B <= A , pois bn ≤ an ≤ A
n=1 n=1 n=1

(b) Se

P
an diverge
n=1
b n ≥ an ∀ n

P
Então bn diverge. (Se bn convergisse, an convergeria pelo teorema anterior).
n=1
∞ ∞
an
P P
(c) Se 0 < h < bn
< k, então an e bn são da mesma classe.
n=1 n=1
Demonstração:
an < k.bn ⇒ Se bn converge, an também converge por 1.a.
h.bn < an ⇒ Se bn diverge, an também diverge por 1.b.
∞ ∞
(d) Generalização: Se lim abnn = l > 0 finito, então
P P
an e bn são da mesma
n→∞ n=1 n=1
classe.

Exemplos de séries que podem ser utilizadas como referências para classificar outras
séries por comparação:

P n n 2
(a) ( n+1 ) é Convergente
n=1

n
P
(b) 2n
é Convergente
n=1

1
P
(c) n!
é Convergente de soma ”e”
n=1

1
P
(d) 2n
é Convergente de soma 2
n=1

2. Critério de D’Alembert
 P∞
 <1∀n>N ⇒
 an converge
Se an+1
an 
n=1
P∞
 ≥1∀n>N ⇒ an diverge
n=1

25
Ou:

 λ < 1 Converge
lim an+1 =λ⇒ λ > 1 Diverge
n→∞ an
λ = 1 Não se sabe

3. Critério de Cauchy:
 P∞
 <1∀n>N ⇒
 an converge
√ n=1
Se ann

P
 ≥ 1 para infinitos valores de n ⇒
 an diverge
n=1

Ou:

 λ < 1 Converge

lim n an = λ ⇒ λ > 1 Diverge
n→∞
λ = 1 Não se sabe

4. Critério de Rabe
 P∞
 >1∀n>N ⇒
 an converge
an n=1
n(1 − an−1 ) P∞
 ≤1∀n>N ⇒
 an diverge
n=1

Ou:

 λ > 1 Converge
an
lim n(1 − an−1 )=λ⇒ λ < 1 Diverge
n→∞
λ = 1 Não se sabe

5. Critério da integral de Cauchy


Define-se f (n) = an
  ∞
monótona decrescente P
Se f (x) ∞ a convergente
f (x)dx convergente n=1 n
R
c

Observação: c é arbitrário tal que f (x) definida e contı́nua em c < x < ∞

2.1.4 Convergência absoluta e convergência condicional


(1)
Seja uma série Sn = a1 + a2 + · · · + an , com termos ai positivos ou negativos.
(2)
Define-se a série Sn = |a1 | + |a2 | + ..... + |an |
(2) (1)
Se Sn converge ⇒ Sn converge, e é dita absolutamente convergente.
 (1)
 Sn diverge
(2)
Se Sn diverge ou
 (1)
Sn condicionalmente convergente

26
2.1.5 Séries de termos alternados

(−1)n−1 an , an todos com o mesmo sinal.
P
Definição: Sn =
n=1

Teorema de Leibnitz: Uma série de termos alternados é convergente se:


1. a sucessão an é monótona decrescente
2. lim an = 0
n→∞

Exemplos de séries de sinais alternados convergentes:



(−1)(n−1) ( n1 ) é convergente de soma Ln(2)
P
1.
n=1

(−1)(n−1) ( n!1 ) é convergente de soma 1
P
2. e
n=1

(−1)(n+1) ( 21n ) é convergente de soma 2
P
3. 3
n=1

Regra do limitante do resı́duo - Considerando apenas os n primeiros termos de uma


série convergente de termos alternados, o resı́duo Rn = S − Sn tem o sinal do primeiro
termo desprezado e é em módulo, menor do que esse termo: |Rn | = |S − Sn | < |an+1 |

2.2 Operações com séries


2.2.1 Soma

P ∞
P ∞
P
(an + bn ) = an + bn =⇒ Converge para A + B
n=1 n=1 n=1

2.2.2 Produto de Cauchy


n P
P i
Wn = An Bn = aj bi+1−j = somatória de todos os termos acima da diagonal
i=1j=1
secundária de [an bn ]:
a1 b 1 · · · a1 b n · · ·
 
 .. ..
.
..
 . . An Bn − An−1 Bn−1 é igual a somatória dos termos

[an bn ] = 

 an b 1 · · · an b n · · · da diagonal secundária da matriz [an bn ].


.. ..
. .
Teorema

de Mertens: ∞
P P
Se an converge absolutamente para a soma A e bn converge absolutamente para
n=1 n=1

P
a soma B, então Wn converge absolutamente para a soma A.B.
n=1

27
2.3 Sucessão de funções
Seqüência de funções com domı́nio comum.
Definição - limite de uma sucessão de funções:
lim fn (x) = f (x) se dado ε > 0 arbitrário, existe N (ε, x)|fn (x) − f (x)| < ε ∀ n >
n→∞
N (ε, x) ; x ∈ [a, b]
Definição - Convergência uniforme: é dito que fn (x) converge uniformemente para
f (x) quando N é função apenas de ε, e não de x:

|fn (x) − f (x)| < ε ∀ n > N, ∀ x ∈ [a, b]


Notação: fn (x) ⇒ f (x)
[a,b]

2.4 Série de funções


São chamadas séries de funções (ou funcionais) aquelas que tem as suas reduzidas definidas
PN
por sucessões de funções: SN (x) = fi (x). As funções fn (x) devem ter domı́nios de
i=1
definição comuns.

P
Definição: fn (x) é convergente de soma S(x) se lim Sn (x) = S(x) em [a, b].
n=1 n→∞
P∞
Definição: fn (x) é uniformemente convergente de soma S(x) se Sn (x) ⇒ S(x).
n=1 [a,b]
Condição de convergência de Cauchy: A condição necessária e suficiente para que
uma série Sn (x) seja uniformemente convergente em  [a, b] é que, dado ε > 0, exista N
n > N independente de x
independente de x tal que |Sn+p (x) − Sn (x)| < ε ∀
p natural qualquer
P
Critério de Weierstrass: A série fi (x) converge uniformemente num dado intervalo,
i P
se existe uma série numérica convergente ci tal que, para todo x pertencente ao intervalo
i
considerado, é verificado que |fn (x)| ≤ cn .
P P
A série ci é chamada maiorante da série fi (x).
i i

Propriedades:

1. Se fi (x) contı́nua, e Sn (x) uniformemente convergente num intervalo, então S(x) é


contı́nua no intervalo.
R
2. A integral daPsomaR de uma
 série funcional, S(x)dx, é igual a soma dos integrais
dos termos, fi (x)dx .
i

28
2.5 Séries de potências
n
ai (x − a)i , com os termos a, ai constantes.
P
São séries da forma Sn (x) =
i=1
Propriedade: As séries de potência são absolutamente convergentes para todo x tal
que |x − a| < ρ.
Definição: ρ é chamado raio de convergência da série de potências.

Teorema de Abel: Se uma série de potências é convergente para um valor x1 tal que x1 −
a > 0, então ela é uniformemente convergente no intervalo (a − (x1 − a), a + (x1 − a)).

Cálculo de ρ:

1
= lim |a|an+1|
|
(2.1)
ρ n→∞ n

1 p
= lim n |an | (2.2)
ρ n→∞

Já que, usando D’Alembert:

an+1 (x − a)n+1 |an+1 |


lim = lim |x − a| ≤ 1
n→∞ an (x − a)n n→∞ |an |

Como a série converge para |x − a| ≤ ρ, na fronteira temos

|an+1 | |an+1 | 1
lim ρ = 1 ⇒ lim =
n→∞ |an | n→∞ |an | ρ

A expressão para o cálculo do ρ da equação 2.2 pode ser demonstrada de forma análoga
utilizando o critério de Cauchy.

Observações:

1. Quando o limite não existe, deve ser utilizado o limite superior, lim.

2. Na fronteira (x − a = ±ρ), é necessário verificar a convergência.

2.5.1 Soma, diferença e produto de séries de potência


Duas séries de potências, com raios de convergência ρ1 e ρ2 respectivamente, podem ser
somadas, subtraı́das ou multiplicadas ”a la Cauchy”. A série resultante terá raio de
convergência ρ ≥ min (ρ1 , ρ2 ).

29
2.5.2 Expansão em série de potências
As funções contı́nuas e infinitamente deriváveis podem ser expandidas em séries de potências.
Qualquer reduzida da série é uma aproximação da sua função soma.
Uma forma muito utilizada para se obter a expansão em série de potências é a
série de Taylor:

X f (p) (a)
f (x) = (x − a)p
p=0
p!

Pode ser observado que a aproximação para f (x) é exata em x = a, para qualquer
ordem da reduzida.
A série de McLaurin é um caso particular da série de Taylor, quando a = 0.

X f (p) (0)
f (x) = xp
p=0
p!

Observações:

• Toda série de potência é a expansão em série de Taylor ou McLaurin da sua função


soma.

• A expansão em série de Taylor ou McLaurin pode ser realizada para várias variáveis
simultaneamente, utilizando derivadas parciais.

• Existem outras expansões muito utilizadas, por exemplo as séries trigonométricas


(série de Fourier).

30
Exercı́cios:

1. Verifique a convergência das séries numéricas:



1
P
a. Sn = i!
i=0

(−1)i i!1
P
b. Sn =
i=0

1
P
c. Sn = 2i
i=0

(−1)i 21i
P
d. Sn =
i=0

1
P
e. Sn = i2k
i=0

1
(−1)i i2k
P
f. Sn =
i=0

2. Demonstre a expressão da equação 2.2


∞ i
x
P
3. Ache o raio de convergência da série Sn = i
. Analise a convergência no intervalo
i=0
[−ρ, ρ].

4. Achar a expansão em série de potências e raio de convergência para:


1
a. (1 + x)− 2
b. ex

31
32
Capı́tulo 3

Vetores

Bibliografia sugerida para os capı́tulos 3 e 4: [10] Wai-Fah Chen & Atef F. Saleeb ”Con-
stitutive Equation for Engineering Materials, Vol. 1: Elasticity and Modeling”. Jhon
Wiley, 1982, Cap. 1.

3.1 Sistema de coordenadas cartesiano

(a) Vetor definido por 2 pontos. (b) Componentes cartesianas.

Figura 3.1: Vetor no espaço cartesiano

Base normal: destrógira

33
3.1.1 Diferentes notações:

− → − →− →
− →

( i , j , k ) = (→

e1 , →

e2 , →

e3 ) V1 = v1 i = v1 →

e1

− →
− →

||→

ei || = 1 (comprimento unitário) V2 = v2 j = v2 e2

− →

(i = 1, 2, 3) V3 = v3 k = v3 →

e3

− →
− → − → −
V = V1 + V2 + V3

− →
− →
− →
− →

V = v1 →

e1 + v2 → −
e2 + v3 →

e3 ∼ V = v1 i + v2 j + v3 k
 
 v1  →

{v} = v2 = [v1 , v2 , v3 ] V = {v} ∈ E 3 , vi ∈ E 1 (i = 1, 2, 3)
v3
 

Figura 3.2: Vetor definido por dois pontos.

Sejam A e B dois pontos no plano (xy).



− −→ → − → − →
− → −
O vetor V = AB = B − A , onde A e B são os vetores definidos a partir dos pontos
A(a1 , a2 , a3 ) e B(b1 , b2 , b3 ) e a origem do sistema de coordenadas (xy). Esta afirmação é
válida para espaços de qualquer ordem. Para espaços de ordem 3 fica:

− →

B = b1 →

e1 + b2 →

e 2 + b3 →

e3 A = a1 →

e 1 + a2 →

e2 + a3 →

e3

− →
− → −
V = B − A = (b1 − a1 ) e1 + (b2 − a2 ) e2 + (b3 − a3 )→

− →
− −
e3

3.2 Operações com vetores



− →
− →

Seja A = [a1 , a2 , a3 ], B = [b1 , b2 , b3 ], C = [c1 , c2 , c3 ]

3.2.1 Soma, subtração



− →
− → −
C = A ± B, c i = ai ± b i i = (1, 2, 3)

34
3.2.2 Multiplicação por um escalar

− →

B = αA, bi = αai i = (1, 2, 3)

3.2.3 Produto escalar



− → − →
− →

A • B = || A ||.|| B || cos θ

Figura 3.3: Produto escalar


.

Utilizando as propriedades distributiva e associativa com relação ao produto por um


escalar:


− → − →
− →
− →
− →
− →
− →

A • B = (a1 i + a2 j + a3 k ) • (b1 i + b2 j + b3 k )

− → − →
− → − →
− → −
= a1 b 1 ( i • i ) + a2 b 2 ( j • j ) + a3 b 3 ( k • k )

− → − − →
→ − →
− → −
+ a1 b 2 ( i • j ) + a1 b 3 ( i • k ) + a2 b 1 ( j • i )
− →
→ − →
− → − →
− → −
+ a2 b 3 ( j • k ) + a3 b 1 ( k • i ) + a3 b 2 ( k • j )

Num sistema de coordenadas ortonormal:


 →− → − →
− →

 i • i = || i ||.|| i || cos 0 = 1

− → − →
− →



i • j = || i ||.|| j || cos 90 = 0



− →
 →

 − →
− →

i • k = || i ||.|| k || cos 90 = 0
− →
→ − →
− →
− (3.1)
 j • k = || j ||.|| k || cos 90 = 0

− → − →
− →



j • j = || j ||.|| j || cos 0 = 1



 →− → − →
− →



k • k = || k ||.|| k || cos 0 = 1
Substituı́ndo na equação anterior:
3

− → − X →
− → −
A • B = a1 b 1 + a2 b 2 + a3 b 3 = ai b i = B • A
i=1

35
s
N p→
− →

~ =
Portanto, A
P
a2i = A•A
i=1

Produto escalar entre vetores complexos

Por definição, o produto escalar entre vetores complexos é dado por:

N

− − → X
V • W = ({v}∗ )T {w} = v i wi
i=1

{v}∗ - Conjugado do vetor {v}.


v - Conjugado
 do número v.
(vR − jvI )i (wR + jwI )i = (vR wR + vI wI + j(vR wI − vI wR ))i
⇒ para vetores
(wR(− jwI )i (vR + jvI )i = (vR wR + vI wI + j(vI wR − vR wI ))i

− − → − → → −
V • W 6= W • V
complexos ⇒ → − − → − → → −
V •W =W • V

3.2.4 Produto vetorial


− →
− → −
C = A×B

− →
− →

|| C || = || A ||.|| B || sin θ

− →
− →−
C ⊥ ao plano definido por A e B

− → − → −
A , B e C formam um triedro direto
(destrógiro)

− → − →
− → −
Propriedade: A × B = −( B × A )

Figura 3.4: Produto vetorial.

Em coordenadas Cartesianas ortonormais:


3 →
− → − →

Permutação cı́clica: Positiva - ⇒ (1 2 3), (2 3 1), (3 1 2) ⇒ i × j = k , etc...
1 2

3 − →
→ − →

Negativa -  ⇒ (1 3 2), (3 2 1), (2 1 3) ⇒ i × k = − j , etc...
1 2

36

− →
− →


− i j k →
− →
− →

C = a1 a2 a3 = i (a2 b3 − a3 b2 ) + j (a3 b1 − a1 b3 ) + k (a1 b2 − a2 b1 )
b1 b2 b3
ou


e →

e →

e
1 2 3


C = a1 a2 a3 =→

e1 (a2 b3 − a3 b2 ) + →

e2 (a3 b1 − a1 b3 ) + →

e3 (a1 b2 − a2 b1 )
b1 b2 b3

− →
− → −
|| C || =⇒área do paralelogramo definido por A e B .

− →
− → −
C é perpendicular ao plano formado por A e B .

Figura 3.5: área do paralelogramo.


− →
− →
− →
− →
− → −
área = || A ||.H H = || B || sin θ =⇒ área = || A ||.|| B || sin θ = A × B

3.2.5 Produto escalar triplo



− →
− → − →
− →
− → − →
− →
− → −
A • (B × C ) = C • (A × B ) = B • (C × A)
a1 a2 a3 c1 c2 c3 b1 b2 b3
b1 b2 b3 = a1 a2 a3 = c1 c2 c3 = Volume do paralelepı́pedo
c1 c2 c3 b1 b2 b3 a1 a2 a3

3.2.6 Produto vetorial triplo


Fórmula de expulsão:

− →
− → − →
− →− → − →
− →− → −
A × (B × C ) = B (A • C ) − C (A • B )

− → − →
− →
− →− → − →
− →− → −
(A × B ) × C = B (A • C ) − A(B • C )

3.2.7 Produto interno entre vetores complexos



− −

O produto interno entre dois vetores V e W complexos é um número complexo que
satisfaz:

− − → −
→ → −
1. Simetria: < V , W > = < W , V >

37

− → − →
− →
− →
− → − →
− →

6 0 . Se < V , V > = 0 ⇒ V = 0 .
2. < V , V > > 0 para V =

− −
→ → − →
− → − →
− − →
3. < α V + β W , U >= α < U , V > + β < U , W >

− → − −
→ →
− → − −
→ → −
< U , α V + β W >= α < V , U > + β < W , U >

Exemplos:
1) Produto escalar entre vetores reais,
N

− − → X −
→ → −
V • W = {v}T {w} = vi wi = {w}T {v} = W • V
i=1

2) Produto escalar entre vetores complexos definido anteriormente:

N N

− − → X X −
→ → −
V • W = {v}T {w} = v i wi = wi vi = {w}T {v} = W • V
i=1 i=1

3.3 Campos vetoriais e escalares


3.3.1 Definição de campo vetorial
Funções definidas por grandezas vetoriais no En .
 →

 Velocidade V (x1 , x2 , x3 )



Exemplos no E3 : Força F (x1 , x2 , x3 )
 −

Momento M (x1 , x2 , x3 ) (pseudo-vetor)

3.3.2 Definição de campo escalar


Funções definidas por grandezas
 escalares no En .

 Pressão P (x1 , x2 , x3 )
Campo magnético Φ(x1 , x2 , x3 )

Exemplos no E3 :

 Campo elétrico E(x1 , x2 , x3 )
Campo gravitacional G(x1 , x2 , x3 )

Observação: As forças eletromagnéticas e gravitacionais constituem campos vetoriais,


mas os campos eletromagnéticos e gravitacionais são escalares.

3.3.3 Operador Nabla ∇


Aplicações do Operador O (Nabla, de Hamilton ou DEL)
∂ →
− ∂ →− ∂ →− ∂ →
− ∂ →
− ∂ →

Formalmente se define o operador ∇ = ∂x i + ∂y j + ∂z
k = e
∂x1 1
+ e
∂x2 2
+ e
∂x3 3

38
Gradiente de uma função escalar

O operador 5 é aplicado a uma função escalar, resultando num vetor: Portanto transforma
campos escalares em campos vetoriais.

∂() →
− ∂() →
− ∂() →
− ∂() →
− ∂() →
− ∂() →

∇() = i + j + k = e1 + e2 + e3
∂x ∂y ∂z ∂x1 ∂x2 ∂x3

() ⇒ Representa qualquer função escalar diferenciável Φ(x, y, z).

Seja Φ(x, y, z) uma função escalar Φ : R3 → R1



− →
− →

GRAD Φ(x, y, z) = OΦ(x, y, z) = ∂Φ ∂x
i + ∂Φ
∂y
j + ∂Φ
∂z
k
∂Φ ∂Φ ∂Φ
OΦ(x, y, z) = [ ∂x , ∂y , ∂z ]

Propriedade: ∇Φ(x1 , y1 , z1 ) é um vetor normal à superfı́cie da função Φ(x, y, z) = ρ,


no ponto (x1 , y1 , z1 ), ρ = constante.

Demonstração:

Figura 3.6: Superfı́cie Φ(x, y, z) = ρ.


− →
− →

Seja → −r = x i + y j + z k , o vetor posição de um ponto P(x,y,z), pertencente à
superfı́cie definida por Φ(x, y, z) = ρ.

− →
− →

d→
−r = dx i + dy j + dz k é um vetor tangente à superfı́cie no ponto P(x,y,z).

39
Figura 3.7: Curva de equação φ(x, y) = ρ.

−→
d→

r = lim ∆S
Q−→P
d→

r é um vetor tangente à curva φ(x, y) = ρ
d→

r é um vetor tangente à superfı́cie Φ(x, y, z) = ρ.
Mas ∇Φ(x, y, z)•d→
−r = ∂Φ
∂x
dx+ ∂Φ
∂y
dy+ ∂Φ∂z
dz = dΦ = 0, pois Φ(x, y, z) = ρ = constante.


Logo ∇Φ é normal a d r .

Divergente de um vetor

O operador 5 é formalmente multiplicado escalarmente por um vetor, resultando em um


escalar. Portanto transforma campos vetoriais em campos escalares.


− →
− →
− →

V (x, y, z) = v1 i + v2 j + v3 k


− →
− ∂v1 ∂v2 ∂v3
DIV V = ∇ • V = + + (3.2)
∂x ∂y ∂z


− ∂() →
− ∂() →
− ∂() →
− →
− →
− →

∇• V =( i + j + k ) • (v1 i + v2 j + v3 k )
∂x ∂y ∂z
∂v1 →− → − ∂v 2 →
− → − ∂v3 →
− → − ∂v2 →
− → − ∂v3 →− → −
= ( i • i )+ (j • j )+ (k • k)+ ( i • j )+ (i • k)
∂x ∂y ∂z ∂x ∂x
∂v1 →− → − ∂v3 →− → − ∂v1 →− → − ∂v2 →
− → −
+ (j • i )+ (j • k)+ (k • i )+ (k • j )
∂y ∂y ∂z ∂z

− → − → −
Lembrando que os produtos escalares de i , j , e k por eles mesmos é igual à unidade,
e que os produtos escalares entre dois deles é igual a zero (ver equações 3.1), chega-se na
equação (3.2).

40
Rotacional de um campo vetorial

O operador 5 é formalmente multiplicado vetorialmente por um vetor, resultando em um


vetor. Portanto transforma campos vetoriais em campos vetoriais.


− →
− →

i j k

− →
− ∂() ∂() ∂()
ROT V = ∇ × V = ∂x1 ∂x2 ∂x3
v1 v2 v3

− ∂v3 ∂v2 →
− ∂v1 ∂v3 →
− ∂v2 ∂v1
= i( − )+ j ( − )+ k( − )
∂x2 ∂x3 ∂x3 ∂x1 ∂x1 ∂x2



e1 →

e2 →

e3

− ∂v3 ∂v2 ∂v1 ∂v3 ∂v2 ∂v1
∇× V = ∂()
∂x1
∂()
∂x2
∂()
∂x3
=→

e1 ( − )+→

e2 ( − )+→

e3 ( − )
∂x2 ∂x3 ∂x3 ∂x1 ∂x1 ∂x2
v1 v2 v3

3.3.4 Operador laplaciano ∆


Definição:

∂ 2 () ∂ 2 () ∂ 2 ()
2
∆() = ∇ • ∇() = ∇ () = + +
∂x2 ∂y 2 ∂z 2
Laplaciano de uma função escalar φ(x, y, z):

2 ∂ 2φ ∂ 2φ ∂ 2φ
∆φ(x, y, z) = ∇ φ(x, y, z) = ∇ • ∇φ = + + 2
∂x2 ∂y 2 ∂z
Transforma campos escalares em campos escalares.

Exercı́cio: Demonstre as seguintes propriedades:

ROT GRAD φ = ∇ × ∇φ = 0

− →

DIV ROT V = ∇ • (∇ × V ) = 0
∇(φ.ψ) = φ∇ψ + ψ∇φ

− →
− →

∇ • (φ V ) = φ(∇ • V ) + V • ∇φ

41
42
Capı́tulo 4

Notação indicial

Seja um sistema de coordenadas cartesiano definido por (x1 , x2 , x3 ) na base (→



e1 , →

e2 , →

e3 ).

Figura 4.1: Domı́nio.

Φ(x1 , x2 , x3 ) : R3 −→ R1 é uma função escalar contı́nua em D.



− → − → −
A , B , C são vetores:

 
a1 

− 
A = a1 →

e1 + a2 →

e 2 + a3 →

e3 ou [a1 , a2 , a3 ] ou a2
a3
 
 
b1 

− 
B = b1 →

e1 + b2 →

e2 + b3 →

e3 ou [b1 , b2 , b3 ] ou b2
b3
 

43
4.1 Notação clássica
3
∂Φ →− ∂Φ →− ∂Φ →−
X ∂Φ


OΦ(x1 , x2 , x3 ) = e1 + e2 + e3 = ei
∂x1 ∂x2 ∂x3 i=1
∂xi
ou

 ∂Φ 
∂Φ ∂Φ ∂Φ  ∂x1 
∂Φ
OΦ(x1 , x2 , x3 ) = ( , , ) ou ∂x2
∂x1 ∂x2 ∂x3  ∂Φ 
∂x3
 ∂() 
3  ∂x1 

X ∂() →
− ∂()

O() = ei = ∂x
i=1
∂xi  ∂()2 
 
∂x3

3

− →
− X ∂ai ∂a1 ∂a2 ∂a3
DIV A = O • A = = + +
i=1
∂xi ∂x1 ∂x2 ∂x3


e1 →

e2 → −
e3

− →
− ∂() ∂() ∂() →
− ∂a3 ∂a2 →
− ∂a1 ∂a3 →
− ∂a2 ∂a1
ROT A = O × A = ∂x ∂x2 ∂x3
= e1 ( − ) + e 2 ( − ) + e3 ( − )
1 ∂x2 ∂x3 ∂x3 ∂x1 ∂x1 ∂x2
a1 a2 a3
3
2
X ∂ 2φ ∂ 2φ ∂ 2φ ∂ 2φ
5 φ = 5 • 5φ = = + +
i=1
∂xi ∂xi ∂x21 ∂x22 ∂x23

4.2 Notação indicial


4.2.1 Definição


Um vetor cartesiano V é representado por suas componentes.


V = v1 →

e1 + v2 →−
e2 + v3 →

e3 = [v1 , v2 , v3 ] −→ vi


Portanto: V −→ vi (Fica implı́cito que o ı́ndice i varia de 1 a 3, i = 1, 2, 3)

−v =⇒ (x1 , x2 , x3 ) =⇒ xi ou xj.

− −
Qualquer variável ( V , → v , etc...) com um ı́ndice vi ou vj sem repetição, denota um
vetor. i ou j é chamado ı́ndice livre (”free index”).

− →
− →

A =⇒ ai , B =⇒ bi , C =⇒ ci

− →
− →

C = A + B
↓ ↓ ↓ Fica implı́cito que i = 1, 2, 3.
c i = ai + b i
é equivalente a (c1 , c2 , c3 ) = [(a1 + b1 ), (a2 + b2 ), (a3 + b3 )]

44

− →

B = αA =⇒ [b1 , b2 , b3 ] = [αa1 , αa2 , αa3 ]
↓ ↓
bj = αaj

Dois ı́ndices livres indicam uma matriz (3x3)


aij (implı́cito
 que i e j variam
 de 1 a 3)
a11 a12 a13
aij =⇒  a21 a22 a23 
a31 a32 a33

Três ı́ndices livres indicam uma matriz 3D (3x3x3)

%k  −→j
a111 a121 a131
aijk =⇒ i ↓  a211 a221 a231  (i, j, k) variam de 1 a 3.
a311 a321 a331

4.2.2 Convenção soma


Toda vez que houver repetição de ı́ndice em um termo é entendido uma somatória em que
os ı́ndices variam de 1 a 3.
O ı́ndice repetido se chama ı́ndice mudo (”dummy index”).
Um ı́ndice só pode repetir uma vez num mesmo termo.
Exemplos:

Notação clássica Notação indicial

Produto escalar:

3

− →
− X →
− → −
A•B = ai b i =⇒ A • B = ai b i
i=1

Gradiente:

3
X ∂Φ → − ∂Φ →− ∂Φ →−
OΦ = ei =⇒ ei = ej
i=1
∂x i ∂xi ∂xj

45
Sistema de equações:

i ⇒ ı́ndice livre.
aij xj = bi =⇒ =⇒
j⇒ ı́ndice mudo. 
i = 1  a11 x1 + a12 x2 + a13 x3 = b1 
=⇒ {ai1 x1 + ai2 x2 + ai3 x3 = bi } =⇒ i = 2 a21 x1 + a22 x2 + a23 x3 = b2 =⇒
i = 3 a 31 x1 +
a32 x2 + a33 x3 = b3
 
 
a11 a12 a13  x1   b1 
=⇒  a21 a22 a23  x2 = b2
a31 a32 a33 x3 b3
   

4.2.3 Notação de diferenciação


A diferenciação é indicada por uma vı́rgula como ı́ndice.

Exemplos:
∂φ →− = φ,i →


 ∇φ =
 e
∂xi i
ei (Notação indicial como soma vetorial)
∂φ
Gradiente de φ: ∇φ = ∂xi
= φ,i (Notaçé indicial como componente do vetor gradiente)
∇φ = φ, i



Divergente de A :


− ∂a1 ∂a2 ∂a3 ∂ai
∇• A =( + + )= = ai,i = (a1,1 + a2,2 + a3,3 )
∂x1 ∂x2 ∂x3 ∂xi
Notação indicial



∇ • A = ai,i

Laplaciano de φ:

∂ 2φ ∂ 2φ ∂ 2φ ∂ 2φ
∇2 φ = ∇ • ∇φ = + + = = φ,ii = φ,11 + φ,22 + φ,33
∂x21 ∂x22 ∂x23 ∂xi ∂xi
(Notação indicial)

∇2 φ = φ,ii

4.2.4 Delta de Kronecker δij


Tensor δij ⇒ Matriz (3x3)
 
1 0 0 
δij = 1 i = j
δij ⇒  0 1 0 
6 j
δij = 0 i =
0 0 1

46
δij é também um operador matricial (operador substituição).
δij vj = vi (o operador δij aplicado em um vetor vj substitui o ı́ndice repetido do
vetor pelo ı́ndice livre).
δij vi = vj
δij vj = δi1 v1 + δi2 v2 + δi3 v3 = vi
δij δij = δii ou δjj = δ11 + δ22 + δ33 = 3
δij aij = aii ou ajj = (a11 + a22 + a33 )

−ei • →−
ej = δij

4.2.5 Operador alternante ou alternador εijk



 Alternante
Tensor εijk ⇒ Tensor ou
Alternador

εijk → 3 ı́ndices livres → 33 = 27 componentes (Matriz 3x3x3)
Definição:
εijk = 0 se houver ı́ndice repetido (nesse caso não significa soma)
εijk = 1 se a partir da ordem natural (i, j, k) = (1, 2, 3), o número de
permutações for par
εijk = −1 se a permutação for ı́mpar

Permutações pares Permutações ı́mpares


(1 2 3) (1 3 2)
(2 3 1) (3 2 1)
(3 1 2) (2 1 3)

4.2.6 Aplicações do tensor εijk




e1 →

e2 →

e3

− →
− →

C = A×B = a1 a2 a3 = εijk →

ei aj bk = εijk aj bk →

ei = εijk aj bk
b1 b2 b3

a1 a2 a3

− →
− → −
A • (B × C ) = b1 b2 b3 = ai →

ei • εjkl →

ej bk cl = εjkl ai bk cl (→

e •→ −
e ) = δij εjkl ai bk cl = εijk ai bj ck
| i {z j}
c1 c2 c3
| {z }
δij εikl

= a1 b2 c3 + a2 b3 c1 + a3 b1 c2 − (a1 b3 c2 + a2 b1 c3 + a3 b2 c1 ) + 0 + 0 + · · · · · · + 0 + 0

a11 a12 a13


|aij | = a21 a22 a23 = εijk a1i a2j a3k
a31 a32 a33

47
4.2.7 Relação entre δij e εklm
εijk εist = δjs δkt − δjt δks

4.3 Exercı́cios
Usando notação indicial,

1. mostrar que εi12 εi23 = 0


εi12 εi23 = δ12 δ23 − δ13 δ22 = 0

− →
− → − →
− →
− →
− →
− →− → −
2. mostrar que, A × ( B × C ) = B ( A • C ) − C ( A • B )
Lado esquerdo da equação;
( → − →
− →−

− →
− →
− → − D = A × E → di = εijk aj ek
D = A × (|B {z
× C}) ⇒ →
− →
− → −

→ E = B × C → ek = εkst bs ct
E
di = εijk aj εkst bs ct ∼ di = εijk εkst aj bs ct
εijk = εkij ⇒ di = εkij εkst aj bs ct = (δis δjt − δit δjs )aj bs ct

δis bs = bi
=⇒ δjt aj bi ct − δjs aj bs ci
δit ct = ci |{z} | {z }
at as

d i = at b i c t − as b s c i
d i = bi (at ct ) − ci (as bs )
↓ ↓ ↓ ↓ ↓

− →
− →− → − →
− →− → −
D = B (A • C ) − C (A • B)
3. mostrar que εijk εkji = −6
εkji = −εijk ⇒ εijk εkji = −εijk εijk = −(δjj δkk − δjk δkj )
| {z }
δjj

δii = 3 ⇒ εijk εkji = −9 + 3 = −6

4. mostrar que 5 × 5φ = 0
∂2φ
 ∂φ 
5 × 5φ = εijk ∂x∂ j ∂x k
= ε ijk ∂x j xk

εijk φ,jk = 0
εijk φ,jk = ε123 φ,23 + ε132 φ,32 + ε213 φ,13 + ε231 φ,31 + ε312 φ,12 + ε321 φ,21 = 0
| {z } | {z } | {z }
0 0 0


− →
− →

5. Mostrar indicialmente que 5 × (5 × A ) = 5(5 • A ) − 52 A


A = ai

48


52 A = 52 a1 → −
e1 + 52 a2 →

e2 + 52 a3 →

e3


52 A = 52 ai = ai,jj


Definindo 5 × A = bi = εijk ak,j ⇒

− →

5 × (5 × A ) = 5 × B = εlmi bi,m = εlmi εijk ak,jm = εilm εijk ak,,jm = (δlj δmk −
δlk δmj )ak,jm


5 × (5 × A ) = (δlj δmk ak,jm − δlk δmj ak,jm ) = δlj am,jm − δlk ak,mm = am,lm − al,mm
| {z } | {z } | {z } | {z }
am,jm ak,mm am,lm al,mm

− )
am,lm = 5(am,m ) = 5(5 • A ) →
− →

2 2→
− ⇒ am,lm − al,mm = 5(5 • A ) − 52 A
al,mm = 5 al = 5 A

4.4 Problemas
Mostrar (indicialmente) que:

− → −
a) εijk Aj Ak = A × A = 0

b) εijk δij = 0


c) 5 • (5 × A ) = 0

Q1 = εijk εijm σkm P1 = σii
d) Dada a matriz simétrica σij (σij = σji ) e
Q2 = εijk εimn σjm σkn P2 = σij σji

Q1 = 2P1
mostrar que,
Q2 = P12 − P2
ai
e) Dado bi = √
aj aj
, mostrar que bi é um vetor unitário.

49
50
Capı́tulo 5

Vetores Euclidianos

Considere-se no espaço euclidiano E 3 , um referencial (x,y,z) destrógiro.



Um vetor V pode ser especificado por suas compo-
nentes,

− →
− →
− →

V = v1 →

e 1 + v2 →

e 2 + v3 →

e 3 ou v1 i + v2 j + v3 k

 
v1 

− 
ou simplesmente V = v2 = {V }
v3
 

Onde

     
 1   0   0  Figura 5.1: Base euclidiana.


e1= 0 , →

e2= 1 , →

e3= 0
0 0 1
     


− →

Diz-se que V ∈ E 3 (ou V ∈ C 3 se as componentes forem complexas).
Nota: Pode-se generalizar o espaço E 3 para um espaço N-dimensional E N . Neste caso,
{V } ∈ E N pode ser definido por suas N componentes,
 

 v1 

 v2
 

{V } = ..


 . 


 v 
N

Definição: Vetores linearmente independentes (vetores LI)


Um conjunto de vetores [{x}1 , {x}2 , . . . , {x}N ], {x}i ∈ E N , é definido como
linearmente independente (LI) se e somente se a combinação linear,

51
α1 {x}1 + α2 {x}2 + . . . + αN {x}N = {0}
admitir somente a solução trivial, α1 = α2 = · · · = αN = 0

α1 {x}1 + α2 {x}2 + . . . + αN {x}N = {0}


 

 α 1 

 α2 
 
[{x}1 {x}2 . . . {x}N ] .. = {0}


 . 

 α  
N
      

 x11 
  x12 
    x1N     α1  
 x21  x22   x2N   α2 
 
     
· · · = {0}
 
 .. .. ..  ..


 . 



 . 
 
 . 
  . 

 xN 1  x     x 
   α  
N2 NN N

[X](N ×N ) {α} = {0}


Se |[X]| =6 0 ⇒ {α} = [X]−1 {0} = {0} (solução trivial única, conjunto LI)
Se |[X]| = 0 ⇒ O sistema homogêneo apresenta soluções não triviais ⇒ o conjunto de
vetores é chamado linearmente dependente, (LD).
Definição: Num espaço E N , qualquer conjunto de N vetores LI, [{b}1 , {b}2 , . . . , {b}N ]
constitui uma base vetorial para o E N .
Qualquer vetor {V } do E N , {V } ∈ E N , pode ser escrito como uma combinação linear
dos vetores da base,

 

 α1 

 α2
 

{V } = α1 {b}1 + α2 {b}2 + . . . + αN {b}N ou {V } = [{b}1 {b}2 . . . {b}N ] ..


 . 


 α 
N

N é a dimensão do espaço vetorial E N .    



 a1 
 
 b1 

a2  b2

 
  

Produto escalar entre dois vetores {A} = .. e {B} = .. em uma base


 . 




 . 


 aN   b
N

ortonormal:
N
X
T
({A}, {B}) = ({B}, {A}) = {A} · {B} = {A} {B} = ai b i
i=1

Definição - Base ortogonal: ({b}1 , {b}2 , . . . , {b}N ) é uma base ortogonal se,

52
{b}Ti {b}j = 0 quando i 6= j
6= 0 quando i = j
Definição: Base ortonormal: ({b}1 , {b}2 , . . . , {b}N ) é uma base ortonormal se,

T 0 quando i 6= j
{b}i {b}j = δij =
1 quando i = j
δij → delta de Kronecker.
Obs.: Muitas vezes a base ortonormal é chamada ortogonal.

5.1 Norma de um vetor


Definição: Norma de um vetor {V } → k{V }k?
k{V }k? é um escalar que satisfaz 3 condições:

(i) k{V }k? > 0 ∀{V } =


6 {0}; k{V }k? = 0 implica em {V } = {0}
(ii) kα{V }k? = |α|. k{V }k?
(iii) k{U } + {V }k? ≤ k{U }k? + k{V }k? (propriedade triangular)

5.1.1 Algumas definições para a norma


(i) Norma euclidiana ou Frobenius:
v
u N
p uX 2
k{V }kE T
ou k{V }k2 = {V } {V } = t |vi |
i=1

(ii) Norma máxima (ou absoluta):

k{V }k∞ = Máximo |vi |


i

(iii) ”Taxicab norm”:

N
X
k{V }k1 = |vi |
i=1

(iv) Norma generalizada p:


v
u N
uX p
p
k{V }kp = t |vi | p inteiro, 1 ≤ p < ∞
i=1

53
Definição: Vetor unitário ⇒ k{V }k? = 1
Portanto o vetor unitário depende da norma utilizada.

5.2 Obtenção de uma base ortogonal


Problema: dado uma base qualquer, [{b}1 , {b}2 , . . . , {b}N ] ⇒
obter uma base ortogonal, [{u}1 , {u}2 , . . . , {u}N ].
Sapõe-se que o conjunto de vetores [{b}1 , {b}2 , . . . , {b}N ] seja LI. Caso contrário não
constituiria uma base.

5.2.1 Método de ortogonalização de Gram-Schmidt


Dado um conjunto de vetores LI, [{b}1 , {b}2 , . . . , {b}M ], M ≤ N, {b}i ∈ E N , obter
um conjunto de vetores ortonormais [{u}1 , {u}2 , . . . , {u}M ], {u}Ti {u}j = δij

Algoritmo básico:

1. i=1

{p}1 = {b}1 (5.1)

2. Normalizar {p}1 :
v
u N
uX
α11 = k{p}1 k2 = t p2j (5.2)
j=1

{p}1
{u}1 = (5.3)
α11
Das equações 5.1, 5.2 e 5.3,

{b}1 = α11 {u}1

3. i = 2

{p}2 = {b}2 − α12 {u}1 (5.4)

Impondo a condição de ortogonalidade entre {p}2 e {u}1 ,

{p}T2 {u}1 = {u}T1 {p}2 = 0 (5.5)

54
Pré-multiplicando a equação 5.4 por {u}T1 ,

{u}T1 {p}2 = {u}T1 {b}2 − α12 {u}T1 {u}1 = 0 (5.6)


| {z }
1

∴ α12 = {u}T1 {b}2 (5.7)

4. Normalização de {p}2 ,

α22 = k{p}2 k2 (5.8)

{p}2
{u}2 = (5.9)
α22

∴ {p}2 = α22 {u}2

Das equações 5.4 e 5.9,

{b}2 = α12 {u}1 + α22 {u}2 (5.10)

5. i = 3

{p}3 = {b}3 − α13 {u}1 − α23 {u}2 (5.11)

da ortogonalidade,

{p}T3 {u}1 = {p}T3 {u}2 = 0 (5.12)

{u}T1 × equação 5.11⇒ {u}T1 {p}3 = {u}T1 {b}3 − α13 {u}T1 {u}1 − α23 {u}T1 {u}2 = 0
| {z } | {z }
1 0

α13 = {u}T1 {b}3 (5.13)

{u}T2 × equação 5.11⇒ {u}T2 {p}3 = {u}T2 {b}3 − α13 {u}T2 {u}1 − α23 {u}T2 {u}2 = 0
| {z } | {z }
0 1

α23 = {u}T2 {b}3 (5.14)

55
6. Normalização de {p}3

α33 = k{p}3 k2 (5.15)


{p}3
{u}3 = (5.16)
α33
Das equações 5.11 e 5.16,
{b}3 = α13 {u}1 + α23 {u}2 + α33 {u}3 (5.17)

7. Para i qualquer, analogamente, obtém-se:

i−1
X
{p}i = {b}i − αji {u}j (5.18)
j=1

αji = {u}Tj {b}i j = 1, 2, . . . , (i − 1) (5.19)


αii = k{p}i k2 (5.20)
{p}i
{u}i = (5.21)
αii
Das equações 5.18 e 5.21,

i
X
{b}i = α1i {u}1 + α2i {u}2 + · · · + αii {u}i = αji {u}j (5.22)
j=1

8. Repetir até i = M , M ≤ N.
Da equação 5.22 pode-se ver que,

 
α11 α12 α13 ··· α1M

 0 α22 α23 ··· α2M 

[{b}1 {b}2 · · · {b}M ] = [{u}1 {u}2 · · · {u}M ] 
 0 0 α33 ··· α3M 

 .. .. .. .. .. 
 . . . . . 
0 0 0 ··· αM M
    [R] 
  − − − 
N  B = N  U  − −  M
[0] −
  
| {z } | {z }| {z }
M M M
T
[U ] [U ] = [I] (as colunas de [U ] são ortogonais entre si)
M ×N N ×M M ×M
Se M = N ⇒ [U ]T [U ] = [U ][U ]T = [I] (as linhas também são ortogonais entre si)

Observação: Essa decomposição é chamada de decomposição QR

56
Algoritmo Gram-Schmidt modificado:
Do ponto de vista numérico é conveniente modificar ligeiramente o algoritmo básico. O
objetivo é minimizar os erros de truncamento.

1. i = 1

{p}1 = {b}1
v
u N
uX
α11 = k{p}1 k2 = t p2j
j=1

{p}1
{u}1 =
α11

{b}1 = α11 {u}1

2. i = 2

α12 = {u}T1 {b}2


{p}2 = {b}2 − α12 {u}1
α22 = k{p}2 k
{p}2
{u}2 =
α22

{b}2 = α12 {u}1 + α22 {u}2

3. i = 3

α13 = {u}T1 {b}3


{p}13 = {b}3 − α13 {u}1
α23 = {u}T2 {p}13
{p}23 = {p}13 − α23 {u}2
α33 = {p}23
{p}23
{u}3 =
α33

{b}3 = α13 {u}1 + α23 {u}2 + α33 {u}3

57
4. Analogamente para i qualquer:

α1i = {u}T1 {b}i


{p}1i = {b}i − α1i {u}1
α2i = {u}T2 {p}1i
{p}2i = {p}1i − α2i {u}2
α3i = {u}T3 {p}2i
{p}3i = {p}2i − α3i {u}3
.. ..
. = .
(i−2)
α(i−1),i = {u}Ti−1 {p}i
(i−1) (i−2)
{p}i = {p}i − α(i−1),i {u}i−1
αii = {p}ii−1
{p}i−1
i
{u}i =
αii

{b}i = α1i {u}1 + α2i {u}2 + · · · + αii {u}i

Observação: No algoritmo modificado, {p}i−1 i é calculado de modo que


T (i−1)
{u}j {p}i =0 (j = 1, 2, . . . , (i − 1)) é imposto para cada {u}j , independente-
mente.

Programa 1: Programar o Gram Schmidt modificado:


Dados M vetores LI, M ≤ N , [B] = [{b}1 {b}2 · · · {b}M ], {b}i ∈ E N , achar M
N ×M
vetores ortogonais [U ] = [{u}1 {u}2 · · · {u}M ]
N ×M

• Verificação da ortogonalidade: [U ]T [U ] = [I]


M ×M
 
α11 α12 · · · α1M
 0 α22 · · · α2M 
• [R] = 
 
.. .. .. .. 
 . . . . 
0 0 · · · αM M

• Saı́da: [B] , [U ] , [R]


N ×M N ×M M ×M

• Verificar [B] = [U ].[R].

58
Capı́tulo 6

Produto escalar e projeções em um


espaço Euclidiano

6.1 Vetor projeção


A diferença entre um vetor e a sua projeção numa determinada direção é ortogonal a essa
direção.

Figura 6.1: Projeção ortogonal.

Dados dois vetores euclidianos:

 
a1 

− 
A → (a1 , a2 , a3 ), → {a} = a2
a3
 
 

−  b1 
B → (b1 , b2 , b3 ), → {b} = b2
b3
 


− →

achar a projeção de B em A .

59
s

− p 3
a2i
P
A = {a}T {a} =

→ −
→ E i=1
A B
cos θ = −
→ • −
→ s
kAk E
kB k E →
− p 3
b2i
P
B = {b}T {b} =
E i=1

− →
− →

Seja P a projeção de B em A


− →


− A α →
− →
− →
− A {b}T {a}
P =α →
− =p A, α= P =B• →
− =
A {a}T {a} E
A ({a}T {a})1/2
E E


→ −
→ →



A
=√ A
⇒ Vetor unitário na direção de A .
kAk E
{a}T {a}



− {b}T {a} A {a}T {b} →

∴P = = A
({a}T {a})1/2 ({a}T {a})1/2 {a}T {a}

6.2 Matriz projetora


Na forma de componentes:
     
p1  a1  b1 

−  →
−  →
− 
P = p2 = {p}; A = a2 = {a}; B = b2 = {b}
p3 a3 b3
     

{a}T {b} {a}{a}T


{p} = {a} = {b}
{a}T {a} {a}T {a}
Pode se verificar a igualdade das duas expressões acima, já que:
( )
X X
{a}T {b}{a} = ai bi {a} = ai b i aj
i i
e
( ) ( ) ( )
X X X
{a}{a}T {b} = [ai aj ]{b} = ai aj b j = aj b j ai = ai b i aj
j j i

Então é possı́vel definir a matriz [P ]:

{a}{a}T
 
= [P] ⇒ {p} = [P](N ×N ) {b}
{a}T {a} (N ×N )

{a}{a}T
Definição: A matriz [P] = {a}T {a}
é chamada matriz projetora ou matriz projeção.

60
Ela projeta um vetor {b} qualquer na direção de {a}.

Propriedades da matriz [P]

1. Simétrica: ([P]T = [P])


T
{a}{a}T ({a}T )T ({a})T {a}{a}T

T
[P] = = = = [P]
{a}T {a} {a}T {a} {a}T {a}

2. ”Idempotente”: [P][P] = [P] ([P][P] = [P]2 = [P])

{a}({a}T {a}){a}T ({a}T {a}) ({a}{a}T ) {a}{a}T


[P][P] = . = = = [P]
{a}T {a} {a}T {a} ({a}T {a}) ({a}T {a}) {a}T {a}
| {z }
1

Observação: um caso particular importante é o dos vetores {b} que produzem uma
projeção nula.

{a}{a}T
[P]{b} = {0} ⇒ T
{b} = {0} ⇒ {a}T {b} = {0}
{a} {a}
* qualquer vetor {b}⊥{a} produz um vetor nulo quando projetado em {a}.

6.3 Teorema da projeção


 
v11 

− →
− →
−  →

Dado dois vetores coplanares não paralelos V 1 e V 2 no E3 , V 1 = v21 e V2 =
v31
 
 
 v12  →
− →

v22 , e um ponto B não pertencente ao plano S2 definido por V 1 e V 2 , qual é a
v32
 
distância do ponto B ao plano S2 ?

− →
− →
− →
− →
− →

Plano S2 definido por V 1 e V 2 ⇒ S2 = { R ∈ E3 | R = x1 V 1 + x2 V 2 }, x1 , x2
escalares.
Na forma matricial:

     
 r1   v11   v12 
r2 = x1 v21 + x2 v22
r3 v31 v32
     
   
 r1 v11 v12  
x

1
r2 =  v21 v22 
x2
r3 v31 v32
 

{r} = [A]{x}

61
Seja um ponto O de referência no plano S2 . Seja um ponto A(a1 , a2 , a3 ) definido pelo


vetor R (ou vice-versa), pertencente ao plano S2 . Seja um ponto B(b1 , b2 , b3 ) definido


pelo vetor B (ou vice-versa).

(O ponto O é a origem
do sistema de referência)


− −−→
B = OB

− −→ Figura 6.2: Distância de um ponto a um plano.
R = OA

A distância AB entre o ponto A e o ponto B pode ser obtida de,



− −→ → − −→ → − → −
B + BA = R ⇒ BA = R − B

− −→
onde R = OA.


− → −
∴ AB = R − B
E

A menor distância entre o ponto B e um ponto A do S2 é a distância entre o ponto B


e o plano S2 .
 

− → −  r1 
d = AB Mı́nimo = Mı́nimo R − B {R} = r2
r1 ,r2 ,r3 E
r3
 


− → − →
− →
− →
− →
− →
− → −
Solução: R − B é mı́nimo quando ( R − B ) ⊥ R , isto é ( R − B ) · R = 0 =
E

− → − → −
R · ( R − B ).

− → − →
− → − 2
Mı́nimo


R − B = Mı́nimo


R − B
R R

− →
− 2 →
− → − →
− → − →
− → − → − →
− → − → −
R−B = (R − B) · (R − B) = (R − B) · R − (R − B) · B
| {z }
0


− → − 2 →
− → − → −
d2 = min R − B = min|( R − B ) · B |
E

62


Para determinar o vetor R :

− →
− → − → −
R = [A]{x} ⇒ R · ( R − B ) = 0 pode ser escrito:
([A]{x})T ([A]{x} − {b}) = {x}T [A]T ([A]{x} − {b}) = 0
{x}T [A]T [A]{x} − {x}T [A]T {b} = 0
{x}T ([A]T [A]{x} − [A]T {b}) = 0 ⇒ [A]T [A]{x} = [A]T {b}
| {z }
{0}


O vetor R que produz a distância entre B e S2 é obtido de [A]T [A]{x} = [A]T {b}:

{x} = ( [A] T [A] )−1 [A]T {b}


(2×1) (2×3) (3×2) (2×3)(3×1)
| {z }
(2×2)

− →
− →

{ R } = x1 V 1 + x2 V 2 = [A]{x}
 
x1 →
− → − 2
Como é a solução que torna R − B mı́nimo ⇒ é equivalente à solução
x2
por mı́nimos quadrados.


Neste caso, {R} é a projeção de B no plano S2 .
{x} = (AT A)−1 AT {b}
Pré-multiplicando por [A]:


{ R } = A(AT A)−1 AT
| {z }
[P ]3×3



{ R } = [A]{x} = A(AT A)−1 AT {b}
| {z }
(3×3)

{R} = [P] {b} → Projeção de {b} em S2


(3×1) (3×3)(3×1)

[P] = A(AT A)−1 AT é a matriz de projeção,

• simétrica.
• Idempotente: [P]2 = A(AT A)−1 AT A(AT A)−1 AT = A(AT A)−1 AT = [P]
| {z }
[I]

Generalização do Teorema da projeção:


 LI,({V }1 , {V }2 , . . . , {V }M )
Seja um conjunto de vetores

 v1i 

 v2i 
 
{V }i ∈ E N {V }i = .. M ≤ N.


 . 

 v  
Ni

63
    

 v 11 
 
 v 12 
 · · · 
 v 1M 

v v · · · v
 
 
 
 
 

21 22 2M
[{V }1 {V }2 · · · {V }M ] =   = [A]
 
.. .. . . ..
 . 
 
 . 
 . 
 . 
 (N ×M )

 v   v   ···   v 

N1 N2 NM
O conjunto
 de M vetores LI define um plano SM , M -dimensional, SM ⊂ E N .
SM = {R} ∈ E N | {R} = x1 {V }1 + x2 {V }2 + · · ·  + xM {V }M , (x1 , . . . , xM ) escalares
 x1 
 
 x2 
 
Na forma matricial, {R} = [{V }1 {V }2 · · · {V }M ] . = [A] {x}
(N ×1)  .. 

  (N ×M )(M ×1)

 x 
N
 

 b1 
 b2 
 
Para qualquer vetor {B} = .. , {B} ∈ E N , existe um vetor {p} ∈ SM tal que


 . 

 b  
N
k{B} − {p}k2 é mı́nimo.
Nesse caso, ({B} − {p}) é ortogonal a {p}, isto é ({B} − {p}) • {p} = 0.
O vetor {p} é obtido de {p} = [A(AT A)−1 AT ] {B}
(N ×1) | {z }(N ×1)
[P ]
(N ×N )

{p} é a projeção de {B} no plano SM .


 
−5 

− 
Exemplo: Dado um ponto B que define o vetor B = 5 = {b}, e o plano
5
 
   
√  1  √  0  →



definido por e 1 = 2 2
0 →

e e 2 = 22 1 ; S2 = { R = x1 →−e 1 + x2 →

e 2 }, calcular a
0 0
   


projeção {p} de B em S2 . Calcular a distância de B a S2 .

Observação: é possı́vel verificar que o ponto B não pertence ao plano S2 .

Solução:   
1 0    1 0 0
1 0 1 0 0
{p} = [A(AT A)−1 AT ]{b} ⇒ {p} =  0 1  {b} =  0 1 0 {b}
0 1 0 1 0
0 0 0 0 0
| {z }
[P ]
    
1 0 0  −5   −5 
{p} =  0 1 0  5 = 5
0 0 0 5  0
   
   
 −5   −5   0 
d = k{B} − {p}kE = 5 − 5 = 0 =5
5 0 5
     

64
Observação:
   −1  
√ 1 0 √
 √ 1 0 √
  1 0 0
1 1 0 1 1 0
[P ] = 22  1 1   22 2
2
1 1  2
2
= 0 1 0 
0 1 0 0 1 0
0 0  0 0 0 0 0
 −5 
{p} = [P ]{b} = 5
0
 
       
 1   0  √  1  √  0 
Resultado obvio, já que os pares de vetores 0 ; 1 e 2 0 ; 22
1
    2  
0 0 0 0
 
definem o mesmo plano.

Exercı́cios:
 

 1 


− 
−2

1. Achar a matriz projetora do vetor { V } =

 3 

−4
 
 

 5 

−   →

5

Achar a projeção do vetor { B } = na direção de { V }.

 5 
 
5

 
 1 
2. Dado o plano S que passa por O(2, 1, 0) e definido pelos vetores →

e1 = 0 e
1
 
 
 0 


e2= 0 , e o ponto P (−5, 1, 1), achar:
1
 

−→
(a) Projeção do vetor OP sobre S.
(b) Distância de P a S.

65
66
Capı́tulo 7

Matrizes

7.1 Notação
 
a11 a12 ··· a1N
 a21 a22 ··· a2N 
[A] = [aij ] = 
 
.. .. .. .. 
 . . . . 
aM 1 aM 2 · · · aM N
(M ×N )

Generalização:

aijk ⇒ (Matriz 3D)

7.2 Definições e propriedades


Definição - Matriz diagonal:
 

..
 d1 0 · · · 0
.  0 d2 · · · 0 
D =
   
.. .. . . .
. ..
   
...  . . 
0 0 · · · dN
(N ×N )

67
Definição - Matriz identidade:
 
1 0 ··· 0
 0 1 ··· 0 
[I] = 
 
.... . . .. 
(N ×N )  . . . . 
0 0 ··· 1

Definição - Matriz transposta: [A]T → Trocam-se as linhas e as colunas de [A].


 
  a11 a21 a31
a11 a12 a13 a14  a 12 a22 a32 
[A] =  a21 a22 a23 a24  ⇒ [A]T =   a13

(3×4) (4×3) a23 a33 
a31 a32 a33 a34
a14 a24 a34
Propriedade:

[A] = [B] . [C] =⇒ [A]T = [C]T .[B]T


(M ×N ) (M ×L) (L×N )

Definição - Matriz simétrica:

[A] = [A]T

Definição - Matriz anti-simétrica:

[A] = −[A]T ⇒ diagonal nula em [A] e [A]T .

Definição - Matriz complexa:

[C] = [A] + j [B] ([A] e [B] matrizes reais).


(M ×N ) (M ×N ) (M ×N )

Definição - Matriz conjugada:

[C]∗ = [A] − j[B]

Definição - Matriz inversa [A] −1 :


N ×N

[A][A]−1 = [A]−1 [A] = [I]


Propriedade:

[A] = [B] . [C] =⇒ [A]−1 = [C]−1 .[B]−1


(N ×N ) (N ×N ) (N ×N )

68
Definição - Matriz triangular:
  

 − −− −−
Superior → [U ] =  − −−  uij = 0 se i > j





 (N ×N ) 0 −

 
− 0




Inferior → [L] =  −− − lij = 0 se i < j

 


 (N ×N ) −− −− −

Definição - Matriz ortogonal [P ] :


(N ×N )

[P ]T = [P ]−1
 
1 0 ··· 0
 0 1 ··· 0 
[P ]T [P ] = [P ][P ]T = [I] = 
 
.... . . .. 
 . . . . 
0 0 ··· 1

[P ] = [{p}1 {p}2 . . . {p}N ]


As colunas de [P ] são ortogonais entre si ⇒ {p}i .{p}j = δij .
Analogamente, as linhas de [P ] também são ortogonais entre si.

Propriedades:

k[P ]{x}k• = k{x}k• (a norma é preservada)


[P ]{x} • [P ]{y} = {x} • {y} (o produto escalar é preservado)

Definição - Matriz unitária:


Seja [U ] complexa. [U ] é unitária se:
(N ×N ) (N ×N )

([U ]∗ )T [U ] = ([U ]T )∗ [U ] = [U ]([U ]∗ )T = [I]


Ou seja, ([U ]∗ )T = [U ]−1 .
Uma matriz ortogonal é uma matriz unitária real.

Definição - Matriz hermitiana:


[A] = [A]H é hermitiana se:

([A]∗ )T = ([A]T )∗ = [A]


Hermitiana de uma matriz:
Se [A] = [B] + j[C] ⇒ [A]T = [B]T + j[C]T , então ([A]∗ )T = ([A]T )∗ = [B]T − j[C]T .

69

Parte real simétrica → [B] = [B]T
Se [A] hermitiana ⇒
Parte imaginária anti-simétrica → [C] = −[C]T

Observação: A diagonal principal é sempre real.

Definição - Matriz anti-hermitiana: Se ([A]∗ )T = −[A]


Parte real ⇒ anti-simétrica.
Parte imaginária ⇒ simétrica.
Observação: A diagonal principal é sempre imaginária pura.
Propriedade: Se [A] é hermitiana ⇒ j[A] é anti-hermitiana e vice versa.
Observação: Não confundir matriz hermitiana, que é uma matriz que apresenta a
propriedade ([A]∗ )T = [A], com a hermitian de uma matriz, H([A]) = ([A]∗ )T , que é em
geral diferente de [A].

Definição - Matriz normal [N ]:

([N ]∗ )T [N ] = [N ]([N ]∗ )T

As matrizes ortogonais, unitárias, hermitianas e anti-hermitianas são normais.

Definição - Traço de uma matriz [A] : tr[A]


(N ×N )
N
X
tr[A] = aii
i=1

Propriedades:

1. Seja [A] , [B]


(N ×N ) (N ×N )

N X
X N
tr([A][B]) = tr([B][A]) = aij bji
i=1 j=1

2. tr(α[A] + β[B]) = α tr[A] + β tr[B]

3. tr[A] = tr([A]∗ )T = tr[A]∗ (Observação: a é o conjugado do escalar a)

4. tr[A][B][C] = tr[C][A][B] = tr[B][C][A]

70
7.3 Norma de matrizes
- Norma de uma matriz [A], k[A]k• : é um escalar que satisfaz as condições
Definição

 1) k[A]k• > 0, exceto para [A] = [0]. (k[A]k• = 0 ⇐⇒ [A] = [0])
2) kα[A]k• = |α| . k[A]k• , α escalar


 3) k[A] + [B]k• 6 k[A]k• + k[B]k•
4) k[A].[B]k• 6 k[A]k• . k[B]k• (Propriedade das normas subordinadas).

Exemplos de normas:
Seja [A]
(M ×N )

• Norma de Frobenius ou norma Euclidiana


v
uM N
uXX
|aij |2 = tr(([A]∗ )T [A])
p
k[A]kE = k[A]kF = t
i=1 j=1

• Norma absoluta
k[A]kA = M ax |aij |
i,j

Propriedade - A norma de uma matriz pode ser associada à norma de um vetor:


k[A]{x}k•
k[A]k• = M ax ou k[A]k• = M ax k[A]{x}k•
{x}6={0} k{x}k• k{x}k• =1

Tais normas (de uma matriz) são chamadas de norma de uma matriz subordinada à
norma de um vetor e satisfazem a 4a condição da definição de norma acima mencionada:

k[A].[B]k• 6 k[A]k• . k[B]k•

Propriedade 1: k[I]k• = 1 para qualquer norma subordinada.


Propriedade 2: Qualquer norma de vetor e matriz que satisfaz k[A].{x}k• 6 k[A]k• . k{x}k•
é chamada consistente ou compatı́vel.

Exemplos:

• Norma ”Taxicab”:

N
X
k[A]k1 = M ax |aij | (soma da coluna j).
j
i=1
N
P
A norma kk1 é uma norma subordinada a k{x}k1 = |xi |
i=1

71
• Norma ∞:
N
X
k[A]k∞ = M ax |aij | (soma da linha i).
i
j=1

A norma kk∞ é uma norma subordinada a k{x}k∞ = M ax |xi |


i

• Norma espectral:
p
k[A]ks = Máximo autovalor de ([A]∗ )T [A]

Portanto k[A]ks é subordinada a k{x}kE √


Obs.: k[A]kE é consistente com k{x}kE , mas não é subordinada pois k[I]kE = N .

7.4 Determinante de uma matriz


 
a11 a12 ··· a1N
 a21 a22 ··· a2N 
Definição - O determinante de uma matriz [A] =   é
 
.. .. .. ..
(N ×N )  . . . . 
aN 1 aN 2 · · · aN N
N!
X
|A| = (−1)p a1ip a2jp a3kp · · · aN tp
p=1

onde (i, j, k, . . . , t)p são todas as N ! permutações de 1, 2, 3, · · · , N


p é o número de permutações dos ı́ndices realizadas a partir da ordem natural.
Portanto, o determinante de uma matriz é a somatória de todos os produtos possı́veis
que contenham um e apenas um termo de cada linha e de cada coluna da matriz, cada um
destes produtos com sinal que depende da ordenação dos ı́ndices dos termos da matriz.
Definição - Cofator de uma matriz [A] , |Mij |:
(N ×N )

|Mij | = (−1)i+j × (determinante de [A], eliminadas a linha i e a coluna j)


Definição - Matriz dos cofatores de [A]: Cada elemento cij da matriz é composto pelo
cofator |Mij | .
 
|M11 | |M12 | · · · |M1N |
 |M21 | |M22 | · · · |M2N | 
[C] = 
 
.. .. ... .. 
 . . . 
|MN 1 | |MN 2 | · · · |MN N |
Definição - Matriz adjunta de [A]: Transposta da matriz dos cofatores de [A] ⇒ [C]T .
Definição - Menor de ordem m da matriz [A] , r e s > m: Matriz quadrada (m × m)
(r×s)
obtida de [A] , eliminando-se linhas e colunas.
(r×s)

72
7.5 Cálculo do determinante
Cálculo do determinante de [A] utilizando expansão em cofatores.
(N ×N )
N
X N
X
|[A]| = aij |Mij | = aij |Mij |
j=1 i=1
(Para um i qualquer) (Para um j qualquer)

Note-se que cada cofator |Mij | pode ser expandido de novo pela mesma regra.
Propriedades:

• Matriz [A] singular ⇒ |[A]| = 0

• |[A]| = [A]T

• |[A].[B]| = |[A]| . |[B]|, [A] e [B] quadradas, (N × N ).

• Se [B] é obtido de [A] multiplicando-se uma linha ou coluna por um escalar α,


(N ×N ) (N ×N )
então |[B]| = α |[A]|.

• Trocando-se duas linhas ou duas colunas de [A], inverte-se o sinal do determinante.

• Se [B] é obtido de [A] substituı́ndo qualquer linha ou coluna de [A] pela soma
(N ×N ) (N ×N )
ou diferença dela com qualquer outra linha ou coluna, então |[B]| = |[A]|.
N
Q
• Se [U ] é triangular superior, então |[U ]| = uii (elementos da diagonal principal).
(N ×N ) i=1

N
Q
• Se [L] é triangular inferior, então |[L]| = lii (elementos da diagonal principal).
(N ×N ) i=1

7.6 Autovalores e autovetores de uma matriz


Por definição, são auto-vetores de uma matriz os vetores que se projetam sobre eles mes-
mos na transformação definida pela matriz, sendo os auto-valores as relações que existem
entre as normas euclideanas dos vetores projetados e dos vetores originais (Capı́tulo 9).
Portanto, são autovalores de uma matriz [A] , N valores λ que satisfazem a equação,
(N ×N )

[A]{x} = λ{x}
ou

([A] − λ[I]){x} = {0}

73
Esta equação representa um sistema homogêneo, e portanto terá soluções não triviais
somente se o determinante do sistema for nulo. Impondo esta restrição temos,

a11 − λ a12 ··· a1N


a21 a22 − λ ··· a2N
|[A] − λ[I]| = .. .. .. .. = 0 ⇒ P (λN ) = 0
. . . .
aN 1 aN 2 ··· aN N − λ
O polinômio P (λN ) é chamado polinômio caracterı́stico ou equação caracterı́stica do
sistema.

P (λN ) = aN λN + aN −1 λN −1 + · · · + a1 λ + a0 = 0
Para cada solução (auto-valor) λi , i = 1, . . . , N , existe associada uma solução {x}i do
sistema homogêneo:
([A] − λi [I]){x}i = {0}
{x}i é um auto-vetor de [A] associado ao auto-valor λi .

Observação: Para as matrizes triangulares, os autovalores de [U ] e [L] são os valores


dos termos da diagonal principal. Isto pode ser visualizado obtendo-se o polinômio car-
acterı́stico pelo cálculo do determinante |A − λI| = 0, que pela definição vai ser apenas
N
Q
a produtória dos termos da diagonal principal, P (λ) = |aii − λi | = 0, sendo todos os
i=1
outros termos do produto iguais a zero.

7.7 Posto de uma matriz


Definição - Posto (”rank”) de uma matriz [A] , ρ[A]: é a ordem da maior matriz não
(M ×N )
singular que pode ser formada retirando-se linhas e/ou colunas de [A].

Propriedades:

1. ρ [A] 6 M in{M, N }
(M ×N )

2. Se [B] é sub-matriz de [A], ρ[B] 6 ρ[A]



Existem no máximo k colunas de [A] LI.
3. Se ρ[A] = k ⇒
Existem no máximo k linhas de [A] LI.

4. ρ[A] = ρ[A]T = ρ([A]∗ )T

5. ρ[A] = ρ([A]([A]∗ )T ) = ρ(([A]∗ )T [A])

74
6. Se ρ [A] = K ⇒ existe [X] , [M ] e [Y ] tal que [A] = [X][M ][Y ], det[M ] 6= 0
(M ×N ) (M ×K) (K×K) (K×N )

7. Se [A] , [B] ⇒ ρ([A][B]) 6 M in{ρ[A], ρ[B]}. A igualdade acontece somente se


(M ×N ) (N ×P )
[A] e [B] tiverem posto cheio.
8. ρ([A] + [B]) 6 ρ[A] + ρ[B]

7.8 Número de condição espectral


Definição - Raio espectral de uma matriz [A] , ς[A]: Máximo autovalor de [A], em valor
(N ×N )
absoluto.

Definição - Número de condição espectral de uma matriz [A] , c[A]S :


(N ×N )
|λ|M áx
c[A]S = k[A]ks [A]−1 s
=
|λ|Mı́n
é uma medida do condicionamento numérico de [A] .
(N ×N )
Mede a ”sensitividade” da matriz em relação a uma perturbação (nos seus coeficientes,
δ[A], ou em quem a matriz está aplicada ).
Exemplo:

[A]{x} = {b} ⇒ δ[A], δ{b}, δ{x}


Quanto maior c[A]S , pior é o condicionamento numérico na resolução do sistema de
equações. O caso limite acontece quando [A] é singular ⇒ |λ|Mı́n = 0 ⇒ c[A]S = ∞.

7.9 Produto interno


Definição: O produto interno entre duas matrizes [A] e [B] é um escalar (real ou
(M ×N ) (M ×N )
complexo) que satisfaz as condições:

1. < [A], [B] > = < [B], [A] >


2. < [A], [A] > > 0 se [A] 6= [0]; < [A], [A] > = 0 ⇔ [A] = [0]
3. < α[A] + β[B], [C] > = α < [A], [C] > +β < [B], [C] >

Observação: O produto interno de matrizes pode ser definido utilizando o produto


interno de vetores, por exemplo:
< [A]{u}, [B]{v} >u
< [A], [B] >u,v = ; {v} =
6 {0}
< {v}, {v} >v

75
onde < (.), (.) >u e < (.), (.) >v representam produtos internos vetoriais.
Outros exemplos de produtos internos de matrizes:

({v}∗ )T ([A]∗ )T [B]{v}


< [A], [B] >v = ; {v} =
6 {0}
({v}∗ )T {v}
< [A], [B] >= tr(([A]∗ )T [B])
etc...

7.10 Subespaços fundamentais de uma matriz


Os quatro subespaços fundamentais de uma matriz [A] são:
(M ×N )

1. Subespaço das colunas de [A], R([A]) ⇒ subespaço gerado por todas as combinações
das colunas de [A] . R([A]) ⊂ E M .
(M ×N )

2. Subespaço das linhas de [A], R([A]T ) ⇒ subespaço gerado por todas as combinações
das colunas de [A]T (ou linhas de [A]). R([A]T ) ⊂ E N .
(N ×M )

3. Subespaço nulo (direito) de [A], N ([A]) ⇒ subespaço constituı́do por todos os ve-
tores que satisfazem a equação [A] {x} = {0} . N ([A]) ⊂ E N .
(M ×N )(N ×1) (M ×1)

4. Subespaço nulo (esquerdo) de [A], N ([A]T ) ⇒ subespaço constituı́do por todos


os vetores que satisfazem a equação [A]T {y} = {0} , ou {y}T [A] = {0}T .
(N ×M )(M ×1) (N ×1) (1×M )(M ×N ) (1×N )
T M
N ([A] ) ⊂ E .


N ([A]) e R([A]T ) ⊂ RN
N ([A]T ) e R([A]) ⊂ RM

• Os subespaços nulos são chamados de kernel de [A].

• R([A]) ⇒ dimensão r (número de colunas LI), ⇒ posto de [A] = ρ[A] = r.

• R([A]T ) ⇒ dimensão r (número de linhas LI), ⇒ posto de [A]T = ρ([A]T ) = r.

• N ([A]) ⇒ dimensão (N − r) ⇒ (N − r) vetores LI formando uma base.

• N ([A]T ) ⇒ dimensão (M − r) ⇒ (M − r) vetores LI formando uma base.

76
Capı́tulo 8

Métodos de resolução de sistemas de


equações lineares

8.1 Classificação de sistemas


Diversas classificações são possı́veis, para os sistemas de equações, em função das carac-
terı́sticas da matriz de coeficientes [A] e do vetor de termos independentes {b}.
A seguir é apresentada uma classificação que será utilizada para definir o método
numérico de resolução mais adequado a cada caso.
Sistema: [A](M ×N ) {x}(N ×1) = {b}(M ×1)
 
ρ [A] = N ⇒ Sistema determinado
M =N ⇒


ρ [A] < N ⇒ Sistema sub determinado




M > N ⇒ Sistema super determinado (ρ [A] ≤ N )

[A](M ×N ) matriz real, qualquer.

 M < N ⇒ Sistema sub determinado (ρ [A] ≤ M )




{b} = 0 ⇒ Sistemas homogêneos

Teorema de Rouché 
..  P = P 0 = N ⇒ Sistema determinado
ρ[A](N ×N ) 0
= P e ρ[A.{b}] = P =⇒ P = P 0 < N ⇒ Sistema indeterminado
P 6= P 0 ⇒ Sistema incompatı́vel

8.1.1 Sistemas determinados


[A](N ×N ) {x}(N ×1) = {b}(N ×1)

|[A]| =
6 0
⇒Solução única: {x} = [A]−1 {b}
ρ [A] = N
Numericamente é difı́cil de definir |[A]| = 0 ou ρ [A] = N (ρ [A] = rank[A])

Exemplo:

77
 
10−10
 10−10 
[A] =   =⇒ |[A]| = (10−10 )N
 
..
(N ×N )  . 
10−10
Se N = 10 ⇒ |[A]| = 10−100 . Entretanto, [A] tem determinante 6= 0, apesar de
aparentemente desprezı́vel, e é bem condicionada (condicionamento ótimo), pois c[A]s =
1, 0.

Métodos de resolução



 Diretos: Decomposição triangular (Gauss, Cholesky, Crout, Doolittle, etc...)
Decomposição QR, QL (por transformação unitária (Givens, Householder))


 Iterativos: Jacobi, Lanczos, Gauss-Seidel, Newton-Raphson, etc...
Gradientes conjugados.

Se o sistema é mal condicionado → os métodos baseados em transformações unitárias


(QR ou QL por exemplo) são os recomendados.
Mal condicionamento c [A] > 106 → Varia com o número de dı́gitos da
> 108 mantissa no computador
10
> 10
Sistemas mal condicionados onde se deseja grande precisão ⇒ método SVD (decom-
posição em valores singulares). (Inversa generalizada, pseudo-inversa). É um método com-
putacionalmente muito custoso. Usualmente não é utilizado em sistemas muito grandes.

8.1.2 Sistemas super-determinados


M >N    

   
 


  

 


 

[A](M ×N ) {x}(N ×1) = {b}(M ×1) com M > N : M 
 A  x
  =  b 

    

 
 
   
| {z }
N

Métodos de resolução

Para ρ [A] = N =⇒ Recomendado o método QR ou QL.
Para ρ [A] < N =⇒ SVD.

78
8.1.3 Sistemas sub-determinados
M < N ou ρ[A] < N , para M, N qualquer.
 
 




  
 
   
ρ [A] ≤ M M  A  x = b
 
 
  
 
| {z }
 
N

Métodos de resolução:
Como ρ [A] < N ⇒ Sistema não determinado ⇒ Método SVD (decomposição em valores
singulares, ou inversa generalizada ou pseudo-inversa)(Capı́tulo 11).

8.1.4 Sistemas homogêneos


[A](N ×N ) {x}(N ×1) = {0}(N ×1)

Métodos de resolução

ρ [A] = N
Se =⇒ Solução única trivial {x} = [A]−1 {0} = {0}
|[A]| =
6 0

Se ρ [A] < N =⇒ Eliminação de Gauss, se as dependências e independências


lineares forem bem definidas.
=⇒ SVD se houver problema de condicionamento numérico.

8.2 Sistemas triangulares (determinados)


8.2.1 Definição
Sistema triangular inferior:
    
− [0]    
 −− −  x = b
−− −− −
   

[L]{x} = {b} =⇒ {x} = [L]−1 {b}

Sistema triangular superior:


    
− −− −−    
 − −−  x = b
[0] −
   

79
[U ]{x} = {b} =⇒ {x} = [U ]−1 {b}

Os sistemas triangulares não singulares (lii ou uii 6= 0 ∀ i) podem ser facilmente


resolvidos numericamente sem inversão da matriz.

8.2.2 Sistema triangular inferior ([L])

    
l11 
 x1 
 
 b1 

l21 l22 [0]  x2  b2
  
 
 

  
  


 l31 l32 l33 
 x3 = b3
.. .. .. .. .. .
 ..
    
 . . . . 
 . 







   
lN 1 lN 2 lN 3 ··· lN N  xN   b
N

Da primeira equação ⇒ l11 .x1 = b1 =⇒ x1 = b1 /l11


Da segunda equação ⇒ l21 .x1 + l22 .x2 = b2 =⇒ x2 = (b2 − l21 .x1 )/l22
Da terceira equação ⇒ l31 .x1 + l32. x2 + l33. x3 = b3 =⇒ x3 = (b3 − l31 .x1 − l32 .x2 )/l33
Generalizando para a variável i temos, da i − ésima equação:

i−1
P
li1 .x1 + li2. x2 + · · · + lii. xi = bi =⇒ xi = (bi − lij .xj )/lii i = 2, 3, ..., N
j=1

Observação: Calcular x1 da primeira equação antes de entrar na sequência definida


pela equação acima.

8.2.3 Sistema triangular superior ([U])

    
u11 · · · u1,N −2 u1,N −1 u1,N  x1
 
 
 b1 

 . . .. .. ..  .. 
 
 .. 

 . . . .  . 
 
 . 

=
 

 uN −2,N −2 uN −2,N −1 uN −2,N  xN −2
   bN −2 
 [0] uN −1,N −1 uN −1,N 

 xN −1 






 bN −1 



uN,N  x
N
  b
N

Da última equação ⇒ uN,N .xN = bN =⇒ xN = bN /uN,N


Da penúltima equação ⇒ uN −1,N −1 .xN −1 + uN −1,N .xN = bN −1 =⇒
⇒ xN −1 = (bN −1 − uN −1,N .xN )/uN −1,N −1
Da equação anterior ⇒ uN −2,N −2 .xN −2 + uN −2,N −1 .xN −1 + uN −2,N .xN = bN −2 =⇒
=⇒ xN −2 = (bN −2 − uN −2,N −1 .xN −1 − uN −2,N .xN )/uN −2,N −2
Generalizando para a variável i temos:
80
N
P
uN −i,N −i .xN −i + · · · + uN −i,N .xN = bN −i =⇒ xN −i = (bN −i − uN −i,j .xj )/uN −i,N −i
j=N −i+1

i = 1, 2, 3, ..., N − 1

ou, mudando os ı́ndices:

N
P
xi = (bi − ui,j .xj )/ui,i i = N − 1, N − 2, ..., 3, 2, 1
j=i+1

Observação: Calcular xN da última equação antes de entrar na sequência definida pela


equação acima.

8.3 Armazenamento esparso


Utilizado para matrizes triangulares ou simétricas.
O armazenamento é feito na forma de vetor, por linhas ou colunas.
- Matriz Cheia:

Figura 8.1: Matriz triangular cheia.

- Matriz banda:

81
Figura 8.2: Matriz triangular em banda.

- Matriz ”skyline”:

Figura 8.3: Matriz triangular ”sky-line”.

8.3.1 Conversão de ı́ndice


Para matriz triangular superior (i ≤ j) armazenada num vetor por colunas, o ı́ndice de
um elemento no vetor, ij, pode ser calculado a partir do par de ı́ndices correspondente à
localização do mesmo elemento na matriz, (i, j), utilizando o seguinte tradutor de ı́ndices:

ij = (j − 1) ∗ j/2 + i i≤j

82
Figura 8.4: Conversão de ı́ndices de matriz para vetor.

Observação: Um tradutor análogo é possı́vel para o armazenamento em banda e ”sky-


line”.
Por exemplo para o armazenamento da banda superior, de largura nb, num vetor por
colunas, o ı́ndice do vetor pode ser calculado utilizando o seguinte tradutor de ı́ndices:
j∗(j−1)
ij = 2
+i j ≤ nb
nb∗(nb+1) 2
ij = 2
+ j ∗ (nb − 1) − nb + i j > nb

8.4 Sistemas determinados


[A](N ×N ) {x}(N ×1) = {b}(N ×1) ; |[A]| =
6 0, equivalente a ρ[A] = N .

8.4.1 Método de resolução baseado na decomposição QR:


Dados [A](N ×N ) , real, qualquer, não singular, e {b}(N ×1) qualquer, obter {x}(N ×1) que
satisfaça [A](N ×N ) {x}(N ×1) = {b}(N ×1)

[Q] ortogonal ([Q]T [Q] = [Q][Q]T = [I])
1. Decomposição QR: [A] = [Q].[R], onde
[R] triangular superior.
É utilizado um processo de ortogonalização, por exemplo o de Gram-Schmidt (capı́tulo
5 ou referência [5], pg. 24).
Gram
[A] −→ [Q] ⇒ [R] = [Q]T [A]
Schmidt

2. {y} = [Q]T {b}

83
3. Resolver o sistema triangular superior [R] {x} = {y} =⇒ {x}(N ×1)

Ressumindo os 3 passos descritos acima:


[A] {x} = {b} =⇒ [Q](N ×N ) .[R](N ×N ) {x}(N ×1) = {b}(N ×1)
| {z }
{y}
[Q]{y} = {b}. Multiplicando por [Q] : [Q]T [Q]{y} = [Q]T {b} ⇒ {y} = [Q]T {b}
T
| {z }
[I]
    
− − −    
[R] {x} = {y} ⇒ Sistema triangular superior:  − −  x = y =⇒
[0] −
   
{x} utilizando o procedimento da seção 8.2.3.

Indicador de condicionamento:

[Q] é uma matriz ortogonal (teoricamente) ⇒ c[Q] = 1


 ≤ c[Q].c[R] = c[R]
c[A] = c([Q].[R]) 
|rii |M ax |λ|M ax
c[R] = |rjj |M in
Para sistemas diagonais ou triangulares é equivalente a c[A] = |λ|M in
.

Nos exemplos a seguir temos: |[L]| = 1 =⇒ Mal condicionado.


−10N
|[L]| = 10 =⇒ Bem condicionado.

   
10−10 1050

 ∗ 10−10 [0] 


 ∗ 10−50 [0] 

[L] = 
 ∗ ∗ 10−10 
 [L] = 
 ∗ ∗ 1 

 .. .. .. ..   .. .. .. . . 
 . . . .   . . . . 
∗ ∗ ∗ · · · 10−10 ∗ ∗ ∗ ··· 1
(Bem condicionado) (Mal condicionado)

∗ → qualquer valor.

Programa 2: Programar a resolução do sistema [A]{x} = {b}, usando a decomposição


QR e Gram-Schmidt modificado.

Exemplo para
 teste:
d para i = j
aij =
6 j
1 para i =

84
 
d ··· 1 
1 1
1 ··· 1 
d 1
 
 λi = d − 1 i = 1, 2, ..., N − 1
 

 
N = 10 → [A] = 
 1 · ·
1 · 1 d 10

 .. . ..
. ..
..   
λN = N + d − 1
 . .. . 
. 


1 1 1 ··· d
| {z }
10

Testar para os dois casos seguintes:


Caso 1: d = 1, 1 λi = 1, 1 − 1 = 0, 1
λN = 10 + 1, 1 − 1 = 10, 1
 

 10, 1 

 10, 1 

c[A] = 10, 1 × 10

{b} = ..

 .   c[A] = 1, 01 × 102

 10, 1  

Caso 2: d = 1, 00000001 λi = 1, 00000001 − 1 = 0, 00000001


λN = 10 + 1, 00000001 − 1 = 10, 00000001
 

 10, 00000001  
10, 00000001 

 
{b} = .. c[A] = 1, 000000001 × 109


 . 


 10, 00000001 
Calcular resı́duo para os dois casos.

8.4.2 Métodos de resolução baseados em decomposição trian-


gular (LU ou LDU)
[A](N ×N ) , real, qualquer, não singular. Existe uma decomposição triangular LU tal que,
  
− [0] − − −
[A] = [L][U ] =  − −  − − 
− − − [0] −
[A] {x} = {b} =⇒ [L][U ] {x} = {b} ⇒ [L]{y} = {b}
| {z }
{y}
[L]{y} = {b} é um sistema triangular inferior ⇒ é possı́vel resolver para {y}.
[U ] {x} = {y} é um sistema triangular superior ⇒ é possı́vel resolver para {x}.
Também existe uma decomposição A = LDU , onde L e U são triangulares  inferiror e
..
. [0]
superior respectivamente e D é uma matriz diagonal: [D] =  dii
 

...
[0]

85
Decomposição CHOLESKY:

   
− [0] − ··· −
[L] =  ... . . . [U ] = [L]T =  .. . 
. .. 
  

− ··· − [0] −

A decomposição de Cholesky é simples e bastante utilizada para sistemas simétricos


positivo-definidos de coeficientes reais. Se a matriz [A] não for simétrica, a matriz [L]
resultante é complexa.

Decomposição CROUT:

   
− [0] ··· −
1
[L] =  ... . . . [U ] =  . . . ..  ui,i = 1, 0 i = 1, 2, ..., N
  
 . 
− ··· − [0] 1

Decomposição de DOOLITTLE:

   
1 [0] − ··· −
[L] =  ... . . . [U ] =  . . . ..  li,i = 1, 0 i = 1, 2, ..., N
  
 . 
− ··· 1 [0] −

Decomposição triangular LDU:

     
1 [0] ··· −
1 d1,1 [0]
[L] =  ... . . . [U ] =  .. . 
. ..  [D] =  ..
    
 . 
− ··· 1 [0] 1 [0] dN,N
li,i =1,0 ui,i =1,0 di,j =0 ∀ i6=j

86
8.4.3 Decomposição triangular de Cholesky
 
a11 ···

 a21 a22 Sim. 

[A] = 
 a31 a32 a33 ··· 

 .. .. .. ... .. 
 . . . . 
aN 1 aN 2 aN 3 ··· aN N
  
l11 l11 l21 l31 · · · lN 1

 l21 l22 [0] 
 l22 l32 · · · lN 2 

=
 l31 l32 l33 
 l33 · · · lN 3 

 .. .. .. ...  ... .. 
 . . .  [0] . 
lN 1 lN 2 lN 3 · · · lN N lN N

Igualando termo a termo, somente a metade inferior devido à simetria:


2 √
Primeira linha: l11 = a11 ⇒ l11 = a11
Segunda linha: l21 l11 = a21 ⇒ l21 = al11 21
p
2 2 2
l21 + l22 = a22 ⇒ l22 = a22 − l21
Terceira linha: l31 l11 = a31 ⇒ l31 = al1131

l31 l21 + l32 l22 = a32 ⇒ l32 = a32 −l31 l21


p l22
2 2 2 2 2
l31 + l32 + l33 = a33 ⇒ l33 = a33 − l31 − l32
j−1
P
aij − lik ljk
k=1
i-ésima linha: lij = ljj
; j<i
s
i−1
2
P
lii = aii − lik
k=1

8.4.4 Decomposição triangular de Doolittle


 
a11 a12 a13 ··· a1N

 a21 a22 a23 ··· a2N 

[A] = 
 a31 a32 a33 ··· a3N 

 .. .. .. .. .. 
 . . . . . 
aN 1 aN 2 aN 3 · · · aN N
  
1 u11 u12 u13 · · · u1N

 l21 1 [0] 
 u22 u23 · · · u2N 

=
 l31 l32 1 
 u33 · · · u3N 

 .. .. .. ..  .. .. 
 . . . .  [0] . . 
lN 1 lN 2 lN 3 ··· 1 uN N

1a linha de [A]: ⇒ a11 = u11 a12 = u12 ··· a1N = u1N

87
u1j = a1j j = 1, 2, ..., N

1a coluna de [A]: ⇒ a21 = l21 u11 ⇒ l21 = a21 /u11


a31 = l31 u11 ⇒ l31 = a31 /u11
a41 = l41 u11 ⇒ l41 = a41 /u11
..
.
aN 1 = lN 1 u11 ⇒ lN 1 = aN 1 /u11

li1 = ai1 /u11 , i = 1, 2, ..., N

2a linha de [A]: ⇒ a22 = l21 u12 + u22 ⇒ u22 = a22 − l21 u12
a23 = l21 u13 + u23 ⇒ u23 = a23 − l21 u13
a24 = l21 u14 + u24 ⇒ u24 = a24 − l21 u14
..
.
a2N = l21 u1N + u2N ⇒ u2N = a2N − l21 u1N

u2j = a2j − l21 u1j j = 2, 3, ..., N

2a coluna de [A]: ⇒ a32 = l31 u12 + l32 u22 ⇒ l32 = (a32 − l31 u12 )/u22
a42 = l41 u12 + l42 u22 ⇒ l42 = (a42 − l41 u12 )/u22
a52 = l51 u12 + l52 u22 ⇒ l52 = (a52 − l51 u12 )/u22
..
.
aN 2 = lN 1 u12 + lN 2 u22 ⇒ lN 2 = (aN 2 − lN 1 u12 )/u22

li2 = (ai2 − li1 u12 )/u22 i = 3, 4, ..., N

3a linha de [A]: ⇒ a33 = l31 u13 + l32 u23 + u33 ⇒ u33 = a33 − l31 u13 − l32 u23
a34 = l31 u14 + l32 u24 + u34 ⇒ u34 = a34 − l31 u14 − l32 u24
a35 = l31 u15 + l32 u25 + u35 ⇒ u35 = a35 − l31 u15 − l32 u25
..
.
a3N = l31 u1N + l32 u2N + u3N ⇒ u3N = a3N − l31 u1N − l32 u2N

3−1
P
u3j = a3j − l3k ukj j = 3, 4, ..., N
k=1

88
3a coluna de [A]: ⇒ Analogamente,

3−1
P
li3 = (ai3 − lik uk3 )/u33 i = 4, 5, ..., N
k=1

Resumo:

u1j = a1j j = 1, 2, ..., N
li1 = ai1 /u11 i = 2, 3, ..., N (l11 = 1)
Calcular alternadamente: (i e j = 2, 3, ..., N )

i−1
P Para um determinado i
uij = aij − lik ukj
k=1 j = i, (i + 1), ..., N
j−1
P Para um determinado j
lij = (aij − lik ukj )/ujj
k=1 i = (j + 1), (j + 2), ..., N

Observação: lii = 1 ∀ i
Repetir para i = i + 1 e j = j + 1.
Nota: As fórmulas para CROUT podem ser obtidas da mesma forma.

8.5 Sistemas simétricos


[A]{x} = {b} com [A] = [A]T

8.5.1 Cholesky
Já foi visto na seção 8.4.3

8.5.2 Decomposição LDU:


Usando DOOLITTLE
Para sistemas simétricos, a decomposição de Doolittle resulta em:
[A]
 = [L][U ] lii = 1 i = 1, 2, ..., N 
1 0 ··· 0 u11 u12 · · · u1N
 l21 1 · · · 0   0 u22 · · · u2N 
  
 .. .. . . ..   .. .. . . .. 
 . . . .  . . . . 
lN 1 lN 2 · · · 1 0 0 ··· uN N
  
d11 0 ··· 0 1 u12 · · · u1N
 0 d22 ··· 0  0 1 · · · u2N 
[U ] pode ser fatorada: [U ] =   = [D][U ]
  
.. .. .. ..  .. .. . . ..
 . . . .  . . . . 
0 0 ··· dN N 0 0 ··· 1

89
(∴ dii = uii )
u1j = d11 u1j j = 1, 2, ..., N
u2j = d22 u2j j = 2, 3, ..., N
..
.
uij = dii uij j = i, (i + 1), ..., N
Portanto os valores uij podem ser calculados usando as equações acima.
Então a decomposição LDU está completa:
 
[A] = [L][U ] = [L][D][U ]
=⇒ [A] = [L][D][L]T ou [U ]T [D][U ]
Se [A] = [A]T ⇒ [U ] = [L]T

Usando decomposição de CROUT:


Analogamente, partindo da decomposição de Crout obtém-se:
[A] = [L][U ] onde uii = 1, 0 i = 1, 2, ..., N
Nesse caso [L] é fatorado, [L] = [L][D]
Então [A] = [L][D][U ] ⇒ [L] = [U ]T ⇒ [A] = [U ]T [D][U ]
Portanto para sistemas simétricos ([A] = [A]T ):
[A] = [U ]T [D][U ] (a) [U ] é a matriz de referência.
ou
[A] = [L][D][L]T (b) [L] é a matriz de referência.

Decomposição de GAUSS (LDU):


A decomposição de Gauss para sistemas simétricos recai no método de DOOLITTLE ou
CROUT simétricos. Para sistemas simétricos
 [L] = [U ]T . 
d1
 d2 
di = dii i = 1, 2, ..., N [D] = 
 
 . . .


dN

d1 = a11
j = 1, 2, ..., N
u1j = a1j /d1
Calcular alternadamente:
i−1
P
di = aii − uki dk uki
k=1
uii = 1 ∀ i i = 2, 3, ..., N j = (i + 1), (i + 2), ..., N
i−1
P
uij = (aij − uki dk ukj )/di
k=1

Programa 3: Programar a resolução do sistema [A]{x} = {b}, usando a decomposição


LU, para os mesmos
 sistemas do programa 2.
d para i = j
aij =
1 para i 6= j

90
 
··· 1 
d 1 1
··· 1 
1 d 1
 
 λi = d − 1 i = 1, 2, ..., N − 1
 
 
N = 10 → [A] = 
 ··· 1 
1 1 d
 10
 ..
. ..
.
. . ..  ..
 
λN = N + d − 1
 . . 

.
1 1 1 ··· d
| {z }
10

Testar para os dois casos citados anteriormente:


Caso 1: d = 1, 1
Caso 2: d = 1, 00000001

8.6 Número de condição


Para sistemas lineares [A]{x} = {b}, é possı́vel estimar o número de condição c[A].
Observação: Só determinante não indica o condicionamento do sistema. Pode ocorrer
que um sistema com |[L]| = 1 seja mal condicionado.
N
Por exemplo, para sistemas triangulares: |[L]| = lii = l11 .l22 . . . . .lN N Se l11 = 10−6 ,
Q
i=1
l(2:N −1),(2:N −1) = 1, lN N = 106 → |L| = 1, mas o sistema é mal condicionado.
A seguir são apresentadas formulações para métodos que utilizam a decomposição
triangular LU [3].

8.6.1 Estimativa de c[A]


Seja [A](N ×N ) real simétrica.
   
d1 1 u12 · · · u1N
 d2   0 1 · · · u2N 
T
[A] = [U ] [D][U ] [D] =  [U ] =  .. .. . .
   
..  .. 
 .   . . . . 
dN 0 0 ··· 1
Seja ds tal que |di | ≤ |ds | i = 1, 2, ..., N → ds é o valor máximo em módulo.
e seja dr tal que |dr | ≤ |di | i = 1, 2, ..., N → dr é o valor mı́nimo em módulo.

|ds | = M ax(|di |)
Portanto,
|dr | = M in(|di |)
Uma estimativa de c[A] é dada por K,

|ds | |λ|M ax
K= = , já visto.
|dr | |λ|M in

91
8.6.2 Estimativa melhorada de K ≈ c[A]:
 
 0 

 .. 

.

 


 

0 

 
 
Seja {e}r = 1 →Linha r de [D] correspondente a |dr |, (M in(|di |))
0

 

 
.. 

 
 


 . 

  
0
 
 0 

 ..  
.

 


 

 0 

 

{e}s = 1 →Linha s de [D] correspondente a |ds |, (M ax(|di |))
 0 

 


.. 
 
 


 . 

  
0

Resolver o sistema triangular superior:

1. [U ]{φ}r = {e}r ⇒ {φ}r

2. {φ}s = [U ]T {e}s ⇒ {φ}s

3. Estimativa melhorada K
b ≈ c[A]:

K
z }| {

b = k{φ}r k . k{φ}s k . |ds |
K E E
|dr |

Observação:
b s = {φ}s é uma estimativa do autovetor de [A] correspondente a λN (M ax(|λ|))
{φ} k{φ}s kE
{φ}r
{φ}r = k{φ}
b
rk
é uma estimativa do autovetor de [A] correspondente a λ1 (M in(|λ|))
E

Analogamente pode-se obter uma estimativa de c[A] para [A] não simétrica e com
autovalores reais.
[A] = [L][D][U ] com [U ] 6= [L]T
|ds | ≥ |di | i = 1, 2, ..., N
|dr | ≤ |di | i = 1, 2, ..., N

|ds |
K= ' c[A]
|dr |
Estimativa melhorada:

92
{φ}r
[U ]{φ}r = {e}r ⇒ {φ}r ⇒ {φ}
b r=
k{φ}r kE
{φ}s
[L]−1 {φ}s = {e}s ⇒ {φ}s = [L]{e}s ⇒ {φ}
b s=
k{φ}s kE

b = k{φ}r k . k{φ}s k .K |ds |


K K=
|dr |

8.7 Sistemas de equações lineares: escalonamento


(balanceamento)
Seja o sistema de equações lineares [A](N ×N ) {x}(N ×1) = {b}(N ×1)

8.7.1 Escalonamento diagonal (por coluna) para [A]{x} = {b}


 
d1
 d2 
[A]c = [A][D]c [D]c = 
 
.. 
 . 
dN
di = inverso do elemento da coluna (i) de [A] com maior módulo:
1
di =
M ax |aji |
j

[A] = [A]c [D]−1 −1


c ⇒ [A]c [D]c {x} = {b}
| {z }
{y}

[A]c {y} = {b} ⇒ {y}


 

 y 1 d1 

 y 2 d2
 

[D]−1
c {x} = {y} ⇒ {x} = [D]c {y} = ..


 . 


 y d 
N N

8.7.2 Escalonamento diagonal (por linha) para [A]{x} = {b}


 −1
[A]L = [D]L [A] onde di = M ax |aji |
j
[A] = [D]−1
L [A]L
−1
[D]L [A]L {x} = {b}

93
 

 d 1 b1 

 d 2 b2
 

[A]L {x} = [D]L {b} = .. ⇒ [A]L {x} = {y} ⇒ {x}
| {z }   . 

y 
 d b 

N N

8.7.3 Escalonamento diagonal (linha e coluna) para [A]{x} = {b}


 −1
[A]LC = [D]L [A][D]C (di )L = M ax |aij | = maior elemento da linha i de [A].
| {z } j
[A]L
 −1
[A]LC = [A]L [D]C (di )C = M ax |aji |L = maior elemento da coluna i de
j
[AL ] (|aji |L da matriz já escalonada por linha).

[A] = [D]−1 −1
L [A]LC [D]C
[D]−1 −1
L [A]LC [D]C {x} = {b}
| {z }
{y}

[A]LC {y} = [D]L {b} ⇒ {y}


[D]−1
C {x} = {y} ⇒ {x} = [D]C {y}

Exemplo:

 
1 1 2 × 109
[A] =  2 −1 1 × 109 
1 2 0
[A]C = [A][D]C
   
2 0 0 0, 5 0 0
[D]−1
C =
 0 2 0  ⇒ [D]C =  0 0, 5 0 
9 −9
0 0 2 × 10 0 0 0, 5 × 10
     
1 1 2 × 109 0, 5 0, 5 0, 5 1
[A]C =  2 −1 1 × 109   0, 5  =  1 −0, 5 0, 5 
−9
1 2 0 0, 5 × 10 0, 5 1 0

Resultados obtidos utilizando o comando cond do MATLAB:

cond([A]) = 1, 34 × 109
cond([A]c ) = 2, 61

94
8.7.4 Métodos alternativos de obtenção de [D]L e [D]C
 
d1
 d2 
[D]−1 = 
 
.. 
 . 
dN

(a) (di )L = M ax |aij | (i = 1, 2, ..., N ) =⇒ obtenção de [D]L .


j

(di )C = M ax |aji |L (i = 1, 2, ..., N ) =⇒ obtenção de [D]C .


j

!1/2
N
a2ij
P
(b) (di )L = ⇒ [D]L (Equivalente à norma euclidiana da linha i).
j=1
!1/2
N
a2ji
P
(di )C = ⇒ [D]C (Equivalente à norma euclidiana da coluna i).
j=1

(c) β-scaling
di = β M , onde β é a base numérica do computador (normalmente sistema binário
⇒ β = 2).
M é um número inteiro tal que

dbi
≤ β M < dbi
β

(dbi é obtido do método (a) ou (b))

Observação: o escalonamento β não produz erro de truncamento.


A multiplicação de um número (na base β) por uma potência de β não afeta a mantissa
do número, só o expoente.
Nota: No escalonamento diagonal por coluna o vetor {b} pode ser balanceado simul-
taneamente.

Considerando novamente o problema [A] {x} = {b}:


Seja t o fator de escalonamento do vetor {b},
1 1
t= ou t= !1/2
M ax |bj | N
j
b2j
P
j=1

[A]C = [A][D]C =⇒ [A] = [A]C [D]−1


C

95
O sistema de equações torna-se
[A]
z }| {
−1
[A]C [D]C {x} = {b}
−1
[D]C {x} = {y} ⇒ [A]C {y} = {b}

Multiplicando tudo por t ⇒ [A]C t{y} = t{b} = {b}


|{z}
{y}

1
{y} = t{y} = [A]−1 −1
C {b} ⇒ {y} = {y} ⇒ [D]C {x} = {y} ⇒ {x} = [D]C {y}
t
Exercı́cio: Resolver sistemas mal condicionados com e sem condicionamento, usando
{x} = [A]−1 {b}.

96
Parte II

Segunda parte

97
Capı́tulo 9

Autovalores e autovetores de uma


matriz

Seja [A] uma matriz N × N qualquer.


Os autovetores da matriz [A] são, por definição, os vetores que se projetam sobre si
mesmos na transformação [A]{x} = {y}. Portanto, se {x} é um autovetor, {y} é colinear
com {x} e então {y} = λ{x}. O fator de escala λ é o autovalor associado ao autovetor
{x}.
Portanto o auto-sistema de equações é dado por:

[A]{x} = λ{x} ou ([A] − λ[I]){x} = {0} (9.1)


onde tanto λ como {x} são incógnitas.
Como (9.1) é um sistema de equações homogêneo, a solução não trivial só ocorre
quando o determinante é nulo.

|[A] − λ[I]| = P (λN ) = 0 (9.2)


Matricialmente,

(a11 − λ) a12 ··· a1N


a21 (a22 − λ) ··· a2N
.. .. ... .. = P (λN ) = 0
. . .
aN 1 aN 2 ··· (aN N − λ)
A expressão do determinante |[A] − λ[I]| resulta num polinômio de grau N , P (λN ),
denominado polinômio caracterı́stico:

P (λN ) = λN + αN −1 λN −1 + αN −2 λN −2 + · · · + α0 = 0
As N raizes de P (λN ) = 0 ⇒ λ1 , λ2 , . . . , λN , são chamadas autovalores de [A].
Obtidos os autovalores λi , pode-se voltar à equação (9.1) e resolver o sistema ho-
mogêneo,

99
([A] − λi [I]){x}i = {0} ⇒ {x}i
{x}i é o autovetor associado ao autovalor λi .
Portanto, os autovalores e autovetores aparecem aos pares,

(λ1 , {x}1 ), (λ2 , {x}2 ), . . . , (λN , {x}N ).

A matriz [S] = [{x}1 {x}2 · · · {x}N ] é a matriz dos autovetores de [A], também
N ×N
chamada matriz modal.
As aplicações da teoria de autovalores e autovetores são inúmeras.

Exemplo: Seja um sistema de equações diferenciais lineares de ordem 1,

{ẏ} = [A] {y} + {b} (9.3)


N ×N N ×1

A estabilidade do sistema é analisada tomando-se o sistema homogêneo,

{ẏ} = [A]{y} (9.4)


A solução de (9.4) é do tipo,

{y} = {y0 }eλt (9.5)


λt
∴ {ẏ} = λ{y0 }e (9.6)

Substituindo (9.5) e (9.6) em (9.4),

λ{y0 }eλt = [A]{y0 }eλt


[A]{y0 } = λ{y0 } (9.7)

A equação (9.7) caracteriza um problema de autovalores e autovetores de [A].


Da equação (9.7) obtém-se os autovalores λ1 , . . . , λN e os autovetores {φ}1 , . . . , {φ}N .
Como são N soluções LI P(autovetores LI), a solução geral da equação homogênea é a
combinação linear {y} = N λi t
i=1 Ci {φi }e .
Num caso geral um autovalor λ pode ser complexo, pois é uma raiz de um polinômio
com coeficientes reais,

λi = αi + jβi (9.8)
A equação (9.5) pode ser escrita na forma,
N
X
{y} = Ci {φ}i e(αi +jβi )t (9.9)
i=1

100
Se algum autovalor λi possuir parte real positiva αi > 0 o sistema é instável pois o
termo {φ}i eαi t tende a crescer sem limite com o tempo.
A componente imaginária indica caracter oscilatório do sistema, pois,

ejβi t = cos(βi t) + j sin(βi t) (9.10)


Exemplo: Vibrações livres (Problema de autovetores generalizado)

[M ] {ẍ} + [K] {x} = {0} (9.11)


(N ×N ) (N ×N )

A solução é da forma,

{x} = {φ}ejωt (9.12)


para [M ] e [K] reais, simétricas, [M ] positivo-definida e [K] semi-positivo-definida.
Da equação (9.12) podemos observar que,

{ẍ} = −ω 2 {φ}ejωt (9.13)


Substituindo (9.12) e (9.13) em (9.11),

([K] − ω 2 [M ]){φ} = {0}


ω → Freqüência natural do sistema (9.11).
{φ} → Modo de vibrar associado a ω.

9.1 Propriedades, teoremas, definições


• Se λi é autovalor complexo de [A] real, ⇒ λi também é autovalor.
• Se {φ}i é autovetor complexo de [A] real, ⇒ {φ}∗i também é autovetor.
• Os autovalores de [A] e de [A]T são os mesmos, os autovetores não necessariamente.
• Se λ1 , λ2 , . . . , λN são autovalores de [A], 1
, 1 ,···
λ1 λ2
1
, λN são os autovalores de [A]−1 .
Os autovetores são os mesmos.
• λM M M
1 , λ2 , . . . , λN são os autovalores de [A]
M
= [A].[A]. · · · .[A]
| {z }
M

• Se [A] é normal ([A][A∗ ]T = [A∗ ]T [A]) ⇒ [A] é diagonalizável (autovetores LI),


portanto sendo [S] a matriz dos autovetores de [A], [S] é não singular,
...
 
0
[S]−1 [A][S] =  Λ
 

..
0 .

Observação: Uma matriz hermitiana é normal.

101
• Se [A] é hermitiana ⇒ os autovalores são reais e os autovetores ortogonais.
[A] é diagonalizável.

– Uma matriz real simétrica, ou imaginação anti simétrica, é hermitiana.


– Uma matriz unitária é normal
– Uma matriz real unitária é ortogonal.

• Se [A] é anti-hermitiana ⇒ os autovalores são imaginários.

– Uma matriz real anti-simétrica, ou imaginação simétrica, é anti-hermitiana.

• Se [A] é unitária → |λi | = 1 (i = 1, 2, . . . , N )

• Se [A] é ortogonal → λi = ±1

 unitária → autovetores ortonormais.
– Normalização hermitiana → autovetores ortogonais se autovalores diferentes
(Strang [4], pg.295).


 λi = uii
• Se [U ] ou [L] forem triangulares → ou
λi = lii

N
P N
P N
Q
• Se λ1 , λ2 , . . . , λN autovalores de [A] → λi = aii = Traço de [A] e λi = |[A]|
i=1 i=1 i=1

• Se os autovalores de uma matriz [A] , real, simétrica, forem distintos


N ×N

(λ1 < λ2 < · · · < λN ) → os autovetores {x}1 , {x}2 , . . . , {x}N são ortogonais entre
si ⇒ {x}Ti {x}j = 0 para todo i 6= j.
Demonstração:

[A]{x}i = λi {x}i (9.14)


[A]{x}j = λj {x}j (9.15)

Pré multiplicando as equações (9.14) e (9.15) por {x}Tj e {x}Ti respectivamente:

{x}Tj [A]{x}i = λi {x}Tj {x}i


{x}Ti [A]{x}j = λj {x}Ti {x}j

Subtraindo uma da outra:

102
{x}Tj [A]{x}i − {x}Ti [A]{x}j = (λi − λj ){x}Ti {x}j
| {z }
0
⇒ (λi − λj ){x}Ti {x}j = 0

Como (λi − λj ) 6= 0 ⇒ {x}Ti {x}j = 0

– Se os autovalores forem repetidos ⇒ os autovetores podem ser escolhidos or-


togonais entre si, pois [A] é simétrica, portanto Hermitiana, portanto normal.

• Seja [A] real, não simétrica.


N ×N

[A]{φ}D = λ{φ}D ⇒ {φ}D é o autovetor à direita de [A].


 
 [A]T {φ}E = λ{φ}E 
ou ⇒ {φ}E é o autovetor à esquerda de [A].
T T 
{φ}E [A] = λ{φ}E

Pode-se mostrar que se (λ1 < λ2 < · · · < λN ) (autovalores distintos):

{φ}TEj {φ}Di = 0 (i 6= j)

• Se [A] não é normal e os autovalores forem repetidos → os autovetores podem ser


LI ou LD.

• Se [A] for normal → os autovetores são LI, mesmo se os autovalores forem repetidos.
 
 uma hermitiana é normal 
autovetores ortogonais, pois [U ∗ ]T [A][U ] = [Λ],
uma unitária é hermitiana ⇒
onde [U ] é unitária.
uma ortogonal é unitária
 

• Seja [A] real, simétrica.

– Se todos os autovalores forem positivos, λi > 0 ⇒ [A] é positivo-definida.


– Se todos os autovalores forem negativos, λi < 0 ⇒ [A] é negativo-definida.
– Se todos os autovalores forem λi ≥ 0 ⇒ [A] é semi-positivo-definida.
– Se todos os autovalores forem λi ≤ 0 ⇒ [A] é semi-negativo-definida.

{x}T [A]{x} é a forma quadrática de [A].

Teorema: Sejam λi os autovalores de ([A∗ ]T [A])


N P
N
Se [A] é hermitiana → λ2max ≤ |aij |2 = traço de ([A∗ ]T [A]) = k[A]k2E
P
i=1 j=1

103
Uma matriz real simétrica é hermitiana, e portanto:
N X
X N
λ2max ≤ a2ij
i=1 j=1

9.2 Número de condição espectral de uma matriz


Dada uma matriz [A], o número de condição espectral, c[A]S , é definido como segue:

λi |λi |M ax
c[A]S = k[A]kS . [A]−1 S
= =
λj M ax |λj |min
Aplicação: condicionamento de um sistema linear de equações [A]{x} = {b}
Seja δ{b} uma perturbação em {b}. A solução {x} ficará perturbada de δ{x},

[A]({x} + δ{x}) = {b} + δ{b}


Mostra-se que,

kδ{x}kE kδ{b}kE
≤ c[A]
k{x}kE k{b}kE
ou se δ[A] é uma perturbação nos coeficientes de [A],

kδ{x}k kδ[A]k
([A] + δ[A])({x} + δ{x}) = {b} ⇒ ≤ c[A]
k{x}k k[A]k
c[A]S é uma estimativa para a amplificação das perturbações δ{b} ou δ[A] na solução
{x}.
De um modo geral quanto maior c[A]S ⇒ ”menos bem” condicionado a resolução
numérica de [A]{x} = {b}.
c[A]S = 1 ⇒ condicionamento numérico ideal para a resolução de [A]{x} = {b}.

9.3 Teorema do cı́rculo de Gerschgorin


λ1 , λ2 , . . . , λN são autovalores de [A](N ×N ) qualquer.
N
P
→ os autovalores de [A] estão contidos num cı́rculo de raio Ri = |aij |, com centros
j=1
i6=j

nos valores aii da diagonal principal de [A].

N
P
∴ |λ − aii | ≤ Ri = |aij |
j=1
i6=j

104
Exemplo:
 
2, 5 −1 √0 λ1 = 3, 136
[A] =  −1 5
√ − 2  =⇒ λ2 = 4, 000
0 − 2 10 λ3 = 10, 364

Figura 9.1: Cı́rculo de Gerschgorin.

∴ 1, 5 ≤ λi ≤ 11, 414 i = 1, 2, 3
1, 5 ≤ λ1 ≤ 3, 5 2, 586 ≤ λ2 ≤ 7, 414 8, 585 ≤ λ3 ≤ 11, 414
Observação: O teorema fornece valores limitantes para os autovalores de [A].

- Strang [4], pg. 386

- Westlake [5], pg. 129

- Noble [6], pg. 289

9.4 Translação de autovalores


λ1 , λ2 , . . . , λN são os autovalores de uma matriz [A] .
N ×N

([A] − λ[I]){x} = {0} (9.16)


λ pode ser escrito como,

λ=µ−α (9.17)
De (9.16) em (9.17),

([A] − (µ − α)[I]){x} = {0}


[([A] + α[I]) − µ[I]]{x} = {0}
([B] − µ[I]){x} = {0}

105
µ1 , µ2 , . . . , µN são os autovalores de [B],
 
(a11 + α) a12 ··· a1N
 a 21 (a22 + α) ··· a2N 
[B] = 
 
.. .. .. .. 
 . . . . 
aN 1 aN 2 ··· (aN N + α)
Da equação (9.17),

µi = λi + α

• Quando se soma α[I] à matriz [A] os autovalores µi da matriz ([A] + α[I]) sofrem
uma translação de α em relação aos valores λi de [A].
• Os autovetores não são afetados.

Aplicações: - Tornar todos os autovalores positivos.


λ1
- Melhorar a relação λN
.
- etc...

9.5 Problema de autovalores e autovetores


generalizado
Existem outras formas de autovalores e autovetores envolvendo matrizes.
Por exemplo:

[A]{x} = λ[B]{x}
onde [A] e [B] são reais e simétricas.
[A] → Semi-positivo definida.
[B] → Positivo definida.
Ou

(λ2 [M ] + λ[C] + [K]){x} = {0}


no caso de vibrações livres amortecidas.
Exemplo:

[K]{x} = ω 2 [M ]{x}
ou

(ω 2 [M ] − iω[C] − [K]){x} = {0}


Como os autovetores são, da mesma forma que no caso anterior, as soluções de um
sistema homogêneo de equações lineares, o procedimento de cálculo é idêntico ao já visto.

106
9.6 Cálculo de autovalores e autovetores
9.6.1 Algoritmo QR
Seja [A] uma matriz qualquer.
N ×N
Teorema: Existe uma matriz [M ] unitária tal que, [M ]∗T [A][M ] = [U ],
N ×N
onde [U ] é uma matriz triangular superior.
Observação: Poderia ser triangular inferior, [L].
Como [A] e [U ] são similares ⇒ λi = uii (i = 1, 2, . . . , N )
Algoritmo:

1. Matriz [A]0 , real, com autovalores reais por simplicidade.


N ×N

Nmax = número máximo de iterações.
Critério de convergência:
ε = limite para o zero
2. i = 0

(a) Decomposição QR: [A]0 = [Q]0 [R]0


(b) [A]1 = [R]0 [Q]0 ([A]1 = [Q]T0 [A]0 [Q]0 )
| {z }
[R]0

3. i = 1

(a) Decomposição QR: [A]1 = [Q]1 [R]1


(b) [A]2 = [R]1 [Q]1 ([A]2 = [Q]T1 [A]1 [Q]1 = [Q]T1 [Q]T0 [A]0 [Q]0 [Q]1 )

4. i = j + 1
[A]j+1 = [R]j [Q]j =⇒ [U ], triangular superior.
[A]j+1 = [Q]Tj [Q]Tj−1 · · · [Q]T2 [Q]T1 [Q]T0 [A]0 [Q]0 [Q]1 [Q]2 · · · [Q]j−1 [Q]j = [Q]T [A]0 [Q]
| {z } | {z }
[Q]T [Q]

j + 1 → ∞ ⇒ [Q] → Tende para a matriz dos autovetores [S] = [{φ}1 {φ}2 · · · {φ}N ]

5. Critério de convergência: A matriz [A]j+1 tem que ser diagonal.




 Para K = 2 a N


 RR(K) =0
Usar teorema de Gerschgorin K−1
P

 RR(K) = |ail | l 6= i

 l=1
if RR(K) > ε, ainda não convergiu.

Se RR(K) < ε ∀ K ⇒ λi = aii (i = 1, 2, . . . , N ) são os autovalores.


[Q] = [Q]0 [Q]1 [Q]2 · · · [Q]j−1 [Q]j é a matriz dos autovetores.

107
PN PK−1
Outra forma para verificar a convergência: K=2 l=1 |aKl | < ε
Observação: Se os autovalores forem complexos o algoritmo precisa ser modificado
para funcionar.
..
   
λ1 .
Se [A] for real, simétrica, j+1 → ∞ ⇒ [A]j+1 → 
 .. =
 
Λ

. 
λN . ..

Problema: Programar o algoritmo QR para [A] real simétrica.


Saı́da: [A], diagonal(λ1 , λ2 , · · · , λN ), [Q] (matriz dos autovetores).
Exemplos para verificação:

1.  
6 4 4 1 
 4  λ1 = −1
6 1 4 
[A] = 
 4
 λ2 = λ3 = 5
1 6 4 
λ4 = 15

1 4 4 6
2.   
5 4 1 1 
 λ1 = 10
 4 5 1 1 

λ2 =5
[A] = 
 1

1 4 2  
 λ3 =2
1 1 2 4 λ4 =1

3.
  
1 1 1 1 1 1 
 λ1 = 2, 132376
1/2 1/3 1/4 1/5 1/6 1/7 λ2 = −0, 2214068
  

  

1/3 1/4 1/5 1/6 1/7 1/8 λ3 = −0, 0318433
  
[A] =  

 1/4 1/5 1/6 1/7 1/8 1/9 
 
 λ4 = −0, 8983233 × 10−3
1/5 1/6 1/7 1/8 1/9 1/10 λ = −0, 1706278 × 10−4

 5
  


1/6 1/7 1/8 1/9 1/10 1/11 λ6 = −0, 1394499 × 10−6

9.6.2 Método da potência


Estimativa do maior autovalor (em módulo), |λ|M áximo ., e do autovetor {x}i corre-
spondente.
[A] real, simétrica, com todos os autovalores reais e distintos.
N ×N

|λ1 | > |λ2 | > |λ3 | > · · · > |λN |

1. Dados: [A] , {x}0 6= {0} qualquer.


N ×N
NM ax = número máximo de iterações.
ε = critério de convergência.
{x}0
{x}0 = k{x}0 k2
=⇒ k{x}0 k2 = 1

108
2. i = 1

[A]{x}0 = {x}1

{x}1
Normalizar {x}1 : {x}1 = k{x}1 k2
=⇒ k{x}1 k2 = 1

3. i = 2

[A]{x}1 = {x}2

{x}2
Normalizar {x}2 : {x}2 = k{x}2 k2
=⇒ k{x}2 k2 = 1

4. i qualquer

[A]{x}i−1 = {x}i

{x}i
{x}i = =⇒ k{x}i k2 = 1
k{x}i k2

5. Critério de convergência:

k{x}i k − k{x}i−1 k
≤ ε ⇒ convergiu
k{x}i k

λ1 ' {x}Ti [A]{x}i ⇒ |λ|Máximo = |λ1 |

e {x}i é o autovetor correspondente.

Prova da convergência:

[A]{x}i = {x}i+1
{x}i+1
{x}i+1 =
k{x}i+1 k
(i + 1) → ∞ ⇒ |λ|Máximo → k{x}i+1 k
{x}i+1 → {φ}, autovetor correspondente a |λ|Máximo

[A] real, simétrica → {φ}Ti {φ}j = δij

109
1. k{x}0 k2 = 1
{x}0 = α1 {φ}1 +α2 {φ}2 +· · ·+αN {φ}N , {φ}i →autovetores de [A], k{φ}i k =
1, 0
k{x}0 k2 = 1 = {x}T0 {x}0 = (α1 {φ}1 + α2 {φ}2 + · · · + αN {φ}N )T (α1 {φ}1 + α2 {φ}2 +
· · · + αN {φ}N )

{x}T0 {x}0 = α12 + α22 + · · · + αN


2
= 1, 0

2. i = 1
[A]{x}0 = {x}1
{x}1
z }| {
[A](α1 {φ}1 + α2 {φ}2 + · · · + αN {φ}N ) = α1 λ1 {φ}1 + α2 λ2 {φ}2 + · · · + αN λN {φ}N
h i
{x}1 = λ1 α1 {φ}1 + α2 λλ21 {φ}2 + · · · + αN λλN1 {φ}N
p p
k{x}1 k2 = {x}T1 {x}1 = (α1 λ1 )2 + (α2 λ2 )2 + · · · + (αN λN )2
r
λ2 2 λN 2
= |λ1 | α12 + α22 ( )2 + · · · + αN ( )
λ1 λ1
| {z }
β1

k{x}1 k2 = β1 |λ1 |
 
{x}1 1 λ2 λN
{x}1 = = α1 {φ}1 + α2 ( ){φ}2 + · · · + αN ( ){φ}N
k{x}1 k β1 λ1 λ1

3. i = 2
h i
1 λ22 λ2N
[A]{x}1 = {x}2 = β1
α1 λ1 {φ}1 + α2 ( λ1 ){φ}2 + · · · + αN ( λ1 ){φ}N
h i
|λ1 | λ2 2 λN 2
{x}2 = β1 α1 {φ}1 + α2 ( λ1 ) {φ}2 + · · · + αN ( λ1 ) {φ}N
r
λ2 2 λN 4
k{x}2 k2 = |λβ11 | α12 + α22 ( )4 + · · · + αN ( )
λ1 λ1
| {z }
β2

k{x}2 k = |λ1 | ββ21


 
{x}2 1 λ2 2 λN 2
{x}2 = = α1 {φ}1 + α2 ( ) {φ}2 + · · · + αN ( ) {φ}N
k{x}2 k β2 λ1 λ1
h i
4. [A] = {x}3 = |λβ21 | α1 {φ}1 + α2 ( λλ12 )3 {φ}2 + · · · + αN ( λλN1 )3 {φ}N
q
β3 2 λN 6
k{x}3 k2 = |λ1 | β2 β3 = α12 + α22 ( λλ21 )6 + · · · + αN ( λ1 )

110
 
{x}3 1 λ2 3 λN 3
{x}3 = = α1 {φ}1 + α2 ( ) {φ}2 + · · · + αN ( ) {φ}N
k{x}3 k β3 λ1 λ1
q
2 λN 2i
5. βi = α12 + α22 ( λλ12 )2i + · · · + αN ( λ1 )

k{x}i k = |λ1 | ββi−1


i

λ
lim βi = α1 já lim ( λ1j )2i = 0, dado que |λ1 | > |λj |
i→∞ i→∞

lim ββi−1
i
=1
i→∞

lim k{x}i k = |λ1 |


i→∞

lim {x}i =⇒ {φ}1


i→∞

λ1 = lim {x}Ti [A]{x}i


i→∞

9.7 Condicionamento do autosistema [A]{x} = λ{x}


(Referencia: [6], pg. 289-295)

9.7.1 Condicionamento dos autovalores


Teorema:
Seja [S] = [{x}1 {x}2 · · · {x}N ] a matriz dos autovetores, LI, e λ1 , λ2 , . . . , λN os auto-
valores de uma matriz [A] .
N ×N
µ e {γ} são aproximações de um autovalor e autovetor de [A].
k{γ}k? = 1 (? = 2, ∞ ou 1)
{r} = [A]{γ} − µ{γ} = 6 {0}, pois µ e {γ} são aproximações.
Então, ao menos um autovalor de [A] satisfaz,

|λi − µ| ≤ k{r}k2 . k[S]k . [S]−1


Se [S] for uma matriz unitária: |λi | = 1 (autovalores de [S])

Mı́nimo |λi − µ| ≤ k{r}k2


i
 
λi
Teorema: [A]{x} = λ{x} autovalores e autovetores.
{x}i
Seja uma perturbação δ[A] na matriz [A].
µ é um autovalor de [A] + δ[A].
{γ}, (k{γ}k = 1) é um autovetor correspondente a µ.
⇒ Então ao menos um autovalor λi de [A] satisfaz

111
|λi − µ| ≤ kδ[A]k . k[S]k . [S]−1
Observação: 1) O condicionamento dos autovalores de [A] depende de c[S]S , número
de condição espectral de [S].
2) Se [S] for uma matriz unitária, |λi − µ| ≤ kδ[A]k2 =⇒ os autovalores de matrizes
[A] normais são sempre bem condicionados ([6], pg. 294).

9.7.2 Condicionamento dos autovetores


De um modo geral, autovetores correspondentes a autovalores não repetidos, bem sepa-
rados entre si, são bem condicionados ( [6], pg. 295).

9.8 Forma quadrática de uma matriz [A]N ×N


Definição: Seja [A] hermitiana.
N ×N
A forma quadrática de [A] é definida como,

Q({x}) = {x∗ }T [A]{x}


Teorema: Q({x}) é sempre real qualquer que seja {x}.
Teorema: Os autovalores de [A] hermitiana são todos reais.
Se Q({x}) > 0 ∀{x} = 6 {0} ⇒ [A] é positivo-definida.
Q({x}) ≥ 0 ∀{x} = 6 {0} ⇒ [A] cá semi-positivo-definida.
Q({x}) < 0 ∀{x} = 6 {0} ⇒ [A] cá negativo-definida.
Q({x}) ≤ 0 ∀{x} = 6 {0} ⇒ [A] cá semi-negativo-definida.

Observação: Para [A] real, simétrica, Q({x}) = {x}T [A]{x}


N ×N
Teorema: [A] real, simétrica é positivo-definida se e somente se:
N ×N
(i) {x}T [A]{x} > 0, ∀{x} =
6 {0}
ou (ii) Todos os autovalores são positivos (λi > 0, i = 1, . . . , N )
ou (iii) Qualquer sub-matriz superior à esquerda tem determinante po-
sitivo:
 
[A]K ∗
[A] = |[A]K | > 0
∗ ∗

112
Capı́tulo 10

Transformações similares

As transformações similares e especialmente as unitárias são importantes, pois são as bases


para inúmeros algoritmos de resolução de sistemas de equações lineares, de problemas de
autovalores e autovetores algébricos, etc...
Definição: Considere-se a matriz [A](N ×N ) qualquer e [M ](N ×N ) não singular. Pode-se
obter uma matriz [B](N ×N ) a partir de [A] e [M ] tal que,

[B] = [M ]−1 [A][M ]


ou
[B] = [M ][A][M ]−1
As matrizes [A] e [B] são chamadas similares e a transformação [A] ↔ [B] é chamada
transformação similar.
Propriedade: - Os autovalores de [A] e [B] são os mesmos.
- Os autovetores são, normalmente, distintos.
Demonstração:
- Relação entre os autovalores:
As equações caracterı́sticas de [A] e [B] são,
([A] − λ[I]){x} = {0} (10.1)
([B] − λ[I]){y} = {0} (10.2)
A solução não trivial para um sistema homogêneo é obtida da condição,

|[A] − λ[I]| = 0 e |[B] − λ[I]| = 0 (10.3)


Por exemplo, considere-se a equação (10.3)

|[B] − λ[I]| = PB (λN ) = 0 (polinômio caracterı́stico)


−1 −1 −1
[M ] [A][M ] − λ[M ] [I][M ] = [M ] ([A] − λ[I])[M ] =
 ]−1 . |[A] − λ[I]||[M
[M . ]| = |[A] − λ[I]| = PA (λN ) = 0

113
Observar que |[M ]−1 | e |[M ]| cancelam já que |[M ]| . |[M ]−1 | = 1, ou |[M ]| = 1
|[M ]−1 |
.
Portanto temos que:

PB (λN ) = |[B] − λ[I]| = PA (λN ) = |[A] − λ[I]| = 0


Como [A] e [B] possuem o mesmo polinômio caracterı́stico também possuem os mesmos
autovalores.

- Relação entre os autovetores:

[A]{x} = λ{x}
[M ][B][M ]−1 {x} = λ{x} ⇒ [B][M ]−1 {x} = λ[M ]−1 {x}
| {z } | {z }
{y} {y}

[B]{y} = λ{y}

Portanto a relação entre os autovetores é

{y} = [M ]−1 {x} ou {x} = [M ]{y}

10.1 Transformação unitária


Definição: Se [M ] é uma matriz unitária então a transformação,

[B] = ([M ]∗ )T [A][M ] ou [B] = [M ][A]([M ]∗ )T


é chamada de transformação unitária.
Lembrete: Matriz unitária é aquela que satisfaz ([M ]∗ )T = ([M ]T )∗ = [M ]−1 ⇒

⇒ ([M ]∗ )T .[M ] = [M ].([M ]∗ )T = [I]

10.2 Transformação ortogonal


Definição: Se [M ] for uma matriz unitária real ⇒ [M ] é ortogonal e a transformação se
chama transformação ortogonal.

[M ] ortogonal ⇒ [M ]T [M ] = [M ][M ]T = [I] ⇒ [M ]T = [M ]−1


Portanto as linhas e as colunas de [M ] são ortonormais entre si.

[B] = [M ]T [A][M ] ou [B] = [M ][A][M ]T

114
10.3 Forma diagonal de uma matriz [A]
[A] possui uma forma diagonal quando existe uma matriz diagonal,
N ×N  
λ1
 λ2 
[Λ] =  , similar.
 
. .
 . 
λN

Exemplo:
Seja [S] = [{x}1 {x}2 · · · {x}N ], a matriz cujas colunas são os autovetores de [A].
N ×N

[A]{x}i = λi {x}i
[A] [S] = [S] [Λ]
 
λ1
z }| { z }| { λ2 
[A] [{x}1 {x}2 · · · {x}N ] = [{x}1 {x}2 · · · {x}N ] 
 
.. 
 . 
λN

Se os autovetores (colunas de [S]) forem LI → [S] é não singular e pode-se escrever


que,

[S]−1 [A][S] = [Λ]


Por definição, [A] e [Λ] são similares e a diagonal de [Λ] constituı́da dos autovalores
de [A].

10.4 Propriedades e teoremas


Teorema: Se os autovalores de [A] são distintos (λ1 > λ2 > · · · > λN ), então [A] é
diagonalizável (os autovetores são LI).
Teorema: [A][S] = [S][Λ] só acontece se [S] for a matriz dos autovetores de [A].
Propriedade: Nem toda matriz é diagonalizável, pois se houver autovalores repetidos pode
acontecer o caso em que os autovetores são LD.
Propriedade: A matriz [S] não é única. Depende da normalização dos autovetores.

([A] − λi [I]){x}i = {0}


Como {x}i é solução de uma equação homogênea ⇒ infinitas soluções α{x}i .
é comum normalizar {x}j → k{x}j k• = 1, no entanto a norma escolhida pode também
variar.
Teorema: Forma canônica de Schur (lema de Schur).

115
Para qualquer [A] , existe uma matriz [M ] unitária tal que
N ×N  
u11 u12 . . . u1N
 0 u22 . . . u2N 
[M ∗ ]T [A][M ] = [U ] =  .. ..  ([U ] é triangular superior).
 
.. . .
 . . . . 
0 0 ··· uN N

• [A] e [U ] são similares.

• Portanto os autovalores de [A] são os elementos da diagonal principal de [U ].

λi = uii (i = 1, 2, . . . , N )

• Se [A] for hermitiana ⇒ [U ] é diagonal.

Teorema: Toda matriz hermitiana ([A∗ ]T = [A]) é diagonalizável.


(Os autovetores são LI. Portanto toda matriz real simétrica ou imaginária anti-simétrica
tem autovetores LI e é diagonalizável).
Teorema: Toda matriz [A] hermitiana pode ser decomposta na forma,
N ×N

[A] = [S][Λ][S ∗ ]T (Decomposição espectral)


Portanto seus autovetores podem ser ortogonalizados.
Teorema: Se [A] é hermitiana e [M ] unitária, então [B] = [M ∗ ]T [A][M ] também é
N ×N N ×N
hermitiana.
Demonstração:

([M ]H [A][M ])H = [M ]H ([M ]H ([A])H = [M ]H [A]H [M ] = [M ]H [A][M ]


Teorema: Se [M ] é unitária existe [S] unitária tal que
N ×N N ×N
 
λ1
 λ2 
[S ∗ ]T [M ][S] =  |λi | = 1 (i = 1, 2, . . . , N ).
 
. . 
 . 
λN
Portanto os autovetores podem ser ortonormalizados.
Teorema: Se [M ] é ortogonal existe [S] ortogonal tal que
N ×N
 N ×N 
λ1
 λ2 
[S]T [M ][S] =   , λi = ±1
 
..
 . 
λN

116
Teorema: Se [N ] é uma matriz normal ([N ]H [N ] = [N ][N ]H ), então existe [S]
N ×N N ×N
unitária tal que
 
λ1
∗ T
 λ2 
[S ] [N ][S] =  ([4], pg.311 e pg. 315).
 
.. 
 . 
λN

Portanto os autovetores podem ser ortonormalizados. Então:


- Toda matriz normal é diagonalizável.
- Toda matriz unitária é normal.
- Toda matriz hermitiana é normal.
- Toda matriz ortogonal é normal.
- Toda matriz ortogonal é unitária.
- Toda matriz real simétrica é hermitiana.
- Toda matriz imaginária anti-simétrica é hermitiana.
Exemplos de aplicação:

1. Resolução de sistemas de equações diferenciais


 
dx
= [A] {x}
dt N ×N

Seja a mudança de variável {x} = [M ] {v} onde [M ] é não singular.


N ×N

   
dx dv
= [M ] = [A][M ]{v}
dt dt
 
dv
∴ = [M ]−1 [A][M ]{v}
dt
 dv
Se [M ] = [S] é a matriz dos autovetores de [A] e [S] tem colunas LI ⇒ dt
= [Λ]{v}
Obtém-se N equações diferenciais desacopladas.
———————————————————————————————————

2. Teste de convergência de sistemas iterativos


Seja um Método iterativo linear: {u}i+1 = [A]{u}i + {b}
Considere-se uma iteração linear exata: {u} = [A]{u} + {b}
onde {u} é o valor exato.
Subtraindo a primeira equação da segunda, {u} − {u}i+1 = [A]({u} − {u}i )
| {z } | {z }
{ê}i+1 {ê}i

117
{ê}i+1 , {ê}i → vetor dos erros.
Seja a transformação {u} = [M ]{v} → {ê} = [M ]{e}

[M ]{e}i+1 = [A][M ]{e}i ⇒ {e}i+1 = [M ]−1 [A][M ]{e}i

Se [M ] = [S] é á matriz dos autovetores de [A] e [S] for LI, então


 
λ1
 λ2 
[M ]−1 [A][M ] = 
 
. . 
 . 
λN

Se |λi | < 1 para todo i, o algoritmo converge para a solução exata, pois o erro
diminui em cada iteração.

10.5 Forma canônica de Jordan


Seja [A] , qualquer.
N ×N
Se os autovetores de [A] → [S] = [{φ}1 {φ}2 · · · {φ}N ] forem LI, então [A] é diago-
nalizável.

[S]−1 [A][S] = [Λ]


Se houver autovalores repetidos e autovetores LD ⇒ [A] não é diagonalizável.
Se houver s autovetores LI, s < N , existe [M ] , tal que:gon
N ×N
 
[J]1
−1
 [J]2 
[J] = [M ] [A][M ] =  (Forma canônica de Jordan).
 
.. 
 . 
[J]s

onde
 
λi 1 0 ··· 0 
0 λi 1 ··· 0 
 

 
[J]i = 
 .. .. .. . . ..  r
. . . . . 
 
 0 0 0 ··· 1  


0 0 0 · · · λi
| {z }
r

Na equação anterior, r é o número de repetições do autovalor λi cujos autovetores são


LD.

118
• Esta decomposição é única.
• Um λi repetido pode aparecer em blocos diferentes.
• Duas matrizes [A] e [B] são similares se tiverem a mesma forma canônica de Jordan,
[J].
• Os métodos numéricos para se obter [J] não são muito estáveis com relação a uma
variação δ[A] da matriz [A].
Exemplo de transformação ortogonal: Matriz de rotação
   
cos θ − sin θ c −s
Definição - Matriz de rotação plana: [M ] = =
sin θ cos θ s c
T T
[M ] [M ] = [M ][M ] = [I] ⇒ [M ] é uma matriz ortogonal.
 ⇓    2   
c s c −s (c + s2 ) 0 1 0
= = = [I]
−s c s c 0 (c2 + s2 ) 0 1
Pode ser construı́da uma matriz [M ] de rotação (N × N ):
(i) (j)
.. ..
 
[I] . [0] . [0]
(i)  · · c · · · −s · · · 
·
 

 [0] ... [I] ... [0] 

[M ] =  
(j) 
 ··· s ··· c ··· 

. .
[0] .. [0] .. [I]
Teorema: Se [M ]0 e [M ]1 são ortogonais, [M ]2 = [M ]0 [M ]1 também é ortogonal:
(N ×N ) (N ×N )

[M ]T2 [M ]2 = ([M ]0 [M ]1 )T ([M ]0 [M ]1 ) = [M ]T1 [M ]T0 [M ]0 [M ]1 = [I]


| {z }
[I]

10.6 Transformação de Householder


Seja [H](N ×N ) real, obtida de

2{v}{v}T
[H] = [I] − {v}(N ×1) , real.
k{v}k2E
Então H é simétrica e ortogonal.
Demonstração:
• [H] é simétrica, pois [H]T = [H]:

!T T
T 2{v}{v}T T 2 {v}T {v}T 2{v}{v}T
[H] = [I] − = [I] − = [I] − = [H]
k{v}k2E k{v}k2E k{v}k2E

119
• [H] é ortogonal, pois [H]T [H] = [H][H]T = [I]:

!T !
2{v}{v}T 2{v}{v}T
[H]T [H] = [I] − [I] −
k{v}k2E k{v}k2E
4{v}{v}T 4{v}{v}T {v}{v}T
= [I] − +
k{v}k2E k{v}k4E
4{v}{v}T 4{v}{v}T k{v}k2E
= [I] − + = [I]
k{v}k2E k{v}k4E

Propriedade da transformação de Householder:


Seja {x}(N ×1) qualquer.

2{v}{v}T
[H] = [I] − , onde {v} = {x} + σ{Z}
(N ×N ) k{v}k2E
σ = k{x}kE
 
 0. 
 
 .. 

 

 
{Z} = 1 → i-ésima linha.

 .. 



 . 

  
0
então
 
 0 

 .. 

.

 

 
[H]{x} = −σ{Z} = −σ → i-ésima linha.

 .. 



 . 


 
0
⇒ a transformação zera o vetor {x} com exceção da linha (i).
Portanto k[H]{x}kE = k{x}kE = σ (as matrizes ortogonais preservam as normas dos
vetores).
Exercı́cio: Mostrar que [H]{x} = −σ{Z}.

10.7 Decomposição QR usando a transformação de


Householder
Seja [A]0 real, qualquer, não singular.
(N ×N )

120
Decomposição QR: ⇒ [A]0 = [Q] [R] onde [Q] é uma matriz ortogonal ([Q]T [Q] =
(N ×N ) (N ×N )(N ×N )
[I] ⇒ [Q]T = [Q]−1 ) e [R] é triangular superior.
T
Se [A]0 , M ≥ N , ⇒ [A]0 = [Q] [R] e [Q] [Q] = [I]
(M ×N ) (M ×N ) (M ×M )(M ×N ) (M ×M ) (M ×M ) (M ×M )

Dado:
[A]0 = [{a}01 {a}02 · · · {a}0N ]
(M ×N )

Constrói-se,
2{v}0 ({v}0 )T
[H]0 = [I] − k{v}0 k2E
onde {v}0 = {a}01 + σ 0 {z}0
(M ×M ) (M ×M ) (M ×1) (M ×1) (M ×1)
 

 1 
0 

 
σ 0 = k{a}01 k e {z}0 = ..


 . 


 0 

Transformação,  
−σ 0 × × ··· ×
 0 
[A]1 = [H]0 [A]0 ⇒ [A]1 = 
 
.. ..
{a}12 {a}13 {a}1N

(M ×N ) (M ×M )(M ×N )  . . 
0
{a}12 a
⇒ 2 coluna a partir do a22 .
(M −1)×1

Constrói-se,
2{v}1 ({v}1 )T
[Ĥ]1 = [I] − onde
k{v}1 k2
{v}1 = {a}12 + σ 1 {z}1
(M −1)×(M −1) (M −1)×1
 

 1 
 0 
 
1 1 1
σ = k{a}2 k e {z} = ..


 . 

 0 
 
1 0 ··· 0
 0 
.
 
[H]1 = 
 .. [Ĥ]1


(M ×M )
(M −1)×(M −1)
 
0

Transformação,
[A]2 = [H]1 [A]1 = [H]1 [H]0 [A]0 ⇒
(M ×N ) (M ×M )(M ×N ) | {z }
[A]1

121
 
−σ 0 × × × ··· ×

 0 −σ 1 × × ··· × 

⇒ [A]2 = 
 0 0 

.. .. ..
{a}23 {a}24 {a}2N
 
 . . . 
0 0
Construção:
2{v}2 ({v}2 )T
[Ĥ]2 = [I] − k{v}2 k2
onde {v}2 = {a}23 + σ 2 {z}2
(M −2)×(M −2) (M −2)×1
 

 1 
 0 
 
σ 2 = k{a}23 k e 2
{z} = ..


 . 

 0 
 
1 0 0 ··· 0

 0 1 0 ··· 0  
[H]2 = 
 0 0 

 .. .. 
 . . [Ĥ]2 
0 0
Transformação:
[A]3 = [H]2 [A]2 = [H]2 [H]1 [H]0 [A]0
(M ×N )
 (M ×M )(M ×N )

−σ 0 × × × × ··· ×
1
 0
 −σ × × × ··· × 

2
 0 0 −σ × × ··· × 
[A]3 =  0
 
 0 0 

 .. .. .. ...
{a}34 {a}35 {a}3N

 . . . 
0 0 0
Fazendo sucessivas transformações:
[A]N −1 = [H]N −2 [H]N −3 · · · [H]1 [H]0 [A]0 = [R]
(M ×N ) | {z }(M ×N ) (M ×N )
[Q]T
(M ×M )

∴ [Q]T [A]0 = [R]


(M ×M )(M ×N ) (M ×N )
Pré-multiplicando por [Q] ⇒ [Q][Q]T [A]0 = [Q][R] ⇒ [A]0 = [Q][R]
Observação: Foi utilizado o teorema que mostra que qualquer produto de matrizes
ortogonais resulta em uma matriz ortogonal. Portanto
[Q] = [H]0 [H]1 · · · [H]N −3 [H]N −2 é ortogonal ⇒ [Q]T = [Q]−1 ⇒ [Q][Q]T = [I]
Aplicando este resultado na expressão anterior ⇒ [I][A]0 = [Q][R] ⇒ [A]0 = [Q] [R]
(M ×N ) (M ×M )(M ×N )

Para efeito computacional pode-se mostrar que: [A]0 = [Q] [R] , onde foram
(M ×N ) (M ×N )(N ×N )
eliminadas as últimas colunas de [Q] e as linhas de [R] abaixo da linha N .

122
10.8 Aplicações da decomposição QR
10.8.1 Resolução de sistemas super-determinados
Exemplo: Ajuste linear por mı́nimos quadrados (Resolução de um sistema de equações
lineares superdeterminado).

[A] {x} = {b} M ≥N


(M ×N )(N ×1) (M ×1)

Figura 10.1: Interpolação por mı́nimos quadrados.



 y1 = ax21 + bx1 + c
2
 y2 = ax2 + bx2 + c



y(x) = ax2 + bx + c =⇒ M medidas y3 = ax23 + bx3 + c
 ..


 .
 y = ax2 + bx + c

M M M
Matricialmente,

   
x21 x1 1  y1
 

x22 x2 1     y2 
 a  
 

  

 x23 x3 1 
 b = y3
.. .. .. .
c  ..
    
 . . . 




x2M xM
 
1  y
M

[A] {x} = {b} M ≥N


(M ×N )(N ×1) (M ×1)

123
 

 x 1 

 x2 
 
Definição: Vetor dos resı́duos → {r} = [A] {x} − {b} {x} = ..
(M ×1) (M ×N )(N ×1) (M ×1) 

 . 
 x  
N
Quando M = N e [A] é não singular ⇒ solução única:
(N ×N )

{x} = [A]−1 {b}


e {r} = {0} (solução exata).

Quando M > N ⇒ geralmente k{r}k > 0 para qualquer {x} não nulo.

{r} = [A]{x} − {b}


Função erro quadrático: ⇒ E = k{r}k22 = {r}T {r}
Mı́nimos quadrados ⇒ minimizar E = minimizar {r}T {r}

E = {r}T {r} = ([A]{x} − {b})T ([A]{x} − {b})


= {x}T [A]T [A]{x} − 2{x}T [A]T {b} + {b}T {b}
 ∂E 
 ∂x
 
1 
n o   ∂E  
∂E ∂x2
Condição de mı́nimo de E ⇒ ∂x i
= ..  = {0},

 . 
 ∂E 
 
∂xN
 
∂E
= ∇E = 2[A]T [A]{x} − 2[A]T {b} = {0}
∂xi
⇒ [A]T [A] {x} = [A]T {b}
(N ×M )(M ×N )(N ×1) (N ×M )(M ×1)

Portanto a solução por mı́nimos quadrados é

{x} = ([A]T [A])−1 [A]T {b}


(N ×1) | {z } (N ×M )(M ×1)
(N ×N )

Solução por decomposição QR:

[A] {x} = {b} M ≥N


(M ×N )(N ×1) (M ×1)

[A] = [Q] [R] =⇒ [Q][R]{x} = {b}


(M ×N ) (M ×N )(N ×N )
Pré-multiplicando por [Q]T ⇒ [Q]T [Q][R]{x} = [Q]T {b}
| {z }
[I]

124
[R]{x} = [Q]T {b} =⇒ {x} = [R]−1 [Q]T {b}

Solução por mı́nimos quadrados:

{x} = ([A]T [A])−1 [A]T {b} = ([R]T [Q]T [Q][R])−1 [R]T [Q]T {b}
| {z }
[I]

= ([R]T [R])−1 [R]T [Q]T {b} = [R]−1 [R]−T [R]T [Q]T {b}
| {z }
[I]

⇒ {x} = [R]−1 [Q]T {b}

Portanto a solução por decomposição QR é ”solução mı́nimos quadrados”.

10.9 Forma de Hessenberg


Seja [A] real, qualquer.
N ×N
[A] = [{a}1 {a}2 · · · {a}N ] = [A]0
Construir [H]0 :
T
Seja [Ĥ]0 = [I] − 2{v}{v}
σ2
{v} = {a}01 + σ0 {z}0
0
(N −1)×(N −1)
 0

 a21 

 a31
 

{a}01 → 1a coluna de [A]0 a partir da 2a linha: {a}01 = ..


 . 


 a 
N1 1
σ0 = k{a}01 k 

 1 

 0 
 
{z}0 = ..


 . 

 0 
 
1 0 ··· 0
 0 
..
 
[H]0 = 
 . [Ĥ]0


(N ×N )
(N −1)×(N −1)
 
0

[H]0 é simétrica.

125
 
a11 a12 a13 ··· a1N
 −σ 0 × × ··· ×   
[A]0 e [A]1 são
 
[A]1 = [H]0 [A]0 [H]0 = 
 0 
matrizes similares.

.. ..
{a}12 {a}13 {a}1N
 
 . . 
0

Montar [H]1

 
1 0 0 ··· 0

 0 1 0 ··· 0 

 0 0 
[H]1 = 
 .. ..


 . . [Ĥ]1 
(N −2)×(N −2)
 
0 0

2{v}1 {v}T
[Ĥ]1 = [I] − σ12
1
[v]1 = {a}12 + σ1 {z}1 , onde:
(N −1)×(N −1)
 1  

 a32 
 
 1 
 a42
 
  0 
 
{a}12 = .. ; σ1 = k{a}12 k e 1
{z} = ..


 . 




 . 

 a   0 
N2

[A]2 = [H]1 [A]1 [H]1 = [H]1 [H]0 [A]0 [H]0 [H]1

 
a11 a12 a13 a14 ··· a1N

 −σ0 × × × ··· × 

 0 −σ1 × × ··· × 
[A]2 = 
 
 0 0 

.. .. ...
{a}23 {a}24 {a}2N
 
 . . 
0 0

E assim sucessivamente, até

126
[A]H = [A]N −3 = [H]N −4 [A]N −4 [H]N −4
...
 
− −− −− −− −− −− − →
 −σ . . . − −− −−
 
 0 −− −− − → 

.
−σ1 . . − −−
 
 −− −− − →   
Forma de
 
.
= −σ2 . . −
 
−− −− − → 
Hessenberg
...
 
 
 
 . 

 [0] −σN −4 . . − − → 

..
~ .→

Se [A]0 for simétrica, a forma de Hessenberg é


(N ×N ) =⇒
tri-diagonal, simétrica e similar

Aplicação: Em vez de calcular os autovalores/autovetores de uma matriz [A]0 esparsa


⇒ utiliza-se [A]H tri-diagonal ou quase-triangular ⇒ economia de operações, principal-
mente se o sistema de resolução empregado for iterativo.

127
128
Capı́tulo 11

Pseudo-inversa e decomposição em
valores singulares

Definição: Dada uma matriz [A] qualquer (M >, = ou < N ), define-se como inversa generalizada
M ×N
(pseudo-inversa ou inversa de Moore-Penrose) de [A], a matriz [A]+ que satisfaz as
N ×M
condições:

1. [A] [A]+ [A] = [A]


M ×N N ×M M ×N M ×N

2. [A]+ [A] [A]+ = [A]+


N ×M M ×N N ×M N ×M

3. [A] [A]+ e [A]+ [A] são matrizes hermitianas, isto é


∗T
(a) ([A][A]+ ) = [A] [A]+
∗T
(b) ([A]+ [A]) = [A]+ [A]
T T
Obs.: Se [A] for real, ([A][A]+ ) = [A] [A]+ e ([A]+ [A]) = [A]+ [A] (Simétricas).

4. [A]+ é uma matriz única.

Observação: Resultado dos trabalhos publicados por Eliakim Hastings Moore (1920)
[11] e Roger Penrose (1955) [12].

Aplicações importantes:

• Análise numérica.

• Análise funcional.

• Estatı́stica matemática.

129
11.1 Decomposição em valores singulares - SVD
(Singular Value Decomposition)
Teorema: Seja [A] uma matriz qualquer (M >, = ou < N ), real ou complexa.
M ×N
Existe uma decomposição única, [A] = [U ] [Σ] [V ∗ ]T , onde:
M ×N M ×M M ×N N ×N

1. [U ] e [V ] são unitárias: ([U ∗ ]T [U ] = [U ][U ∗ ]T = [I])


M ×M N ×N
([V ∗ ]T [V ] = [V ][V ∗ ]T = [I])
Observação: Se [A] for real, [U ] e [V ] são ortogonais.

2. As colunas de [U ] são autovetores de [A] [A∗ ]T


M ×M (M ×N )(N ×M )

3. As colunas de [V ] são autovetores de [A∗ ]T [A]


N ×N (N ×M )(M ×N )

z M 
}| {
 σ1 0 ··· 0 0 ··· 0




 0 σ2 ··· 0 0 ··· 0 

4. [Σ] =  ..  M se M < N
 
.. .. .. .. . . ..
M ×N  . . . . . . . 
 

0 0 ··· σM 0 ··· 0 


| {z }
N
  

 σ1 0 ··· 0 

 0 σ2 · · · 0 
  

N
 
 .. .. . . . .. 





 . . . 



ou [Σ] = 
  0 0 · · · σN  M se M > N

M ×N 
 0 0 ··· 0 


 .. .. . . .. 

 . . . . 



0 ··· 0

0 


| {z }
N

onde σi = + λi i = 1, 2, . . . , M para M < N
i = 1, 2, . . . , N para M > N

λi são os autovalores (reais) de [A∗ ]T [A] para N ≤ M , ou [A] [A∗ ]T para M ≤ N.


(N ×M )(M ×N ) (M ×N )(N ×M )
λi ≥ 0 são reais pois [A∗ ]T [A] ou [A][A∗ ]T são hermitianas.
Os σi são os valores singulares de [A] .
(M ×N )

Demonstração de 2. e 3.: as colunas de [U ] e [V ] são autovetores de [A][A∗ ]T e [A∗ ]T [A]


respectivamente.

130
Seja [A] real; [U ] e [V ] são ortogonais.
(M ×N ) M ×M N ×N
[A] = [U ] [Σ] [V ]T , [A]T = [V ] [Σ]T [U ]T
(M ×N ) (M ×M ) (M ×N ) (N ×N ) (M ×N ) (N ×N ) (N ×M ) (M ×M )

Demonstração de 2.
[A] [A]T = [U ][Σ][V ]T [V ][Σ]T [U ]T = [U ] [Σ][Σ]T [U ]T
(M ×N )(N ×M ) | {z } 
| {z } 
[I]

λ1 0 



λ2 



 ... 

 
 
0 λM
Pós-multiplicando por [U ]: 
λ1 0
 λ2 
[([A][A]T )[U ] =   [U ] ⇒ [U ] é a matriz dos autovetores de ([A][A]T ).
 
 ... 
0 λM

Analogamente, demonstração de 3.
[A]T [A] = [V ][Σ]T [U ]T [U ][Σ][V ]T = [V ][Σ]T [Σ][V ]T ⇒
(N ×M )(M ×N ) | {z } | {z }
[I] [λ]
 
λ1 0
 λ2 
⇒ [V ]T ([A]T [A])[V ] =   ⇒ [V ] é a matriz dos autovetores de
 
. .
 . 
0 λN
T
([A] [A]).

131
11.1.1 Armazenamento computacional
M >N :
[A] = [U ] [Σ] [V ]T
(M ×N ) (M ×M )  (M ×N )  (N ×N )
σ1 0
   
    
 σ2 
  







 
 ... 

     
= 
 



 

 
 0 σN 





     
     
     [0] 

 N   N 
 N  N
σ1 0
     
   
σ2
     
     
M  = M N  N
 
 .. 







  .   







 0 σN

M <N :
[A] = [U ] [Σ] [V ]T
(M ×N ) (M ×M ) (M ×N ) (N ×N )
 
 
σ1 0
   
 
=
 ...   
     [0]  



0 σM  

N M  M  N
σ1 0
     

M  = M  M
 ... 
 M 
0 σM

11.2 Algumas aplicações


11.2.1 Cálculo da pseudo-inversa
[A] ⇒ [A]+
(M ×N ) (N ×M )
Hipótese:
M >N
É utilizado armazenamento computacional.
[A] real.

132
[A] = [U ] [Σ] [V ]T
(M ×N ) (M ×M )(M ×N )(N ×N )
 
σ1
 σ2 
onde [Σ] = 
 
.. 
 . 
σN

[A]+ = [V ] [Σ]+ [U ]T
Teorema: A pseudo-inversa de [A] é dada por (N ×M )
(N ×N )(N ×M )(M ×M ) , onde:

 +   
σ1 1/σ1
+
 σ2+   1/σ2 
[Σ] =  =
   
. .   . . 
 .   . 
+
σN 1/σN
σi+ = σ1i se σi > 0
σi+ = 0 se σi = 0
[Σ][Σ]+ = [I] se não houver σi = 0, já que σi σi+ = 1 ∀ σi 6= 0.

Propriedades da inversa generalizada:

1. [A][A]+ [A] = [A]


[U ][Σ][V ]T [V ][Σ]+ [U ]T [U ][Σ][V ]T = [U ][Σ][Σ]+ [Σ][V ]T = [U ][Σ][V ]T = [A]
| {z } | {z } | {z }
[I] [I] [I]

Observação: O teste não funciona numericamente se houver algum valor singular


nulo, σi = 0.
Analogamente pode-se verificar que,

2. [A]+ [A][A]+ = [A]+


[V ][Σ]+ [U ]T [U ][Σ][V ]T [V ][Σ]+ [U ]T = [V ][Σ]+ [Σ][Σ]+ [U ]T = [V ][Σ]+ [U ]T = [A]+
| {z } | {z } | {z }
[I] [I] [I]

3. (a) ([A][A]+ )T = [A][A]+ = [I]


([U ][Σ][V ]T [V ][Σ]+ [U ]T )T = ([U ][Σ][Σ]+ [U ]T = [U ][U ]T = [I] (para [A] real).
| {z } | {z }
[I] [I]

(b) Analogamente verifica-se que,


([A]+ [A])T = [A]+ [A] = [I]
([V ][Σ]+ [U ]T [U ][Σ][V ]T )T = ([V ][V ]T )T = [I]
| {z }
[I]

133
11.2.2 Decomposição polar
Seja [A] qualquer.
(N ×N )
Tese: Existe uma decomposição única na forma,

[A] = [U ] [S]
(N ×N ) (N ×N )(N ×N )

onde
[U ] é unitária e

positivo-definida se [A] for não singular.
[S] é hermitiana
semi-positivo-definida se [A] for singular.
Nota: Se [A] for real ⇒ [U ] = [Q] ortogonal e
[S] é real e simétrica.

Exemplo: [A] real → [A] = [U ][Σ][V ]T .


(N ×N )
Como [V ]T [V ] = [I] ([V ] é ortogonal)
[S]
z }| {
[A] = [U ][V ]T [V ][Σ][V ]T = [Q][S]
| {z }
[Q] ortogonal

[S] → simétrica e no máximo semi-positivo definida, pois σi ≥ 0.

Teorema: Existe uma decomposição polar reversa.



T T T [S̄] simétrica
[A] = [U ][Σ][V ] = ([U ][Σ][U ] )([U ][V ] ) = [S̄][Q̄], com
| {z } | {z } [Q̄] ortogonal
[S̄] [Q̄]

11.2.3 Resolução de sistemas de equações


Sistemas homogêneos

[A] {x} = {0}


(N ×N )

6 0 ⇒ solução trivial única {x} = [A]−1 {0} = {0}


Se |[A]| =
Se |[A]| = 0 ⇒ um (ou mais) auto-valor nulo.
⇒ solução não trivial.

134
[Σ]
 
σ1
 σ2 
...
 
 
σi > 0 i ≤ r
 
[A] = [U ]  σr  [V ]T
 
(N ×N ) (N ×N ) (N ×N ) σi = 0 i = (r + 1), . . . , N
 0 
 .. 
 . 
0
(11.1)
[U ] = [{u}1 {u}2 · · · {u}N ]
[V ] = [{v}1 {v}2 · · · {v}N ]
Pós multiplicando (11.1) por [V ],

 
σ1
..

 . 

σr
 
T
[A] [V ] = [A] [{v}1 · · · {v}N ] = [U ] [Σ] [V ] [V ] = [{u}1 · · · {u}N ] 
 
0

| {z }  
[I] 
 ... 

0

Portanto
[A]{v}1 = σ1 {u}1
[A]{v}2 = σ2 {u}2
..
.
[A]{v}i = σi {u}i i = 1, 2, . . . , r
[A]{v}j = {0} j = (r + 1), (r + 2), . . . , N
{v}j , j = (r + 1), (r + 2), . . . , N ⇒ soluções independentes de [A] {x} = {0}.
Analogamente pode-se achar a solução de [A]T {y} = {0}:
Dado,

[A] = [U ] [Σ] [V ]T (11.2)

Pré-multiplicando (11.2) por [U ]T ,

[U ]T [A] = [U ]T [U ] [Σ] [V ]T (11.3)


| {z }
[I]

Transpondo (11.3),

135
([U ]T [A])T = [A]T [U ] = [V ] [Σ]
 
σ1
 σ2 
..
 

 . 

[A]T [{u}1 {u}2 · · · {u}N ] = [{v}1 {v}2 · · · {v}N ]  σr
 

0
 
 

 ... 

0

[A]T {u}1 = σ1 {v}1


[A]T {u}2 = σ2 {v}2
..
.
[A]T {u}i = σi {v}i i = 1, 2, . . . , r
T
[A] {u}j = {0} j = (r + 1), (r + 2), . . . , N
{u}j , j = (r + 1), (r + 2), . . . , N ⇒ soluções independentes de [A]T {y} = {0}.

11.2.4 Sistemas não homogêneos


[A] {x} = {b}
N ×N
{x}+ = [A]+ {b} = [V + T
 ][Σ] [U ] {b} 
  1/σ1  
| | |  1/σ2  − − −
{x}+ =  | | |    − − −  {b}
 
..
| | |
 . 
− − −
1/σN
1
Como σi > 0, se [A] é não singular, não há problema com σi
> 0. Para [A] singular,
N ×N
1
define-se σi
= 0 para σi = 0.

Notas:

• Utilizar SVD só se o sistema for muito mal condicionado (ou se |[A]| = 0).

• Alto custo computacional se a ordem do sistema for alta.

• {x}+ é tal que minimiza k[A] {x} − {b}k2 (é equivalente a mı́nimos quadrados).

11.2.5 Sistemas retangulares


[A] real; [A] {x} = {b}
M ×N M ×N N ×1 M ×1
Solução usando pseudo inversa:

136
{x}+ = [A]+ {b}
N ×1 N ×M M ×1

a) [A] = [U ] [Σ] [V ]T M >N


M ×N M ×N N ×N N ×N

{x}+ = [V ] [Σ]+ [U ]T {b} M >N


N ×N N ×N N ×M M ×1

b) [A] = [U ] [Σ] [V ]T M <N


M ×N M ×M M ×M M ×N

{x}+ = [V ] [Σ]+ [U ]T {b} M <N


N ×M M ×M M ×M M ×1

Notas:

• {x}+ minimiza k[A] {x} − {b}k2 .

• No caso a), M > N , {x}+ é solução do problema de mı́nimos quadrados. Nesse


caso, para N grande, utilizar SVD só se houver problema de mau condicionamento.

• No caso M < N (ou M = N mas [A] singular) o sistema é consistente ⇐⇒


{b}T {y} = 0 ∀{y} tal que [A] T {y} = {0}
1×M M ×1 M ×1 N ×M M ×1

11.2.6 Algoritmo SVD


(De Golub & Reinsch, 1970 [13]).

1. Transformação de [A] real numa matriz [J]0 , bi-diagonal superior.


M ×N M ×N

... ...
 
[0]
   
 | | | 

 | | | 
 .. ..  
. .
   
[A] = M   ⇒ [J] =   M
 | | |  0  .. 

  [0] .  

| | |
 
| {z } [0]
N | {z }
N

... ...
 
[0]
  
 − − − − 
[A] = M

 − − − −  ⇒ [J] =  .. ..
0  . .  M
[0] 
− − − − ..

| {z } [0] .
N | {z }
N

[A] = [P ] [J]0 [Q]T ⇒ [J]0 = [P ]T [A] [Q]


M ×N M ×M M ×N N ×N M ×N M ×M M ×N N ×N

137
onde [Q] e [P ] são matrizes de transformação ortogonais (usando Householder)
Teorema: Os valores singulares de [A] e [J]0 são os mesmos.

2. Obtido [J]0 aplica-se algum método para diagonalizar [J]T0 [J]0 ou [J]0 [J]T0 .
[J]0
.. ..
 
[J]T . .
0

..
 .. ..  
.. ..

.

 .. 
 .. [0]
 .
 .. ...
 ...  
= ... ... ... 
 (tri-diagonal, simétrica).
 [0] 
   
... ...   ... ...
  [0]
N ×M
 [0] 
N ×N

M ×N

Dos autovalores λi de [J]T0 [J]0 , λi ≥ 0 calculam-se os σi = λi (i = 1, . . . , N ).
T
[J]0 = [G] [Σ] [H]
M ×N

[G] → matriz dos autovetores de [J]0 [J]T0



onde
[H] → matriz dos autovetores de [J]T0 [J]0

3. [A] = [U ] [Σ] [V ]T
M ×N

[U ] = [P ] [G]
onde
[V ] = [Q] [H] ⇒ [H]T [Q]T = [V ]T

138
Capı́tulo 12

Integradores lineares para problemas


de primeira ordem.

12.1 Introdução
Dado dy(t)dt
= f (y, t) com a condição inicial y(t0 ) = y0 calcular y(t) para t ∈ [t0 , tf ].
Nota: y0 e f (y, t) são dados do problema. Se f (y) for não linear a equação diferencial
é não-linear.    
 y0 = y(t0 )   yi = y(ti ) 
Notação: f 0 = f (y ,
0 0t ) ··· f i = f (y ,
i it )
ẏ0 = dy(t 0)
= f ẏ = dy(ti )
= fi
   
dt 0 i dt
Supõe-se o tempo discretizado em vários instantes, t0 < t1 < t2 < . . . < ti < ti+1 <
. . . < tN , e conhecida a função f (y, t).
Hi−1 = ti − ti−1 é o passo de integração.
Se Hi for constante, tN = t0 + N H.

12.2 Integradores lineares de um passo


yN +1 = H[β1 f (yN +1 , tN +1 ) + β2 f (yN , tN )]
Nesse caso, para se obter yN +1 = y(tN +1 ), utilizam-se os dados do passo anterior tN ,
(yN e f (yN , tN )).
Se β1 = 0 ⇒ yN +1 = Hβ2 f (yN , tN )
O integrador é chamado explı́cito. (yN +1 é obtido explicitamente qualquer que seja a
forma da função f (y, t)).
Se β1 6= 0 ⇒ integrador implı́cito.

12.2.1 Integradores explı́citos (β1 = 0)


Exemplo: Integrador de Euler para frente (forward Euler).

139
Proposto por Euler para resolver o problema da Brachistocrona1 , e tem como funda-
mento a expansão em série de Taylor truncada na primeira ordem (aproximação linear).
yN
yN +1 = yN + Hf (yN , tN ) (nesse caso β2 = ( Hf N
+ 1))

Figura 12.1: Integrador de Euler.

yN +1 = yN + Hf (yN , tN )
yN +2 = yN +1 + Hf (yN +1 , tN +1 )
..
.
O incremento da função é 
aproximado pela tangente:

 tgθN = yN +1H−yN = ẏN = fN
−yN +1
HtgθN = Hf (yN , tN ) tgθN +1 = yN +2H = ẏN +1 = fN +1
 ..
.

————————————————————————————————-
Exemplo: dy(t)
dt
= y2 + y
| {z }
f
2
yN +1 = yN + Hf (yN , tN ) = yN + H(yN + yN )
————————————————————————————————-

  2 
1 dy
y 1 + dx =C

140
12.2.2 Integradores implı́citos (β1 6= 0)
yN +1 = β1 Hf (yN +1 , tN +1 ) + β2 Hf (yN , tN )

Exemplo: Integrador Crank-Nicolson (ou regra do trapézio, ou regra do ponto médio).


yN +1 = yN + H2 [f (yN +1 , tN +1 ) + f (yN , tN )]
Nesse caso yN +1 não pode ser obtido diretamente da fórmula devido ao termo f (yN +1 , tN +1 )
que é especı́fico de cada equação diferencial.
dy
Exemplo: dt
= y2 + y

H
yN +1 = yN + [f (yN +1 , tN +1 ) + f (yN , tN )]
2
H 2 2
yN +1 = yN + [yN +1 + yN +1 + yN + yN ]
2
Re-arranjando:

2 2 2 2
yN +1 + (1 −)yN +1 + yN + (1 + )yN = 0
H H
A solução deste polinômio de segundo grau fornece yN +1 .

12.3 Métodos de 2 passos


yN +2 = β3 Hf (yN +2 , tN +2 ) + β2 Hf (yN +1 , tN +1 ) + β1 Hf (yN , tN )

Nota: Os métodos multi-passos não são muito utilizados porque para o primeiro passo
é necessário utilizar um outro método de um passo.

12.4 Runge Kutta explı́cito de quarta ordem


dy(t)
dt
= f (y, t)
y0 = y(t0 )
1
yN +1 = yN + [K1 + 2K2 + 2K3 + K4 ]
6
onde,
K1 = Hf (yN , tN ) → passo de Euler no instante tN .
K2 = Hf (yN + K21 , tN + H2 ) →Euler no instante tN + H
2
= tN + 1 , usando K1 para
2
estimar yN + 1 = (yN + K21 ).
2
K3 = Hf (yN + K22 , tN + H2 ) →Euler no instante tN + H
2
= tN + 1 , usando K2 para
2
estimar yN + 1 = (yN + K22 ).
2

141
Figura 12.2: Método de integração explı́cito de Runge-Kutta de ordem 4.

K4 = Hf (yN + K3 , tN + H) →Euler no instante tN + H = tN +1 , usando a estimativa


yN +1 = (yN + K3 ).
Runge-Kutta faz uma média ponderada entre as derivadas nos instantes tN , tN + 1 e
2
tN +1 , usando valores estimados de yN , yN + 1 e yN +1 , (usando Euler).
2
O Runge-Kutta explı́cito é um dos melhores integradores explı́citos de 1 passo (para
problemas de 1a ordem).
- A precisão é muito boa.
- É adequado para problemas de ”transiente forte”.

Nota: Um método de primeira ordem pode ser aplicado numa equação diferencial de
segunda ordem.
Exemplo:

d2 y(t)
 
dy
= f t, y,
dt2 dt
Condições iniciais: y0 = y(t0 )
ẏ0 = dy(t0)
dt
2
A equação d dty(t)
2 = f t, y, dy
dt
pode ser transformada num sistema de primeira ordem:
dy dZ
Define-se Z(t) = dt ⇒ dt = f (t, y, Z)
Portanto,
( ) 
dy(t) 
dt
Z(t)
dZ(t) =
dt
f (t, y, Z)

142
Com as condições iniciais: y0 = y(t0 )
dy
Z0 = Z(t0 ) = (t )
dt 0

12.4.1 Generalização para sistemas de equações diferenciais


Os integradores podem ser facilmente generalizados para sistemas de equações diferenciais.

Exemplo: Runge-Kutta  

 
 y1 
.




 {y} = .
. 

 




 yN


( n o ) 
 dy1 (t)
dy(t)  dt
 o  
= {f ({y(t)}, t)}
 n 
dt onde dy(t)
= ..
dt .
{y}0 = {y(t0 )} 

  dyN (t)
 

dt

 



 
 f1 ({y(t)}, t) 



{f ({y(t)}, t)} = ..
.



  
f ({y(t)}, t) 
 
N
H = tN +1 − tN
{y}N +1 = {y}N + 61 [{K1 } + 2{K2 } + 2{K3 } + {K4 }]
onde:

{K1 } = H {f ({y}N , tN )}
 
1 H
{K2 } = H f ({y}N + {K1 }, tN + ) tN + 1 = tN + H2
2 2 2
tN +1 = tN + H
 
1 H
{K3 } = H f ({y}N + {K2 }, tN + )
2 2
{K4 } = H {f ({y}N + {K3 }, tN + H)}

12.5 Famı́lia de integradores trapezoidais


Seja o sistema de equações diferenciais:

[M ]{ẋ} + [K]{x} = {F (t)}


{x}0 = {x(t0 )}

[M ] real, simétrica, positivo-definida.


(N ×N )
[K] real, simétrica, semi-positivo-definida.
(N ×N )

143
Notação: {ẋ}N +1 = {ẋ(tN +1 )}
{x}N +1 = {x(tN +1 )}
{F }N +1 = {F (tN +1 )}

Equações discretizadas da famı́lia de integradores trapezoidais.

[M ]{ẋ}N +1 + [K]{x}N +1 = {F }N +1 (12.1)


{x}N +1 = {x}N + ∆t{ẋ}N +α (12.2)
{ẋ}N +α = {ẋ}N (1 − α) + {ẋ}N +1 α α ∈ [0, 1] (12.3)

Observação: Na equação (12.2), se α = 0 ⇒ passo de Euler para frente.


se α = 1 ⇒ passo de Euler para traz.
Da equação (12.3)
{ẋ}N +1 = α1 ( {ẋ}N +α − (1 − α){ẋ}N ) = α∆t
1
[{x}N +1 − {x}N − ∆t(1 − α){ẋ}N ]
| {z }
{x}N +1 −{x}N
∆t

12.5.1 Integradores tı́picos


α Método Tipo
Euler (Forward Euler)
0 Explı́cito
(Diferença para frente)
Crank-Nicolson
1/2 (Regra do trapézio) Implı́cito
(Regra do ponto médio)
Euler (Backward Euler)
1 Implı́cito
(Diferença para traz)
Implementação computacional: Forma {ẋ}N +1
Forma {x}N +1
Os algoritmos tanto na forma {x}N +1 como na forma {ẋ}N +1 são obtidos utilizando
as equações (12.1), (12.2) e (12.3).

12.5.2 Algoritmos na forma {ẋ}


1.

[M ]{ẋ} + [K]{x} = {F (t)}


{x}0 = {x(t0 )}

2. Cálculo de {ẋ}0 = {ẋ(t0 )}


Da equação (12.1) ⇒ {ẋ}0 = [M ]−1 ({F }0 − [K]{x}0 ) (N = 0)

144
3. Cálculo do valor preditor para {x}N +1 .

{x}pN +1 = {x}N + (1 − α)∆t{ẋ}N

Observação: Para α = 0 ⇒ {x}pN +1 é obtido por um passo de Euler.

4. Resolver o sistema:

([M ] − α∆t[K]){ẋ}N +1 = {F }N +1 − [K]{x}pN +1 (12.4)

A equação (12.4) foi obtida das combinações das equações (12.1), (12.2) e (12.3).
Combinando (12.2) e (12.3):

{x}N +1 = {x}pN +1 + α∆t{ẋ}N +1 (12.5)

Substituindo a equação (12.5) na equação (12.1) obtém-se a equação (12.4).

5. {x}N +1 = {x}pN +1 + α∆t{ẋ}N +1

6. N = N + 1
Se N ≤ Nmı́nimo repetir passo 3.

Observação: A forma {ẋ} é conveniente para α = 0 (explı́cito).

12.5.3 Algoritmos na forma {x}N +1


1. Dados

2. {ẋ}0 = [M ]−1 ({F }0 − [K]{x}0 ) (N = 0)

3. {x}pN +1 = {x}N + (1 − α)∆t{ẋ}N

4. Resolver 1
α∆t
[[M ] + α∆t[K]]{x}N +1 = {F }N +1 + 1
α∆t
[M ]{x}pN +1

5.
{x}N +1 − {x}pN +1
{ẋ}N +1 =
α∆t
6. N = N + 1
Se N ≤ Nmı́nimo repetir passo 3.

Observação: A forma {x}N +1 não é conveniente quando α = 0.

145
12.6 Caracterı́sticas relevantes de um integrador
• Convergência

• Estabilidade

• Precisão

Convergência: O algoritmo é convergente para um dado ti se {x}i → {x(ti )} (valor


teórico exato) quando ∆t → 0
Estabilidade: Diz respeito à forma como se dá a convergência.
Precisão: É a taxa de convergência com que {x}i → {x(ti )} quando ∆t → 0, para um
dado ti .
Quanto mais preciso for o algoritmo, maior pode ser o ∆t utilizado, para se obter o
mesmo erro.

12.6.1 Análise de estabilidade do algoritmo:


Normalmente a análise de estabilidade do algoritmo é feita tomando-se como referência
uma equação diferencial linear que representa um sistema fı́sico estável, por exemplo:

dy(t)
+ λy(t) = 0, λ>0
dt
A solução exata é dada por y(t) = Ce−λt .
Portanto, como λ ≥ 0, o sistema é estável para qualquer perturbação C 6= 0.

Para qualquer C finito ⇒ y(t) → 0 quando t → ∞.


Para λ = 0 o sistema se mantém estável na posição
inicial, y(t) = constante = y.

Figura 12.3: Convergência.

Seja y(t) a solução exata do problema,


 dy(t) 
+ λy(t) = 0
dt λ≥0
y(0) = y(t0 )

146
- Seja um dado integrador e as soluções aproximadas pelo mesmo: y1 , . . . , yN −1 , yN , yN +1 , . . .
nos instantes t1 , . . . , tN −1 , tN , tN +1 , . . .
- ∆t = tN +1 − tN
- Se |y|yNN+1| | ≤ 1 para qualquer ∆t ⇒ o integrador é incondicionalmente estável.
|yN +1 |
- Se |yN |
≤ 1 para 0 ≤ ∆t ≤ ∆tcrı́tico ⇒ o integrador é condicionalmente estável.
|yN +1 |
- Se |yN |
> 1 para qualquer ∆t ⇒ o integrador é instável.

12.7 Análise dos integradores da famı́lia trapezoidal


Equação diferencial de referência:

ẏ(t) + λy(t) = 0, λ≥0 (12.6)


Passo preditor:
p
yN +1 = yN + (1 − α)∆tẏN (12.7)
Da equação diferencial (12.6),
ẏN = −λyN (12.8)
De (12.8) em (12.7):
p
yN +1 = yN − (1 − α)λ∆tyN = (1 − (1 − α)λ∆t)yN (12.9)
p
yN yN
Dividindo por α∆t → α∆t = (1 − (1 − α)λ∆t) α∆t
+1
.
yN +1 (1−(1−α)λ∆t)
yN
= (1+α∆tλ) = A ⇒ Fator de amplificação.

yN +1 = AyN
Condição de estabilidade do integrador: |A| ≤ 1

|yN +1 |
= |A| ≤ 1
|yN |

1. Para λ = 0 ⇒ A = 1, qualquer que seja ∆t.

2. Para λ > 0 ⇒ |A| ≤ 1 ou −1 ≤ A ≤ 1

Análise do termo A ≤ 1
   
λ>0 (1 + αλ∆t) ≥ 1 (1−(1−α)λ∆t)
A) Como ⇒ λ∆t > 0 ⇒ ⇒ < 1 para
∆t > 0 (1 − α)λ∆t ≥ 0 (1+αλ∆t)

qualquer α ∈ [0, 1] e ∆t > 0.


(1−(1−α)λ∆t)
B) Análise de, −1 ≤ (1+αλ∆t)

147
1
a. Para 2
≤ α ≤ 1 ⇒ −1 < A qualquer que seja ∆t, (λ∆t).
1
Portanto para 2
≤ α ≤ 1 ⇒ os integradores são incondicionalmente estáveis.
1
b. Para 0 ≤ α < 2
:
(1−(1−α)λ∆t)
−1 ≤ (1+αλ∆t)

−(1 + αλ∆t) ≤ (1 − (1 − α)λ∆t)


−2 ≤ (2α − 1)λ∆t
2 2
λ∆t ≤ (1−2α)
⇒ ∆t ≤ (1−2α)λ
2
∆tcrı́tico = (1−2α)λMáx
∴ ∆t ≤ ∆tcrı́tico
1
Então, para 0 ≤ α < 2
⇒ o algoritmo é condicionalmente estável.

O ∆tcrı́tico depende do α sendo usado e de λMáx , que é uma caracterı́stica do sistema


fı́sico sendo analisado.
(λMáx → no caso de um sistema de equações diferenciais).

yN +1 = AyN
lim A = A∞
λ∆t→∞

Figura 12.4: Fator de amplificação.

Observação: O valor de λ∆t para o qual A = 0 chama-se limite de oscilação, (λ∆t)0 .


yN +1 = AyN ⇒ yN +1 = A(N +1) y0 .

148
Para valores de ∆t > (λ∆t)0 ⇒ A < 0. Portanto A(N +1) muda de sinal em cada passo.
Para α = 12 e λ∆t >> 5 ⇒ |A| ≈ 1.
Haverá pouco decaimento e as componentes modais altas se comportará como se A =
(−1)N +1 . São modos espúrios gerados pelo integrador.
Solução: Filtrar as oscilações através do uso da média entre dois passos consecutivos,
yN + 1 = (yN +1 + yN )/2.
2

12.8 Escolha do integrador


Explı́cito ou implı́cito? 
- Precisão
Critério: Balanço entre os requisitos: , do integrador em relação ao
- Estabilidade
problema sendo resolvido.
Seja ∆test = ∆tcrı́tico em relação à estabilidade do integrador, e ∆tprec = ∆t necessário
para atender os requisitos de precisão.

1. Se ∆tprec << ∆test ⇒ utilizar um integrador explı́cito. Normalmente nesses casos a


resposta do sistema envolve um transiente forte (solicitação do tipo impacto, ondas
de choque, etc...).

2. Se ∆tprec >> ∆test ⇒ utilizar um integrador implı́cito. Normalmente quando se


deseja analisar regimes permanentes que envolvem os auto-valores mais baixos do
sistema.

Exemplos para teste:


 dy(t) √
dt
= 4t y ye (t) = (1 + t2 )2 0≤t≤2
y(0) = 0
 dy(t) 1
dt
= −10(y − 1)2 ye (t) = 1+10 t 0 ≤ t ≤ 40
y(0) = 2

149
150
Capı́tulo 13

Ajuste de Curvas

13.1 Introdução

O objetivo de realizar um ajuste de curva sobre um conjunto de dados é obter uma ou


mais equações que representem os dados do conjunto e possibilitem a estimação de valores
que não fazem parte do conjunto.
Existem dois tipos de ajustes possı́veis: Regressão e Interpolação.
A Regressão significa ajustar os parâmetros de uma função previamente definida, de
tal forma que a curva obtida se ajuste da melhor forma possı́vel ao conjunto de dados.
Na regressão a curva obtida não passa necessariamente por nenhum dos pontos uti-
lizados para o ajuste, mas minimiza o erro global com relação a todos eles.
A regressão deve ser utilizada quando se estima conhecido o tipo do comportamento
do fenômeno que se está estudando (exponencial, harmônico, polinomial, etc.), mas os
dados disponı́veis para realizar o ajuste estão sujeitos a erros, como é o caso de resultados
experimentais (sujeitos a ruı́dos, erros de medição, etc.).
Existem diversos procedimentos que podem ser utilizados para efetuar o ajuste por
regressão, entre eles Mı́nimos Quadrados, polinômios de Lagrange, Método de Newton-
Raphson, Método de Gauss-Newton, etc.
A Interpolação ajusta os parâmetros de uma ou várias equações, por exemplo uma
para cada intervalo entre os dados disponı́veis, de tal forma que a curva resultante passe
por todos os pontos definidos pelos dados disponı́veis, atendendo ainda a requisitos de
continuidade das derivadas até uma ordem pré-definida nas interfaces das funções obtidas.
A interpolação deve ser utilizada quando os valores dos dados disponı́veis são confiáveis
(livres de ruı́dos).
Diversos procedimentos podem ser utilizados para realizar as interpolações: Polinômios
interpoladores de Newton, Polinômios interpoladores de Lagrange, Interpolação inversa,
Splines, etc.

151
13.2 Exemplo de regressão polinomial cúbica por mı́nimos
quadrados
Seja um conjunto de dados (x0 , y0 ); (x1 , y1 ); . . . ; (xn , yn ), sobre os quais se deseja ajustar
um polinômio de grau 3, dado por y = a0 + a1 x + a2 x2 + a3 x3 .
A função erro quadrático com relação aos dados disponı́veis é;
n
X
= (yi − a0 − a1 xi − a2 x2i − a3 x3i )2 (13.1)
i=0

Os valores procurados para a0 , a1 , a2 e a3 são os que minimizam o erro quadrático.


Como  é uma função quadrática positiva, o único ponto estacionário é um mı́nimo que
pode ser encontrado igualando a zero as derivadas de  com relação aos coeficientes ai
procurados:

n
∂ X
= −2 (yi − a0 − a1 xi − a2 x2i − a3 x3i ) = 0 ⇒ (13.2)
∂a0 i=0
n
X n
X n
X n
X
(n + 1)a0 + a1 x i + a2 x2i + a3 x3i = yi (13.3)
i=0 i=0 i=0 i=0

n
∂ X
= −2 xi (yi − a0 − a1 xi − a2 x2i − a3 x3i ) = 0 ⇒ (13.4)
∂a1 i=0
n
X n
X n
X n
X n
X
a0 x i + a1 x2i + a2 x3i + a3 x4i = xi yi (13.5)
i=0 i=0 i=0 i=0 i=0

n
∂ X
= −2 x2i (yi − a0 − a1 xi − a2 x2i − a3 x3i ) = 0 ⇒ (13.6)
∂a2 i=0
n
X n
X n
X n
X n
X
a0 x2i + a1 x3i + a2 x4i + a3 x5i = x2i yi (13.7)
i=0 i=0 i=0 i=0 i=0

n
∂ X
= −2 x3i (yi − a0 − a1 xi − a2 x2i − a3 x3i ) = 0 ⇒ (13.8)
∂a3 i=0
n
X n
X n
X n
X n
X
a0 x3i + a1 x4i + a2 x5i + a3 x6i = x3i yi (13.9)
i=0 i=0 i=0 i=0 i=0

As equações 13.3, 13.5, 13.7 e 13.9 constituem um sistema de 4 equações que deve ser
resolvido para calcular as 4 incognitas a0 , a1 , a2 e a3 .

152
Utilizando a notação Xj = ni=0 xji e Xj Y = ni=0 xji yi , com j = 0, ..., 6, o sistema
P P
pode ser representado matricialmente por:
    
n+1 X1 X2 X3   a0 
 
 X0 Y 

 X1 X2 X3 X4   a1   X1 Y 
 X2 X3 X4 X5   a2  =  X2 Y  (13.10)
 
    
X3 X4 X5 X6 a3 X3 Y
  

Observação 1: Esta equação deve ser resolvida por qualquer método de resolução de
sistemas de equações lineares, para obter os valores dos coeficientes ai .

Observação 2: Esta equação pode ser generalizada para qualquer número de pontos N
de referência e para qualquer ordem p do polinômio a ser ajustado.
    
N ... Xp  a0 
    X0 Y  
 .. . . ..  .. .
.
 . . .  .  =  .  (13.11)
Xp 4 Xp+p  ap   Xp Y 

13.3 Exemplo de interpolação por splines cúbicos


Contrariamente ao que acontece com a regressão, a interpolação assegura que a curva
obtida passe exatamente sobre os pontos disponı́veis para realizar o ajuste. Para isso, é
necessário ajustar uma curva diferente em cada trecho entre os pontos de referência, mas
assegurando a continuidade nas extremidades.
A seguir será descrito o processo para ajustar splines cúbicas, que asseguram a con-
tinuidade do valor da função e das derivadas primeira e segunda.
(i) (i) (i) (i)
As funções a serem interpoladas são do tipo fi (x) = a0 + a1 x + a2 x2 + a3 x3 , com
i = 1, . . . , n, sendo n o número de intervalos (n + 1 pontos). Cada função fi (x) vale para
o intervalo i, que tem inicio no ponto de ı́ndice i − 1 e final no ponto i.
Como existem n intervalos e igual número de funções, cada uma delas com 4 incógnitas
(i)
aj , com j = 1, . . . , 4, existem no total 4n incognitas, que requerem um conjunto de 4n
equações independentes para serem resolvidas. As condições a serem utilizadas serão:

1. Valor das funções igual ao valor dos pontos nas extremidades dos intervalos ⇒ 2n
condições.

2. As derivadas primeiras devem ser iguais à direita e à esequerda nos nós interiores
⇒ n − 1 condições.

3. As derivadas segundas devem ser iguais à direita e à esequerda nos nós interiores ⇒
n − 1 condições.

4. As derivadas segundas devem ser iguais a 0 no primeiro e último ponto (condição


arbitrária) ⇒ 2 condições.

153
Aplicando estas condições temos:
De 1.

(i) (i) (i) (i)


a0 + a1 xi + a2 x2i + a3 x3i = yi , i = 1, . . . , n (13.12)
(i+1) (i+1) (i+1) (i+1)
a0 + a1 x i + a2 x2i + a3 x3i = yi , i = 0, . . . , n − 1 (13.13)

De 2.

(i) (i) (i)


fi0 (x) = a1 + 2.a2 x + 3.a3 x2i ⇒ (13.14)
(i) (i) (i) (i+1) (i+1) (i+1) 2
a1 + 2.a2 xi + 3.a3 x2i = a1 + 2.a2 xi + 3.a3 xi , i = 1, . . . , n − 1(13.15)

De 3.

(i) (i)
fi00 (x) = 2.a2 + 6.a3 xi ⇒ (13.16)
(i) (i) (i+1) (i+1)
a2 + 3.a3 xi = a2 + 3.a3 xi , i = 1, . . . , n − 1 (13.17)

E finalmente, as duas condições arbitrârias de 4.

(1) (1)
a2 + 3.a3 x0 = 0 (13.18)
(n) (n)
a2 + 3.a3 xn = 0 (13.19)

Assim, é obtido um sistema linear de 4n equações com 4n incógnitas, que precisa ser
resolvido por qualquer método.
(i)
Cada um dos polinômios de coeficientes aj obtidos vale para o intervalo i determinado
por [xi−1 , xi ], com i = 1, . . . , n e j = 0, . . . , 3.

154
Bibliografia

[1] C. Lanczos: Linear differential operators. Van Nostrand, New York, 1961.

[2] L. Jèzèquel: Synthèse Modale: Théorie et extensions. Tese de doutoramento, Uni-


versitè Claude Bernard (Lyon, France), 1985.

[3] P.E. Gill, W. Murray & M.H. Wright: Practical Optimization. Academic Press,
(1981).

[4] G. Strang: Linear Algebra and its Applications. Harcourt Brace Jovanovich Publish-
ers, 3rd edition (1988).

[5] J.R. Westlake: A Handbook of Numerical Matrix Inversion and Solution of Linear
Equations. Wiley (1968).

[6] B. Noble & J.W. Daniel: Applied Linear Algebra. Prentice-Hall, 2nd edition (1977).

[7] P. Eykhoff: System Identification. John Wiley & Sons Ltd. (1974).

[8] J.H. Wilkinson: The Algebraic Eigenvalue Problem. Oxford Press (1965).

[9] T.J.R. Hughes: The Finite Element Method. Prentice-Hall (1987).

[10] W.-F. Chen & A.F. Saleeb: Constitutive Equations for Engineering Materials, Vol.
1, Chapter 1. Wiley (1982).

[11] E.H. Moore: On the Reciprocal of the General Algebric Matrix. Bulletin of the
American mathematical Society Number 26, pp. 394-395 (1920).

[12] R. Penrose: A Generalized Inverse for Matrices. Procedings of the Cambridge Philo-
sophical Society Number 51, pp.406-413 (1955).

[13] G.H. Golub & C. Reinsch: SVD and Least Squares Solutions. Numerische Math., 14,
pp. 403-420, (1970).

155

Você também pode gostar