Escolar Documentos
Profissional Documentos
Cultura Documentos
Autovalores Do Laplaciano
Autovalores Do Laplaciano
Autovalores do Laplaciano
Rodney Josu
e Biezuner
Departamento de Matematica
Instituto de Ciencias Exatas (ICEx)
Universidade Federal de Minas Gerais (UFMG)
16 de novembro de 2006
Sum
ario
1 Os Autovalores do Laplaciano
1.1 Motivacao para o Estudo dos Autovalores do Laplaciano . . . . . . . . . . . . . . . .
1.1.1 Metodo de Expansao em Autofuncoes . . . . . . . . . . . . . . . . . . . . . .
1.1.2 Problema Isospectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Princpio do Maximo Fraco: O Laplaciano nao possui Autovalores Negativos . . . .
1.4 Metodos Variacionais para Autovalores de Operadores Lineares . . . . . . . . . . . .
1.5 Os Espacos de Sobolev W 1,2 e W01,2 . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.5.1 A Derivada Fraca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.5.2 Espacos de Sobolev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.5.3 Propriedades dos Espacos de Sobolev . . . . . . . . . . . . . . . . . . . . . .
1.6 Existencia e Unicidade de Solucoes para o Laplaciano atraves do Metodo Variacional
1.6.1 Solucoes Fracas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.6.2 Existencia, Unicidade e Regularidade de Solucoes Fracas . . . . . . . . . . . .
1.7 O Espectro do Laplaciano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.7.1 Existencia e Caracterizacao Variacional dos Autovalores do Laplaciano . . . .
1.7.2 Comparacao de Autovalores . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.8 Conjunto Nodal e Domnios Nodais de uma Autofuncao . . . . . . . . . . . . . . . .
1.8.1 Princpio do Maximo Forte: o Primeiro Autovalor do Laplaciano e Simples .
1.8.2 Conjunto Nodal e Domnios Nodais de Autofuncoes do Laplaciano . . . . . .
1.9 Multiplicidade dos Autovalores do Laplaciano . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
4
4
6
7
10
12
14
14
16
16
18
18
18
21
21
28
30
30
32
37
2 M
etodo de Diferen
cas Finitas
39
2.1 O Caso Unidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.1.1 Series de Taylor e Diferencas Finitas em Uma Dimensao . . . . . . . . . . . . . . . . . 39
2.1.2 Discretizacao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.1.3 Resolucao Numerica do Problema de Autovalor Unidimensional . . . . . . . . . . . . . 42
2.2 O Caso Bidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.2.1 A Formula dos Cinco Pontos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.2.2 Existencia e Unicidade da Solucao Discreta Autovalores do Problema Bidimensional 47
2.2.3 Princpio do Maximo Discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.2.4 Convergencia da Solucao Discreta para a Solucao Classica . . . . . . . . . . . . . . . . 51
2.3 Discretizacoes de Ordem Superior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.3.1 Caso Unidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.3.2 Caso Bidimensional: A Formula dos Nove Pontos Compacta . . . . . . . . . . . . . . 56
2.4 Diferencas Finitas em Coordenadas Polares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.5 Domnios Arbitrarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3 Exist
encia e Unicidade de Solu
c
oes Discretas
3.1 Normas Matriciais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Matrizes Diagonalmente Dominantes . . . . . . . . . . . . . . . . . . . . . .
3.3 Teorema dos Discos de Gershgorin . . . . . . . . . . . . . . . . . . . . . . .
3.4 Propriedade FC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5 Matrizes Irredutveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.6 Invertibilidade de Matrizes de Discretizacao . . . . . . . . . . . . . . . . . .
3.6.1 Esquemas de Diferencas Finitas para o Intervalo e para o Retangulo
3.6.2 Esquema de Coordenadas Polares . . . . . . . . . . . . . . . . . . . .
3.6.3 Esquema de Shortley-Weller . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
69
69
72
73
76
81
83
84
84
85
4 M
etodos Iterativos para a Resolu
c
ao de Sistemas Lineares
4.1 Metodos Iterativos Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.1 Metodo de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.2 Metodo de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.3 Metodo SOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.4 Comparacao da Velocidade de Convergencia dos Tres Metodos . . . . . .
4.1.5 Metodo de Jacobi Amortecido . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Analise de Convergencia dos Metodos Iterativos Lineares . . . . . . . . . . . . . .
4.2.1 Convergencia dos Metodos Iterativos Lineares . . . . . . . . . . . . . . . .
4.2.2 Velocidade de Convergencia dos Metodos Iterativos Lineares . . . . . . .
4.2.3 Convergencia para Matrizes Simetricas Positivas Definidas . . . . . . . . .
4.3 Convergencia dos Metodos Iterativos Lineares para as Matrizes de Discretizacao
4.3.1 Convergencia do Metodo de Jacobi . . . . . . . . . . . . . . . . . . . . . .
4.3.2 Convergencia do Metodo de Gauss-Seidel . . . . . . . . . . . . . . . . . .
4.3.3 Convergencia do Metodo SOR . . . . . . . . . . . . . . . . . . . . . . . .
4.3.4 Convergencia do Metodo de Jacobi Amortecido . . . . . . . . . . . . . . .
4.3.5 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4 Metodo do Gradiente Conjugado . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.1 Metodos de Descida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.2 Metodo da Descida Mais Acentuada . . . . . . . . . . . . . . . . . . . . .
4.4.3 Metodo do Gradiente Conjugado . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
86
86
87
88
88
89
90
91
92
94
96
97
97
99
101
109
110
110
111
113
114
5 M
etodos Multigrid
5.1 Suavizacao de Erros . . . . . .
5.2 Operador Restricao e Operador
5.3 Ciclos V . . . . . . . . . . . . .
5.4 Multigrid Completo . . . . . .
5.5 Convergencia . . . . . . . . . .
5.6 Multigrid Adaptativo . . . . . .
5.7 Multigrid Algebrico . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
120
120
120
120
120
120
120
120
6 M
etodo de Elementos Finitos
6.1 O Caso Unidimensional . . . . . . . . . . . . . . . . . . . . . . . .
6.1.1 Formulacao Variacional . . . . . . . . . . . . . . . . . . . .
6.1.2 Elementos Finitos Lineares por Partes . . . . . . . . . . . .
6.2 O Caso Bidimensional . . . . . . . . . . . . . . . . . . . . . . . . .
6.2.1 Formulacao Variacional . . . . . . . . . . . . . . . . . . . .
6.2.2 Triangulacoes e Elementos Finitos Lineares por Partes . . .
6.2.3 Interpretacao Geometrica do Metodo de Elementos Finitos
6.3 Formulacao Abstrata do Metodo dos Elementos Finitos . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
121
121
121
123
124
125
125
127
127
. . . . . .
Extensao
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
Autovalores Contnuos
. . . . . . . . . . . . . .
8 M
etodos Num
ericos para a Obten
c
ao de Autovalores de Matrizes
8.1 Metodo das Potencias . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.1.1 Iteracao Inversa e Iteracao com Deslocamento . . . . . . . . . .
8.2 Iteracao de Subespacos . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3 Metodo QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3.1 O Algoritmo QR . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3.2 Implementacao Eficiente do Algoritmo QR . . . . . . . . . . .
8.4 Metodos para Matrizes Esparsas . . . . . . . . . . . . . . . . . . . . .
8.4.1 Processo de Arnoldi . . . . . . . . . . . . . . . . . . . . . . . .
8.4.2 Representacao Matricial do Processo de Arnoldi . . . . . . . .
8.4.3 Metodo de Lanczos . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
131
131
132
137
138
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
140
140
141
142
144
145
148
149
149
151
153
Captulo 1
Os Autovalores do Laplaciano
Seja Rn um aberto limitado. O problema de autovalor para o laplaciano consiste em encontrar os valores
tais que
u = u em
(1.1)
admite soluc
oes nao triviais, com alguma condicao de fronteira imposta sobre u. A equacao de autovalor do
laplaciano tambem e conhecida como equac
ao de Helmholtz. Nestas notas, consideraremos o problema de
autovalor com condicao de Dirichlet
u = u
em ,
(1.2)
u=0
sobre ,
e o problema de autovalor com condicao de Neumann
u = u
u
=0
em ,
sobre .
(1.3)
O problema e tradicionalmente escrito nesta forma, com o sinal negativo multiplicando o laplaciano, porque
assim todos os autovalores sao nao-negativos. No caso do problema de Dirichlet, este fato segue imediatamente do princpio do maximo. De fato, este implica que todos os autovalores, se existirem, devem ser
positivos, como veremos neste captulo. Por outro lado, zero e um autovalor no problema de Neumann, pois
as funcoes constantes sao autofuncoes associadas a este.
1.1
1.1.1
Motivac
ao para o Estudo dos Autovalores do Laplaciano
M
etodo de Expans
ao em Autofunco
es
Varios problemas de equacoes diferenciais parciais podem ser resolvidos atraves do chamado metodo de
expansao em autofuncoes do laplaciano.
Considere o seguinte problema de Dirichlet para a equacao da onda em um aberto limitado Rn :
utt = c2 u
se x e t > 0,
u (x, 0) = f (x)
se x ,
u (x, 0) = g (x)
se x ,
t
u (x, t) = 0
se x e t > 0,
onde c R, f C 2 e g C 1 . Se R2 , entao este problema modela as vibracoes transversais
de baixa amplitude de uma membrana fina fixada em um aro com o formato de : se e um retangulo,
4
x e t > 0.
F (x)
1 G00 (t)
= 2
=
F (x)
c G (t)
onde R e alguma constante a ser determinada. Como em geral G (t) nao e a funcao identicamente nula,
a condicao de fronteira implica que F (x) = 0 para x . Portanto, a funcao F satisfaz o problema de
Dirichlet para a equacao de Laplace
F (x) = F (x)
se x ,
F (x) = 0
se x ,
ou seja, e um autovalor do laplaciano em . Como veremos, os autovalores do laplaciano em formam
um conjunto enumeravel {n }nN e existe um conjunto associado de autofuncoes {Fn }nN que constitui uma
base de Schauder (em outras palavras, um conjunto ortonormal completo) para L2 (). A solucao geral para
a equacao diferencial ordinaria
G00 (t) = n c2 G (t)
e
Gn (t) = an cos
p
p
n t + bn sen n t.
an cos
n t + bn sen
n t Fn (x) ,
n=1
onde os coeficientes an , bn sao determinados pelas condicoes iniciais (posicao inicial e velocidade inicial da
membrana):
f (x) =
g (x) =
an Fn (x) ,
n=1
bn
p
n Fn (x) ,
n=1
Z
1
bn =
f (x)Fn (x) dx.
n
Assim, no caso bidimensional, os autovalores do laplaciano correspondem `as freq
uencias naturais de vibracao
de uma membrana, enquanto que as autofuncoes associadas correspondem aos modos naturais de vibracao
da membrana. Estas ideias se generalizam para fenomenos vibratorios em tres ou mais dimensoes.
O metodo de expansao em autofuncoes tambem pode ser usado para resolver o problema de Neumann
da equacao da onda ou outros problemas mais gerais. Nestes casos, devem ser buscados os autovalores do
laplaciano de acordo com a condicao de fronteira considerada.
O metodo de expansao em autofuncoes tambem pode ser usado para resolver o problema do calor com
as condicoes de fronteira apropriadas. Por exemplo, para o problema de Dirichlet
se x e t > 0,
ut = Ku
u (x, 0) = f (x)
se x ,
u (x, t) = 0
se x e t > 0,
a solucao e dada por
u (x, t) =
an e
n Kt
Fn (x) ,
n=1
onde os coeficientes an sao determinados pelas condicao inicial (distribuicao de temperaturas inicial na placa
bidimensional ou no objeto tridimensional):
f (x) =
an Fn (x) ,
n=1
isto e,
Z
an =
1.1.2
Problema Isospectral
Dada uma variedade Riemanniana compacta com fronteira (M, g), pode-se definir um operador laplaciano
g u = div (u). Em coordenadas locais, ele e um operador elptico. Como no caso de abertos de Rn , o
laplaciano em variedades possui uma seq
uencia de autovalores (o seu espectro). Dizemos que duas variedades
Riemannianas sao isospectrais se seus espectros coincidirem, contando multiplicidades. Uma questao natural
e a seguinte: duas variedades Riemannianas isospectrais sao isometricas? Se considerarmos variedades ndimensionais contida em Rn sob a metrica euclidiana, duas variedades serem isometricas e equivalente a
elas serem congruentes do ponto de vista da geometria euclidiana classica. Esta questao para domnios
planos foi colocada de maneira mais colorida por Bers e Kac em 1966 ([Kac]; o u
ltimo atribui o problema
a Bochner em meados dos anos 1950s) como e possvel escutar o formato de um tambor?, ja que no caso
de domnios no plano os autovalores do laplaciano correspondem ao quadrado das freq
uencias naturais de
vibracao produzidas por uma membrana, como vimos na secao anterior. Pode-se tracar as origens desta
especulacao ao resultado obtido por Weyl em 1911 [Weyl] de que a area de um domnio plano e determinada
pelo espectro do laplaciano; em particular, domnios com diferentes areas nunca podem ter o mesmo espectro.
Sabe-se tambem que o espectro determina o permetro e o n
umero de componentes conexas de um domnio
plano (veja [Kac] para referencias). Kac, usando a desigualdade perimetrica (permetro() > 4 area()) e
o fato que a area e o permetro sao determinadas pelo espectro do laplaciano, conseguiu provar que se um
domnio plano possui o mesmo espectro de um disco de raio r, entao ele e congruente ao disco, mostrando
que existem domnios que sao determinados pelo espectro do laplaciano.
No entanto, a resposta a este problema no caso geral e negativa: o formato de um tambor nao e audvel.
No caso de variedades Riemannianas, Milnor ja havia construdo em 1964 [Milnor] um par de variedades
isospectrais nao-isometricas de dimensao 16; varios outros exemplos se seguiram, incluindo superfcies de
Riemann (veja [GWW1] e [Protter], para referencias) ate que em 1980 Vigneras [Vigneras] obteve exemplos
de variedades compactas isospectrais nao-isometricas de qualquer dimensao n > 2. Entretanto, a questao de
Kac para domnios no plano permaneceu em aberta ate 1992, quando Gordon, Webb e Wolpert ([GWW1];
veja [GWW2] para os detalhes completos), usando resultados de teoria de espacos de recobrimento e teoria
dos grupos, obtiveram um par de domnios planos simplesmente conexos nao-isometricos com os mesmos
espectros de Dirichlet e de Neumann. Os contra-exemplos que eles obtiveram tem o formato de uma regiao
poligonal, nao-convexa, e o metodo permite a obtencao de uma larga colecao de contra-exemplos. Os
primeiros 54 autovalores do primeiro contra-exemplo de Gordon, Webb e Wolpert, que ficou conhecido como
os tambores GWW, foram encontrados experimentalmente por Sridhar e Kudrolli [Sridhar-Kudrolli]; eles
construram cavidades de microondas com o formato da regiao poligonal e mediram ressonancias em ondas
magneticas transversais, que obedecem a equacao de Helmoltz. Posteriormente, varios autores calcularam
autovalores e autofuncoes dos tambores GWW atraves de metodos numericos; veja [Driscoll], [Heuveline] e
as referencias nestes artigos.
Uma demonstracao mais simples e versatil do resultado de Gordon, Webb e Wolpert, foi dada por Berard
[Berard2], usando a chamada tecnica de transplantac
ao de autofunc
oes, introduzida pelo proprio [Berard1].
Os domnios sao construdos a partir de translacoes, rotacoes e reflexoes de uma u
nica forma, tal como um
triangulo, sem sobreposicoes. Dada uma autofuncao em um domnio, pode-se prescrever uma funcao sobre
o outro domnio cujos valores sobre cada parte sao combinacoes lineares dos valores da autofuncao sobre
varias das partes do primeiro domnio. As combinacoes sao escolhidas de modo a satisfazer as condicoes
de fronteira e igualar valores da funcao e suas derivadas nas interfaces entre as partes. O resultado e uma
autofuncao na segunda regiao tendo o mesmo autovalor. Para completar a prova de isospectralidade, basta
mostrar que o procedimento e invertvel. Usando esta tecnica, Chapman [Chapman] obteve alguns exemplos
que podem ser explicados em nvel elementar atraves de dobraduras de papel e ate mesmo um exemplo onde
os autovalores do laplaciano podem ser calculados explicitamente (este exemplo consiste de dois domnios
cada um com duas componentes conexas, um retangulo e um triangulo isosceles reto; veja Exemplo 4 na
proxima secao).
Todos os contra-exemplos dados nas referencias acima sao de domnios nao-convexos ou com quinas.
Watanabe ([Wat1], [Wat2]) determinou a existencia de uma classe nao-enumeravel de domnios suaves que
nao e um disco (incluindo exemplos convexos e nao-convexos) que sao determinados pelos espectros de Dirichlet ou de Neumann do laplaciano. Outros exemplos de domnios determinados pelo espectro do laplaciano,
com a propriedade adicional de serem analticos reais e simetricos com respeito a reflexoes em relacao a um
eixo horizontal e a um eixo vertical, foram dados por Zelditch [Zelditch]. A identificacao de todas as classes
de domnios que sao determinados pelo espectro do laplaciano e um problema em aberto.
1.2
Exemplos
u00 = u
em [0, L] ,
u (0) = u (L) = 0,
sao
n =
n2 2
,
L2
n N.
nx
.
L
(uxx + uyy ) = u
em R,
u=0
sobre R,
sao
nm =
m2
n2
+
a2
b2
n, m N.
nx
my
sen
.
a
b
(uxx + uyy ) = u
em T,
u=0
sobre T,
sao
nm = 2
n2
m2
+ 2
2
c
c
n, m N.
nx
my
mx
ny
sen
sen
sen
.
c
c
c
c
Exemplo 4. [Chapman] A partir dos Exemplos 2 e 3 podemos construir dois domnios planos isospectrais
1 e 2 que nao sao isometricos. De fato, cada i e a uniao disjunta de um retangulo e um triangulo
isosceles reto:
1 = R1 T1 ,
2 = R2 T2 ,
onde R1 e um quadrado unitario, R2 e um retangulo de comprimento 2 e altura 1 e T1 e T2 sao triangulos
is
osceles retos, os lados menores do primeiro tendo comprimento 2 e os do segundo com comprimento
2. Os autovalores de um domnio que e a uniao disjunta de varias componentes conexas (incluindo
as fronteiras de cada componente) e a uniao dos autovalores de cada componente, as autofuncoes do
domnio sendo as funcoes que sao iguais `as autofuncoes em cada componente e zero nas demais. De
acordo com os Exemplos 2 e 3, segue que os espectros dos domnios 1 e 2 sao dados por
2
2 2
n
m2
2
2
1 = n + m n,mN
+
,
4
4
n,mN
2
N
M2
N
2 = 2
+ M2
2
+
.
4
2
2
N,M N
N,M N
N2
+ M 2 , N, M N. Se N e par, tomamos
2
N
N2
e m = M , obtendo
+ M 2 = n2 + m2 ; se N e mpar, escolhemos n = max (N, 2M ), m =
2
4
2
N2
n2 m2
N
M2
min (N, 2M ), produzindo
+M 2 =
+
. Se 2 e um autovalor da forma 2
+
,
4
4
4
2
2
N2
M2
n2
m2
N, M N, escolhemos n = N + M e m = |N M |, de modo que
+
=
+
.
2
2
4
4
n
m2
N2
2
2
2
2
+ M . Seja 2 um autovalor da forma
+
,
e M = m, obtendo n + m =
4
4
4
n=
n
n2
m2
N2
n, m N. Se n e par, tomamos N = m e M = , de modo que
+
=
+ M 2 ; se m e par,
2
4
4
4
m
tomamos N = n e M =
para produzir o mesmo resultado.
2
Portanto,
1 = 2
embora 1 e 2 nao sejam congruentes. Observe que, como requer o resultado obtido por Weil
(discutido
na secao anterior), 1 e 2 possuem a mesma area igual a 2, o mesmo permetro igual a
8 + 2 2 e obviamente o mesmo n
umero de componentes conexas.
Exemplo 5. Os autovalores do laplaciano para o problema de Dirichlet no paraleleppedo P = [0, a][0, b]
[0, c] R3
nmk =
n2
m2
k2
+
+
a2
b2
c2
n, m, k N.
nx
my
kz
sen
sen
.
a
b
c
1
1
urr + ur + + 2 u = u
se 0 < r < 1 e 0 < < 2,
r
r
u=0
se r = R e 0 < < 2,
sao
nm =
onde n,m
n,m
, n = 0, 1, 2, . . . , m = 1, 2, . . .
R
e o m-esimo zero positivo da func
ao de Bessel do primeiro tipo Jn
Jn (r) =
X
k=0
(1)k r 2k+n
.
k!(k + n)! 2
Note que para m = 1, 2, . . . temos duas autofuncoes distintas para um dado autovalor, isto e, tais
autovalores tem multiplicidade pelo menos igual a 2.
1
2
u=0
se r = R, 0 < < 2 e 0 < <
sao
nm =
n+ 12 ,m
R
2
,
n = 0, 1, 2, . . . , m = 1, 2, . . .
10
(1)k
k! k + n +
k=0
1
2
+1
r 2k+n+ 12
2
k = n, n + 1, . . . , 1, 0, 1, . . . , n 1, n,
onde jn e a func
ao de Bessel esferica do primeiro tipo
r
J 1 (r),
jn (r) =
2r n+ 2
e Yn,k sao as harm
onicas esfericas
s
Yn,k (, ) =
2n + 1 (n k)! k
P (cos ) eik ,
4 (n + k)! n
2n n!
1.3
Princpio do M
aximo Fraco: O Laplaciano n
ao possui Autovalores Negativos
1.1 Lema. (Princpio do Maximo Fraco) Seja Rn um aberto limitado. Seja u C 2 () C 0 ().
Se u > 0 em , ent
ao
max u = max u;
Se u 6 0 em , ent
ao
min u = min u.
m = max u
e suponha por absurdo que m < M . Entao existe um ponto x0 \ tal que u (x0 ) = M . Defina a funcao
v (x) = u (x) +
M m
2
|x x0 | ,
4d2
11
d = diam . Se x , temos
v (x) 6 m +
M m 2
3
M
< M,
d = m+
2
4d
4
4
e como u (x0 ) = v (x0 ) = M , segue que o maximo de v tambem e assumido em um ponto de \, digamos
em x. Mas, como x e um ponto de maximo para v, devemos ter
v (x) 6 0,
enquanto que, pela definicao de v e pelo fato de u satisfazer a equacao de Laplace, para todo x temos
v (x) = u (x) +
M m
M m
>
> 0,
2
2d
2d2
max u 6 max u+ .
Se u u > 0 em , entao
u = u
u=0
em ,
sobre ,
possuir soluc
ao u C 2 () C 0 (), ent
ao a soluc
ao e trivial. Conseq
uentemente, o problema de
Dirichlet para o laplaciano n
ao possui autovalores negativos ou nulos.
Prova. Assuma primeiro u u 6 0 em . Se u 6 0 em , entao o corolario vale trivialmente. Logo,
podemos assumir que + = {x : u(x) > 0} 6= . Como u > 0 em + , temos que u > 0 em + .
Segue do Princpio do Maximo Fraco que
u.
max u = max
+
+
1.4
12
M
etodos Variacionais para Autovalores de Operadores Lineares
Nesta secao vamos rever os metodos variacionais para a obtencao de autovalores para operadores lineares
definidos em espacos de dimensao finita providos de produto interno. A teoria sera entao generalizada mais
tarde para obter a existencia e algumas propriedades basicas dos autovalores do laplaciano. Em primeiro
lugar, discutiremos o Princpio de Rayleigh, que afirma que o menor autovalor de um operador linear pode
ser encontrado como o mnimo de um certo funcional, enquanto que o seu maior autovalor e o maximo deste
mesmo funcional:
1.3 Teorema. (Princpio de Rayleigh) Seja V um espaco vetorial com produto interno de dimens
ao n e
T : V V um operador linear auto-adjunto. Sejam 1 6 . . . 6 n os autovalores de T , de modo que
1 e o menor autovalor de T e n e o maior autovalor de T . Ent
ao
1 = min
xV
x6=0
e
n = max
xV
x6=0
hT x, xi
2
kxk
hT x, xi
2
kxk
= min hT x, xi
(1.4)
= max hT x, xi
(1.5)
xV
kxk=1
xV
kxk=1
Prova: Seja B = {v1 , . . . , vn } uma base ortonormal de autovetores de T correspondentes aos autovalores
n
P
1 6 . . . 6 n de T . Entao, para todo x =
xi vi V temos
i=1
*
hT x, xi =
n
X
!
xi vi
i=1
=
=
n
X
n
X
+
xj vj
j=1
n
X
xi T vi ,
i=1
n
X
hi xi vi , xj vj i =
i,j=1
n
X
n
X
j=1
+
xj vj
* n
X
i=1
i xi vi ,
n
X
+
xj vj
j=1
i xi xj hvi , vj i
i,j=1
i x2i .
i=1
1 kxk =
n
X
1 x2i 6 hT x, xi 6
i=1
n
X
n x2i = n kxk
i=1
kxk
13
T . Ent
ao, se Wj denota o conjunto dos subespacos de V de dimens
ao j, temos
hT
x,
xi
.
j = min max hT x, xi = min max
W Wj
xW
W Wj
xW kxk2
x6=0
kxk=1
ou, dualmente,
j =
max min hT x, xi =
W Wj1
xW
kxk=1
(1.6)
hT x, xi
.
max min
xW kxk2
x6=0
(1.7)
W Wj1
Prova: Provemos primeiro (1.6). Seja W V um subespaco de dimensao j. Primeiro mostraremos que
max hT x, xi > j .
xW
kxk=1
dim W Z > 1
n
P
xk vk , temos kxk =
k=j
hT x, xi =
=
* n
X
xk T vk ,
k=j
n
X
n
X
+
xl vl
l=j
n
X
k x2k > j
k=j
*
=
n
X
xk k vk ,
k=j
n
X
n
P
k=j
+
xl vl
l=j
n
X
x2k = 1, donde
k xk xl hvk , vl i
k,l=j
x2k = j .
k=j
j
X
k=1
j
X
k=1
xk T vk ,
j
X
+
xl vl
*
=
k=1
l=1
k x2k 6 j
j
X
j
X
xk k vk ,
j
X
l=1
+
xl vl
j
X
k xk xl hvk , vl i
k,l=1
x2k = j .
k=1
O minimax e atingido em vj .
Vamos agora provar o princpio dual (1.7). Seja W V um subespaco de dimensao j 1. Primeiro
mostraremos que
min hT x, xi 6 j .
xW
kxk=1
Como antes, B = {v1 , . . . , vn } e uma base ortonormal de autovetores de T correspondentes aos autovalores
1 , . . . , n . Seja Z = hv1 , . . . , vj i. Como W tem dimensao n (j 1), temos
14
de modo que
dim W Z > 1
j
P
xk vk , temos kxk =
k=1
*
hT x, xi =
j
X
xk T vk ,
k=1
j
X
j
X
+
xl vl
*
=
l=1
k x2k 6 j
k=1
j
X
j
X
xk k vk ,
k=1
j
X
l=1
k=1
+
xl vl
j
P
j
X
x2k = 1, donde
k xk xl hvk , vl i
k,l=1
x2k = j .
k=1
n
X
l=j
n
X
k x2k > j
k=j
k=j
l=j
k,l=j
x2k = j .
k=j
O maximin e atingido em vj .
1.5
Para generalizar os metodos variacionais discutidos na secao anterior para encontrar os autovalores do Laplaciano, e necessario definir um espaco de funcoes dotado de um produto interno adequado. Para domnios
limitados, o espaco adequado para se trabalhar e o espaco de Sobolev.
1.5.1
A Derivada Fraca
u
u
dx =
dx
(1.8)
x
x
i
i
u
dx =
vi dx,
(1.9)
xi
u
.
xi
(1.10)
15
Quando existe, vi e u
nicamente determinada a menos de conjuntos de medida nula. Claramente C 1 ()
1
W (): o conceito de derivada fraca e uma extensao do conceito classico de derivada que mantem a validade
da formula de integracao por partes.
Exemplo 1. Sejam n = 1, = (0, 2) e
u(x) =
Entao, se
v(x) =
x
1
se 0 < x 6 1,
se 1 6 x < 2.
1
0
se 0 < x 6 1,
se 1 6 x < 2,
u0 dx =
x0 dx +
0 dx
1
1
= (1) 0
dx + 0 (1)
0
v dx.
0
u(x) =
x
2
se 0 < x 6 1,
se 1 6 x < 2.
Entao u nao possui uma derivada fraca. Com efeito, suponha por absurdo que exista uma funcao
v L1loc ((0, 2)) satisfazendo
Z 2
Z 2
u0 dx =
v dx,
0
para toda
C0 ((0, 2)).
Z
Entao
Z
v dx =
0
x0 dx + 2
= (1)
Z
0 dx = (1) 0
dx + 0 2(1)
0
dx,
0
ou seja,
(1) =
dx +
0
v dx.
0
Z 2
1 = lim m (1) = lim
m dx +
vm dx = 0,
m
uma contradicao.
16
possvel provar que uma funcao real em uma variavel real possui uma
Estes exemplos nao sao acidentais. E
derivada fraca se e somente se ela for absolutamente contnua (a menos de modificacoes em conjuntos de
medida nula); em particular, isso implica que ela e diferenciavel no sentido classico em quase todo ponto. No
caso de funcoes de varias variaveis, pode-se provar que uma funcao u L1loc () e fracamente diferenciavel
se e somente se ela e igual, a menos de um conjunto de medida nula, a uma funcao que (1) e absolutamente
contnua em quase todos os segmentos em paralelos aos eixos coordenados e (2) as derivadas parciais de
u sao localmente integraveis. Para maiores detalhes, veja [Biezuner].
1.5.2
Espa
cos de Sobolev
u
1,2
1
2
2
W () = u W () : u L () e
L () para todo i = 1, . . . , n .
xi
(1.11)
.
|u| +
xi
i=1
kukW 1,2 () =
Definimos tambem
(1.12)
uv +
n Z
X
i=1
n
X
u v
u v
= hu, viL2 () +
,
.
xi xi
xi xi L2 ()
i=1
(1.13)
Desta forma, a norma definida acima e derivada deste produto interno. Ela tambem e equivalente `a norma
Z
kukW 1,2 () =
|u|
1/2
Z
!1/2
n
X
u 2
+
xi
i=1
n
X
= kukL2 () +
xi 2 .
L ()
i=1
1.5.3
Assumiremos os resultados a seguir sem demonstracao (veja [Biezuner] para a demonstracao destes resultados).
1.3 Teorema. W 1,2 () e um espaco de Hilbert. Em particular, W01,2 () tambem e um espaco de Hilbert.
1.4 Teorema. C () W 1,2 () e denso em W 1,2 (). Se um aberto com fronteira de classe C 1 , ent
ao
C () W 1,2 () e denso em W 1,2 ().
Os seguintes resultados caracterizam o espaco W01,2 ():
1.5 Teorema. Se u W 1,2 () satisfaz supp u , ent
ao u W01,2 ().
Se Rn e um aberto com fronteira de classe C 1 e se u W 1,2 () C(), ent
ao u W01,2 () se e
somente se u = 0 em .
17
As propriedades de imersao compacta dos espacos de Sobolev sao as que lhe conferem a sua grande
utilidade. Recordamos os conceitos de imers
ao contnua e imers
ao compacta:
Defini
c
ao. Seja E um subespaco vetorial normado de um espaco normado F (ou seja, a norma em E nao
precisa necessariamente ser a norma induzida de F ). Dizemos que a inclusao E F e uma imers
ao
(contnua) se a aplicacao inclusao I : E F definida por Ix = x for contnua. Denotamos este fato
por
E , F.
Se, alem disso, a aplicacao inclusao for compacta, dizemos que a imersao E , F e compacta.
Denotaremos a imersao compacta de um espaco vetorial normado E em um espaco vetorial normado
F por
E ,
F.
Como a aplicacao inclusao e linear, o fato de existir uma imersao E , F e equivalente `a existencia de uma
constante C tal que
kxkF 6 C kxkE para todo x E.
Em particular, se (xn ) e uma seq
uencia de Cauchy em E, entao (xn ) tambem e uma seq
uencia de Cauchy
claro que se E tem a norma induzida de F ,
em F ; logo, se xn x em E, entao xn x em F tambem. E
entao a inclusao E F e uma imersao, com C = 1. Quando existe uma imersao E , F , dizer que ela e
compacta e equivalente a dizer que seq
uencias limitadas de (E, kkE ) possuem subseq
uencias convergentes
em (F, kkF ).
1.6 Teorema. (Teorema da Imersao de Sobolev) Seja Rn um aberto. Ent
ao
W 1,2 () , L2 (),
W01,2 () , L2 ().
Prova: Usando a norma equivalente introduzida acima, se E = W 1,2 () ou se E = W01,2 () temos
n
X
u
kukE = kukL2 () +
xi
L2 ()
i=1
> kukL2 () .
1.7 Teorema. (Teorema de RellichKondrakhov) Seja Rn um aberto limitado com fronteira de classe
C 1 . Ent
ao
W 1,2 () ,
L2 () ,
Se trocarmos W 1,2 por W01,2 , o resultado e v
alido para abertos arbitr
arios.
1.8 Teorema. (Desigualdade de Poincare) Seja Rn um aberto limitado. Ent
ao
kukL2 () 6
||
n
1/n
kukL2 () .
1.6
18
Exist
encia e Unicidade de Soluco
es para o Laplaciano atrav
es
do M
etodo Variacional
1.6.1
Solu
c
oes Fracas
Defini
c
ao. Seja f L2 (). Dizemos que u W01,2 () e uma solu
c
ao fraca para o problema de Dirichlet
u = f
em ,
(1.14)
u=0
sobre ,
se
Z
u v =
fv
Se os dados do problema de Dirichlet (1.14) sao suficientemente regulares e a solucao fraca tambem e
suficientemente regular, entao ela e uma solucao classica:
1.9 Proposi
c
ao. (Solucoes Fracas Regulares
sao Solucoes Classicas) Sejam f C 0 (). Se existir uma
2
0
soluc
ao fraca u C () C para o problema
u = f
em ,
u=0
sobre ,
ent
ao u e uma soluc
ao cl
assica.
Prova: Pela Primeira Identidade de Green, para todo v C0 () temos
Z
Z
Z
Z
u
u v =
v
(u) v =
(u) v.
Z
(u) v =
fv
1.6.2
W01,2
u = f em .
() C , segue da caracterizacao dos espacos W01,2 () que u = 0 em .
0
Exist
encia, Unicidade e Regularidade de Soluc
oes Fracas
u = f
em ,
u=0
sobre ,
ent
ao ela e u
nica.
19
u1 u2 W01,2 () ,
(1.15)
Z
(u1 u2 ) v =
(f1 f2 ) v,
para todo v W01,2 (), em particular para v = u1 u2 . Portanto segue da desigualdade de Poincare que
Z
2
2
ku1 u2 kL2 () =
| (u1 u2 )|
Z
=
(f1 f2 ) (u1 u2 )
u = f
em ,
(1.16)
u=0
sobre .
Prova: Considere o funcional de Dirichlet I : W01,2 () R definido por
Z
Z
1
2
I (v) =
|v| dx +
f v.
2
Afirmamos que um ponto crtico u deste funcional e uma solucao fraca de (1.16). De fato, se u e um ponto
crtico de I, entao a derivada direcional de I na direcao de qualquer v W01,2 () e igual a 0, logo
Z
Z
d
d 1
2
0=
[I (u + tv)|t=0 =
| (u + tv)| +
f (u + tv)
dt
dt 2
t=0
Z
Z
=
u v +
fv
para todo v.
Para provar o teorema, basta entao encontrar uma funcao u W01,2 () que minimiza I, isto e, u tal que
Z
Z
1
2
I (u) = min
|v|
dx
+
f
v
,
vW01,2 () 2
20
pois um ponto de mnimo e um ponto crtico de um funcional diferenciavel. Pela desigualdade de Poincare,
o funcional I e limitado por baixo, pois
Z
Z
1
2
I (v) = kvkL2 () +
f (v g) +
fg
2
Z
Z
1
2
> kvkL2 () f (v g) +
fg
2
Z
1
2
fg
> kvkL2 () kf kL2 () k(v g)kL2 () +
2
Z
1
2
fg
> kvkL2 () C kf kL2 () k (v g)kL2 () +
2
Z
1
2
> kvkL2 () C kf kL2 () kvkL2 () +
f g C kf kL2 () kgkL2 () ,
2
t2
e a funcao real h (t) = at + b e limitada por baixo para t R, quaisquer que sejam os valores de a, b R.
2
Podemos ent
ao definir
I0 =
inf
I (u) .
1,2
vW0
()
Z h
Z
Z
i
2
2
6
t |u| + (1 t) |v| dx + t
f u + (1 t)
fv
= tI (u) + (1 t) I (v) .
2
A convexidade da funcao x 7 |x| por sua vez pode ser provada do seguinte modo:
h
i
2
2
2
2
2
2
|tx + (1 t) y| t |x| (1 t) |y| = t2 t |x| + 2t (1 t) x y + (1 t) (1 t) |y|
2
= t (1 t) |x y| 6 0.
Logo,
I0 6 I
uk + ul
2
1
1
I (uk ) + I (ul ) I0
2
2
1
uk + ul
2
2
2
| (uk ul )| dx =
|uk | dx +
|ul | dx 2
dx
2
2
Z
Z
Z
Z
2
2
=
|uk | dx + 2
f uk +
|ul | dx + 2
f ul
Z
Z
uk + ul
uk + ul
2
f
dx 4
2
2
uk + ul
= 2I (uk ) + 2I (ul ) 4I
,
2
21
u = f
em ,
u=0
sobre ,
ent
ao u C .
1.7
O Espectro do Laplaciano
1.7.1
Exist
encia e Caracterizac
ao Variacional dos Autovalores do Laplaciano
Para o problema de Dirichlet, o espaco natural para aplicar o metodo variacional e W01,2 (), enquanto que
para o problema de Neumann trabalharemos em W 1,2 (). Examinaremos primeiro o problema de autovalor
do laplaciano para condicao de fronteira de Dirichlet.
Defini
c
ao. Dizemos que u W01,2 () e uma solu
c
ao fraca para o problema de autovalor do laplaciano
para condicao de fronteira de Dirichlet
u = u
em ,
u=0
sobre ,
se
Z
u v =
uv
(1.17)
u = u
em ,
u=0
sobre ,
ent
ao u C .
1.14 Teorema. Seja Rn um aberto limitado. Ent
ao o problema de autovalor
u = u
em ,
u W01,2 ()
possui um n
umero infinito enumer
avel de autovalores
0 < 1 6 2 6 . . . 6 j 6 . . .
22
tais que
j ,
e autofunc
oes {uj } que constituem um sistema ortonormal completo para L2 (), isto e,
v=
i ui
i=1
kvkL2 () =
hv, ui iL2 () .
i=1
i hv, ui iL2 () .
i=1
hu, uiL2 ()
inf
uW01,2 ()\{0}
kukL2 ()
No entanto, nossas funcoes estao em W01,2 () e em geral nao possuem derivadas parcias de segunda ordem
e portanto seus laplacianos nao estao definidos. Porem, lembrando que C0 () e denso em W01,2 () e a
primeira identidade de Green para funcoes em C0 () toma a forma
Z
Z
Z
u
hu, uiL2 () =
(u) u =
hu, ui
u
= hu, uiL2 ()
consideramos o funcional I : W01,2 () \ {0} R definido por
R
2
2
hu, uiL2 ()
kukL2 ()
|u|
I (u) = R 2 =
=
.
2
hu, uiL2 ()
u
kukL2 ()
Afirmamos que se
1 =
entao existe u W01,2 (), u 6= 0, tal que
inf
uW01,2 ()\{0}
I (u) ,
(1.18)
u = 1 u,
ou seja, 1 e um autovalor do laplaciano. Para provar isso, observe em primeiro lugar que o funcional I
e invariante por escala, no sentido de que I (u) = I (u) para todo 6= 0, logo podemos considerar uma
seq
uencia minimizante (uk ) W01,2 () que satisfaz kuk kL2 () = 1 para todo k. Em particular,
2
kuk kL2 () 1 ,
logo (uk ) e uma seq
uencia limitada em W01,2 (). Segue do Teorema de Rellich-Kondrakhov que, a menos
de uma subseq
uencia, uk u em L2 () e, portanto, kukL2 () = 1, o que implica em particular que u 6= 0.
Afirmamos que uk u em W01,2 (). De fato, valem as identidades
2
23
2
A segunda identidade implica que kuk + ul kL2 () 4 quando k, l . Usando a primeira identidade
juntamente com a desigualdade
2
1 = kukL2 ()
e o Teorema de Poincare implica que 1 6= 0. Vamos denotar u = u1 . Para mostrar que u1 e uma solucao
fraca de u1 = 1 u1 , observe que para todo v W01,2 () fixado temos
I (u1 + tv) =
onde |t| e suficientemente pequeno para que o denominador nunca se anule. Como u1 e um mnimo para
este funcional, segue que
dI
0=
(u + tv)
dt
t=0
2
2
2
2
2 hu1 , viL2 () + 2t ku1 kL2 () ku1 + tvkL2 () 2 hu1 , viL2 () + 2t ku1 kL2 () k (u1 + tv)kL2 ()
=
4
ku1 + tvkL2 ()
=
=
ku1 + tvkL2 ()
2 hu1 , viL2 () 21 hu1 , viL2 ()
ou seja,
ku1 + tvkL2 ()
,
Z
Z
u1 v = 1
u1 v
t=0
24
Em outras palavras, Hj e o subespaco de Hilbert ortogonal ao subespaco de dimensao finita gerado pelas
autofuncoes u1 , . . . , uj1 . Defina
j = inf I (u) .
uHj
Z
uj v = j
uj v
para todo v Hj e a relacao e trivialmente verdadeira para todo v W01,2 (), ja que uj e ortogonal ao
subespaco gerado por u1 , . . . , uj1 . Portanto uj e uma solucao fraca de u = j u em .
Para ver que j , suponha por absurdo que j 0 . Entao obtemos uma seq
uencia (uj ) W01,2 ()
de autofuncoes associadas aos autovalores k tais que kuj kL2 () = 1 e
2
kuj kL2 () = j 0 .
Em particular, podemos usar novamente o Teorema de Rellich-Kondrakhov para concluir que uj u em
L2 (). Mas isso e um absurdo, pois a seq
uencia (uj ) e ortonormal em L2 () e portanto satisfaz
2
k
X
i ui ,
i=1
wk = v vk .
Para todo i 6 k temos
*
hwk , ui i =
k
X
+
i ui , ui
= hv, ui i i = 0.
i=1
25
Por definicao de k ,
hwk , wk iL2 () > k+1 hwk , wk iL2 () ,
logo
hv, viL2 () 0.
k+1
em L2 () .
i ui
(1.19)
i=1
k
X
i ui ,
i=1
donde
2
kvk kL2 () =
k
X
i2 hui , ui i =
i=1
k
X
i2 i hui , ui i =
i=1
k
X
i i2 .
i=1
Como
hwk , wk iL2 () + hvk , vk iL2 () = hv, viL2 () ,
segue que
l
X
P
i=1
i i2
i=k+1
i i2 .
i=1
em ,
u W 1,2 ()
26
possui um n
umero infinito enumer
avel de autovalores
0 = 0 6 1 6 2 6 . . . 6 j 6 . . .
tais que
j ,
e autofunc
oes {uj } que satisfazem
u
=0
sobre
i ui
i=1
kvkL2 () =
hv, ui iL2 () .
i=1
kvkL2 () =
i hv, ui iL2 () .
i=1
Na demonstracao do Teorema 1.14 usamos o princpio de Rayleigh para obter o primeiro autovalor
do laplaciano como o mnimo do funcional de Rayleigh. Como os autovalores do laplaciano formam uma
seq
uencia infinita que cresce arbitrariamente em modulo, o funcional de Rayleigh para o laplaciano nao
possui um maximo. Entretanto, da mesma forma que no caso de operadores lineares em dimensao finita,
podemos tambem derivar um princpio de minimax para obter os demais autovalores do laplaciano:
1.16 Teorema. Seja Rn um aberto limitado. Sejam
0 < 1 6 2 6 . . . 6 j 6 . . .
os autovalores do laplaciano com condic
ao de Dirichlet:
u = u
em ,
u W01,2 () .
Ent
ao, se Lj denota o conjunto dos subespacos vetoriais de W01,2 () de dimens
ao j, temos
hu, uiL2 ()
(1.20)
ou, dualmente,
uL
kuk=1
LLj1
uL
u6=0
hu, uiL2 ()
2
kukL2 ()
(1.21)
O resultado an
alogo vale para os autovalores do laplaciano com condic
ao de Neumann trocando-se
W01,2 () por W 1,2 () e j por j1 .
27
Prova: Vimos na demonstracao do Teorema 1.13 que se L = hu1 , . . . , uj1 i e o subespaco gerado pelas
primeiras j 1 autofuncoes u1 , . . . , uj1 do laplaciano, entao
hu, uiL2 ()
j = min
kukL2 ()
uL
u6=0
de fato, o mnimo e realizado em u = uj . Por outro lado, se L0 = hu1 , . . . , uj i e o subespaco gerado pelas
primeiras j autofuncoes u1 , . . . , uj do laplaciano, tambem temos
hu, uiL2 ()
j = max0
kukL2 ()
uL
u6=0
= i 6 j ,
kui kL2 ()
enquanto que
huj , uj iL2 ()
= j .
kuj kL2 ()
Portanto, se u =
n
P
i=1
ai ui L0 , temos
hu, uiL2 ()
2
kukL2 ()
hu, uiL2 ()
hu, uiL2 ()
n
P
i=1
ai ui ,
n
P
i=1
n
P
n
P
i=1
n
P
i=1
ai u i ,
6
a2i hui , ui iL2 ()
j i=1
n
P
i=1
n
P
i=1
n
P
i=1
n
P
ai ui
L2 ()
ai ui
a2i
i=1
n
P
i=1
L2 ()
hui , ui iL2 ()
e o maximo e realizado em u = uj .
Agora, para provar (1.20), seja L0 Lj outro subespaco de W01,2 () de dimensao j, digamos L0 =
j
P
hv1 , . . . , vj i. Afirmamos que existe um vetor nao nulo v =
ai vi L0 tal que v ui para i = 1, . . . , j 1.
i=1
De fato, basta tomar uma das solucoes nao triviais do sistema homogeneo
j
P
hv, u1 i =
ai hvi , u1 i = 0
i=1
..
.
hv, uj1 i =
ai hvi , uj1 i = 0
i=1
que possui j 1 equacoes e j incognitas. Logo, disso e do Teorema 1.15 segue que
hv, viL2 ()
2
kvkL2 ()
2
kvkL2 ()
2
kvkL2 ()
i hv, ui iL2 ()
i=1
i=1
2
hv, ui iL2 ()
i hv, ui iL2 ()
i=j
i=j
2
hv, ui iL2 ()
j
>
P
i=j
P
i=j
hv, ui iL2 ()
2
hv, ui iL2 ()
= j ,
28
e portanto
max0
hu, uiL2 ()
2
kukL2 ()
uL
u6=0
> j .
u1 , . . . , uj . De fato, basta tomar uma das solucoes nao triviais do sistema homogeneo
n
P
hv,
v
i
=
ai hui , v1 i = 0
i=1
..
.
hv, vj1 i =
ai hui , vj1 i = 0
i=1
que possui j 1 equacoes e j incognitas. Entao algum dos vetores u1 , . . . , uj e perpendicular a L, digamos
ui . Logo, disso e do Teorema 1.13 segue que
hv, viL2 ()
2
kvkL2 ()
2
kvkL2 ()
2
kvkL2 ()
i=1
i=1
j
6
j
P
i=1
i=1
2
i hv, ui iL2 ()
2
hv, ui iL2 ()
i=1
j
P
j
P
ak uk , ui
k=1
i=1
j
P
L2 ()
ak uk , ui
k=1
L2 ()
i=1
i=1
= j ,
e portanto
min
hu, uiL2 ()
uL
u6=0
kukL2 ()
6 j ,
1.7.2
Compara
c
ao de Autovalores
para todo j.
29
Prova: Denotando
n
o
Lj W01,2 () = L W01,2 () : L e um subespaco vetorial de dimensao j ,
Lj W01,2 () Lj W 1,2 () .
Em particular, o mnimo sobre Lj W01,2 () nao pode ser maior que o mnimo sobre Lj W 1,2 () . Segue
que
N
j1 =
min
max hu, ui 2 6
L ()
uL
kuk=1
min
max hu, ui 2 = D
j .
L ()
uL
kuk=1
O que acontece com os autovalores do laplaciano de um domnio quando este aumenta? Se nos
restringirmos a simples aumentos de escala, a resposta e simples. Denote a = {ax : x }. Se u satisfaz
u = u
em ,
u=0
sobre ,
x
entao v (x) = u
satisfaz
a
(
em a ,
v = 2 v
a
v=0
sobre a .
Em particular, se a > 1 (dilatacao), entao os autovalores do laplaciano em a sao menores que os autovalores
do laplaciano em . No caso geral, ainda e verdade que os autovalores decrescem quando o domnio aumenta,
e no caso dos autovalores de Dirichlet isto e novamente uma conseq
uencia simples da caracterizacao minimax:
1.18 Corol
ario. Sejam 1 2 Rn abertos limitados. Sejam j (1 ) e j (2 ) os autovalores de
Dirichlet do laplaciano em 1 e 2 , respectivamente. Ent
ao
j (2 ) 6 j (1 )
para todo j.
Prova: Podemos considerar W01,2 (1 ) W01,2 (2 ), porque qualquer funcao u W01,2 (1 ) pode ser estendida a uma funcao u
e W01,2 (2 ) definindo-se
u (x)
se x 1 ,
u
e (x) =
0
se x 2 \1 .
Em particular, usando a notacao do corolario anterior, temos que
Lj W01,2 (1 ) Lj W01,2 (2 ) .
e o mnimo sobre Lj W01,2 (1 ) nao pode ser maior que o mnimo sobre Lj W 1,2 (2 ) . Logo
j (2 ) =
min
LLj (W01,2 (2 ))
max hu, ui 2 6
L ()
uL
kuk=1
min
LLj (W01,2 (1 ))
max hu, ui 2 = j (1 ) .
L ()
uL
kuk=1
30
No caso dos autovalores de Neumann, o resultado continua valido mas a demonstracao e mais complicada
porque o operador extensao E : W 1,2 (1 ) W 1,2 (2 ) nao preserva a norma: em geral kEukW 1,2 (2 ) >
kukW 1,2 (1 ) (embora exista uma constante C > 0 tal que kEukW 1,2 (2 ) 6 C kukW 1,2 (1 ) , esta constante e
geralmente maior que 1) e por este motivo W 1,2 (1 ) nao pode ser considerado um subespaco de Hilbert de
W 1,2 (2 ).
1.8
1.8.1
Princpio do M
aximo Forte: o Primeiro Autovalor do Laplaciano
e Simples
O primeiro autovalor do laplaciano e simples, isto e, o seu autoespaco associado tem dimensao 1, e possui
uma autofuncao associada positiva. Para provar este resultado, precisamos do Princpio do Maximo Forte
para operadores elpticos, adaptado para o operador de Helmholtz (veja [Gilbarg-Trudinger] ou [Biezuner]
para uma demonstracao):
1.19 Lema. (Princpio do Maximo Forte) Seja Rn um aberto conexo. Seja u C 2 ().
Se u > 0 em e u atinge o seu m
aximo no interior de , ent
ao u e constante.
Se u 6 0 em e u atinge o seu mnimo no interior de , ent
ao u e constante.
Prova: Provaremos a segunda afirmacao, que sera usada na seq
uencia; a demonstracao da primeira e
analoga. Afirmamos que se u > 0 em , vale a seguinte desigualdade do valor medio: para qualquer bola
BR (x) temos
Z
Z
1
1
u (x) >
u=
u,
(1.22)
|BR | BR
n Rn BR
onde n e o volume da bola unitaria em Rn . Para provar esta desigualdade, defina para r (0, R] a funcao
Z
1
(r) =
u.
|Br | Br
Para obter a derivada da funcao , fazemos a mudanca de variaveis
=
yx
,
r
de modo que
1
(r) =
nn rn1
e da
1
u(y) ds =
nn
Br
1
u(x + r) d =
|B1 (0)|
B1 (0)
Z
u(x + r) d,
B1 (0)
Z
Z
1
1
yx
(r) =
u(x + r) d =
u(y)
ds
|B1 (0)| B1 (0)
|Br | Br
r
Z
1
u
ds,
=
|Br | Br
0
pois o vetor normal unitario `a Br (x) apontando para fora e exatamente o vetor
da Divergencia e por hipotese, temos
Z
Z
u
=
u 6 0,
Br
yx
. Mas, pelo Teorema
r
31
logo
0 (r) 6 0
1
u >
|BR |
Br
Z
u
BR
1
|BR |
Z
u.
(1.23)
BR
u
Br
para todo r, e a desigualdade do valor medio (1.22) e obtida integrando-se esta equacao de r = 0 ate r = R.
Vamos agora provar o lema. Seja m = min u e considere o conjunto A = {x : u(x) = m}. Por
hipotese, A e nao-vazio e fechado em , pois u e contnua em . Como e conexo, para provar que A = e
portanto que u e constante, basta provar que A e aberto. De fato, dado x A e uma bola BR = BR (x) ,
temos pela desigualdade do valor medio para funcoes harmonicas que
Z
Z
1
1
m = u(x) >
u>
m = m.
|BR | BR
|BR | BR
Se houvesse pelo menos um ponto em BR (x) cujo valor e estritamente maior que m, entao a desigualdade
acima seria estrita, o que constituiria uma contradicao. Conclumos que u m em BR (x), logo A e aberto.
u = u
em ,
u=0
sobre ,
possui uma soluc
ao positiva u1 > 0 em . Alem disso, qualquer outra autofunc
ao associada a 1 e
m
ultipla de u1 .
Prova: Para
simplificar a demonstracao, assumiremos que tem regularidade suficiente para que u
C 2 () C 0 de modo que podemos usar o Princpio do Maximo Forte classico dado no lema anterior (um
princpio do maximo forte para funcoes em W01,2 () pode ser visto em [Gilbarg-Trudinger]). Pela formulacao
variacional, se u e uma autofuncao associada a 1 , entao |u| tamb
e, pois I (u) = I (|u|). A teoria de
em
regularidade (Teorema 1.13) garante entao que |u| C 2 () C 0 tambem. Pelo lema anterior, u nao
pode se anular no interior de , pois isso implicaria que |u| atinge o seu mnimo no interior, logo u > 0.
Este argumento tambem implica que as autofuncoes associadas a 1 sao negativas ou positivas em , logo
nao podem ser ortogonais, e portanto o subespaco associado a 1 so pode ser unidimensional.
Mais geralmente, vale o resultado do Teorema 1.24 a seguir para todos os autovalores do laplaciano.
1.8.2
32
Defini
c
ao. Se j e um autovalor do laplaciano em e uj e uma autofuncao associada, definimos o conjunto
nodal de uj por
j = {x : uj (x) = 0} .
As componentes conexas de \j sao chamadas os domnios nodais de uj .
O conjunto nodal de uj e simplesmente o conjunto dos pontos onde uj se anula; a terminologia nodal e oriunda
do estudo das vibracoes de cordas e membranas em Mecanica. O Teorema 1.21 afirma que o conjunto nodal
de u1 e vazio; em particular, se e conexo, entao \1 possui uma componente conexa, isto e, apenas
um domnio nodal. Para as demais autofuncoes, o Teorema do Conjunto Nodal de Courant (Teorema 1.24
abaixo) afirma que o n
umero de domnios nodais da autofuncao uj nao pode exceder j.
1.22 Lema. Seja Rn um aberto limitado conexo e
0 < 1 < 2 6 . . . 6 j 6 . . .
os autovalores de Dirichlet do laplaciano e u1 , u2 , . . . , uj , . . . as respectivas autofunc
oes associadas. Se
j tem multiplicidade r, de modo que
j1 < j = j+1 = . . . = j+r1 < j+r ,
Ent
ao uj possui no m
aximo j + r 1 domnios nodais.
Prova: A demonstracao do lema e baseada na caracterizacao variacional dos autovalores do laplaciano.
Suponha que uj tenha m domnios nodais 1 , , m . Defina
i uj (x)
se x i ,
wi (x) =
0
caso contrario,
onde o fator de escala i e escolhido de tal forma que kwi kL2 () = 1. Observe que, como os domnios nodais
i sao disjuntos, as funcoes wi sao ortogonais em L2 () e em W01,2 (). Como
Z
Z
uj v = j
uj v
wi2
(embora wi seja uma autofuncao do laplaciano em i associada a j , wi nao e uma autofuncao do laplaciano
a2i = 1.
33
Em particular,
hv, viL2 () =
m
X
i=1
m
X
i=1
ou seja,
hv, viL2 ()
= j .
kvkL2 ()
n
P
hv, u1 i =
ai hwi , u1 i = 0
i=1
..
.
ai hwi , um1 i = 0
hv, um1 i =
i=1
possui m 1 equacoes e m incognitas. Para esta escolha de v, segue do Teorema 1.13 que
hv, viL2 ()
2
kvkL2 ()
2
kvkL2 ()
2
kvkL2 ()
i hv, ui iL2 ()
i=1
i=1
hv, ui iL2 ()
i hv, ui iL2 ()
i=m
i=m
hv, ui iL2 ()
m
>
i=m
i=m
hv, ui iL2 ()
2
= m .
hv, ui iL2 ()
Portanto,
m 6 j .
Como j < j+r , segue que m < j+r , donde m < n + r.
Em particular, se j e um autovalor simples, o n
umero maximo de domnios nodais de uj e j. Para
mostrar que esta mesma estimativa vale para as demais autofuncoes, Courant e Hilbert produziram um
refinamento complicado do seu argumento no lema acima. A demonstracao simplificada apresentada a
seguir e devida a Herrman [Herrman] e Pleijel [Pleijel] (reproduzida em [Gladwell-Zhu]) e e baseada no
34
= j
Prova: Sejam = 1 . . . p a decomposicao de em componentes conexas. Denote por kj jN
a seq
uencia crescente de autovalores de k com ukj jN as correspondentes autofuncoes. Seja {j }jN =
1
j jN . . . pj jN a seq
uencia crescente de autovalores de ; as autofuncoes correspondentes sao da
forma
k
se x k ,
ui (x)
uj (x) =
0
caso contrario,
para alguns ndices i, k, com j > i. Pelo Teorema do Conjunto Nodal de Courant aplicado a k , uki nao tem
mais que i domnios nodais em k , logo uj nao tem mais que j domnios nodais em k e e nula fora de k .
1.26 Corol
ario. Uma autofunc
ao u2 associada ao segundo autovalor 2 possui exatamente 2 domnios
nodais. Autofunc
oes associadas a outros autovalores j , j 6= 1, 2, possuem pelo menos dois domnios
nodais.
Prova: Pelo Teorema do Conjunto Nodal de Courant, o n
umero de domnios nodais de u2 nao pode exceder
2. Por outro lado, o fato de que uma autofuncao u1 associada ao primeiro autovalor 1 6= 2 ter o mesmo
sinal em , juntamente com o fato que u1 u2 , implicam que u2 muda de sinal em , logo nao pode ter
apenas um domnio nodal. Este mesmo argumento de ortogonalidade, u1 uj se j 6= 1, implica que qualquer
autofuncao associada a um autovalor diferente de 1 necessariamente muda de sinal em .
O Corolario 1.26 sugere que a estimativa dada no Teorema 1.24 e a melhor possvel. Isso nao e verdade, no
entanto. Usando a desigualdade de Faber-Krahn e a Lei de Weyl sobre a expansao assintotica dos autovalores,
Pleijel [Pleijel] provou que para valores suficientemente grandes de j, o n
umero maximo de domnios nodais
j nunca e atingido (Corolario 1.30, a seguir). A demonstracao da desigualdade de Faber-Krahn dada a seguir
e baseada na simetrizac
ao de Schwartz, que definiremos a seguir.
Defini
c
ao. Seja Rn um aberto limitado. O domnio simetrizado e a bola B = {x Rn : |x| < R}
que possui o mesmo volume de .
Dada uma funcao u : R, a fun
c
ao simetrizada u : R e definida da seguinte forma.
Denotando
= {x : u (x) > }
definimos
u (x) = sup : x .
35
Observe que u e uma funcao radialmente simetrica, nao-crescente. Assumiremos os seguintes resultados
sem demonstracao (para uma prova, veja [Bandle], Lema 2.4 e Corolario 2.1):
1.27 Lema. Seja Rn um aberto limitado. Ent
ao
Z
Z
f6
e
Z
2
|u | .
|u| >
2
0,1
,
A
R
R
2
2
2
|un |
|u|
|un |
D
R
>
lim
inf
= 1 (D)
>
min
R
2
u2
u2
uW01,2 ()\{0}
(un )
n
2
2
0,1
0,1
2
=
=
.
R2
R2 0,1
A
A desigualdade de Faber-Krahn entre outras coisas comprova a conjectura de Rayleigh de que entre todas
as regioes de mesma area, o disco tem o menor primeiro autovalor.
1.29 Teorema. (Lei de Weyl) Seja R2 um aberto limitado conexo e
0 < 1 < 2 6 . . . 6 j 6 . . .
os autovalores de Dirichlet do laplaciano em . Ent
ao
j
4j
,
A
onde A e a
area de . Mais geralmente, se Rn e um aberto limitado, ent
ao
j 4
j
n V
2/n
,
36
Prova: A demonstracao deste corolario depende da observacao de que se u e uma autofuncao associada a
um certo autovalor de Dirichlet e i e qualquer domnio nodal de u, entao e o primeiro autovalor do
laplaciano em i , isto e,
1 (i ) = .
De fato, ui = u|i e uma autofuncao associada a em i , pois ui C 2 (i ) C 0 i satisfaz ui = ui
em i e ui = 0 em i (pois i esta contida na uniao do conjunto nodal de u e , onde u = 0). Alem
disso, ui nao muda de sinal em i por definicao de domnio nodal de u, logo possui apenas um domnio nodal
e portanto segue do Corolario 1.26 que ui e uma autofuncao associada ao primeiro autovalor de Dirichlet em
i .
Sejam 1 , , m , m 6 j, os domnios nodais de uma autofuncao u associada a j . Como j = 1 (i )
para todo i, segue da Desigualdade de Faber-Krahn que
j >
2
0,1
,
A (i )
A ()
m
>
.
2
0,1
j
37
A, B R.
Para A = 0, u tem uma reta nodal vertical (x = /2); para B = 0, u tem uma reta nodal horizontal
(y = /2); se A = B, u tem uma reta nodal diagonal (a reta y = x se A = B e a reta y = x + 1
se A = B); nos demais casos, a curva nodal e especificada pela equacao transcendental
A cos y + B cos x = 0,
que e uma curva que intercepta a fronteira em dois pontos em angulos retos. Em todos os casos, a
curva nodal de uma autofuncao associada ao autovalor 5 divide o quadrado em dois domnios nodais.
O autovalor 4 = 8 e simples, com o seu autoespaco gerado pela autofuncao
u (x, y) = sen 2x sen 2y,
cujo conjunto nodal e a uniao das retas vertical x = /2 e horizontal y = /2; ela possui portanto
quatro domnios nodais.
O autovalor 5 = 6 = 10 tambem tem multiplicidade 2 e o seu autoespaco e constitudo pelas funcoes
da forma
u (x, y) = A sen x sen 3y + B sen 3x sen y, A, B R.
Para A = 0, u tem duas retas nodais verticais (x = /3 e x = 2/3); para B = 0, u tem duas retas
nodais horizontais (y = /3 e y = 2/3); em ambos os casos, temos tres domnios nodais. Se A = B,
u tem as duas diagonais do quadrado como retas nodais, originando quatro domnios nodais, enquanto
que se A = B, u tem uma curva nodal fechada
sen2 x + sen2 y = 3/2
que divide o quadrado em apenas dois domnios nodais, a regiao interior `a curva e a regiao exterior.
Pleijel verifica em [Pleijel] que os u
nicos autovalores do laplaciano no quadrado que possuem autofuncoes que assumem o n
umero maximal de domnios nodais sao 1 = 2 (um domnio nodal),
2 = 3 = 5 (dois domnios nodais) e 4 = 8 (quatro domnios nodais).
1.9
38
k
Y
(ri + 1) .
i=1
O comportamento exibido pelo laplaciano no quadrado nos Exemplos 8 e 9 nao e tpico, no entanto.
Em [Uhlenbeck1] e [Uhlenbeck2], Uhlenbeck mostrou que na maioria das regioes (no sentido generico), os
autovalores do laplaciano sao todos simples, os conjuntos nodais das autofuncoes sao de fato hiperfcies
que nao se autointerceptam e os pontos crticos das autofuncoes sao maximos ou mnimos nao-degenerados
(as autofunc
oes sao funcoes de Morse). Assim, dada qualquer regiao, existem perturbacoes suficientemente
pequenas que a transformarao em uma regiao com estas propriedades, ou seja, autovalores m
ultiplos se
tornarao distintos e cruzamentos das linhas nodais desaparecerao.
Captulo 2
M
etodo de Diferencas Finitas
2.1
O Caso Unidimensional
Nesta secao, desenvolveremos um metodo numerico de diferencas finitas para resolver o problema de Dirichlet
para a equacao de Poisson em uma dimensao
u00 = f (x)
em [0, a] ,
u (0) = u (a) = 0,
e para o problema de autovalor de Dirichlet para o laplaciano
u00 = u
em [0, a] ,
u (0) = u (a) = 0.
2.1.1
S
eries de Taylor e Diferencas Finitas em Uma Dimens
ao
Seja x > 0. Considere as seguintes expansoes de Taylor de uma funcao u em torno de um ponto x0 ,
respectivamente `a direita e `a esquerda de x0 :
1 00
u (x0 )x2 +
2!
1
u(x0 x) = u(x0 ) u0 (x0 )x + u00 (x0 )x2
2!
1 000
u (x0 )x3 + . . . ,
3!
1 000
u (x0 )x3 + . . .
3!
(2.1)
(2.2)
Da,
u(x0 + x) u(x0 )
1
u00 (x0 )x
x
2!
1
u(x0 ) u(x0 x)
0
u (x0 ) =
+ u00 (x0 )x
x
2!
u0 (x0 ) =
1 000
u (x0 )x2 . . . ,
3!
1 000
u (x0 )x2 + . . .
3!
(2.3)
(2.4)
40
u(x0 + x) u(x0 x)
1
1
u000 (x0 )x2 u(5) (x0 )x4 . . .
2x
3!
5!
u(x0 + x) u(x0 x)
2x
(2.5)
com erro
1
= u000 ()x2 = O(x2 ),
6
para algum x0 x 6 6 x0 + x. Esta aproximacao por diferenca finita e chamada diferen
ca centrada.
Ela e uma melhor aproximacao que as aproximacoes laterais (progressiva e regressiva).
Se, ao inves, adicionarmos (2.1) e (2.2), obtemos
u00 (x0 ) =
(2.6)
com erro
1 (4)
u ()x2 = O(x2 ),
12
onde x0 x 6 6 x0 + x. Esta aproximacao e tambem chamada uma diferen
ca centrada para a
derivada segunda.
=
2.1.2
Discretiza
c
ao
(2.8)
41
Portanto, para encontrar a solucao discretizada temos que resolver o sistema linear com n 1 equacoes a
n 1 incognitas:
x2 (2u1 + u2 ) = f1
x (u1 + 2u2 u3 ) = f2
..
,
.
2
1
x2
1
2
1
1
..
.
..
..
..
u1
u2
..
.
..
.
un2
un1
2 1
1
2
.
1
f1
f2
..
.
..
.
=
fn2
fn1
Esta e uma matriz tridiagonal simetrica, esparsa. Alem disso, como veremos na proxima subsecao, ela e
positiva definida (isto e, seus autovalores sao positivos) e portanto possui uma inversa, o que garante a
existencia e unicidade da solucao. Dada sua simplicidade, ela pode ser resolvida por eliminacao gaussiana
ou sua inversa pode ser efetivamente calculada. Por exemplo, para n = 4, 5, 6 temos
2
1
0
2
1
0
0
1
2
1
0
1
2
1
0
1
2
1
2 1
1
2
0 1
0
0
0
0
1
0
1
1 = 0
2
0
1
1
0
0
0
=
0
1
2
0
0
0
1
0
2 1
1
2
0 1
0
0
0
1
2
1
2
1
2
1
0
1
3
2
3
1
0
0
1
0
1
0
=
0
0
0
1
3
2
3
1
1
4
2
4
3
4
1
2
0
0
2
3
1
2
0
1
0
1
2
1
0
0
0
5 4
4 8
1
3 6
=
6
2 4
1 2
1
3
2
3
2
3
0
0
1
4
2
4
3
4
1
0
0
1
5
2
5
3
5
4
5
1
0
3
6
9
6
3
2
4
6
8
4
1
0
0 12
0
1
3
4
1
3
0
0
1
0
1
0
2
0 13
3
4
1
4
4
5
1
2
0
1
0
1
2
3
.
4
5
2
3
0
2
3
0
0
0
0
0
3
4
0
0
0
3
1
0 = 2
4
1
1
0
1
2
3
2
4
0
0
0
4
5
0
0
1
3
4
0
0
0
0
5
6
2
4
2
0
= 1
0
5
1
1
1
2
1
3
1
4
1
5
0
1
2
3
1
2
2
5
1
2 ,
3
4
3
2
1
3
6
4
2
0
0
1
0
0
0
1
3
4
3
5
4
5
2
4
6
3
0
0
0
0
1
1
2
3
4
2.1.3
42
Resolu
c
ao Num
erica do Problema de Autovalor Unidimensional
Os autovalores de Dirichlet do laplaciano em [0, a] devem ser aproximados pelos autovalores da matriz
(n 1) (n 1)
2 1
1
2 1
.
.
.
.
.
.
1
1
A=
2
..
..
x
.
.
1
1
2 1
1
2
quando n e correspondentemente x 0.
Lembrando que as autofuncoes de Dirichlet do laplaciano no intervalo [0, a] sao as funcoes
Uj (x) = sen
jx
,
a
sin = cos
2
2
j
2j
(n 2) j
(n 1) j
uj = sen , sen
, . . . , sen
, sen
.
n
n
n
n
2
j
4
j
j =
1 cos
=
sen2
,
x2
n
x2
2n
j = 1, . . . , n 1,
e os autovetores correspondentes s
ao
j
2j
(n 2) j
(n 1) j
uj = sen , sen
, . . . , sen
, sen
,
n
n
n
n
j = 1, . . . , n 1.
(2.9)
(2.10)
43
Prova. Temos
2
1
1
2
1
1
..
.
..
..
..
.
1
pois
2 sen
1
2
1
j
n
2j
sen
n
..
.
sen
(n 2) j
sen
1
n
2
(n 1) j
sen
n
2j
j
sen
2 sen
n
n
j
2j
3j
sen
+ 2 sen
sen
n
n
n
..
.
=
sen (n 3) j + 2 sen (n 2) j sen (n 1) j
n
n
n
(n 2) j
(n 1) j
sen
+ 2 sen
n
n
j
sen
2j
sen
j
..
= 2 1 cos
,
(n 2) j
sen
(n 1) j
sen
n
j
2j
j
j
j
j
j
sen
= 2 sen
2 sen
cos
= 2 1 cos
sen ,
n
n
n
n
n
n
n
(n k) j
(n k + 1) j
(n k 1) j
+ 2 sen
sen
n
n
n
(n k) j j
(n k) j
(n k) j j
= sen
+ 2 sen
sen
+
n
n
n
n
n
(n k) j
j
(n k) j
j
(n k) j
= sen
cos
+ cos
sen
+ 2 sen
n
n
n
n
n
(n k) j
j
(n k) j
j
sen
cos
cos
sen
n
n
n
n
j
(n k) j
= 2 1 cos
sen
,
n
n
sen
e
(n 1) j
(n 2) j
+ 2 sen
n
n
(n 1) j j
(n 1) j
= sen
+ 2 sen
n
n
n
j
(n 1) j
j
(n 1) j
(n 1) j
cos
+ cos
sen
+ 2 sen
= sen
n
n
n
n
n
(n 1) j
j
(n 1) j
j
(n 1) j
= sen
cos
sen
cos
+ 2 sen
n
n
n
n
n
(n 1) j
j
sen
,
= 2 1 cos
n
n
sen
onde na pen
ultima identidade usamos o fato que
cos
(n 1) j
j
(n 1) j
j
sen
= sen
cos
n
n
n
n
44
(n 1) j
(n 1) j j
j
(n 1) j
j
= sen
0 = sen j = sen
+
cos
+ cos
sen .
n
n
n
n
n
n
Os autovalores de A sao positivos, portanto A e uma matriz positiva definida. Observe que, fixado j, se n e
arbitrariamente grande entao
j
j 2 2
cos
1
,
n
2n2
pois o desenvolvimento em serie de Taylor da funcao cosseno em torno da origem e
1
cos x = 1 x2 + O x3 ;
2
tomando x = j/n para n suficientemente grande e desprezando os termos de terceira ordem, obtemos a
aproximacao acima. Da,
j
2n2
j
2n2
j 2 2
j 2 2
2
1
cos
=
1
cos
=
,
x2
n
a2
n
a2
2n2
a2
de forma que os menores autovalores da matriz A sao uma boa aproximacao para os menores autovalores de
Dirichlet do laplaciano no intervalo [0, a]. Ja o maior autovalor da matriz A e
2
(n 1)
2n2
(n 1)
4n2
n1 =
1
cos
=
1
cos
,
x2
n
a2
n
a2
que nao e uma boa aproximacao para um autovalor do laplaciano. Vemos que se aumentarmos o n
umero de
pontos de discretizacao (malha mais refinada) obteremos melhores aproximacoes e uma quantidade maior de
autovalores proximos aos autovalores do laplaciano. Para comparar, veja a tabela a seguir para os autovalores
do laplaciano no intervalo [0, ]; na primeira coluna temos os
autovalores
exatos do laplaciano, enquanto que
2n2
j
na demais colunas os autovalores da matriz A, j = 2 1 cos
, com a linha superior indicando o
n
n
umero n de subintervalos na malha
1
4
9
16
25
36
49
64
81
100
2.2
n = 11
0.993 221 21
3.892 419 95
8.462 720 39
14.333 863 96
21.030 205 54
28.009 247 34
34.705 588 92
40.576 732 50
45.147 032 93
48.046 231 68
n = 21
0.998 136 38
3.970 248 82
8.849 945 24
15.528 221 28
23.855 895 28
33.646 940 78
44.682 641 99
56.716 479 58
69.479 637 52
82.687 007 94
n = 31
0.999 144 44
3.986 325 21
8.930 889 79
15.782 100 25
24.469 653 89
34.904 404 68
46.979 277 93
60.570 369 11
75.538 215 24
91.729 225 95
n = 51
0.999 683 82
3.994 943 16
8.974 415 97
15.919 213 41
24.802 991 47
35.592 050 94
48.245 465 23
62.715 235 6
78.946 473 26
96.877 607 56
n = 101
0.999 919 37
3.998 710 15
8.993 471 18
15.979 370 36
24.949 649 29
35.895 629 79
48.806 722 35
63.670 436 30
80.472 391 97
99.196 334 56
n = 1001
0.999 999 18
3.999 986 87
8.999 933 51
15.999 789 87
24.999 486 99
35.998 936 22
48.998 029 23
63.996 637 97
80.994 614 71
99.991 792 02
O Caso Bidimensional
Nesta secao, desenvolveremos um metodo numerico de diferencas finitas para resolver o problema de Dirichlet
para a equacao de Poisson no retangulo (0, a) (0, b)
u = f (x, y)
em (0, a) (0, b) ,
u=0
sobre ((0, a) (0, b)) ,
e para o problema de autovalor de Dirichlet para o laplaciano no retangulo
u = u
em (0, a) (0, b) ,
u=0
sobre ((0, a) (0, b)) .
2.2.1
45
A F
ormula dos Cinco Pontos
a
b
, y = ,
n
m
substitumos o domnio pela malha (ou gride) uniforme
x =
A equacao de Poisson
uxx uyy = f (x, y)
pode ser agora discretizada. Denotamos
ui,j = u (xi , yj ) ,
fi,j = f (xi , yj ) .
Aproximamos cada derivada parcial de segunda ordem pela sua diferenca centrada, obtendo
ui1,j + 2ui,j ui+1,j
,
x2
ui,j1 + 2ui,j ui,j+1
.
y 2
uxx
uyy
(2.11)
46
Neste caso, a matriz associada ao sistema linear e uma matriz (n 1) (m 1) (n 1) (m 1) que pode
ser escrita como uma matriz de (m 1) (m 1) blocos de dimensao (n 1) (n 1) na forma
1 I
y 2
A=
1
I
y 2
B
1
I
y 2
1
2I
y
..
.
..
..
..
1
I
y 2
1
I
y 2
B
1
I
y 2
1
2I
B
(m1)(m1)
1
1
1
2 x2 + y 2
x2
1
1
1
1
2
+
2
2
2
x
x
y
x2
..
..
1
.
.
2
x
..
..
1
.
.
x2
1
1
1
1
2
+
2
2
2
2
x
x
y
x
1
1
1
2
+
x2
x2
y 2
Observe que
aii = 2
1
1
+
x2
y 2
(n1)(n1)
1
y 2
1
x2
47
4 1
0
1
4
1
0 1
4
1
0
0
0 1
0
0
0
1
0
0
0
1
0
0
0
A=
x2
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
4
1
0
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0 1
0
0
0
0
0
0
1
0 1
0
0
0
0
0
4 1
0 1
0
0
0
0
1
4
0
0 1
0
0
0
0
0
4 1
0 1
0
0
1
0 1
4 1
0 1
0
0 1
0 1
4
0
0 1
0
0 1
0
0
4 1
0
0
0
0 1
0 1
4 1
0
0
0
0 1
0 1
4
2.2.2
Exist
encia e Unicidade da Soluc
ao Discreta Autovalores do Problema
Bidimensional
e o problema
u = f
u=0
d ud = fd
ud = 0
em ,
sobre ,
em d ,
sobre d .
(2.13)
Para estabelecer a existencia e unicidade da solucao discreta, provaremos que a matriz de discretizacao A,
que e uma matriz simetrica, e tambem uma matriz positiva definida, pois isso implica em particular que A
e invertvel.
Lembrando que as autofuncoes de Dirichlet do laplaciano no retangulo [0, a] [0, b] sao as funcoes
Ukl (x, y) = sen
kx
ly
sen
,
a
b
este fato sugere que os autovetores ukl da matriz A na ordem lexicografica sao os vetores de coordenadas
Ukl (x1 , y1 ) , Ukl (x2 , y1 ) , . . . , Ukl (xn1 , y1 ) ,
Ukl (x1 , y2 ) , Ukl (x2 , y2 ) , . . . , Ukl (xn1 , y2 ) ,
..
.
Ukl (x1 , ym1 ) , Ukl (x2 , ym1 ) , . . . , Ukl (xn1 , ym1 )
48
= Ukl (x, y) , Ukl (2x, y) , . . . , Ukl ((n 1) x, y) ,
l
2k
l
(n 1) k
l
k
sen , sen
sen , . . . , sen
sen
,
ukl = sen
n
m
n
m
n
m
k
2l
2k
2l
(n 1) k
2l
sen
sen
, sen
sen
, . . . , sen
sen
,
n
m
n
m
n
m
...,
k
(m 1) l
2k
(m 1) l
(n 1) k
(m 1) l
sen
sen
, sen
sen
, . . . , sen
sen
n
m
n
m
n
m
1
k
1
l
1
1
2 k
2 l
kl = 2
1
cos
+
1
cos
=
4
sen
+
sen
,
x2
n
y 2
m
x2
2n y 2
2m
k = 1, . . . , n 1, l = 1, . . . , m 1, e os autovetores correspondentes s
ao
k
l
2k
l
(n 1) k
l
ukl = sen
sen , sen
sen , . . . , sen
sen
,
n
m
n
m
n
m
k
2l
2k
2l
(n 1) k
2l
sen
sen
, sen
sen
, . . . , sen
sen
,
n
m
n
m
n
m
...,
k
(m 1) l
2k
(m 1) l
(n 1) k
(m 1) l
sen
sen
, sen
sen
, . . . , sen
sen
n
m
n
m
n
m
(2.14)
(2.15)
k = 1, . . . , n 1, l = 1, . . . , m 1.
Prova. Embora a demonstracao deste lema possa ser feita de maneira analoga `a do Lema 2.1, usando
identidades trigonometricas, daremos uma demonstracao diferente. Lembrando que as autofuncoes e os
autovalores de Dirichlet do laplaciano no retangulo sao facilmente obtidos atraves do metodo de separacao
de variaveis, encontraremos os autovalores da matriz A usando um metodo de separac
ao de vari
aveis discreto
para achar os autovalores do laplaciano discreto
+
= ui,j .
(2.16)
x2
y 2
Em particular, este metodo nao depende da maneira como os pontos da malha sao ordenados (nao depende
da matriz A usada para representar o laplaciano discreto). Como no metodo de separacao de variaveis
contnuo, assumimos que as solucoes da equacao discreta acima sao produtos da forma
ui,j = F (i) G (j) ,
(2.17)
onde F e G sao funcoes de uma variavel inteira. Substituindo esta expressao na equacao de Helmholtz
discreta, obtemos
F (i 1) G (j) 2F (i) G (j) + F (i + 1) G (j) F (i) G (j 1) 2F (i) G (j) + F (i) G (j + 1)
+
= F (i) G (j) .
x2
y 2
49
(2.18)
(2.19)
(2.20)
Estas equacoes podem ser escritas como formulas de recorrencia (analogas `as equacoes diferenciais ordinarias
obtidas no metodo de separacao de variaveis contnuo)
F (i + 1) (A + 2) F (i) + F (i 1) = 0,
G (j 1) (B + 2) G (j) + G (j + 1) = 0.
Para resolve-las, e mais conveniente trabalhar com as constantes
2 = A + 2, 2 = B + 2.
Desta forma, as equacoes para F e G tornam-se
F (i 1) 2F (i) + F (i + 1) = 0,
G (j 1) 2G (j) + G (j + 1) = 0.
Observe que
=2
1 1
+
x2
y 2
(2.21)
(2.22)
(2.23)
Vamos resolver a equacao para F , ja que a equacao para G e completamente analoga. Substituindo em
(2.21) uma solucao da forma
F (i) = z i
(2.24)
obtemos
z i1 2z i + z i+1 = 0,
(2.25)
p
2 1,
para algumas constantes c1 , c2 . Para determinarmos estas constantes e tambem , aplicamos as condicoes
de fronteira, que implicam
F (0) = F (n) = 0.
50
i
F (i) = c z+
z
.
(2.26)
Como a equacao para F e homogenea, a constante c e arbitraria. Aplicando a segunda, segue que
n
n
z+
= z
,
ou, como z+ z = 1,
2n
z+
=1
Conseq
uentemente, z+ e uma 2n-esima raiz complexa de 1:
z+ = eij/n
(2.27)
1
k
1
l
kl = 2
1 cos
+
1 cos
x2
n
y 2
m
e as coordenadas das autofuncoes associadas sao dadas por
(ukl )i,j = Fk (i) Gl (j) = sen
ik
jl
sen
.
n
m
ao o problema
2.3 Teorema. (Existencia e Unicidade da Solucao Discreta) Seja = (0, a) (0, b). Ent
discretizado
d ud = fd
em d ,
ud = 0
sobre d ,
possui uma u
nica soluc
ao.
Prova. Pelo lema anterior, os autovalores da matriz simetrica A sao positivos, logo ela e uma matriz
invertvel.
2.2.3
51
Princpio do M
aximo Discreto
Para obter uma estimativa a priori para a equacao de Poisson discretizada, e com isso provar a convergencia
da solucao discreta para a solucao classica, usaremos um princpio do maximo discreto que enunciaremos e
provaremos nesta subsecao.
2.3 Lema. (Propriedade do Valor Medio) Se d ud = 0, ent
ao para pontos interiores vale
ui,j =
Em particular, se x = y, ent
ao para pontos interiores vale
ui,j =
1
1
1 ui,j1 + ui,j+1
ui1,j + ui+1,j
+
ui,j 6
+
.
x2
y 2
2
y 2
x2
Se ui,j e um maximo local, segue que
1
1
1 ui,j + ui,j
ui,j + ui,j
1
1
1
+
ui,j 6
+
=
+
ui,j ,
x2
y 2
2
y 2
x2
2 x2
y 2
logo nenhum dos seus quatro vizinhos pode assumir um valor menor que ui,j , isto e, cada um dos quatro
vizinhos assume o mesmo valor maximo e o argumento prossegue como no caso anterior. O caso d ud 6 0
e provado considerando-se ud .
2.2.4
Converg
encia da Soluc
ao Discreta para a Soluc
ao Cl
assica
Por simplicidade, trabalharemos no quadrado unitario, isto e, = (0, 1) (0, 1). Consideraremos a norma
do maximo discreta para funcoes vd definidas no domnio discretizado d :
kvd k = max |vi,j | .
06i6n
06j6m
Em primeiro lugar, obtemos uma estimativa a priori discreta (que tambem pode ser visto como um resultado
de regularidade discreto) para solucoes da equacao de Poisson discreta com condicao de Dirichlet homogenea:
52
2
d ud = fd
em d ,
ud = 0
sobre d .
Ent
ao
kud k 6
Prova. Considere a funcao
"
1
w (x, y) =
4
e sua versao discretizada wd definida por
wi,j
1
=
4
1
kd ud k .
8
1
x
2
"
1
xi
2
1
+ y
2
(2.28)
2 #
2 #
1
+ yj
.
2
(2.29)
Entao
w>0 e
w = 1,
e tambem
wd > 0 e
d wd = 1,
(2.30)
pois
d wd =
=
+
=
=
=
+
=
2
2
2
1 2
1 2
1 xi1 2 + yj 2 2 xi 12 2 yj 12 + xi+1 21 + yj 12
4
x2
2
2
2
2
2 #
xi 12 + yj1 12 2 xi 12 2 yj 12 + xi 12 + yj+1 12
y 2
"
2
2
2
2
2
2 #
yj1 21 2 yj 12 + yj+1 12
1 xi1 12 2 xi 12 + xi+1 12
+
4
x2
y 2
"
2
2
2
2
2
2 #
yj y 12 2 yj 12 + yj + y 12
1 xi x 12 2 xi 12 + xi + x 12
+
4
x2
y 2
"
#
yj + y 2 + 14 2yj y yj + y 2 yj2 yj + 41 + yj2 + y 2 + 14 + 2yj y yj y
y 2
1 2x2
2y 2
+
= 1.
4 x2
y 2
(2.31)
53
Segue do Princpio do Maximo Discreto que a funcao ud kd ud k wd assume o seu mnimo na fronteira.
Este u
ltimo e igual a kd ud k maxd wd . Por sua vez, o maximo de wd na fronteira e menor ou igual ao
maximo de w em , dado por
2
1
1
1
1
1
x
y
= max
= .
max
06x61 4
06x61 4
2
2
8
Portanto, conclumos que
1
ui,j > ui,j kd ud k wi,j > kd ud k
8
(2.32)
1
kd ud k
8
(2.33)
1
kd ud k
8
u = f
em ,
u=0
sobre ,
e vd uma soluc
ao do correspondente problema discretizado
d vd = fd
em d ,
vd = 0
sobre d .
Ent
ao existe uma constante C > 0 independente de u tal que
kud vd k 6 C D4 uL () x2 + y 2 .
(2.34)
Prova. A hipotese f C 2, garante que u C 4 . Lembre-se que
4
u
D u
.
(x,
y)
=
sup
xp y q
L ()
(x,y)
p+q=4
(xi , yj )x2
(xi , yj )x4 . . .
2
2
4
x
x
4! x
5! x6
ui1,j 2ui,j + ui+1,j
2 4u
2 6u
2
=
(x
,
y
)x
(xi , yj )x4 . . . ,
i
j
x2
4! x4
5! x6
2u
u(xi , yj y) 2u(xi , yj ) + u(xi , yj + y)
2 4u
2 6u
2
(x
,
y
)
=
(x
,
y
)y
(xi , yj )y 4 . . .
i
j
i
j
y 2
y 2
4! y 4
5! y 6
2 4u
2 6u
ui,j1 2ui,j + ui,j+1
2
(x
,
y
)y
(xi , yj )y 4 . . . ,
=
i
j
y 2
4! y 4
5! y 6
54
donde
u (xi , yj ) = (d ud )ij
1
3!
4u
4u
(xi , yj )x2 + 4 (xi , yj )y 2
4
x
y
+ O x4 , y 4 .
(2.35)
Como
u (xi , yj ) = f (xi , yj ) ,
temos que
(d ud )i,j = (fd )i,j
1
3!
4u
4u
(xi , yj )x2 + 4 (xi , yj )y 2
4
x
y
+ O x4 , y 4 .
(2.36)
1
3!
4u
4u
(xi , yj )x2 + 4 (xi , yj )y 2
4
x
y
+ O x4 , y 4 ,
o que implica
1
D4 u
x + y 2 + O x4 , y 4
L
()
3!
6 C D4 uL () x2 + y 2 .
kd (ud vd )k 6
d vd = fd
em d ,
vd = 0
sobre d ,
convergem para a solucao exata u do problema de Poisson
u = f
em ,
u=0
sobre ,
com relacao `a norma kk se
kud vd k 0
quando x, y 0. Dizemos que a convergencia e de ordem k (ou que o esquema de diferencas
finitas e convergente de ordem k) se
kud vd k = O xk , y k .
O Teorema 2.6 diz que o esquema de diferen
cas finitas da formula de cinco pontos e um esquema convergente
na norma do sup de ordem 2, se u C 4 . Maior regularidade da solucao u nao causa melhor convergencia
no metodo. Na verdade, a ordem de convergencia da formula de cinco
sob hipoteses
pontos ainda e 2 mesmo
mais fracas sobre a regularidade de u: basta assumir u C 3,1 , ao inves de u C 4 . No entanto,
regularidade menor que esta em u afeta negativamente
a ordem de convergencia da formula de cinco pontos.
Em geral, pode-se provar que se u C k, , 2 6 k 6 4, entao existe uma constante C = C (k, ) tal que
2.3
55
Discretizac
oes de Ordem Superior
Para obter esquemas de diferencas finitas com melhor ordem de convergencia, em geral e necessario acrescentar mais pontos na formula. O m
etodo dos coeficientes indeterminados e um metodo simples para
construir estes esquemas.
2.3.1
Caso Unidimensional
Vamos obter um esquema de diferencas finitas convergente de ordem 4 para o caso unidimensional. O
esquema envolvendo tres pontos, que obtivemos no incio do captulo atraves da aproximacao da derivada
segunda em um ponto por uma diferenca finita centrada (que envolve o ponto e seus dois vizinhos, `a esquerda
e `a direita), e convergente de ordem 2 (isso que pode ser provado de maneira semelhante a como fizemos para
a formula de cinco pontos). Para obter um esquema com uma maior ordem de convergencia, acrescentamos
mais dois pontos `a formula de diferencas finitas do esquema, que denotaremos por ui :
ui = c1 ui2 + c2 ui1 + c3 ui + c4 ui+1 + c5 ui+2 .
(2.38)
4 00
8
16
32
u (xi )x2 u000 (xi )x3 + u(4) (xi )x4 u(5) (xi )x5 + O x6 ,
2!
3!
4!
5!
1 00
1 000
1 (4)
1 (5)
0
2
3
4
u(xi x) = u(xi ) u (xi )x + u (xi )x u (xi )x + u (xi )x u (xi )x5 + O x6 ,
2!
3!
4!
5!
1 000
1 (4)
1
1 00
2
3
4
0
u(xi + x) = u(xi ) + u (xi )x + u (xi )x + u (xi )x + u (xi )x + u(5) (xi )x5 + O x6 ,
2!
3!
4!
5!
4 00
8 000
16 (4)
32
0
2
3
4
u(xi + 2x) = u(xi ) + 2u (xi )x + u (xi )x + u (xi )x + u (xi )x + u(5) (xi )x5 + O x6 .
2!
3!
4!
5!
u(xi 2x) = u(xi ) 2u0 (xi )x +
1
1
+ x2 2c1 + c2 + c4 + 2c5 u00 (xi )
2
2
1
1
4
4
3
+ x c1 c2 + c4 + c5 u000 (xi )
3
6
6
3
2
1
1
2
4
+ x
c1 + c2 + c4 + c5 u(4) (xi )
3
24
24
3
4
1
1
4
5
+ x c1
c2 +
c4 + c5 u(5) (xi )
15
120
120
15
+ O x6 .
Como procuramos um esquema de diferencas finitas com ordem de convergencia maior que 2, queremos obter
uma solucao nao-nula para o sistema
c1 + c2 + c3 + c4 + c5
=
0
2c
c
+
c
+
2c
=
0
1
2
4
5
1
1
1
2c1 + c2 + c4 + 2c5
=
2
2
x2 ;
4
1
1
4
c1 c2 + c4 + c5 =
0
3
6
6
3
2c + 1 c + 1 c + 2c =
0
1
2
4
5
3
24
24
3
56
isso implicaria em princpio em um esquema com ordem de convergencia pelo menos igual a 3:
ui = u00 (xi ) + O x3 .
Como a matriz
1
1 1
1
2 1 0
1
1
1
2
0
2
2
4
1
1
3 6 0
6
1
2
1
0
3
24
24
tem determinante igual a 1, ela e invertvel e o sistema possui
1
2
2
3
a solucao u
nica
1 1
,
12 x2
4 1
=
,
3 x2
5 1
=
2 x2
4 1
=
,
3 x2
1 1
.
=
12 x2
c1 =
c2
c3
c4
c5
Incidentalmente, esta solucao tambem implica
4
1
1
4
c1
c2 +
c4 + c5 = 0
15
120
120
15
ui = u00 (xi ) + O x4 ,
aproximando a derivada segunda u00 pela diferenca finita
00
u =
1
4
5
4
1
ui2 + ui1 ui + ui+1 ui+2
12
3
2
3
12
x2
ou
u00 =
2.3.2
(2.39)
Caso Bidimensional: A F
ormula dos Nove Pontos Compacta
57
1
d ud =
12x2
1
12y 2
16
2
12y
1
1
16
30
+
12x2
12y 2
12x2
16
12y 2
1
12y 2
16
12x2
1
12x2
Embora este esquema seja de fato de ordem 4, ele apresenta dificuldades para pontos interiores adjacentes `a
fronteira do retangulo (por exemplo, se considerarmos o ponto (x1 , y1 ), os pontos (x1 , y1 ) e (x1 , y1 ) estao
fora do retangulo). Uma possibilidade para resolver este problema seria aplicar a formula dos cinco pontos
nos pontos interiores adjacentes `a fronteira e aplicar a formula dos nove pontos apenas nos pontos interiores
mais distantes da fronteira. No entanto, como a formula de cinco pontos e de segunda ordem, a convergencia
deste metodo misto nao deve ser de ordem 4.
Vamos tentar encontrar uma formula de nove pontos compacta, em que os nove pontos estao dispostos
em tres linhas e tres colunas, de modo que nao ha problemas em usa-la nos pontos interiores adjacentes `a
fronteira. Aplicando o metodo dos coeficientes indeterminados, buscamos nove coeficientes para a diferenca
finita
d ud = c1 ui1,j1 + c2 ui,j1 + c3 ui+1,j1
+ c4 ui1,j + c5 ui,j + c6 ui+1,j
+ c7 ui1,j+1 + c8 ui,j+1 + c9 ui+1,j+1 .
(2.41)
Observe a distribuicao dos nove pontos. Alem dos cinco usuais, foram acrescentados os quatro pontos que
ocupam as posicoes diagonais. Para os quatro pontos vizinhos horizontais ou verticais do ponto central, a
formula de Taylor produz
u
1 2u
1 3u
1 4u
(xi , yj )x +
(xi , yj )x2
(xi , yj )x3 +
(xi , yj )x4
2
3
x
2! x
3! x
4! x4
1 5u
(xi , yj )x5 + O x6
5! x5
u
1 2u
1 3u
1 4u
u(xi + x, yj ) = u(xi , yj ) +
(xi , yj )x +
(xi , yj )x2 +
(xi , yj )x3 +
(xi , yj )x4
2
3
x
2! x
3! x
4! x4
1 5u
+
(xi , yj )x5 + O x6
5! x5
1 2u
1 3u
1 4u
u
2
3
(xi , yj )y +
(x
,
y
)y
(x
,
y
)y
+
(xi , yj )y 4
u(xi , yj y) = u(xi , yj )
i
j
i
j
y
2! y 2
3! y 3
4! y 4
1 5u
(xi , yj )x5 + O x6
5
5! x
u
1 2u
1 3u
1 4u
u(xi , yj + y) = u(xi , yj ) +
(xi , yj )y +
(xi , yj )y 2 +
(xi , yj )y 3 +
(xi , yj )y 4
2
3
y
2! y
3! y
4! y 4
1 5u
+
(xi , yj )x5 + O x6 , y 6
5
5! x
u(xi x, yj ) = u(xi , yj )
58
u
u
1 2u
2u
2u
2
2
= u(xi , yj ) +
(xi , yj )x +
(xi , yj )y +
(xi , yj )xy + 2 (xi , yj )y
(xi , yj )x + 2
x
y
2! x2
xy
y
3
3
3
3
1 u
u
u
u
+
(xi , yj )x3 + 3 2 (xi , yj )x2 y + 3
(xi , yj )xy 2 + 3 (xi , yj )y 3
3! x3
x y
xy 2
y
4
4
4
u
1 u
u
3u
4u
3
4
2
2
3
4
+
(xi , yj )x + 4 3 (xi , yj )x y + 6
(xi , yj )x y + 4
(xi , yj )xy + 4 (xi , yj )y
4! x4
x y
xy 3
xy 3
y
5
5
5
5
u
1 u
u
u
+
(xi , yj )x5 + 5 4 (xi , yj )x4 y + 10 3 2 (xi , yj )x3 y 2 + 10
(xi , yj )x2 y 3
5
5! x
x y
x y
xy 4
5u
5u
4
5
+5
(xi , yj )xy + 5 (xi , yj )y + O x6 , y 6 ,
4
xy
y
u(xi x, yj y)
u
u
1 2u
2u
2u
2
2
= u(xi , yj )
(xi , yj )x +
(xi , yj )y +
(x
,
y
)x
+
2
(x
,
y
)xy
+
(x
,
y
)y
i j
i j
i j
x
y
2! x2
xy
y 2
3
1 u
3u
3u
3u
4
4
1 u
u
u
3u
4u
4
3
2
2
3
4
+
(x
,
y
)x
+
4
(x
,
y
)x
y
+
6
(x
,
y
)x
y
+
4
(x
,
y
)xy
+
(x
,
y
)y
i j
i j
i j
i j
i j
4! x4
x3 y
xy 3
xy 3
y 4
5
1 u
5u
5u
5u
5u
5u
4
5
+5
(xi , yj )xy + 5 (xi , yj )y + O x6
4
xy
y
u(xi + x, yj y)
u
u
= u(xi , yj ) +
(xi , yj )x
(xi , yj )y
x
y
2
1 u
2u
2u
2
2
+
(xi , yj )x 2
(xi , yj )xy + 2 (xi , yj )y
2! x2
xy
y
3
3
1 u
u
3u
3u
3
2
2
3
+
(xi , yj )x 3 2 (xi , yj )x y + 3
(xi , yj )xy 3 (xi , yj )y
3! x3
x y
xy 2
y
4
4
4
1 u
u
3u
4u
4
3
2
2
3
4
+
(xi , yj )x 4 3 (xi , yj )x y + 6
(xi , yj )x y 4
(xi , yj )xy + 4 (xi , yj )y
4! x4
x y
xy 3
xy 3
y
5
5
5
5
1 u
u
+
(xi , yj )x5 5 4 (xi , yj )x4 y + 10 3 2 (xi , yj )x3 y 2 10
(xi , yj )x2 y 3
5! x5
x y
x y
xy 4
5u
5u
4
5
+5
(x
,
y
)xy
(x
,
y
)y
+ O x6 , y 6 ,
i
j
i
j
4
5
xy
y
59
u(xi x, yj + y)
u
u
= u(xi , yj ) + (xi , yj )x +
(xi , yj )y
x
y
2
1 2u
u
2u
2
2
+
(x
,
y
)x
2
(x
,
y
)xy
+
(x
,
y
)y
i
j
i
j
i
j
2! x2
xy
y 2
3
1
u
3u
3u
3u
2
3
+
3 (xi , yj )x3 + 3 2 (xi , yj )x2 y 3
(x
,
y
)xy
+
(x
,
y
)y
i j
i j
3!
x
x y
xy 2
y 3
4
1 u
4u
4u
3u
4u
4
3
2
2
3
4
(x
,
y
)x
(x
,
y
)x
(x
,
y
)x
(x
,
y
)xy
(x
,
y
)y
+
4
y
+
6
y
4
+
i j
i j
i j
i j
i j
4! x4
x3 y
xy 3
xy 3
y 4
5
1
u
5u
5u
5u
+
5 (xi , yj )x5 + 5 4 (xi , yj )x4 y 10 3 2 (xi , yj )x3 y 2 + 10
(xi , yj )x2 y 3
5!
x
x y
x y
xy 4
5u
5u
4
5
(x
,
y
)xy
(x
,
y
)y
+ O x6 , y 6 .
+
5
i j
i j
4
5
xy
y
Substituindo estas expressoes na formula acima, obtemos:
d ud = (c1 + c2 + c3 + c4 + c5 + c6 + c7 + c8 + c9 ) u (xi , yj )
u
+ x (c1 + c3 c4 + c6 c7 + c9 )
(xi , yj )
x
u
+ y (c1 c2 c3 + c7 + c8 + c9 )
(xi , yj )
y
2
1
1
1
1
1
1
u
+ x2
c1 + c3 + c4 + c6 + c7 + c9
(xi , yj )
2
2
2
2
2
2
x2
2u
(xi , yj )
+ xy (c1 c3 c7 + c9 )
xy
2
1
1
1
1
1
1
u
2
+ y
c1 + c2 + c3 + c7 + c8 + c9
(xi , yj )
2
2
2
2
2
2
y 2
3
1
1
1
1
1
1
u
+ x3 c1 + c3 c4 + c6 c7 + c9
(xi , yj )
6
6
6
6
6
6
x3
3
1
1
1
1
u
+ x2 y c1 c3 + c7 + c9
(xi , yj )
2
2
2
2
x2 y
3
1
1
1
u
1
+ xy 2 c1 + c3 c7 + c9
(xi , yj )
2
2
2
2
xy 2
3
1
1
1
1
1
1
u
+ y 3 c1 c2 c3 + c7 + c8 + c9
(xi , yj )
6
6
6
6
6
6
y 3
4
1
1
1
1
1
1
u
+ x4
c1 + c3 + c4 + c6 + c7 + c9
(xi , yj )
24
24
24
24
24
24
x4
4
1
1
1
1
u
+ x3 y
c1 c3 c7 + c9
(xi , yj )
6
6
6
6
x3 y
1
1
1
4u
1
2
2
c1 + c3 + c7 + c9
(xi , yj )
+ x y
4
4
4
4
x2 y 2
4
1
1
1
1
u
+ xy 3
c1 c3 c7 + c9
(xi , yj )
6
6
6
6
xy 3
4
1
1
1
1
1
1
u
4
+ y
c1 + c2 + c3 + c7 + c8 + c9
(xi , yj )
24
24
24
24
24
24
y 4
60
5
1
1
1
1
1
1
u
+ x
c1 +
c3
c4 +
c6
c7 +
c9
(xi , yj )
120
120
120
120
120
120
x5
5
1
1
1
1
u
(xi , yj )
+ x4 y c1 c3 + c7 + c9
24
24
24
24
x4 y
1
1
1
1
5u
+ x3 y 2 c1 + c3 + c7 + c9
(xi , yj )
12
12
12
12
x3 y 2
1
1
1
5u
1
+ x2 y 3 c1 c3 c7 + c9
(xi , yj )
12
12
12
12
x2 y 3
5
1
1
1
1
u
+ xy 4 c1 + c3 c7 + c9
(xi , yj )
24
24
24
24
xy 4
5
1
1
1
1
1
1
u
+ y 5
c1
c2
c3 +
c7 +
c8 +
c9
(xi , yj )
120
120
120
120
120
120
y 5
5
c1 + c2 + c3 + c4 + c5 + c6 + c7 + c8 + c9
c1 + c3 c4 + c6 c7 + c9
c1 c2 c3 + c7 + c8 + c9
c1 + c3 + c4 + c6 + c7 + c9
c1 c3 c7 + c9
c1 + c2 + c3 + c7 + c8 + c9
c1 + c3 c4 + c6 c7 + c9
c1 c3 + c7 + c9
c1 + c3 c7 + c9
c1 c2 c3 + c7 + c8 + c9
c1 + c3 + c4 + c6 + c7 + c9
c1 c3 c7 + c9
c1 + c3 + c7 + c9
c1 c3 c7 + c9
c1 + c2 + c3 + c7 + c8 + c9
0
0
0
1
x2
0
1
y 2
0
0
0
0
0
0
0
0
0
Infelizmente este sistema nao tem solucao pois ele e inconsistente: a sexta e a u
ltima equacao sao incompatveis, assim como a quarta e a decima primeira. Portanto, nao existe uma formula de nove pontos
compacta tal que
d ud = u + O x3 , y 3 .
No entanto, em 1975 o matematico e logico Rosser introduziu a seguinte formula de nove pontos compacta
no caso especial x = y (em [Rosser1]; veja tambem [Rosser2])
d ud =
1
1
4
d ud =
6x2
1
4
20
4
1
4 ,
1
(2.43)
a qual produz um esquema convergente de quarta ordem se a solucao u C 6 (ou mesmo se u C 5,1
apenas) dependendo de como a funcao f e discretizada. Para entender como isso ocorre, observe que se
61
u C 8 a formula de Taylor produz
x2 2
x4 4
4
4
d ud = u
u
+ 4 2 2 + 4 u + O x6
4
12
360 x
x y
y
x2
x4 4
4
4
= u
f
+ 4 2 2 + 4 f + O x6 .
4
12
360 x
x y
y
(2.44)
(2.45)
1
1
1 8 1 .
fd =
12
1
(2.46)
(2.47)
Usando a formula de Taylor para f , obtemos que esta discretizacao especial para f satisfaz
fd = f +
x2
f + O x4 .
12
(2.48)
d ud = u + O x4
Para este esquema, pode-se provar (veja [Hackbusch], pag. 64) que existe uma constante C > 0 tal que
kud vd k 6 Cx4 kukC 6 ()
ou
(2.49)
O esquema de Rosser tambem satisfaz o princpio do maximo. Concluindo, vemos que uma maior regularidade
da solucao permite obter metodos de diferencas finitas com maior ordem de convergencia, embora esta nao
seja uma tarefa simples.
2.4
Consideraremos nesta secao diferencas finitas em coordenadas polares para domnios com simetria radial.
Consideraremos em detalhes os casos do disco e do anel. O primeiro caso inclui a origem no domnio da
definicao, onde o laplaciano apresenta uma singularidade quando escrito em coordenadas polares, singularidade esta que nao existe no problema original, e esta particularidade deve ser tratada com cuidado para nao
atrapalhar a ordem de convergencia do esquema obtido.
Considere a equacao de Poisson em coordenadas polares no disco = [0, R) [0, 2) :
(
1
1
se 0 6 r < R e 0 < < 2,
urr + ur + 2 u = f (r, )
r
r
u (R, ) = 0
se 0 6 6 2.
A solucao exata deste problema deve satisfazer a condicao de continuidade
u (r, 0) = u (r, 2)
para todo 0 6 r 6 R.
Embora esta condicao nao seja uma condicao de fronteira e aparece apenas por causa do sistema de coordenadas utilizado, ela acaba funcionando como uma condicao de fronteira em muitos metodos numericos (e
62
mesmo analticos), pois nao deixa de ser uma condicao na fronteira do retangulo (0, R) (0, 2).
R
2
, =
.
n
m
e f0,0 = f0,j
(2.50)
para todo 0 6 j 6 m, ja que existe apenas um ponto associado com i = 0 (a origem, correspondente a r = 0).
Alem disso, pela condicao de continuidade, devemos ter tambem
ui,0 = ui,2
e fi,0 = fi,2
(2.51)
para todo 0 6 i 6 n. Usando uma diferenca centrada usual para derivadas segundas, o terceiro termo do
laplaciano em coordenadas polares pode ser aproximado para pontos interiores do disco por
1
1 ui,j1 2ui,j ui,j+1
u (ri , j ) 2
.
(2.52)
2
r
ri
2
Para aproximar os primeiros dois termos, escrevemos
1
1
urr + ur = (rur )r .
r
r
Se (ri , j ) e um ponto interior do disco diferente da origem (isto e, i 6= 0), podemos usar diferencas centradas
para a derivada primeira, tanto na primeira quanto na segunda aproximacoes a seguir, obtendo
1 (rur ) (ri + r/2, j ) (rur ) (ri r/2, j )
1
(rur )r (ri , j )
r
ri
2r/2
u (ri , j ) u (ri r, j )
u (ri + r, j ) u (ri , j )
ri1/2
1 ri+1/2
r
r
ri
r
1 ri+1/2 (ui+1,j ui,j ) ri1/2 (ui,j ui1,j )
=
.
ri
r2
(2.53)
63
Portanto, a discretizacao da equacao de Poisson no disco para pontos interiores do disco diferentes da origem
e
+
= fi,j
(2.54)
ri
r2
ri2
2
para 1 6 i 6 n 1 e 1 6 j 6 m 1. Se j = 0, usando a condicao de continuidade que identifica o ponto
(i, 0) com o ponto (i, n), substitumos ui,j1 por ui,n1 e escrevemos
+ 2
(2.55)
ri
r2
ri
2
para 1 6 i 6 n 1. Como este esquema de diferencas finitas foi obtido atraves de diferencas centradas,
ele deve ser de segunda ordem. No entanto, devemos ter cuidado ao discretizar a equacao de Poisson na
origem para preservar esta ordem de convergencia. Para isso, multiplicamos a equacao de Poisson por r e
integramos o resultado sobre um pequeno disco D centrado na origem de raio :
Z 2 Z
Z 2 Z
1
1
f r drd =
r
(rur )r + 2 u drd
r
r
0
0
0
0
Z 2 Z
Z Z 2
1
u drd
=
(rur )r drd +
0
0
0 r 0
Z 2
Z
1
2
=
[rur ]0 d +
[u ]0 drd
r
0
0
Z 2
=
ur (, ) d,
0
2
e assim
r/2
r drd = 2f (0)
r/2
r2
= f (0) r2 ,
2 0
4
m1
r X u1,j u0,j
= f (0) r2 ,
2 j=0
r
4
donde, como u0 := u0,j independe de j, segue que o valor de u na origem sera dado por
m
m1
X
u0 =
u1,j f (0) r2 ,
2
2 j=0
4
ou, usando m = 2,
m1
2 X
4u0
u1,j = f0 .
r2
r2 j=0
(2.56)
64
(2.57)
Observe que existem (n 1) m + 1 incognitas. Nesta ordenacao, segue que A tem a forma em blocos
0
b
a
B1
1 I
..
.
2 I
B2
2 I
,
3 I
B3
3 I
A=
(2.58)
.
.
.
..
..
..
n2 I
Bn2
n2 I
n1 I
Bn1
onde
4
,
r2
a = ...
,
1 m1
0 =
1 ri1/2
, i = 1, . . . , n 1,
r2 ri
1 ri+1/2
, i = 1, . . . , n 2,
i =
r2 ri
b = 0 . . . 0 1m ,
i =
2
,
r2
I = Im ,
0 =
i
i
Bi =
i
i
i
0
i
i
..
.
i
i
..
.
i
..
.
i
i
i
i
mm
onde
1 ri+1/2 + ri1/2
2 1
+ 2
,
ri
r2
ri 2
1 1
i = 2
.
ri 2
i =
0
1
1
1 1
1
0
1
0
1 1
0 2
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
65
0
0
1
1
1
0
0
0
2
0
0
0
0
0
0
0
0 0
0 1
0
0
1
0
1 1
1
1
0
0
0
0
0
0
2
0
0 2
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0 1
0
0
0
0
0
0
2 2
2
2
0 2
0
0
2
0
3
0
0 3
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0 1
0
0
0
0
0
0
0
0 1
0
0
0
0
0
0
0 2 2
0
0
0
0
2
0
0
0 2
0
0
0
2 2
0
0
0 2
0
0
2
2 2
0
0
0 2
0
0 2
2
0
0
0
0 2
0
0
0
3 3
0
0 3
0
0
0 3
3 3
0
0
3
0
0
0 3
3 3
0
0 3
0
0
0 3
3 3
0
0 3 3
0
0 3
3
A primeira linha e a primeira coluna sao diferentes porque os pontos (0, j), j = 0, . . . , m, sao realmente um
u
nico ponto e este ponto e vizinho a todos os pontos (1, j), j = 0, . . . , m.
A matriz de discretizacao A no caso do anel sera um pouco mais simples, ja que ela sera igual `a matriz
de discretizacao no caso do disco menos a primeira linha e a primeira coluna.
2.5
Domnios Arbitr
arios
Queremos agora discutir a resolucao numerica da equacao de Poisson atraves de diferencas finitas em um
domnio arbitrario.
Seja R2 um domnio arbitrario. Se sobrepusermos uma malha uniforme
M = {(ix, jy) : i Z e j Z}
sobre , obtemos um domnio discretizado definido por
d = {(x, y) : x/x Z e y/y Z} .
(2.59)
Esta e exatamente a maneira como discretizamos o retangulo. No entanto, o conjunto discretizado dos
pontos de fronteira d de um domnio arbitrario deve ser tratado de maneira diferente do retangulo, ja que
a malha uniforme M em geral nao vai se sobrepor `a fronteira de , podendo nao possuir nenhum ponto em
comum com a fronteira ou um n
umero muito pequeno de pontos em poucas regioes da fronteira.
Uma maneira de tratar este problema e a seguinte. Para determinar se o ponto (xi , yj ) d e adjacente
`a fronteira esquerda de , por exemplo, e ao mesmo tempo encontrar o seu vizinho `a esquerda na fronteira
se for o caso, basta verificar se o segmento
[xi x, yj ] = {(xi tx, yj ) : t [0, 1]}
esta inteiramente contido em ou nao. Se nao estiver, entao (xi , yj ) e um ponto interior adjacente `a fronteira
e existe um n
umero tW (0, 1) tal que
(xi tW x, yj )
(2.60)
(2.61)
66
(xi , yj tS y)
(2.62)
(xi , yj + tN y)
(2.63)
(os subndices W, E, S, N correspondem aos quatro pontos cardeais oeste, leste, sul, norte em ingles). Definimos
d = {(x, y) : (x, y) satisfaz (2.60), (2.61), (2.62) ou (2.63)}
(2.64)
Dependendo da geometria de e concebvel que um ponto seja simultaneamente adjacente `as quatro
fronteiras de , isto e, que ele tenha os seus quatro vizinhos em d . Alem disso, embora os pontos
interiores da malha estejam distribudos uniformemente, esta discretizacao da fronteira do domnio permite
que `as vezes dois pontos da malha da fronteira estejam bem proximos um do outro em alguma regiao da
fronteira e relativamente distantes em outras (isso ocorre mesmo em domnio regulares como um disco).
Para discretizar a equacao de Poisson nesta malha, observe que pela formula de Taylor temos, para pontos
x < x < x+ ,
2
u (x+ ) u (x) u (x) u (x )
u00 (x) =
+ r,
(2.65)
x+ x
x+ x
x x
onde
2
|r| 6
1 (x+ x) + (x x )
1
kukC 3 ([x ,x+ ]) 6 max (x+ x, x x ) kukC 3 ([x ,x+ ]) .
3
x+ x
3
(2.66)
De fato,
1
2
u(x ) = u(x) u0 (x) (x x ) + u00 (x) (x x )
2
1
2
u(x+ ) = u(x) + u0 (x) (x+ x) + u00 (x) (x+ x) +
2
1 000
3
u ( ) (x x ) ,
3!
1 000
3
u (+ ) (x+ x) ,
3!
u (x) u (x )
1
1
2
= u0 (x) + u00 (x) (x x ) u000 ( ) (x x ) ,
x x
2
6
u (x+ ) u (x)
1
1
2
= u0 (x) + u00 (x) (x+ x) + u000 (+ ) (x+ x) ,
x+ x
2
6
2
x+ x
x+ x
x x
(xi + tE x, yj ) ,
(xi , yj tS y) ,
(xi , yj + tN y) ,
com t (0, 1]
67
(xi + tE x) (xi tW x)
(xi + tE x) xi
xi (xi tW x)
2
u (xi , yj + tN y) u (xi , yj ) u (xi , yj ) u (xi , yj tS y)
+
(yj + tN y) (yj tS y)
(yj + tN y) yj
yj (yj tS y)
2
ui+tE x,j ui,j
ui,j uitW x,j
=
(tE + tW ) x
tE x
tW x
2
ui,j+tN y ui,j
ui,j ui,jtS y
+
(tN + tS ) y
tN y
tS y
ou
2
1
1
1
ui+tE x,j +
uitW x,j
d ud =
ui,j
x2
tE (tE + tW )
tE tW
tW (tE + tW )
2
1
1
1
+
ui,jtS y +
ui,j
ui,j+tN y .
y 2
tS (tN + tS )
tN tS
tN (tN + tS )
(2.67)
Se (xi , yj ) e um ponto interior distante da fronteira (isto e, nao adjacente `a fronteira), entao t = 1 e para
este ponto vale a formula dos cinco pontos usual.
Embora a ordem de aproximacao do laplaciano para pontos proximos `a fronteira e apenas 1, o esquema de
Shortley-Weller e convergente de segunda ordem, conforme veremos no proximo captulo, onde provaremos
tambem que o correspondente problema discretizado possui solucao u
nica.
2.6
Exerccios
u = f (x, y)
em (0, a) (0, b) ,
u = g (x, y)
sobre ((0, a) (0, b)) ,
Implemente alguns exemplos deste problema computacionalmente e compare os resultados obtidos com
as solucoes exatas.
3. Prove que a formula dos nove pontos compacta satisfaz o princpio do maximo discreto.
4. Prove resultados equivalentes ao Lema 2.5 e ao Teorema 2.6 para a formula dos nove pontos compacta.
5. Investigue a ordem de convergencia do esquema de diferencas finitas misto: formula dos nove pontos nos
pontos interiores distantes da fronteira e formula dos cinco pontos para pontos adjacentes `a fronteira.
6. Encontre um esquema de diferencas finitas de segunda ordem para a equacao de laplace tridimensional
em um paraleleppedo reto. Escolha uma ordenacao apropriada dos pontos da malha e descreva a
matriz de discretizacao obtida. Implemente o metodo no computador.
7. Mostre que o esquema de diferencas finitas em coordenadas polares introduzido neste captulo satisfaz
o princpio do maximo discreto desde que o valor de u0 seja dado pela formula (2.56).
68
8. Mostre que se d denota o esquema de diferencas finitas em coordenadas polares introduzido neste
captulo e e o disco unitario, entao vale a estimativa a priori: se ud e uma soluc
ao de
d ud = fd
em d ,
ud = 0
sobre d ,
ent
ao
1
kd ud k
(2.68)
4
desde que o valor de u0 seja dado pela f
ormula (2.56). Conclua que este esquema tem ordem de
convergencia 2.
kud k 6
u (R2 , ) = g2 ()
se 0 6 6 2.
Implemente alguns exemplos deste problema computacionalmente e compare os resultados obtidos com
as solucoes exatas.
11. Mostre que tomando o quadrado da formula de tres pontos para o laplaciano unidimensional (esquema de diferencas centradas para a derivada segunda) obtemos a seguinte formula de cinco pontos
para o operador biharmonico unidimensional (esquema de diferencas centradas para a derivada quarta):
4 ui =
(2.69)
2 8
2
1
2
1 8 20 8 1
u=
(2.70)
.
x4
2 8
2
1
Mostre que esta formula pode ser obtida a partir do quadrado da formula de cinco pontos para
o laplaciano. Como a equacao biharmonica nao satisfaz o princpio do maximo, a demonstracao da
ordem de convergencia deste esquema necessita de argumentos diferentes dos usados neste captulo
para o laplaciano. Na realidade, dependendo de como
as duas
condi
coes
de fronteira sao discretizadas,
a ordem de convergencia deste metodo pode ser O x3/2 ou O x2 . Veja [Hackbusch], pag. 103 e
pags. 105-109, para detalhes e referencias.
Captulo 3
Exist
encia e Unicidade de Soluc
oes
Discretas
Determinar a existencia e unicidade de solucoes discretas para as matrizes de discretizacao obtidas via
esquemas de diferencas finitas atraves do calculo de seus autovalores como fizemos no captulo anterior para
diferencas centradas em uma dimensao e para a formula de cinco pontos e inviavel em geral (tente calcular
os autovalores da matriz de discretizacao para a formula dos nove pontos, para o esquema em coordenadas
polares e para o esquema de Shortley-Weller). Neste captulo, desenvolveremos metodos mais gerais e mais
faceis de aplicar.
3.1
Normas Matriciais
Uma norma matricial no espaco vetorial Mn (C) das matrizes complexas n n e uma norma vetorial que
satisfaz a propriedade submultiplicativa
kABk 6 kAk kBk
(3.1)
para todas as matrizes A, B Mn (C). Algumas das normas mais importantes em Mn (C) sao as seguintes:
1. Norma l1
kAk1 =
n
X
|aij | .
(3.2)
i,j=1
De fato,
n X
n
n
X
X
kABk1 =
aik bkj 6
|aik bkj | 6
i,j=1 k=1
i,j,k=1
2. Norma l2
kAk2 =
n
X
|aik blj | =
i,j=1
i,j,k,l=1
n
X
n
X
|aik |
n
X
k,l=1
1/2
2
|aij |
(3.3)
i,j=1
Com efeito,
2
n
! n
! n
n X
n
n
n
X
X
X
X
X
X
2
2
2
2
2
2
2
kABk2 =
aik bkj 6
|aik |
|blj |
=
|aik |
|blj | = kAk2 kBk2 .
i,j=1 k=1
i,j=1
k=1
l=1
69
i,k=1
j,l=1
70
A norma l2 tambem e chamada norma euclidiana e, mais raramente e somente para matrizes, norma
de Schur, norma de Frobenius ou norma de Hilbert-Schmidt.
3. Norma l modificada
A norma l
kAk = max |aij | .
16i,j6n
e uma norma vetorial no espaco das matrizes complexas, mas nao e uma norma matricial, pois se
1 1
A=
,
1 1
entao
A2 =
e portanto
2
A
2
2
2
2
Mas um m
ultiplo escalar desta norma vetorial e uma norma matricial:
kAkn = n max |aij | .
(3.4)
16i,j6n
Com efeito,
kABkn
n
n
n
X
X
X
= n max
kAk kBk
aik bkj 6 n max
|aik bkj | 6 n max
16i,j6n
16i,j6n
16i,j6n
k=1
k=1
k=1
|x|=1
|Ax|
.
|x|
(3.5)
De fato,
|ABx|
kABk = max
= max
x6=0
x6=0
|x|
|ABx| |Bx|
|Bx| |x|
6 max
x6=0
|ABx|
|Bx|
|Ay|
|Bx|
max
6 max
max
= kAk kBk .
y6=0 |y| x6=0 |x|
|Bx| x6=0 |x|
Esta norma tambem e chamada norma do operador. Ela satisfaz a propriedade muitas vezes u
til
|Ax| 6 kAk |x|
(3.6)
16i6n
n
X
|aij | .
j=1
n
n
X
X
X
|Ax| = max
aij xj 6 max
|aij xj | 6 max
|aij | |x| = kAkL |x| ,
16i6n
16i6n
16i6n j=1
j=1
j=1
(3.7)
71
de modo que
max |Ax| 6 kAkL .
|x|=1
akj
se aij 6= 0,
,
yi =
|a |
1kj
se aij = 0.
o que implica |y| = 1, akj yj = |akj | e
max |Ax| > |Ay|
|x| =1
X
X
X
n
n
n
akj yj =
|akj | .
= max
aij yj >
16i6n
j=1
j=1
j=1
16k6n
|x| =1
n
X
|aij | = kAkL .
j=1
6. Norma do m
aximo das somas das colunas
kAkC = max
16j6n
n
X
|aij | .
(3.8)
i=1
Esta norma e induzida pela norma vetorial l1 . De fato, escrevendo A em termos de suas colunas
A = [A1 . . . An ]
segue que
kAkC = max |Aj |1 .
16j6n
n
X
|xi Ai |1 =
i=1
= kAkC
n
X
n
X
|xi | |Ai |1 6
n
X
i=1
i=1
i=1
donde
max |Ax|1 6 kAkC .
|x|1 =1
|x|1 =1
16j6n
7. p-normas
Este e o nome geral para as normas induzidas pela norma vetorial lp . O caso especial da norma induzida
pela norma vetorial l2 (a norma vetorial euclidiana) e tambem chamada a norma espectral e satisfaz
n
o
p
k|A|k2 = max = max
: e um autovalor de A A .
72
hA Ax, xi2
2
|x|2
x6=0
= max
x6=0
|Ax|2
2
|x|2
Observe que a 2-norma e diferente da norma matricial l2 . Note tambem que se A e uma matriz
hermitiana, entao A A = A2 e k|A|k2 e portanto o modulo do maior autovalor de A, isto e, a norma
espectral de A e o raio espectral de A, definido como sendo o maior valor absoluto dos autovalores
de A:
(A) = max |i | ,
i=1,...,n
kAkS = S 1 AS
(3.9)
3.2
Defini
c
ao. Dizemos que uma matriz Ann e diagonalmente dominante se
|aii | >
n
X
|aij |
para todo i = 1, . . . , n
j=1
j6=i
n
X
|aij |
para todo i = 1, . . . , n.
j=1
j6=i
3.1 Proposi
c
ao. Se A e uma matriz estritamente diagonalmente dominante, ent
ao A e invertvel.
Prova. Uma matriz A e invertvel se existe alguma norma matricial kk tal que kI Ak < 1. De fato, se
esta condicao e satisfeita, entao a inversa e dada explicitamente pela serie
A1 =
(I A) .
(3.10)
k=0
N
X
k=0
(I A) = [I (I A)]
N
X
k=0
(I A) =
N
X
k=0
(I A)
N
+1
X
k=1
P
k=0
rk tem raio de
N +1
(I A) = I (I A)
73
0
se i = j,
1
I D A ij =
aij /aii
se i 6= j.
Usemos a norma do maximo das somas das linhas. Para cada 1 6 i 6 n temos
n
n
n
X
X
aij
X
= 1
|aij | < 1,
I D1 A ij =
aii |aii |
j=1
j=1
j=1
j6=i
j6=i
4 2 1
0 1 1
0 1 1
demonstra. Precisamos de desenvolver varias ideias e ferramentas teoricas antes de provar a invertibilidade
das matrizes de discretizacao do captulo anterior.
3.3
A primeira ferramenta teorica e o importante Teorema dos Discos de Gershgorin. Ele decorre da seguinte
observacao: se A e uma matriz complexa n n, podemos sempre escrever A = D + B, onde D = diag
(a11 , . . . , ann ) e a matriz diagonal formada pela diagonal principal de A e B consiste dos elementos restantes
de A, possuindo uma diagonal principal nula. Se definirmos A = D + B, entao A0 = D e A1 = A. Os
autovalores de D sao a11 , . . . , ann , enquanto que os autovalores de A devem estar localizados em vizinhancas
dos pontos a11 , . . . , ann , desde que seja suficientemente pequeno. O mesmo deve valer para os autovalores
da matriz A: eles devem estar contidos em discos centrados nos elementos a11 , . . . , ann da diagonal principal
se os discos sao suficientemente grandes. O Teorema de Gershgorin da uma estimativa precisa e simples de
calcular para os raios destes discos em funcao das entradas restantes da matriz A. Denote o disco complexo
fechado de centro em a e raio R por
DR (a) = {z C : |z a| 6 R} .
3.2 Teorema. (Teorema dos Discos de Gershgorin) Se A Mn (C) e
Ri (A) =
n
X
|aij |
(3.11)
j=1
j6=i
denota a soma dos valores absolutos dos elementos da linha i de A excetuando o elemento da diagonal
principal, ent
ao todos os autovalores de A est
ao contidos na uni
ao dos n discos de Gershgorin
G (A) =
n
[
i=1
(3.12)
74
para j = 1, . . . , n,
isto e, xk e a coordenada de x de maior valor absoluto. Denotando por (Ax)k a k-esima coordenada do vetor
Ax = x, temos
n
X
xk = (Ax)k =
akj xj
j=1
que e equivalente a
xk ( akk ) =
n
X
akj xj .
j=1
j6=k
Da,
|xk | | akk | 6
n
X
|akj xj | =
j=1
j6=k
n
X
j=1
j6=k
n
X
j=1
j6=k
ou seja,
| akk | 6 Rk (A) .
Isso prova o resultado principal do Teorema de Gershgorin (como nao sabemos qual k e apropriado para
cada autovalor , e um mesmo k pode servir para varios autovalores , tudo o que podemos afirmar e que
os autovalores estao na uniao dos discos).
Para provar a segunda afirmacao, escreva A = D + B, onde D = diag (a11 , . . . , ann ) e defina
At = D + tB
para 0 6 t 6 1. Note que
Ri (At ) = Ri (tB) = tRi (A) .
Para simplificar a notacao, assuma que a uniao dos primeiros k discos de Gershgorin
Gk (A) =
k
[
i=1
75
obtemos que Gk (A) possui pelo menos k autovalores de A. Da mesma forma, nao pode haver mais que
k autovalores de A em Gk (A), pois os n k autovalores restantes de A0 = D comecam fora do conjunto
Gk (A) e seguem caminhos contnuos que permanecem fora de Gk (A).
A uniao G (A) dos discos de Gershgorin e conhecida como a regi
ao de Gershgorin. Observe que enquanto
nao podemos em geral afirmar com certeza que cada disco de Gershgorin possui um autovalor, a segunda
afirmacao do teorema permite-nos fazer tal conclusao desde que os discos de Gershgorin sejam dois a dois
disjuntos.
O Teorema dos Discos de Gershgorin permite entender o resultado da Proposicao 3.1: se uma matriz A e
estritamente diagonalmente dominante, entao os discos de Gershgorin DRi (A) (aii ) nao interceptam a origem,
logo 0 nao pode ser um autovalor para a matriz A, o que implica que A e invertvel. Alem disso, se todos
os elementos da diagonal principal de A sao reais e positivos, entao os autovalores de A estao localizados no
semiplano direito de C, de modo que se A e tambem simetrica, conclumos que todos os autovalores de A
sao positivos.
A aplicacao mais obvia do Teorema dos Discos de Gershgorin e na estimativa dos autovalores de uma
matriz, o que e importante se vamos usar os autovalores de matrizes de discretizacao para aproximar os
autovalores do laplaciano:
Aplica
c
ao 1. Pelo Teorema dos Discos de Gershgorin, os autovalores da matriz de discretizacao do laplaciano no intervalo (0, ) discretizado com n + 1 pontos (esquema de diferencas finitas centradas para
a derivada segunda unidimensional)
2 1
1
2 1
..
..
.
.
n2
1
A= 2
.
.
..
. . 1
1
2 1
1
2
est
ao todos localizados no intervalo (A e simetrica, logo seusautovalores sao todos reais) centrado em
x = 2n2 / 2 de raio 2n2 / 2 , ou seja, no intervalo 0, 4n2 / 2 . Em particular o maior autovalor de A
nao pode exceder 4n2 / 2 . Como os autovalores do laplaciano neste intervalo sao da forma j = j 2 ,
para termos esperanca em aproximar o autovalor j por autovalores da matriz A precisamos que
j 2 6 4n2 / 2 , isto e, precisamos discretizar o intervalo (0, ) com
n>
j
2
pontos. Isso da uma estimativa bastante grosseira do quao refinada a nossa malha precisa ser para
aproximar os autovalores do laplaciano. Na pratica, vimos que apenas os primeiros autovalores de
A aproximam bem os primeiros autovalores do laplaciano e portanto precisamos de uma malha com
um n
umero muito maior de pontos. Observe que uma estimativa semelhante vale para a matriz de
2
discretizacao M fornecida pela formula de cinco pontos no quadrado (0, ) quando tomamos x =
2
2
y = /n: como os autovalores
de M estao localizados no intervalo de centro em x = 4n / de raio
2
2
2
2
4n / , isto e, em 0, 8n / , precisamos de
p2
n>
i + j2
2 2
pontos no eixos horizontal e vertical para aproximar o autovalor i2 + j 2 . Por outro lado, no caso
bidimensional isso implica em uma matriz de discretizacao da ordem de i2 + j 2 .
Usos mais refinados do Teorema de Gershgorin permitem obter conhecimento mais preciso sobre onde
os autovalores da matriz se encontram e correspondentemente melhores estimativas para o raio espectral
76
de uma matriz. Por exemplo, como A e At possuem os mesmos autovalores, existe um teorema dos discos
de Gershgorin equivalente para as colunas de uma matriz. Em particular, todos os autovalores de A estao
localizados na intersecao destas duas regioes: G (A) G (At ). Isso implica a seguinte estimativa simples para
o raio espectral de uma matriz complexa:
3.3 Corol
ario. Se A Mn (C), ent
ao
n
X
i=1,...,n
j=1
n
X
|aij | , max
j=1,...,n
i=1
Prova. O ponto no i-esimo disco de Gershgorin que e mais distante da origem tem modulo
|aii | + Ri (A) =
n
X
|aij |
j=1
pj
1
D AD =
aij
pi
e `a sua transposta, obtemos o seguinte resultado que permite obter uma estimativa arbitrariamente boa dos
autovalores de A:
3.4 Corol
ario. Se A Mn (C) e p1 , . . . , pn > 0, ent
ao todos os autovalores de A est
ao contidos em
n
n
[
1 X
t 1
G D AD G DA D
=
pj |aij |
z C : |z aii | 6
(3.13)
pi j=1
i=1
j6=i
n
n
[
X
1
|aij | .
z C : |z aii | 6 pj
i=1
i=1 i
i6=j
Em particular,
3.4
n
n
X
X
1
1
(A) 6 min max
pj |aij | , max pj
|aij | .
p1 ,...,pn >0 i=1,...,n pi
j=1,...,n
p
i
j=1
i=1
(3.14)
Propriedade FC
Na nossa busca por propriedades para matrizes diagonalmente dominantes que garantirao a sua invertibilidade, uma observacao fundamental e a de que se A e uma matriz diagonalmente dominante, ent
ao 0 n
ao
pode ser um ponto interior de nenhum disco de Gershgorin. De fato, se e um autovalor de A interior a
algum disco de Gershgorin entao devemos ter desigualdade estrita
| aii | < Ri (A) =
n
X
j=1
j6=i
|aij |
77
n
X
|aij |
j=1
j6=i
Tais pontos na regiao de Gershgorin G (A) (nao necessariamente autovalores de A) constituem precisamente a fronteira G (A) da regiao de Gershgorin. Chamaremos a fronteira de um disco de Gershgorin
{z C : |z aii | = Ri (A)} um crculo de Gershgorin.
3.5 Lema. Seja A Mn (C) e um autovalor de A que n
ao e um ponto interior de nenhum disco de
Gershgorin. Seja x = (x1 , . . . , xn ) 6= 0 um autovetor associado a e k um ndice tal que
|xk | > |xj |
para j = 1, . . . , n.
n
X
|aij xj | =
j=1
j6=k
n
X
j=1
j6=k
n
X
j=1
j6=k
n
X
j=1
j6=k
|aij |
(3.15)
78
n
X
j=1
j6=k
Esta e uma soma de termos nao-negativos, pois |xi | > |xj |, logo se aij 6= 0 necessariamente devemos ter
|xj | = |xi | = |xk |.
Este lema tecnico tem as seguintes conseq
uencias u
teis:
3.6 Teorema. Seja A Mn (C) uma matriz cujas entradas s
ao todas n
ao-nulas e seja um autovalor de
A que n
ao e um ponto interior de nenhum disco de Gershgorin. Ent
ao todo crculo de Gershgorin
de A passa por (isto e, est
a na interseca
o de todos os crculos de Gershgorin de A) e se x =
(x1 , . . . , xn ) 6= 0 e um autovetor associado a ent
ao
|xi | = |xj |
para todos i, j = 1, . . . , n.
Prova. Pois, como A e diagonalmente dominante, se 0 e um autovalor de A entao 0 nao pode ser um ponto
interior de nenhum disco de Gershgorin. Por outro lado, pelo teorema anterior, segue que todo crculo de
Gershgorin passa por 0. Entretanto, o i-esimo crculo de Gershgorin centrado em aii e com raio Ri < |aii |
nao pode passar por 0. Conclumos que 0 nao e um autovalor de A, logo A e invertvel.
Na verdade, usando com maior cuidado a informacao dada pelo Lema 3.5 podemos obter resultados ainda
melhores:
Defini
c
ao. Dizemos que uma matriz A = (aij ) Mn (C) satisfaz a propriedade FC se para todo par de
inteiros distintos i, j existe uma seq
uencia de inteiros distintos i1 = i, i2 , i3 , . . . , im1 , im = j, com
1 6 m 6 n, tais que todas as entradas matriciais
ai1 i2 , ai2 i3 , . . . , aim1 im
sao nao-nulas.
Por exemplo, a matriz diagonalmente dominante nao-invertvel
4 2 1
0 1 1 ,
0 1 1
ja vista anteriormente, nao satisfaz a propriedade FC porque o par 2, 1 nao admite tal seq
uencia (a u
nica
seq
uencia possvel e a23 , a31 ). Ja qualquer par de inteiros distintos i, j tal que aij 6= 0 admite a seq
uencia
trivial nao-nula aij , de modo que uma matriz cujas entradas nao-diagonais sao todas nao-nulas satisfaz a
propriedade FC. O significado da abreviatura FC, ou fortemente conexo, ficara claro mais adiante.
3.8 Teorema. Seja A Mn (C) uma matriz que satisfaz a propriedade FC e seja um autovalor de A que
n
ao e um ponto interior de nenhum disco de Gershgorin. Ent
ao todo crculo de Gershgorin de A passa
por (isto e, est
a na intersec
ao de todos os crculos de Gershgorin de A) e se x = (x1 , . . . , xn ) 6= 0
e um autovetor associado a ent
ao
|xi | = |xj |
para todos i, j = 1, . . . , n.
79
para k = 1, . . . , n.
Prova. Segue do teorema anterior da mesma forma que o Corolario 3.7 segue do Teorema 3.6.
Vamos tentar entender melhor o significado da propriedade FC. Note que ela se refere apenas `a localizacao
dos elementos nao-nulos de A fora da diagonal principal os elementos da diagonal principal e os valores
especficos dos elementos fora da diagonal principal sao irrelevantes. Isso motiva as seguintes definic
oes:
Defini
c
ao. Dada uma matriz A = (aij ) Mn (C) definimos o m
odulo da matriz A como sendo a matriz
|A| = (|aij |)
cujos elementos sao os modulos dos elementos da matriz A e a matriz indicadora de A como sendo
a matriz
M (A) = (ij ) ,
onde
ij =
1
0
se aij 6= 0,
se aij = 0.
80
(|A| )ij 6= 0
ou, equivalentemente, se e somente se
[M (A) ]ij 6= 0.
Prova. Provaremos o teorema por inducao. Para m = 1 a afirmativa e trivial. Para m = 2, temos
|A|
2
de modo que |A|
ij
ij
n
X
(|A|)ik (|A|)kj =
k=1
n
X
|aik | |akj | ,
k=1
6= 0 se e somente se aik , akj sao ambos nao-nulos para algum ndice k. Mas isso e
|A|
m+1
ij
n
X
k=1
n
X
k=1
se e somente se (|A| )ik , akj sao ambos nao-nulos para algum ndice k. Por hipotese de inducao, isso e
equivalente a existir um caminho direcionado de comprimento m em (A) de Pi para Pk e um caminho
direcionado de comprimento 1 em (A) de Pk para Pj , isto e, um caminho direcionado de comprimento
m + 1 em (A) de Pi para Pj . O mesmo argumento vale para M (A).
Defini
c
ao. Seja A = (aij ) Mn (C). Dizemos que A > 0 se aij > 0 para todos 1 6 i, j 6 n e que A > 0 se
aij > 0 para todos 1 6 i, j 6 n.
3.12 Corol
ario. Seja A Mn (C). Existe um caminho direcionado de comprimento m em (A) de cada
nodo Pi para cada nodo Pj se e somente se
m
|A|
ou, equivalentemente, se e somente se
>0
M (A)
> 0.
3.13 Corol
ario. Seja A Mn (C). A satisfaz a propriedade FC se e somente se
(I + |A|)
n1
>0
[I + M (A)]
> 0.
Prova. Temos
(I + |A|)
n1
n1
n1
2
n1
n1
= I + (n 1) |A| +
|A| + . . . +
|A|
+ |A|
>0
2
n3
81
2
n1
se e somente se para cada par de ndices i, j com i 6= j pelo menos um dos termos |A| , |A| , . . . , |A|
tem uma entrada positiva em (i, j). Pelo Teorema 3.11, isso ocorre se e somente se existe algum caminho
direcionado em (A) de Pi para Pj com comprimento 6 n1. Isto e equivalente a A satisfazer a propriedade
FC. O mesmo argumento vale para M (A).
Em geral, a maneira como uma matriz foi obtida (como as nossas matrizes de discretizacao; veja a u
ltima
secao do captulo) torna clara se elas sao matrizes que satisfazem a propriedade FC ou nao. Se isso
nao e possvel, e pretende-se verificar a propriedade FC atraves do Corolario 3.13, e prefervel calcular
n1
[I + M (A)]
, ja que M (A) e uma matriz composta apenas de 0s e 1s.
3.5
Matrizes Irredutveis
0
se (i, j) = (k, k) ou se (i, j) = (l, l) .
Matrizes de transposicao sao simetricas. O efeito de multiplicar uma matriz A por uma matriz de transposicao
a` esquerda e trocar a posicao de duas linhas da matriz A (no caso acima, as linhas k e l), enquanto que a
multiplicacao de A por uma matriz de transposicao `a direita muda a posicao de duas colunas de A (no caso
acima, as colunas k e l).
1 0 0 0
a11 a12 a13 a14
a11 a12 a13 a14
0 0 1 0 a21 a22 a23 a24 a31 a32 a33 a34
TA =
0 1 0 0 a31 a32 a33 a34 = a21 a22 a23 a24 ,
0 0 0 1
a41 a42 a43 a44
a41 a42 a43 a44
AT =
a31 a32 a33 a34 0 1 0 0 = a31 a33 a32 a34 .
a41 a42 a43 a44
0 0 0 1
a41 a43 a42 a44
Pode-se provar que toda matriz de permutacao P e o produto de matrizes de transposicao P = T1 . . . Tm ;
em particular, P t = Tm . . . T1 . A matriz
P t AP = Tm . . . T1 AT1 . . . Tm
e portanto obtida atraves da permutacao de linhas e colunas de A, de modo que nenhum novo elemento e
criado ou algum elemento existente de A destrudo.
Defini
c
ao. Dizemos que uma matriz A Mn (C) e redutvel se existe alguma matriz de permutacao P e
algum inteiro 1 6 m 6 n 1 tal que
B C
P t AP =
0 D
onde B e uma matriz m m, D e uma matriz (n m) (n m), C e uma matriz m (n m) e 0 e
a matriz nula (n m) m. Caso contrario, dizemos que A e irredutvel.
82
Da definicao vemos que se |A| > 0, entao A e irredutvel, e para que A seja redutvel, ela precisa ter pelo
menos n 1 zeros (caso m = 1). A motivacao para este nome e a seguinte. Suponha que queiramos resolver
o sistema Ax = b e que A seja redutvel. Entao, se escrevermos
B C
A = P t AP =
,
0 D
teremos Ax = P AP t x = b ou AP t x = P t b; denotando x = P t x e b = P t b, resolver o sistema Ax = b e entao
equivalente a resolver o sistema
Ax = b.
Escrevendo
x=
y
z
b=
b1
b2
By + Cz = b1
Dz = b2
Se resolvermos primeiro Dz = b2 e utilizarmos o valor de z encontrado na primeira equacao resolvendo
By = b1 Cz, teremos reduzido o problema original a dois problemas menores, mais faceis de resolver.
3.14 Teorema. Uma matriz A Mn (C) e irredutvel se e somente se
(I + |A|)
n1
>0
[I + M (A)]
> 0.
n1
B C
A=P
P t =: P AP t .
0 D
Observe que
|A| = P AP t = P A P t ,
ja que o efeito de P e apenas trocar linhas e colunas. Alem disso, note que
k
k
B
Ck
A =
0 Dk
para alguma matriz Ck . Logo, como
(I + |A|)
n1
n1 t
n1
= P I + A
P
= I + P A P t
n1
n1
2
n1
n1
= P I + (n 1) |A| +
|A| + . . . +
|A|
+ |A|
Pt
2
n3
e todos os termos dentro dos colchetes sao matrizes que tem um bloco (n m) m nulo no canto esquerdo
n1
inferior, segue que (I + |A|)
e redutvel, logo possui entradas nulas e nao pode ser positiva.
83
n1
n1
=I+
(I + |A|)
n1
m
|A| ,
m
m=1
n1
X
n1
(I
n
h + |A|)
iao possui entradas diagonais nulas, logo podemos assumir que para algum par i 6= j temos
n1
m
(I + |A|)
= 0, o que implica [|A| ]ij = 0 para todo 1 6 m 6 n 1. Pelo Teorema 3.11 (e observacao
ij
imediatamente posterior `a definicao de grafo direcionado), nao existe um caminho direcionado em (A) de
comprimento finito entre Pi e Pj . Defina os conjuntos de nodos
S1 := {Pk : Pk = Pj ou existe um caminho direcionado em (A) entre Pk e Pj } ,
S2 = [ nodos de (A)] \S1 .
Por definicao destes conjuntos, nao pode existir nenhum caminho de algum nodo de S2 para algum nodo de
m
S1 , logo [|A| ]lk = 0 se Pl S2 e Pk S1 . E ambos os conjuntos sao nao-vazios, pois Pj S1 e Pi S2 .
Renomeando os nodos de modo que
n
o
S1 = Pe1 , . . . , Pem ,
n
o
S2 = Pem+1 , . . . , Pen ,
segue que existe uma matriz de permutac
ao P tal que
B
t
P AP =
0
C
D
De fato, P e justamente a matriz de permutacao que troca as colunas de tal forma que as variaveis anteriores
correspondentes aos nodos Pe1 , . . . , Pem no sistema Ax = b sao as novas m primeiras variaveis do sistema linear
Ax = b; como nao existe nenhum caminho direcionado entre nenhum dos nodos Pem+1 , . . . , Pen e qualquer um
dos nodos Pe1 , . . . , Pem , temos aij = 0 para m + 1 6 i 6 n e 1 6 j 6 m pelo Teorema 3.11.
3.15 Corol
ario. Uma matriz A Mn (C) e irredutvel se e somente se ela satisfaz a propriedade FC.
3.16 Proposi
c
ao. Se A e uma matriz irredutvel, diagonalmente dominante tal que |aii | >
n
P
j=1
j6=i
|aij | para
3.6
Os resultados obtidos nas secoes anteriores fornecem uma demonstracao alternativa de que as matrizes
de discretizacao do captulo anterior (tanto no caso unidimensional, quanto no caso bidimensional) sao
invertveis, sem a necessidade de se calcular os seus autovalores.
3.6.1
84
Esquemas de Diferen
cas Finitas para o Intervalo e para o Ret
angulo
facil ver que todas as matrizes de discretizacao obtidas no captulo anterior para o intervalo e para o
E
retangulo (isto e, os esquemas unidimensionais de tres pontos e cinco pontos, e os esquemas bidimensionais
de cinco e nove pontos, compacto ou nao-compacto) sao matrizes diagonalmente dominantes com dominancia
diagonal estrita nas linhas correspondentes a pontos adjacentes `a fronteira. Alem disso, elas sao matrizes
irredutveis porque elas satisfazem a propriedade FC. De fato, cada ndice i da matriz corresponde a um
ponto interior Pi da malha e aij 6= 0 sempre que Pi e Pj sao pontos vizinhos naqueles esquemas. Entao,
dados dois pontos distintos Pi , Pj e facil encontrar uma seq
uencia de ndices i1 = i, i2 , i3 , . . . , im1 , im = j,
com 1 6 m 6 n, tais que todas as entradas matriciais
ai1 i2 , ai2 i3 , . . . , aim1 im
sao nao-nulas: no caso unidimensional, basta percorrer a malha diretamente de Pi ate Pj (andando a partir
de Pi sempre para a direita ou sempre para a esquerda, conforme o caso, ate encontrar Pj ), e no caso
bidimensional basta usar qualquer caminho interior de Pi ate Pj (pode-se usar a ordem lexicografica para
percorrer a malha, ou a ordem lexicografica inversa, dependendo das posicoes relativas de Pi e Pj ; no entanto,
estes caminhos sao mais longos que o necessario). Em outras palavras, identificando as malhas de pontos
internos com os grafos direcionados da matriz de discretizacao, de modo que existe um arco direcionado entre
dois pontos da malha se e somente se eles sao vizinhos, os esquemas de discretizacao considerados garantem
que estes grafos sao fortemente conexos.
As matrizes obtidas atraves de diferencas finitas em geral sao irredutveis, pois elas satisfazem a pro difcil imaginar um esquema de diferencas finitas para uma malha sobre um domnio conexo
priedade FC. E
em que nao houvesse um caminho direcionado entre pontos vizinhos (isto e, em que tivessemos aij = 0
para dois pontos vizinhos Pi e Pj ). Outra maneira de pensar sobre isso e observar que se uma matriz de
discretizacao fosse (apos permutacao de linhas e colunas) da forma
B C
,
0 D
isso implicaria que um conjunto de pontos da malha (os correspondentes ao bloco D) teriam diferencas
finitas independentes do conjunto dos pontos restantes da malha (os correspondentes ao bloco D); pior
ainda, estes u
ltimos poderiam ter diferencas finitas dependentes dos primeiros (ja que o bloco C poderia
ser nao-nulo). Em u
ltima analise, seria possvel reduzir o problema de resolver o sistema linear associado `a
difcil imaginar um esquema de diferencas finitas com esta
discretizacao a dois problemas mais simples. E
propriedade, embora talvez possa ocorrer em algum domnio com geometria altamente irregular em que a
malha de pontos interiores se dividisse em essencialmente duas malhas independentes. Tal situacao deve ser
evitada com cuidado na hora de discretizar tais regioes.
3.6.2
As mesmas observacoes anteriores valem para a matriz de discretizacao obtida atraves do esquema de coordenadas polares do captulo anterior, isto e, ela satisfaz a propriedade FC. Para verificar que ela e diagonalmente
dominante, note que para todas as linhas, exceto a primeira que deve ser tratada separadamente, temos
|aii | = i =
1 ri+1/2 + ri1/2
2 1
+ 2
.
ri
r2
ri 2
Alem disso, para todas as linhas, excetuando a primeira e as linhas correspondentes a pontos adjacentes `a
fronteira do disco temos
n
X
j=1
j6=i
|aij | = i + i + 2i =
1 ri+1/2
2 1
1 ri1/2
+
+ 2
= |aii | .
2
2
r
ri
r
ri
ri 2
85
Nestas linhas existe dominancia diagonal, enquanto que nas linhas correspondentes a pontos adjacentes `a
fronteira do disco temos
(n1)m+1
X
|aij | = i + 2i < |aii | ,
j=1
j6=i
isto e, temos dominancia diagonal estrita. Finalmente, para a primeira linha tambem temos dominancia
diagonal, pois
|a00 | =
4
,
r2
(n1)m+1
X
j=1
j6=0
3.6.3
|a0j | = m
m
4
2
=4
=
= |a00 | .
r2
2 r2
r2
Esquema de Shortley-Weller
Captulo 4
M
etodos Iterativos para a Resoluc
ao
de Sistemas Lineares
Neste captulo investigaremos metodos iterativos para a resolucao de sistemas lineares
Ax = b.
Embora a matriz A que temos em mente e em geral uma matriz grande e esparsa, do tipo que aparece
em esquemas de diferencas finitas, os metodos considerados aqui requerem apenas que A seja uma matriz
invertvel com todas as entradas diagonais aii nao-nulas.
Metodos iterativos requerem um chute inicial x0 , um vetor inicial que aproxima a solucao exata x (se
nao ha nenhuma informacao disponvel sobre a solucao exata, de modo que nao temos como construir o
chute inicial de forma inteligente, x0 pode ser uma aproximacao muito ruim de x). Uma vez que x0 e dado,
o metodo iterativo gera a partir de x0 uma nova aproximacao x1 , que esperamos deve aproximar melhor a
2
solucao exata. Em seguida, x1 e usada para gerar
k uma nova melhor aproximacao x e assim por diante.
Desta forma, gera-se uma seq
uencia de vetores x que espera-se convergir para x. Como na pratica nao
podemos iterar para sempre, algum criterio de parada deve ser estabelecido a priori. Uma vez que xk esteja
suficientemente proximo da solucao exata quanto se precise, de acordo com uma margem de tolerancia aceita,
para-se o processo de iteracao e aceita-se xk como a solucao aproximada adequada para o problema. Por
exemplo, o criterio de parada pode ser estabelecido atraves de uma cota de toler
ancia : quando
b Axk <
ou quando
k+1
x
xk <
4.1
M
etodos Iterativos Lineares
Nesta secao apresentamos alguns exemplos classicos de metodos iterativos lineares. Na proxima secao daremos condicoes necessarias e suficientes para estabelecer a sua convergencia.
86
4.1.1
87
M
etodo de Jacobi
O primeiro metodo iterativo (que ja foi descrito como o mais lento para convergir, embora isso realmente
depende da matriz A do sistema) e o algoritmo de Jacobi. Escrevendo o sistema Ax = b na forma
n
P
a1j xj = b1
j=1
..
,
.
anj xj = bn
j=1
se aii 6= 0 para todo i, cada xi pode ser isolado na i-esima equacao e escrito na forma
xi =
n
X
1
bi
aij xj
.
aii
j=1
j6=i
Isso sugere definir um metodo iterativo da seguinte forma: suposto xk = xk1 , . . . , xkn obtido no passo
por
anterior, obtemos xk+1 = xk+1
, . . . , xk+1
n
1
xk+1
=
i
n
X
1
bi
aij xkj
.
aii
j=1
(4.1)
j6=i
No caso da formula de cinco pontos para o problema de Poisson com x = y, como a equacao para
cada ponto (i, j) e dada por
ui,j1 ui,j+1 + 4ui,j ui1,j ui+1,j = x2 fi,j
o metodo de Jacobi e
1 k
ui,j1 + uki,j+1 + uki1,j + uki+1,j + x2 fi,j .
(4.2)
4
No caso especial da equacao de Laplace (f = 0) com condicao de fronteira de Dirichlet nao-nula, o metodo
de Jacobi e simplesmente a propriedade do valor medio discreta
uk+1
i,j =
uk+1
i,j =
1 k
ui,j1 + uki,j+1 + uki1,j + uki+1,j .
4
(4.3)
Em outras palavras, calculados os valores de u em todos os pontos da malha na iteracao anterior, o novo
valor de u em um ponto interior da malha nesta iteracao e calculado atraves da media dos seus quatro
pontos vizinhos. Os valores iniciais de u nos pontos interiores da malha para a primeira iteracao (isto e, o
chute inicial) podem ser atribuidos arbitrariamente ou atraves de algum argumento razoavel; por exemplo,
podemos utilizar uma media ponderada dos valores de fronteira para o valor inicial em cada ponto interior
da malha, de acordo com a posicao do ponto em relacao aos pontos das quatro fronteiras discretizadas.
Em forma matricial, o algoritmo de Jacobi pode ser descrito da seguinte forma. Denotando por D = diag
(a11 , . . . , ann ) a matriz diagonal cujas entradas sao as entradas diagonais de A, temos que
xk+1 = D1 (D A) xk + b
(4.4)
ou
xk+1 = D1 Cxk + b
(4.5)
4.1.2
88
M
etodo de Gauss-Seidel
Um metodo iterativo que converge cerca de duas vezes mais rapido que o metodo de Jacobi (pelo menos em
varias aplicacoes) e o metodo de Gauss-Seidel, onde os valores de x sao atualizados dentro de cada iteracao,
este e usado no lugar de xkl no calculo
sem esperar pela proxima. Em outras palavras, obtido o valor de xk+1
l
seguinte. No sistema Ax = b em que aii 6= 0 para todo i, como antes isolamos cada xi na i-esima equacao
mas desta vez escrevemos
i1
n
X
X
1
xi =
bi
aij xj +
aij xj .
aii
j=1
j=i+1
Entao definimos
xk+1
i
i1
n
X
X
1
=
bi
aij xk+1
+
aij xkj
j
aii
j=1
j=i+1
(4.6)
1 k+1
k
ui,j1 + uki,j+1 + uk+1
i1,j + ui+1,j
4
(4.7)
assumindo que os pontos da malha sao percorridos na ordem lexicografica, de modo que quando vamos
calcular o valor de u no ponto i, j na iteracao k + 1, nesta mesma iteracao ja calculamos os valores de u em
i 1, j e em i, j 1, e usamos estes valores para calcular uk+1
es dos valores uki,j1 e uki1,j obtidos
i,j ao inv
na iteracao anterior.
Em forma matricial, o algoritmo de Jacobi pode ser descrito da seguinte forma. Dada uma matriz A,
existe uma u
nica decomposicao
A=DLU
(4.8)
onde D e uma matriz diagonal, L e uma matriz estritamente triangular inferior e U e uma matriz estritamente
triangular superior; de fato, D = diag (a11 , . . . , ann ) e a parte diagonal de A, L e a parte estritamente
triangular inferior de A e U e a parte estritamente triangular superior de A. Entao o algoritmo de Jacobi
pode ser definido por
xk+1 = D1 Lxk+1 + U xk + b
(4.9)
ou
(D L) xk+1 = U xk + b,
donde
xk+1 = (D L)
Ux + b .
(4.10)
importante ressaltar que existem matrizes para as quais o metodo de Jacobi converge e o metodo de
E
Gauss-Seidel diverge, e vice-versa. Veja a proxima secao sobre a convergencia dos metodos.
4.1.3
M
etodo SOR
89
fator em cada passo (se mover um passo na direcao de xk para xk+1 e bom, mover naquela direcao > 1
passos e melhor). Este e o chamado metodo de sobrerelaxamento sucessivo (SOR, successive overrelaxation):
usando o metodo de Gauss-Seidel obtemos
i1
n
X
X
1
bi
aij xk+1
+
aij xkj ;
x
bk+1
=
i
j
aii
j=1
j=i+1
da tomamos
k+1
xk+1
= xki + x
bi xki .
i
xk+1
i
n
i1
X
X
1
k+1
bi
= xki +
aij xkj xki .
aij xj
aii
j=i+1
j=1
(4.11)
i1
n
X
X
aii xk+1
= aii xki + bi
aij xk+1
aij xkj ,
i
j
j=1
temos
ou
k+1
(4.14)
1
1
k+1
DL x
=
D + U xk + b,
donde
4.1.4
j=i
1
1
k
DL
D+U x +b .
(4.15)
Compara
c
ao da Velocidade de Converg
encia dos Tr
es M
etodos
A tabela a seguir foi extrada de [Watkins], pags. 533 e 542. Os metodos introduzidos acima foram usados
para resolver o sistema linear Ax = b onde A e a matriz de discretizacao obtida a partir da formula dos
2
cinco pontos do laplaciano no quadrado unitario = (0, 1) e b e estabelecido pela condicao de fronteira de
Dirichlet dada por
0
se x = 0,
y
se x = 1,
g (x, y) =
(x
1)
sen
x
se y = 0,
x (2 x)
se y = 1,
90
d ud = 0
ud = gd
em d ,
sobre d .
u
uk
|uk+1 |2
< 108 .
O n
umero de iteracoes necessarias para convergir de acordo com esta margem de tolerancia, para tres refinamentos possveis da malha (correspondentes a matrizes de dimensoes n = 81, 361 e 1521, respectivamente),
de acordo com cada metodo e para diferentes valores de no caso do metodo SOR e apresentado na tabela
abaixo.
Jacobi
SOR ( = 0.8)
Gauss-Seidel
SOR ( = 1.4)
SOR ( = 1.6)
SOR ( = 1.7)
SOR ( = 1.8)
SOR ( = 1.9)
SOR ( = 2.0)
x = 0.1
299
235
160
67
42
57
86
176
x = 0.05
1090
845
581
262
151
96
89
180
x = 0.025
3908
3018
2082
955
577
412
252
179
Vemos que o metodo de Gauss-Seidel e cerca de duas vezes mais rapido para convergir que o metodo de
Jacobi e que dependendo da escolha de , o metodo SOR pode ser ate dez vezes mais rapido que o metodo
de Gauss-Seidel para a malha mais refinada. Subrelaxamento nao ajuda e para = 2 o metodo SOR e
divergente.
4.1.5
M
etodo de Jacobi Amortecido
O metodo de Gauss-Seidel pode ser sobrerelaxado atraves de um parametro > 1 para obter um metodo
que converge mais rapido.Ja o metodo de Jacobi nao pode em geral ser sobrerelaxado, porque o metodo
obtido nao converge. Ele pode no entanto ser subrelaxado atraves de um parametro < 1 para obter um
metodo convergente, se bem que mais vagaroso. A vantagem de se utilizar um tal metodo e que para certos
valores de ele e um otimo suavizador de erro (em um sentido que sera explicado no proximo captulo),
enquanto que o metodo de Jacobi usual nao possui esta propriedade. Assim, o metodo de Jacobi amortecido
pode ser usado em metodos multigrid (veja o proximo captulo).
Pelo metodo de Jacobi usual obtemos
x
bk+1
=
i
n
X
1
bi
aij xkj
,
aii
j=1
j6=i
e tomamos
ou seja,
k+1
xk+1
= xki + x
bi xki ,
i
n
X
1
k
k
xk+1
=
x
+
aij xkj
i
i
i
aii
xi .
j=1
j6=i
(4.16)
91
n
X
aii xk+1
= aii xki + bi
aij xkj ,
i
j=1
temos
ou
(4.17)
1
1
D xk+1 =
D A xk + b,
donde
1
1
k
x
=
D
DA x +b .
(4.18)
Em contraste com o metodo SOR, que converge em geral para 0 < < 2, o metodo de Jacobi amortecido
converge para 0 < 6 1 (veja a proxima secao).
k+1
4.2
An
alise de Converg
encia dos M
etodos Iterativos Lineares
Os metodos descritos na secao anterior sao casos especiais de uma classe geral de metodos chamados m
etodos
iterativos lineares ou m
etodos de corre
c
ao residual. Um metodo iterativo linear para resolver o sistema
linear
Ax = b
envolve a decomposicao da matriz A na forma
A = B C,
(4.19)
onde B e necessariamente uma matriz invertvel, e entao a resolucao iterativa do sistema de equacoes
Bxk+1 = Cxk + b
ou, mais explicitamente,
(4.20)
xk+1 = B 1 Cxk + b .
DA
DL
1
DL
1
D+U
Para obter uma convergencia rapida, tambem gostaramos que B A e C 0. Deste ponto de vista, o ideal
seria B = A e C = 0 (convergencia em uma iteracao), mas isso viola em geral o criterio que B seja facil
de resolver. Um compromisso e necessario: B deve aproximar A o melhor possvel sem se tornar muito
complicada.
4.2.1
92
Converg
encia dos M
etodos Iterativos Lineares
(4.21)
rk = Ax Axk = f Axk .
(4.22)
O erro algebrico tem interesse puramente teorico (para provar que determinado metodo iterativo converge,
precisamos mostrar que o erro algebrico tende a zero), ja que ele so pode ser calculado uma vez que se
conhece a solucao exata, e se este for o caso obviamente nao ha necessidade de resolver o sistema. Ja o erro
residual pode ser usado como criterio de parada para o metodo iterativo. Como
ek+1 = B 1 Cek .
Observe que
A matriz
B 1 C = B 1 (B A) = I B 1 A.
R = I B 1 A = B 1 C
(4.23)
xk+1 = Rxk + B 1 b.
(4.24)
ek+1 = Rek .
(4.25)
ek = R k e0
(4.26)
0
de modo que o erro converge para 0, independentemente do chute inicial x , se e somente se R 0. Isso
ocorre se e somente se existe alguma norma matricial kk tal que kRk < 1. Obter uma norma matricial
que satisfaz esta propriedade, no entanto, e difcil. Vamos obter uma condicao necessaria e suficiente para
Rk 0 em termos do raio espectral da matriz de iteracao (Corolario 4.5 a seguir), que e em geral um pouco
mais facil de calcular. Antes, para motivar o resultado, suponha que A seja uma matriz diagonalizavel com
1 , . . . , n os seus autovalores e {v1 , . . . , vn } uma correspondente base de autovetores. Escrevendo o erro
inicial como uma combinacao linear dos autovetores, temos
e0 =
n
X
ai vi .
i=1
Logo,
ek = Rk e0 =
n
X
ai ki vi ,
i=1
de modo que
n
k X
k
e 6
|ai | |i | |vi | .
i=1
Como |i | 0 se e somente se |i | < 1, conclumos que ek 0 qualquer que seja o erro inicial (isto e,
qualquer que seja o chute inicial), se e somente se (R) = max16i6n |i | < 1 .
93
(4.27)
Prova. Toda matriz complexa e triangularizavel atraves de uma matriz unitaria (isto e, uma matriz U que
satisfaz U U = U U = I; sua inversa e a sua adjunta ou transposta conjugada). Sejam entao
2 a23 . . . a2n
3 . . . a3n
T =
..
..
.
.
n
uma matriz triangular e U uma matriz unitaria tais que
A = U T U.
Considere a matriz diagonal
Dt =
t2
..
.
tn
Temos
Dt T Dt1
a12 t1
2
a22 t2
a23 t1
3
...
...
...
..
.
...
...
...
a1n tn+1
a2n tn+2
a3n tn+3
..
.
n1
an1,n t1
n
Logo, para t > 0 suficientemente grande, a matriz Dt T Dt1 tem a propriedade que a soma dos valores
absolutos de elementos fora da diagonal principal e menor que . Em particular, se kkL denota a norma do
maximo das somas das linhas, podemos garantir que
Dt T Dt1 6 (A) +
L
94
para t suficientemente grande. Portanto, fixado um tal t, se definirmos uma norma por
teremos
k
A 6 kAkk 0.
4.4 Proposi
c
ao. Seja A Mn (C). Ent
ao
Ak 0
se e somente se
(A) < 1.
Prova. Se existe algum autovalor de A tal que || > 1 e x e um autovetor nao-nulo correspondente, entao
Ak x = k x
nao converge para 0. Reciprocamente, se (A) < 1, entao pelo Lema 4.2 existe uma norma matricial kk tal
que kAk < 1, logo Ak 0 pelo lema anterior.
4.5 Corol
ario. Seja R a matriz de iterac
ao de um metodo iterativo linear. Ent
ao
ek 0
se e somente se
(R) < 1.
Em outras palavras, um metodo iterativo linear e convergente independentemente da escolha do chute
inicial se e somente se todos os autovalores da matriz de iterac
ao tem valor absoluto menor que 1.
4.2.2
Velocidade de Converg
encia dos M
etodos Iterativos Lineares
O raio espectral tambem da informacao sobre a velocidade de convergencia. Se nos tivermos dois metodos
iterativos lineares diferentes, isto e, duas maneiras diferentes de decompor a matriz A:
A = B1 C1 = B2 C2 ,
entao o segundo metodo convergira mais rapido se e somente se
(R2 ) < (R1 ) .
Vamos analisar a velocidade de convergencia dos metodos iterativos com maior precisao. Novamente `a
ttulo de motivacao, suponha que A e uma matriz diagonalizavel com seu maior autovalor sendo um autovalor
simples. Ordene os autovalores de A na forma
|1 | > |2 | > . . . > |n |
95
n
X
ai vi ,
i=1
donde
ek = Rk e0 =
n
X
ai ki vi ,
i=1
segue que
"
ek = k1 a1 x1 +
n
X
ai
i=2
Como
i
1
i
1
#
vi .
k
0,
k+1
e
= |1 | = (R) .
(4.28)
|ek |
Em outras palavras, a convergencia e linear com taxa de convergencia igual ao raio espectral. Se a1 =
0 a convergencia sera mais rapida, pois dependera do modulo do segundo autovalor, mas e obviamente
extremamente raro que o chute inicial satisfaca esta condicao. Para o caso geral, precisamos do seguinte
resultado:
4.6 Proposi
c
ao. Seja A Mn (C) e kk uma norma matricial. Ent
ao
k 1/k
(A) = lim A .
Prova. Como os autovalores da matriz Ak sao as k-esimas potencias dos autovalores de A, temos que
k
(A) = Ak 6 Ak ,
donde
1/k
(A) 6 Ak .
1
A
(A) +
tem raio espectral menor que 1, logo B k 0. Portanto, existe algum N = N (, A) tal que
k
B < 1
ou seja,
k 1/k
A
< (A) +
(4.30)
96
4.7 Corol
ario. Seja R a matriz de iterac
ao de um metodo iterativo linear. Ent
ao a taxa assint
otica de
convergencia do metodo e dada por
R (R) = log10 (R) .
Prova. Pois
(4.31)
1/k
1/k
R (R) = lim log10 Rk
= log10 lim Rk
= log10 (R) .
k
e
=
6 kRk = (R) + ,
|ek |
|Rk e0 |
donde
log10
ou
k+1
e
|ek |
= log10 (R) + O ()
(4.32)
Assim, se
k
e = O 10p ,
k+1
e
= O 10q ,
teremos
q p R (R) ,
isto e, reduzimos R (R) q p casas decimais no erro. Visto de outra forma, como
k+m
k+m 0
e
R
e
m
=
6 kRm k = (R) + O () ,
|ek |
|Rk e0 |
donde
log10
ou
k+m
e
|ek |
m log10 (R) ,
log10 ek+m / ek
m=
log10 (R)
(4.33)
e o n
umero de iteracoes necessarias para diminuir o erro de um n
umero prescrito de casas decimais.
4.2.3
Converg
encia para Matrizes Sim
etricas Positivas Definidas
Para matrizes reais simetricas positivas definidas e mais facil provar a convergencia dos metodos iterativos
lineares. Temos o seguinte resultado basico a seguir. Antes precisamos da seguinte definicao:
Defini
c
ao. Introduzimos uma ordenacao parcial em Mn (C) definindo
A6B
se
hAx, xi 6 hBx, xi
n
para todo x C .
97
Em particular, se A e uma matriz positiva definida, segue que A > I para algum (o menor autovalor de
A) e denotamos este fato por
A > 0.
4.8 Teorema. Seja A uma matriz simetrica positiva definida e seja A = B C com B invertvel. Ent
ao
o metodo iterativo linear com matriz de iterac
ao R = B 1 C converge se e somente se B t + C e uma
matriz simetrica positiva definida.
Prova. Medimos a norma do erro atraves da norma induzida por A
1/2
|x|A := hAx, xi
e consideraremos a norma matricial kkA induzida por esta norma. Se provarmos que
kRkA < 1,
o metodo convergira. Temos
2
kRkA
1 2
t t
B Cx
1 2
AB 1 Cx, B 1 Cx
C B AB 1 Cx, x
A
= B C A = sup
= sup
= sup
.
2
hAx, xi
hAx, xi
|x|A
x6=0
x6=0
x6=0
(4.34)
C t B t AB 1 C = B t A B t AB 1 (B A) = I AB t A I B 1 A
= A AB t A + AB 1 A AB t AB 1 A
= A AB t B + B t A B 1 A
= A B 1 A B + B t A B 1 A
ou
C t B t AB 1 C = A B 1 A B t + C B 1 A,
(4.35)
de modo que C t B t AB 1 C e uma matriz simetrica, positiva definida. Logo, por (4.34), mostrar que
kRkA < 1 e equivalente a provar que
C t B t AB 1 C < A,
t
e por (4.35) C t B t AB 1 C < A se e somente se B 1 A (B t + C) B 1 A > 0, o que e verdade porque B t +C
e positiva definida.
4.3
Converg
encia dos M
etodos Iterativos Lineares para as Matrizes de Discretizac
ao
4.3.1
Converg
encia do M
etodo de Jacobi
4.9 Teorema. Se A e uma matriz irredutvel, diagonalmente dominante tal que |aii | >
n
P
j=1
j6=i
det I 1 R = 0.
98
1
aij
Rij = I D A ij =
se i 6= j,
aii
(
1
se i = j,
1
I R ij =
1 aij
se i 6= j,
aii
1
de modo que, onde A se anula, I 1 R tambem se anula. Alem
disso,1I R e diagonalmente dominante
1
e estritamente dominante nas linhas onde A e, pois || 6 1, I R ii = 1 e
n
n
n
X
||1 X
1 X
|aij | 6
|aij | .
I 1 R ij =
|aii | j=1
|aii | j=1
j=1
j6=i
j6=i
j6=i
Mas, pela Proposicao 3.16, isso implica que I 1 R e invertvel, uma contradicao.
O Teorema 4.8 mostra que o metodo de Jacobi converge para as matrizes de discretizacao obtidas atraves
dos esquemas de diferencas finitas do Captulo 2.
Atraves do Teorema 4.9, fomos capazes de provar a convergencia do metodo de Jacobi para as matrizes de
discretizacao sem calcular explicitamente os seus raios espectrais. Para analizar a velocidade de convergencia
do metodo de Jacobi, no entanto, e necessario obter os raios espectrais destas matrizes. Vamos fazer isso
para as matrizes de discretizacao obtidas a partir da formula de tres pontos unidimensional e a partir da
formula de cinco pontos bidimensional.
4.10 Teorema. Seja A a matriz de discretizac
ao obtida a partir da f
ormula de tres pontos unidimensional
ou a partir da f
ormula de cinco pontos bidimensional com x = y. Seja R = D1 (D A) a matriz
de iterac
ao do metodo de Jacobi. Ent
ao
(R) = cos
.
n
(4.36)
Prova. Para o metodo de Jacobi, a matriz de discretizacao xk+1 = Rxk + D1 b e obtida atraves da formula:
uk+1
i,j =
1 k
ui,j1 + uki,j+1 + uki1,j + uki+1,j .
4
kl
kl
kl
kl
kl
2
ukl
ui,j
i1,j ui+1,j + 4ui,j ui,j1 ui,j+1 = kl x
com
kl =
Da segue que
2
x2
2 cos
k
l
cos
n
n
kl
kl
kl
kl
2
ukl
ui,j
i,j1 + ui,j+1 + ui1,j + ui+1,j = 4 kl x
Logo
para
lk
1 kl
kl
kl
kl
u
+ ukl
i,j+1 + ui1,j + ui+1,j = lk ui,j
4 i,j1
1
1
k
l
1
k
l
= 1 kl x2 = 1
2 cos
cos
=
cos
+ cos
.
4
2
n
n
2
n
n
99
Estes sao os autovalores da matriz de iteracao de Jacobi para a matriz de discretizacao obtida a partir da
formula de cinco pontos (observe que elas possuem os mesmos autovetores; no entanto R possui autovalores
nulos). Segue que o maximo autovalor ocorre quando k = l = 1, logo
(R) = cos
.
n
(4.37)
Vemos em particular que (R) 1 quando x 0, de modo que a velocidade de convergencia do metodo
de Jacobi vai ficando cada vez menor para malhas mais refinadas. Podemos dizer mais usando a expansao
da funcao cosseno em torno da origem
1
cos x = 1 x2 + O x4 ;
2
se x e pequeno podemos aproximar
cos (x) 1
2
x2 ,
2
de modo que (R) 1 quadraticamente quando x 0. Em outras palavras, para uma malha duas vezes
mais refinada (isto e, x reduzido pela metade), o metodo de Jacobi e cerca de quatro vezes mais vagaroso
em media (consulte novamente a tabela no final da secao anterior). A tabela abaixo mostra os valores do
raio espectral para alguns valores de x:
x
(R)
0.1
0.05
0.025
0.9511
0.9877
0.9969
log10 0.1
1
1
=
=
742
log10 (R)
log10 (R)
0.00135
iteracoes.
4.3.2
Converg
encia do M
etodo de Gauss-Seidel
4.11 Teorema. Se A e uma matriz irredutvel, diagonalmente dominante tal que |aii | >
n
P
j=1
j6=i
1 1
D U.
R = I D1 L
(4.38)
100
Suponha por absurdo que exista um autovalor de R tal que || > 1; como na demonstracao do Teorema
4.9, temos
1 1 i
det I 1 R = det I 1 I D1 L
D U = 0.
Agora, observando que
det I D1 L = 1
porque I D1 L e uma matriz triangular inferior com apenas 1s na diagonal principal, escrevemos
h
1 1 i
0 = det I 1 I D1 L
D U
1 1 i
= det I D1 L det I 1 I D1 L
D U
n
1 1 io
= det I D1 L I 1 I D1 L
D U
= det I D1 L 1 D1 U .
Por outro lado,
D1 A = I D1 L D1 U
.
n
(4.39)
Prova. Para obter o raio espectral da matriz de iteracao R, queremos encontrar os autovalores de R:
1
Ru = (D L)
U u = u,
ou seja,
U u = (D L) u
(um problema de autovalor generalizado). No caso da matriz de discretizacao da formula de cinco pontos,
isso significa encontrar tal que
ui,j+1 + ui+1,j = (4ui,j ui,j1 ui1,j ) .
(4.40)
i+j
2
vi,j
(4.41)
101
para transformar a equacao de autovalor naquela que aparece no metodo de Jacobi. Temos
i+j
i+j+1
i+j+1
i+j1
i+j1
2 vi,j + 2 vi+1,j = 4 2 vi,j 2 vi,j1 2 vi1,j
= 4
de modo que, dividindo por
i+j+1
2
i+j+2
2
vi,j
i+j+1
2
vi,j1
i+j+1
2
vi1,j ,
, obtemos
2
1
k
l
lk =
cos
+ cos
.
4
n
n
Portanto, o maximo autovalor ocorre quando k = l = 1 e
(R) = cos2
.
n
2
1
cos2 x = 1 x2 + O x4
= 1 x2 + O x4 ,
2
log (1 + x) = x + O x2 .
Segue que
2
x2 + O x4 ,
2
R (RGauss-Seidel ) = 2 x2 + O x4 .
R (RJacobi ) =
4.3.3
Converg
encia do M
etodo SOR
1 1
1
1
1
1
DL
D+U =
D I D L
D+U
R=
1
1
D1
= I D1 L
D+U
(4.42)
(4.43)
102
R = I D1 L
(1 ) I + D1 U .
(4.44)
= det I D1 L
det (1 ) I + D1 U
n
= (1 ) ,
det R = det
1 . . . n = (1 ) .
Em particular, pelo menos um dos autovalores j de R deve satisfazer
|j | > |1 | .
Mas, se o metodo SOR converge, devemos ter tambem || < 1 para todo autovalor de R. Logo
|1 | < 1,
donde
0 < < 2.
4.14 Corol
ario. Se R e a matriz de iterac
ao n n para o metodo SOR, ent
ao
n
det R = (1 ) .
Em particular, diferente das matrizes de iteracao dos metodos de Jacobi e de Gauss-Seidel (para a matriz de
discretizacao de cinco pontos), zero nao e um autovalor para a matriz de iteracao do metodo SOR se 6= 1
(para nenhuma matriz).
4.15 Teorema. Se A e uma matriz irredutvel, diagonalmente dominante tal que |aii | >
n
P
j=1
j6=i
R = I D1 L
(1 ) I + D1 U .
Suponha por absurdo que exista um autovalor de R tal que || > 1; temos
n
1
o
(1 ) I + D1 U
= 0.
det I 1 R = det I 1 I D1 L
Agora, observando que
det I D1 L = 1
103
porque I D1 L e uma matriz triangular inferior com apenas 1s na diagonal principal, escrevemos
n
1
o
0 = det I 1 I D1 L
(1 ) I + D1 U
1
o
= det I D1 L det I 1 I D1 L
(1 ) I + D1 U
h
n
1
oi
= det I D1 L I 1 I D1 L
(1 ) I + D1 U
= det I D1 L 1 (1 ) I + D1 U
= det 1 1 (1 ) I D1 L 1 D1 U .
Por outro lado, como vimos na demonstracao do Teorema 4.11, a matriz
D1 A = I D1 L D1 U
e irredutvel, diagonalmente dominante e estritamente dominante nas linhas onde A e, logo a matriz
S = 1 1 (1 ) I D1 L 1 D1 U
tambem satisfaz estas propriedades. De fato, S tem zeros nas mesmas posicoes que I D1 L D1 U , logo
a sua irredutibilidade nao e afetada. Alem disso, pela dominancia diagonal de D1 A, sabemos que se
bij = D1 L ij ,
cij = D1 U ij .
entao
1>
i1
X
|bij | +
j=1
n
X
|cij | .
j=i+1
Para provar a dominancia diagonal de S, observamos que os valores que S possui na diagonal principal sao
1 1 (1 ) = 1
1
+1
=
,
n
i1
X
+ 1
X
>
|cij |
|b
|
+
ij
|| j=i+1
j=1
se 0 < 6 1 e || > 1. Provaremos que
+ 1
> ,
+ 1
> .
||
Para isso, observe que como || > 1 basta provar a primeira desigualdade, a qual por sua vez e equivalente a
| + 1| > || .
facil ver que esta desigualdade e valida quando R, pois
E
| + 1| = + 1 >
porque
1 > = ( 1) .
104
| + 1| = | (1 )| = || 2 (Re ) (1 ) + (1 )
2
> || 2 || (1 ) + (1 ) = [|| (1 )]
2
= [|| + 1] > || 2 .
O resultado acima continua valendo com desigualdade estrita nas linhas onde a desigualdade e estrita. A
Proposicao 3.16 implica entao que S e invertvel, contradizendo det S = 0.
4.16 Teorema. Seja A uma matriz simetrica positiva definida. Ent
ao o metodo SOR converge se 0 < < 2.
Prova. Usaremos o Teorema 4.8. Escrevendo A = D L U , temos Lt = U porque A e simetrica e as
entradas diagonais de D positivas porque A e positiva definida. Para o metodo SOR temos
B=
1
DL
C=
1
D + U,
logo
2
1
1
D Lt +
D+U =
D
ao o metodo SOR
4.17 Teorema. Seja A uma matriz simetrica com entradas diagonais positivas. Ent
converge se e somente se A e positiva definida e 0 < < 2.
Prova. Assuma que A e positiva definida e que 0 < < 2. Seja
R = I D1 L
(1 ) I + D1 U
a matriz de iteracao do metodo SOR. Se e um autovalor de R e x um autovetor associado, temos Rx = x,
donde
(1 ) I + D1 U x = I D1 L x.
Fazendo o produto interno canonico (hermitiano) de Cn de ambos os lados com o vetor x, segue que
(1 ) hx, xi + x, D1 U x = hx, xi x, D1 Lx
Isolando ,
(1 ) hx, xi + x, D1 U x
=
.
hx, xi hx, D1 Lxi
(4.45)
t
x, D1 U x = D1 U x, x = D1 L x, x = hx, (D1 L) xi,
1
x, D L x
z=
,
hx, xi
105
podemos escrever
(1 ) + z
.
1 z
Os argumentos acima assumem que o denominador e nao-nulo. E, de fato, temos
1 !
x, D1 L x
x, D U x
1
1
1 x, D1 L + D1 U x
Re z = (z + z) =
+
=
2
2
hx, xi
hx, xi
2
hx, xi
x, D1 A x
1 x, I D1 A x
1
=
=
1
.
2
hx, xi
2
hx, xi
=
(4.46)
1
.
2
de modo que a parte real do denominador 1 z de e nao-nula para 0 < < 2. Segue que
Re z <
|| = =
[(1 ) + z] [(1 ) + z]
(1 ) + 2 (1 ) Re z + 2 |z|
=
2
(1 z) (1 z)
1 2 Re z + 2 |z|
2 2 2 Re z 2 + 4 Re z + 1 2 Re z + 2 |z|
1 2 Re z + 2 |z|
(2 ) (1 2 Re z)
=1
2 .
1 2 Re z + 2 |z|
1
, temos
2
(2 ) (1 2 Re z) > 0,
e conclumos que
|| < 1
para todo autovalor de R, logo o metodo SOR converge. A demonstracao da recproca (assim como uma
demonstracao alternativa, variacional, deste teorema) pode ser vista em [Young].
Usando o Teorema 4.15, conclumos que o metodo SOR converge para as matrizes de discretizacao obtidas
atraves dos esquemas de diferencas finitas do Captulo 2 se 0 < 6 1. Isso permite apenas subrelaxamento
do metodo de Gauss-Seidel, o que em geral reduz a velocidade de convergencia. Por outro lado, usando o
Teorema 4.16 ou o Teorema 4.17, conclumos que o metodo SOR converge para as matrizes de discretizacao
obtidas a partir da formula de tres pontos unidimensional e a partir da formula de cinco pontos bidimensional
se 0 < < 2, ja que estas sao matrizes simetricas, positivas definidas (ja as matrizes de discretizacao obtidas
atraves de coordenadas polares ou pelo esquema de Shortley-Weller nao sao simetricas, em geral, como
vimos).
Em seguida fazemos uma analise da velocidade de convergencia do metodo SOR para a matriz de discretizacao da formula de cinco pontos, bem como obtemos o melhor valor do fator de relaxamento para
este caso.
ao obtida a partir da f
ormula de tres pontos unidimensional ou
4.18 Lema. Seja A a matriz de discretizac
a partir da f
ormula de cinco pontos bidimensional com x = y. Se 6= 0 e um autovalor de RSOR ,
ent
ao existe um autovalor J de RJ tal que
J =
1
.
1/2 2
(4.47)
106
RSOR u = I D1 L
(1 ) I + D1 U u = u,
ou seja,
(1 ) I + D1 U u = I D1 L u
No caso da matriz de discretizacao da formula de cinco pontos, isso significa encontrar tal que
1
1
ui,j = (ui,j+1 + ui+1,j + ui,j1 + ui1,j ) .
Fazendo a substituicao
ui,j =
e dividindo por
i+j+1
2
i+j
2
(4.48)
vi,j
, segue que
vi1,j + vi+1,j + vi,j1 + vi,j+1 =
1
4vi,j
1/2
e da o resultado.
p 2
Resolvendo a equacao (4.47) como uma equacao quadratica em , vemos que as duas razes =
q
1
(4.49)
J 2 2J 4 ( 1) .
=
4
Denotaremos
,J = max (|+ | , | |)
(4.50)
(4.51)
1
2
2
= J + J 4 ( 1) .
4
107
onde i = 1, logo
2 r
q
h
i 2
2
2
,J = J + 2 J 4 ( 1) = 2 2J + 4 ( 1) 2 J
= 1,
e novamente ,J e uma funcao crescente de J .
Defina
2
q
otimo =
.
2
1 + 1 J
(4.52)
Note que 1 < otimo < 2. Mostraremos que otimo e de fato o melhor valor para o fator de relaxamento no
metodo SOR. Antes precisamos do seguinte resultado:
4.20 Proposi
c
ao. Seja A a matriz de discretizac
ao obtida a partir da f
ormula de tres pontos unidimensional
ou a partir da f
ormula de cinco pontos bidimensional com x = y. Ent
ao
q
2
1
2
2 4 ( 1)
+
se 0 < 6 otimo ,
J
J
(4.53)
(RSOR, ) =
4
1
se otimo 6 < 2.
2
Prova. Temos 2 J 4 ( 1) > 0 para 0 < < 2 se e somente se 6 otimo . De fato, as razes de
2
f () = 2 J 4 + 4 sao
q
2
q
4 4 1 J
2
2
=
=
1
J
2
2
2J
J
de modo que a raiz positiva de f e maior que 2, logo para que f () > 0 se 0 < < 2, devemos ter
q
1
J
2
2
2
2
q
q
6 2 1 1 J = 2
=
.
2
J
J 1 + 1 2
1
+
1
J
J
O resultado segue entao como na demonstracao da proposicao anterior.
ao obtida a partir da f
ormula de tres pontos unidimensional
4.21 Teorema. Seja A a matriz de discretizac
ou a partir da f
ormula de cinco pontos bidimensional com x = y. Ent
ao o fator de relaxamento
2
1 + sen
e o fator de relaxamento
otimo para o metodo SOR.
2
q
J
2
2
J + J 4 ( 1) =
q
2
2
2 J 4 ( 1) + J 2
q
.
2
2 J 4 ( 1)
(4.54)
108
2
2
J 2 > J 2 J 4 ( 1),
pois
2
4
2
4
2
2
4
2
2
J 2 = 2 J 4J + 4 > 2 J 4J + 4J > 2 J 4J ( 1)
q
2
2
= J 2 J 4 ( 1) .
Isso implica
q
d
2
2
J + J 4 ( 1) < 0,
d
logo (RSOR, ) e decrescente de 0 ate otimo . Para otimo 6 < 2, (RSOR, ) = 1 e claramente
crescente. Portanto, (RSOR, ) atinge o seu mnimo em otimo .
Pelo Teorema 4.10, temos
J = cos ,
n
logo
2
2
2
r
q
otimo =
=
=
.
2
1
+
sen
2
1 + 1 J
1 + 1 cos
n
n
2
1 + sen (x)
2
1 sen (x)
1=
.
1 + sen (x)
1 + sen (x)
e usando
1x
= 1 2x + O x2 ,
1+x
sen x = x + O x3 ,
se x e pequeno podemos aproximar
1 sen (x)
1 2x + O x2 .
1 + sen (x)
Portanto, usando o valor otimo de no metodo SOR, temos (R) 1 linearmente quando x 0, um
resultado muito melhor que o obtido nos metodos de Jacobi e de Gauss-Seidel. Para uma comparacao mais
precisa, usando
log (1 + x) = x + O x2
temos que
Segue que
R (RSOR ) = 2x + O x2 .
(4.55)
R (RSOR )
2x
2
2 2 =
.
R (RGauss-Seidel )
x
x
Em particular, se x = 0.025, temos otimo = 1. 8545 e R (RSOR ) /R (RGauss-Seidel ) = 25.5, isto e, o
metodo SOR e 25 vezes mais rapido que o metodo de Gauss-Seidel. Quanto mais refinada a malha, maior e
a diferenca na velocidade de convergencia entre os dois metodos.
4.3.4
109
Converg
encia do M
etodo de Jacobi Amortecido
RJ, =
1
D
1
DA
= D1
1
DD+DA
= D1
1
D D + D1 (D A)
donde
RJ, = (1 ) I + RJ .
(4.56)
Em particular,
RJ v = v
se e somente se
[RJ, (1 ) I] v = v.
Portanto, J e um autovalor de RJ se e somente se
J, = J + 1
(4.57)
e um autovalor de RJ, . Logo, se todo autovalor de RJ satisfaz |J | < 1 (isto e, (RJ ) < 1 equivalente ao
metodo de Jacobi convergir) e < 1, ent
ao
2
|J, | = (J + 1 ) J + 1
2
= 2 |J | + 2 Re J (1 ) + (1 )
2
6 2 |J | + 2 |J | (1 ) + (1 )
= ( |J | + 1 )
< 1.
Segue do Teorema 4.8 que o metodo de Jacobi amortecido converge para as matrizes de discretizacao do
Captulo 2 se 0 < 6 1.
4.23 Corol
ario.
(RJ, ) = [ (RJ ) 1] + 1.
(4.58)
log (1 + x) = x + O x2 ,
(4.59)
110
2
x2 + O x4 ,
2
2
x2 .
2
Vemos que a velocidade de convergencia do metodo de Jacobi amortecido e da mesma ordem que a do metodo
de Jacobi, um pouco pior para valores de proximos de 1 e muito pior para valores de proximos de 0.
R (RJ, )
4.3.5
Resumo
Metodo
(R)
R (R)
x2 + O x4
2
2 x2 + O x4
2x + O x2
2
Jacobi
cos (x)
Gauss-Seidel
SOR otimo
Jacobi amortecido
4.4
cos2 (x)
1 2x + O x2
1
2
x2 + O x4
2
2
x2 + O x4
2
M
etodo do Gradiente Conjugado
Nesta secao, A sera sempre uma matriz real simetrica, positiva definida. Neste caso, a resolucao do sistema
Ax = b e equivalente `a resolucao de um problema de minimizacao de um funcional quadratico:
4.24 Teorema. (Metodo Variacional para a Resolucao de Sistemas Lineares) Seja A Mn (R) uma matriz
simetrica positiva definida e b Rn . Ent
ao a soluca
o do sistema
Ax = b
e o u
nico ponto x que minimiza o funcional quadr
atico
f (y) =
1 t
y Ay y t b.
2
(4.60)
Prova: Uma matriz simetrica positiva definida e invertvel, logo existe uma u
nica solucao x para o sistema
Ax = b. Para provar o teorema, comecamos observando que, como y t Ax R e um escalar, temos
t
y t Ax = y t Ax = xt At y = xt Ay.
Da,
f (y) f (x) =
=
=
=
=
1 t
1
y Ay y t b xt Ax + xt b
2
2
1
1 t
t
y Ay y Ax xt Ax + xt Ax
2
2
1 t
1
t
y Ay y Ax + xt Ax
2
2
1 t
1 t
1
1
y Ay y Ax xt Ay + xt Ax
2
2
2
2
1 t
1
y A (y x) xt A (y x)
2
2
111
ou
f (y) f (x) =
1
t
(y x) A (y x) .
2
(4.61)
(y x) A (y x) = hA (y x) , (y x)i > 0
e
(y x) A (y x) = 0
se e somente se y = x. Portanto,
f (y) > f (x)
para todo y 6= x e o mnimo de f ocorre em x.
Em muitos problemas, o funcional f tem significado fsico, correspondente a um funcional de energia que
quando e minimizado corresponde a um estado de equilbrio do sistema. Observe que definindo um produto
interno a partir da matriz simetrica positiva definida A da maneira usual por hv, wiA = v t Aw e considerando
1/2
a norma induzida kvkA = hv, viA , o funcional f pode ser escrito na forma
f (y) =
1
hy, Ayi hy, Axi
2
(4.62)
ou
1
2
kykA hy, xiA .
(4.63)
2
Outra maneira de enxergar o resultado do teorema anterior e observar que o gradiente do funcional f e
f (y) =
f (y) = Ay b.
(4.64)
4.4.1
M
etodos de Descida
A filosofia dos metodos de descida e comecar com um chute inicial x0 e gerar uma seq
uencia de iterados
x1 , x2 , . . . , xk , . . . que satisfazem
f xk+1 6 f xk
ou, melhor ainda,
f xk+1 < f xk
112
A escolha de k e tambem chamada uma busca na reta, ja que queremos escolher um ponto na reta
k
x + pk : R
tal que
f xk + pk 6 f xk .
f xk+1 = f xk + k pk = min f xk + pk
R
Esta e chamada uma busca na reta exata. Para funcionais quadraticos, a busca na reta exata e trivial e
obtemos uma formula para o valor de k , como veremos a seguir. Denotaremos o resduo em cada iteracao
por
rk = b Axk .
(4.65)
4.25 Proposi
c
ao. Seja k R tal que
f xk + k pk = min f xk + pk .
R
Ent
ao
k k
p ,r
= k
k =
.
t
k
k
hp , Apk i
(p ) Ap
k t k
p r
(4.66)
g () = f xk + pk .
k
k t
1 k t
1 k t
2 k t k
k
k
=f x +
p Ax +
p Ax p b +
p Ap
2
2
2
t
2 k t k
= f xk pk Ark +
p Ap ,
2
g () =
a dire
caode busca de forma a
nao ser ortogonal a rk . Se esta escolha e feita, entao teremos sempre f xk+1 < f xk .
Exemplo 1. (Metodo de Gauss-Seidel) Considere o metodo de descida em que as primeiras n direcoes de
busca p1 , . . . , pn sao os vetores e1 , . . . , en da base canonica de Rn , e isso e repetido a cada n iteracoes,
de modo que pk+n = ek para todo k = 1, . . . , n, com uma busca na reta exata executada em cada
iteracao. Entao cada grupo de n iteracoes corresponde a uma iteracao do metodo de Gauss-Seidel.
Exemplo 2. (Metodo SOR) Usando as mesmas direcoes de busca do exemplo anterior, mas com xk+1 =
xk + k pk , 6= 1, obtemos um metodo de descida em que as buscas nas retas sao inexatas. Cada
grupo de n iteracoes corresponde a uma iteracao do metodo SOR.
4.4.2
113
M
etodo da Descida Mais Acentuada
Do Calculo Diferencial, sabemos que a direcao em que a funcao cresce a uma taxa mais rapida a partir de
um ponto e a direcao do gradiente neste ponto. Esta observacao e a base da escolha da direcao de busca no
metodo da descida mais acentuada. Em outras palavras, escolhemos
pk = f xk = b Axk
ou
pk = rk .
(4.67)
Buscar na direcao da descida mais acentuada e uma ideia natural, mas que na pratica nao funciona sem
modificacoes. De fato, em alguns casos o metodo e de velocidade comparavel `a do metodo de Jacobi, como
na matriz de discretizacao da formula de cinco pontos aplicada ao problema descrito na primeira secao deste
captulo [Watkins]:
Jacobi
Descida Mais Acentuada
x = 0.1
299
304
x = 0.05
1090
1114
x = 0.025
3908
4010
De fato, como as iteracoes do metodo de descida mais acentuada sao bem mais custosas que as do metodo
de Jacobi, o primeiro e muito pior que este u
ltimo.
Para entender melhor o metodo da descida mais acentuada, porque ele pode ser lento e as modificacoes que
vamos fazer para torna-lo mais rapido levando ao metodo do gradiente conjugado, vamos entender o processo
do ponto de vista geometrico. Como vimos na demonstracao do Teorema 4.24, o funcional quadratico f e
da forma
1
t
f (y) = (y x) A (y x) + c
(4.68)
2
onde c = f (x) = 12 xt Ax xt b e uma constante. Ja que A e uma matriz simetrica, existe uma matriz
ortogonal P tal que P t AP e uma matriz diagonal D , cujos valores na diagonal principal sao exatamente os
autovalores positivos de A. Nas coordenadas
z = P t (y x) ,
o funcional f tem a forma
1
1X
f (z) = z t Dz + c =
i zi2 + c.
2
2 i=1
(4.69)
As curvas de nvel do funcional f neste sistema de coordenadas sao elipses (em R2 , elipsoides em R3 e
hiperelipsoides em Rn ) centradas na origem com eixos paralelos aos eixos coordenados e f (0) = c e nvel
mnimo de f ; elipses correspondentes a menores valores de f estao dentro de elipses correspondentes a
maiores valores de f . Como P e uma aplicacao ortogonal, as curvas de nvel de f no sistema de coordenadas
original tambem sao elipses, centradas em x, e uma reta de um ponto y ate o ponto x corta elipses de nveis
cada vez menores ate chegar ao mnimo da funcao f em x, centro de todas as elipses. O vetor gradiente e
perpendicular `as curvas de nvel, logo e perpendicular `as elipses. Seguir a direcao de descida mais acentuada
equivale a cortar a elipse que contem xk ortogonalmente na direcao do interior da elipse ate encontrar um
ponto xk+1 situado em uma elipse que a reta tangencie, pois a partir da a reta ira na direcao de elipses com
nveis maiores, portanto este e o ponto da reta onde f atinge o seu mnimo. Em particular, vemos que a
proxima direcao pk+1 e ortogonal `a direcao anterior pk , tangente a esta elipse. Em geral, a direcao de descida
mais acentuada nao e a direcao de x (quando bastaria uma iteracao para atingir a solucao exata) a nao ser
que A seja um m
ultiplo escalar da identidade, de modo que todos os autovalores de A sao iguais e as elipses
sao crculos. Por outro lado, se os autovalores de A tem valores muito diferentes uns dos outros, com alguns
muito pequenos e alguns muito grandes, as elipses serao bastante excentricas e, dependendo do chute inicial,
114
a convergencia pode ser muito lenta (matrizes com estas propriedades sao chamadas mal-condicionadas; para
que o metodo de descida acentuada seja lento, a matriz A nao precisa ser muito mal-condicionada).
Como vimos na secao anterior, os algoritmos de Gauss-Seidel e SOR podem ser encarados como algoritmos
de descida. A discussao no paragrafo anterior tambem pode ser usada para entender a relativa lentidao destes
algoritmos.
4.4.3
M
etodo do Gradiente Conjugado
Todos os metodos iterativos que vimos neste captulo sao limitados pela sua falta de memoria, no sentido de
que apenas informacao sobre xk e usada para obter xk+1 . Toda a informacao sobre as iteracoes anteriores e
deletada. O metodo do gradiente conjugado e uma variacao simples do metodo da descida mais acentuada
que funciona melhor porque a informacao obtida atraves das iteracoes anteriores e utilizada.
Para entender brevemente como isso funciona, observe que depois de j iteracoes xk+1 = xk + k pk de
um metodo de descida temos
xj = x0 + 0 p0 + 1 p1 + . . . + j1 pj1 ,
de modo que xj esta no subespaco afim gerado pelo chute inicial x0 e pelos vetores p0 , p1 , . . . , pj1 .
Enquanto o metodo da descida mais acentuada minimiza o funcional de energia
f apenas ao longo das j
retas xk + k pk , cuja uniao constitui apenas um pequeno subconjuntode x0 + p0 , p1 ,. . . , pj1 , o metodo
do gradiente conjugado minimiza f sobre todo o subespaco afim x0 + p0 , p1 , . . . , pj1 .
Para definir as direcoes de busca do metodo do gradiente conjugado (que e, antes de mais nada, um
metodo de descida), lembramos que o funcional f foi escrito na forma
f (y) =
1
2
kykA hy, xiA .
2
Defina o erro
e = x y.
(4.70)
1
1
2
2
kekA kxkA .
2
2
Conseq
uentemente, minimizar o funcional f e equivalente a minimizar a A-norma do erro.
Agora, em um metodo de descida, depois de j iteracoes temos:
ej = x xj = x x0 0 p0 + 1 p1 + . . . + j1 pj1
= e0 0 p0 + 1 p1 + . . . + j1 pj1 .
2
Logo, minimizar ej A e equivalente a minimizar
0
e 0 p0 + 1 p1 + . . . + j1 pj1 ,
A
f (y) =
(4.71)
o que por sua vez e equivalente a encontrar a melhor aproximacao do vetor e0 no subespaco Wj = p0 , p1 , . . . , pj1 .
Esta e dada pelo lema da melhor aproximacao:
115
4.26 Proposi
c
ao. Sejam A Mn (R) uma matriz simetrica positiva definida, v Rn e W um subsespaco
n
de R . Ent
ao existe um u
nico w W tal que
kv wkA = min kv zkA .
zW
ek+1 A pk .
Prova: Temos
k+1
,p
= rk+1 , pk k Apk , pk = rk , pk
(4.73)
k k
k k
p ,r
Ap , p = 0.
k
k
hp , Ap i
Aek+1 = rk+1 ,
k+1 k
e
, p A = Aek+1 , pk = rk+1 , pk = 0.
O significado geometrico deste resultado e que o mnimo do funcional f na reta xk + k pk ocorre quando a
derivada direcional de f na direcao de busca e zero, ou seja,
0=
f k+1
x
= f xk+1 , pk = rk+1 , pk .
pk
De acordo com a Proposicao 4.27, depois do primeiro passo temos e1 A p0 . Para manter os erros
subseq
uentes conjugados a p0 , como
ek+1 = x xk+1 = x xk k pk
116
ek+1 = ek k pk ,
(4.74)
0
para todos i 6= j.
e = min e0 p ,
A
A
pWj
onde Wj = p0 , p1 , . . . , pj1 .
Prova: A demonstracao e por inducao. Para j = 1, temos e1 A p0 pela Proposicao 4.27 porque a busca
na reta e exata. Em seguida, assuma ej A pi para i = 1, . . . , j 1; queremos mostrar que ej+1 A pi
para i = 1, . . . , j. Como
ej+1 = ej j pj ,
para i = 1, . . . , j 1 temos
j+1 i
e , p A = ej j pj , pi A = ej , pi A j pj , pi A = 0 0 = 0
porque as direcoes de busca sao conjugadas. ej+1 A pj segue novamente da Proposicao 4.27.
Quando a direcao inicial e dada pelo vetor gradiente de f , como na primeira iteracao do metodo da descida
mais acentuada, obtemos o m
etodo do gradiente conjugado. As direcoes subseq
uentes sao escolhidas
atraves de A-ortogonalizar o resduo (ou vetor gradiente de f , que e a direcao de busca em cada iteracao
do metodo da descida mais acentuada) com todas as direcoes de busca anteriores, para isso utilizando o
algoritmo de Gram-Schmidt. Assim, dado um chute inicial p0 , a primeira direcao e
p0 = f x0 = b Ax0 = r0
ou seja, a direcao inicial e o primeiro resduo:
p0 = r0 .
(4.75)
k
X
cki pi
(4.76)
i=0
(4.77)
de forma que pk+1 A pi para todos i = 1, . . . , k. Felizmente, como veremos a seguir depois de algum trabalho
preliminar (Corolario 4.32), cki = 0 para todo i exceto i = k, o que torna necessario que apenas a direcao
117
de busca mais recente pk seja armazenada na memoria do computador, o que garante que a implementacao
do gradiente conjugado e eficiente:
k+1 k
k+1
r
,p A k
r
, Apk k
k+1
k+1
k+1
p
=r
p =r
p .
(4.78)
hpk , pk iA
hpk , Apk i
Esta e a modificacao do metodo do gradiente conjugado em relacao ao metodo da descida mais acentuada,
em que pk+1 = rk+1 .
co de Krylov Kj (A, v) e o subespaco
Defini
ao. Dada uma matriz A Mn (C) e um vetor v Cn , o espa
c
v, Av, . . . , Aj1 v .
4.29 Teorema. Depois de j iteraco
es do algoritmo do gradiente conjugado (com rk 6= 0 em cada iterac
ao),
temos
0 1
p , p , . . . , pj1 = r0 , r1 , . . . , rj1 = Kj A, r0 .
Prova: A demonstracao e por inducao. O resultado e trivial para j = 0, pois p0 = r0 . Assuma o resultado
valido para j 1. Em primeiro lugar, mostraremos que
0 1
(4.79)
r , r , . . . , rj Kj+1 A, r0 .
j1
Em vista da
hipotese de indu
cao,
basta mostrar que rj Kj+1 A, r0 . Como rj = rj1 j1 Ap
e
j1
0
0
j1
0
r
Kj A, r Kj+1 A, r por hipotese de indu
c
a
o,
basta
provar
que
Ap
K
A,
r
.
Mas,
j+1
p , p , . . . , pj r0 , r1 , . . . , rj .
(4.80)
Por hipotese de inducao, basta provar que pj r0 , r1 , . . . , rj . Isso segue de (4.76) e da hipotese de inducao.
Ate aqui provamos que
0 1
p , p , . . . , pj r0 , r1 , . . . , rj Kj+1 A, r0 .
(4.81)
Para provar que eles sao iguais, basta mostrar que eles tem a mesma dimensao. Isso decorre de
dim r0 , r1 , . . . , rj 6 j + 1,
dim Kj+1 A, r0 6 j + 1
e
dim p0 , p1 , . . . , pj = j + 1,
ou
ltimo porque os vetores p0 , p1 , . . . , pj s
ao vetores nao-nulos A-ortogonais.
4.30 Corol
ario. Depois de j iterac
oes do algoritmo do gradiente conjugado, temos
ej A Kj A, r0
para todo j.
Prova: Segue imediatamente do teorema anterior e do Teorema 4.28.
118
4.31 Corol
ario. Depois de j iterac
oes do algoritmo do gradiente conjugado, temos
rj Kj A, r0
para todo j.
Prova: Em vista do Teorema 4.29, basta provar que rj p0 , p1 , . . . , pj1 para todo j. Como Aej+1 = rj+1 ,
j+1 i j+1 i j+1 i
r , p = Ae , p = e , p A = 0
para todo i = 1, . . . , j 1, como vimos na demonstracao do Teorema 4.28.
4.32 Corol
ario. cki = 0 para todo i = 1, . . . , k 1.
Prova: Temos que provar que
k+1 i
r
, p A = rk+1 , Api = 0
n = 81
304
29
n = 361
1114
60
n = 1521
4010
118
2n
= cot2
2 2
= cot2
2n
2
x
sen2
2n
sen2
(A) =
119
p
(A) 1
(A) + 1
1 x/2
1 x,
1 + x/2
o que da uma velocidade de convergencia para o metodo do gradiente conjugado duas vezes maior que a
do metodo SOR com o fator de relaxamento otimo. No entanto, deve-se ter em mente que enquanto que a
taxa de covergencia que obtivemos para o metodo SOR e precisa, a estimativa de erro (4.83) para o metodo
do gradiente conjugado e apenas um limitante superior grosseiro (veja [Watkins] para algumas estimativas
melhoradas).
Captulo 5
M
etodos Multigrid
5.1
Suavizac
ao de Erros
5.2
Operador Restric
ao e Operador Extens
ao
5.3
Ciclos V
5.4
Multigrid Completo
5.5
Converg
encia
5.6
Multigrid Adaptativo
5.7
Multigrid Alg
ebrico
120
Captulo 6
M
etodo de Elementos Finitos
O metodo de elementos finitos e um outro metodo de discretizacao de equacoes diferenciais parciais baseado
na reformulacao variacional da equacao. Por exemplo, como ja vimos exemplos, encontrar a solucao u de
uma equacao diferencial parcial dada e equivalente a resolver um problema de minimizacao
F (u) = min F (v)
vV
6.1
O Caso Unidimensional
Nesta secao, desenvolveremos metodos de elementos finitos para resolver o problema de Dirichlet para a
equacao de Poisson em uma dimensao
u00 = f (x)
em [0, 1] ,
(6.1)
u (0) = u (1) = 0,
onde f e uma funcao contnua.
6.1.1
Formula
c
ao Variacional
1
2
1
0
Z
2
|v 0 (x)| dx
f (x) v (x) dx =
0
1 0
kv kL2 hf, viL2 .
2
(6.2)
(6.3)
Veremos agora que uma solucao para o problema de Dirichlet (6.1), que sabemos existir por integracao
simples, e solucao tanto de um problema de minimizacao como de um problema variacional.
121
122
6.1 Proposi
c
ao. (Problema Variacional) Se u V e uma soluc
ao do problema (6.1), ent
ao u e a soluc
ao
u
nica do problema variacional
hu0 , v 0 iL2 = hf, viL2
Prova. Multiplicando a equacao
para todo v V.
(6.4)
u (x) v (x) dx =
f (x) v (x) dx.
0
Portanto,
Z
u0 (x) v 0 (x) dx =
u0 (x) v 0 (x) dx =
F (v) = F (u + w) =
g (t) =
123
Como u e um ponto de mnimo para F , 0 e um ponto de mnimo para g, logo g 0 (0) = hu0 , v 0 i hf, viL2 = 0.
6.1.2
Vamos agora construir um subespaco Vh de dimensao finita de V consistindo das funcoes lineares por partes
em [0, 1]. Seja
0 = x0 < x1 < x2 < . . . < xn < xn+1 = 1
uma particao do intervalo [0, 1] em n+1 subintervalos Ij = [xj1 , xj ] de comprimento hj = xj xj1 . Defina
Vh = {v V : v e linear em Ij para j = 0, . . . , n} .
(6.6)
Observe que para descrever uma funcao v Vh e suficiente conhecer os n valores v (x1 ) , . . . , v (xn ). Introduzimos uma base B = {1 , . . . , n } Vh para Vh declarando
1
se i = j,
(6.7)
j (xi ) =
0
se i 6= j,
(note que como estas funcoes sao nao-negativas, esta base e evidentemente nao-ortogonal). Assim as funcoes
v de V tem a representacao
v = v (x1 ) 1 + . . . + v (xn ) n .
(6.8)
As funcoes 1 , . . . , n sao chamadas func
oes base. Note que dim Vh = n. Observe que estas funcoes tem
suporte compacto, e que o suporte esta contido em dois subintervalos adjacentes.
Se uh Vh satisfaz o problema variacional
hu0h , v 0 iL2 = hf, viL2
entao em particular
0 0
uh , j L2 = hf, j iL2
para todo v Vh ,
para todo j = 1, . . . , n.
(6.9)
(6.10)
Escrevendo
uh = uh (x1 ) 1 + . . . + uh (xn ) n
ou
uh = u1 1 + . . . + un n ,
(6.11)
para j = 1, . . . , n.
(6.12)
i=1
A matriz do sistema
..
..
A=
(6.13)
.
.
0
0
0
0
hn , 1 iL2 . . . hn , n iL2
0 0
hf, 1 iL2
..
b=
.
hf, n iL2
124
e chamado o vetor de carga, terminologia emprestada das primeiras aplicacoes do metodo de elementos
finitos em mecanica de estruturas; o metodo foi inventado por engenheiros para tratar de tais problemas na
decada de 1950. As entradas da matriz de rigidez podem ser facilmente calculados. Primeiro observe que
0 0
i , j L2 = 0 se |i j| > 1,
porque, neste caso, onde 0i nao se anula, 0j se anula, e vice-versa. Em particular, segue que a matriz A
e uma matriz esparsa tridiagonal. A escolha especial de Vh e das funcoes base garantiu a esparsidade da
matriz de rigidez. Os elementos da diagonal principal da matriz de rigidez sao dados por
Z xi+1
Z xi
Z xi+1
1
1
1
1
2
0i (x) dx =
h0i , 0i iL2 =
dx
+
dx =
+
,
2
h2i+1
hi
hi+1
xi1
xi1 hi
xi
enquanto que os elementos das diagonais secundarias sao dados por
Z xi+1
Z xi+1
0 0
1
1
1
i , i+1 L2 =
dx =
.
0i (x) 0i+1 (x) dx =
hi+1 hi+1
hi+1
xi
xi
Resumindo,
0 0
i , j L2
1
1
hi
hi+1
1
=
hi+1
0
se i = j,
(6.14)
se |i j| = 1,
se |i j| > 1.
n
X
n
X
0 0
aij i j =
i , j L2 i j =
i,j=1
i,j=1
* n
X
i=1
i 0i ,
n
X
j=1
n
P
i=1
i i ,
= hv 0 , v 0 iL2 > 0.
j 0j
L2
1
=: h,
n+1
a matriz de rigidez e exatamente a matriz de discretizacao de diferencas finitas centradas:
2 1
1
2 1
..
..
.
.
1
1
2
.
.
h
..
. . 1
1
2 1
1
2
hi = xi xi1 =
6.2
O Caso Bidimensional
Nesta secao, desenvolveremos metodos de elementos finitos para resolver o problema de Dirichlet para a
equacao de Poisson em um domnio R2 :
u = f
em ,
(6.15)
u=0
sobre ,
onde f e uma funcao contnua.
6.2.1
125
Formula
c
ao Variacional
1
F (v) =
2
Z
2
|v (x)| dx
f (x) v (x) dx =
(6.16)
1
kvkL2 () hf, viL2 () .
2
(6.17)
Como vimos no Captulo 1, os problemas variacional e de minimizacao sao equivalentes e a solucao de ambos
e a solucao do problema (6.15):
6.3 Proposi
c
ao. u V e uma soluca
o do problema (6.15), se e somente se u e a soluc
ao u
nica do problema
variacional
hu, viL2 () = hf, viL2 () para todo v V,
(6.18)
ou, equivalentemente, se e somente se u satisfaz
F (u) = min F (v) .
vV
6.2.2
(6.19)
Triangula
co
es e Elementos Finitos Lineares por Partes
Vamos agora construir um subespaco Vh de dimensao finita de V consistindo das funcoes lineares por partes
em . Por simplicidade, assumiremos que e um domnio poligonal, significando que e uma curva poligonal (no caso geral, e necessario antes aproximar por uma curva poligonal). Fazemos uma triangula
c
ao
de subdividindo em um conjunto de triangulos que nao se sobrepoem, podendo se interceptar apenas
ao longo de uma aresta em comum ou em um vertice em comum:
=
N
[
Ti .
(6.20)
i=1
Esta triangulacao de e tambem chamada uma malha triangular e os vertices da triangulacao sao freq
uentemente chamados nodos. Definimos o par
ametro da malha
h = max (diam Ti ) .
i=1,...,N
(6.21)
Observe que o diametro de um triangulo e o comprimento de seu maior lado. Definimos o subespaco Vh de
dimensao finita de V por
Vh = {v V : v e contnua em e linear em Ti para i = 1, . . . , N } .
(6.22)
Para descrever uma funcao v Vh , e suficiente conhecer os n valores de v nos n nodos internos da triangulacao
de : x1 , . . . , xn (nos nodos da fronteira, v e nula). Introduzimos uma base B = {1 , . . . , n } Vh para Vh
declarando
1
se i = j,
j (xi ) =
(6.23)
0
se i 6= j.
As funcoes v de V tem a seguinte representacao em termos das func
oes base 1 , . . . , n :
v = v (x1 ) 1 + . . . + v (xn ) n
(6.24)
e dim Vh = n. Note que o suporte de j consiste dos triangulos que tem xn como um nodo comum. Tais
funcoes bases podem ser definidas da seguinte forma. Se Tk e um triangulo da triangulacao de que tem xi
126
x x1 y 2 y 1 y y 1 x2 x1
i (x, y) = 0
.
(x x1 ) (y 2 y 1 ) (y 0 y 1 ) (x2 x1 )
para todo v Vh ,
(6.25)
entao em particular
huh , j iL2 () = hf, j iL2 ()
para todo j = 1, . . . , n.
(6.26)
Escrevendo
uh = uh (x1 ) 1 + . . . + uh (xn ) n
ou
uh = u1 1 + . . . + un n ,
(6.27)
para j = 1, . . . , n.
(6.28)
i=1
h1 , 1 iL2 ()
..
A=
.
hn , 1 iL2 ()
...
...
h1 , n iL2 ()
..
.
hn , n iL2 ()
(6.29)
e uma matriz simetrica, positiva definida, pelos mesmos motivos que a matriz de rigidez no caso unidimensional e. Ela e esparsa porque o suporte da funcao base j e constitudo pelos triangulos que tem o vertice xj
em comum. De fato, hi , j iL2 () = 0 se xi e xj nao sao diretamente ligados pelo lado de um triangulo.
Para calcular o valor das entradas nao-nulas, e u
til usar a seguinte formula de mudanca de
coordenadas:
se
T e o triangulo de vertices (0, 0), (0, 1) e (1, 0) e Te e um triangulo qualquer com vertices x0 , y 0 , x1 , y 1 e
2 2
x , y , entao a aplicacao : T Te definida por
(, ) = x0 , y 0 + x1 x0 , y 1 y 0 + x2 x0 , y 2 y 0
e um difeomorfismo com
det d (, ) = x1 x0 y 1 y 0 x2 x0 y 2 y 0 ,
de modo que se F : Te R e uma funcao contnua, entao
Z
Z
F ( (, )) dxdy.
F (x, y) dxdy = x1 x0 y 1 y 0 x2 x0 y 2 y 0
Te
6.2.3
127
Interpreta
c
ao Geom
etrica do M
etodo de Elementos Finitos
(6.30)
para todo v V
e
huh , viL2 () = hf, viL2 ()
para todo v Vh ,
segue que
hu uh , viL2 () = 0
para todo v Vh .
(6.31)
6.3
Formulac
ao Abstrata do M
etodo dos Elementos Finitos
Denotaremos por V um espaco de Hilbert com produto escalar h, iV e correspondente norma induzida kkV .
Defini
c
ao. Uma forma bilinear a : V V R e limitada (ou contnua) se existe uma constante > 0
tal que
|a (u, v)| 6 kukV kvkV para todos u, v V.
(6.32)
a e coerciva se existe um n
umero > 0 tal que
2
para todo v V.
(6.33)
para todos u, v V,
(6.34)
entao ela define um produto interno em V , e a conclusao segue diretamente do Teorema de Representacao
de Riesz. Seja a uma forma bilinear limitada coerciva e f um funcional linear limitado em V . Consideremos
o funcional F : V R definido por
F (v) =
1
a (v, v) f (v) .
2
(6.35)
128
para todo v V.
Ent
ao existe uma u
nica soluc
ao u V para o problema variacional
a (u, v) = f (v)
para todo v V.
(6.36)
Prova. A existencia de solucao para o problema variacional segue do teorema de Lax-Milgram. Suponha
que u satisfaz o problema variacional. Dado v V , escreva w = u v. Temos
1
a (u + w, u + w) f (u + w)
2
1
1
= a (u, u) + a (u, w) + a (w, w) f (u) f (w)
2
2
1
1
= a (u, u) + f (w) + a (w, w) f (u) f (w)
2
2
1
2
= F (u) + a (w, w) > F (u) + kwkV
2
2
> F (u) .
F (v) = F (u + w) =
g (t) = F (u + tv) =
Como u e um ponto de mnimo para F , 0 e um ponto de mnimo para g, logo g 0 (0) = a (u, v) f (v) = 0
para todo v V .
129
Observe que pelo Teorema de Lax-Milgram a solucao para o problema variacional existe mesmo se a forma
bilinear nao e simetrica. No entanto, neste caso nao existe um problema de minimizacao associado.
Seja Vh um subespaco de V de dimensao finita. Seja B = {1 , . . . , n } uma base para Vh e
v = v1 1 + . . . + vn n
a representacao de v nesta base. Se uh Vh satisfaz o problema variacional
a (uh , v) = f (v)
para todo v Vh ,
(6.37)
entao em particular
a (uh , j ) = f (j )
para todo j = 1, . . . , n.
(6.38)
Escrevendo
uh = u1 1 + . . . + un n ,
(6.39)
a (i , j ) ui = f (j )
para j = 1, . . . , n.
(6.40)
i=1
A matriz do sistema
a (1 , n )
..
.
a (n , n )
a (1 , 1 ) . . .
..
A=
.
a (n , 1 ) . . .
hA, i =
n
X
aij i j =
i,j=1
n
X
n
P
i=1
i i , temos
n
n
X
X
2
a (i , j ) i j = a
i i ,
j j = a (v, v) > kvkV > 0.
i,j=1
i=1
j=1
ku vkV
(6.41)
130
Prova. Como
a (u, v) = f (v)
para todo v V
e
a (uh , v) = f (v)
para todo v Vh ,
a (u uh , v) = 0
para todo v Vh .
segue que
(6.42)
ku uh kV 6 a (u uh , u uh ) + a (u uh , uh v)
= a (u uh , u v)
6 ku uh kV ku vkV ,
donde
2
ku uh kV 6
ku vkL2 ()
para todo v Vh .
Introduzimos uma norma equivalente em V , induzida pela forma bilinear simetrica a, definindo
kvka = a (v, v)
De fato,
kvkV 6 kvka 6
1/2
(6.43)
kvkV .
(6.44)
Captulo 7
Aproximac
ao de Autovalores do
Laplaciano
Neste captulo desejamos mostrar que tanto os autovalores da matriz de discretizacao, quanto os autovalores
da matriz de rigidez, sao aproximacoes para os autovalores do laplaciano, o que produz metodos numericos
para encontrar os autovalores do laplaciano em domnios arbitrarios.
7.1
Elementos Finitos
u = u
em ,
u=0
sobre ,
(7.1)
onde
(7.2)
Z
a (u, v) = hu, viL2 () =
u v.
para todo v Vh .
n
X
ui i , v =
i=1
n
X
vi i
i=1
e
a (uh , v) =
huh , viL2 () =
n
X
i,j=1
n
X
ui a (i , j ) vj =
n
X
i,j=1
ui hi , j iL2 () vj = uth M v,
i,j=1
131
(7.3)
132
onde
A = hi , j iL2 ()
16i,j6n
e a matriz de rigidez e
M = hi , j iL2 ()
16i,j6n
(7.4)
hM , i =
n
X
*
hi , j iL2 () i j =
i,j=1
n
X
i i ,
i=1
n
X
+
j j
j=1
M = BtB
onde B tambem e simetrica positiva definida (por exemplo, a menos de similaridade ortogonal, B = M 1/2 ).
Definindo
e = B t AB 1 ,
A
u
eh = Buh ,
o problema de autovalor generalizado (7.4) e transformado no problema de autovalor:
euh = h u
Ae
eh .
(7.5)
7.1.1
Resultados Preliminares
De agora em diante, alem da continuidade e coercividade da forma bilinear a (no caso da equacao de Poisson,
observe que podemos tomar a constante de coercividade igual a 1 usando a norma equivalente em W01,2 ())
e do fato que W01,2 () esta compactamente imerso em L2 (), assumiremos que {Vhi }, hi 0, sera sempre
uma seq
uencia de subespacos de dimensao finita de V que aproximam V no sentido que
lim dist (u, Vhi ) = 0
hi 0
para todo u V
(7.6)
hi 0
para todo uh V.
(7.7)
Nestas condicoes, pode-se provar que a solucao uh dada pelo metodo de elementos finitos converge na norma
de V para a solucao exata u (veja [Hackbusch]). Uma condicao suficiente para assegurar (7.6) e que
Vh1 Vh2 . . . Vhi Vhi+1 . . . V
[
i=1
Vhi e denso em V.
(7.8)
133
(7.9)
Se a e coerciva com constante de coercividade , entao a tambem e coerciva para todo || < (veja Lema
7.2 a seguir). Em seguida, considere os n
umeros
() =
inf
uV
vV
kukV =1 kvk =1
(7.10)
h () =
inf
uVh
vVh
kukV =1 kvk =1
(7.11)
A relacao entre os n
umeros () e h () e os respectivos problemas de autovalores e dada pelos Lemas 7.1
e 7.2 a seguir.
A uma forma bilinear contnua a : V V R podemos associar de forma u
nica um operador linear
contnuo L : V V 0 que satisfaz
a (u, v) = (Lu) (v) .
(7.12)
Alem disso, se
|a (u, v)| 6 C kukV kvkV
para todos u, v V , entao
kLk 6 C.
7.1 Lema. Sejam L e Lh os operadores lineares associados `
as formas bilineares a : V V R e a :
Vh Vh R, respectivamente.
Se n
ao e um autovalor, temos
1
,
() =
1
(L I)
1
.
h () =
1
(Lh I)
Prova. Se nao e um autovalor, entao o operador linear L I e invertvel pela alternativa de Fredholm.
Observe que L I e precisamente o operador linear associado `a forma bilinear a . Denotando A = L I,
temos
AA1 u0 (v)
|a (u, v)|
|(Au) (v)|
() = inf sup
= inf sup
= 0inf 0 sup
uV vV kukV kvkV
uV vV kukV kvkV
u V vV kA1 u0 kV kvkV
0
u6=0 v6=0
u6=0 v6=0
u 6=0 v6=0
1
|u (v)|
1
= 0inf 0
sup
= 0inf 0
ku0 kV
1
0
1
0k
u
k
kvk
u
u V kA
u V kA
vV
V
V
V
0
0
u 6=0
v6=0
u 6=0
1
.
=
kA1 k
A demonstracao para h () e analoga.
7.2 Lema. e um autovalor de (7.2) se e somente se () = 0.
h e um autovalor de (7.3) se e somente se h (h ) = 0.
Prova. Se e um autovalor de (7.2), entao por definicao existe u V tal que a (u, v) = 0 para todo v V ,
donde () = 0. Reciprocamente, se n
ao e um autovalor, pelo lema anterior () 6= 0. A demonstracao
para h () e analoga.
134
7.3 Corol
ario. () e h () s
ao contnuas em C.
7.4 Lema. Se a : V V R e uma forma bilinear coerciva com
2
para todo v V,
ent
ao existe R tal que a tambem e coerciva. Alem disso,
() > || ,
h () > || .
Prova. Temos
h () > C () h ,
() > Ch () h ,
(7.13)
(7.14)
para todo K.
Prova. Escolha R como no lema anterior. Defina operadores Z : V V e Zh : V Vh por
z = Z (u) e a solucao de a (z, v) = ( ) hu, viL2 () para todo v V,
zh = Zh (u) e a solucao de a (zh , v) = ( ) hu, viL2 () para todo v Vh .
A existencia e unicidade de z e zh e garantida pelo Teorema de Lax-Milgram. Observe que
a (u, v) = a (u z, v) ,
(7.15)
pois
a (u, v) = a (u, v) hu, viL2 ()
= a (u, v) hu, viL2 () ( ) hu, viL2 ()
= a (u, v) a (z, v) .
Usando a continuidade dos operadores Z , Zh com relacao a e a compacidade de K, seja CZ > 0 uma
constante positiva tal que
kZ k , Zh 6 CZ para todo K.
(7.16)
Denote por C uma constante de continuidade para a forma bilinear a , isto e,
|a (v, w)| 6 C kvkV kwkV
(7.17)
para todos u, v V , por C0 uma constante uniforme de continuidade para as formas bilineares a , K,
isto e,
|a (v, w)| 6 C0 kvkV kwkV ,
(7.18)
135
(7.19)
Consideremos a primeira desigualdade, (7.13). Da definicao de (), segue que para todo u V vale
() kukV 6 sup |a (u, v)| = sup |a (u z, v)| 6 C ku zkV .
vV
kvkV =1
(7.20)
vV
kvkV =1
vVh
kvkV =1
vVh
kvkV =1
> h () ku zh kV
> ku zh kV
> (ku zkV kz zh kV )
()
Z Zh kukV
>
C
para todo u V . Escolhendo u Vh tal que kukV = 1 e
h () =
inf
uVh
vVh
kukV =1 kvk =1
uVh
vVh
kukV =1 kvk =1
obtemos
h () >
vVh
kvkV =1
() Z Zh .
C
(7.21)
lim sup Z Zh = 0.
(7.22)
h0 K
Da mesma forma, a demonstracao de (7.14) depende de (7.22). De fato, pela definicao de h () segue
que para todo uh Vh temos
h () kuh kV 6 sup |a (uh , v)| = sup |a (uh zh , v)| 6 C kuh zh kV .
vVh
kvkV =1
vVh
kvkV =1
vV
kvkV =1
vV
kvkV =1
h ()
Z Zh kuh kV
>
C
para todo uh Vh . Escolha u V tal que kukV = 1 e
() =
inf
uV
vV
kukV =1 kvk =1
V
uV
vV
kukV =1 kvk =1
V
vV
kvkV =1
(7.23)
136
Como
sup |a (u uh , v)| 6 C0 ku uh kV ,
vV
kvkV =1
segue que
() + C0 ku uh kV > sup |a (u, v)| + sup |a (u uh , v)|
vV
kvkV =1
vV
kvkV =1
>
donde
() >
h ()
Z Zh kuh kV ,
C
h () Z Zh kuh kV C0 ku uh kV .
C
Como para cada h podemos escolher uh tal que ku uh kV 0 quando h 0, por (7.7), (7.14) sera provado
se (7.22) for verdadeiro.
Para terminar a demonstracao do lema, provaremos agora (7.22). Suponha por absurdo que existe > 0,
{i } K e hi 0 tal que
Zi Zhii > .
Entao existe uma seq
uencia {ui } V com kui kV = 1 tal que
Logo,
Zi (ui ) Zhii (ui ) 6 kZi (ui ) Z0 (ui )kV + Zh0i (ui ) Zhii (ui )
V
V
hi
+ kZ0 (ui u0 )kV + Z0 (u0 ui )
V
hi
+ Z0 (u0 ) Z0 (u0 )
V
7.1.2
137
Converg
encia dos Autovalores Discretos para os Autovalores Contnuos
A convergencia dos autovalores discretos para os autovalores exatos pode ser agora demonstrada:
7.6 Teorema. Sejam hi autovalores discretos de (7.3) tais que
lim hi = 0 .
(7.24)
Ent
ao 0 e um autovalor de (7.2).
Prova. Suponha por absurdo que 0 nao e um autovalor de (7.2). Entao, pelo Lema 7.2,
(0 ) = 0 > 0.
Como () e uma funcao contnua, existe 0 > 0 tal que
() >
0
>0
2
0
4
para todo h 6 h0 . Segue dos Lemas 7.2 e 7.5 que para todo hi D0 (0 ) com hi 6 h0 nos temos
0 = hi (hi ) > C (hi ) hi > C
0
0
0
C
=C
> 0,
2
4
4
uma contradicao.
7.7 Lema. As func
oes () e h () n
ao possuem um mnimo positivo pr
oprio no interior de um compacto
K C.
Prova. Seja L o operador associado `a forma bilinear a. Sejam um ponto interior de K com () > 0
e > 0 suficientemente pequeno para que D () K e () > 0 para todo D (). Pelo Lema 7.2,
1
(L I) esta definida em D (), logo e holomorfica a. Pela formula integral de Cauchy,
I
1
(L zI)
1
1
dz
(L I) =
2i D ()
z
para todo D (). Da,
1
1
1
1
= (L I) 6 max (L zI) = max
,
()
zD ()
zD () (z)
de modo que
() >
min
zD ()
(z)
para todo D (). Portanto, () nao pode assumir um mnimo proprio em D ().
A demonstracao para h () e analoga.
A recproca do Teorema 7.6, isto e, que todos os autovalores reais podem ser aproximados por uma
seq
uencia de autovalores discretos, e dada no proximo resultado:
7.8 Teorema. Seja 0 um autovalor de (7.2). Ent
ao existem autovalores discretos h de (7.3) tais que
lim h = 0 .
h0
(7.25)
138
Segue do Lema 7.5 que para todo D (0 ) e para todo h suficientemente pequeno temos
h <
C
1+
1
C
donde
h
(0 )
> h (0 )
= h (0 ) .
C
C
Em particular, h () tem um mnimo proprio em D (0 ). Pelo lema anterior, isso implica que existe
h D (0 ) tal que h (h ) = 0, isto e, h e um autovalor discreto.
h () > C () h > C h >
7.1.3
Converg
encia das Autofunco
es
uma autofunc
ao u0 associada ao autovalor 0 de (7.2) com ku0 kV = 1.
Prova. Usando o fato que V = W01,2 () esta compactamente imerso em L2 (), obtemos uma subseq
uencia
uhi convergente para u0 L2 (). Como no Lema 7.4, definimos
z0 = Z0 (u0 ) e a solucao de a (z0 , v) = (0 ) hu0 , viL2 () para todo v V,
zhi = Zh0i (u0 ) e a solucao de a (zhi , v) = (0 ) hu0 , viL2 () para todo v Vhi .
Dado > 0, existe h1 > 0 tal que
kz0 zhi kV <
(7.26)
139
e
kzhi uhi kV <
para hi < h2 . Portanto,
em V,
Em particular,
z0 = u0 ,
ou seja,
a (u0 , v) = (0 ) hu0 , viL2 () para todo v V,
e, portanto,
a (u0 , v) = 0 hu0 , viL2 () para todo v V.
(7.27)
Captulo 8
M
etodos Num
ericos para a Obtenc
ao
de Autovalores de Matrizes
Os autovalores de uma matriz A sao as razes do polinomio caracterstico de A
p () = det (I A) = n + an1 n1 + . . . + a1 + a0 .
Encontrar as razes de um polinomio nao e uma tarefa simples e nenhum dos algoritmos usados para encontrar
os autovalores de uma matriz e baseado nesta estrategia (alem disso, obter o polinomio caracterstico de
uma matriz grande tambem pode ser uma tarefa que consome muito tempo e recursos computacionais). Na
verdade, muitos algoritmos para encontrar razes de polinomios sao baseados em algoritmos para encontrar
autovalores de matrizes. Eles sao baseados no fato que, dado um polinomio monico p qualquer, ele e o
polinomio caracterstico da matriz companheira de p:
an1 an2 . . . a1 a0
1
0
...
0
0
.
..
.
0
1
0
0
A=
..
..
.
.
.
.
.
0
0
0
0
...
1
0
Assim, encontrar as razes do polinomio p e equivalente a encontrar os autovalores da matriz companheira
de p. Por exemplo, o comando roots em MATLAB encontra as razes de um polinomio transformando-o
primeiro em um polinomio monico e em seguida utilizando o eficiente algoritmo QR, discutido neste captulo,
para encontrar os autovalores da matriz companheira.
Diferente do caso da resolucao de sistemas lineares, em que existem metodos diretos eficientes para
matrizes grandes, esparsas ou nao, nao existem correspondentes metodos diretos para obter autovalores de
uma matriz (um metodo e chamado direto se a solucao e obtida apos um n
umero finito de passos). Isso e
devido ao teorema de Abel que diz que nao existe uma formula geral para obter as razes de um polinomio
de grau maior que 4; se existisse um procedimento finito para obter os autovalores de uma matriz, usando a
equivalencia entre as razes de um polinomio e os autovalores de sua matriz companheira, obteramos uma
formula geral para obter as razes de um polinomio, por mais complicada que fosse. Portanto, todos os
algoritmos para obter autovalores sao iterativos.
8.1
M
etodo das Pot
encias
O metodo das potencias e o algoritmo mais simples, mas ele pode apenas encontrar o maior autovalor de uma
matriz A. Para simplificar a exposicao, suponha que A e uma matriz diagonalizavel cujo maior autovalor e
140
141
Ak q = A Ak1 q .
q=
ai vi
i=1
com a1 6= 0; raramente uma escolha aleatoria de q produzira um vetor no subespaco hv2 , . . . , vn i. Temos
Ak q =
n
X
ai ki vi ,
i=1
donde
"
Ak q = k1 a1 v1 +
n
X
ai
i=2
i
1
#
vi .
i
1
k
0,
Ak q
a1 v1
k1
converge para um autovetor dominante. No entanto, como o autovalor 1 nao e conhecido a priori, e
impossvel trabalhar com esta seq
uencia. Em geral, escolhemos um fator de escala k e definimos
qk+1 =
1
k+1
Aqk .
(8.1)
O fator de escala k e comumente escolhido como sendo o valor da coordenada de Aqk que tem o maior
valor absoluto. Deste modo, o maior componente de qk e igual a 1 e a seq
uencia converge para um autovetor
dominante cujo maior componente e 1.
8.1.1
Itera
c
ao Inversa e Iterac
ao com Deslocamento
O metodo das potencia permite apenas encontrar o autovalor dominante. Para obter o menor autovalor de
A, podemos aplicar o metodo das potencias `a matriz A1 , pois se e o menor autovalor de A, 1/ sera
142
o maior autovalor de A1 . Este metodo e chamado metodo das potencias inverso ou iterac
ao inversa (em
contraste, o metodo das potencias e `as vezes chamado iterac
ao direta).
Para encontrar os demais autovalores da matriz A, observe que se A tem autovalores 1 , . . . , n , entao
A I tem autovalores 1 , . . . , n . O escalar e chamado um deslocamento. Podemos entao aplicar
1
o metodo das potencias `a matriz (A I) , pois o maior autovalor desta matriz e 1/ ( ), onde e o
autovalor de A mais proximo de . De fato, se
1
(A I)
v = v,
entao v = (A I) v, donde
1
Av = +
v.
Assim, podemos escolher quais autovalores de A encontrar atraves da escolha do deslocamento . Este
metodo e chamado iterac
ao com deslocamento. Ele e particularmente eficiente quando possumos boas
estimativas para os autovalores de A.
muito importante notar que tanto na iteracao inversa, quanto na iteracao com deslocamento, em
E
nenhum momento e necessario calcular a inversa A1 explicitamente, o que consumiria muito tempo e
recursos. Embora as iteradas satisfazem
1
1
qk+1 =
(A I) qk ,
k+1
basta resolver o sistema
(A I) qek+1 = qk
e entao tomar
qk+1 =
8.2
1
k+1
qek+1 .
Iterac
ao de Subespacos
max
max
uE
vF
kuk=1
kvk=1
hu,ui i=0
hv,vi i=0
para i=1,...,j1 para i=1,...,j1
hu, vi = huj , vj i .
143
uE vF
kuk=1 kvk=1
m+1 k
dist Ak S, Tm 6 C
para todo k.
m
Em particular, Ak S Tm .
Prova. Embora nao demonstraremos o Teorema 8.1 rigorosamente, daremos uma ideia da demonstracao.
Seja q S um vetor arbitrario. Entao q se escreve de maneira u
nica na forma
q=
m
X
i=1
a i vi +
n
X
i=m+1
ai vi =: q1 + q2
144
com q1 Tm e q2 Um . Como q
/ Um , necessariamente q1 6= 0, isto e, ai 6= 0 para algum ndice i = 1, . . . , m.
Em primeiro lugar, note que os subespacos Ak S sao todos m-dimensionais. De fato, |m | > |m+1 | implica
que nenhum dos autovalores 1 , . . . , m e o autovalor nulo, logo ker A Um . Como S Um ={0},
segue
que A e injetiva sobre S logo dim S = dim (AS). Mais geralmente, como Ak Tm = Tm , temos ker Ak Um
para todo k. Alem disso, Ak S Um = {0}, pois se q = q1 + q2 S e um vetor arbitrario com
Pmq1 Tm e
q2 Um , segue que a componente Ak q1 de Ak q em Tm e nao-nula para todo k, pois Ak q1 = i=1 ai k vi e
ai 6= 0 para algum ndice i = 1, . . . , m. Portanto, dim (AS) = dim (AS) = . . . = dim Ak S .
Temos
k
m1
n
X i k
X
Ak q
i
=
v
+
a
v
+
vi .
a
a
i
m m
i
i
km
m
m
i=1
i=m+1
Os coeficientes da componente em Tm crescem, ou pelo menos nao decrescem, enquanto que os coeficientes
da
em Um tendem a zero com taxa igual a ou melhor que m+1 /m . Portanto, toda seq
uencia
kcomponente
A q converge para um vetor em Tm com a taxa de convergencia dada no enunciado. O limite Ak S nao
pode ser um subespaco proprio de Tm porque ele tem dimensao m.
Tm e chamado o subespa
co invariante dominante de A de dimensao m.
Para fazer uma iteracao de subespacos na pratica, e necessario escolher uma base
0 para 0osubespaco a
ser iterado, iterando
todos
os
vetores
desta
base
simultaneamente.
Assim,
se
B
=
q1 , . . . , qm e uma base
0
0
para S, Bk = Ak q10 , . . . , Ak qm
e uma base para Ak S.
Por
outro
lado,
j
a
vimos
que trabalhar com os
vetores Ak qj0 pode ser problematico, pois pode ocorrer Ak qj0 ouAk qj0 0; seria necessario fazer
0
convergem
um reescalamento a cada iteracao. Pior que isso, as seq
uencias de vetores Ak q10 , . . . , Ak qm
0
. , A k qm
cada uma para o autovetor dominante v1 , como vimos na secao anterior, logo osvetores Ak q10 , . .
k 0
k 0
apontam aproximadamente para a mesma direcao v1 para m grande, logo Bk = A q1 , . . . , A qm nao e
uma boa base para Ak S (dizemos que Bk e uma base mal-condicionada): pequenas perturbacoes em um dos
vetores-base podem fazer uma grande diferenca no espaco.
Deve-se portanto substituir a base obtida em cada iteracao por uma base bem-condicionada. A maneira
mais
a
vel de fazer isso e ortonormalizar a base.
Assim, come
ca-se com uma base ortonormal B0 =
0 confi
0
0
para AS. Atraves de um processo de
para S e obtem-se a base Be1 = Aq10 , . . . , Aqm
q 1 , . . . , qm
ortonormaliza
c
a
o,
como
o
algoritmo
de
Gram-Schmidt,
a
partir
de Be1 obt
base ortonormal
em-se uma
k
1
para Ak S, obtepara AS. Em geral, dada uma base ortonormal Bk = q1k , . . . , qm
B1 = q11 , . . . , qm
k+1
k
k+1
mos uma base ortonormal Bk+1 = q1 , . . . , qm
.
para Ak+1 S a partir da base Bek+1 = Aq1k , . . . , Aqm
Este procedimento e chamado itera
c
ao simult
anea com ortonormaliza
c
ao ou simplesmente itera
c
ao
simult
anea.
8.3
M
etodo QR
O algoritmo mais usado para calcular o conjunto completo de autovalores de uma matriz e o algoritmo
QR, desenvolvido simultanea e independentemente por Francis e Kublanovskaya em 1961. Ele pode ser
compreendido a partir do processo de iteracao simultanea.
o que acontece quando o processo de iteracao simultanea e aplicado a uma base B0 =
0 Consideremos
q1 , . . . , qn0 de vetores ortonormais para Fn . Como antes, assumimos que A e diagonalizavel com autovalores
1 , . . . , n e B = {v1 , . . . , vn } e uma base correspondente de autovetores. Assuma
|m | > |m+1 |
para m = 1, . . . , n 1, e defina
0
Sm = q10 , . . . , qm
,
Tm = hv1 , . . . , vm i ,
Um = hvm+1 , . . . , vn i .
145
k
Ak Sm = q1k , . . . , qm
Tm
com velocidade de convergencia igual a |m+1 | / |m |.
b k a matriz unitaria cujas colunas sao os vetores ortonormais q k , . . . , qnk e denote
Seja Q
1
b k AQ
bk .
Ak = Q
(8.2)
k
Ak11 kk
A12 k(nk)
Ak =
(8.3)
0(nk)k
Ak22 (nk)(nk)
e os autovalores 1 , . . . , k seriam os autovalores do bloco Ak11 . Como estas colunas apenas aproximam Tm ,
ao inves de um bloco nulo devemos obter um bloco Ak21 cujas entradas sao proximas de zero. Pode-se provar
que de fato Ak21 0. Isso acontece para todo k, de modo que Ak converge para uma matriz triangular, cujos
elementos na diagonal principal sao os autovalores 1 , . . . , n de A. Se A for uma matriz hermitiana, entao
Ak tambem sera hermitiana e Ak convergira para uma matriz diagonal.
O algoritmo QR e uma variante da iteracao de subespacos que produz a seq
uencia (Ak ) diretamente.
8.3.1
O Algoritmo QR
Para obter o algoritmo QR, vamos colocar a iteracao simultanea em forma matricial. Assumiremos que A
e invertvel. Depois de k iteracoes, temos os vetores ortonormais q1k , . . . , qnk , que sao as colunas da matriz
b k , isto e,
unitaria Q
b k = q1k . . . qnk .
(8.4)
Q
Denote
bk =
Bk+1 = AQ
Aq1k
...
Aqnk
(8.5)
Em seguida, o processo de Gram-Schmidt classico e aplicado aos vetores linearmente independentes bk+1
=
1
k+1
k
k+1
=
Aq
(da
a
hip
o
tese
de
que
A
e
invert
vel)
para
obter
vetores
ortonormais
q
,
.
.
.
,
q
Aq1k , . . . , bk+1
n
n
n
1
b k+1 .
que serao as colunas da matriz unitaria Q
Para expressar o algoritmo de Gram-Schmidt em forma matricial, lembre-se que para obter vetores
ortonormais q1 , . . . , qn a partir de vetores linearmente independentes b1 , . . . , bn neste processo primeiro ortogonalizamos, obtendo os vetores ortogonais
qe1 = b1 ,
qe2 = b2
hb2 , qe1 i
qe1 ,
he
q1 , qe1 i
..
.
qem = bm
m1
X
j=1
hbm , qej i
qej ,
he
qj , qej i
..
.
qen = bn
n
X
hbn , qej i
j=1
he
qj , qej i
qejk+1 .
146
q1 =
..
.
qen
.
ke
qn k
qn =
m1
X
hbm , qj i qj ,
j=1
qm =
qem
,
ke
qm k
ou
qem = bm
m1
X
rjm qj ,
(8.6)
j=1
qm =
1
qem ,
rmm
(8.7)
onde
rjm = hbm , qj i ,
rmm = ke
qm k .
se j = 1, . . . , m 1,
(8.8)
(8.9)
m1
X
rjm qj + rmm qm ,
(8.10)
j=1
ou seja,
b1 = r11 q1 ,
b2 = r12 q1 + r22 q2 ,
b3 = r13 q1 + r23 q2 + r33 q3
..
.
bn = r1n q1 + r2n q2 + . . . + rnn qn
Em forma matricial, se definirmos rjm = 0 sempre que j > m e considerarmos a matriz
R = (rij ), temos
0 r33 . . .
b1 b2 b3 . . . bn = q1 q2 q3 . . . qn 0
..
..
..
..
.
.
.
.
0
...
triangular superior
r1n
r2n
r3n
..
.
rnn
147
ou
B = QR
(8.11)
Aqjk , qjk+1
(Rk+1 )jm =
Aqjk , Aqjk
se j > m,
se j = 1, . . . , m 1,
se j = m.
(8.13)
que comecemos a iteracao simultanea a partir dos vetores da base canonica, isto e,
0 Agora 0suponha
b 0 = I. Entao
q1 , . . . , qn = {e1 , . . . , en }, de modo que Q
b 0 = A,
B1 = AQ
donde
b 1 R1 .
A=Q
Da,
b 1 AQ
b 1 = R1 Q
b1 .
A1 = Q
b 1 , escrevemos
Denotando Q1 = Q
A = Q1 R1
e
A1 = R1 Q1 .
No proximo passo,
(8.14)
b1 = Q
b 2 R2 .
B2 = AQ
Observando que
b 2 R2 ,
b1 = Q
b 1 Q
b 1 AQ
A1 = Q
definindo
b 1 Q
b2
Q2 = Q
(8.15)
b 2 AQ
b2 = Q
b 2 Q
b 1 R1 Q
b 2 = Q2 R1 Q
b 1 Q2 = Q2 A1 Q2 .
A2 = Q
A2 = R2 Q2 .
(8.16)
Ak1 = Qk Rk ,
Ak = Rk Qk ,
(8.17)
(8.18)
Em geral,
isto e, obtemos primeiro a decomposicao QR da matriz Ak1 e a partir dela obtemos a proxima iterada, a
matriz Ak .
8.3.2
148
Implementa
c
ao Eficiente do Algoritmo QR
O algoritmo QR da forma como introduzido na secao anterior e altamente ineficiente. Cada decomposicao
QR
O n3 operacoes de ponto flutuante e a multiplicacao de matrizes que lhe segue tambem custa
custa
3
O n operacoes de ponto flutuante. Alem disso, a velocidade de convergencia tambem e muito lenta.
O primeiro problema e resolvido quando se reduz a matriz A `a sua forma de Hessenberg. Uma decomposicao QR de uma matriz na forma de Hessenberg e apenas O n2 operacoes de ponto flutuante para uma
matriz geral e O (n) operacoes de ponto flutuante para uma matriz hermitiana.
Defini
c
ao. Dizemos que uma matriz A = (aij ) e uma matriz de Hessenberg superior se aij = 0 sempre
que i > j + 1.
Em outras palavras, uma matriz de Hessenberg
0
0
.
0
0 0
Observe que uma matriz hermitiana de Hessenberg e uma matriz tridiagonal. Toda matriz complexa e
semelhante a uma matriz na forma de Hessenberg superior atraves de uma matriz unitaria, isto e, dada
A Mn (C), existe uma matriz unitaria Q tal que
B = Q AQ
3
coes de ponto flutuante. Detalhes podem ser
e de Hessenberg superior. O custo para isso e de 10
3 n opera
vistos em [Watkins]. Se Ak1 e uma matriz de Hessenberg superior, entao a matriz Ak obtida atraves do
metodo QR tambem e de Hessenberg superior. De fato, da decomposicao QR de Ak1 , Ak1 = Qk Rk ,
obtemos Qk = Ak1 Rk1 . Como a inversa de uma matriz triangular superior e uma matriz triangular
superior, segue que Rk1 e triangular superior. O produto de uma matriz triangular superior e de uma
matriz de Hessenberg superior, em qualquer ordem, sempre e uma matriz de Hessenberg superior. Segue
que Qk e de Hessenberg superior e da que Ak = Rk Qk e de Hessenberg superior. Assim, se comecarmos
com uma matriz de Hessenberg superior, em cada passo
QR estaremos
trabalhando com uma matriz de
Hessenberg superior e o custo computacional cai de O n3 para O n2 (ou ate mesmo O (n) se a matriz for
hermitiana), uma reducao significativa.
A velocidade de convergencia do algoritmo QR pode ser acelerada pela estrategia de deslocamento. Com
efeito, como a taxa de convergencia do metodo depende da razao |m+1 | / |m |, ela pode ser melhorada
quando esta razao e decrescida. Isso pode ser feito atraves de deslocamento; |m+1 | / |m | pode
ser tornado arbitrariamente proximo a zero escolhendo um deslocamento arbitrariamente proximo a m+1 .
A escolha do deslocamento pode ser feita atraves do proprio metodo QR: depois de algumas iteracoes, os
elementos na diagonal principal de Ak sao aproximacoes dos autovalores de A.
O metodo pode ter sua velocidade de convergencia ainda mais acelerada atraves do uso de uma tecnica
chamada defla
c
ao. Suponha que obtivemos uma boa aproximacao para o autovalor de menor modulo n
(como este autovalor tem o menor modulo, ele deve ser o melhor aproximado pelas iteracoes QR iniciais usadas
para encontrar boas aproximacoes para os autovalores). Aplicando o algoritmo QR `a matriz C = A I,
obteremos uma convergencia muito rapida, de modo que apos poucas iteracoes a matriz Ck +I (adicionando
o deslocamento de volta) tera aproximadamente a forma
bk
...
A
.
Ck + I =
0 0 0
n
149
8.4
M
etodos para Matrizes Esparsas
O algoritmo QR nao e conveniente para obter os autovalores de matrizes esparsas, ja que depois de uma
iteracao QR a matriz A1 ja deixa de ser esparsa (pode-se construir exemplos em que todas as posicoes
superiores da matriz de Hessenberg sao preenchidas; veja [Watkins], Exerccio 6.3.24). Precisaremos de
metodos que nao preenchem os zeros da matriz esparsa A. Uma possibilidade e voltar ao metodo de iteracao
de subespacos basico, sem as mudancas de coordenadas a cada iteracao que caracterizam o metodo QR e
alteram a forma esparsa da matriz. Por outro lado, isso implica que apenas alguns poucos autovalores de
maior modulo podem ser calculados. Para contornar este problema, deve-se usar as estrategias de iteracao
inversa e iteracao com deslocamento.
Entretanto, metodos mais sofisticados e eficientes existem para encontrar os autovalores de uma matriz
esparsa.
8.4.1
Processo de Arnoldi
O processo de Arnoldi foi introduzido em 1950, mas so entrou em moda para calcular autovalores apenas na
decada de 1970. Atualmente, ele e suas variantes, sao o metodo preferido para o calculo de autovalores em
varias aplicacoes.
O metodo das potencias (ou mesmo o metodo da iteracao de subespacos) utiliza apenas a informacao do
u
ltimo iterado para calcular o proximo iterado. A ideia do processo de Arnoldi (semelhante `a do algoritmo
do gradiente conjugado) e usar toda a informacao dos passos anteriores. Depois de k passos no metodo
das potencias, guardamos todos os k + 1 vetores q, Aq, A2 q, . . . , Ak q e procuramos boas aproximacoes de
autovetores no subespaco (k + 1)-dimensional gerado por estes vetores.
Na pratica, como ja vimos antes, os vetores q, Aq, A2 q, . . . , Ak q formam uma base mal-condicionada para
o subespaco, porque tendem a apontar na mesma direcao do autovetor dominante, logo em cada iteracao
substitumos esta base por uma base ortonormal q1 , . . . , qk+1 . Isso e realizado pelo algoritmos de GramSchmidt com uma pequena modificacao. Se trabalhassemos com a seq
uencia original q, Aq, A2 q, . . . , Ak1 q,
k
k1
para obter A q bastaria multiplicar A
q por A. Como em cada passo usamos o algoritmo de Gram-Schmidt
para ortonormalizar o conjunto de vetores obtidos anteriormente, o vetor Ak1 q nao esta disponvel. Ao
inves, multiplicamos o vetor qk por A e e necessario apenas ortonormalizar o vetor Aqk com relac
ao aos
vetores q1 , . . . , qk para obter o vetor qk+1 . Este e o processo de Arnoldi.
Mais detalhadamente, no primeiro passo temos
q
q1 =
.
(8.19)
kqk
Em passos subseq
uentes, tomamos
qbk+1 = Aqk
k
X
hjk qj ,
(8.20)
j=1
qbk+1
,
kb
qk+1 k
(8.21)
hjk = hAqk , qj i , se j = 1, . . . , k,
hk+1,k = kb
qk+1 k .
(8.22)
(8.23)
qk+1 =
onde
150
q, Aq, A2 q = hq1 , q2 , q3 i
..
.
k1
q, Aq, . . . , A
q = hq1 , . . . , qk i
Em particular, vemos que cada vetor qj , para j = 1, . . . , k, possui uma componente nao-nula na direcao de
Aj1 q, digamos
j2
X
j1
qj = aj1 A q +
ai Ai q com aj1 6= 0.
i=0
Por definicao
qbk+1 = Aqk
k
X
hjk qj ,
j=1
Aqk = A ak1 A
k1
q+
k2
X
i=0
!
i
ai A q
k
X
j=1
hjk qj ,
151
donde
Ak q =
1
ak1
k
X
hjk qj
j=1
k2
X
ai Ai q =
aj1
i=0
j1
! k1
k
X
X
X
hjk
bij Ai q
ai Ai q ,
j=1
i=0
(8.24)
i=1
produzindo Ak q como combinacao linear de q, Aq, . . . , Ak1 q para k < m, violando a hipotese de que
q, Aq, . . . , Am1 q sao linearmente independentes. Isso prova que hk+1,k = kb
qk+1 k > 0. Alem disso, como
qbk+1 = A ak1 A
k1
q+
k2
X
!
i
ai A q
i=0
k
X
k1
X
hjk qj = ak1 A q +
j=1
ai A q
i=1
k
X
hjk qj ,
j=1
Para provar (c), observe que hm+1,m = 0 implica q, Aq, . . . , Am q linearmente dependentes por (8.24).
Reciprocamente, se Am q e combinacao linear de q, Aq, . . . , Am1 q, entao
m
X
hAqm , qj i qj
j=1
pois esta e a expressao de Am q na base ortonormal {q1 , . . . , qm }; da segue da definicao que qbm+1 = 0.
8.4.2
Representa
c
ao Matricial do Processo de Arnoldi
k+1
X
hjk qj .
(8.25)
j=1
Pelo Teorema 8.3, esta relacao vale para k = 1, . . . , m se q, Aq, . . . , Am q forem linearmente independentes.
Estas equacoes vetoriais podem ser combinadas em uma equacao matricial da seguinte maneira. Definimos
Qm = q1 . . . qm nm
(8.26)
e
Hm+1,m
h11
h21
0
=
0
.
..
0
h12
h22
h32
0
..
.
0
...
...
...
..
.
..
.
...
h1,m1
h2,m1
h3,m1
..
.
h1m
h2m
h3,m
..
.
hm,m1
0
hm,m
hm+1,m
(8.27)
(m+1)m
Temos
AQm = Qm+1 Hm+1,m .
(8.28)
152
Observe que Qm e uma isometria (embora nao necessariamente um isomorfismo isometrico, a nao ser que
m = n) e que Hm+1,m e uma matriz de Hessenberg superior, nao quadrada, com entradas diagonais positivas. Denotaremos por Hm a matriz de Hessenberg superior quadrada obtida atraves de Hm+1,m quando
suprimimos a u
ltima linha desta. Segue que
(8.29)
ao vetores ortonormais,
8.4 Proposi
c
ao. Suponha que q1 , . . . , qm+1 s
Qm = q1 . . . qm ,
e que Hm e uma matriz de Hessenberg superior com hj+1,j > 0 para j = 1, . . . , m. Embora estes
possam ter sido obtidos por qualquer processo, suponha que eles satisfazem (8.29).
Ent
ao q1 , . . . , qm+1 s
ao exatamente os vetores produzidos pelo processo de Arnoldi com vetor inicial
q1 . Em outras palavras, dada uma matriz A, os objetos em (8.29) s
ao unicamente determinados pela
primeira coluna de Qm .
Se q, Aq, . . . , Am q sao linearmente independentes, entao hm+1,m 6= 0. Se eles sao linearmente dependentes,
entao hm+1,m = 0 e
AQm = Qm Hm .
(8.30)
Em particular, isso implica que hq1 , . . . , qm i sao invariantes sob A e que os autovalores de Hm sao autovalores
de A, como o proximo resultado mostra:
8.5 Proposi
c
ao. Suponha que x1 , . . . , xm Fn s
ao linearmente independentes e sejam S = hx1 , . . . , xm i e
X = x1 . . . xm nm
Ent
ao S e invariante sob A Mn (F) se e somente se existe algum B Mm (F) tal que
AX = XB.
Alem disso, todo autovalor de B e um autovalor de A com autovetor correspondente em S.
Prova. Se existe tal B, entao
Axj =
m
X
xi bij S.
i=1
Reciprocamente, se X e invariante sob A, entao para cada ndice j = 1, . . . , m existem escalares bij tais que
Axj =
m
X
bij xi .
i=1
Defina B = (bij ).
Se w e um autovetor de B com autovalor , entao v = Xw S e um autovetor de A com autovalor .
Se m nao e muito grande, podemos entao usar o algoritmo QR para encontrar os autovalores de Hm . Na
pratica, dificilmente obteremos hm+1,m = 0 exatamente, mas se hm+1,m e proximo de zero podemos esperar
que estamos proximos de um subespaco invariante e, portanto, que os autovalores de Hm sao proximos aos
autovalores de A. O proximo resultado mostra que mesmo na eventualidade em que hm+1,m nao e pequeno,
alguns dos autovalores de Hm podem ser boas aproximacoes dos autovalores de A.
8.6 Teorema. Sejam Qm , Hm e hm+1,m gerados pelo processo de Arnoldi. Seja um autovalor de Hm
com autovetor unit
ario x. Seja v = Qm x. Ent
ao
kAv vk = |hm+1,m | |xm | ,
onde xm denota a u
ltima componente de x.
8.4.3
153
M
etodo de Lanczos
Para matrizes simetricas reais, o processo de Arnoldi assume uma forma bem mais simples, porque a matriz
de Hessenberg Hm e simetrica e portanto e uma matriz tridiagonal. Neste caso, o processo de Arnoldi e
chamado o m
etodo de Lanczos.
Refer
encias Bibliogr
aficas
[Asmar]
Nakhle ASMAR, Partial Differential Equations and Boundary Value Problems, Prentice Hall, 2000.
[Aronszajn]
N. ARONSZAJN, A unique continuation theorem for solutions of elliptic partial differential equations of second order, J. Math. Pures Appl. 36 (1957), 235-239.
[Bandle]
[Berard1]
Pierre BERARD,
Transplantation et isospectralite, Math. Ann. 292 (1992), pp. 547
559
[Berard2]
Pierre BERARD,
Domaines plans isospectraux `
a la Gordon-Webb-Wolpert: une
preuve elementaire, Afrika Mat. 3 (1993), no. 1, 135146.
[Biezuner]
[BHM]
[Chapman]
[Cheng]
[Courant-Hilbert]
[Demmel]
[Driscoll]
[Evans]
[Gilbarg-Trudinger]
[Gladwell-Zhu]
G. M. L. GLADWELL and H. ZHU, Courants Nodal Line Theorem and Its Discrete Counterparts, The Quarterly Journal of Mechanics and Applied Mathematics
55 (2002), 1-15.
[GWW1]
Carolyn GORDON, David L. WEBB e Scott WOLPERT, One cannot hear the shape
of a drum, Bulletin of the American Mathematical Society 27 (1992), n. 1, 134138.
154
155
[GWW2]
[Hackbusch]
[Herrman]
H. HERRMANN, Beziehungen zwischen den Eigenwerten und Eigenfunktionen verschiedener Eigenwertprobleme, Math. Z. 40 (1935), 221241.
[Heuveline]
[Horn-Johnson]
[Johnson]
[Jost]
J
urgen JOST, Partial Differential Equations, Graduate Texts in Mathematics 214,
Springer-Verlag, 2002.
[Kac]
M. KAC, Can one hear the shape of a drum?, American Mathematical Monthly 73
(1966), no. 4, part II, 123.
[Kuttler-Sigillito]
[Milnor]
[Pleijel]
A. PLEIJEL, Remarks on Courants nodal line theorem, Comm. Pure Appl. Math. 9
(1956), 543550.
[Protter]
M. H. PROTTER, Can one hear the shape of a drum? Revisited, SIAM REVIEW
29 (1987) no. 2, 185197.
[Rosser1]
J. Barkley ROSSER, Nine point difference solutions for Poissons equation, Comp.
Math. Appl. 1 (1975), 351360.
[Rosser2]
[Sridhar-Kudrolli]
[Strang]
Gilbert STRANG, Linear Algebra and its Applications, 3rd Ed., Harcourt Brace Jovanovich, 1988.
[Strikwerda]
John C. STRIKWERDA, Finite Difference Schemes and Partial Differential Equations, 2nd Ed., SIAM, 2004.
[Thomas1]
J. W. THOMAS, Numerical Partial Differential Equations: Finite Difference Methods, Texts in Applied Mathematics 22, Springer, 1995.
156
[Thomas2]
[Uhlenbeck1]
[Uhlenbeck2]
[Vigneras]
Marie-France VIGNERAS,
Varietes riemanniennes isospectrales et non isometriques,
Annals of Mathematics 91 (1980), 2132.
[Wat1]
[Wat2]
[Watkins]
David S. WATKINS, Fundamentals of Matrix Computations, 2nd Ed., John Wiley &
Sons, 2002.
[Weyl]
H. WEYL, Uber
die Asymptotische Verteilung der Eigenwerte, Nachr. Konigl. Ges.
Wiss. Gottingen (1911), 110117.
[Young]
[Zelditch]