Você está na página 1de 157

Notas de Aula

Autovalores do Laplaciano
Rodney Josu
e Biezuner

Departamento de Matematica
Instituto de Ciencias Exatas (ICEx)
Universidade Federal de Minas Gerais (UFMG)

Notas de aula do curso T


opicos em An
alise: Autovalores do Laplaciano do Programa
de P
os-Graduaca
o em Matem
atica, ministrado durante o segundo semestre do ano de 2006.

16 de novembro de 2006

E-mail: rodney@mat.ufmg.br; homepage: http://www.mat.ufmg.br/rodney.

Sum
ario
1 Os Autovalores do Laplaciano
1.1 Motivacao para o Estudo dos Autovalores do Laplaciano . . . . . . . . . . . . . . . .
1.1.1 Metodo de Expansao em Autofuncoes . . . . . . . . . . . . . . . . . . . . . .
1.1.2 Problema Isospectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Princpio do Maximo Fraco: O Laplaciano nao possui Autovalores Negativos . . . .
1.4 Metodos Variacionais para Autovalores de Operadores Lineares . . . . . . . . . . . .
1.5 Os Espacos de Sobolev W 1,2 e W01,2 . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.5.1 A Derivada Fraca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.5.2 Espacos de Sobolev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.5.3 Propriedades dos Espacos de Sobolev . . . . . . . . . . . . . . . . . . . . . .
1.6 Existencia e Unicidade de Solucoes para o Laplaciano atraves do Metodo Variacional
1.6.1 Solucoes Fracas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.6.2 Existencia, Unicidade e Regularidade de Solucoes Fracas . . . . . . . . . . . .
1.7 O Espectro do Laplaciano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.7.1 Existencia e Caracterizacao Variacional dos Autovalores do Laplaciano . . . .
1.7.2 Comparacao de Autovalores . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.8 Conjunto Nodal e Domnios Nodais de uma Autofuncao . . . . . . . . . . . . . . . .
1.8.1 Princpio do Maximo Forte: o Primeiro Autovalor do Laplaciano e Simples .
1.8.2 Conjunto Nodal e Domnios Nodais de Autofuncoes do Laplaciano . . . . . .
1.9 Multiplicidade dos Autovalores do Laplaciano . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

4
4
4
6
7
10
12
14
14
16
16
18
18
18
21
21
28
30
30
32
37

2 M
etodo de Diferen
cas Finitas
39
2.1 O Caso Unidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.1.1 Series de Taylor e Diferencas Finitas em Uma Dimensao . . . . . . . . . . . . . . . . . 39
2.1.2 Discretizacao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.1.3 Resolucao Numerica do Problema de Autovalor Unidimensional . . . . . . . . . . . . . 42
2.2 O Caso Bidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.2.1 A Formula dos Cinco Pontos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.2.2 Existencia e Unicidade da Solucao Discreta Autovalores do Problema Bidimensional 47
2.2.3 Princpio do Maximo Discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.2.4 Convergencia da Solucao Discreta para a Solucao Classica . . . . . . . . . . . . . . . . 51
2.3 Discretizacoes de Ordem Superior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.3.1 Caso Unidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.3.2 Caso Bidimensional: A Formula dos Nove Pontos Compacta . . . . . . . . . . . . . . 56
2.4 Diferencas Finitas em Coordenadas Polares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.5 Domnios Arbitrarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

Rodney Josue Biezuner

3 Exist
encia e Unicidade de Solu
c
oes Discretas
3.1 Normas Matriciais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Matrizes Diagonalmente Dominantes . . . . . . . . . . . . . . . . . . . . . .
3.3 Teorema dos Discos de Gershgorin . . . . . . . . . . . . . . . . . . . . . . .
3.4 Propriedade FC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5 Matrizes Irredutveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.6 Invertibilidade de Matrizes de Discretizacao . . . . . . . . . . . . . . . . . .
3.6.1 Esquemas de Diferencas Finitas para o Intervalo e para o Retangulo
3.6.2 Esquema de Coordenadas Polares . . . . . . . . . . . . . . . . . . . .
3.6.3 Esquema de Shortley-Weller . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

69
69
72
73
76
81
83
84
84
85

4 M
etodos Iterativos para a Resolu
c
ao de Sistemas Lineares
4.1 Metodos Iterativos Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.1 Metodo de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.2 Metodo de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.3 Metodo SOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.4 Comparacao da Velocidade de Convergencia dos Tres Metodos . . . . . .
4.1.5 Metodo de Jacobi Amortecido . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Analise de Convergencia dos Metodos Iterativos Lineares . . . . . . . . . . . . . .
4.2.1 Convergencia dos Metodos Iterativos Lineares . . . . . . . . . . . . . . . .
4.2.2 Velocidade de Convergencia dos Metodos Iterativos Lineares . . . . . . .
4.2.3 Convergencia para Matrizes Simetricas Positivas Definidas . . . . . . . . .
4.3 Convergencia dos Metodos Iterativos Lineares para as Matrizes de Discretizacao
4.3.1 Convergencia do Metodo de Jacobi . . . . . . . . . . . . . . . . . . . . . .
4.3.2 Convergencia do Metodo de Gauss-Seidel . . . . . . . . . . . . . . . . . .
4.3.3 Convergencia do Metodo SOR . . . . . . . . . . . . . . . . . . . . . . . .
4.3.4 Convergencia do Metodo de Jacobi Amortecido . . . . . . . . . . . . . . .
4.3.5 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4 Metodo do Gradiente Conjugado . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.1 Metodos de Descida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.2 Metodo da Descida Mais Acentuada . . . . . . . . . . . . . . . . . . . . .
4.4.3 Metodo do Gradiente Conjugado . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

86
86
87
88
88
89
90
91
92
94
96
97
97
99
101
109
110
110
111
113
114

5 M
etodos Multigrid
5.1 Suavizacao de Erros . . . . . .
5.2 Operador Restricao e Operador
5.3 Ciclos V . . . . . . . . . . . . .
5.4 Multigrid Completo . . . . . .
5.5 Convergencia . . . . . . . . . .
5.6 Multigrid Adaptativo . . . . . .
5.7 Multigrid Algebrico . . . . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

120
120
120
120
120
120
120
120

6 M
etodo de Elementos Finitos
6.1 O Caso Unidimensional . . . . . . . . . . . . . . . . . . . . . . . .
6.1.1 Formulacao Variacional . . . . . . . . . . . . . . . . . . . .
6.1.2 Elementos Finitos Lineares por Partes . . . . . . . . . . . .
6.2 O Caso Bidimensional . . . . . . . . . . . . . . . . . . . . . . . . .
6.2.1 Formulacao Variacional . . . . . . . . . . . . . . . . . . . .
6.2.2 Triangulacoes e Elementos Finitos Lineares por Partes . . .
6.2.3 Interpretacao Geometrica do Metodo de Elementos Finitos
6.3 Formulacao Abstrata do Metodo dos Elementos Finitos . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

121
121
121
123
124
125
125
127
127

. . . . . .
Extensao
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

Rodney Josue Biezuner


7 Aproxima
c
ao de Autovalores do Laplaciano
7.1 Elementos Finitos . . . . . . . . . . . . . . . . . . . .
7.1.1 Resultados Preliminares . . . . . . . . . . . . .
7.1.2 Convergencia dos Autovalores Discretos para os
7.1.3 Convergencia das Autofuncoes . . . . . . . . .

. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
Autovalores Contnuos
. . . . . . . . . . . . . .

8 M
etodos Num
ericos para a Obten
c
ao de Autovalores de Matrizes
8.1 Metodo das Potencias . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.1.1 Iteracao Inversa e Iteracao com Deslocamento . . . . . . . . . .
8.2 Iteracao de Subespacos . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3 Metodo QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3.1 O Algoritmo QR . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3.2 Implementacao Eficiente do Algoritmo QR . . . . . . . . . . .
8.4 Metodos para Matrizes Esparsas . . . . . . . . . . . . . . . . . . . . .
8.4.1 Processo de Arnoldi . . . . . . . . . . . . . . . . . . . . . . . .
8.4.2 Representacao Matricial do Processo de Arnoldi . . . . . . . .
8.4.3 Metodo de Lanczos . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

131
131
132
137
138

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

140
140
141
142
144
145
148
149
149
151
153

Captulo 1

Os Autovalores do Laplaciano
Seja Rn um aberto limitado. O problema de autovalor para o laplaciano consiste em encontrar os valores
tais que
u = u em
(1.1)
admite soluc
oes nao triviais, com alguma condicao de fronteira imposta sobre u. A equacao de autovalor do
laplaciano tambem e conhecida como equac
ao de Helmholtz. Nestas notas, consideraremos o problema de
autovalor com condicao de Dirichlet

u = u
em ,
(1.2)
u=0
sobre ,
e o problema de autovalor com condicao de Neumann

u = u
u
=0

em ,
sobre .

(1.3)

O problema e tradicionalmente escrito nesta forma, com o sinal negativo multiplicando o laplaciano, porque
assim todos os autovalores sao nao-negativos. No caso do problema de Dirichlet, este fato segue imediatamente do princpio do maximo. De fato, este implica que todos os autovalores, se existirem, devem ser
positivos, como veremos neste captulo. Por outro lado, zero e um autovalor no problema de Neumann, pois
as funcoes constantes sao autofuncoes associadas a este.

1.1
1.1.1

Motivac
ao para o Estudo dos Autovalores do Laplaciano
M
etodo de Expans
ao em Autofunco
es

Varios problemas de equacoes diferenciais parciais podem ser resolvidos atraves do chamado metodo de
expansao em autofuncoes do laplaciano.
Considere o seguinte problema de Dirichlet para a equacao da onda em um aberto limitado Rn :

utt = c2 u
se x e t > 0,

u (x, 0) = f (x)
se x ,
u (x, 0) = g (x)
se x ,

t
u (x, t) = 0
se x e t > 0,


onde c R, f C 2 e g C 1 . Se R2 , entao este problema modela as vibracoes transversais
de baixa amplitude de uma membrana fina fixada em um aro com o formato de : se e um retangulo,
4

Rodney Josue Biezuner

estamos estudando as vibracoes de uma membrana retangular; se e um crculo, o estudo e o de uma


membrana circular (um tambor usual), e assim por diante. Este problema pode ser resolvido pelo metodo
de separac
ao de vari
aveis: supomos que a solucao do problema pode ser escrita na forma
u (x, t) = F (x) G (t) ,

x e t > 0.

Substituindo esta expressao na equacao da onda, obtemos


F (x) G00 (t) = c2 F (x) G (t) .
Separando as variaveis, segue que

F (x)
1 G00 (t)
= 2
=
F (x)
c G (t)

onde R e alguma constante a ser determinada. Como em geral G (t) nao e a funcao identicamente nula,
a condicao de fronteira implica que F (x) = 0 para x . Portanto, a funcao F satisfaz o problema de
Dirichlet para a equacao de Laplace

F (x) = F (x)
se x ,
F (x) = 0
se x ,
ou seja, e um autovalor do laplaciano em . Como veremos, os autovalores do laplaciano em formam
um conjunto enumeravel {n }nN e existe um conjunto associado de autofuncoes {Fn }nN que constitui uma
base de Schauder (em outras palavras, um conjunto ortonormal completo) para L2 (). A solucao geral para
a equacao diferencial ordinaria
G00 (t) = n c2 G (t)
e
Gn (t) = an cos

p
p
n t + bn sen n t.

Logo, a solucao do problema da onda e


u (x, t) =

an cos

n t + bn sen

n t Fn (x) ,

n=1

onde os coeficientes an , bn sao determinados pelas condicoes iniciais (posicao inicial e velocidade inicial da
membrana):
f (x) =
g (x) =

an Fn (x) ,

n=1

bn

p
n Fn (x) ,

n=1

ou seja, usando as relacoes de ortonormalidade das funcoes Fn ,


Z
an =
f (x)Fn (x) dx,

Z
1
bn =
f (x)Fn (x) dx.
n
Assim, no caso bidimensional, os autovalores do laplaciano correspondem `as freq
uencias naturais de vibracao
de uma membrana, enquanto que as autofuncoes associadas correspondem aos modos naturais de vibracao
da membrana. Estas ideias se generalizam para fenomenos vibratorios em tres ou mais dimensoes.

Rodney Josue Biezuner

O metodo de expansao em autofuncoes tambem pode ser usado para resolver o problema de Neumann
da equacao da onda ou outros problemas mais gerais. Nestes casos, devem ser buscados os autovalores do
laplaciano de acordo com a condicao de fronteira considerada.
O metodo de expansao em autofuncoes tambem pode ser usado para resolver o problema do calor com
as condicoes de fronteira apropriadas. Por exemplo, para o problema de Dirichlet

se x e t > 0,
ut = Ku
u (x, 0) = f (x)
se x ,

u (x, t) = 0
se x e t > 0,
a solucao e dada por
u (x, t) =

an e

n Kt

Fn (x) ,

n=1

onde os coeficientes an sao determinados pelas condicao inicial (distribuicao de temperaturas inicial na placa
bidimensional ou no objeto tridimensional):
f (x) =

an Fn (x) ,

n=1

isto e,

Z
an =

f (x)Fn (x) dx.

1.1.2

Problema Isospectral

Dada uma variedade Riemanniana compacta com fronteira (M, g), pode-se definir um operador laplaciano
g u = div (u). Em coordenadas locais, ele e um operador elptico. Como no caso de abertos de Rn , o
laplaciano em variedades possui uma seq
uencia de autovalores (o seu espectro). Dizemos que duas variedades
Riemannianas sao isospectrais se seus espectros coincidirem, contando multiplicidades. Uma questao natural
e a seguinte: duas variedades Riemannianas isospectrais sao isometricas? Se considerarmos variedades ndimensionais contida em Rn sob a metrica euclidiana, duas variedades serem isometricas e equivalente a
elas serem congruentes do ponto de vista da geometria euclidiana classica. Esta questao para domnios
planos foi colocada de maneira mais colorida por Bers e Kac em 1966 ([Kac]; o u
ltimo atribui o problema
a Bochner em meados dos anos 1950s) como e possvel escutar o formato de um tambor?, ja que no caso
de domnios no plano os autovalores do laplaciano correspondem ao quadrado das freq
uencias naturais de
vibracao produzidas por uma membrana, como vimos na secao anterior. Pode-se tracar as origens desta
especulacao ao resultado obtido por Weyl em 1911 [Weyl] de que a area de um domnio plano e determinada
pelo espectro do laplaciano; em particular, domnios com diferentes areas nunca podem ter o mesmo espectro.
Sabe-se tambem que o espectro determina o permetro e o n
umero de componentes conexas de um domnio
plano (veja [Kac] para referencias). Kac, usando a desigualdade perimetrica (permetro() > 4 area()) e
o fato que a area e o permetro sao determinadas pelo espectro do laplaciano, conseguiu provar que se um
domnio plano possui o mesmo espectro de um disco de raio r, entao ele e congruente ao disco, mostrando
que existem domnios que sao determinados pelo espectro do laplaciano.
No entanto, a resposta a este problema no caso geral e negativa: o formato de um tambor nao e audvel.
No caso de variedades Riemannianas, Milnor ja havia construdo em 1964 [Milnor] um par de variedades
isospectrais nao-isometricas de dimensao 16; varios outros exemplos se seguiram, incluindo superfcies de
Riemann (veja [GWW1] e [Protter], para referencias) ate que em 1980 Vigneras [Vigneras] obteve exemplos
de variedades compactas isospectrais nao-isometricas de qualquer dimensao n > 2. Entretanto, a questao de
Kac para domnios no plano permaneceu em aberta ate 1992, quando Gordon, Webb e Wolpert ([GWW1];
veja [GWW2] para os detalhes completos), usando resultados de teoria de espacos de recobrimento e teoria
dos grupos, obtiveram um par de domnios planos simplesmente conexos nao-isometricos com os mesmos

Rodney Josue Biezuner

espectros de Dirichlet e de Neumann. Os contra-exemplos que eles obtiveram tem o formato de uma regiao
poligonal, nao-convexa, e o metodo permite a obtencao de uma larga colecao de contra-exemplos. Os
primeiros 54 autovalores do primeiro contra-exemplo de Gordon, Webb e Wolpert, que ficou conhecido como
os tambores GWW, foram encontrados experimentalmente por Sridhar e Kudrolli [Sridhar-Kudrolli]; eles
construram cavidades de microondas com o formato da regiao poligonal e mediram ressonancias em ondas
magneticas transversais, que obedecem a equacao de Helmoltz. Posteriormente, varios autores calcularam
autovalores e autofuncoes dos tambores GWW atraves de metodos numericos; veja [Driscoll], [Heuveline] e
as referencias nestes artigos.
Uma demonstracao mais simples e versatil do resultado de Gordon, Webb e Wolpert, foi dada por Berard
[Berard2], usando a chamada tecnica de transplantac
ao de autofunc
oes, introduzida pelo proprio [Berard1].
Os domnios sao construdos a partir de translacoes, rotacoes e reflexoes de uma u
nica forma, tal como um
triangulo, sem sobreposicoes. Dada uma autofuncao em um domnio, pode-se prescrever uma funcao sobre
o outro domnio cujos valores sobre cada parte sao combinacoes lineares dos valores da autofuncao sobre
varias das partes do primeiro domnio. As combinacoes sao escolhidas de modo a satisfazer as condicoes
de fronteira e igualar valores da funcao e suas derivadas nas interfaces entre as partes. O resultado e uma
autofuncao na segunda regiao tendo o mesmo autovalor. Para completar a prova de isospectralidade, basta
mostrar que o procedimento e invertvel. Usando esta tecnica, Chapman [Chapman] obteve alguns exemplos
que podem ser explicados em nvel elementar atraves de dobraduras de papel e ate mesmo um exemplo onde
os autovalores do laplaciano podem ser calculados explicitamente (este exemplo consiste de dois domnios
cada um com duas componentes conexas, um retangulo e um triangulo isosceles reto; veja Exemplo 4 na
proxima secao).
Todos os contra-exemplos dados nas referencias acima sao de domnios nao-convexos ou com quinas.
Watanabe ([Wat1], [Wat2]) determinou a existencia de uma classe nao-enumeravel de domnios suaves que
nao e um disco (incluindo exemplos convexos e nao-convexos) que sao determinados pelos espectros de Dirichlet ou de Neumann do laplaciano. Outros exemplos de domnios determinados pelo espectro do laplaciano,
com a propriedade adicional de serem analticos reais e simetricos com respeito a reflexoes em relacao a um
eixo horizontal e a um eixo vertical, foram dados por Zelditch [Zelditch]. A identificacao de todas as classes
de domnios que sao determinados pelo espectro do laplaciano e um problema em aberto.

1.2

Exemplos

Exemplo 1. Os autovalores do laplaciano para o problema de Dirichlet no caso unidimensional

u00 = u
em [0, L] ,
u (0) = u (L) = 0,
sao
n =

n2 2
,
L2

n N.

As autofuncoes correspondentes sao


un (x) = sen

nx
.
L

Exemplo 2. Os autovalores do laplaciano para o problema de Dirichlet no retangulo R = [0, a] [0, b] R2

(uxx + uyy ) = u
em R,
u=0
sobre R,
sao

nm =

m2
n2
+
a2
b2

n, m N.

Rodney Josue Biezuner

As autofuncoes correspondentes sao


unm (x, y) = sen

nx
my
sen
.
a
b

Exemplo 3. Os autovalores do laplaciano para o problema de Dirichlet em um triangulo isosceles reto


T R2 com lado menor de comprimento c

(uxx + uyy ) = u
em T,
u=0
sobre T,
sao

nm = 2

n2
m2
+ 2
2
c
c

n, m N.

As autofuncoes correspondentes sao


unm (x, y) = sen

nx
my
mx
ny
sen
sen
sen
.
c
c
c
c

Exemplo 4. [Chapman] A partir dos Exemplos 2 e 3 podemos construir dois domnios planos isospectrais
1 e 2 que nao sao isometricos. De fato, cada i e a uniao disjunta de um retangulo e um triangulo
isosceles reto:
1 = R1 T1 ,
2 = R2 T2 ,
onde R1 e um quadrado unitario, R2 e um retangulo de comprimento 2 e altura 1 e T1 e T2 sao triangulos
is
osceles retos, os lados menores do primeiro tendo comprimento 2 e os do segundo com comprimento
2. Os autovalores de um domnio que e a uniao disjunta de varias componentes conexas (incluindo
as fronteiras de cada componente) e a uniao dos autovalores de cada componente, as autofuncoes do
domnio sendo as funcoes que sao iguais `as autofuncoes em cada componente e zero nas demais. De
acordo com os Exemplos 2 e 3, segue que os espectros dos domnios 1 e 2 sao dados por
2

2 2

n
m2
2
2
1 = n + m n,mN
+
,
4
4
n,mN

2
N
M2
N
2 = 2
+ M2
2
+
.
4
2
2
N,M N
N,M N

2 1 : Seja 2 um autovalor da forma 2

N2
+ M 2 , N, M N. Se N e par, tomamos
2

N
N2
e m = M , obtendo
+ M 2 = n2 + m2 ; se N e mpar, escolhemos n = max (N, 2M ), m =
2
4
2

N2
n2 m2
N
M2
min (N, 2M ), produzindo
+M 2 =
+
. Se 2 e um autovalor da forma 2
+
,
4
4
4
2
2
N2
M2
n2
m2
N, M N, escolhemos n = N + M e m = |N M |, de modo que
+
=
+
.
2
2
4
4

1 2 : Se 1 e um autovalor da forma 2 n2 + m2 , n, m N, escolhemos N = 2n


2

n
m2
N2
2
2
2
2
+ M . Seja 2 um autovalor da forma
+
,
e M = m, obtendo n + m =
4
4
4
n=

Rodney Josue Biezuner

n
n2
m2
N2
n, m N. Se n e par, tomamos N = m e M = , de modo que
+
=
+ M 2 ; se m e par,
2
4
4
4
m
tomamos N = n e M =
para produzir o mesmo resultado.
2
Portanto,
1 = 2
embora 1 e 2 nao sejam congruentes. Observe que, como requer o resultado obtido por Weil
(discutido
na secao anterior), 1 e 2 possuem a mesma area igual a 2, o mesmo permetro igual a

8 + 2 2 e obviamente o mesmo n
umero de componentes conexas.
Exemplo 5. Os autovalores do laplaciano para o problema de Dirichlet no paraleleppedo P = [0, a][0, b]
[0, c] R3

(uxx + uyy + uzz ) = u


em P,
u=0
sobre P,
sao

nmk =

n2
m2
k2
+
+
a2
b2
c2

n, m, k N.

As autofuncoes correspondentes sao


unmk (x, y) = sen

nx
my
kz
sen
sen
.
a
b
c

Exemplo 6. Os autovalores do laplaciano para o problema de Dirichlet no disco D = x R2 : kxk 6 R


1
1

urr + ur + + 2 u = u
se 0 < r < 1 e 0 < < 2,
r
r

u=0
se r = R e 0 < < 2,
sao
nm =

onde n,m

n,m

, n = 0, 1, 2, . . . , m = 1, 2, . . .
R
e o m-esimo zero positivo da func
ao de Bessel do primeiro tipo Jn
Jn (r) =

X
k=0

(1)k r 2k+n
.
k!(k + n)! 2

As autofuncoes correspondentes sao


u0m (r, ) = J0 (0m r) ,
1
unm
(r, ) = cos nJn (nm r)

u2nm (r, ) = sen nJn (nm r) .

Note que para m = 1, 2, . . . temos duas autofuncoes distintas para um dado autovalor, isto e, tais
autovalores tem multiplicidade pelo menos igual a 2.

Exemplo 7. Os autovalores do laplaciano para o problema de Dirichlet na bola B = x R3 : kxk 6 R


1
2

urr + ur + 2 u + cot u + csc2 u


= u
se 0 < r < 1, 0 < < 2 e 0 < <
r
r

u=0
se r = R, 0 < < 2 e 0 < <
sao

nm =

n+ 12 ,m
R

2
,

n = 0, 1, 2, . . . , m = 1, 2, . . .

Rodney Josue Biezuner

10

onde n+ 12 ,m e o m-esimo zero positivo da funcao de Bessel do primeiro tipo Jn+ 12


Jn+ 12 (r) =

(1)k

k! k + n +
k=0

1
2

+1

r 2k+n+ 12
2

` cada autovalor nm correspondem 2n + 1 autofuncoes


A
uknm (r, , ) = jn (nm r) Yn,k (, ) ,

k = n, n + 1, . . . , 1, 0, 1, . . . , n 1, n,

onde jn e a func
ao de Bessel esferica do primeiro tipo
r

J 1 (r),
jn (r) =
2r n+ 2
e Yn,k sao as harm
onicas esfericas
s
Yn,k (, ) =

2n + 1 (n k)! k
P (cos ) eik ,
4 (n + k)! n

com Pnk sendo a func


ao de Legendre
n
dn 2
r 1 ,
n
dr
k/2 dk 0
k
Pnk (r) = (1) 1 r2
P (r) , se 0 6 k 6 n,
drk n
k (n + k)! k
Pnk (r) = (1)
P (r) , se n 6 k < 0.
(n k)! n
Pn0 (r) =

2n n!

1.3

Princpio do M
aximo Fraco: O Laplaciano n
ao possui Autovalores Negativos

1.1 Lema. (Princpio do Maximo Fraco) Seja Rn um aberto limitado. Seja u C 2 () C 0 ().
Se u > 0 em , ent
ao
max u = max u;

Se u 6 0 em , ent
ao
min u = min u.

Em particular, se u satisfaz u = 0 em , ent


ao u atinge o seu m
aximo e o seu mnimo na fronteira
de .
Prova: Sejam
M = max u

m = max u

e suponha por absurdo que m < M . Entao existe um ponto x0 \ tal que u (x0 ) = M . Defina a funcao
v (x) = u (x) +

M m
2
|x x0 | ,
4d2

Rodney Josue Biezuner

11

d = diam . Se x , temos
v (x) 6 m +

M m 2
3
M
< M,
d = m+
2
4d
4
4

e como u (x0 ) = v (x0 ) = M , segue que o maximo de v tambem e assumido em um ponto de \, digamos
em x. Mas, como x e um ponto de maximo para v, devemos ter
v (x) 6 0,
enquanto que, pela definicao de v e pelo fato de u satisfazer a equacao de Laplace, para todo x temos
v (x) = u (x) +

M m
M m
>
> 0,
2
2d
2d2

uma contradicao. Isso mostra que u atinge o seu maximo em .


Para provar a segunda afirmacao, basta considerar u e observar que min u = max(u).
Defina a parte positiva e a parte negativa de uma funcao u respectivamente por
u+ = max(u, 0),
u = min(u, 0).
1.2 Corol
ario. Seja Rn um aberto limitado. Seja R, 6 0. Seja u C 2 () C 0 ().
Se u u 6 0 em , ent
ao

max u 6 max u+ .

Se u u > 0 em , entao

min u > min u .

Em particular, se u satisfaz u = u em , ent


ao
max |u| = max |u|

de modo que se o problema de Dirichlet

u = u
u=0

em ,
sobre ,

possuir soluc
ao u C 2 () C 0 (), ent
ao a soluc
ao e trivial. Conseq
uentemente, o problema de
Dirichlet para o laplaciano n
ao possui autovalores negativos ou nulos.
Prova. Assuma primeiro u u 6 0 em . Se u 6 0 em , entao o corolario vale trivialmente. Logo,
podemos assumir que + = {x : u(x) > 0} 6= . Como u > 0 em + , temos que u > 0 em + .
Segue do Princpio do Maximo Fraco que
u.
max u = max
+
+

Mas u = 0 em + , logo o maximo deve ser atingido em . O caso u u 6 0 segue do primeiro


considerando u.

Rodney Josue Biezuner

1.4

12

M
etodos Variacionais para Autovalores de Operadores Lineares

Nesta secao vamos rever os metodos variacionais para a obtencao de autovalores para operadores lineares
definidos em espacos de dimensao finita providos de produto interno. A teoria sera entao generalizada mais
tarde para obter a existencia e algumas propriedades basicas dos autovalores do laplaciano. Em primeiro
lugar, discutiremos o Princpio de Rayleigh, que afirma que o menor autovalor de um operador linear pode
ser encontrado como o mnimo de um certo funcional, enquanto que o seu maior autovalor e o maximo deste
mesmo funcional:
1.3 Teorema. (Princpio de Rayleigh) Seja V um espaco vetorial com produto interno de dimens
ao n e
T : V V um operador linear auto-adjunto. Sejam 1 6 . . . 6 n os autovalores de T , de modo que
1 e o menor autovalor de T e n e o maior autovalor de T . Ent
ao
1 = min
xV
x6=0

e
n = max
xV
x6=0

hT x, xi
2

kxk

hT x, xi
2

kxk

= min hT x, xi

(1.4)

= max hT x, xi

(1.5)

xV
kxk=1

xV
kxk=1

Prova: Seja B = {v1 , . . . , vn } uma base ortonormal de autovetores de T correspondentes aos autovalores
n
P
1 6 . . . 6 n de T . Entao, para todo x =
xi vi V temos
i=1

*
hT x, xi =

n
X

!
xi vi

i=1

=
=

n
X

n
X

+
xj vj

j=1

n
X

xi T vi ,

i=1
n
X

hi xi vi , xj vj i =

i,j=1
n
X

n
X
j=1

+
xj vj

* n
X
i=1

i xi vi ,

n
X

+
xj vj

j=1

i xi xj hvi , vj i

i,j=1

i x2i .

i=1

Portanto, para todo x V , x 6= 0, vale


2

1 kxk =

n
X

1 x2i 6 hT x, xi 6

i=1

n
X

n x2i = n kxk

i=1

O mnimo e atingido em x = v1 , ou em qualquer outro autovetor de T associado a 1 , e o maximo e atingido


em x = vn , ou em qualquer outro autovetor de T associado a n .
O quociente
hT x, xi
2

kxk

e chamado o quociente de Rayleigh.


Os demais autovalores de T , 2 , . . . , n1 , sao pontos de sela e podem ser encontrado atraves de um
princpio de minimax:
1.4 Teorema. (Princpio de Minimax para Autovalores) Seja V um espaco vetorial com produto interno de
dimens
ao n e T : V V um operador linear auto-adjunto. Sejam 1 6 . . . 6 n os autovalores de

Rodney Josue Biezuner

13

T . Ent
ao, se Wj denota o conjunto dos subespacos de V de dimens
ao j, temos

hT
x,
xi
.
j = min max hT x, xi = min max
W Wj
xW
W Wj
xW kxk2
x6=0
kxk=1
ou, dualmente,

j =

max min hT x, xi =

W Wj1

xW
kxk=1

(1.6)

hT x, xi
.
max min
xW kxk2
x6=0

(1.7)

W Wj1

Prova: Provemos primeiro (1.6). Seja W V um subespaco de dimensao j. Primeiro mostraremos que
max hT x, xi > j .

xW
kxk=1

Seja B = {v1 , . . . , vn } uma base ortonormal de autovetores de T correspondentes aos autovalores 1 , . . . , n .


Seja Z = hv1 , . . . , vj1 i. Como Z = hvj , . . . , vn i, temos

n > dim W + Z = dim W + dim Z dim W Z = j + n (j 1) dim W Z ,


de modo que

dim W Z > 1

e existe um vetor x W Z tal que kxk = 1. Escrevendo x =

n
P

xk vk , temos kxk =

k=j

hT x, xi =
=

* n
X

xk T vk ,

k=j
n
X

n
X

+
xl vl

l=j
n
X

k x2k > j

k=j

*
=

n
X

xk k vk ,

k=j

n
X

n
P
k=j

+
xl vl

l=j

n
X

x2k = 1, donde

k xk xl hvk , vl i

k,l=j

x2k = j .

k=j

Para completar a demonstracao, devemos encontrar um subespaco W V de dimensao j tal que hT x, xi 6


j para todo x W com kxk = 1. Tomemos W = hv1 , . . . , vj i. Temos
*
hT x, xi =

j
X
k=1

j
X
k=1

xk T vk ,

j
X

+
xl vl

*
=

k=1

l=1

k x2k 6 j

j
X

j
X

xk k vk ,

j
X
l=1

+
xl vl

j
X

k xk xl hvk , vl i

k,l=1

x2k = j .

k=1

O minimax e atingido em vj .
Vamos agora provar o princpio dual (1.7). Seja W V um subespaco de dimensao j 1. Primeiro
mostraremos que
min hT x, xi 6 j .
xW
kxk=1

Como antes, B = {v1 , . . . , vn } e uma base ortonormal de autovetores de T correspondentes aos autovalores
1 , . . . , n . Seja Z = hv1 , . . . , vj i. Como W tem dimensao n (j 1), temos

n > dim W + Z = dim W + dim Z dim W Z = n (j 1) + j dim W Z ,

Rodney Josue Biezuner

14

de modo que

dim W Z > 1

e existe um vetor x Z tal que x W e kxk = 1. Escrevendo x =

j
P

xk vk , temos kxk =

k=1

*
hT x, xi =

j
X

xk T vk ,

k=1

j
X

j
X

+
xl vl

*
=

l=1

k x2k 6 j

k=1

j
X

j
X

xk k vk ,

k=1

j
X
l=1

k=1

+
xl vl

j
P

j
X

x2k = 1, donde

k xk xl hvk , vl i

k,l=1

x2k = j .

k=1

Para completar a demonstracao, devemos encontrar um subespaco W V de dimensao j 1 tal que


hT x, xi > j para todo x W com kxk = 1. Tomemos W = hv1 , . . . , vj1 i. Entao W = hvj , . . . , vn i e
para todo x W com kxk = 1 temos
* n
+ * n
+
n
n
n
X
X
X
X
X
hT x, xi =
xk T vk ,
xl vl =
xk k vk ,
xl vl =
k xk xl hvk , vl i
k=j

n
X

l=j
n
X

k x2k > j

k=j

k=j

l=j

k,l=j

x2k = j .

k=j

O maximin e atingido em vj .

Os Espacos de Sobolev W 1,2 e W01,2

1.5

Para generalizar os metodos variacionais discutidos na secao anterior para encontrar os autovalores do Laplaciano, e necessario definir um espaco de funcoes dotado de um produto interno adequado. Para domnios
limitados, o espaco adequado para se trabalhar e o espaco de Sobolev.

1.5.1

A Derivada Fraca

Seja um aberto de Rn . Suponha que u C 1 () e uma funcao real continuamente diferenciavel. Se


C0 () e uma funcao suave com suporte compacto em , segue da formula de integracao por partes que
Z
Z

u
u
dx =
dx
(1.8)
x
x
i
i

para i = 1, . . . , n. Nao ha termos de fronteira exatamente porque tem suporte compacto em .


Defini
c
ao. Seja Rn um subconjunto aberto e u L1loc (). Dizemos que uma funcao vi L1loc () e
uma derivada fraca de u, se
Z
Z

u
dx =
vi dx,
(1.9)
xi

para toda C0 (). Se este for o caso, denotamos


vi =

u
.
xi

(1.10)

Dizemos que u e fracamente diferenci


avel se todas as derivadas fracas de primeira ordem de u
existirem. O espaco vetorial das funcoes fracamente diferenciaveis e denotado por W 1 ().

Rodney Josue Biezuner

15

Quando existe, vi e u
nicamente determinada a menos de conjuntos de medida nula. Claramente C 1 ()
1
W (): o conceito de derivada fraca e uma extensao do conceito classico de derivada que mantem a validade
da formula de integracao por partes.
Exemplo 1. Sejam n = 1, = (0, 2) e

u(x) =
Entao, se

v(x) =

x
1

se 0 < x 6 1,
se 1 6 x < 2.

1
0

se 0 < x 6 1,
se 1 6 x < 2,

temos u0 (x) = v(x). De fato, dada C0 ((0, 2)), temos


Z

u0 dx =

x0 dx +

0 dx

1
1

= (1) 0

dx + 0 (1)
0

v dx.
0

Exemplo 2. Sejam n = 1, = (0, 2) e

u(x) =

x
2

se 0 < x 6 1,
se 1 6 x < 2.

Entao u nao possui uma derivada fraca. Com efeito, suponha por absurdo que exista uma funcao
v L1loc ((0, 2)) satisfazendo
Z 2
Z 2
u0 dx =
v dx,
0

para toda

C0 ((0, 2)).
Z

Entao
Z

v dx =
0

x0 dx + 2

= (1)

Z
0 dx = (1) 0

dx + 0 2(1)
0

dx,
0

ou seja,

(1) =

dx +
0

v dx.
0

para toda C0 ((0, 2)). Escolhendo uma seq


uencia de funcoes-teste (m ) C0 ((0, 2)) satisfazendo
m (1) = 1, 0 6 m 6 1 e m (x) 0 para todo x 6= 1, obtemos atraves do teorema da convergencia
dominada de Lebesgue que
Z 1

Z 2
1 = lim m (1) = lim
m dx +
vm dx = 0,
m

uma contradicao.

Rodney Josue Biezuner

16

possvel provar que uma funcao real em uma variavel real possui uma
Estes exemplos nao sao acidentais. E
derivada fraca se e somente se ela for absolutamente contnua (a menos de modificacoes em conjuntos de
medida nula); em particular, isso implica que ela e diferenciavel no sentido classico em quase todo ponto. No
caso de funcoes de varias variaveis, pode-se provar que uma funcao u L1loc () e fracamente diferenciavel
se e somente se ela e igual, a menos de um conjunto de medida nula, a uma funcao que (1) e absolutamente
contnua em quase todos os segmentos em paralelos aos eixos coordenados e (2) as derivadas parciais de
u sao localmente integraveis. Para maiores detalhes, veja [Biezuner].

1.5.2

Espa
cos de Sobolev

Seja um aberto de Rn . Definimos

u
1,2
1
2
2
W () = u W () : u L () e
L () para todo i = 1, . . . , n .
xi

(1.11)

W 1,2 () e claramente um espaco vetorial. Ele e munido da norma


!1/2
n Z
X
u 2

.
|u| +
xi

i=1

kukW 1,2 () =
Definimos tambem

(1.12)

W01,2 () = fecho de C0 () em W 1,2 ().

Em ambos os espacos vetoriais normados W 1,2 () e W01,2 () definimos o produto interno


Z
hu, vi =

uv +

n Z
X
i=1

n
X
u v
u v
= hu, viL2 () +
,
.
xi xi
xi xi L2 ()
i=1

(1.13)

Desta forma, a norma definida acima e derivada deste produto interno. Ela tambem e equivalente `a norma
Z
kukW 1,2 () =

|u|

1/2

Z
!1/2
n
X
u 2

+
xi

i=1
n
X

= kukL2 () +
xi 2 .
L ()
i=1

1.5.3

Propriedades dos Espa


cos de Sobolev

Assumiremos os resultados a seguir sem demonstracao (veja [Biezuner] para a demonstracao destes resultados).
1.3 Teorema. W 1,2 () e um espaco de Hilbert. Em particular, W01,2 () tambem e um espaco de Hilbert.
1.4 Teorema. C () W 1,2 () e denso em W 1,2 (). Se um aberto com fronteira de classe C 1 , ent
ao
C () W 1,2 () e denso em W 1,2 ().
Os seguintes resultados caracterizam o espaco W01,2 ():
1.5 Teorema. Se u W 1,2 () satisfaz supp u , ent
ao u W01,2 ().
Se Rn e um aberto com fronteira de classe C 1 e se u W 1,2 () C(), ent
ao u W01,2 () se e
somente se u = 0 em .

Rodney Josue Biezuner

17

As propriedades de imersao compacta dos espacos de Sobolev sao as que lhe conferem a sua grande
utilidade. Recordamos os conceitos de imers
ao contnua e imers
ao compacta:
Defini
c
ao. Seja E um subespaco vetorial normado de um espaco normado F (ou seja, a norma em E nao
precisa necessariamente ser a norma induzida de F ). Dizemos que a inclusao E F e uma imers
ao
(contnua) se a aplicacao inclusao I : E F definida por Ix = x for contnua. Denotamos este fato
por
E , F.
Se, alem disso, a aplicacao inclusao for compacta, dizemos que a imersao E , F e compacta.
Denotaremos a imersao compacta de um espaco vetorial normado E em um espaco vetorial normado
F por
E ,
F.
Como a aplicacao inclusao e linear, o fato de existir uma imersao E , F e equivalente `a existencia de uma
constante C tal que
kxkF 6 C kxkE para todo x E.
Em particular, se (xn ) e uma seq
uencia de Cauchy em E, entao (xn ) tambem e uma seq
uencia de Cauchy
claro que se E tem a norma induzida de F ,
em F ; logo, se xn x em E, entao xn x em F tambem. E
entao a inclusao E F e uma imersao, com C = 1. Quando existe uma imersao E , F , dizer que ela e
compacta e equivalente a dizer que seq
uencias limitadas de (E, kkE ) possuem subseq
uencias convergentes
em (F, kkF ).
1.6 Teorema. (Teorema da Imersao de Sobolev) Seja Rn um aberto. Ent
ao
W 1,2 () , L2 (),
W01,2 () , L2 ().
Prova: Usando a norma equivalente introduzida acima, se E = W 1,2 () ou se E = W01,2 () temos

n
X
u

kukE = kukL2 () +
xi

L2 ()

i=1

> kukL2 () .

1.7 Teorema. (Teorema de RellichKondrakhov) Seja Rn um aberto limitado com fronteira de classe
C 1 . Ent
ao
W 1,2 () ,
L2 () ,
Se trocarmos W 1,2 por W01,2 , o resultado e v
alido para abertos arbitr
arios.
1.8 Teorema. (Desigualdade de Poincare) Seja Rn um aberto limitado. Ent
ao

kukL2 () 6

||
n

1/n
kukL2 () .

para todo u W01,2 () (aqui n e o volume da bola unit


aria em Rn ).
Observe que o Teorema 1.8 nao e valido se trocamos W01,2 por W 1,2 porque as funcoes constantes pertencem
a W 1,2 e nao satisfazem a desigualdade de Poincare (pois tem derivada nula).

Rodney Josue Biezuner

1.6

18

Exist
encia e Unicidade de Soluco
es para o Laplaciano atrav
es
do M
etodo Variacional

De agora em diante, Rn sera sempre um aberto limitado.

1.6.1

Solu
c
oes Fracas

Defini
c
ao. Seja f L2 (). Dizemos que u W01,2 () e uma solu
c
ao fraca para o problema de Dirichlet

u = f
em ,
(1.14)
u=0
sobre ,
se

Z
u v =

fv

para todo v W01,2 () .

Se os dados do problema de Dirichlet (1.14) sao suficientemente regulares e a solucao fraca tambem e
suficientemente regular, entao ela e uma solucao classica:
1.9 Proposi
c
ao. (Solucoes Fracas Regulares
sao Solucoes Classicas) Sejam f C 0 (). Se existir uma

2
0
soluc
ao fraca u C () C para o problema

u = f
em ,
u=0
sobre ,
ent
ao u e uma soluc
ao cl
assica.
Prova: Pela Primeira Identidade de Green, para todo v C0 () temos
Z
Z
Z
Z
u
u v =
v
(u) v =
(u) v.

Da e da definicao de solucao fraca segue que


Z

Z
(u) v =

fv

para todo v C0 (), ou seja,


Alem disso, como u

1.6.2

W01,2

u = f em .

() C , segue da caracterizacao dos espacos W01,2 () que u = 0 em .
0

Exist
encia, Unicidade e Regularidade de Soluc
oes Fracas

Quando uma solucao fraca existe ela e u


nica:
1.10 Proposi
c
ao. (Unicidade da Solucao Fraca) Seja f L2 (). Se existir uma soluc
ao fraca para o
problema

u = f
em ,
u=0
sobre ,
ent
ao ela e u
nica.

Rodney Josue Biezuner

19

Prova: O resultado segue imediatamente da estabilidade fraca da equacao de Poisson, isto e, se u1 , u2


W 1,2 () satisfazem
u1 = f1 , u2 = f2 em
para f1 , f2 L2 (), e

u1 u2 W01,2 () ,

entao existe uma constante C = C (n, ) tal que


ku1 u2 kW 1,2 () 6 C kf1 f2 kL2 () .
De fato, temos

(1.15)

Z
(u1 u2 ) v =

(f1 f2 ) v,

para todo v W01,2 (), em particular para v = u1 u2 . Portanto segue da desigualdade de Poincare que
Z
2
2
ku1 u2 kL2 () =
| (u1 u2 )|
Z
=
(f1 f2 ) (u1 u2 )

6 kf1 f2 kL2 () ku1 u2 kL2 ()


6 C kf1 f2 kL2 () ku1 u2 kL2 () ,
donde
ku1 u2 kL2 () 6 C kf1 f2 kL2 () .
Novamente usando a desigualdade de Poincare, isso e suficiente para estabelecer (1.15).
No caso do problema de Dirichlet para a equacao de Poisson, a existencia de uma solucao fraca e imediatamente estabelecida pelo equivalente ao princpio de Dirichlet visto no incio do captulo anterior:
1.11 Teorema. (Existencia da Solucao Fraca) Sejam f L2 (). Ent
ao existe uma u
nica soluc
ao fraca
u W01,2 () para o problema

u = f
em ,
(1.16)
u=0
sobre .
Prova: Considere o funcional de Dirichlet I : W01,2 () R definido por
Z
Z
1
2
I (v) =
|v| dx +
f v.
2

Afirmamos que um ponto crtico u deste funcional e uma solucao fraca de (1.16). De fato, se u e um ponto
crtico de I, entao a derivada direcional de I na direcao de qualquer v W01,2 () e igual a 0, logo

Z
Z

d
d 1
2
0=
[I (u + tv)|t=0 =
| (u + tv)| +
f (u + tv)
dt
dt 2

t=0
Z
Z
=
u v +
fv

para todo v.
Para provar o teorema, basta entao encontrar uma funcao u W01,2 () que minimiza I, isto e, u tal que
Z

Z
1
2
I (u) = min
|v|
dx
+
f
v
,
vW01,2 () 2

Rodney Josue Biezuner

20

pois um ponto de mnimo e um ponto crtico de um funcional diferenciavel. Pela desigualdade de Poincare,
o funcional I e limitado por baixo, pois
Z
Z
1
2
I (v) = kvkL2 () +
f (v g) +
fg
2

Z
Z

1
2
> kvkL2 () f (v g) +
fg
2

Z
1
2
fg
> kvkL2 () kf kL2 () k(v g)kL2 () +
2

Z
1
2
fg
> kvkL2 () C kf kL2 () k (v g)kL2 () +
2

Z
1
2
> kvkL2 () C kf kL2 () kvkL2 () +
f g C kf kL2 () kgkL2 () ,
2

t2
e a funcao real h (t) = at + b e limitada por baixo para t R, quaisquer que sejam os valores de a, b R.
2
Podemos ent
ao definir
I0 =
inf
I (u) .
1,2
vW0

()

Seja (um )mN uma seq


uencia minimizante para I, isto e,
Z
Z
1
2
I (um ) =
|um | dx +
f u m I0 .
2

facil ver, que o funcional I e convexo. De fato, isto e uma conseq


E
uencia imediata da convexidade da funcao
2
x 7 |x|
Z
Z
2
I (tu + (1 t) v) =
|tu + (1 t) v| dx +
f (tu + (1 t) v)

Z h
Z
Z
i
2
2
6
t |u| + (1 t) |v| dx + t
f u + (1 t)
fv

= tI (u) + (1 t) I (v) .
2

A convexidade da funcao x 7 |x| por sua vez pode ser provada do seguinte modo:
h
i

2
2
2
2
2
2
|tx + (1 t) y| t |x| (1 t) |y| = t2 t |x| + 2t (1 t) x y + (1 t) (1 t) |y|
2

= t (1 t) |x y| 6 0.
Logo,

I0 6 I

uk + ul
2

1
1
I (uk ) + I (ul ) I0
2
2

quando k, l . Por outro lado, temos


2
Z
Z
Z
Z

1
uk + ul
2
2
2

| (uk ul )| dx =
|uk | dx +
|ul | dx 2

dx
2
2

Z
Z
Z
Z
2
2
=
|uk | dx + 2
f uk +
|ul | dx + 2
f ul

Z
Z

uk + ul
uk + ul

2
f
dx 4

2
2

uk + ul
= 2I (uk ) + 2I (ul ) 4I
,
2

Rodney Josue Biezuner

21

donde conclumos que (um ) e uma seq


uencia de Cauchy em L2 (). Pela desigualdade de Poincare temos
que
kuk ul kL2 () 6 C kuk ul kL2 () ,
logo (um ) tambem e uma seq
uencia de Cauchy em L2 () e portanto (um ) e uma seq
uencia de Cauchy em
1,2
W0 (), ou seja, existe u W01,2 () tal que um u em W01,2 (). Em particular, segue que I (u) = I0 .
Como um u em L2 () e um u em L2 (), temos que
Z
Z
Z
Z
1
1
2
2
|um | dx +
f um
|u| dx +
f u,
2
2

e conclumos que u e o minimizador do funcional de Dirichlet I.


Se a fronteira e os dados do problema sao suficientemente regulares, pode-se provar que uma solucao
fraca e uma solucao classica (veja [Gilbarg-Trudinger] ou [Biezuner] para os detalhes):
1.12 Teorema. Seja Rn um aberto limitado com fronteira de classe C . Seja f C ().. Se
u W01,2 () e uma soluc
ao fraca de

u = f
em ,
u=0
sobre ,

ent
ao u C .

1.7

O Espectro do Laplaciano

1.7.1

Exist
encia e Caracterizac
ao Variacional dos Autovalores do Laplaciano

Para o problema de Dirichlet, o espaco natural para aplicar o metodo variacional e W01,2 (), enquanto que
para o problema de Neumann trabalharemos em W 1,2 (). Examinaremos primeiro o problema de autovalor
do laplaciano para condicao de fronteira de Dirichlet.
Defini
c
ao. Dizemos que u W01,2 () e uma solu
c
ao fraca para o problema de autovalor do laplaciano
para condicao de fronteira de Dirichlet

u = u
em ,
u=0
sobre ,
se

Z
u v =

uv

para todo v W01,2 () .

(1.17)

Aceitaremos o seguinte resultado de regularidade sem demonstracao.


1.13 Teorema. Seja Rn um aberto limitado com fronteira de classe C . Seja R. Se u W01,2 ()
e uma soluc
ao fraca de

u = u
em ,
u=0
sobre ,

ent
ao u C .
1.14 Teorema. Seja Rn um aberto limitado. Ent
ao o problema de autovalor
u = u

em ,

u W01,2 ()

possui um n
umero infinito enumer
avel de autovalores
0 < 1 6 2 6 . . . 6 j 6 . . .

Rodney Josue Biezuner

22

tais que
j ,
e autofunc
oes {uj } que constituem um sistema ortonormal completo para L2 (), isto e,

v=

i ui

i=1

para todo v L2 (). Em particular,


2

kvkL2 () =

hv, ui iL2 () .

i=1

Alem disso, para todo v W01,2 () vale


2
kvkL2 ()

i hv, ui iL2 () .

i=1

Prova: Generalizando o princpio de Rayleigh, gostaramos de obter o primeiro autovalor do laplaciano


como o mnimo do funcional de Rayleigh:
1 =

hu, uiL2 ()

inf

uW01,2 ()\{0}

kukL2 ()

No entanto, nossas funcoes estao em W01,2 () e em geral nao possuem derivadas parcias de segunda ordem
e portanto seus laplacianos nao estao definidos. Porem, lembrando que C0 () e denso em W01,2 () e a
primeira identidade de Green para funcoes em C0 () toma a forma
Z
Z
Z
u
hu, uiL2 () =
(u) u =
hu, ui
u
= hu, uiL2 ()


consideramos o funcional I : W01,2 () \ {0} R definido por
R
2
2
hu, uiL2 ()
kukL2 ()
|u|
I (u) = R 2 =
=
.
2
hu, uiL2 ()
u
kukL2 ()

Afirmamos que se
1 =
entao existe u W01,2 (), u 6= 0, tal que

inf

uW01,2 ()\{0}

I (u) ,

(1.18)

u = 1 u,

ou seja, 1 e um autovalor do laplaciano. Para provar isso, observe em primeiro lugar que o funcional I
e invariante por escala, no sentido de que I (u) = I (u) para todo 6= 0, logo podemos considerar uma
seq
uencia minimizante (uk ) W01,2 () que satisfaz kuk kL2 () = 1 para todo k. Em particular,
2

kuk kL2 () 1 ,
logo (uk ) e uma seq
uencia limitada em W01,2 (). Segue do Teorema de Rellich-Kondrakhov que, a menos
de uma subseq
uencia, uk u em L2 () e, portanto, kukL2 () = 1, o que implica em particular que u 6= 0.
Afirmamos que uk u em W01,2 (). De fato, valem as identidades
2

k (uk ul )kL2 () + k (uk + ul )kL2 () = 2 kuk kL2 () + 2 kul kL2 () ,


2

kuk ul kL2 () + kuk + ul kL2 () = 2 kuk kL2 () + 2 kul kL2 () = 4.

Rodney Josue Biezuner

23
2

A segunda identidade implica que kuk + ul kL2 () 4 quando k, l . Usando a primeira identidade
juntamente com a desigualdade
2

k (uk + ul )kL2 () > 1 kuk + ul kL2 () ,


que segue da definicao de 1 , obtemos
2

k (uk ul )kL2 () 6 2 kuk kL2 () + 2 kul kL2 () 1 kuk + ul kL2 () 0


quando k, l , isto e, (uk ) e uma seq
uencia de Cauchy em L2 (), o que prova a afirmacao. Segue que
2

1 = kukL2 ()
e o Teorema de Poincare implica que 1 6= 0. Vamos denotar u = u1 . Para mostrar que u1 e uma solucao
fraca de u1 = 1 u1 , observe que para todo v W01,2 () fixado temos
I (u1 + tv) =

h (u1 + tv) , (u1 + tv)iL2 ()


h(u1 + tv) , (u1 + tv)iL2 ()

ku1 kL2 () + 2t hu1 , viL2 () + t2 ku1 kL2 ()


2

ku1 kL2 () + 2t hu1 , viL2 () + t2 ku1 kL2 ()

onde |t| e suficientemente pequeno para que o denominador nunca se anule. Como u1 e um mnimo para
este funcional, segue que

dI
0=
(u + tv)
dt
t=0

2
2
2
2
2 hu1 , viL2 () + 2t ku1 kL2 () ku1 + tvkL2 () 2 hu1 , viL2 () + 2t ku1 kL2 () k (u1 + tv)kL2 ()

=
4

ku1 + tvkL2 ()

=
=

2 hu1 , viL2 () ku1 kL2 () 2 hu1 , viL2 () ku1 kL2 ()


4

ku1 + tvkL2 ()
2 hu1 , viL2 () 21 hu1 , viL2 ()

ou seja,

ku1 + tvkL2 ()

,
Z

Z
u1 v = 1

u1 v

para todo v W01,2 ().


Suponha como hipotese de inducao que obtivemos (1 , u1 ) , . . . , (j1 , uj1 ) satisfazendo
ui W01,2 () ,
1 6 . . . 6 j1 ,
u = i u em ,
e
hui , uk iL2 () = ik
para todos 1 6 i, k 6 j. Definimos
n
o
Hj = v W01,2 () : hv, ui iL2 () = 0 para i = 1, . . . , j 1 .

t=0

Rodney Josue Biezuner

24

Em outras palavras, Hj e o subespaco de Hilbert ortogonal ao subespaco de dimensao finita gerado pelas
autofuncoes u1 , . . . , uj1 . Defina
j = inf I (u) .
uHj

Como o nfimo esta tomado sobre um espaco menor, segue que


j > j1 .
O fato de que Hj e um subespaco fechado de W01,2 () permite repetir o mesmo argumento acima para obter
2
uj Hj tal que kuj kL2 () = 1, j = kuj kL2 () . Tambem analogamente obtemos
Z

Z
uj v = j

uj v

para todo v Hj e a relacao e trivialmente verdadeira para todo v W01,2 (), ja que uj e ortogonal ao
subespaco gerado por u1 , . . . , uj1 . Portanto uj e uma solucao fraca de u = j u em .
Para ver que j , suponha por absurdo que j 0 . Entao obtemos uma seq
uencia (uj ) W01,2 ()
de autofuncoes associadas aos autovalores k tais que kuj kL2 () = 1 e
2

kuj kL2 () = j 0 .
Em particular, podemos usar novamente o Teorema de Rellich-Kondrakhov para concluir que uj u em
L2 (). Mas isso e um absurdo, pois a seq
uencia (uj ) e ortonormal em L2 () e portanto satisfaz
2

kuk ul kL2 () = kuk kL2 () + kul kL2 () = 2.


Falta apenas provar os resultados de expansao. Para v W01,2 (), escreva
i = hv, ui iL2 ()
e
vk =

k
X

i ui ,

i=1

wk = v vk .
Para todo i 6 k temos

*
hwk , ui i =

k
X

+
i ui , ui

= hv, ui i i = 0.

i=1

Da, como ui e solucao fraca, para todo i 6 k temos tambem


hwk , ui iL2 () = i hwk , ui iL2 () = 0,
donde
hwk , wk iL2 () = hv, viL2 () hvk , vk iL2 () ,
hwk , wk iL2 () = hv, viL2 () hvk , vk iL2 () .
Desta u
ltima identidade segue que
hwk , wk iL2 () 6 hv, viL2 () .

Rodney Josue Biezuner

25

Por definicao de k ,
hwk , wk iL2 () > k+1 hwk , wk iL2 () ,
logo

kwk kL2 () = hwk , wk iL2 () 6

hv, viL2 () 0.

k+1

Em particular, conclumos que


v = lim vk + lim wk =

em L2 () .

i ui

(1.19)

i=1

Para provar a segunda expansao, escreva


vk =

k
X

i ui ,

i=1

donde
2

kvk kL2 () =

k
X

i2 hui , ui i =

i=1

k
X

i2 i hui , ui i =

i=1

k
X

i i2 .

i=1

Como
hwk , wk iL2 () + hvk , vk iL2 () = hv, viL2 () ,
segue que

kvk kL2 () 6 kvkL2 () .


Somando-se a isso o fato que os i sao nao-negativos, conclumos que a serie

k (wk wl )kL2 () = k (vl vk )kL2 () =

l
X

P
i=1

i i2 converge, de modo que

i i2

i=k+1

e portanto (wk ) tambem e uma seq


uencia de Cauchy em L2 (), ou seja, (wk ) converge em W01,2 ().
Conseq
uentemente, em vista do resultado anterior, wk 0 em W01,2 (), logo
2

kvkL2 () = lim kvk kL2 () + 2 lim hvk , wk i + lim kwk kL2 () =

i i2 .

i=1

Segue que (uj ) e uma seq


uencia ortonormal e o fecho do subespaco gerado por (uj ) e um espaco de Hilbert
contendo W01,2 () contido em L2 (). Como W01,2 () = L2 (), conclumos que {uj } e um sistema ortonormal completo para L2 ().
2
Observa
c
ao 1. Segue deste teorema, em particular,
P que aquelas funcoes v em L () que nao estao em
1,2
W0 () podem ser caracterizadas pelo fato que i=1 i hv, ui iL2 () diverge.
Observa
c
ao 2. Pelo Teorema 1.13, se for de classe C , entao as autofuncoes do problema de Dirichlet
estao em C e sao solucoes classicas.
A demonstracao do resultado equivalente para o problema de autovalor com condicao de Neumann e
analoga (veja [Jost]):
1.15 Teorema. Seja Rn um aberto limitado. Ent
ao o problema de autovalor
u = u

em ,

u W 1,2 ()

Rodney Josue Biezuner

26

possui um n
umero infinito enumer
avel de autovalores
0 = 0 6 1 6 2 6 . . . 6 j 6 . . .
tais que
j ,
e autofunc
oes {uj } que satisfazem

u
=0

sobre

e constituem um sistema ortonormal completo para L2 (), isto e,


v=

i ui

i=1

para todo v L2 (). Em particular,


2

kvkL2 () =

hv, ui iL2 () .

i=1

Alem disso, para todo v W 1,2 () vale


2

kvkL2 () =

i hv, ui iL2 () .

i=1

Na demonstracao do Teorema 1.14 usamos o princpio de Rayleigh para obter o primeiro autovalor
do laplaciano como o mnimo do funcional de Rayleigh. Como os autovalores do laplaciano formam uma
seq
uencia infinita que cresce arbitrariamente em modulo, o funcional de Rayleigh para o laplaciano nao
possui um maximo. Entretanto, da mesma forma que no caso de operadores lineares em dimensao finita,
podemos tambem derivar um princpio de minimax para obter os demais autovalores do laplaciano:
1.16 Teorema. Seja Rn um aberto limitado. Sejam
0 < 1 6 2 6 . . . 6 j 6 . . .
os autovalores do laplaciano com condic
ao de Dirichlet:
u = u

em ,

u W01,2 () .

Ent
ao, se Lj denota o conjunto dos subespacos vetoriais de W01,2 () de dimens
ao j, temos

hu, uiL2 ()

j = min max hu, uiL2 () = min max


2
LLj
uL
LLj
uL
kukL2 ()
u6=0
kuk=1

(1.20)

ou, dualmente,

j = max min hu, uiL2 () = max min


LLj1

uL
kuk=1

LLj1

uL
u6=0

hu, uiL2 ()
2

kukL2 ()

(1.21)

O resultado an
alogo vale para os autovalores do laplaciano com condic
ao de Neumann trocando-se
W01,2 () por W 1,2 () e j por j1 .

Rodney Josue Biezuner

27

Prova: Vimos na demonstracao do Teorema 1.13 que se L = hu1 , . . . , uj1 i e o subespaco gerado pelas
primeiras j 1 autofuncoes u1 , . . . , uj1 do laplaciano, entao
hu, uiL2 ()

j = min

kukL2 ()

uL
u6=0

de fato, o mnimo e realizado em u = uj . Por outro lado, se L0 = hu1 , . . . , uj i e o subespaco gerado pelas
primeiras j autofuncoes u1 , . . . , uj do laplaciano, tambem temos
hu, uiL2 ()

j = max0

kukL2 ()

uL
u6=0

De fato, para todo ui com i < j vale


hui , ui iL2 ()

= i 6 j ,

kui kL2 ()
enquanto que

huj , uj iL2 ()

= j .

kuj kL2 ()
Portanto, se u =

n
P
i=1

ai ui L0 , temos

hu, uiL2 ()
2

kukL2 ()

hu, uiL2 ()
hu, uiL2 ()

n
P
i=1

ai ui ,

n
P
i=1

n
P

n
P

i a2i hui , ui iL2 ()

i=1
n
P

i=1

ai u i ,

6
a2i hui , ui iL2 ()

j i=1
n
P
i=1

n
P
i=1
n
P
i=1

n
P

ai ui

L2 ()

ai ui

a2i
i=1
n
P
i=1

L2 ()

hui , ui iL2 ()

a2i hui , ui iL2 ()

a2i hui , ui iL2 ()


= j ,
a2i hui , ui iL2 ()

e o maximo e realizado em u = uj .
Agora, para provar (1.20), seja L0 Lj outro subespaco de W01,2 () de dimensao j, digamos L0 =
j
P
hv1 , . . . , vj i. Afirmamos que existe um vetor nao nulo v =
ai vi L0 tal que v ui para i = 1, . . . , j 1.
i=1

De fato, basta tomar uma das solucoes nao triviais do sistema homogeneo

j
P

hv, u1 i =
ai hvi , u1 i = 0

i=1

..
.

hv, uj1 i =
ai hvi , uj1 i = 0
i=1

que possui j 1 equacoes e j incognitas. Logo, disso e do Teorema 1.15 segue que
hv, viL2 ()
2
kvkL2 ()

2
kvkL2 ()
2
kvkL2 ()

i hv, ui iL2 ()

i=1

i=1

2
hv, ui iL2 ()

i hv, ui iL2 ()

i=j

i=j

2
hv, ui iL2 ()

j
>

P
i=j

P
i=j

hv, ui iL2 ()
2

hv, ui iL2 ()

= j ,

Rodney Josue Biezuner

28

e portanto
max0

hu, uiL2 ()
2

kukL2 ()

uL
u6=0

> j .

Isso prova (1.20).


Para provar a afirmativa dual (1.21), seja L Lj um subespaco de W01,2 () de dimensao j 1, digamos
j
P
L = hv1 , . . . , vj1 i. Afirmamos que existe um vetor nao nulo v =
ai ui L, combinacao linear dos vetores
i=1

u1 , . . . , uj . De fato, basta tomar uma das solucoes nao triviais do sistema homogeneo

n
P

hv,
v
i
=
ai hui , v1 i = 0

i=1

..
.

hv, vj1 i =
ai hui , vj1 i = 0

i=1

que possui j 1 equacoes e j incognitas. Entao algum dos vetores u1 , . . . , uj e perpendicular a L, digamos
ui . Logo, disso e do Teorema 1.13 segue que

hv, viL2 ()
2

kvkL2 ()

2
kvkL2 ()
2
kvkL2 ()

i=1

i=1

j
6

j
P

i=1

i=1

2
i hv, ui iL2 ()
2

hv, ui iL2 ()

i=1

j
P

j
P

ak uk , ui

k=1

i=1

j
P

L2 ()

ak uk , ui

k=1

L2 ()

a2i i hui , ui iL2 ()

i=1

i=1

a2i hui , ui iL2 ()

a2i hui , ui iL2 ()


2

= j ,

a2i hui , ui iL2 ()

e portanto
min

hu, uiL2 ()

uL
u6=0

kukL2 ()

6 j ,

o que prova (1.21).

1.7.2

Compara
c
ao de Autovalores

Como uma conseq


uencia simples da caracterizacao minimax obtemos uma comparacao entre os autovalores
do laplaciano de Dirichlet e os autovalores do laplaciano de Neumann de um mesmo domnio:
1.17 Corol
ario. Seja Rn um aberto limitado. Sejam
D
D
0 < D
1 6 2 6 . . . 6 k 6 . . .

os autovalores do laplaciano com condic


ao de Dirichlet e
N
N
N
0 = N
0 6 1 6 2 6 . . . 6 k 6 . . .

os autovalores do laplaciano com condic


ao de Neumann. Ent
ao
D
N
j1 6 j

para todo j.

Rodney Josue Biezuner

29

Prova: Denotando

n
o
Lj W01,2 () = L W01,2 () : L e um subespaco vetorial de dimensao j ,

Lj W 1,2 () = L W 1,2 () : L e um subespaco vetorial de dimensao j ,


como W01,2 () W 1,2 (), segue que

Lj W01,2 () Lj W 1,2 () .

Em particular, o mnimo sobre Lj W01,2 () nao pode ser maior que o mnimo sobre Lj W 1,2 () . Segue
que

N
j1 =

min

LLj (W 1,2 ())

max hu, ui 2 6
L ()
uL
kuk=1

min

LLj (W01,2 ())

max hu, ui 2 = D
j .
L ()
uL
kuk=1

O que acontece com os autovalores do laplaciano de um domnio quando este aumenta? Se nos
restringirmos a simples aumentos de escala, a resposta e simples. Denote a = {ax : x }. Se u satisfaz

u = u
em ,
u=0
sobre ,
x
entao v (x) = u
satisfaz
a
(

em a ,
v = 2 v
a
v=0
sobre a .
Em particular, se a > 1 (dilatacao), entao os autovalores do laplaciano em a sao menores que os autovalores
do laplaciano em . No caso geral, ainda e verdade que os autovalores decrescem quando o domnio aumenta,
e no caso dos autovalores de Dirichlet isto e novamente uma conseq
uencia simples da caracterizacao minimax:
1.18 Corol
ario. Sejam 1 2 Rn abertos limitados. Sejam j (1 ) e j (2 ) os autovalores de
Dirichlet do laplaciano em 1 e 2 , respectivamente. Ent
ao
j (2 ) 6 j (1 )
para todo j.
Prova: Podemos considerar W01,2 (1 ) W01,2 (2 ), porque qualquer funcao u W01,2 (1 ) pode ser estendida a uma funcao u
e W01,2 (2 ) definindo-se

u (x)
se x 1 ,
u
e (x) =
0
se x 2 \1 .
Em particular, usando a notacao do corolario anterior, temos que

Lj W01,2 (1 ) Lj W01,2 (2 ) .

e o mnimo sobre Lj W01,2 (1 ) nao pode ser maior que o mnimo sobre Lj W 1,2 (2 ) . Logo

j (2 ) =

min

LLj (W01,2 (2 ))

max hu, ui 2 6
L ()
uL
kuk=1

min

LLj (W01,2 (1 ))

max hu, ui 2 = j (1 ) .
L ()
uL
kuk=1

Rodney Josue Biezuner

30

No caso dos autovalores de Neumann, o resultado continua valido mas a demonstracao e mais complicada
porque o operador extensao E : W 1,2 (1 ) W 1,2 (2 ) nao preserva a norma: em geral kEukW 1,2 (2 ) >
kukW 1,2 (1 ) (embora exista uma constante C > 0 tal que kEukW 1,2 (2 ) 6 C kukW 1,2 (1 ) , esta constante e
geralmente maior que 1) e por este motivo W 1,2 (1 ) nao pode ser considerado um subespaco de Hilbert de
W 1,2 (2 ).

1.8

Conjunto Nodal e Domnios Nodais de uma Autofunc


ao

1.8.1

Princpio do M
aximo Forte: o Primeiro Autovalor do Laplaciano
e Simples

O primeiro autovalor do laplaciano e simples, isto e, o seu autoespaco associado tem dimensao 1, e possui
uma autofuncao associada positiva. Para provar este resultado, precisamos do Princpio do Maximo Forte
para operadores elpticos, adaptado para o operador de Helmholtz (veja [Gilbarg-Trudinger] ou [Biezuner]
para uma demonstracao):
1.19 Lema. (Princpio do Maximo Forte) Seja Rn um aberto conexo. Seja u C 2 ().
Se u > 0 em e u atinge o seu m
aximo no interior de , ent
ao u e constante.
Se u 6 0 em e u atinge o seu mnimo no interior de , ent
ao u e constante.
Prova: Provaremos a segunda afirmacao, que sera usada na seq
uencia; a demonstracao da primeira e
analoga. Afirmamos que se u > 0 em , vale a seguinte desigualdade do valor medio: para qualquer bola
BR (x) temos
Z
Z
1
1
u (x) >
u=
u,
(1.22)
|BR | BR
n Rn BR
onde n e o volume da bola unitaria em Rn . Para provar esta desigualdade, defina para r (0, R] a funcao
Z
1
(r) =
u.
|Br | Br
Para obter a derivada da funcao , fazemos a mudanca de variaveis
=

yx
,
r

de modo que
1
(r) =
nn rn1
e da

1
u(y) ds =
nn
Br

1
u(x + r) d =
|B1 (0)|
B1 (0)

Z
u(x + r) d,
B1 (0)

Z
Z
1
1
yx
(r) =
u(x + r) d =
u(y)
ds
|B1 (0)| B1 (0)
|Br | Br
r
Z
1
u
ds,
=
|Br | Br
0

pois o vetor normal unitario `a Br (x) apontando para fora e exatamente o vetor
da Divergencia e por hipotese, temos
Z
Z
u
=
u 6 0,
Br

yx
. Mas, pelo Teorema
r

Rodney Josue Biezuner

31

logo

0 (r) 6 0

e (r) e uma funcao decrescente. Portanto,


1
|Br |

1
u >
|BR |
Br

Z
u
BR

para todo 0 < r 6 R. Usando o Teorema do Valor Medio para Integrais


Z
1
lim
u = u(x),
r0 |Br | B
r
obtemos
u(x) >

1
|BR |

Z
u.

(1.23)

BR

Em particular, como R e arbitrario, vale a desigualdade


Z
nn rn1 u(x) >

u
Br

para todo r, e a desigualdade do valor medio (1.22) e obtida integrando-se esta equacao de r = 0 ate r = R.
Vamos agora provar o lema. Seja m = min u e considere o conjunto A = {x : u(x) = m}. Por
hipotese, A e nao-vazio e fechado em , pois u e contnua em . Como e conexo, para provar que A = e
portanto que u e constante, basta provar que A e aberto. De fato, dado x A e uma bola BR = BR (x) ,
temos pela desigualdade do valor medio para funcoes harmonicas que
Z
Z
1
1
m = u(x) >
u>
m = m.
|BR | BR
|BR | BR
Se houvesse pelo menos um ponto em BR (x) cujo valor e estritamente maior que m, entao a desigualdade
acima seria estrita, o que constituiria uma contradicao. Conclumos que u m em BR (x), logo A e aberto.

1.20 Lema. Seja Rn um aberto. Seja u C 2 () uma soluc


ao de u = u em , > 0. Se u
atinge um mnimo igual a 0 no interior de , ent
ao u e constante.
Prova: Se min u = 0, em particular u > 0 em . Logo, u = u 6 0 em . Pelo Princpio do Maximo
Forte, conclumos que u e constante.
1.21 Teorema. Seja Rn um aberto limitado conexo. Ent
ao o problema de autovalor

u = u
em ,
u=0
sobre ,
possui uma soluc
ao positiva u1 > 0 em . Alem disso, qualquer outra autofunc
ao associada a 1 e
m
ultipla de u1 .
Prova: Para
simplificar a demonstracao, assumiremos que tem regularidade suficiente para que u
C 2 () C 0 de modo que podemos usar o Princpio do Maximo Forte classico dado no lema anterior (um
princpio do maximo forte para funcoes em W01,2 () pode ser visto em [Gilbarg-Trudinger]). Pela formulacao
variacional, se u e uma autofuncao associada a 1 , entao |u| tamb
e, pois I (u) = I (|u|). A teoria de
em
regularidade (Teorema 1.13) garante entao que |u| C 2 () C 0 tambem. Pelo lema anterior, u nao
pode se anular no interior de , pois isso implicaria que |u| atinge o seu mnimo no interior, logo u > 0.
Este argumento tambem implica que as autofuncoes associadas a 1 sao negativas ou positivas em , logo
nao podem ser ortogonais, e portanto o subespaco associado a 1 so pode ser unidimensional.
Mais geralmente, vale o resultado do Teorema 1.24 a seguir para todos os autovalores do laplaciano.

Rodney Josue Biezuner

1.8.2

32

Conjunto Nodal e Domnios Nodais de Autofunc


oes do Laplaciano

Defini
c
ao. Se j e um autovalor do laplaciano em e uj e uma autofuncao associada, definimos o conjunto
nodal de uj por
j = {x : uj (x) = 0} .
As componentes conexas de \j sao chamadas os domnios nodais de uj .
O conjunto nodal de uj e simplesmente o conjunto dos pontos onde uj se anula; a terminologia nodal e oriunda
do estudo das vibracoes de cordas e membranas em Mecanica. O Teorema 1.21 afirma que o conjunto nodal
de u1 e vazio; em particular, se e conexo, entao \1 possui uma componente conexa, isto e, apenas
um domnio nodal. Para as demais autofuncoes, o Teorema do Conjunto Nodal de Courant (Teorema 1.24
abaixo) afirma que o n
umero de domnios nodais da autofuncao uj nao pode exceder j.
1.22 Lema. Seja Rn um aberto limitado conexo e
0 < 1 < 2 6 . . . 6 j 6 . . .
os autovalores de Dirichlet do laplaciano e u1 , u2 , . . . , uj , . . . as respectivas autofunc
oes associadas. Se
j tem multiplicidade r, de modo que
j1 < j = j+1 = . . . = j+r1 < j+r ,
Ent
ao uj possui no m
aximo j + r 1 domnios nodais.
Prova: A demonstracao do lema e baseada na caracterizacao variacional dos autovalores do laplaciano.
Suponha que uj tenha m domnios nodais 1 , , m . Defina

i uj (x)
se x i ,
wi (x) =
0
caso contrario,
onde o fator de escala i e escolhido de tal forma que kwi kL2 () = 1. Observe que, como os domnios nodais
i sao disjuntos, as funcoes wi sao ortogonais em L2 () e em W01,2 (). Como
Z
Z
uj v = j
uj v

para todo v W01,2 (), em particular temos


Z
Z
wi wi = j
i

wi2

(embora wi seja uma autofuncao do laplaciano em i associada a j , wi nao e uma autofuncao do laplaciano

em associada a j ; pelo Princpio da Continuacao Unica


(veja o lema a seguir), uma autofuncao que se
anula em um aberto, deve-se anular no domnio todo). Considere combinacoes lineares v dos wi tais que
kvkL2 () = 1, isto e,
m
X
v=
ai wi
i=1

e a1 , . . . , am R sao quaisquer escalares que satisfazem


m
X
i=1

a2i = 1.

Rodney Josue Biezuner

33

Em particular,
hv, viL2 () =

m
X

a2i hwi , wi iL2 (i ) =

i=1

m
X

a2i j hwi , wi iL2 (i ) = j ,

i=1

ou seja,

hv, viL2 ()

= j .

kvkL2 ()

Por outro lado, podemos escolher a1 , . . . , am de tal forma que


hv, ui iL2 () = 0
para i = 1, . . . , m 1, pois o sistema

n
P

hv, u1 i =
ai hwi , u1 i = 0

i=1

..
.

ai hwi , um1 i = 0
hv, um1 i =
i=1

possui m 1 equacoes e m incognitas. Para esta escolha de v, segue do Teorema 1.13 que
hv, viL2 ()
2

kvkL2 ()

2
kvkL2 ()
2
kvkL2 ()

i hv, ui iL2 ()

i=1

i=1

hv, ui iL2 ()

i hv, ui iL2 ()

i=m

i=m

hv, ui iL2 ()

m
>

i=m

i=m

hv, ui iL2 ()
2

= m .

hv, ui iL2 ()

Portanto,
m 6 j .
Como j < j+r , segue que m < j+r , donde m < n + r.
Em particular, se j e um autovalor simples, o n
umero maximo de domnios nodais de uj e j. Para
mostrar que esta mesma estimativa vale para as demais autofuncoes, Courant e Hilbert produziram um
refinamento complicado do seu argumento no lema acima. A demonstracao simplificada apresentada a
seguir e devida a Herrman [Herrman] e Pleijel [Pleijel] (reproduzida em [Gladwell-Zhu]) e e baseada no

Princpio da Continuacao Unica


(uma demonstracao deste pode ser encontrada em [Aronszajn]):

1.23 Lema. (Princpio da Continuacao Unica)


Seja Rn um aberto limitado conexo. Se u e uma soluc
ao
de
u = u em
que se anula em um aberto n
ao vazio de , ent
ao u 0.
1.24 Teorema. (Teorema do Conjunto Nodal de Courant) Seja Rn um aberto limitado conexo e
0 < 1 < 2 6 . . . 6 j 6 . . .
os autovalores de Dirichlet do laplaciano e u1 , u2 , . . . , uj , . . . as respectivas autofunc
oes associadas.
Ent
ao uj possui no m
aximo j domnios nodais.
Prova: Suponha por absurdo que uj tenha m > j domnios nodais. Defina wi e v como na demonstracao
do Lema 1.22, escolhendo
aj+1 = . . . = am = 0,

Rodney Josue Biezuner

34

de modo que v 0 em j+1 . . . m . Como antes, temos


hv, viL2 ()
kvkL2 ()

= j

e podemos escolher a1 , . . . , aj de tal forma que


hv, ui iL2 () = 0
para i = 1, . . . , j 1. Isso implica que v e uma autofuncao associada a j (como vimos na demonstracao
do Teorema 1.13, nestas condicoes o mnimo j do quociente de Rayleigh e realizado em uma autofuncao
de j ), isto e, e uma solucao fraca de u = j u em . Como v se anula em j+1 . . . m , segue do

Princpio da Continuacao Unica


que v 0 em , contradizendo kvkL2 () = 1.
Observe que o Teorema 1.24 implica que se j tem multiplicidade r, de modo que
j1 < j = j+1 = . . . = j+r1 < j+r ,
entao qualquer autofuncao associada a j possui no maximo j domnios nodais, mesmo as autofuncoes
uj+1 , . . . , uj+r1 .
1.25 Corol
ario. O Teorema do Conjunto Nodal de Courant vale mesmo se n
ao e conexo.


Prova: Sejam = 1 . . . p a decomposicao de em componentes conexas. Denote por kj jN

a seq
uencia crescente de autovalores de k com ukj jN as correspondentes autofuncoes. Seja {j }jN =

1
j jN . . . pj jN a seq
uencia crescente de autovalores de ; as autofuncoes correspondentes sao da
forma
k
se x k ,
ui (x)
uj (x) =
0
caso contrario,
para alguns ndices i, k, com j > i. Pelo Teorema do Conjunto Nodal de Courant aplicado a k , uki nao tem
mais que i domnios nodais em k , logo uj nao tem mais que j domnios nodais em k e e nula fora de k .

1.26 Corol
ario. Uma autofunc
ao u2 associada ao segundo autovalor 2 possui exatamente 2 domnios
nodais. Autofunc
oes associadas a outros autovalores j , j 6= 1, 2, possuem pelo menos dois domnios
nodais.
Prova: Pelo Teorema do Conjunto Nodal de Courant, o n
umero de domnios nodais de u2 nao pode exceder
2. Por outro lado, o fato de que uma autofuncao u1 associada ao primeiro autovalor 1 6= 2 ter o mesmo
sinal em , juntamente com o fato que u1 u2 , implicam que u2 muda de sinal em , logo nao pode ter
apenas um domnio nodal. Este mesmo argumento de ortogonalidade, u1 uj se j 6= 1, implica que qualquer
autofuncao associada a um autovalor diferente de 1 necessariamente muda de sinal em .
O Corolario 1.26 sugere que a estimativa dada no Teorema 1.24 e a melhor possvel. Isso nao e verdade, no
entanto. Usando a desigualdade de Faber-Krahn e a Lei de Weyl sobre a expansao assintotica dos autovalores,
Pleijel [Pleijel] provou que para valores suficientemente grandes de j, o n
umero maximo de domnios nodais
j nunca e atingido (Corolario 1.30, a seguir). A demonstracao da desigualdade de Faber-Krahn dada a seguir
e baseada na simetrizac
ao de Schwartz, que definiremos a seguir.
Defini
c
ao. Seja Rn um aberto limitado. O domnio simetrizado e a bola B = {x Rn : |x| < R}
que possui o mesmo volume de .
Dada uma funcao u : R, a fun
c
ao simetrizada u : R e definida da seguinte forma.
Denotando
= {x : u (x) > }
definimos

u (x) = sup : x .

Rodney Josue Biezuner

35

Observe que u e uma funcao radialmente simetrica, nao-crescente. Assumiremos os seguintes resultados
sem demonstracao (para uma prova, veja [Bandle], Lema 2.4 e Corolario 2.1):
1.27 Lema. Seja Rn um aberto limitado. Ent
ao
Z
Z
f6
e

Z
2

|u | .

|u| >

1.28 Teorema. (Desigualdade de Faber-Krahn) Seja R2 um aberto limitado. Se 1 e o primeiro


autovalor de Dirichlet do laplaciano em , ent
ao vale
1 >

2
0,1
,
A

onde 0,1 e o primeiro zero positivo da func


ao de Bessel J0 e A e a
area de .
Prova: Seja (un ) W01,2 () uma seq
uencia minimizante para o quociente de Rayleigh I do primeiro
autovalor de Dirichlet 1 () do laplaciano em . Como I (|u|) = I (u), podemos assumir un > 0 para todo
n. Entao un W01,2 (D), onde D = e o disco de raio R que possui area A. Segue que
R
1 () = lim inf
=

R
R
2
2
2
|un |
|u|
|un |
D
R
>
lim
inf
= 1 (D)
>
min
R
2
u2
u2
uW01,2 ()\{0}
(un )
n

2
2
0,1
0,1
2
=
=

.
R2
R2 0,1
A

A desigualdade de Faber-Krahn entre outras coisas comprova a conjectura de Rayleigh de que entre todas
as regioes de mesma area, o disco tem o menor primeiro autovalor.
1.29 Teorema. (Lei de Weyl) Seja R2 um aberto limitado conexo e
0 < 1 < 2 6 . . . 6 j 6 . . .
os autovalores de Dirichlet do laplaciano em . Ent
ao
j

4j
,
A

onde A e a
area de . Mais geralmente, se Rn e um aberto limitado, ent
ao

j 4

j
n V

2/n
,

Prova: Veja [Weyl] ou [Courant-Hilbert], pag. .429443


1.30 Corol
ario. Seja R2 um aberto limitado conexo. Existe apenas um n
umero finito de autovalores
j para os quais o n
umero m
aximo j de domnios nodais e atingido.

Rodney Josue Biezuner

36

Prova: A demonstracao deste corolario depende da observacao de que se u e uma autofuncao associada a
um certo autovalor de Dirichlet e i e qualquer domnio nodal de u, entao e o primeiro autovalor do
laplaciano em i , isto e,
1 (i ) = .

De fato, ui = u|i e uma autofuncao associada a em i , pois ui C 2 (i ) C 0 i satisfaz ui = ui
em i e ui = 0 em i (pois i esta contida na uniao do conjunto nodal de u e , onde u = 0). Alem
disso, ui nao muda de sinal em i por definicao de domnio nodal de u, logo possui apenas um domnio nodal
e portanto segue do Corolario 1.26 que ui e uma autofuncao associada ao primeiro autovalor de Dirichlet em
i .
Sejam 1 , , m , m 6 j, os domnios nodais de uma autofuncao u associada a j . Como j = 1 (i )
para todo i, segue da Desigualdade de Faber-Krahn que
j >

2
0,1
,
A (i )

onde A (i ) e a area de i , para todo i. Escrevendo estas desigualdades na forma


A (i )
1
>
,
2
0,1
j
e somando-as para i = 1, . . . , m, segue que

A ()
m
>
.
2
0,1
j

Logo, se o caso maximo m = j ocorre, temos


j
A ()
>
.
2
0,1
j
Se o n
umero maximo m = j de domnios nodais fosse atingido para um n
umero infinito de ndices j, tomando
o limite nesta desigualdade quando j para esta subseq
uencia de ndices, teramos pela Lei de Weyl que
A ()
A ()
>
,
2
0,1
4
donde
0,1 6 2.
Mas 0,1 = 2.404825558..., contradicao.
Com relacao aos conjuntos nodais das autofuncoes do laplaciano, pode-se dizer que eles sao altamente
regulares: o conjunto nodal de uma autofuncao u do laplaciano em Rn e localmente composto de
hiperfcies de dimensao n 1, que podem se intersectar em superfcies de dimensao menor que n 1 (veja
[Cheng] para o enunciado preciso e sua demonstracao). Estas hiperfcies nao podem terminar no interior de
, o que significa que ou elas sao fechadas, ou elas comecam e terminam na fronteira de . Alem disso, no
caso bidimensional, quando as curvas nodais se intersectam, ou quando elas interceptam a fronteira, elas o
fazem em angulos iguais; assim, por exemplo, se uma curva nodal intercepta a fronteira, ela o faz em um
angulo reto, enquanto que se duas curvas nodais interceptam a fronteira no mesmo ponto, elas o fazem em
angulos de /3 e guardam tambem um angulo de /3 entre si (veja [Courant-Hilbert]).
2

Exemplo 8. Como vimos no Exemplo 2, os autovalores de Dirichlet do laplaciano no quadrado Q = [0, ]


R2 sao dados por
nm = n2 + m2 , n, m N,

Rodney Josue Biezuner

37

com correspondentes autofuncoes


unm (x, y) = sen nx sen my.
O autovalor 2 = 3 = 5 tem multiplicidade 2 e o seu autoespaco e constitudo pelas funcoes da forma
u (x, y) = A sen x sen 2y + B sen 2x sen y,

A, B R.

Para A = 0, u tem uma reta nodal vertical (x = /2); para B = 0, u tem uma reta nodal horizontal
(y = /2); se A = B, u tem uma reta nodal diagonal (a reta y = x se A = B e a reta y = x + 1
se A = B); nos demais casos, a curva nodal e especificada pela equacao transcendental
A cos y + B cos x = 0,
que e uma curva que intercepta a fronteira em dois pontos em angulos retos. Em todos os casos, a
curva nodal de uma autofuncao associada ao autovalor 5 divide o quadrado em dois domnios nodais.
O autovalor 4 = 8 e simples, com o seu autoespaco gerado pela autofuncao
u (x, y) = sen 2x sen 2y,
cujo conjunto nodal e a uniao das retas vertical x = /2 e horizontal y = /2; ela possui portanto
quatro domnios nodais.
O autovalor 5 = 6 = 10 tambem tem multiplicidade 2 e o seu autoespaco e constitudo pelas funcoes
da forma
u (x, y) = A sen x sen 3y + B sen 3x sen y, A, B R.
Para A = 0, u tem duas retas nodais verticais (x = /3 e x = 2/3); para B = 0, u tem duas retas
nodais horizontais (y = /3 e y = 2/3); em ambos os casos, temos tres domnios nodais. Se A = B,
u tem as duas diagonais do quadrado como retas nodais, originando quatro domnios nodais, enquanto
que se A = B, u tem uma curva nodal fechada
sen2 x + sen2 y = 3/2
que divide o quadrado em apenas dois domnios nodais, a regiao interior `a curva e a regiao exterior.
Pleijel verifica em [Pleijel] que os u
nicos autovalores do laplaciano no quadrado que possuem autofuncoes que assumem o n
umero maximal de domnios nodais sao 1 = 2 (um domnio nodal),
2 = 3 = 5 (dois domnios nodais) e 4 = 8 (quatro domnios nodais).

1.9

Multiplicidade dos Autovalores do Laplaciano

Em regioes com algum tipo de simetria, o laplaciano freq


uentemente possui autovalores com multiplicidades
maiores que 1.
2

Exemplo 9. Como os autovalores de Dirichlet do laplaciano no quadrado Q = [0, ] R2 , dados por


nm = n2 + m2 , n, m N,
com correspondentes autofuncoes
unm (x, y) = sen nx sen my,
vemos imediatamente que sempre que n 6= m o autovalor nm tera multiplicidade pelo menos igual a
2, ja que as autofuncoes
unm (x, y) = sen nx sen my

umn (x, y) = sen mx sen ny

Rodney Josue Biezuner

38

sao linearmente independentes. Na verdade, o conjunto de todas as autofuncoes unm associadas ao


autovalor nm e linearmente independente, logo a questao da multiplicidade do autovalor nm e reduzida `a questao de quantos maneiras diferentes um n
umero inteiro p pode ser escrito como a soma
de quadrados inteiros n2 + m2 . A Teoria dos N
umeros permite responder precisamente a esta questao
(veja [Kuttler-Sigillito] para referencias). Obtemos a decomposicao em primos do autovalor
nm = 2 pr11 . . . prkk q1s1 . . . qlsl ,
onde os primos pi sao da forma 4t + 1, enquanto que os primos qj sao da forma 4t + 3, e todos os si
sao pares. Segue que a multiplicidade do autovalor nm e
mult (nm ) =

k
Y

(ri + 1) .

i=1

Em particular, o laplaciano possui autovalores no quadrado de multiplicidade arbitrariamente grande.

O comportamento exibido pelo laplaciano no quadrado nos Exemplos 8 e 9 nao e tpico, no entanto.
Em [Uhlenbeck1] e [Uhlenbeck2], Uhlenbeck mostrou que na maioria das regioes (no sentido generico), os
autovalores do laplaciano sao todos simples, os conjuntos nodais das autofuncoes sao de fato hiperfcies
que nao se autointerceptam e os pontos crticos das autofuncoes sao maximos ou mnimos nao-degenerados
(as autofunc
oes sao funcoes de Morse). Assim, dada qualquer regiao, existem perturbacoes suficientemente
pequenas que a transformarao em uma regiao com estas propriedades, ou seja, autovalores m
ultiplos se
tornarao distintos e cruzamentos das linhas nodais desaparecerao.

Captulo 2

M
etodo de Diferencas Finitas
2.1

O Caso Unidimensional

Nesta secao, desenvolveremos um metodo numerico de diferencas finitas para resolver o problema de Dirichlet
para a equacao de Poisson em uma dimensao

u00 = f (x)
em [0, a] ,
u (0) = u (a) = 0,
e para o problema de autovalor de Dirichlet para o laplaciano

u00 = u
em [0, a] ,
u (0) = u (a) = 0.

2.1.1

S
eries de Taylor e Diferencas Finitas em Uma Dimens
ao

Seja x > 0. Considere as seguintes expansoes de Taylor de uma funcao u em torno de um ponto x0 ,
respectivamente `a direita e `a esquerda de x0 :
1 00
u (x0 )x2 +
2!
1
u(x0 x) = u(x0 ) u0 (x0 )x + u00 (x0 )x2
2!

u(x0 + x) = u(x0 ) + u0 (x0 )x +

1 000
u (x0 )x3 + . . . ,
3!
1 000
u (x0 )x3 + . . .
3!

(2.1)
(2.2)

Da,
u(x0 + x) u(x0 )
1
u00 (x0 )x
x
2!
1
u(x0 ) u(x0 x)
0
u (x0 ) =
+ u00 (x0 )x
x
2!
u0 (x0 ) =

1 000
u (x0 )x2 . . . ,
3!
1 000
u (x0 )x2 + . . .
3!

Isso fornece duas aproximacoes possveis para a primeira derivada u0 (x0 ) de u em x0 :


u(x0 + x) u(x0 )
,
x
u(x0 ) u(x0 x)
u0 (x0 )
.
x
u0 (x0 )

(2.3)
(2.4)

A primeira e chamada uma diferen


ca progressiva e a segunda e uma diferen
ca regressiva. Pela Formula
de Taylor com Resto, o erro destas aproximacoes e dado por
1
= u00 ()x = O(x),
2
39

Rodney Josue Biezuner

40

onde x0 6 6 x0 + x no primeiro caso, e x0 x 6 6 x0 no segundo caso.


Por outro lado, se subtrairmos (2.2) de (2.1), obtemos
u0 (x0 ) =

u(x0 + x) u(x0 x)
1
1
u000 (x0 )x2 u(5) (x0 )x4 . . .
2x
3!
5!

o que da uma outra aproximacao possvel para a primeira derivada u0 (x0 ) de u em x0 :


u0 (x0 )

u(x0 + x) u(x0 x)
2x

(2.5)

com erro

1
= u000 ()x2 = O(x2 ),
6
para algum x0 x 6 6 x0 + x. Esta aproximacao por diferenca finita e chamada diferen
ca centrada.
Ela e uma melhor aproximacao que as aproximacoes laterais (progressiva e regressiva).
Se, ao inves, adicionarmos (2.1) e (2.2), obtemos
u00 (x0 ) =

u(x0 + x) + u(x0 x) 2u(x0 )


2
2
u(4) (x0 )x2 u(6) (x0 )x4 . . .
x2
4!
5!

o que fornece uma aproximacao para a derivada segunda u00 (x0 ) de u em x0 :


u00 (x0 )

u(x0 + x) + u(x0 x) 2u(x0 )


x2

(2.6)

com erro

1 (4)
u ()x2 = O(x2 ),
12
onde x0 x 6 6 x0 + x. Esta aproximacao e tambem chamada uma diferen
ca centrada para a
derivada segunda.
=

2.1.2

Discretiza
c
ao

Dividimos o intervalo [0, a] em n subintervalos de comprimento x = a/n atraves de n 1 pontos interiores


uniformemente espacados:
x0 = 0, x1 = x, x2 = 2x, . . . , xn1 = (n 1) x, xn = nx = a,
de modo que [0, a] = [x0 , x1 ] [x1 , x2 ] . . . [xn1 , xn ]. Introduzimos a notacao:
ui = u(xi ),
fi = f (xi ) .
Esta e uma discretiza
c
ao uniforme do intervalo [0, a]. Uma vez discretizado o domnio da equacao diferencial
parcial, procedemos `a discretizacao desta. Usando diferencas centradas para cada ponto interior xi , 1 6 i 6
n 1, temos
ui1 + 2ui ui+1
= fi .
(2.7)
x2
Para os pontos de fronteira, a condicao de Dirichlet implica simplesmente que
u0 = un = 0.

(2.8)

Rodney Josue Biezuner

41

Portanto, para encontrar a solucao discretizada temos que resolver o sistema linear com n 1 equacoes a
n 1 incognitas:

x2 (2u1 + u2 ) = f1

x (u1 + 2u2 u3 ) = f2
..
,
.

x (un3 + 2un2 un1 ) = f2

x2 (un2 + 2un1 ) = fn1


ou seja,

2
1

x2

1
2
1

1
..
.

..

..

..

u1
u2
..
.
..
.
un2
un1

2 1
1
2

.
1

f1
f2
..
.
..
.





=



fn2
fn1

Esta e uma matriz tridiagonal simetrica, esparsa. Alem disso, como veremos na proxima subsecao, ela e
positiva definida (isto e, seus autovalores sao positivos) e portanto possui uma inversa, o que garante a
existencia e unicidade da solucao. Dada sua simplicidade, ela pode ser resolvida por eliminacao gaussiana
ou sua inversa pode ser efetivamente calculada. Por exemplo, para n = 4, 5, 6 temos

2
1
0

2
1

0
0

1
2
1
0

1
2
1

0
1
2
1

2 1
1
2
0 1
0
0
0
0

1
0
1
1 = 0
2
0

1
1
0
0
0
=
0
1
2
0

0
0
1
0
2 1
1
2
0 1

0
0
0
1
2

1
2

1
2

1
0
1
3
2
3

1
0
0

1
0

1
0

=
0
0
0

1
3
2
3

1
1
4
2
4
3
4

1
2

0
0

2
3

1
2

0
1
0
1
2

1
0
0
0

5 4
4 8
1
3 6
=
6
2 4
1 2

1
3
2
3

2
3

0
0

1
4
2
4
3
4

1
0
0

1
5
2
5
3
5
4
5

1
0
3
6
9
6
3

2
4
6
8
4

1
0
0 12

0
1

3
4

1
3

0
0

1
0
1
0
2
0 13

3
4

1
4

4
5

1
2

0
1
0

1
2

3
.
4
5

A forma da inversa no caso geral pode ser facilmente adivinhada.

2
3

0
2
3

0
0
0

0
0
3
4

0
0

0
3
1
0 = 2
4
1
1
0
1
2
3
2
4

0
0
0
4
5

0
0
1
3
4

0
0
0
0
5
6

2
4
2

0
= 1

0
5
1

1
1
2
1
3
1
4
1
5

0
1
2
3
1
2
2
5

1
2 ,
3
4
3
2
1

3
6
4
2

0
0
1

0
0
0
1

3
4
3
5

4
5

2
4
6
3
0
0
0
0
1

1
2

3
4

Rodney Josue Biezuner

2.1.3

42

Resolu
c
ao Num
erica do Problema de Autovalor Unidimensional

Os autovalores de Dirichlet do laplaciano em [0, a] devem ser aproximados pelos autovalores da matriz
(n 1) (n 1)

2 1
1

2 1

.
.
.
.

.
.
1
1

A=

2
..
..
x

.
.
1

1
2 1
1
2
quando n e correspondentemente x 0.
Lembrando que as autofuncoes de Dirichlet do laplaciano no intervalo [0, a] sao as funcoes
Uj (x) = sen

jx
,
a

este fato sugere que os autovetores uj da matriz A sao os vetores de coordenadas


Uj (x1 ) , Uj (x2 ) , . . . , Uj (xn2 ) , Uj (xn1 ) = Uj (x) , Uj (2x) , . . . , Uj ((n 2) x) , Uj ((n 1) x) ,
ou seja, como x = a/n, os vetores

sin = cos
2
2

j
2j
(n 2) j
(n 1) j
uj = sen , sen
, . . . , sen
, sen
.
n
n
n
n

Usando identidades trigonometricas, vamos verificar que isso de fato acontece:


ao
2.1 Lema. Os n 1 autovalores da matriz A s

2
j
4
j
j =
1 cos
=
sen2
,
x2
n
x2
2n

j = 1, . . . , n 1,

e os autovetores correspondentes s
ao

j
2j
(n 2) j
(n 1) j
uj = sen , sen
, . . . , sen
, sen
,
n
n
n
n

j = 1, . . . , n 1.

(2.9)

(2.10)

Rodney Josue Biezuner

43

Prova. Temos

2
1

1
2
1

1
..
.

..

..

..

.
1

pois
2 sen

1
2
1

j
n
2j
sen
n
..
.
sen

(n 2) j

sen
1

n
2
(n 1) j
sen
n

2j
j
sen
2 sen
n
n
j
2j
3j
sen
+ 2 sen
sen
n
n
n
..
.







=


sen (n 3) j + 2 sen (n 2) j sen (n 1) j

n
n
n

(n 2) j
(n 1) j
sen
+ 2 sen
n
n

j
sen

2j

sen

j
..

= 2 1 cos
,

(n 2) j

sen

(n 1) j
sen
n

j
2j
j
j
j
j
j
sen
= 2 sen
2 sen
cos
= 2 1 cos
sen ,
n
n
n
n
n
n
n

(n k) j
(n k + 1) j
(n k 1) j
+ 2 sen
sen
n
n
n

(n k) j j
(n k) j
(n k) j j
= sen

+ 2 sen
sen
+
n
n
n
n
n
(n k) j
j
(n k) j
j
(n k) j
= sen
cos
+ cos
sen
+ 2 sen
n
n
n
n
n
(n k) j
j
(n k) j
j
sen
cos
cos
sen
n
n
n

n
j
(n k) j
= 2 1 cos
sen
,
n
n
sen

e
(n 1) j
(n 2) j
+ 2 sen
n
n
(n 1) j j
(n 1) j
= sen

+ 2 sen
n
n
n
j
(n 1) j
j
(n 1) j
(n 1) j
cos
+ cos
sen
+ 2 sen
= sen
n
n
n
n
n
(n 1) j
j
(n 1) j
j
(n 1) j
= sen
cos
sen
cos
+ 2 sen
n
n
n
n
n

(n 1) j
j
sen
,
= 2 1 cos
n
n

sen

onde na pen
ultima identidade usamos o fato que
cos

(n 1) j
j
(n 1) j
j
sen
= sen
cos
n
n
n
n

Rodney Josue Biezuner


porque

44

(n 1) j
(n 1) j j
j
(n 1) j
j
= sen
0 = sen j = sen
+
cos
+ cos
sen .
n
n
n
n
n
n

Os autovalores de A sao positivos, portanto A e uma matriz positiva definida. Observe que, fixado j, se n e
arbitrariamente grande entao
j
j 2 2
cos
1
,
n
2n2
pois o desenvolvimento em serie de Taylor da funcao cosseno em torno da origem e

1
cos x = 1 x2 + O x3 ;
2
tomando x = j/n para n suficientemente grande e desprezando os termos de terceira ordem, obtemos a
aproximacao acima. Da,

j
2n2
j
2n2
j 2 2
j 2 2
2
1

cos
=
1

cos

=
,
x2
n
a2
n
a2
2n2
a2
de forma que os menores autovalores da matriz A sao uma boa aproximacao para os menores autovalores de
Dirichlet do laplaciano no intervalo [0, a]. Ja o maior autovalor da matriz A e

2
(n 1)
2n2
(n 1)
4n2
n1 =
1

cos
=
1

cos

,
x2
n
a2
n
a2
que nao e uma boa aproximacao para um autovalor do laplaciano. Vemos que se aumentarmos o n
umero de
pontos de discretizacao (malha mais refinada) obteremos melhores aproximacoes e uma quantidade maior de
autovalores proximos aos autovalores do laplaciano. Para comparar, veja a tabela a seguir para os autovalores
do laplaciano no intervalo [0, ]; na primeira coluna temos os
autovalores
exatos do laplaciano, enquanto que
2n2
j
na demais colunas os autovalores da matriz A, j = 2 1 cos
, com a linha superior indicando o

n
n
umero n de subintervalos na malha
1
4
9
16
25
36
49
64
81
100

2.2

n = 11
0.993 221 21
3.892 419 95
8.462 720 39
14.333 863 96
21.030 205 54
28.009 247 34
34.705 588 92
40.576 732 50
45.147 032 93
48.046 231 68

n = 21
0.998 136 38
3.970 248 82
8.849 945 24
15.528 221 28
23.855 895 28
33.646 940 78
44.682 641 99
56.716 479 58
69.479 637 52
82.687 007 94

n = 31
0.999 144 44
3.986 325 21
8.930 889 79
15.782 100 25
24.469 653 89
34.904 404 68
46.979 277 93
60.570 369 11
75.538 215 24
91.729 225 95

n = 51
0.999 683 82
3.994 943 16
8.974 415 97
15.919 213 41
24.802 991 47
35.592 050 94
48.245 465 23
62.715 235 6
78.946 473 26
96.877 607 56

n = 101
0.999 919 37
3.998 710 15
8.993 471 18
15.979 370 36
24.949 649 29
35.895 629 79
48.806 722 35
63.670 436 30
80.472 391 97
99.196 334 56

n = 1001
0.999 999 18
3.999 986 87
8.999 933 51
15.999 789 87
24.999 486 99
35.998 936 22
48.998 029 23
63.996 637 97
80.994 614 71
99.991 792 02

O Caso Bidimensional

Nesta secao, desenvolveremos um metodo numerico de diferencas finitas para resolver o problema de Dirichlet
para a equacao de Poisson no retangulo (0, a) (0, b)

u = f (x, y)
em (0, a) (0, b) ,
u=0
sobre ((0, a) (0, b)) ,
e para o problema de autovalor de Dirichlet para o laplaciano no retangulo

u = u
em (0, a) (0, b) ,
u=0
sobre ((0, a) (0, b)) .

Rodney Josue Biezuner

2.2.1

45

A F
ormula dos Cinco Pontos

Vamos estabelecer alguma notacao. Denote

= (0, a) (0, b) = (x, y) R2 : 0 < x < a, 0 < y < b .


Ao discretizar atraves dos pontos
(xi , yj ) = (ix, jy) , 0 6 i 6 n, 0 6 j 6 m
onde

a
b
, y = ,
n
m
substitumos o domnio pela malha (ou gride) uniforme
x =

d = {(x, y) : x = ix, y = jy, 1 6 i 6 n 1, 1 6 j 6 m 1} .


Sua fronteira discretizada e o conjunto
d = {(x, y) : x = ix, y = jy, 0 6 i 6 n, 0 6 j 6 m} ,
de forma que

d = (x, y) : x = ix, y = jy, 0 6 i 6 n, 0 6 j 6 m .

A equacao de Poisson
uxx uyy = f (x, y)
pode ser agora discretizada. Denotamos
ui,j = u (xi , yj ) ,
fi,j = f (xi , yj ) .
Aproximamos cada derivada parcial de segunda ordem pela sua diferenca centrada, obtendo
ui1,j + 2ui,j ui+1,j
,
x2
ui,j1 + 2ui,j ui,j+1

.
y 2

uxx
uyy

Portanto, a equacao de Poisson discretizada toma a forma


ui1,j + 2ui,j ui+1,j
ui,j1 + 2ui,j ui,j+1
+
= fi,j .
x2
y 2

(2.11)

Como a funcao u e calculada em cinco pontos, esta equacao e chamada a f


ormula dos cinco pontos.
Para cada ponto interior da malha obtemos uma equacao, logo temos um sistema linear de (n 1) (m 1)
equacoes com o mesmo n
umero de incognitas. Diferente do caso unidimensional, no entanto, nao existe uma
maneira natural de ordenar os pontos da malha, logo nao podemos obter imediatamente uma representacao
matricial para o problema discretizado. Precisamos antes escolher uma ordenacao para os pontos da malha,
e como existem varias ordenacoes possveis, existem varias matrizes associadas.
Talvez a mais simples ordenacao e a ordem lexicografica induzida de Z2 . Nesta ordem, os pontos da
malha sao percorridos linha por linha, da esquerda para a direita, de baixo para cima:
u1,1 , u2,1 , . . . , un1,1 , u1,2 , u2,2 , . . . , un1,2 , . . . . . . , u1,m1 , u2,m1 , . . . , un1,m1 .

Rodney Josue Biezuner

46

Neste caso, a matriz associada ao sistema linear e uma matriz (n 1) (m 1) (n 1) (m 1) que pode
ser escrita como uma matriz de (m 1) (m 1) blocos de dimensao (n 1) (n 1) na forma

1 I
y 2

A=

1
I
y 2
B

1
I
y 2

1
2I
y
..
.

..

..

..

1
I
y 2

1
I
y 2
B

1
I
y 2

1
2I

B
(m1)(m1)

onde I e a matriz identidade (n 1) (n 1) e B e a matriz (n 1) (n 1) dada por


1
1
1

2 x2 + y 2
x2

1
1
1
1

2
+

2
2
2

x
x
y
x2

..
..
1

.
.

2
x

..
..
1

.
.

x2

1
1
1
1

2
+

2
2
2
2
x
x
y
x

1
1
1

2
+
x2
x2
y 2
Observe que

aii = 2

1
1
+
x2
y 2

(n1)(n1)

para todo 1 6 i 6 (n 1) (m 1), enquanto que


aij =

1
y 2

se o ponto j e vizinho `a esquerda ou `a direita do ponto i e


aij =

1
x2

se o ponto j e vizinho acima ou abaixo do ponto i. Por exemplo, no caso especial x = y, se n = 4 e m = 6

Rodney Josue Biezuner

47

(ou seja 3 5 = 15 pontos internos

4 1
0
1
4
1

0 1
4

1
0
0

0 1
0

0
0
1

0
0
0
1
0
0
0
A=
x2
0
0
0

0
0
0

0
0
0

0
0
0

0
0
0

0
0
0
0
0
0

na malha e uma matriz 15 15), temos


1
0
0
0 1
0
0
0 1
4 1
0
1
4 1
0 1
4
1
0
0
0 1
0
0
0 1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0

0
0
0
1
0
0
4
1
0
1
0
0
0
0
0

0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0

0
0
0
0
0
0
0
0

0
0
0
0
0
0
0
0

1
0
0
0
0
0
0
0

0 1
0
0
0
0
0
0

1
0 1
0
0
0
0
0

4 1
0 1
0
0
0
0

1
4
0
0 1
0
0
0

0
0
4 1
0 1
0
0

1
0 1
4 1
0 1
0

0 1
0 1
4
0
0 1

0
0 1
0
0
4 1
0

0
0
0 1
0 1
4 1
0
0
0
0 1
0 1
4

Observe que a matriz A e uma matriz simetrica, pentadiagonal e esparsa.

2.2.2

Exist
encia e Unicidade da Soluc
ao Discreta Autovalores do Problema
Bidimensional

Denotaremos por ud a funcao u|d , isto e, ud e a discretizacao da funcao u no domnio discretizado d .


Vamos definir o operador laplaciano discreto obtido a partir da formula dos cinco pontos por

ui1,j 2ui,j + ui+1,j


ui,j1 2ui,j + ui,j+1
d ud =
+
.
(2.12)
x2
y 2
de modo que a discretizacao do problema

e o problema

u = f
u=0

d ud = fd
ud = 0

em ,
sobre ,
em d ,
sobre d .

(2.13)

Para estabelecer a existencia e unicidade da solucao discreta, provaremos que a matriz de discretizacao A,
que e uma matriz simetrica, e tambem uma matriz positiva definida, pois isso implica em particular que A
e invertvel.
Lembrando que as autofuncoes de Dirichlet do laplaciano no retangulo [0, a] [0, b] sao as funcoes
Ukl (x, y) = sen

kx
ly
sen
,
a
b

este fato sugere que os autovetores ukl da matriz A na ordem lexicografica sao os vetores de coordenadas
Ukl (x1 , y1 ) , Ukl (x2 , y1 ) , . . . , Ukl (xn1 , y1 ) ,
Ukl (x1 , y2 ) , Ukl (x2 , y2 ) , . . . , Ukl (xn1 , y2 ) ,
..
.
Ukl (x1 , ym1 ) , Ukl (x2 , ym1 ) , . . . , Ukl (xn1 , ym1 )

Rodney Josue Biezuner

48
= Ukl (x, y) , Ukl (2x, y) , . . . , Ukl ((n 1) x, y) ,

Ukl (x, 2y) , Ukl (2x, 2y) , . . . , Ukl ((n 1) x, 2y) ,


..
.
Ukl (x, (m 1) y) , Ukl (2x, (m 1) y) , . . . , Ukl ((n 1) x, (m 1) y) ,
ou seja, como x = a/n e y = b/m, os vetores

l
2k
l
(n 1) k
l
k
sen , sen
sen , . . . , sen
sen
,
ukl = sen
n
m
n
m
n
m
k
2l
2k
2l
(n 1) k
2l
sen
sen
, sen
sen
, . . . , sen
sen
,
n
m
n
m
n
m
...,
k
(m 1) l
2k
(m 1) l
(n 1) k
(m 1) l
sen
sen
, sen
sen
, . . . , sen
sen
n
m
n
m
n
m

2.2 Lema. Os (n 1) (m 1) autovalores da matriz A s


ao

1
k
1
l
1
1
2 k
2 l
kl = 2
1

cos
+
1

cos
=
4
sen
+
sen
,
x2
n
y 2
m
x2
2n y 2
2m
k = 1, . . . , n 1, l = 1, . . . , m 1, e os autovetores correspondentes s
ao

k
l
2k
l
(n 1) k
l
ukl = sen
sen , sen
sen , . . . , sen
sen
,
n
m
n
m
n
m
k
2l
2k
2l
(n 1) k
2l
sen
sen
, sen
sen
, . . . , sen
sen
,
n
m
n
m
n
m
...,
k
(m 1) l
2k
(m 1) l
(n 1) k
(m 1) l
sen
sen
, sen
sen
, . . . , sen
sen
n
m
n
m
n
m

(2.14)

(2.15)

k = 1, . . . , n 1, l = 1, . . . , m 1.
Prova. Embora a demonstracao deste lema possa ser feita de maneira analoga `a do Lema 2.1, usando
identidades trigonometricas, daremos uma demonstracao diferente. Lembrando que as autofuncoes e os
autovalores de Dirichlet do laplaciano no retangulo sao facilmente obtidos atraves do metodo de separacao
de variaveis, encontraremos os autovalores da matriz A usando um metodo de separac
ao de vari
aveis discreto
para achar os autovalores do laplaciano discreto

ui1,j 2ui,j + ui+1,j


ui,j1 2ui,j + ui,j+1

+
= ui,j .
(2.16)
x2
y 2
Em particular, este metodo nao depende da maneira como os pontos da malha sao ordenados (nao depende
da matriz A usada para representar o laplaciano discreto). Como no metodo de separacao de variaveis
contnuo, assumimos que as solucoes da equacao discreta acima sao produtos da forma
ui,j = F (i) G (j) ,

(2.17)

onde F e G sao funcoes de uma variavel inteira. Substituindo esta expressao na equacao de Helmholtz
discreta, obtemos
F (i 1) G (j) 2F (i) G (j) + F (i + 1) G (j) F (i) G (j 1) 2F (i) G (j) + F (i) G (j + 1)
+
= F (i) G (j) .
x2
y 2

Rodney Josue Biezuner

49

Dividindo esta equacao por F (i) G (j), segue que


F (i 1) 2F (i) + F (i + 1) G (j 1) 2G (j) + G (j + 1)
+
= .
x2 F (i)
y 2 G (j)
Separando as variaveis, conclumos que cada um dos quocientes acima e independente de i ou de j, isto e,
eles sao constantes:
F (i 1) 2F (i) + F (i + 1)
= A,
F (i)
G (j 1) 2G (j) + G (j + 1)
= B,
G (j)

(2.18)
(2.19)

onde as constantes , estao relacionadas pela identidade


A
B
+
= .
2
x
y 2

(2.20)

Estas equacoes podem ser escritas como formulas de recorrencia (analogas `as equacoes diferenciais ordinarias
obtidas no metodo de separacao de variaveis contnuo)
F (i + 1) (A + 2) F (i) + F (i 1) = 0,
G (j 1) (B + 2) G (j) + G (j + 1) = 0.
Para resolve-las, e mais conveniente trabalhar com as constantes
2 = A + 2, 2 = B + 2.
Desta forma, as equacoes para F e G tornam-se
F (i 1) 2F (i) + F (i + 1) = 0,
G (j 1) 2G (j) + G (j + 1) = 0.
Observe que

=2

1 1
+
x2
y 2

(2.21)
(2.22)

(2.23)

Vamos resolver a equacao para F , ja que a equacao para G e completamente analoga. Substituindo em
(2.21) uma solucao da forma
F (i) = z i
(2.24)
obtemos

z i1 2z i + z i+1 = 0,

donde, dividindo por z i1 extramos a equacao quadratica (analoga `a equacao indicial)


z 2 2z + 1 = 0.
As duas razes sao
z =

(2.25)

p
2 1,

com z+ + z = 2 e z+ z = 1. Portanto, a solucao geral para a equacao (2.21) e


i
i
F (i) = c1 z+
+ c2 z

para algumas constantes c1 , c2 . Para determinarmos estas constantes e tambem , aplicamos as condicoes
de fronteira, que implicam
F (0) = F (n) = 0.

Rodney Josue Biezuner

50

A primeira destas por sua vez implica que c1 = c2 , logo


i

i
F (i) = c z+
z
.

(2.26)

Como a equacao para F e homogenea, a constante c e arbitraria. Aplicando a segunda, segue que
n
n
z+
= z
,

ou, como z+ z = 1,

2n
z+
=1

Conseq
uentemente, z+ e uma 2n-esima raiz complexa de 1:
z+ = eij/n

(2.27)

para algum inteiro 1 6 k 6 2n 1, onde i = 1. Como z = 1/z+ , podemos restringir 0 6 k 6 n 1 e


(2.26) produz todas as solucoes nao-triviais F de (2.21).
Portanto,
z+ + z
eik/n + eik/n
k
=
=
= cos
, 0 6 k 6 n 1,
2
2
n
e, escolhendo c = 1/2,
ik
Fk (i) = eiki/n eiki/n = sen
.
n
Analogamente,
l
= cos , 0 6 l 6 m 1,
m
e
jl
Gl (j) = sen
.
m
Segue que os autovalores sao

1
k
1
l
kl = 2
1 cos
+
1 cos
x2
n
y 2
m
e as coordenadas das autofuncoes associadas sao dadas por
(ukl )i,j = Fk (i) Gl (j) = sen

ik
jl
sen
.
n
m

ao o problema
2.3 Teorema. (Existencia e Unicidade da Solucao Discreta) Seja = (0, a) (0, b). Ent
discretizado

d ud = fd
em d ,
ud = 0
sobre d ,
possui uma u
nica soluc
ao.
Prova. Pelo lema anterior, os autovalores da matriz simetrica A sao positivos, logo ela e uma matriz
invertvel.

Rodney Josue Biezuner

2.2.3

51

Princpio do M
aximo Discreto

Para obter uma estimativa a priori para a equacao de Poisson discretizada, e com isso provar a convergencia
da solucao discreta para a solucao classica, usaremos um princpio do maximo discreto que enunciaremos e
provaremos nesta subsecao.
2.3 Lema. (Propriedade do Valor Medio) Se d ud = 0, ent
ao para pontos interiores vale
ui,j =

x2 (ui,j1 + ui,j+1 ) + y 2 (ui1,j + ui+1,j )


.
2 (x2 + y 2 )

Em particular, se x = y, ent
ao para pontos interiores vale
ui,j =

ui,j1 + ui,j+1 + ui1,j + ui+1,j


.
4

2.4 Teorema. (Princpio do Maximo Discreto) Se d ud > 0, o m


aximo de ud em d e atingido na fronteira
d ; se o m
aximo de ud e atingido no interior, ent
ao ud e constante.
Se d ud 6 0, o mnimo de ud em d e atingido na fronteira d ; se o mnimo de ud e atingido no
interior, ent
ao ud e constante.
Prova. Primeiro provaremos para x = y, para ilustrar a analogia com o caso contnuo. d ud > 0 implica
ui,j1 + ui,j+1 + ui1,j + ui+1,j
.
4
Logo, um ponto interior e um maximo local, isto e,
ui,j 6

ui,j > ui,j1 , ui,j+1 , ui1,j , ui+1,j


(ou seja, e um maximo em relacao aos seus quatro vizinhos), somente se cada um dos seus quatro vizinhos
assume este mesmo valor maximo, e a desigualdade torna-se uma identidade. Aplicando este argumento a
todos os pontos da malha, conclumos que ou nao existe um maximo interior, e portanto o maximo e atingido
na fronteira, ou existe um maximo interior e todos os pontos da malha assumem o mesmo valor, isto e, ud e
constante.
No caso geral x 6= y, se d ud > 0 temos

1
1
1 ui,j1 + ui,j+1
ui1,j + ui+1,j
+
ui,j 6
+
.
x2
y 2
2
y 2
x2
Se ui,j e um maximo local, segue que

1
1
1 ui,j + ui,j
ui,j + ui,j
1
1
1
+
ui,j 6
+
=
+
ui,j ,
x2
y 2
2
y 2
x2
2 x2
y 2
logo nenhum dos seus quatro vizinhos pode assumir um valor menor que ui,j , isto e, cada um dos quatro
vizinhos assume o mesmo valor maximo e o argumento prossegue como no caso anterior. O caso d ud 6 0
e provado considerando-se ud .

2.2.4

Converg
encia da Soluc
ao Discreta para a Soluc
ao Cl
assica

Por simplicidade, trabalharemos no quadrado unitario, isto e, = (0, 1) (0, 1). Consideraremos a norma
do maximo discreta para funcoes vd definidas no domnio discretizado d :
kvd k = max |vi,j | .
06i6n
06j6m

Em primeiro lugar, obtemos uma estimativa a priori discreta (que tambem pode ser visto como um resultado
de regularidade discreto) para solucoes da equacao de Poisson discreta com condicao de Dirichlet homogenea:

Rodney Josue Biezuner

52
2

2.5 Lema. (Estimativa a Priori) Seja = (0, 1) . Seja ud uma soluc


ao de

d ud = fd
em d ,
ud = 0
sobre d .
Ent
ao
kud k 6
Prova. Considere a funcao

"

1
w (x, y) =
4
e sua versao discretizada wd definida por
wi,j

1
=
4

1
kd ud k .
8

1
x
2

"

1
xi
2

1
+ y
2

(2.28)
2 #

2 #
1
+ yj
.
2

(2.29)

Entao
w>0 e

w = 1,

e tambem
wd > 0 e

d wd = 1,

(2.30)

pois
d wd =
=
+
=
=
=
+
=

wi1,j 2wi,j + wi+1,j


wi,j1 2wi,j + wi,j+1
+
x2
y 2
"

2
2
2
1 2
1 2
1 xi1 2 + yj 2 2 xi 12 2 yj 12 + xi+1 21 + yj 12
4
x2
2
2

2
2
2 #

xi 12 + yj1 12 2 xi 12 2 yj 12 + xi 12 + yj+1 12
y 2
"
2

2
2
2

2
2 #

yj1 21 2 yj 12 + yj+1 12
1 xi1 12 2 xi 12 + xi+1 12
+
4
x2
y 2
"
2

2
2
2

2
2 #

yj y 12 2 yj 12 + yj + y 12
1 xi x 12 2 xi 12 + xi + x 12
+
4
x2
y 2
"

1 x2i + x2 + 14 2xi x xi + x 2 x2i xi + 14 + x2i + x2 + 14 + 2xi x xi x


4
x2
2


#
yj + y 2 + 14 2yj y yj + y 2 yj2 yj + 41 + yj2 + y 2 + 14 + 2yj y yj y
y 2

1 2x2
2y 2
+
= 1.
4 x2
y 2

Considere agora a funcao


ud kd ud k wd .
Temos ent
ao
d (ud kd ud k wd ) = d ud kd ud k d wd
= d ud kd ud k
6 0.

(2.31)

Rodney Josue Biezuner

53

Segue do Princpio do Maximo Discreto que a funcao ud kd ud k wd assume o seu mnimo na fronteira.
Este u
ltimo e igual a kd ud k maxd wd . Por sua vez, o maximo de wd na fronteira e menor ou igual ao
maximo de w em , dado por

2
1
1
1
1
1
x
y
= max
= .
max
06x61 4
06x61 4
2
2
8
Portanto, conclumos que

1
ui,j > ui,j kd ud k wi,j > kd ud k
8

(2.32)

para todos i, j. Analogamente,


d (ud + kd ud k wd ) > 0
e a funcao ud + kd ud k wd assume o seu maximo na fronteira, igual a kd ud k maxd wd 6 18 a, donde
ui,j 6 ui,j kd ud k wi,j 6

1
kd ud k
8

(2.33)

para todos i, j. Reunindo as duas desigualdades, segue que


|ui,j | 6

1
kd ud k
8

para todos i, j, o que conclui a demonstracao.



2
2.6 Teorema. Seja = (0, 1) . Sejam u C 4 uma soluc
ao cl
assica para o problema de Dirichlet

u = f
em ,
u=0
sobre ,
e vd uma soluc
ao do correspondente problema discretizado

d vd = fd
em d ,
vd = 0
sobre d .
Ent
ao existe uma constante C > 0 independente de u tal que

kud vd k 6 C D4 uL () x2 + y 2 .

(2.34)



Prova. A hipotese f C 2, garante que u C 4 . Lembre-se que
4

u
D u
.

(x,
y)
=
sup

xp y q
L ()
(x,y)
p+q=4

Pela Formula de Taylor,


u(xi x, yj ) 2u(xi , yj ) + u(xi + x, yj )
2 4u
2 6u
2u
(xi , yj ) =

(xi , yj )x2
(xi , yj )x4 . . .
2
2
4
x
x
4! x
5! x6
ui1,j 2ui,j + ui+1,j
2 4u
2 6u
2
=

(x
,
y
)x

(xi , yj )x4 . . . ,
i
j
x2
4! x4
5! x6
2u
u(xi , yj y) 2u(xi , yj ) + u(xi , yj + y)
2 4u
2 6u
2
(x
,
y
)
=

(x
,
y
)y

(xi , yj )y 4 . . .
i
j
i
j
y 2
y 2
4! y 4
5! y 6
2 4u
2 6u
ui,j1 2ui,j + ui,j+1
2

(x
,
y
)y

(xi , yj )y 4 . . . ,
=
i
j
y 2
4! y 4
5! y 6

Rodney Josue Biezuner

54

donde
u (xi , yj ) = (d ud )ij

1
3!

4u
4u
(xi , yj )x2 + 4 (xi , yj )y 2
4
x
y

+ O x4 , y 4 .

(2.35)

Como
u (xi , yj ) = f (xi , yj ) ,
temos que
(d ud )i,j = (fd )i,j

1
3!

4u
4u
(xi , yj )x2 + 4 (xi , yj )y 2
4
x
y

+ O x4 , y 4 .

(2.36)

Subtraindo desta equacao a equacao


(d vd )i,j = (fd )i,j ,
obtemos
(d ud d vd )i,j =

1
3!

4u
4u
(xi , yj )x2 + 4 (xi , yj )y 2
4
x
y

+ O x4 , y 4 ,

o que implica

1
D4 u
x + y 2 + O x4 , y 4
L
()
3!

6 C D4 uL () x2 + y 2 .

kd (ud vd )k 6

Usando a estimativa a priori do lema anterior, obtemos finalmente o resultado desejado.


Defini
c
ao. Dizemos que as solucoes do problema discretizado

d vd = fd
em d ,
vd = 0
sobre d ,
convergem para a solucao exata u do problema de Poisson

u = f
em ,
u=0
sobre ,
com relacao `a norma kk se
kud vd k 0
quando x, y 0. Dizemos que a convergencia e de ordem k (ou que o esquema de diferencas
finitas e convergente de ordem k) se

kud vd k = O xk , y k .
O Teorema 2.6 diz que o esquema de diferen
cas finitas da formula de cinco pontos e um esquema convergente
na norma do sup de ordem 2, se u C 4 . Maior regularidade da solucao u nao causa melhor convergencia
no metodo. Na verdade, a ordem de convergencia da formula de cinco
sob hipoteses
pontos ainda e 2 mesmo
mais fracas sobre a regularidade de u: basta assumir u C 3,1 , ao inves de u C 4 . No entanto,
regularidade menor que esta em u afeta negativamente
a ordem de convergencia da formula de cinco pontos.

Em geral, pode-se provar que se u C k, , 2 6 k 6 4, entao existe uma constante C = C (k, ) tal que

kud vd k 6 C xk+2 + y k+2 kukC k, () .


(2.37)
Para uma demonstracao destes resultados, veja [Hackbusch], pags. 60-61. Se quisermos uma melhor ordem
de convergencia para as solucoes discretizadas, e necessario considerar outras forma de discretizar o laplaciano
atraves de diferencas finitas. Isto sera feito na proxima secao.

Rodney Josue Biezuner

2.3

55

Discretizac
oes de Ordem Superior

Para obter esquemas de diferencas finitas com melhor ordem de convergencia, em geral e necessario acrescentar mais pontos na formula. O m
etodo dos coeficientes indeterminados e um metodo simples para
construir estes esquemas.

2.3.1

Caso Unidimensional

Vamos obter um esquema de diferencas finitas convergente de ordem 4 para o caso unidimensional. O
esquema envolvendo tres pontos, que obtivemos no incio do captulo atraves da aproximacao da derivada
segunda em um ponto por uma diferenca finita centrada (que envolve o ponto e seus dois vizinhos, `a esquerda
e `a direita), e convergente de ordem 2 (isso que pode ser provado de maneira semelhante a como fizemos para
a formula de cinco pontos). Para obter um esquema com uma maior ordem de convergencia, acrescentamos
mais dois pontos `a formula de diferencas finitas do esquema, que denotaremos por ui :
ui = c1 ui2 + c2 ui1 + c3 ui + c4 ui+1 + c5 ui+2 .

(2.38)

Cada termo tem sua expansao em serie de Taylor:

4 00
8
16
32
u (xi )x2 u000 (xi )x3 + u(4) (xi )x4 u(5) (xi )x5 + O x6 ,
2!
3!
4!
5!

1 00
1 000
1 (4)
1 (5)
0
2
3
4
u(xi x) = u(xi ) u (xi )x + u (xi )x u (xi )x + u (xi )x u (xi )x5 + O x6 ,
2!
3!
4!
5!

1 000
1 (4)
1
1 00
2
3
4
0
u(xi + x) = u(xi ) + u (xi )x + u (xi )x + u (xi )x + u (xi )x + u(5) (xi )x5 + O x6 ,
2!
3!
4!
5!

4 00
8 000
16 (4)
32
0
2
3
4
u(xi + 2x) = u(xi ) + 2u (xi )x + u (xi )x + u (xi )x + u (xi )x + u(5) (xi )x5 + O x6 .
2!
3!
4!
5!
u(xi 2x) = u(xi ) 2u0 (xi )x +

Substituindo estas expressoes na formula acima, obtemos:


ui = (c1 + c2 + c3 + c4 + c5 ) u (xi )
+ x (2c1 c2 + c4 + 2c5 ) u0 (xi )

1
1
+ x2 2c1 + c2 + c4 + 2c5 u00 (xi )
2
2

1
1
4
4
3
+ x c1 c2 + c4 + c5 u000 (xi )
3
6
6
3

2
1
1
2
4
+ x
c1 + c2 + c4 + c5 u(4) (xi )
3
24
24
3

4
1
1
4
5
+ x c1
c2 +
c4 + c5 u(5) (xi )
15
120
120
15

+ O x6 .
Como procuramos um esquema de diferencas finitas com ordem de convergencia maior que 2, queremos obter
uma solucao nao-nula para o sistema

c1 + c2 + c3 + c4 + c5
=
0

2c

c
+
c
+
2c
=
0
1
2
4
5

1
1
1

2c1 + c2 + c4 + 2c5
=
2
2
x2 ;

4
1
1
4

c1 c2 + c4 + c5 =
0

3
6
6
3

2c + 1 c + 1 c + 2c =
0
1
2
4
5
3
24
24
3

Rodney Josue Biezuner

56

isso implicaria em princpio em um esquema com ordem de convergencia pelo menos igual a 3:

ui = u00 (xi ) + O x3 .
Como a matriz

1
1 1
1
2 1 0
1

1
1

2
0

2
2

4
1
1

3 6 0
6

1
2
1
0
3
24
24
tem determinante igual a 1, ela e invertvel e o sistema possui

1
2

2
3
a solucao u
nica

1 1
,
12 x2
4 1
=
,
3 x2
5 1
=
2 x2
4 1
=
,
3 x2
1 1
.
=
12 x2

c1 =
c2
c3
c4
c5
Incidentalmente, esta solucao tambem implica

4
1
1
4
c1
c2 +
c4 + c5 = 0
15
120
120
15

o que permite obter um esquema com ordem de convergencia igual a 4:

ui = u00 (xi ) + O x4 ,
aproximando a derivada segunda u00 pela diferenca finita
00

u =

1
4
5
4
1
ui2 + ui1 ui + ui+1 ui+2
12
3
2
3
12
x2

ou
u00 =

2.3.2

ui2 16ui1 + 30ui 16ui+1 + ui+2


.
12x2

(2.39)

Caso Bidimensional: A F
ormula dos Nove Pontos Compacta

Um esquema de ordem 4 para a equacao de Poisson em duas dimensoes e a f


ormula de nove pontos compacta.
Se buscassemos uma formula de nove pontos simplesmente a partir da formula de cinco pontos unidimensional obtida na subsecao precedente (como obtivemos a formula de cinco pontos bidimensional a partir
da formula de tres pontos unidimensional), escreveramos
d ud =

ui,j2 16ui,j1 + 30ui,j 16ui,j+1 + ui,j+2


ui2,j 16ui1,j + 30ui,j 16ui+1,j + ui+2,j
+
,
12x2
12y 2
(2.40)

Rodney Josue Biezuner

57

que pode ser resumida na forma

1
d ud =
12x2

1
12y 2
16

2
12y

1
1
16
30
+

12x2
12y 2
12x2
16

12y 2
1

12y 2

16
12x2

1
12x2

Embora este esquema seja de fato de ordem 4, ele apresenta dificuldades para pontos interiores adjacentes `a
fronteira do retangulo (por exemplo, se considerarmos o ponto (x1 , y1 ), os pontos (x1 , y1 ) e (x1 , y1 ) estao
fora do retangulo). Uma possibilidade para resolver este problema seria aplicar a formula dos cinco pontos
nos pontos interiores adjacentes `a fronteira e aplicar a formula dos nove pontos apenas nos pontos interiores
mais distantes da fronteira. No entanto, como a formula de cinco pontos e de segunda ordem, a convergencia
deste metodo misto nao deve ser de ordem 4.
Vamos tentar encontrar uma formula de nove pontos compacta, em que os nove pontos estao dispostos
em tres linhas e tres colunas, de modo que nao ha problemas em usa-la nos pontos interiores adjacentes `a
fronteira. Aplicando o metodo dos coeficientes indeterminados, buscamos nove coeficientes para a diferenca
finita
d ud = c1 ui1,j1 + c2 ui,j1 + c3 ui+1,j1
+ c4 ui1,j + c5 ui,j + c6 ui+1,j
+ c7 ui1,j+1 + c8 ui,j+1 + c9 ui+1,j+1 .

(2.41)

Observe a distribuicao dos nove pontos. Alem dos cinco usuais, foram acrescentados os quatro pontos que
ocupam as posicoes diagonais. Para os quatro pontos vizinhos horizontais ou verticais do ponto central, a
formula de Taylor produz
u
1 2u
1 3u
1 4u
(xi , yj )x +
(xi , yj )x2
(xi , yj )x3 +
(xi , yj )x4
2
3
x
2! x
3! x
4! x4

1 5u

(xi , yj )x5 + O x6
5! x5
u
1 2u
1 3u
1 4u
u(xi + x, yj ) = u(xi , yj ) +
(xi , yj )x +
(xi , yj )x2 +
(xi , yj )x3 +
(xi , yj )x4
2
3
x
2! x
3! x
4! x4

1 5u
+
(xi , yj )x5 + O x6
5! x5
1 2u
1 3u
1 4u
u
2
3
(xi , yj )y +
(x
,
y
)y

(x
,
y
)y
+
(xi , yj )y 4
u(xi , yj y) = u(xi , yj )
i
j
i
j
y
2! y 2
3! y 3
4! y 4

1 5u

(xi , yj )x5 + O x6
5
5! x
u
1 2u
1 3u
1 4u
u(xi , yj + y) = u(xi , yj ) +
(xi , yj )y +
(xi , yj )y 2 +
(xi , yj )y 3 +
(xi , yj )y 4
2
3
y
2! y
3! y
4! y 4

1 5u
+
(xi , yj )x5 + O x6 , y 6
5
5! x

u(xi x, yj ) = u(xi , yj )

Rodney Josue Biezuner

58

enquanto que para os quatro pontos diagonais temos


u(xi + x, yj + y)

u
u
1 2u
2u
2u
2
2
= u(xi , yj ) +
(xi , yj )x +
(xi , yj )y +
(xi , yj )xy + 2 (xi , yj )y
(xi , yj )x + 2
x
y
2! x2
xy
y
3

3
3
3
1 u
u
u
u
+
(xi , yj )x3 + 3 2 (xi , yj )x2 y + 3
(xi , yj )xy 2 + 3 (xi , yj )y 3
3! x3
x y
xy 2
y
4

4
4
u
1 u
u
3u
4u
3
4
2
2
3
4
+
(xi , yj )x + 4 3 (xi , yj )x y + 6
(xi , yj )x y + 4
(xi , yj )xy + 4 (xi , yj )y
4! x4
x y
xy 3
xy 3
y
5
5
5
5
u
1 u
u
u
+
(xi , yj )x5 + 5 4 (xi , yj )x4 y + 10 3 2 (xi , yj )x3 y 2 + 10
(xi , yj )x2 y 3
5
5! x
x y
x y
xy 4

5u
5u
4
5
+5
(xi , yj )xy + 5 (xi , yj )y + O x6 , y 6 ,
4
xy
y
u(xi x, yj y)

u
u
1 2u
2u
2u
2
2
= u(xi , yj )
(xi , yj )x +
(xi , yj )y +
(x
,
y
)x
+
2
(x
,
y
)xy
+
(x
,
y
)y
i j
i j
i j
x
y
2! x2
xy
y 2
3

1 u
3u
3u
3u

(xi , yj )x3 + 3 2 (xi , yj )x2 y + 3


(xi , yj )xy 2 + 3 (xi , yj )y 3
3
2
3! x
x y
xy
y
4

4
4
1 u
u
u
3u
4u
4
3
2
2
3
4
+
(x
,
y
)x
+
4
(x
,
y
)x
y
+
6
(x
,
y
)x
y
+
4
(x
,
y
)xy
+
(x
,
y
)y
i j
i j
i j
i j
i j
4! x4
x3 y
xy 3
xy 3
y 4
5
1 u
5u
5u
5u

(xi , yj )x5 + 5 4 (xi , yj )x4 y + 10 3 2 (xi , yj )x3 y 2 + 10


(xi , yj )x2 y 3
5
5! x
x y
x y
xy 4

5u
5u
4
5
+5
(xi , yj )xy + 5 (xi , yj )y + O x6
4
xy
y
u(xi + x, yj y)

u
u
= u(xi , yj ) +
(xi , yj )x
(xi , yj )y
x
y
2

1 u
2u
2u
2
2
+
(xi , yj )x 2
(xi , yj )xy + 2 (xi , yj )y
2! x2
xy
y
3

3
1 u
u
3u
3u
3
2
2
3
+
(xi , yj )x 3 2 (xi , yj )x y + 3
(xi , yj )xy 3 (xi , yj )y
3! x3
x y
xy 2
y

4
4
4
1 u

u
3u
4u
4
3
2
2
3
4
+
(xi , yj )x 4 3 (xi , yj )x y + 6
(xi , yj )x y 4
(xi , yj )xy + 4 (xi , yj )y
4! x4
x y
xy 3
xy 3
y
5
5
5
5
1 u

u
+
(xi , yj )x5 5 4 (xi , yj )x4 y + 10 3 2 (xi , yj )x3 y 2 10
(xi , yj )x2 y 3
5! x5
x y
x y
xy 4

5u
5u
4
5
+5
(x
,
y
)xy

(x
,
y
)y
+ O x6 , y 6 ,
i
j
i
j
4
5
xy
y

Rodney Josue Biezuner

59

u(xi x, yj + y)

u
u
= u(xi , yj ) + (xi , yj )x +
(xi , yj )y
x
y

2
1 2u

u
2u
2
2
+
(x
,
y
)x

2
(x
,
y
)xy
+
(x
,
y
)y
i
j
i
j
i
j
2! x2
xy
y 2
3

1
u
3u
3u
3u
2
3
+
3 (xi , yj )x3 + 3 2 (xi , yj )x2 y 3
(x
,
y
)xy
+
(x
,
y
)y
i j
i j
3!
x
x y
xy 2
y 3
4

1 u
4u
4u
3u
4u
4
3
2
2
3
4
(x
,
y
)x
(x
,
y
)x
(x
,
y
)x
(x
,
y
)xy
(x
,
y
)y
+

4
y
+
6
y

4
+
i j
i j
i j
i j
i j
4! x4
x3 y
xy 3
xy 3
y 4
5
1
u
5u
5u
5u
+
5 (xi , yj )x5 + 5 4 (xi , yj )x4 y 10 3 2 (xi , yj )x3 y 2 + 10
(xi , yj )x2 y 3
5!
x
x y
x y
xy 4

5u
5u
4
5
(x
,
y
)xy
(x
,
y
)y
+ O x6 , y 6 .
+
5
i j
i j
4
5
xy
y
Substituindo estas expressoes na formula acima, obtemos:
d ud = (c1 + c2 + c3 + c4 + c5 + c6 + c7 + c8 + c9 ) u (xi , yj )
u
+ x (c1 + c3 c4 + c6 c7 + c9 )
(xi , yj )
x
u
+ y (c1 c2 c3 + c7 + c8 + c9 )
(xi , yj )
y

2
1
1
1
1
1
1
u
+ x2
c1 + c3 + c4 + c6 + c7 + c9
(xi , yj )
2
2
2
2
2
2
x2
2u
(xi , yj )
+ xy (c1 c3 c7 + c9 )
xy

2
1
1
1
1
1
1
u
2
+ y
c1 + c2 + c3 + c7 + c8 + c9
(xi , yj )
2
2
2
2
2
2
y 2

3
1
1
1
1
1
1
u
+ x3 c1 + c3 c4 + c6 c7 + c9
(xi , yj )
6
6
6
6
6
6
x3

3
1
1
1
1
u
+ x2 y c1 c3 + c7 + c9
(xi , yj )
2
2
2
2
x2 y

3
1
1
1
u
1
+ xy 2 c1 + c3 c7 + c9
(xi , yj )
2
2
2
2
xy 2

3
1
1
1
1
1
1
u
+ y 3 c1 c2 c3 + c7 + c8 + c9
(xi , yj )
6
6
6
6
6
6
y 3

4
1
1
1
1
1
1
u
+ x4
c1 + c3 + c4 + c6 + c7 + c9
(xi , yj )
24
24
24
24
24
24
x4

4
1
1
1
1
u
+ x3 y
c1 c3 c7 + c9
(xi , yj )
6
6
6
6
x3 y

1
1
1
4u
1
2
2
c1 + c3 + c7 + c9
(xi , yj )
+ x y
4
4
4
4
x2 y 2

4
1
1
1
1
u
+ xy 3
c1 c3 c7 + c9
(xi , yj )
6
6
6
6
xy 3

4
1
1
1
1
1
1
u
4
+ y
c1 + c2 + c3 + c7 + c8 + c9
(xi , yj )
24
24
24
24
24
24
y 4

Rodney Josue Biezuner

60

5
1
1
1
1
1
1
u
+ x
c1 +
c3
c4 +
c6
c7 +
c9
(xi , yj )
120
120
120
120
120
120
x5
5

1
1
1
1
u
(xi , yj )
+ x4 y c1 c3 + c7 + c9
24
24
24
24
x4 y

1
1
1
1
5u
+ x3 y 2 c1 + c3 + c7 + c9
(xi , yj )
12
12
12
12
x3 y 2

1
1
1
5u
1
+ x2 y 3 c1 c3 c7 + c9
(xi , yj )
12
12
12
12
x2 y 3

5
1
1
1
1
u
+ xy 4 c1 + c3 c7 + c9
(xi , yj )
24
24
24
24
xy 4

5
1
1
1
1
1
1
u
+ y 5
c1
c2
c3 +
c7 +
c8 +
c9
(xi , yj )
120
120
120
120
120
120
y 5
5

Para obter um esquema com ordem de convergencia pelo menos igual


nao-nula para o sistema

c1 + c2 + c3 + c4 + c5 + c6 + c7 + c8 + c9

c1 + c3 c4 + c6 c7 + c9

c1 c2 c3 + c7 + c8 + c9

c1 + c3 + c4 + c6 + c7 + c9

c1 c3 c7 + c9

c1 + c2 + c3 + c7 + c8 + c9

c1 + c3 c4 + c6 c7 + c9

c1 c3 + c7 + c9

c1 + c3 c7 + c9

c1 c2 c3 + c7 + c8 + c9

c1 + c3 + c4 + c6 + c7 + c9

c1 c3 c7 + c9

c1 + c3 + c7 + c9

c1 c3 c7 + c9

c1 + c2 + c3 + c7 + c8 + c9

a 3, precisaramos obter uma solucao


=
=
=
=
=
=
=
=
=
=
=
=
=
=
=

0
0
0
1
x2
0
1
y 2
0
0
0
0
0
0
0
0
0

Infelizmente este sistema nao tem solucao pois ele e inconsistente: a sexta e a u
ltima equacao sao incompatveis, assim como a quarta e a decima primeira. Portanto, nao existe uma formula de nove pontos
compacta tal que

d ud = u + O x3 , y 3 .
No entanto, em 1975 o matematico e logico Rosser introduziu a seguinte formula de nove pontos compacta
no caso especial x = y (em [Rosser1]; veja tambem [Rosser2])
d ud =

ui1,j1 + 4ui,,j1 + ui+1,j1 + 4ui1,j 20ui,j + 4ui+1,j + ui1,j+1 + 4ui,j+1 + ui+1,j+1


, (2.42)
6x2

que pode ser resumida na forma

1
1
4
d ud =
6x2
1

4
20
4

1
4 ,
1

(2.43)



a qual produz um esquema convergente de quarta ordem se a solucao u C 6 (ou mesmo se u C 5,1
apenas) dependendo de como a funcao f e discretizada. Para entender como isso ocorre, observe que se

Rodney Josue Biezuner

61


u C 8 a formula de Taylor produz

x2 2
x4 4
4
4
d ud = u
u
+ 4 2 2 + 4 u + O x6
4
12
360 x
x y
y

x2
x4 4
4
4
= u
f
+ 4 2 2 + 4 f + O x6 .
4
12
360 x
x y
y

(2.44)
(2.45)

O ponto crucial aqui e que o erro e expresso em termos de u e, conseq


uentemente, por f . Ainda e
necessario escolher uma discretizacao especial para f :
fd =
ou

fi,,j1 + fi1,j + 8fi,j + fi+1,j + fi,j+1


12

1
1
1 8 1 .
fd =
12
1

(2.46)

(2.47)

Usando a formula de Taylor para f , obtemos que esta discretizacao especial para f satisfaz
fd = f +

x2
f + O x4 .
12

(2.48)

Somando esta estimativa com (2.45), e usando d ud = fd , u = f , obtemos

d ud = u + O x4
Para este esquema, pode-se provar (veja [Hackbusch], pag. 64) que existe uma constante C > 0 tal que
kud vd k 6 Cx4 kukC 6 ()

ou

kud vd k 6 Cx4 kukC 5,1 ()

(2.49)

O esquema de Rosser tambem satisfaz o princpio do maximo. Concluindo, vemos que uma maior regularidade
da solucao permite obter metodos de diferencas finitas com maior ordem de convergencia, embora esta nao
seja uma tarefa simples.

2.4

Diferencas Finitas em Coordenadas Polares

Consideraremos nesta secao diferencas finitas em coordenadas polares para domnios com simetria radial.
Consideraremos em detalhes os casos do disco e do anel. O primeiro caso inclui a origem no domnio da
definicao, onde o laplaciano apresenta uma singularidade quando escrito em coordenadas polares, singularidade esta que nao existe no problema original, e esta particularidade deve ser tratada com cuidado para nao
atrapalhar a ordem de convergencia do esquema obtido.
Considere a equacao de Poisson em coordenadas polares no disco = [0, R) [0, 2) :
(
1
1
se 0 6 r < R e 0 < < 2,
urr + ur + 2 u = f (r, )
r
r
u (R, ) = 0
se 0 6 6 2.
A solucao exata deste problema deve satisfazer a condicao de continuidade
u (r, 0) = u (r, 2)

para todo 0 6 r 6 R.

Embora esta condicao nao seja uma condicao de fronteira e aparece apenas por causa do sistema de coordenadas utilizado, ela acaba funcionando como uma condicao de fronteira em muitos metodos numericos (e

Rodney Josue Biezuner

62

mesmo analticos), pois nao deixa de ser uma condicao na fronteira do retangulo (0, R) (0, 2).

Discretizamos o disco atraves de uma malha polar


d = {(ri , j ) : ri = ir, j = j, 0 6 i 6 n 1, 0 6 j 6 m}
onde
r =

R
2
, =
.
n
m

Sua fronteira discretizada e o conjunto


d = {(rn , j ) : rn = nr = R, j = j, 0 6 j 6 m} .
Discretizamos a equacao de Poisson da seguinte forma. Denotamos os valores das discretizacoes ud e fd
em pontos da malha por
ui,j = u (ri , j ) ,
fi,j = f (ri , j ) ,
entendendo que ui,j e fi,j devem satisfazer
u0,0 = u0,j

e f0,0 = f0,j

(2.50)

para todo 0 6 j 6 m, ja que existe apenas um ponto associado com i = 0 (a origem, correspondente a r = 0).
Alem disso, pela condicao de continuidade, devemos ter tambem
ui,0 = ui,2

e fi,0 = fi,2

(2.51)

para todo 0 6 i 6 n. Usando uma diferenca centrada usual para derivadas segundas, o terceiro termo do
laplaciano em coordenadas polares pode ser aproximado para pontos interiores do disco por

1
1 ui,j1 2ui,j ui,j+1
u (ri , j ) 2
.
(2.52)
2
r
ri
2
Para aproximar os primeiros dois termos, escrevemos
1
1
urr + ur = (rur )r .
r
r
Se (ri , j ) e um ponto interior do disco diferente da origem (isto e, i 6= 0), podemos usar diferencas centradas
para a derivada primeira, tanto na primeira quanto na segunda aproximacoes a seguir, obtendo
1 (rur ) (ri + r/2, j ) (rur ) (ri r/2, j )
1
(rur )r (ri , j )
r
ri
2r/2
u (ri , j ) u (ri r, j )
u (ri + r, j ) u (ri , j )
ri1/2
1 ri+1/2
r
r

ri
r
1 ri+1/2 (ui+1,j ui,j ) ri1/2 (ui,j ui1,j )
=
.
ri
r2

(2.53)

Rodney Josue Biezuner

63

Portanto, a discretizacao da equacao de Poisson no disco para pontos interiores do disco diferentes da origem
e

1 ri+1/2 (ui+1,j ui,j ) ri1/2 (ui,j ui1,j )


1 ui,j1 2ui,j ui,j+1

+
= fi,j
(2.54)
ri
r2
ri2
2
para 1 6 i 6 n 1 e 1 6 j 6 m 1. Se j = 0, usando a condicao de continuidade que identifica o ponto
(i, 0) com o ponto (i, n), substitumos ui,j1 por ui,n1 e escrevemos

1 ri+1/2 (ui+1,0 ui,0 ) ri1/2 (ui,0 ui1,0 )


1 ui,n1 2ui,0 ui,1
= fi,0

+ 2
(2.55)
ri
r2
ri
2
para 1 6 i 6 n 1. Como este esquema de diferencas finitas foi obtido atraves de diferencas centradas,
ele deve ser de segunda ordem. No entanto, devemos ter cuidado ao discretizar a equacao de Poisson na
origem para preservar esta ordem de convergencia. Para isso, multiplicamos a equacao de Poisson por r e
integramos o resultado sobre um pequeno disco D centrado na origem de raio :

Z 2 Z
Z 2 Z
1
1
f r drd =
r
(rur )r + 2 u drd
r
r
0
0
0
0
Z 2 Z
Z Z 2
1
u drd
=
(rur )r drd +
0
0
0 r 0
Z 2
Z
1

2
=
[rur ]0 d +
[u ]0 drd
r
0
0
Z 2
=
ur (, ) d,
0
2

onde assumimos u C () de modo que


u (r, 0) = u (r, 2)
para todo 0 6 r < R. Escolhendo = r/2, discretizamos a equacao integral
Z
Z 2 Z r/2
r 2
ur (r/2, ) d =
f r drd
2 0
0
0
aproximando a derivada primeira ur (r/2, ) = (ur )i+1/2,j por diferencas centradas e f por f (0) (pois r
e suposto pequeno), de modo que
u1,j u0,j
,
r
Z 2 Z r/2
Z 2 Z
f r drd f (0)
ur (r/2, j )

e assim

r/2

r drd = 2f (0)

r/2
r2

= f (0) r2 ,
2 0
4

m1
r X u1,j u0,j

= f (0) r2 ,
2 j=0
r
4

donde, como u0 := u0,j independe de j, segue que o valor de u na origem sera dado por
m

m1
X

u0 =
u1,j f (0) r2 ,
2
2 j=0
4

ou, usando m = 2,
m1
2 X
4u0

u1,j = f0 .
r2
r2 j=0

(2.56)

Rodney Josue Biezuner

64

Para escrever essas diferencas finitas em forma matricial


Au = f ,
escolhemos ordenar os pontos da malha discretizada no retangulo polar {(ri , j ) : 1 6 i 6 n 1, 0 6 j 6 m}
pela ordem lexicografica em (, r) e colocando a origem antes de todos estes pontos:.
u = (u0 , u1,0 , u1,1 , . . . , u1,m1 , u2,0 , u2,1 , . . . , u2,m1 , . . . . . . , un1,0 , un1,1 , . . . , un1,m1 ) .

(2.57)

Observe que existem (n 1) m + 1 incognitas. Nesta ordenacao, segue que A tem a forma em blocos

0
b
a

B1
1 I

..

.
2 I
B2
2 I

,
3 I
B3
3 I
A=
(2.58)

.
.
.
..
..
..

n2 I
Bn2
n2 I
n1 I
Bn1
onde

4
,
r2

a = ...
,
1 m1
0 =

1 ri1/2
, i = 1, . . . , n 1,
r2 ri
1 ri+1/2
, i = 1, . . . , n 2,
i =
r2 ri

b = 0 . . . 0 1m ,

i =

2
,
r2
I = Im ,

0 =

i
i

Bi =

i
i
i

0
i
i
..
.

i
i
..
.
i

..

.
i
i

i
i
mm

onde
1 ri+1/2 + ri1/2
2 1
+ 2
,
ri
r2
ri 2
1 1
i = 2
.
ri 2

i =

Rodney Josue Biezuner


A matriz A em

0
1
1

1 1

1
0

1
0

1 1

0 2

0
0

0
0

0
0

0
0

0
0

0
0

0
0

0
0
0
0

65

geral nao e simetrica. Por exemplo, no caso n = 4 e m = 5 ((n 1) m + 1 = 16) temos


0
1
1
1
0
0
0
2
0
0
0
0
0
0
0
0

0
0
1
1
1
0
0
0
2
0
0
0
0
0
0
0

0 0
0 1
0
0
1
0
1 1
1
1
0
0
0
0
0
0
2
0
0 2
0
0
0
0
0
0
0
0
0
0

0
0
1
0
0 1
0
0
0
0
0
0
2 2
2
2
0 2
0
0
2
0
3
0
0 3
0
0
0
0
0
0

0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0

0
0
0
0
0
0
0
0

1
0
0
0
0
0
0
0

0 1
0
0
0
0
0
0

0
0 1
0
0
0
0
0

0
0 2 2
0
0
0
0

2
0
0
0 2
0
0
0

2 2
0
0
0 2
0
0

2
2 2
0
0
0 2
0

0 2
2
0
0
0
0 2

0
0
0
3 3
0
0 3

0
0
0 3
3 3
0
0

3
0
0
0 3
3 3
0

0 3
0
0
0 3
3 3
0
0 3 3
0
0 3
3

A primeira linha e a primeira coluna sao diferentes porque os pontos (0, j), j = 0, . . . , m, sao realmente um
u
nico ponto e este ponto e vizinho a todos os pontos (1, j), j = 0, . . . , m.
A matriz de discretizacao A no caso do anel sera um pouco mais simples, ja que ela sera igual `a matriz
de discretizacao no caso do disco menos a primeira linha e a primeira coluna.

2.5

Domnios Arbitr
arios

Queremos agora discutir a resolucao numerica da equacao de Poisson atraves de diferencas finitas em um
domnio arbitrario.
Seja R2 um domnio arbitrario. Se sobrepusermos uma malha uniforme
M = {(ix, jy) : i Z e j Z}
sobre , obtemos um domnio discretizado definido por
d = {(x, y) : x/x Z e y/y Z} .

(2.59)

Esta e exatamente a maneira como discretizamos o retangulo. No entanto, o conjunto discretizado dos
pontos de fronteira d de um domnio arbitrario deve ser tratado de maneira diferente do retangulo, ja que
a malha uniforme M em geral nao vai se sobrepor `a fronteira de , podendo nao possuir nenhum ponto em
comum com a fronteira ou um n
umero muito pequeno de pontos em poucas regioes da fronteira.
Uma maneira de tratar este problema e a seguinte. Para determinar se o ponto (xi , yj ) d e adjacente
`a fronteira esquerda de , por exemplo, e ao mesmo tempo encontrar o seu vizinho `a esquerda na fronteira
se for o caso, basta verificar se o segmento
[xi x, yj ] = {(xi tx, yj ) : t [0, 1]}
esta inteiramente contido em ou nao. Se nao estiver, entao (xi , yj ) e um ponto interior adjacente `a fronteira
e existe um n
umero tW (0, 1) tal que
(xi tW x, yj )

e (xi tx, yj ) para todo t [0, tW ).

(2.60)

Este sera o vizinho `a esquerda de (xi , yj ) na fronteira discretizada d do domnio. Analogamente, os


pontos vizinhos na fronteira discretizada `a direita, abaixo e acima de pontos adjacentes `a fronteira podem
ser encontrados; eles satisfazem, respectivamente,
(xi + tE x, yj )

e (xi + tx, yj ) para todo t [0, tE ).

(2.61)

Rodney Josue Biezuner

66

(xi , yj tS y)

e (xi , yj ty) para todo t [0, tS ).

(2.62)

(xi , yj + tN y)

e (xi , yj + ty) para todo t [0, tN ).

(2.63)

(os subndices W, E, S, N correspondem aos quatro pontos cardeais oeste, leste, sul, norte em ingles). Definimos
d = {(x, y) : (x, y) satisfaz (2.60), (2.61), (2.62) ou (2.63)}
(2.64)
Dependendo da geometria de e concebvel que um ponto seja simultaneamente adjacente `as quatro
fronteiras de , isto e, que ele tenha os seus quatro vizinhos em d . Alem disso, embora os pontos
interiores da malha estejam distribudos uniformemente, esta discretizacao da fronteira do domnio permite
que `as vezes dois pontos da malha da fronteira estejam bem proximos um do outro em alguma regiao da
fronteira e relativamente distantes em outras (isso ocorre mesmo em domnio regulares como um disco).
Para discretizar a equacao de Poisson nesta malha, observe que pela formula de Taylor temos, para pontos
x < x < x+ ,

2
u (x+ ) u (x) u (x) u (x )
u00 (x) =

+ r,
(2.65)
x+ x
x+ x
x x
onde
2

|r| 6

1 (x+ x) + (x x )
1
kukC 3 ([x ,x+ ]) 6 max (x+ x, x x ) kukC 3 ([x ,x+ ]) .
3
x+ x
3

(2.66)

De fato,
1
2
u(x ) = u(x) u0 (x) (x x ) + u00 (x) (x x )
2
1
2
u(x+ ) = u(x) + u0 (x) (x+ x) + u00 (x) (x+ x) +
2

1 000
3
u ( ) (x x ) ,
3!
1 000
3
u (+ ) (x+ x) ,
3!

para alguns [x , x] , + [x, x+ ], de modo que

u (x) u (x )
1
1
2
= u0 (x) + u00 (x) (x x ) u000 ( ) (x x ) ,
x x
2
6
u (x+ ) u (x)
1
1
2
= u0 (x) + u00 (x) (x+ x) + u000 (+ ) (x+ x) ,
x+ x
2
6

donde, somando as duas expressoes,


i
u (x+ ) u (x) u (x) u (x )
1
1 h 000
2
2

= u00 (x) (x+ x ) +


u (+ ) (x+ x) u000 ( ) (x x ) .
x+ x
x x
2
6
Assim, podemos aproximar
u00 (x)

2
x+ x

u (x+ ) u (x) u (x) u (x )

x+ x
x x

Se x = x x e x+ = x + x, obtemos a formula de diferencas centradas usual para a derivada segunda.


Para aproximar o laplaciano atraves de uma formula de cinco pontos, usamos os quatro pontos vizinhos
(xi tW x, yj ) ,

(xi + tE x, yj ) ,

(xi , yj tS y) ,

(xi , yj + tN y) ,

com t (0, 1]

Rodney Josue Biezuner

67

definindo o esquema de diferencas finitas de Shortley-Weller :

u (xi + tE x, yj ) u (xi , yj ) u (xi , yj ) u (xi tW x, yj )


2
d ud =

(xi + tE x) (xi tW x)
(xi + tE x) xi
xi (xi tW x)

2
u (xi , yj + tN y) u (xi , yj ) u (xi , yj ) u (xi , yj tS y)
+

(yj + tN y) (yj tS y)
(yj + tN y) yj
yj (yj tS y)

2
ui+tE x,j ui,j
ui,j uitW x,j
=

(tE + tW ) x
tE x
tW x

2
ui,j+tN y ui,j
ui,j ui,jtS y
+

(tN + tS ) y
tN y
tS y
ou

2
1
1
1
ui+tE x,j +
uitW x,j
d ud =

ui,j
x2
tE (tE + tW )
tE tW
tW (tE + tW )

2
1
1
1
+

ui,jtS y +
ui,j
ui,j+tN y .
y 2
tS (tN + tS )
tN tS
tN (tN + tS )

(2.67)

Se (xi , yj ) e um ponto interior distante da fronteira (isto e, nao adjacente `a fronteira), entao t = 1 e para
este ponto vale a formula dos cinco pontos usual.
Embora a ordem de aproximacao do laplaciano para pontos proximos `a fronteira e apenas 1, o esquema de
Shortley-Weller e convergente de segunda ordem, conforme veremos no proximo captulo, onde provaremos
tambem que o correspondente problema discretizado possui solucao u
nica.

2.6

Exerccios

1. Implemente os metodos discutidos neste captulo computacionalmente, verifique a precisao comparando


com a solucao exata e tambem a velocidade de convergencia.
2. Discretize o problema de Poisson com valor de fronteira de Dirichlet a seguir, usando a formula de
cinco pontos.

u = f (x, y)
em (0, a) (0, b) ,
u = g (x, y)
sobre ((0, a) (0, b)) ,
Implemente alguns exemplos deste problema computacionalmente e compare os resultados obtidos com
as solucoes exatas.
3. Prove que a formula dos nove pontos compacta satisfaz o princpio do maximo discreto.
4. Prove resultados equivalentes ao Lema 2.5 e ao Teorema 2.6 para a formula dos nove pontos compacta.
5. Investigue a ordem de convergencia do esquema de diferencas finitas misto: formula dos nove pontos nos
pontos interiores distantes da fronteira e formula dos cinco pontos para pontos adjacentes `a fronteira.
6. Encontre um esquema de diferencas finitas de segunda ordem para a equacao de laplace tridimensional
em um paraleleppedo reto. Escolha uma ordenacao apropriada dos pontos da malha e descreva a
matriz de discretizacao obtida. Implemente o metodo no computador.
7. Mostre que o esquema de diferencas finitas em coordenadas polares introduzido neste captulo satisfaz
o princpio do maximo discreto desde que o valor de u0 seja dado pela formula (2.56).

Rodney Josue Biezuner

68

8. Mostre que se d denota o esquema de diferencas finitas em coordenadas polares introduzido neste
captulo e e o disco unitario, entao vale a estimativa a priori: se ud e uma soluc
ao de

d ud = fd
em d ,
ud = 0
sobre d ,
ent
ao

1
kd ud k
(2.68)
4
desde que o valor de u0 seja dado pela f
ormula (2.56). Conclua que este esquema tem ordem de
convergencia 2.
kud k 6

9. Encontre os autovalores da matriz de discretizacao do esquema de diferencas finitas em coordenadas


polares e compare com os autovalores de Dirichlet do laplaciano no disco.
10. Discretize o problema de Poisson com valor de fronteira de Dirichlet para o anel:

se R1 < r < R2 e 0 < < 2,


u = f (r, )
u (R1 , ) = g1 ()

u (R2 , ) = g2 ()
se 0 6 6 2.
Implemente alguns exemplos deste problema computacionalmente e compare os resultados obtidos com
as solucoes exatas.
11. Mostre que tomando o quadrado da formula de tres pontos para o laplaciano unidimensional (esquema de diferencas centradas para a derivada segunda) obtemos a seguinte formula de cinco pontos
para o operador biharmonico unidimensional (esquema de diferencas centradas para a derivada quarta):
4 ui =

ui2 4ui1 + 6ui 4ui+1 + ui+2


x4

(2.69)

Usando a formula de Taylor, obtenha o expoente p tal que


4 ui = u(4) (xi ) + O (xp ) .
12. O esquema de diferencas finitas mais simples para o operador biharmonico 2 em duas dimensoes e a
seguinte formula de 13 pontos (para o caso x = y):

2 8
2

1
2

1 8 20 8 1
u=
(2.70)
.
x4

2 8
2
1
Mostre que esta formula pode ser obtida a partir do quadrado da formula de cinco pontos para
o laplaciano. Como a equacao biharmonica nao satisfaz o princpio do maximo, a demonstracao da
ordem de convergencia deste esquema necessita de argumentos diferentes dos usados neste captulo
para o laplaciano. Na realidade, dependendo de como
as duas
condi
coes
de fronteira sao discretizadas,
a ordem de convergencia deste metodo pode ser O x3/2 ou O x2 . Veja [Hackbusch], pag. 103 e
pags. 105-109, para detalhes e referencias.

Captulo 3

Exist
encia e Unicidade de Soluc
oes
Discretas
Determinar a existencia e unicidade de solucoes discretas para as matrizes de discretizacao obtidas via
esquemas de diferencas finitas atraves do calculo de seus autovalores como fizemos no captulo anterior para
diferencas centradas em uma dimensao e para a formula de cinco pontos e inviavel em geral (tente calcular
os autovalores da matriz de discretizacao para a formula dos nove pontos, para o esquema em coordenadas
polares e para o esquema de Shortley-Weller). Neste captulo, desenvolveremos metodos mais gerais e mais
faceis de aplicar.

3.1

Normas Matriciais

Uma norma matricial no espaco vetorial Mn (C) das matrizes complexas n n e uma norma vetorial que
satisfaz a propriedade submultiplicativa
kABk 6 kAk kBk
(3.1)
para todas as matrizes A, B Mn (C). Algumas das normas mais importantes em Mn (C) sao as seguintes:
1. Norma l1
kAk1 =

n
X

|aij | .

(3.2)

i,j=1

De fato,

n X
n
n

X
X

kABk1 =
aik bkj 6
|aik bkj | 6

i,j=1 k=1

i,j,k=1

2. Norma l2

kAk2 =

n
X

|aik blj | =

i,j=1

i,j,k,l=1

n
X

n
X

|aik |

n
X

|blj | = kAk1 kBk1 .

k,l=1

1/2
2
|aij |

(3.3)

i,j=1

Com efeito,

2
n
! n
! n
n X
n
n
n

X
X
X
X
X
X

2
2
2
2
2
2
2
kABk2 =
aik bkj 6
|aik |
|blj |
=
|aik |
|blj | = kAk2 kBk2 .

i,j=1 k=1

i,j=1

k=1

l=1

69

i,k=1

j,l=1

Rodney Josue Biezuner

70

A norma l2 tambem e chamada norma euclidiana e, mais raramente e somente para matrizes, norma
de Schur, norma de Frobenius ou norma de Hilbert-Schmidt.
3. Norma l modificada
A norma l
kAk = max |aij | .
16i,j6n

e uma norma vetorial no espaco das matrizes complexas, mas nao e uma norma matricial, pois se

1 1
A=
,
1 1
entao

A2 =

e portanto

2
A

2
2

2
2

= 2 > 1 = kAk kAk .

Mas um m
ultiplo escalar desta norma vetorial e uma norma matricial:
kAkn = n max |aij | .

(3.4)

16i,j6n

Com efeito,
kABkn

n
n
n
X

X
X

= n max
kAk kBk
aik bkj 6 n max
|aik bkj | 6 n max
16i,j6n
16i,j6n
16i,j6n

k=1

k=1

k=1

= n kAk n kBk = kABkn .


4. Norma induzida
Dada uma norma vetorial || em Cn , ela induz uma norma matricial atraves da definicao
kAk = max |Ax| = max
x6=0

|x|=1

|Ax|
.
|x|

(3.5)

De fato,
|ABx|
kABk = max
= max
x6=0
x6=0
|x|

|ABx| |Bx|
|Bx| |x|

6 max
x6=0

|ABx|
|Bx|
|Ay|
|Bx|
max
6 max
max
= kAk kBk .
y6=0 |y| x6=0 |x|
|Bx| x6=0 |x|

Esta norma tambem e chamada norma do operador. Ela satisfaz a propriedade muitas vezes u
til
|Ax| 6 kAk |x|

(3.6)

para todo vetor x Cn .


aximo das somas das linhas
5. Norma do m
kAkL = max

16i6n

n
X

|aij | .

j=1

Esta norma e induzida pela norma vetorial l . De fato, se x = (x1 , . . . , xn ), temos

n
n
X
X
X

|Ax| = max
aij xj 6 max
|aij xj | 6 max
|aij | |x| = kAkL |x| ,
16i6n
16i6n
16i6n j=1
j=1
j=1

(3.7)

Rodney Josue Biezuner

71

de modo que
max |Ax| 6 kAkL .

|x|=1

Supondo que a k-esima linha de A e nao-nula, definimos o vetor y = (y1 , . . . , yn ) Cn por

akj
se aij 6= 0,
,
yi =
|a |
1kj
se aij = 0.
o que implica |y| = 1, akj yj = |akj | e
max |Ax| > |Ay|

|x| =1


X
X
X
n

n
n

akj yj =
|akj | .
= max
aij yj >
16i6n
j=1
j=1
j=1

Isso vale para todo k, logo


max |Ax| > max

16k6n

|x| =1

n
X

|aij | = kAkL .

j=1

6. Norma do m
aximo das somas das colunas
kAkC = max

16j6n

n
X

|aij | .

(3.8)

i=1

Esta norma e induzida pela norma vetorial l1 . De fato, escrevendo A em termos de suas colunas
A = [A1 . . . An ]
segue que
kAkC = max |Aj |1 .
16j6n

Se x = (x1 , . . . , xn ), segue que


|Ax|1 = |x1 A1 + . . . + xn An |1 6

n
X

|xi Ai |1 =

i=1

= kAkC

n
X

n
X

|xi | |Ai |1 6

n
X

i=1

i=1

|xi | max |Aj |1


16j6n

|xi | = kAkC |x|1 ,

i=1

donde
max |Ax|1 6 kAkC .

|x|1 =1

Agora, se escolhermos y = ej , temos que |y|1 = 1 e


|Ay|1 = |Aj |1
para todo k, logo
max |Ax|1 > |Ay|1 = max |Aj |1 = kAkC .

|x|1 =1

16j6n

7. p-normas
Este e o nome geral para as normas induzidas pela norma vetorial lp . O caso especial da norma induzida
pela norma vetorial l2 (a norma vetorial euclidiana) e tambem chamada a norma espectral e satisfaz
n
o
p
k|A|k2 = max = max
: e um autovalor de A A .

Rodney Josue Biezuner

72

De fato, A A e uma matriz hermitiana e possui autovalores nao-negativos, pois se A Ay = y, entao


2

|y|2 = hy, yi2 = hy, A Ayi2 = hAy, Ayi2 = |Ay|2


e, alem disso, pela caracterizacao variacional dos autovalores de uma matriz hermitiana temos
max = max

hA Ax, xi2
2

|x|2

x6=0

= max
x6=0

|Ax|2
2

|x|2

Observe que a 2-norma e diferente da norma matricial l2 . Note tambem que se A e uma matriz
hermitiana, entao A A = A2 e k|A|k2 e portanto o modulo do maior autovalor de A, isto e, a norma
espectral de A e o raio espectral de A, definido como sendo o maior valor absoluto dos autovalores
de A:
(A) = max |i | ,
i=1,...,n

8. Norma induzida por uma matriz invertvel


Se kk e uma norma matricial qualquer e se S e uma matriz invertvel, entao

kAkS = S 1 AS

(3.9)

define uma norma matricial. Com efeito,

kABkS = S 1 ABS = S 1 ASS 1 BS 6 S 1 AS S 1 BS = kAkS kBkS .


Lembramos que todas as normas em um espaco vetorial sao equivalentes, e isso vale em particular para
normas matriciais.

3.2

Matrizes Diagonalmente Dominantes

Defini
c
ao. Dizemos que uma matriz Ann e diagonalmente dominante se
|aii | >

n
X

|aij |

para todo i = 1, . . . , n

j=1
j6=i

e estritamente diagonalmente dominante se


|aii | >

n
X

|aij |

para todo i = 1, . . . , n.

j=1
j6=i

3.1 Proposi
c
ao. Se A e uma matriz estritamente diagonalmente dominante, ent
ao A e invertvel.
Prova. Uma matriz A e invertvel se existe alguma norma matricial kk tal que kI Ak < 1. De fato, se
esta condicao e satisfeita, entao a inversa e dada explicitamente pela serie
A1 =

(I A) .

(3.10)

k=0

A condicao kI Ak < 1 garante a convergencia desta serie, pois a serie geometrica


convergencia 1; como para todo N temos
A

N
X
k=0

(I A) = [I (I A)]

N
X
k=0

(I A) =

N
X
k=0

(I A)

N
+1
X
k=1

P
k=0

rk tem raio de

N +1

(I A) = I (I A)

Rodney Josue Biezuner

73

tomando o limite quando N , conclumos (3.10).


Para provar a proposicao, denote por D a matriz diagonal cujas entradas diagonais sao as entradas
diagonais de A. Uma matriz estritamente diagonalmente dominante possui, por definicao, entradas diagonais
nao-nulas, logo D e uma matriz invertvel. A matriz D1 A tem apenas 1s na diagonal principal e se
mostramos que D1 A e invertvel, isto implicara que A e invertvel. Para provar isso, considere a matriz
I D1 A. Temos

0
se i = j,
1
I D A ij =
aij /aii
se i 6= j.
Usemos a norma do maximo das somas das linhas. Para cada 1 6 i 6 n temos

n
n
n
X
X
aij
X

= 1
|aij | < 1,
I D1 A ij =
aii |aii |
j=1
j=1
j=1
j6=i

j6=i

logo I D1 A < 1 e o resultado segue.


` vezes, exigir dominancia diagonal estrita em todas as linhas e pedir demais. Para certas matrizes,
As
dominancia diagonal junto com dominancia diagonal estrita em apenas uma linha e suficiente para garantir
a sua invertibilidade. As matrizes de discretizacao obtidas no captulo anterior satisfazem esta condicao
(nas linhas correspondentes `a pontos adjacentes `a fronteira), e nenhuma delas e estritamente diagonalmente
dominante. Por outro lado, esta condicao nao e suficiente para estabelecer a invertibilidade de uma matriz
em geral, como o exemplo

4 2 1
0 1 1
0 1 1
demonstra. Precisamos de desenvolver varias ideias e ferramentas teoricas antes de provar a invertibilidade
das matrizes de discretizacao do captulo anterior.

3.3

Teorema dos Discos de Gershgorin

A primeira ferramenta teorica e o importante Teorema dos Discos de Gershgorin. Ele decorre da seguinte
observacao: se A e uma matriz complexa n n, podemos sempre escrever A = D + B, onde D = diag
(a11 , . . . , ann ) e a matriz diagonal formada pela diagonal principal de A e B consiste dos elementos restantes
de A, possuindo uma diagonal principal nula. Se definirmos A = D + B, entao A0 = D e A1 = A. Os
autovalores de D sao a11 , . . . , ann , enquanto que os autovalores de A devem estar localizados em vizinhancas
dos pontos a11 , . . . , ann , desde que seja suficientemente pequeno. O mesmo deve valer para os autovalores
da matriz A: eles devem estar contidos em discos centrados nos elementos a11 , . . . , ann da diagonal principal
se os discos sao suficientemente grandes. O Teorema de Gershgorin da uma estimativa precisa e simples de
calcular para os raios destes discos em funcao das entradas restantes da matriz A. Denote o disco complexo
fechado de centro em a e raio R por
DR (a) = {z C : |z a| 6 R} .
3.2 Teorema. (Teorema dos Discos de Gershgorin) Se A Mn (C) e
Ri (A) =

n
X

|aij |

(3.11)

j=1
j6=i

denota a soma dos valores absolutos dos elementos da linha i de A excetuando o elemento da diagonal
principal, ent
ao todos os autovalores de A est
ao contidos na uni
ao dos n discos de Gershgorin
G (A) =

n
[
i=1

DRi (A) (aii ) .

(3.12)

Rodney Josue Biezuner

74

Alem disso, se uma uni


ao de k destes discos forma uma regi
ao que e disjunta dos nk discos restantes,
ent
ao existem exatamente k autovalores de A nesta regi
ao.
Prova. Seja um autovalor de A e x = (x1 , . . . , xn ) 6= 0 um autovetor associado. Seja k um ndice tal que
|xk | > |xj |

para j = 1, . . . , n,

isto e, xk e a coordenada de x de maior valor absoluto. Denotando por (Ax)k a k-esima coordenada do vetor
Ax = x, temos
n
X
xk = (Ax)k =
akj xj
j=1

que e equivalente a
xk ( akk ) =

n
X

akj xj .

j=1
j6=k

Da,
|xk | | akk | 6

n
X

|akj xj | =

j=1
j6=k

n
X

|akj | |xj | 6 |xk |

j=1
j6=k

n
X

|akj | = |xk | Rk (A) ,

j=1
j6=k

ou seja,
| akk | 6 Rk (A) .
Isso prova o resultado principal do Teorema de Gershgorin (como nao sabemos qual k e apropriado para
cada autovalor , e um mesmo k pode servir para varios autovalores , tudo o que podemos afirmar e que
os autovalores estao na uniao dos discos).
Para provar a segunda afirmacao, escreva A = D + B, onde D = diag (a11 , . . . , ann ) e defina
At = D + tB
para 0 6 t 6 1. Note que
Ri (At ) = Ri (tB) = tRi (A) .
Para simplificar a notacao, assuma que a uniao dos primeiros k discos de Gershgorin
Gk (A) =

k
[

DRi (A) (aii )

i=1

satisfaz Gk (A) [G (A) \Gk (A)] = . Temos


DRi (At ) (aii ) = {z C : |z aii | 6 Ri (At )} = {z C : |z aii | 6 tRi (A)} DRi (A) (aii ) ,
logo
Gk (At ) Gk (A)
e
Gk (A) [G (At ) \Gk (At )] =
para 0 6 t 6 1. Porque os autovalores sao funcoes contnuas das entradas de uma matriz, o caminho
i (t) = i (At )
e um caminho contnuo que liga i (A0 ) = i (D) = aii a i (A1 ) = i (A). Como i (At ) Gk (At ) Gk (A),
conclumos que para cada 0 6 t 6 1 existem k autovalores de At em Gk (A); em particular, fazendo t = 1,

Rodney Josue Biezuner

75

obtemos que Gk (A) possui pelo menos k autovalores de A. Da mesma forma, nao pode haver mais que
k autovalores de A em Gk (A), pois os n k autovalores restantes de A0 = D comecam fora do conjunto
Gk (A) e seguem caminhos contnuos que permanecem fora de Gk (A).
A uniao G (A) dos discos de Gershgorin e conhecida como a regi
ao de Gershgorin. Observe que enquanto
nao podemos em geral afirmar com certeza que cada disco de Gershgorin possui um autovalor, a segunda
afirmacao do teorema permite-nos fazer tal conclusao desde que os discos de Gershgorin sejam dois a dois
disjuntos.
O Teorema dos Discos de Gershgorin permite entender o resultado da Proposicao 3.1: se uma matriz A e
estritamente diagonalmente dominante, entao os discos de Gershgorin DRi (A) (aii ) nao interceptam a origem,
logo 0 nao pode ser um autovalor para a matriz A, o que implica que A e invertvel. Alem disso, se todos
os elementos da diagonal principal de A sao reais e positivos, entao os autovalores de A estao localizados no
semiplano direito de C, de modo que se A e tambem simetrica, conclumos que todos os autovalores de A
sao positivos.
A aplicacao mais obvia do Teorema dos Discos de Gershgorin e na estimativa dos autovalores de uma
matriz, o que e importante se vamos usar os autovalores de matrizes de discretizacao para aproximar os
autovalores do laplaciano:
Aplica
c
ao 1. Pelo Teorema dos Discos de Gershgorin, os autovalores da matriz de discretizacao do laplaciano no intervalo (0, ) discretizado com n + 1 pontos (esquema de diferencas finitas centradas para
a derivada segunda unidimensional)

2 1
1

2 1

..
..

.
.
n2
1

A= 2

.
.

..
. . 1

1
2 1
1
2
est
ao todos localizados no intervalo (A e simetrica, logo seusautovalores sao todos reais) centrado em
x = 2n2 / 2 de raio 2n2 / 2 , ou seja, no intervalo 0, 4n2 / 2 . Em particular o maior autovalor de A
nao pode exceder 4n2 / 2 . Como os autovalores do laplaciano neste intervalo sao da forma j = j 2 ,
para termos esperanca em aproximar o autovalor j por autovalores da matriz A precisamos que
j 2 6 4n2 / 2 , isto e, precisamos discretizar o intervalo (0, ) com
n>

j
2

pontos. Isso da uma estimativa bastante grosseira do quao refinada a nossa malha precisa ser para
aproximar os autovalores do laplaciano. Na pratica, vimos que apenas os primeiros autovalores de
A aproximam bem os primeiros autovalores do laplaciano e portanto precisamos de uma malha com
um n
umero muito maior de pontos. Observe que uma estimativa semelhante vale para a matriz de
2
discretizacao M fornecida pela formula de cinco pontos no quadrado (0, ) quando tomamos x =
2
2
y = /n: como os autovalores
de M estao localizados no intervalo de centro em x = 4n / de raio
2
2
2
2
4n / , isto e, em 0, 8n / , precisamos de
p2
n>
i + j2
2 2
pontos no eixos horizontal e vertical para aproximar o autovalor i2 + j 2 . Por outro lado, no caso
bidimensional isso implica em uma matriz de discretizacao da ordem de i2 + j 2 .
Usos mais refinados do Teorema de Gershgorin permitem obter conhecimento mais preciso sobre onde
os autovalores da matriz se encontram e correspondentemente melhores estimativas para o raio espectral

Rodney Josue Biezuner

76

de uma matriz. Por exemplo, como A e At possuem os mesmos autovalores, existe um teorema dos discos
de Gershgorin equivalente para as colunas de uma matriz. Em particular, todos os autovalores de A estao
localizados na intersecao destas duas regioes: G (A) G (At ). Isso implica a seguinte estimativa simples para
o raio espectral de uma matriz complexa:
3.3 Corol
ario. Se A Mn (C), ent
ao

(A) 6 min max

n
X

i=1,...,n

j=1

n
X

|aij | , max

j=1,...,n

|aij | = min (kAkL , kAkC ) .

i=1

Prova. O ponto no i-esimo disco de Gershgorin que e mais distante da origem tem modulo
|aii | + Ri (A) =

n
X

|aij |

j=1

e um resultado semelhante vale para as colunas de A.


O resultado do Corolario 3.3 nao e surpreendente em vista do raio espectral de uma matriz ser menor que
qualquer norma matricial (veja o proximo captulo). Um resultado melhor pode ser obtido uma vez que
se observa que A e S 1 AS tambem possuem os mesmos autovalores, qualquer que seja a matriz invertvel
S. Em particular, quando S = D = diag (p1 , . . . , pn ) e uma matriz diagonal com todos os seus elementos
positivos, isto e, pi > 0 para todo i, aplicando o Teorema de Gershgorin `a matriz

pj
1
D AD =
aij
pi
e `a sua transposta, obtemos o seguinte resultado que permite obter uma estimativa arbitrariamente boa dos
autovalores de A:
3.4 Corol
ario. Se A Mn (C) e p1 , . . . , pn > 0, ent
ao todos os autovalores de A est
ao contidos em

n
n

[
1 X
t 1
G D AD G DA D
=
pj |aij |
z C : |z aii | 6
(3.13)

pi j=1

i=1

j6=i

n
n

[
X
1
|aij | .

z C : |z aii | 6 pj

i=1
i=1 i
i6=j

Em particular,

3.4

n
n
X
X
1
1
(A) 6 min max
pj |aij | , max pj
|aij | .
p1 ,...,pn >0 i=1,...,n pi
j=1,...,n
p
i
j=1
i=1

(3.14)

Propriedade FC

Na nossa busca por propriedades para matrizes diagonalmente dominantes que garantirao a sua invertibilidade, uma observacao fundamental e a de que se A e uma matriz diagonalmente dominante, ent
ao 0 n
ao
pode ser um ponto interior de nenhum disco de Gershgorin. De fato, se e um autovalor de A interior a
algum disco de Gershgorin entao devemos ter desigualdade estrita
| aii | < Ri (A) =

n
X
j=1
j6=i

|aij |

Rodney Josue Biezuner

77

para algum i. Se 0 e um autovalor de A interior a algum disco de Gershgorin, entao


|aii | <

n
X

|aij |

j=1
j6=i

para algum i e A nao pode ser diagonalmente dominante na linha i.


Uma condicao equivalente para que um autovalor de A nao seja um ponto interior de nenhum disco de
Gershgorin e que
n
X
| aii | > Ri (A) =
|aij | para todo i = 1, . . . , n.
j=1
j6=i

Tais pontos na regiao de Gershgorin G (A) (nao necessariamente autovalores de A) constituem precisamente a fronteira G (A) da regiao de Gershgorin. Chamaremos a fronteira de um disco de Gershgorin
{z C : |z aii | = Ri (A)} um crculo de Gershgorin.
3.5 Lema. Seja A Mn (C) e um autovalor de A que n
ao e um ponto interior de nenhum disco de
Gershgorin. Seja x = (x1 , . . . , xn ) 6= 0 um autovetor associado a e k um ndice tal que
|xk | > |xj |

para j = 1, . . . , n.

Se i e qualquer ndice tal que


|xi | = |xk |
ent
ao o i-esimo crculo de Gershgorin passa por . Se, alem disso,
aij 6= 0,
ent
ao
|xj | = |xk |
e o j-esimo crculo de Gershgorin tambem passa por .
Prova. Como na demonstracao do Teorema de Gershgorin, temos
|xi | | aii | 6

n
X

|aij xj | =

j=1
j6=k

n
X

|aij | |xj | 6 |xk |

j=1
j6=k

n
X

|aij | = |xk | Ri (A)

j=1
j6=k

para todo ndice i. Logo, se |xi | = |xk |, temos


| aii | 6 Ri (A) .
Como por hipotese
| aii | > Ri (A)
para todo ndice i, segue que
| aii | = Ri (A) .
Em geral, |xi | = |xk | implica que as desigualdades em (3.15) sao identidades; em particular,
n
X
j=1
j6=k

|aij | |xj | = |xi |

n
X
j=1
j6=k

|aij |

(3.15)

Rodney Josue Biezuner


donde

78

n
X

|aij | (|xi | |xj |) = 0.

j=1
j6=k

Esta e uma soma de termos nao-negativos, pois |xi | > |xj |, logo se aij 6= 0 necessariamente devemos ter
|xj | = |xi | = |xk |.
Este lema tecnico tem as seguintes conseq
uencias u
teis:
3.6 Teorema. Seja A Mn (C) uma matriz cujas entradas s
ao todas n
ao-nulas e seja um autovalor de
A que n
ao e um ponto interior de nenhum disco de Gershgorin. Ent
ao todo crculo de Gershgorin
de A passa por (isto e, est
a na interseca
o de todos os crculos de Gershgorin de A) e se x =
(x1 , . . . , xn ) 6= 0 e um autovetor associado a ent
ao
|xi | = |xj |

para todos i, j = 1, . . . , n.

Prova. Decorre diretamente do lema anterior.


ao todas n
ao-nulas e diagonalmente dominante
3.7 Corol
ario. Se A Mn (C) e uma matriz cujas entradas s
n
P
|aij | para pelo menos alguma linha i, ent
ao A e invertvel.
tal que |aii | >
j=1
j6=i

Prova. Pois, como A e diagonalmente dominante, se 0 e um autovalor de A entao 0 nao pode ser um ponto
interior de nenhum disco de Gershgorin. Por outro lado, pelo teorema anterior, segue que todo crculo de
Gershgorin passa por 0. Entretanto, o i-esimo crculo de Gershgorin centrado em aii e com raio Ri < |aii |
nao pode passar por 0. Conclumos que 0 nao e um autovalor de A, logo A e invertvel.
Na verdade, usando com maior cuidado a informacao dada pelo Lema 3.5 podemos obter resultados ainda
melhores:
Defini
c
ao. Dizemos que uma matriz A = (aij ) Mn (C) satisfaz a propriedade FC se para todo par de
inteiros distintos i, j existe uma seq
uencia de inteiros distintos i1 = i, i2 , i3 , . . . , im1 , im = j, com
1 6 m 6 n, tais que todas as entradas matriciais
ai1 i2 , ai2 i3 , . . . , aim1 im
sao nao-nulas.
Por exemplo, a matriz diagonalmente dominante nao-invertvel

4 2 1
0 1 1 ,
0 1 1
ja vista anteriormente, nao satisfaz a propriedade FC porque o par 2, 1 nao admite tal seq
uencia (a u
nica
seq
uencia possvel e a23 , a31 ). Ja qualquer par de inteiros distintos i, j tal que aij 6= 0 admite a seq
uencia
trivial nao-nula aij , de modo que uma matriz cujas entradas nao-diagonais sao todas nao-nulas satisfaz a
propriedade FC. O significado da abreviatura FC, ou fortemente conexo, ficara claro mais adiante.
3.8 Teorema. Seja A Mn (C) uma matriz que satisfaz a propriedade FC e seja um autovalor de A que
n
ao e um ponto interior de nenhum disco de Gershgorin. Ent
ao todo crculo de Gershgorin de A passa
por (isto e, est
a na intersec
ao de todos os crculos de Gershgorin de A) e se x = (x1 , . . . , xn ) 6= 0
e um autovetor associado a ent
ao
|xi | = |xj |

para todos i, j = 1, . . . , n.

Rodney Josue Biezuner

79

Prova. Seja x = (x1 , . . . , xn ) 6= 0 um autovetor associado a e i um ndice tal que


|xi | > |xk |

para k = 1, . . . , n.

Pelo Lema 3.5,


| aii | = Ri (A) .
Seja j 6= i qualquer outro ndice e i1 = i, i2 , i3 , . . . , im1 , im = j, com 1 6 m 6 n, ndices tais que todas as
entradas matriciais
aii2 , ai2 i3 , . . . , aim1 j 6= 0.
Como aii2 6= 0, segue da segunda afirmativa do Lema 3.5 que |xi2 | = |xi |. Mas entao ai2 i3 6= 0 e portanto
|xi3 | = |xi2 | = |xi |. Prosseguindo desta forma, conclumos que

|xi | = |xi2 | = . . . xim1 = |xj | .


Em particular, segue novamente do Lema 3.5 que o j-esimo crculo de Gershgorin passa por . Como j e
arbitrario, isso prova o teorema.
3.9 Corol
ario. Se A Mn (C) e uma matriz que satisfaz a propriedade FC e diagonalmente dominante tal
n
P
que |aii | >
|aij | para pelo menos alguma linha i, ent
ao A e invertvel.
j=1
j6=i

Prova. Segue do teorema anterior da mesma forma que o Corolario 3.7 segue do Teorema 3.6.
Vamos tentar entender melhor o significado da propriedade FC. Note que ela se refere apenas `a localizacao
dos elementos nao-nulos de A fora da diagonal principal os elementos da diagonal principal e os valores
especficos dos elementos fora da diagonal principal sao irrelevantes. Isso motiva as seguintes definic
oes:
Defini
c
ao. Dada uma matriz A = (aij ) Mn (C) definimos o m
odulo da matriz A como sendo a matriz
|A| = (|aij |)
cujos elementos sao os modulos dos elementos da matriz A e a matriz indicadora de A como sendo
a matriz
M (A) = (ij ) ,
onde

ij =

1
0

se aij 6= 0,
se aij = 0.

O conceito de uma seq


uencia de entradas nao-nulas da matriz A que aparece na definicao da propriedade
FC pode ser visualizado em termos de caminhos em um grafo associado a A:
Defini
c
ao. Dada uma matriz A Mn (C), o grafo direcionado de A e o grafo direcionado (A) com n
nodos P1 , . . . , Pn tais que existe um arco direcionado em (A) de Pi a Pj se e somente se aij 6= 0.
Um caminho direcionado em um grafo e uma seq
uencia de arcos Pi1 Pi2 , Pi2 Pi3 , . . . em . O
comprimento de um caminho direcionado e o n
umero de arcos sucessivos no caminho direcionado. Um
ciclo e um caminho direcionado que comeca e termina no mesmo no.
Dizemos que um grafo direcionado e fortemente conexo se entre qualquer par de nodos distintos
Pi , Pj existir um caminho direcionado de comprimento finito que comeca em Pi e termina em Pj .
Observe que quando e um grafo direcionado com n nodos, se existe um caminho direcionado entre dois
nodos de , entao sempre existe um caminho direcionado entre estes dois nodos de comprimento menor que
ou igual a n 1.

Rodney Josue Biezuner

80

3.10 Teorema. A Mn (C) satisfaz a propriedade FC se e somente se (A) e fortemente conexo.


Verificar a propriedade FC a partir do grafo direcionado de A pode ser impraticavel se o tamanho da
matriz for muito grande. Existe um metodo computacional mais explcito para faze-lo:
3.11 Teorema. Sejam A Mn (C) e Pi , Pj nodos de (A). Existe um caminho direcionado de comprimento m em (A) de Pi para Pj se e somente se
m

(|A| )ij 6= 0
ou, equivalentemente, se e somente se

[M (A) ]ij 6= 0.
Prova. Provaremos o teorema por inducao. Para m = 1 a afirmativa e trivial. Para m = 2, temos

|A|

2
de modo que |A|

ij

ij

n
X

(|A|)ik (|A|)kj =

k=1

n
X

|aik | |akj | ,

k=1

6= 0 se e somente se aik , akj sao ambos nao-nulos para algum ndice k. Mas isso e

equivalente a dizer que existe um caminho direcionado de comprimento 2 em (A) de Pi para Pj .


Em geral, supondo a afirmativa provada para m, temos

|A|

m+1

ij

n
X

(|A| )ik (|A|)kj =

k=1

n
X

(|A| )ik |akj | 6= 0

k=1

se e somente se (|A| )ik , akj sao ambos nao-nulos para algum ndice k. Por hipotese de inducao, isso e
equivalente a existir um caminho direcionado de comprimento m em (A) de Pi para Pk e um caminho
direcionado de comprimento 1 em (A) de Pk para Pj , isto e, um caminho direcionado de comprimento
m + 1 em (A) de Pi para Pj . O mesmo argumento vale para M (A).
Defini
c
ao. Seja A = (aij ) Mn (C). Dizemos que A > 0 se aij > 0 para todos 1 6 i, j 6 n e que A > 0 se
aij > 0 para todos 1 6 i, j 6 n.
3.12 Corol
ario. Seja A Mn (C). Existe um caminho direcionado de comprimento m em (A) de cada
nodo Pi para cada nodo Pj se e somente se
m

|A|
ou, equivalentemente, se e somente se

>0

M (A)

> 0.

3.13 Corol
ario. Seja A Mn (C). A satisfaz a propriedade FC se e somente se
(I + |A|)

n1

>0

ou, equivalentemente, se e somente se


n1

[I + M (A)]

> 0.

Prova. Temos
(I + |A|)

n1

n1
n1
2
n1
n1
= I + (n 1) |A| +
|A| + . . . +
|A|
+ |A|
>0
2
n3

Rodney Josue Biezuner

81
2

n1

se e somente se para cada par de ndices i, j com i 6= j pelo menos um dos termos |A| , |A| , . . . , |A|
tem uma entrada positiva em (i, j). Pelo Teorema 3.11, isso ocorre se e somente se existe algum caminho
direcionado em (A) de Pi para Pj com comprimento 6 n1. Isto e equivalente a A satisfazer a propriedade
FC. O mesmo argumento vale para M (A).
Em geral, a maneira como uma matriz foi obtida (como as nossas matrizes de discretizacao; veja a u
ltima
secao do captulo) torna clara se elas sao matrizes que satisfazem a propriedade FC ou nao. Se isso
nao e possvel, e pretende-se verificar a propriedade FC atraves do Corolario 3.13, e prefervel calcular
n1
[I + M (A)]
, ja que M (A) e uma matriz composta apenas de 0s e 1s.

3.5

Matrizes Irredutveis

Lembre-se que uma matriz de permuta


c
ao P e uma matriz quadrada cujas entradas sao todas 0 ou 1 e,
alem disso, em cada linha e em cada coluna de P existe exatamente um 1. Em particular, P e uma matriz
ortogonal, de modo que P 1 = P t , isto e, a inversa de P tambem e uma matriz de permutacao. Um caso
especial de uma matriz de permutacao e uma matriz de transposic
ao, que e uma matriz de permutacao T
igual `a matriz identidade exceto em duas posicoes, isto e, para algum par de ndices fixado k, l temos

se (i, j) 6= (k, l) , (l, k) , (k, k) ou (l, l) ,


ij
1
e (i, j) = (k, l) ou se (i, j) = (l, k) ,
Tij =

0
se (i, j) = (k, k) ou se (i, j) = (l, l) .
Matrizes de transposicao sao simetricas. O efeito de multiplicar uma matriz A por uma matriz de transposicao
a` esquerda e trocar a posicao de duas linhas da matriz A (no caso acima, as linhas k e l), enquanto que a
multiplicacao de A por uma matriz de transposicao `a direita muda a posicao de duas colunas de A (no caso
acima, as colunas k e l).

1 0 0 0
a11 a12 a13 a14
a11 a12 a13 a14
0 0 1 0 a21 a22 a23 a24 a31 a32 a33 a34

TA =
0 1 0 0 a31 a32 a33 a34 = a21 a22 a23 a24 ,
0 0 0 1
a41 a42 a43 a44
a41 a42 a43 a44

a11 a12 a13 a14


1 0 0 0
a11 a13 a12 a14
a21 a22 a23 a24 0 0 1 0 a21 a23 a22 a24

AT =
a31 a32 a33 a34 0 1 0 0 = a31 a33 a32 a34 .
a41 a42 a43 a44
0 0 0 1
a41 a43 a42 a44
Pode-se provar que toda matriz de permutacao P e o produto de matrizes de transposicao P = T1 . . . Tm ;
em particular, P t = Tm . . . T1 . A matriz
P t AP = Tm . . . T1 AT1 . . . Tm
e portanto obtida atraves da permutacao de linhas e colunas de A, de modo que nenhum novo elemento e
criado ou algum elemento existente de A destrudo.
Defini
c
ao. Dizemos que uma matriz A Mn (C) e redutvel se existe alguma matriz de permutacao P e
algum inteiro 1 6 m 6 n 1 tal que

B C
P t AP =
0 D
onde B e uma matriz m m, D e uma matriz (n m) (n m), C e uma matriz m (n m) e 0 e
a matriz nula (n m) m. Caso contrario, dizemos que A e irredutvel.

Rodney Josue Biezuner

82

Da definicao vemos que se |A| > 0, entao A e irredutvel, e para que A seja redutvel, ela precisa ter pelo
menos n 1 zeros (caso m = 1). A motivacao para este nome e a seguinte. Suponha que queiramos resolver
o sistema Ax = b e que A seja redutvel. Entao, se escrevermos

B C
A = P t AP =
,
0 D
teremos Ax = P AP t x = b ou AP t x = P t b; denotando x = P t x e b = P t b, resolver o sistema Ax = b e entao
equivalente a resolver o sistema
Ax = b.
Escrevendo

x=

y
z

b=

b1
b2

onde y, b1 Cm e z, b2 Cnm , este sistema e por sua vez equivalente ao sistema

By + Cz = b1
Dz = b2
Se resolvermos primeiro Dz = b2 e utilizarmos o valor de z encontrado na primeira equacao resolvendo
By = b1 Cz, teremos reduzido o problema original a dois problemas menores, mais faceis de resolver.
3.14 Teorema. Uma matriz A Mn (C) e irredutvel se e somente se
(I + |A|)

n1

>0

ou, equivalentemente, se e somente se


n1

[I + M (A)]

> 0.
n1

Prova. Para provar o resultado, mostraremos que A e redutvel se e somente se (I + |A|)


possui pelo
menos uma entrada nula.
Assuma primeiramente que A e redutvel, de modo que para alguma matriz de permutacao P tenhamos

B C
A=P
P t =: P AP t .
0 D
Observe que


|A| = P AP t = P A P t ,

ja que o efeito de P e apenas trocar linhas e colunas. Alem disso, note que
k

k
B
Ck
A =
0 Dk
para alguma matriz Ck . Logo, como
(I + |A|)

n1

n1 t
n1

= P I + A
P
= I + P A P t

n1
n1
2
n1
n1
= P I + (n 1) |A| +
|A| + . . . +
|A|
+ |A|
Pt
2
n3

e todos os termos dentro dos colchetes sao matrizes que tem um bloco (n m) m nulo no canto esquerdo
n1
inferior, segue que (I + |A|)
e redutvel, logo possui entradas nulas e nao pode ser positiva.

Rodney Josue Biezuner

83

Reciprocamente, suponha que (I + |A|)

n1

possui pelo menos uma entrada nula. Como

n1

=I+

(I + |A|)

n1
m
|A| ,
m
m=1
n1
X

n1

(I
n
h + |A|)
iao possui entradas diagonais nulas, logo podemos assumir que para algum par i 6= j temos
n1
m
(I + |A|)
= 0, o que implica [|A| ]ij = 0 para todo 1 6 m 6 n 1. Pelo Teorema 3.11 (e observacao
ij

imediatamente posterior `a definicao de grafo direcionado), nao existe um caminho direcionado em (A) de
comprimento finito entre Pi e Pj . Defina os conjuntos de nodos
S1 := {Pk : Pk = Pj ou existe um caminho direcionado em (A) entre Pk e Pj } ,
S2 = [ nodos de (A)] \S1 .
Por definicao destes conjuntos, nao pode existir nenhum caminho de algum nodo de S2 para algum nodo de
m
S1 , logo [|A| ]lk = 0 se Pl S2 e Pk S1 . E ambos os conjuntos sao nao-vazios, pois Pj S1 e Pi S2 .
Renomeando os nodos de modo que
n
o
S1 = Pe1 , . . . , Pem ,
n
o
S2 = Pem+1 , . . . , Pen ,
segue que existe uma matriz de permutac
ao P tal que

B
t
P AP =
0

C
D

De fato, P e justamente a matriz de permutacao que troca as colunas de tal forma que as variaveis anteriores
correspondentes aos nodos Pe1 , . . . , Pem no sistema Ax = b sao as novas m primeiras variaveis do sistema linear
Ax = b; como nao existe nenhum caminho direcionado entre nenhum dos nodos Pem+1 , . . . , Pen e qualquer um
dos nodos Pe1 , . . . , Pem , temos aij = 0 para m + 1 6 i 6 n e 1 6 j 6 m pelo Teorema 3.11.
3.15 Corol
ario. Uma matriz A Mn (C) e irredutvel se e somente se ela satisfaz a propriedade FC.
3.16 Proposi
c
ao. Se A e uma matriz irredutvel, diagonalmente dominante tal que |aii | >

n
P
j=1
j6=i

|aij | para

pelo menos alguma linha i, ent


ao A e invertvel.
Alem disso, se A e hermitiana e todos os elementos da diagonal principal de A s
ao positivos, ent
ao
todos os autovalores de A s
ao positivos.
Prova. O resultado segue do Teorema 3.14, do Corolario 3.9 e do Teorema dos Discos de Gershgorin (veja
comentarios apos o Teorema 3.2).

3.6

Invertibilidade de Matrizes de Discretizac


ao

Os resultados obtidos nas secoes anteriores fornecem uma demonstracao alternativa de que as matrizes
de discretizacao do captulo anterior (tanto no caso unidimensional, quanto no caso bidimensional) sao
invertveis, sem a necessidade de se calcular os seus autovalores.

Rodney Josue Biezuner

3.6.1

84

Esquemas de Diferen
cas Finitas para o Intervalo e para o Ret
angulo

facil ver que todas as matrizes de discretizacao obtidas no captulo anterior para o intervalo e para o
E
retangulo (isto e, os esquemas unidimensionais de tres pontos e cinco pontos, e os esquemas bidimensionais
de cinco e nove pontos, compacto ou nao-compacto) sao matrizes diagonalmente dominantes com dominancia
diagonal estrita nas linhas correspondentes a pontos adjacentes `a fronteira. Alem disso, elas sao matrizes
irredutveis porque elas satisfazem a propriedade FC. De fato, cada ndice i da matriz corresponde a um
ponto interior Pi da malha e aij 6= 0 sempre que Pi e Pj sao pontos vizinhos naqueles esquemas. Entao,
dados dois pontos distintos Pi , Pj e facil encontrar uma seq
uencia de ndices i1 = i, i2 , i3 , . . . , im1 , im = j,
com 1 6 m 6 n, tais que todas as entradas matriciais
ai1 i2 , ai2 i3 , . . . , aim1 im
sao nao-nulas: no caso unidimensional, basta percorrer a malha diretamente de Pi ate Pj (andando a partir
de Pi sempre para a direita ou sempre para a esquerda, conforme o caso, ate encontrar Pj ), e no caso
bidimensional basta usar qualquer caminho interior de Pi ate Pj (pode-se usar a ordem lexicografica para
percorrer a malha, ou a ordem lexicografica inversa, dependendo das posicoes relativas de Pi e Pj ; no entanto,
estes caminhos sao mais longos que o necessario). Em outras palavras, identificando as malhas de pontos
internos com os grafos direcionados da matriz de discretizacao, de modo que existe um arco direcionado entre
dois pontos da malha se e somente se eles sao vizinhos, os esquemas de discretizacao considerados garantem
que estes grafos sao fortemente conexos.
As matrizes obtidas atraves de diferencas finitas em geral sao irredutveis, pois elas satisfazem a pro difcil imaginar um esquema de diferencas finitas para uma malha sobre um domnio conexo
priedade FC. E
em que nao houvesse um caminho direcionado entre pontos vizinhos (isto e, em que tivessemos aij = 0
para dois pontos vizinhos Pi e Pj ). Outra maneira de pensar sobre isso e observar que se uma matriz de
discretizacao fosse (apos permutacao de linhas e colunas) da forma

B C
,
0 D
isso implicaria que um conjunto de pontos da malha (os correspondentes ao bloco D) teriam diferencas
finitas independentes do conjunto dos pontos restantes da malha (os correspondentes ao bloco D); pior
ainda, estes u
ltimos poderiam ter diferencas finitas dependentes dos primeiros (ja que o bloco C poderia
ser nao-nulo). Em u
ltima analise, seria possvel reduzir o problema de resolver o sistema linear associado `a
difcil imaginar um esquema de diferencas finitas com esta
discretizacao a dois problemas mais simples. E
propriedade, embora talvez possa ocorrer em algum domnio com geometria altamente irregular em que a
malha de pontos interiores se dividisse em essencialmente duas malhas independentes. Tal situacao deve ser
evitada com cuidado na hora de discretizar tais regioes.

3.6.2

Esquema de Coordenadas Polares

As mesmas observacoes anteriores valem para a matriz de discretizacao obtida atraves do esquema de coordenadas polares do captulo anterior, isto e, ela satisfaz a propriedade FC. Para verificar que ela e diagonalmente
dominante, note que para todas as linhas, exceto a primeira que deve ser tratada separadamente, temos
|aii | = i =

1 ri+1/2 + ri1/2
2 1
+ 2
.
ri
r2
ri 2

Alem disso, para todas as linhas, excetuando a primeira e as linhas correspondentes a pontos adjacentes `a
fronteira do disco temos
n
X
j=1
j6=i

|aij | = i + i + 2i =

1 ri+1/2
2 1
1 ri1/2
+
+ 2
= |aii | .
2
2
r
ri
r
ri
ri 2

Rodney Josue Biezuner

85

Nestas linhas existe dominancia diagonal, enquanto que nas linhas correspondentes a pontos adjacentes `a
fronteira do disco temos
(n1)m+1
X
|aij | = i + 2i < |aii | ,
j=1
j6=i

isto e, temos dominancia diagonal estrita. Finalmente, para a primeira linha tambem temos dominancia
diagonal, pois
|a00 | =

4
,
r2

(n1)m+1

X
j=1
j6=0

3.6.3

|a0j | = m

m
4
2
=4
=
= |a00 | .
r2
2 r2
r2

Esquema de Shortley-Weller

Se a geometria e razoavelmente regular, o esquema de Shortley-Weller para o problema de Dirichlet deve


satisfazer a propriedade FC : aij 6= 0 sempre que Pi e Pj sao pontos internos vizinhos, e se a geometria nao e
altamente irregular (por exemplo, se o domnio e razoavelmente convexo) existe um caminho direcionado de
um ponto interno arbitrario a qualquer outro ponto interno da malha passando apenas por pontos internos do
domnio. Caso contrario, a matriz de discretizacao obtida pode deixar de ser irredutvel, mas isso deve ocorrer
apenas devido `a quebra da malha de pontos internos em varias submalhas desconexas, e cada submalha por
si so deve ser fortemente conexa. Portanto, a matriz de discretizacao total deve ser uma matriz em blocos,
cada bloco satisfazendo a propriedade FC, logo a matriz e invertvel.

Captulo 4

M
etodos Iterativos para a Resoluc
ao
de Sistemas Lineares
Neste captulo investigaremos metodos iterativos para a resolucao de sistemas lineares
Ax = b.
Embora a matriz A que temos em mente e em geral uma matriz grande e esparsa, do tipo que aparece
em esquemas de diferencas finitas, os metodos considerados aqui requerem apenas que A seja uma matriz
invertvel com todas as entradas diagonais aii nao-nulas.
Metodos iterativos requerem um chute inicial x0 , um vetor inicial que aproxima a solucao exata x (se
nao ha nenhuma informacao disponvel sobre a solucao exata, de modo que nao temos como construir o
chute inicial de forma inteligente, x0 pode ser uma aproximacao muito ruim de x). Uma vez que x0 e dado,
o metodo iterativo gera a partir de x0 uma nova aproximacao x1 , que esperamos deve aproximar melhor a
2
solucao exata. Em seguida, x1 e usada para gerar
k uma nova melhor aproximacao x e assim por diante.
Desta forma, gera-se uma seq
uencia de vetores x que espera-se convergir para x. Como na pratica nao
podemos iterar para sempre, algum criterio de parada deve ser estabelecido a priori. Uma vez que xk esteja
suficientemente proximo da solucao exata quanto se precise, de acordo com uma margem de tolerancia aceita,
para-se o processo de iteracao e aceita-se xk como a solucao aproximada adequada para o problema. Por
exemplo, o criterio de parada pode ser estabelecido atraves de uma cota de toler
ancia : quando

b Axk <
ou quando

k+1

x
xk <

as iteracoes sao interrompidas e o u


ltimo valor aproximado obtido e aceito como a melhor aproximacao da
solucao dentro das circunstancias.
Os metodos discutidos neste captulo nao necessitam de um bom chute inicial (embora, e claro, quanto
melhor o chute inicial, menor o n
umero de iteracoes necessarias para se chegar `a solucao aproximada com a
precisao especificada).

4.1

M
etodos Iterativos Lineares

Nesta secao apresentamos alguns exemplos classicos de metodos iterativos lineares. Na proxima secao daremos condicoes necessarias e suficientes para estabelecer a sua convergencia.

86

Rodney Josue Biezuner

4.1.1

87

M
etodo de Jacobi

O primeiro metodo iterativo (que ja foi descrito como o mais lento para convergir, embora isso realmente
depende da matriz A do sistema) e o algoritmo de Jacobi. Escrevendo o sistema Ax = b na forma
n
P

a1j xj = b1

j=1
..
,
.

anj xj = bn

j=1

se aii 6= 0 para todo i, cada xi pode ser isolado na i-esima equacao e escrito na forma

xi =

n
X

1
bi
aij xj

.
aii
j=1
j6=i

Isso sugere definir um metodo iterativo da seguinte forma: suposto xk = xk1 , . . . , xkn obtido no passo

por
anterior, obtemos xk+1 = xk+1
, . . . , xk+1
n
1

xk+1
=
i

n
X

1
bi
aij xkj

.
aii
j=1

(4.1)

j6=i

No caso da formula de cinco pontos para o problema de Poisson com x = y, como a equacao para
cada ponto (i, j) e dada por
ui,j1 ui,j+1 + 4ui,j ui1,j ui+1,j = x2 fi,j
o metodo de Jacobi e

1 k
ui,j1 + uki,j+1 + uki1,j + uki+1,j + x2 fi,j .
(4.2)
4
No caso especial da equacao de Laplace (f = 0) com condicao de fronteira de Dirichlet nao-nula, o metodo
de Jacobi e simplesmente a propriedade do valor medio discreta
uk+1
i,j =

uk+1
i,j =

1 k
ui,j1 + uki,j+1 + uki1,j + uki+1,j .
4

(4.3)

Em outras palavras, calculados os valores de u em todos os pontos da malha na iteracao anterior, o novo
valor de u em um ponto interior da malha nesta iteracao e calculado atraves da media dos seus quatro
pontos vizinhos. Os valores iniciais de u nos pontos interiores da malha para a primeira iteracao (isto e, o
chute inicial) podem ser atribuidos arbitrariamente ou atraves de algum argumento razoavel; por exemplo,
podemos utilizar uma media ponderada dos valores de fronteira para o valor inicial em cada ponto interior
da malha, de acordo com a posicao do ponto em relacao aos pontos das quatro fronteiras discretizadas.
Em forma matricial, o algoritmo de Jacobi pode ser descrito da seguinte forma. Denotando por D = diag
(a11 , . . . , ann ) a matriz diagonal cujas entradas sao as entradas diagonais de A, temos que

xk+1 = D1 (D A) xk + b
(4.4)
ou

xk+1 = D1 Cxk + b

onde C = D A e a matriz consistindo dos elementos restantes de A fora da diagonal principal.

(4.5)

Rodney Josue Biezuner

4.1.2

88

M
etodo de Gauss-Seidel

Um metodo iterativo que converge cerca de duas vezes mais rapido que o metodo de Jacobi (pelo menos em
varias aplicacoes) e o metodo de Gauss-Seidel, onde os valores de x sao atualizados dentro de cada iteracao,
este e usado no lugar de xkl no calculo
sem esperar pela proxima. Em outras palavras, obtido o valor de xk+1
l
seguinte. No sistema Ax = b em que aii 6= 0 para todo i, como antes isolamos cada xi na i-esima equacao
mas desta vez escrevemos

i1
n
X
X
1
xi =
bi
aij xj +
aij xj .
aii
j=1
j=i+1
Entao definimos
xk+1
i

i1
n
X
X
1
=
bi
aij xk+1
+
aij xkj
j
aii
j=1
j=i+1

(4.6)

pois os valores xk+1


, . . . , xk+1
a foram computados nesta iteracao, enquanto que os valores xki+1 , . . . , xkn sao
1
i1 j
fornecidos pela iteracao anterior.
Por exemplo, no caso da equacao de Laplace, poderamos utilizar a formula
uk+1
i,j =

1 k+1
k
ui,j1 + uki,j+1 + uk+1
i1,j + ui+1,j
4

(4.7)

assumindo que os pontos da malha sao percorridos na ordem lexicografica, de modo que quando vamos
calcular o valor de u no ponto i, j na iteracao k + 1, nesta mesma iteracao ja calculamos os valores de u em
i 1, j e em i, j 1, e usamos estes valores para calcular uk+1
es dos valores uki,j1 e uki1,j obtidos
i,j ao inv
na iteracao anterior.
Em forma matricial, o algoritmo de Jacobi pode ser descrito da seguinte forma. Dada uma matriz A,
existe uma u
nica decomposicao
A=DLU
(4.8)
onde D e uma matriz diagonal, L e uma matriz estritamente triangular inferior e U e uma matriz estritamente
triangular superior; de fato, D = diag (a11 , . . . , ann ) e a parte diagonal de A, L e a parte estritamente
triangular inferior de A e U e a parte estritamente triangular superior de A. Entao o algoritmo de Jacobi
pode ser definido por

xk+1 = D1 Lxk+1 + U xk + b
(4.9)
ou

(D L) xk+1 = U xk + b,

donde

xk+1 = (D L)

Ux + b .

(4.10)

importante ressaltar que existem matrizes para as quais o metodo de Jacobi converge e o metodo de
E
Gauss-Seidel diverge, e vice-versa. Veja a proxima secao sobre a convergencia dos metodos.

4.1.3

M
etodo SOR

O processo de corrigir uma equac


ao atraves da modificac
ao de uma vari
avel e `
as vezes chamado de relaxamento. Antes da correc
ao, a equac
ao n
ao e verdadeira; como um conjunto de partes que n
ao se ajustam,
ela est
a em estado de tens
ao. A correc
ao de uma vari
avel relaxa a tens
ao. O metodo de Gauss-Seidel efetua
relaxamento sucessivo, ou seja, passa de equac
ao para equac
ao, relaxando uma depois da outra. [Watkins]
Por este motivo, os metodos de Jacobi e de Gauss-Seidel sao tambem chamados metodos de relaxamento.
Em muitos casos, a convergencia pode ser substancialmente acelerada atraves de sobrerelaxamento. Isso
significa que ao inves de fazer uma correcao para a qual a equacao e satisfeita exatamente, nos fazemos uma
correcao maior. No caso mais simples, escolhe-se um fator de relaxamento > 1 que sobrecorrige por aquele

Rodney Josue Biezuner

89

fator em cada passo (se mover um passo na direcao de xk para xk+1 e bom, mover naquela direcao > 1
passos e melhor). Este e o chamado metodo de sobrerelaxamento sucessivo (SOR, successive overrelaxation):
usando o metodo de Gauss-Seidel obtemos

i1
n
X
X
1
bi
aij xk+1
+
aij xkj ;
x
bk+1
=
i
j
aii
j=1
j=i+1
da tomamos

k+1

xk+1
= xki + x
bi xki .
i

Isso pode ser resumido em

xk+1
i

n
i1
X
X
1
k+1
bi
= xki +
aij xkj xki .
aij xj
aii
j=i+1
j=1

(4.11)

Quando = 1, o metodo SOR e exatamente o metodo de Gauss-Seidel. Um fator < 1 (subrelaxamento)


normalmente diminui a velocidade de convergencia.
Para a maioria dos problemas, o melhor valor para o fator de relaxamento e desconhecido. Para a matriz
de discretizacao obtida a partir da formula de cinco pontos, e sabido que o valor otimo de e, como veremos
na proxima secao,
2
=
.
(4.12)
1 + sen (x)
Em forma matricial, o metodo SOR pode ser descrito da seguinte forma. Como antes, dada uma matriz
A escrevemos
A=DLU
(4.13)
onde D e uma matriz diagonal, L e uma matriz estritamente triangular inferior e U e uma matriz estritamente
triangular superior. Entao, escrevendo o algoritmo SOR na forma

i1
n
X
X
aii xk+1
= aii xki + bi
aij xk+1

aij xkj ,
i
j
j=1

temos

Dxk+1 = Dxk + Lxk+1 + (U D) xk + b

ou

k+1

(4.14)

1
1
k+1
DL x
=
D + U xk + b,

donde

4.1.4

j=i

1
1
k
DL
D+U x +b .

(4.15)

Compara
c
ao da Velocidade de Converg
encia dos Tr
es M
etodos

A tabela a seguir foi extrada de [Watkins], pags. 533 e 542. Os metodos introduzidos acima foram usados
para resolver o sistema linear Ax = b onde A e a matriz de discretizacao obtida a partir da formula dos
2
cinco pontos do laplaciano no quadrado unitario = (0, 1) e b e estabelecido pela condicao de fronteira de
Dirichlet dada por

0
se x = 0,

y
se x = 1,
g (x, y) =
(x

1)
sen
x
se y = 0,

x (2 x)
se y = 1,

Rodney Josue Biezuner

90

ou seja, para resolver o problema discretizado

d ud = 0
ud = gd

em d ,
sobre d .

As iteracoes foram interrompidas quando


k+1

u
uk
|uk+1 |2

< 108 .

O n
umero de iteracoes necessarias para convergir de acordo com esta margem de tolerancia, para tres refinamentos possveis da malha (correspondentes a matrizes de dimensoes n = 81, 361 e 1521, respectivamente),
de acordo com cada metodo e para diferentes valores de no caso do metodo SOR e apresentado na tabela
abaixo.
Jacobi
SOR ( = 0.8)
Gauss-Seidel
SOR ( = 1.4)
SOR ( = 1.6)
SOR ( = 1.7)
SOR ( = 1.8)
SOR ( = 1.9)
SOR ( = 2.0)

x = 0.1
299
235
160
67
42
57
86
176

x = 0.05
1090
845
581
262
151
96
89
180

x = 0.025
3908
3018
2082
955
577
412
252
179

Vemos que o metodo de Gauss-Seidel e cerca de duas vezes mais rapido para convergir que o metodo de
Jacobi e que dependendo da escolha de , o metodo SOR pode ser ate dez vezes mais rapido que o metodo
de Gauss-Seidel para a malha mais refinada. Subrelaxamento nao ajuda e para = 2 o metodo SOR e
divergente.

4.1.5

M
etodo de Jacobi Amortecido

O metodo de Gauss-Seidel pode ser sobrerelaxado atraves de um parametro > 1 para obter um metodo
que converge mais rapido.Ja o metodo de Jacobi nao pode em geral ser sobrerelaxado, porque o metodo
obtido nao converge. Ele pode no entanto ser subrelaxado atraves de um parametro < 1 para obter um
metodo convergente, se bem que mais vagaroso. A vantagem de se utilizar um tal metodo e que para certos
valores de ele e um otimo suavizador de erro (em um sentido que sera explicado no proximo captulo),
enquanto que o metodo de Jacobi usual nao possui esta propriedade. Assim, o metodo de Jacobi amortecido
pode ser usado em metodos multigrid (veja o proximo captulo).
Pelo metodo de Jacobi usual obtemos

x
bk+1
=
i

n
X

1
bi
aij xkj

,
aii
j=1
j6=i

e tomamos
ou seja,

k+1

xk+1
= xki + x
bi xki ,
i

n
X
1

k
k

xk+1
=
x
+

aij xkj
i
i
i
aii
xi .
j=1
j6=i

(4.16)

Rodney Josue Biezuner

91

Este metodo e conhecido como m


etodo de Jacobi amortecido, metodo de Jacobi ponderado ou ainda
metodo de relaxamento simult
aneo (diferente do metodo de relaxamento sucessivo, baseado no metodo de
Gauss-Seidel, em que cada variavel e substituda sucessivamente dentro da mesma iteracao `a medida que
ela e atualizada; no metodo de Jacobi, as variaveis sao todas substitudas simultameamente na proxima
iteracao).
Em forma matricial, o metodo de Jacobi amortecido pode ser descrito da seguinte forma. Denotando por
D a parte diagonal de A, temos

n
X
aii xk+1
= aii xki + bi
aij xkj ,
i
j=1

temos

Dxk+1 = Dxk + b Axk

ou

(4.17)

1
1
D xk+1 =
D A xk + b,

donde

1
1
k
x
=
D
DA x +b .
(4.18)

Em contraste com o metodo SOR, que converge em geral para 0 < < 2, o metodo de Jacobi amortecido
converge para 0 < 6 1 (veja a proxima secao).
k+1

4.2

An
alise de Converg
encia dos M
etodos Iterativos Lineares

Os metodos descritos na secao anterior sao casos especiais de uma classe geral de metodos chamados m
etodos
iterativos lineares ou m
etodos de corre
c
ao residual. Um metodo iterativo linear para resolver o sistema
linear
Ax = b
envolve a decomposicao da matriz A na forma
A = B C,

(4.19)

onde B e necessariamente uma matriz invertvel, e entao a resolucao iterativa do sistema de equacoes
Bxk+1 = Cxk + b
ou, mais explicitamente,

(4.20)

xk+1 = B 1 Cxk + b .

Se xk x, entao Bx = Cx + b, donde Ax = b. Do ponto de vista pratico, e importante que a matriz B


seja facil de resolver (mesmo que a inversa de B nao seja efetivamente calculada), como nos exemplos da
secao anterior:
B
C
Jacobi
Gauss-Seidel
SOR

DA

DL

1
DL

1
D+U

Para obter uma convergencia rapida, tambem gostaramos que B A e C 0. Deste ponto de vista, o ideal
seria B = A e C = 0 (convergencia em uma iteracao), mas isso viola em geral o criterio que B seja facil
de resolver. Um compromisso e necessario: B deve aproximar A o melhor possvel sem se tornar muito
complicada.

Rodney Josue Biezuner

4.2.1

92

Converg
encia dos M
etodos Iterativos Lineares

Para metodos iterativos em geral, definimos o erro alg


ebrico por
ek = x xk ,

(4.21)

rk = Ax Axk = f Axk .

(4.22)

enquanto que o erro residual e dado por

O erro algebrico tem interesse puramente teorico (para provar que determinado metodo iterativo converge,
precisamos mostrar que o erro algebrico tende a zero), ja que ele so pode ser calculado uma vez que se
conhece a solucao exata, e se este for o caso obviamente nao ha necessidade de resolver o sistema. Ja o erro
residual pode ser usado como criterio de parada para o metodo iterativo. Como

Bek+1 = Bx Bxk+1 = Ax + Cx Cxk b = C x xk = Cek ,


segue que

ek+1 = B 1 Cek .

Observe que
A matriz

B 1 C = B 1 (B A) = I B 1 A.
R = I B 1 A = B 1 C

(4.23)

e chamada a matriz de itera


c
ao ou matriz de propagac
ao do erro do algoritmo considerado, porque

e o erro e dado por


Em particular,

xk+1 = Rxk + B 1 b.

(4.24)

ek+1 = Rek .

(4.25)

ek = R k e0

(4.26)
0

de modo que o erro converge para 0, independentemente do chute inicial x , se e somente se R 0. Isso
ocorre se e somente se existe alguma norma matricial kk tal que kRk < 1. Obter uma norma matricial
que satisfaz esta propriedade, no entanto, e difcil. Vamos obter uma condicao necessaria e suficiente para
Rk 0 em termos do raio espectral da matriz de iteracao (Corolario 4.5 a seguir), que e em geral um pouco
mais facil de calcular. Antes, para motivar o resultado, suponha que A seja uma matriz diagonalizavel com
1 , . . . , n os seus autovalores e {v1 , . . . , vn } uma correspondente base de autovetores. Escrevendo o erro
inicial como uma combinacao linear dos autovetores, temos
e0 =

n
X

ai vi .

i=1

Logo,
ek = Rk e0 =

n
X

ai ki vi ,

i=1

de modo que

n
k X
k
e 6
|ai | |i | |vi | .
i=1

Como |i | 0 se e somente se |i | < 1, conclumos que ek 0 qualquer que seja o erro inicial (isto e,
qualquer que seja o chute inicial), se e somente se (R) = max16i6n |i | < 1 .

Rodney Josue Biezuner

93

4.1 Lema. Se A Mn (C) e kk e qualquer norma matricial, ent


ao
(A) 6 kAk .
Prova. Seja um autovalor qualquer de A e x um autovetor nao-nulo correspondente a , de modo que
Ax = x.
Considere a matriz X Mn (C) cujas colunas sao todas iguais ao vetor x. Temos tambem
AX = X
de modo que
|| kXk = kAXk 6 kAk kXk ,
donde
|| 6 kAk
para todo autovalor de A. Como existe um autovalor de A tal que (A) = , isso prova o resultado.
4.2 Lema. Seja A Mn (C) e > 0 dado. Ent
ao existe uma norma matricial kk tal que
(A) 6 kAk 6 (A) + .

(4.27)

Prova. Toda matriz complexa e triangularizavel atraves de uma matriz unitaria (isto e, uma matriz U que
satisfaz U U = U U = I; sua inversa e a sua adjunta ou transposta conjugada). Sejam entao

1 a12 a22 . . . a1n

2 a23 . . . a2n

3 . . . a3n
T =

..
..

.
.
n
uma matriz triangular e U uma matriz unitaria tais que
A = U T U.
Considere a matriz diagonal

Dt =

t2
..

.
tn

Temos

Dt T Dt1

a12 t1
2

a22 t2
a23 t1
3

...
...
...
..
.

...
...
...

a1n tn+1
a2n tn+2
a3n tn+3
..
.

n1

an1,n t1
n

Logo, para t > 0 suficientemente grande, a matriz Dt T Dt1 tem a propriedade que a soma dos valores
absolutos de elementos fora da diagonal principal e menor que . Em particular, se kkL denota a norma do
maximo das somas das linhas, podemos garantir que

Dt T Dt1 6 (A) +
L

Rodney Josue Biezuner

94

para t suficientemente grande. Portanto, fixado um tal t, se definirmos uma norma por

kAk := Dt U AU Dt1 L = U Dt1


AU Dt1 ,
L

teremos

kAk = Dt U AU Dt1 L = Dt T Dt1 L 6 (A) + .

Pelo lema anterior, (A) 6 kAk.


4.3 Lema. Seja A Mn (C). Se existe alguma norma matricial kk tal que kAk < 1, ent
ao
Ak 0.
Prova. Se kAk < 1, entao

k
A 6 kAkk 0.

4.4 Proposi
c
ao. Seja A Mn (C). Ent
ao

Ak 0

se e somente se
(A) < 1.
Prova. Se existe algum autovalor de A tal que || > 1 e x e um autovetor nao-nulo correspondente, entao
Ak x = k x
nao converge para 0. Reciprocamente, se (A) < 1, entao pelo Lema 4.2 existe uma norma matricial kk tal
que kAk < 1, logo Ak 0 pelo lema anterior.
4.5 Corol
ario. Seja R a matriz de iterac
ao de um metodo iterativo linear. Ent
ao
ek 0
se e somente se
(R) < 1.
Em outras palavras, um metodo iterativo linear e convergente independentemente da escolha do chute
inicial se e somente se todos os autovalores da matriz de iterac
ao tem valor absoluto menor que 1.

4.2.2

Velocidade de Converg
encia dos M
etodos Iterativos Lineares

O raio espectral tambem da informacao sobre a velocidade de convergencia. Se nos tivermos dois metodos
iterativos lineares diferentes, isto e, duas maneiras diferentes de decompor a matriz A:
A = B1 C1 = B2 C2 ,
entao o segundo metodo convergira mais rapido se e somente se
(R2 ) < (R1 ) .
Vamos analisar a velocidade de convergencia dos metodos iterativos com maior precisao. Novamente `a
ttulo de motivacao, suponha que A e uma matriz diagonalizavel com seu maior autovalor sendo um autovalor
simples. Ordene os autovalores de A na forma
|1 | > |2 | > . . . > |n |

Rodney Josue Biezuner

95

e seja {v1 , . . . , vn } uma correspondente base de autovetores. Escrevendo de novo


e0 =

n
X

ai vi ,

i=1

donde
ek = Rk e0 =

n
X

ai ki vi ,

i=1

segue que

"
ek = k1 a1 x1 +

n
X

ai

i=2

Como

i
1

i
1

#
vi .

k
0,

a taxa de convergencia e determinada por |1 | . Para k grande, temos


ek k1 a1 v1 .
Portanto,

k+1
e

= |1 | = (R) .
(4.28)
|ek |
Em outras palavras, a convergencia e linear com taxa de convergencia igual ao raio espectral. Se a1 =
0 a convergencia sera mais rapida, pois dependera do modulo do segundo autovalor, mas e obviamente
extremamente raro que o chute inicial satisfaca esta condicao. Para o caso geral, precisamos do seguinte
resultado:
4.6 Proposi
c
ao. Seja A Mn (C) e kk uma norma matricial. Ent
ao
k 1/k
(A) = lim A .
Prova. Como os autovalores da matriz Ak sao as k-esimas potencias dos autovalores de A, temos que

k
(A) = Ak 6 Ak ,
donde

1/k
(A) 6 Ak .

Dado > 0, a matriz


B=

1
A
(A) +

tem raio espectral menor que 1, logo B k 0. Portanto, existe algum N = N (, A) tal que
k
B < 1
ou seja,

k 1/k
A
< (A) +

para todo k > N .


Definimos a taxa m
edia de converg
encia de um metodo iterativo linear com matriz de iteracao R por
1/k

1
Rk (R) = log10 Rk
= log10 Rk
(4.29)
k
e a taxa assint
otica de converg
encia por
R (R) = lim Rk (R) .
k

(4.30)

Rodney Josue Biezuner

96

4.7 Corol
ario. Seja R a matriz de iterac
ao de um metodo iterativo linear. Ent
ao a taxa assint
otica de
convergencia do metodo e dada por
R (R) = log10 (R) .
Prova. Pois

(4.31)

1/k
1/k
R (R) = lim log10 Rk
= log10 lim Rk
= log10 (R) .
k

A taxa assintotica de convergencia mede o aumento no n


umero de casas decimais corretas na solucao por
iteracao. De fato, usando a norma matricial do Lema 4.2 e medindo as normas dos vetores de acordo, temos
k+1 0
k+1
R
e

e
=
6 kRk = (R) + ,
|ek |
|Rk e0 |
donde
log10
ou

k+1
e

|ek |

= log10 (R) + O ()

log10 ek log10 ek+1 = R (R) + O () .

(4.32)

Assim, se
k

e = O 10p ,
k+1

e
= O 10q ,
teremos
q p R (R) ,
isto e, reduzimos R (R) q p casas decimais no erro. Visto de outra forma, como
k+m
k+m 0
e

R
e
m
=
6 kRm k = (R) + O () ,
|ek |
|Rk e0 |
donde
log10
ou

k+m
e

|ek |

m log10 (R) ,

log10 ek+m / ek
m=
log10 (R)

(4.33)

e o n
umero de iteracoes necessarias para diminuir o erro de um n
umero prescrito de casas decimais.

4.2.3

Converg
encia para Matrizes Sim
etricas Positivas Definidas

Para matrizes reais simetricas positivas definidas e mais facil provar a convergencia dos metodos iterativos
lineares. Temos o seguinte resultado basico a seguir. Antes precisamos da seguinte definicao:
Defini
c
ao. Introduzimos uma ordenacao parcial em Mn (C) definindo
A6B
se
hAx, xi 6 hBx, xi
n

para todo x C .

Rodney Josue Biezuner

97

Em particular, se A e uma matriz positiva definida, segue que A > I para algum (o menor autovalor de
A) e denotamos este fato por
A > 0.
4.8 Teorema. Seja A uma matriz simetrica positiva definida e seja A = B C com B invertvel. Ent
ao
o metodo iterativo linear com matriz de iterac
ao R = B 1 C converge se e somente se B t + C e uma
matriz simetrica positiva definida.
Prova. Medimos a norma do erro atraves da norma induzida por A
1/2

|x|A := hAx, xi

e consideraremos a norma matricial kkA induzida por esta norma. Se provarmos que
kRkA < 1,
o metodo convergira. Temos
2
kRkA

1 2

t t

B Cx
1 2
AB 1 Cx, B 1 Cx
C B AB 1 Cx, x
A

= B C A = sup
= sup
= sup
.
2
hAx, xi
hAx, xi
|x|A
x6=0
x6=0
x6=0

(4.34)

Suponha que B t + C e uma matriz simetrica, positiva definida. Temos

C t B t AB 1 C = B t A B t AB 1 (B A) = I AB t A I B 1 A

= A AB t A + AB 1 A AB t AB 1 A

= A AB t B + B t A B 1 A

= A B 1 A B + B t A B 1 A
ou

C t B t AB 1 C = A B 1 A B t + C B 1 A,

(4.35)

de modo que C t B t AB 1 C e uma matriz simetrica, positiva definida. Logo, por (4.34), mostrar que
kRkA < 1 e equivalente a provar que
C t B t AB 1 C < A,

t
e por (4.35) C t B t AB 1 C < A se e somente se B 1 A (B t + C) B 1 A > 0, o que e verdade porque B t +C
e positiva definida.

4.3

Converg
encia dos M
etodos Iterativos Lineares para as Matrizes de Discretizac
ao

4.3.1

Converg
encia do M
etodo de Jacobi

4.9 Teorema. Se A e uma matriz irredutvel, diagonalmente dominante tal que |aii | >

n
P
j=1
j6=i

|aij | para pelo

menos alguma linha i, ent


ao o metodo de Jacobi converge.
Prova. Seja D a parte diagonal da matriz A e R = D1 (D A) = I D1 A a matriz de iteracao do
metodo
de Jacobi
para A. Suponha por absurdo que exista um autovalor de R tal que || > 1. Como
det 1 R I = det (R I) = 0, temos

det I 1 R = 0.

Rodney Josue Biezuner

98

Por outro lado, observe que I 1 R tambem e irredutvel, pois


(
0
se i = j,

1
aij
Rij = I D A ij =

se i 6= j,
aii
(
1
se i = j,

1
I R ij =
1 aij

se i 6= j,
aii
1
de modo que, onde A se anula, I 1 R tambem se anula. Alem
disso,1I R e diagonalmente dominante
1
e estritamente dominante nas linhas onde A e, pois || 6 1, I R ii = 1 e
n
n
n
X
||1 X
1 X

|aij | 6
|aij | .
I 1 R ij =
|aii | j=1
|aii | j=1
j=1
j6=i

j6=i

j6=i

Mas, pela Proposicao 3.16, isso implica que I 1 R e invertvel, uma contradicao.
O Teorema 4.8 mostra que o metodo de Jacobi converge para as matrizes de discretizacao obtidas atraves
dos esquemas de diferencas finitas do Captulo 2.
Atraves do Teorema 4.9, fomos capazes de provar a convergencia do metodo de Jacobi para as matrizes de
discretizacao sem calcular explicitamente os seus raios espectrais. Para analizar a velocidade de convergencia
do metodo de Jacobi, no entanto, e necessario obter os raios espectrais destas matrizes. Vamos fazer isso
para as matrizes de discretizacao obtidas a partir da formula de tres pontos unidimensional e a partir da
formula de cinco pontos bidimensional.
4.10 Teorema. Seja A a matriz de discretizac
ao obtida a partir da f
ormula de tres pontos unidimensional
ou a partir da f
ormula de cinco pontos bidimensional com x = y. Seja R = D1 (D A) a matriz
de iterac
ao do metodo de Jacobi. Ent
ao
(R) = cos

.
n

(4.36)

Prova. Para o metodo de Jacobi, a matriz de discretizacao xk+1 = Rxk + D1 b e obtida atraves da formula:
uk+1
i,j =

1 k
ui,j1 + uki,j+1 + uki1,j + uki+1,j .
4

Ja vimos no Lema 2.2 que

kl
kl
kl
kl
kl
2
ukl
ui,j
i1,j ui+1,j + 4ui,j ui,j1 ui,j+1 = kl x
com
kl =
Da segue que

2
x2

2 cos

k
l
cos
n
n

kl
kl
kl
kl
2
ukl
ui,j
i,j1 + ui,j+1 + ui1,j + ui+1,j = 4 kl x

Logo
para
lk

1 kl
kl
kl
kl
u
+ ukl
i,j+1 + ui1,j + ui+1,j = lk ui,j
4 i,j1

1
1
k
l
1
k
l
= 1 kl x2 = 1
2 cos
cos
=
cos
+ cos
.
4
2
n
n
2
n
n

Rodney Josue Biezuner

99

Estes sao os autovalores da matriz de iteracao de Jacobi para a matriz de discretizacao obtida a partir da
formula de cinco pontos (observe que elas possuem os mesmos autovetores; no entanto R possui autovalores
nulos). Segue que o maximo autovalor ocorre quando k = l = 1, logo
(R) = cos

.
n

O argumento para a formula de tres pontos e analogo.


Para o quadrado unitario temos
(R) = cos (x) .

(4.37)

Vemos em particular que (R) 1 quando x 0, de modo que a velocidade de convergencia do metodo
de Jacobi vai ficando cada vez menor para malhas mais refinadas. Podemos dizer mais usando a expansao
da funcao cosseno em torno da origem

1
cos x = 1 x2 + O x4 ;
2
se x e pequeno podemos aproximar
cos (x) 1

2
x2 ,
2

de modo que (R) 1 quadraticamente quando x 0. Em outras palavras, para uma malha duas vezes
mais refinada (isto e, x reduzido pela metade), o metodo de Jacobi e cerca de quatro vezes mais vagaroso
em media (consulte novamente a tabela no final da secao anterior). A tabela abaixo mostra os valores do
raio espectral para alguns valores de x:
x
(R)

0.1

0.05

0.025

0.9511

0.9877

0.9969

Para x = 0.025 (correspondente a uma matriz de tamanho n = 39 39 = 1521), temos


R (R) = log10 (0.9969) = 0.0013484,
de modo que para reduzir o erro pelo fator de uma casa decimal precisamos de
m=

log10 0.1
1
1
=
=
742
log10 (R)
log10 (R)
0.00135

iteracoes.

4.3.2

Converg
encia do M
etodo de Gauss-Seidel

4.11 Teorema. Se A e uma matriz irredutvel, diagonalmente dominante tal que |aii | >

n
P
j=1
j6=i

|aij | para pelo

menos alguma linha i, ent


ao o metodo de Gauss-Seidel converge.
Prova. Sejam D a parte diagonal, L a parte triangular inferior estrita e U a parte triangular superior
1
estrita da matriz A, e seja R = (D L) U a matriz de iteracao do metodo de Gauss-Seidel para A.
Escrevemos

1
1
R = (D L) U = D I D1 L
U
ou

1 1
D U.
R = I D1 L

(4.38)

Rodney Josue Biezuner

100

Suponha por absurdo que exista um autovalor de R tal que || > 1; como na demonstracao do Teorema
4.9, temos

1 1 i
det I 1 R = det I 1 I D1 L
D U = 0.
Agora, observando que

det I D1 L = 1

porque I D1 L e uma matriz triangular inferior com apenas 1s na diagonal principal, escrevemos

h
1 1 i
0 = det I 1 I D1 L
D U

1 1 i
= det I D1 L det I 1 I D1 L
D U
n

1 1 io
= det I D1 L I 1 I D1 L
D U

= det I D1 L 1 D1 U .
Por outro lado,

D1 A = I D1 L D1 U

e irredutvel, diagonalmente dominante e estritamente dominante nas linhas onde A e porque


(
1
se i = j,
1
aij
D A ij =
se i 6= j.
aii
Logo, a matriz I D1 L 1 D1 U tambem satisfaz estas propriedades, pois I, D1 L e D1 U sao
respectivamente a parte diagonal, a parte triangular inferior estrita e a parte triangular superior estrita da
matriz D1 A, e multiplicar a parte triangular inferior estrita pelo n
umero 1 cujo modulo e menor que ou
igual a 1 nao alterara a dominancia diagonal (na verdade so tende a melhora-la) nem acrescentara zeros `a
matriz. A Proposicao 3.16 implica entao que I D1 L 1 D1 U e invertvel, um absurdo.
Usando o Teorema 4.11, conclumos que o metodo de Gauss-Seidel converge para as matrizes de discretizacao
obtidas atraves dos esquemas de diferencas finitas do Captulo 2. Para analizar a velocidade de convergencia
do metodo de Gauss-Seidel, vamos obter os raios espectrais para as matrizes de discretizacao obtidas a partir
da formula de tres pontos unidimensional e a partir da formula de cinco pontos bidimensional.
4.12 Teorema. Seja A a matriz de discretizac
ao obtida a partir da f
ormula de tres pontos unidimensional
1
ou a partir da f
ormula de cinco pontos bidimensional com x = y. Seja R = (D L) U a matriz
de iterac
ao do metodo de Gauss-Seidel. Ent
ao
(R) = cos2

.
n

(4.39)

Prova. Para obter o raio espectral da matriz de iteracao R, queremos encontrar os autovalores de R:
1

Ru = (D L)

U u = u,

ou seja,
U u = (D L) u
(um problema de autovalor generalizado). No caso da matriz de discretizacao da formula de cinco pontos,
isso significa encontrar tal que
ui,j+1 + ui+1,j = (4ui,j ui,j1 ui1,j ) .

(4.40)

Para os autovalores nao-nulos, podemos fazer a substituicao


ui,j =

i+j
2

vi,j

(4.41)

Rodney Josue Biezuner

101

para transformar a equacao de autovalor naquela que aparece no metodo de Jacobi. Temos
i+j

i+j+1
i+j+1
i+j1
i+j1
2 vi,j + 2 vi+1,j = 4 2 vi,j 2 vi,j1 2 vi1,j
= 4
de modo que, dividindo por

i+j+1
2

i+j+2
2

vi,j

i+j+1
2

vi,j1

i+j+1
2

vi1,j ,

, obtemos

vi1,j + vi+1,j + vi,j1 + vi,j+1 = 1/2 4vi,j .


Portanto os autovalores da matriz de iteracao de Gauss-Seidel para esta matriz sao exatamente os quadrados
dos autovalores da matriz de iteracao de Jacobi (e os autovetores sao os mesmos):

2
1
k
l
lk =
cos
+ cos
.
4
n
n
Portanto, o maximo autovalor ocorre quando k = l = 1 e
(R) = cos2

.
n

O argumento para a formula de tres pontos e analogo.


Para o quadrado unitario temos
(R) = cos2 (x) ,
e usando

2

1
cos2 x = 1 x2 + O x4
= 1 x2 + O x4 ,
2

se x e pequeno podemos aproximar


cos2 (x) 1 2 x2 .
No metodo de Gauss-Seidel ainda temos (R) 1 quadraticamente quando x 0, mas a sua velocidade
de convergencia para a matriz de discretizacao de cinco pontos do quadrado unitario e duas vezes maior que
a do metodo de Jacobi. Para ver isso, faca a expansao do logaritmo em torno do ponto x = 1:

log (1 + x) = x + O x2 .
Segue que

2
x2 + O x4 ,
2

R (RGauss-Seidel ) = 2 x2 + O x4 .
R (RJacobi ) =

4.3.3

Converg
encia do M
etodo SOR

4.13 Teorema. Se o metodo SOR converge, ent


ao
0 < < 2.
Prova. A matriz de iteracao do metodo SOR e

1

1 1
1
1
1
1
DL
D+U =
D I D L
D+U
R=

1
1
D1
= I D1 L
D+U

(4.42)
(4.43)

Rodney Josue Biezuner


ou

102

R = I D1 L
(1 ) I + D1 U .

(4.44)

Se 1 , . . . , n sao os autovalores de R, ent


ao
det R = 1 . . . n .
Mas,
1
o
I D1 L
(1 ) I + D1 U

= det I D1 L
det (1 ) I + D1 U
n
= (1 ) ,

det R = det

ja que I D1 L e uma matriz triangular inferior com apenas 1 na diagonal principal e (1 ) I + D1 U


e uma matriz triangular superior com apenas 1 na diagonal principal. Logo
n

1 . . . n = (1 ) .
Em particular, pelo menos um dos autovalores j de R deve satisfazer
|j | > |1 | .
Mas, se o metodo SOR converge, devemos ter tambem || < 1 para todo autovalor de R. Logo
|1 | < 1,
donde
0 < < 2.

4.14 Corol
ario. Se R e a matriz de iterac
ao n n para o metodo SOR, ent
ao
n

det R = (1 ) .
Em particular, diferente das matrizes de iteracao dos metodos de Jacobi e de Gauss-Seidel (para a matriz de
discretizacao de cinco pontos), zero nao e um autovalor para a matriz de iteracao do metodo SOR se 6= 1
(para nenhuma matriz).
4.15 Teorema. Se A e uma matriz irredutvel, diagonalmente dominante tal que |aii | >

n
P
j=1
j6=i

|aij | para pelo

menos alguma linha i, ent


ao o metodo SOR converge se 0 < 6 1.
Prova. A demonstracao e analoga `a do Teorema 4.11. A matriz de iteracao do metodo SOR e

R = I D1 L
(1 ) I + D1 U .
Suponha por absurdo que exista um autovalor de R tal que || > 1; temos
n

1
o

(1 ) I + D1 U
= 0.
det I 1 R = det I 1 I D1 L
Agora, observando que

det I D1 L = 1

Rodney Josue Biezuner

103

porque I D1 L e uma matriz triangular inferior com apenas 1s na diagonal principal, escrevemos

n
1
o
0 = det I 1 I D1 L
(1 ) I + D1 U

1
o
= det I D1 L det I 1 I D1 L
(1 ) I + D1 U
h
n

1
oi
= det I D1 L I 1 I D1 L
(1 ) I + D1 U

= det I D1 L 1 (1 ) I + D1 U

= det 1 1 (1 ) I D1 L 1 D1 U .
Por outro lado, como vimos na demonstracao do Teorema 4.11, a matriz
D1 A = I D1 L D1 U
e irredutvel, diagonalmente dominante e estritamente dominante nas linhas onde A e, logo a matriz

S = 1 1 (1 ) I D1 L 1 D1 U
tambem satisfaz estas propriedades. De fato, S tem zeros nas mesmas posicoes que I D1 L D1 U , logo
a sua irredutibilidade nao e afetada. Alem disso, pela dominancia diagonal de D1 A, sabemos que se

bij = D1 L ij ,

cij = D1 U ij .
entao
1>

i1
X

|bij | +

j=1

n
X

|cij | .

j=i+1

Para provar a dominancia diagonal de S, observamos que os valores que S possui na diagonal principal sao
1 1 (1 ) = 1

1
+1
=
,

de modo que precisamos provar que

n
i1
X
+ 1
X

>
|cij |
|b
|
+
ij

|| j=i+1
j=1
se 0 < 6 1 e || > 1. Provaremos que

+ 1

> ,

+ 1
> .

||

Para isso, observe que como || > 1 basta provar a primeira desigualdade, a qual por sua vez e equivalente a
| + 1| > || .
facil ver que esta desigualdade e valida quando R, pois
E
| + 1| = + 1 >

porque

1 > = ( 1) .

Rodney Josue Biezuner

104

Para o caso geral em que C, fazemos cair no caso real escrevendo


2

| + 1| = | (1 )| = || 2 (Re ) (1 ) + (1 )
2

> || 2 || (1 ) + (1 ) = [|| (1 )]
2

= [|| + 1] > || 2 .
O resultado acima continua valendo com desigualdade estrita nas linhas onde a desigualdade e estrita. A
Proposicao 3.16 implica entao que S e invertvel, contradizendo det S = 0.
4.16 Teorema. Seja A uma matriz simetrica positiva definida. Ent
ao o metodo SOR converge se 0 < < 2.
Prova. Usaremos o Teorema 4.8. Escrevendo A = D L U , temos Lt = U porque A e simetrica e as
entradas diagonais de D positivas porque A e positiva definida. Para o metodo SOR temos
B=

1
DL

C=

1
D + U,

logo

2
1
1
D Lt +
D+U =
D

e uma matriz simetrica positiva definida se 0 < < 2.


Na verdade, se as entradas diagonais de uma matriz simetrica sao positivas, a condicao de ser definida
positiva e equivalente `a convergencia do metodo SOR para 0 < < 2, como o proximo resultado mostra.
Bt + C =

ao o metodo SOR
4.17 Teorema. Seja A uma matriz simetrica com entradas diagonais positivas. Ent
converge se e somente se A e positiva definida e 0 < < 2.
Prova. Assuma que A e positiva definida e que 0 < < 2. Seja

R = I D1 L
(1 ) I + D1 U
a matriz de iteracao do metodo SOR. Se e um autovalor de R e x um autovetor associado, temos Rx = x,
donde

(1 ) I + D1 U x = I D1 L x.
Fazendo o produto interno canonico (hermitiano) de Cn de ambos os lados com o vetor x, segue que

(1 ) hx, xi + x, D1 U x = hx, xi x, D1 Lx
Isolando ,

(1 ) hx, xi + x, D1 U x
=
.
hx, xi hx, D1 Lxi

(4.45)

Como A e simetrica, o produto de matrizes simetricas D1 A = I D1 U D1 L tambem e; como


D1 U, D1 L sao respectivamente a parte estritamente triangular superior e estritamente triangular inferior de uma matriz simetrica, temos
1 t
D U = D1 L.
Logo
e definindo

t
x, D1 U x = D1 U x, x = D1 L x, x = hx, (D1 L) xi,
1
x, D L x
z=
,
hx, xi

Rodney Josue Biezuner

105

podemos escrever

(1 ) + z
.
1 z
Os argumentos acima assumem que o denominador e nao-nulo. E, de fato, temos

1 !


x, D1 L x
x, D U x
1
1
1 x, D1 L + D1 U x
Re z = (z + z) =
+
=
2
2
hx, xi
hx, xi
2
hx, xi

x, D1 A x
1 x, I D1 A x
1
=
=
1
.
2
hx, xi
2
hx, xi
=

(4.46)

e como A e positiva definida, D1 A tambem e, o que implica


1
x, D A x
>0
hx, xi
donde

1
.
2
de modo que a parte real do denominador 1 z de e nao-nula para 0 < < 2. Segue que
Re z <

|| = =

[(1 ) + z] [(1 ) + z]
(1 ) + 2 (1 ) Re z + 2 |z|
=
2
(1 z) (1 z)
1 2 Re z + 2 |z|

2 2 2 Re z 2 + 4 Re z + 1 2 Re z + 2 |z|

1 2 Re z + 2 |z|
(2 ) (1 2 Re z)
=1
2 .
1 2 Re z + 2 |z|

Como 0 < < 2 e Re z <

1
, temos
2

(2 ) (1 2 Re z) > 0,

e conclumos que
|| < 1
para todo autovalor de R, logo o metodo SOR converge. A demonstracao da recproca (assim como uma
demonstracao alternativa, variacional, deste teorema) pode ser vista em [Young].
Usando o Teorema 4.15, conclumos que o metodo SOR converge para as matrizes de discretizacao obtidas
atraves dos esquemas de diferencas finitas do Captulo 2 se 0 < 6 1. Isso permite apenas subrelaxamento
do metodo de Gauss-Seidel, o que em geral reduz a velocidade de convergencia. Por outro lado, usando o
Teorema 4.16 ou o Teorema 4.17, conclumos que o metodo SOR converge para as matrizes de discretizacao
obtidas a partir da formula de tres pontos unidimensional e a partir da formula de cinco pontos bidimensional
se 0 < < 2, ja que estas sao matrizes simetricas, positivas definidas (ja as matrizes de discretizacao obtidas
atraves de coordenadas polares ou pelo esquema de Shortley-Weller nao sao simetricas, em geral, como
vimos).
Em seguida fazemos uma analise da velocidade de convergencia do metodo SOR para a matriz de discretizacao da formula de cinco pontos, bem como obtemos o melhor valor do fator de relaxamento para
este caso.
ao obtida a partir da f
ormula de tres pontos unidimensional ou
4.18 Lema. Seja A a matriz de discretizac
a partir da f
ormula de cinco pontos bidimensional com x = y. Se 6= 0 e um autovalor de RSOR ,
ent
ao existe um autovalor J de RJ tal que
J =

1
.
1/2 2

(4.47)

Rodney Josue Biezuner

106

Reciprocamente, se J e um autovalor de RJ e C satisfaz a equac


ao acima, ent
ao e um autovalor
de RSOR .
Prova. Argumentamos como na demonstracao do Teorema 4.12. Para obter o raio espectral da matriz de
iteracao RSOR , queremos encontrar os autovalores de RSOR :

RSOR u = I D1 L
(1 ) I + D1 U u = u,
ou seja,

(1 ) I + D1 U u = I D1 L u

No caso da matriz de discretizacao da formula de cinco pontos, isso significa encontrar tal que

(1 ) ui,j + ui,j+1 + ui+1,j = ui,j ui,j1 ui1,j


4
4
4
4
ou

1
1
ui,j = (ui,j+1 + ui+1,j + ui,j1 + ui1,j ) .

Fazendo a substituicao
ui,j =
e dividindo por

i+j+1
2

i+j
2

(4.48)

vi,j

, segue que
vi1,j + vi+1,j + vi,j1 + vi,j+1 =

1
4vi,j
1/2

e da o resultado.

p 2
Resolvendo a equacao (4.47) como uma equacao quadratica em , vemos que as duas razes =

podem ser escritas na forma


2

q
1
(4.49)
J 2 2J 4 ( 1) .
=
4
Denotaremos
,J = max (|+ | , | |)

(4.50)

e por J = (RJ ) o maior autovalor do metodo de Jacobi.


ao obtida a partir da f
ormula de tres pontos unidimensional
4.19 Proposi
c
ao. Seja A a matriz de discretizac
ou a partir da f
ormula de cinco pontos bidimensional com x = y. Ent
ao
(RSOR, ) = ,J

(4.51)

Prova. Por definicao,


(RSOR, ) = max ,J .
J

De (4.49) segue que


,J
2

1
2
2
= J + J 4 ( 1) .
4

Se 0 < 6 1, 2 J 4 ( 1) > 0 e ,J e uma funcao crescente de J , logo o maximo e atingido em J .


Se > 1, defina
r
4 ( 1)
c =
.
2

Rodney Josue Biezuner

107

Se J > c , 2 J 4 ( 1) > 0 e segue a conclusao como no caso anterior. Se J 6 c , entao 2 J


4 ( 1) 6 0 e
q
q
2
2
2 J 4 ( 1) = 4 ( 1) 2 J i,

onde i = 1, logo

2 r
q
h
i 2

2
2

,J = J + 2 J 4 ( 1) = 2 2J + 4 ( 1) 2 J

= 1,
e novamente ,J e uma funcao crescente de J .
Defina
2
q
otimo =
.
2
1 + 1 J

(4.52)

Note que 1 < otimo < 2. Mostraremos que otimo e de fato o melhor valor para o fator de relaxamento no
metodo SOR. Antes precisamos do seguinte resultado:
4.20 Proposi
c
ao. Seja A a matriz de discretizac
ao obtida a partir da f
ormula de tres pontos unidimensional
ou a partir da f
ormula de cinco pontos bidimensional com x = y. Ent
ao

q
2
1
2
2 4 ( 1)
+

se 0 < 6 otimo ,

J
J
(4.53)
(RSOR, ) =
4
1
se otimo 6 < 2.
2

Prova. Temos 2 J 4 ( 1) > 0 para 0 < < 2 se e somente se 6 otimo . De fato, as razes de
2
f () = 2 J 4 + 4 sao
q
2

q
4 4 1 J
2
2
=
=
1

J
2
2
2J
J
de modo que a raiz positiva de f e maior que 2, logo para que f () > 0 se 0 < < 2, devemos ter

q
1

J
2
2
2
2
q
q
6 2 1 1 J = 2
=
.
2
J
J 1 + 1 2
1
+
1

J
J
O resultado segue entao como na demonstracao da proposicao anterior.
ao obtida a partir da f
ormula de tres pontos unidimensional
4.21 Teorema. Seja A a matriz de discretizac
ou a partir da f
ormula de cinco pontos bidimensional com x = y. Ent
ao o fator de relaxamento

otimo para o metodo SOR e dado por


otimo =

2
1 + sen

e o fator de relaxamento
otimo para o metodo SOR.
2

Prova. Se 0 < 6 otimo , entao 2 J 4 ( 1) > 0 e


d
d

q
J
2
2
J + J 4 ( 1) =

q
2
2
2 J 4 ( 1) + J 2
q
.
2
2 J 4 ( 1)

(4.54)

Rodney Josue Biezuner

108

Temos J 2 < 0, porque 0 < < 2 e J < 1, e


q

2
2

J 2 > J 2 J 4 ( 1),
pois
2

4
2
4
2
2
4
2
2

J 2 = 2 J 4J + 4 > 2 J 4J + 4J > 2 J 4J ( 1)
q
2
2
= J 2 J 4 ( 1) .
Isso implica

q
d
2
2
J + J 4 ( 1) < 0,
d
logo (RSOR, ) e decrescente de 0 ate otimo . Para otimo 6 < 2, (RSOR, ) = 1 e claramente
crescente. Portanto, (RSOR, ) atinge o seu mnimo em otimo .
Pelo Teorema 4.10, temos

J = cos ,
n
logo
2
2
2
r
q
otimo =
=
=
.
2

1
+
sen
2
1 + 1 J
1 + 1 cos
n
n

Para o quadrado unitario temos


otimo =
e conseq
uentemente
(RSOR, ) =

2
1 + sen (x)

2
1 sen (x)
1=
.
1 + sen (x)
1 + sen (x)

e usando

1x
= 1 2x + O x2 ,
1+x

sen x = x + O x3 ,
se x e pequeno podemos aproximar

1 sen (x)
1 2x + O x2 .
1 + sen (x)
Portanto, usando o valor otimo de no metodo SOR, temos (R) 1 linearmente quando x 0, um
resultado muito melhor que o obtido nos metodos de Jacobi e de Gauss-Seidel. Para uma comparacao mais
precisa, usando

log (1 + x) = x + O x2
temos que
Segue que

R (RSOR ) = 2x + O x2 .

(4.55)

R (RSOR )
2x
2
2 2 =
.
R (RGauss-Seidel )
x
x
Em particular, se x = 0.025, temos otimo = 1. 8545 e R (RSOR ) /R (RGauss-Seidel ) = 25.5, isto e, o
metodo SOR e 25 vezes mais rapido que o metodo de Gauss-Seidel. Quanto mais refinada a malha, maior e
a diferenca na velocidade de convergencia entre os dois metodos.

Rodney Josue Biezuner

4.3.4

109

Converg
encia do M
etodo de Jacobi Amortecido

4.22 Teorema. Se o metodo de Jacobi converge, ent


ao o metodo de Jacobi amortecido converge para
0 < 6 1.
Prova. Vamos escrever a matriz de iterac
ao RJ, do metodo de Jacobi amortecido em funcao da matriz de
iteracao do metodo de Jacobi RJ . Temos
RJ = D1 (D A)
de modo que

RJ, =

1
D

1
DA

= D1

1
DD+DA

= D1

1
D D + D1 (D A)

donde
RJ, = (1 ) I + RJ .

(4.56)

Em particular,
RJ v = v
se e somente se
[RJ, (1 ) I] v = v.
Portanto, J e um autovalor de RJ se e somente se
J, = J + 1

(4.57)

e um autovalor de RJ, . Logo, se todo autovalor de RJ satisfaz |J | < 1 (isto e, (RJ ) < 1 equivalente ao
metodo de Jacobi convergir) e < 1, ent
ao

2
|J, | = (J + 1 ) J + 1
2

= 2 |J | + 2 Re J (1 ) + (1 )
2

6 2 |J | + 2 |J | (1 ) + (1 )
= ( |J | + 1 )
< 1.

Segue do Teorema 4.8 que o metodo de Jacobi amortecido converge para as matrizes de discretizacao do
Captulo 2 se 0 < 6 1.
4.23 Corol
ario.
(RJ, ) = [ (RJ ) 1] + 1.

(4.58)

Para o quadrado unitario temos


(RJ, ) = [cos (x) 1] + 1.
Usando

1
cos x = 1 x2 + O x4 ,
2

log (1 + x) = x + O x2 ,

(4.59)

Rodney Josue Biezuner

110

se x e pequeno podemos aproximar


(RJ, ) 1

2
x2 + O x4 ,
2

2
x2 .
2
Vemos que a velocidade de convergencia do metodo de Jacobi amortecido e da mesma ordem que a do metodo
de Jacobi, um pouco pior para valores de proximos de 1 e muito pior para valores de proximos de 0.
R (RJ, )

4.3.5

Resumo
Metodo

(R)

R (R)

x2 + O x4
2

2 x2 + O x4

2x + O x2
2

Jacobi

cos (x)

Gauss-Seidel
SOR otimo
Jacobi amortecido

4.4

cos2 (x)

1 2x + O x2
1

2
x2 + O x4
2

2
x2 + O x4
2

M
etodo do Gradiente Conjugado

Nesta secao, A sera sempre uma matriz real simetrica, positiva definida. Neste caso, a resolucao do sistema
Ax = b e equivalente `a resolucao de um problema de minimizacao de um funcional quadratico:
4.24 Teorema. (Metodo Variacional para a Resolucao de Sistemas Lineares) Seja A Mn (R) uma matriz
simetrica positiva definida e b Rn . Ent
ao a soluca
o do sistema
Ax = b
e o u
nico ponto x que minimiza o funcional quadr
atico
f (y) =

1 t
y Ay y t b.
2

(4.60)

Prova: Uma matriz simetrica positiva definida e invertvel, logo existe uma u
nica solucao x para o sistema
Ax = b. Para provar o teorema, comecamos observando que, como y t Ax R e um escalar, temos

t
y t Ax = y t Ax = xt At y = xt Ay.
Da,
f (y) f (x) =
=
=
=
=

1 t
1
y Ay y t b xt Ax + xt b
2
2
1
1 t
t
y Ay y Ax xt Ax + xt Ax
2
2
1 t
1
t
y Ay y Ax + xt Ax
2
2
1 t
1 t
1
1
y Ay y Ax xt Ay + xt Ax
2
2
2
2
1 t
1
y A (y x) xt A (y x)
2
2

Rodney Josue Biezuner

111

ou
f (y) f (x) =

1
t
(y x) A (y x) .
2

(4.61)

Como A e positiva definida, segue que


t

(y x) A (y x) = hA (y x) , (y x)i > 0
e

(y x) A (y x) = 0
se e somente se y = x. Portanto,
f (y) > f (x)
para todo y 6= x e o mnimo de f ocorre em x.
Em muitos problemas, o funcional f tem significado fsico, correspondente a um funcional de energia que
quando e minimizado corresponde a um estado de equilbrio do sistema. Observe que definindo um produto
interno a partir da matriz simetrica positiva definida A da maneira usual por hv, wiA = v t Aw e considerando
1/2
a norma induzida kvkA = hv, viA , o funcional f pode ser escrito na forma
f (y) =

1
hy, Ayi hy, Axi
2

(4.62)

ou

1
2
kykA hy, xiA .
(4.63)
2
Outra maneira de enxergar o resultado do teorema anterior e observar que o gradiente do funcional f e
f (y) =

f (y) = Ay b.

(4.64)

Se x e um ponto de mnimo temos f (x) = 0, ou seja,


Ax = b.
Este metodo variacional e a base dos metodos iterativos de descida em geral, e do metodo do gradiente
conjugado em particular. A ideia e usar as ideias do calculo diferencial para encontrar o mnimo do funcional
quadratico f .

4.4.1

M
etodos de Descida

A filosofia dos metodos de descida e comecar com um chute inicial x0 e gerar uma seq
uencia de iterados
x1 , x2 , . . . , xk , . . . que satisfazem


f xk+1 6 f xk
ou, melhor ainda,


f xk+1 < f xk

de tal modo que xk convirja para o minimizador


de
f . Em outras palavras, em um metodo de descida
buscamos encontrar uma seq
uencia minimizante xk que convirja para a solucao do sistema.
O passo de xk para xk+1 envolve dois ingredientes: (1) uma direc
ao de busca e (2) um avanco de
comprimento especificado na direcao de busca. Uma direcao de busca significa a escolha de um vetor pk que
indicara a direcao que avancaremos de xk para xk+1 . O comprimento do avanco e equivalente `a escolha de
um escalar k multiplicando o vetor pk . Assim,
xk+1 = xk + k pk .

Rodney Josue Biezuner

112

A escolha de k e tambem chamada uma busca na reta, ja que queremos escolher um ponto na reta
k

x + pk : R
tal que


f xk + pk 6 f xk .

Idealmente, gostaramos de escolher k de tal modo que

f xk+1 = f xk + k pk = min f xk + pk
R

Esta e chamada uma busca na reta exata. Para funcionais quadraticos, a busca na reta exata e trivial e
obtemos uma formula para o valor de k , como veremos a seguir. Denotaremos o resduo em cada iteracao
por
rk = b Axk .
(4.65)
4.25 Proposi
c
ao. Seja k R tal que

f xk + k pk = min f xk + pk .
R

Ent
ao

k k
p ,r
= k
k =
.
t
k
k
hp , Apk i
(p ) Ap
k t k
p r

Prova: Considere o funcional

(4.66)

g () = f xk + pk .

g e um polinomio quadratico em , pois


t

t
1 k
x + pk A xk + pk xk + pk b
2
t
t
k t k k t
2 k t k
1 k t
x Axk xk b +
x Ap +
p Axk +
p Ap pk b
=
2
2
2
2

k
k t
1 k t
1 k t
2 k t k
k
k
=f x +
p Ax +
p Ax p b +
p Ap
2
2
2

t
2 k t k
= f xk pk Ark +
p Ap ,
2

g () =

portanto o mnimo de g e atingido no vertice B/2A da parabola Y = AX 2 + BX + C.


t
Observe que k = 0 se e somente se pk rk = 0, isto e, a direcao de busca e ortogonal ao resduo. Como
gostaramos sempre que possvel de ter xk+1 6= xk , devemos sempre escolher

a dire
caode busca de forma a
nao ser ortogonal a rk . Se esta escolha e feita, entao teremos sempre f xk+1 < f xk .
Exemplo 1. (Metodo de Gauss-Seidel) Considere o metodo de descida em que as primeiras n direcoes de
busca p1 , . . . , pn sao os vetores e1 , . . . , en da base canonica de Rn , e isso e repetido a cada n iteracoes,
de modo que pk+n = ek para todo k = 1, . . . , n, com uma busca na reta exata executada em cada
iteracao. Entao cada grupo de n iteracoes corresponde a uma iteracao do metodo de Gauss-Seidel.
Exemplo 2. (Metodo SOR) Usando as mesmas direcoes de busca do exemplo anterior, mas com xk+1 =
xk + k pk , 6= 1, obtemos um metodo de descida em que as buscas nas retas sao inexatas. Cada
grupo de n iteracoes corresponde a uma iteracao do metodo SOR.

Rodney Josue Biezuner

4.4.2

113

M
etodo da Descida Mais Acentuada

Do Calculo Diferencial, sabemos que a direcao em que a funcao cresce a uma taxa mais rapida a partir de
um ponto e a direcao do gradiente neste ponto. Esta observacao e a base da escolha da direcao de busca no
metodo da descida mais acentuada. Em outras palavras, escolhemos

pk = f xk = b Axk
ou

pk = rk .

(4.67)

Buscar na direcao da descida mais acentuada e uma ideia natural, mas que na pratica nao funciona sem
modificacoes. De fato, em alguns casos o metodo e de velocidade comparavel `a do metodo de Jacobi, como
na matriz de discretizacao da formula de cinco pontos aplicada ao problema descrito na primeira secao deste
captulo [Watkins]:
Jacobi
Descida Mais Acentuada

x = 0.1
299
304

x = 0.05
1090
1114

x = 0.025
3908
4010

De fato, como as iteracoes do metodo de descida mais acentuada sao bem mais custosas que as do metodo
de Jacobi, o primeiro e muito pior que este u
ltimo.
Para entender melhor o metodo da descida mais acentuada, porque ele pode ser lento e as modificacoes que
vamos fazer para torna-lo mais rapido levando ao metodo do gradiente conjugado, vamos entender o processo
do ponto de vista geometrico. Como vimos na demonstracao do Teorema 4.24, o funcional quadratico f e
da forma
1
t
f (y) = (y x) A (y x) + c
(4.68)
2
onde c = f (x) = 12 xt Ax xt b e uma constante. Ja que A e uma matriz simetrica, existe uma matriz
ortogonal P tal que P t AP e uma matriz diagonal D , cujos valores na diagonal principal sao exatamente os
autovalores positivos de A. Nas coordenadas
z = P t (y x) ,
o funcional f tem a forma

1
1X
f (z) = z t Dz + c =
i zi2 + c.
2
2 i=1

(4.69)

As curvas de nvel do funcional f neste sistema de coordenadas sao elipses (em R2 , elipsoides em R3 e
hiperelipsoides em Rn ) centradas na origem com eixos paralelos aos eixos coordenados e f (0) = c e nvel
mnimo de f ; elipses correspondentes a menores valores de f estao dentro de elipses correspondentes a
maiores valores de f . Como P e uma aplicacao ortogonal, as curvas de nvel de f no sistema de coordenadas
original tambem sao elipses, centradas em x, e uma reta de um ponto y ate o ponto x corta elipses de nveis
cada vez menores ate chegar ao mnimo da funcao f em x, centro de todas as elipses. O vetor gradiente e
perpendicular `as curvas de nvel, logo e perpendicular `as elipses. Seguir a direcao de descida mais acentuada
equivale a cortar a elipse que contem xk ortogonalmente na direcao do interior da elipse ate encontrar um
ponto xk+1 situado em uma elipse que a reta tangencie, pois a partir da a reta ira na direcao de elipses com
nveis maiores, portanto este e o ponto da reta onde f atinge o seu mnimo. Em particular, vemos que a
proxima direcao pk+1 e ortogonal `a direcao anterior pk , tangente a esta elipse. Em geral, a direcao de descida
mais acentuada nao e a direcao de x (quando bastaria uma iteracao para atingir a solucao exata) a nao ser
que A seja um m
ultiplo escalar da identidade, de modo que todos os autovalores de A sao iguais e as elipses
sao crculos. Por outro lado, se os autovalores de A tem valores muito diferentes uns dos outros, com alguns
muito pequenos e alguns muito grandes, as elipses serao bastante excentricas e, dependendo do chute inicial,

Rodney Josue Biezuner

114

a convergencia pode ser muito lenta (matrizes com estas propriedades sao chamadas mal-condicionadas; para
que o metodo de descida acentuada seja lento, a matriz A nao precisa ser muito mal-condicionada).
Como vimos na secao anterior, os algoritmos de Gauss-Seidel e SOR podem ser encarados como algoritmos
de descida. A discussao no paragrafo anterior tambem pode ser usada para entender a relativa lentidao destes
algoritmos.

4.4.3

M
etodo do Gradiente Conjugado

Todos os metodos iterativos que vimos neste captulo sao limitados pela sua falta de memoria, no sentido de
que apenas informacao sobre xk e usada para obter xk+1 . Toda a informacao sobre as iteracoes anteriores e
deletada. O metodo do gradiente conjugado e uma variacao simples do metodo da descida mais acentuada
que funciona melhor porque a informacao obtida atraves das iteracoes anteriores e utilizada.
Para entender brevemente como isso funciona, observe que depois de j iteracoes xk+1 = xk + k pk de
um metodo de descida temos
xj = x0 + 0 p0 + 1 p1 + . . . + j1 pj1 ,

de modo que xj esta no subespaco afim gerado pelo chute inicial x0 e pelos vetores p0 , p1 , . . . , pj1 .
Enquanto o metodo da descida mais acentuada minimiza o funcional de energia
f apenas ao longo das j
retas xk + k pk , cuja uniao constitui apenas um pequeno subconjuntode x0 + p0 , p1 ,. . . , pj1 , o metodo
do gradiente conjugado minimiza f sobre todo o subespaco afim x0 + p0 , p1 , . . . , pj1 .
Para definir as direcoes de busca do metodo do gradiente conjugado (que e, antes de mais nada, um
metodo de descida), lembramos que o funcional f foi escrito na forma
f (y) =

1
2
kykA hy, xiA .
2

Defina o erro
e = x y.

(4.70)

Pela regra do paralelogramo, temos


2

kx + ykA + kx ykA = 2 kxkA + 2 kykA ,


donde
2

2 kykA = kx ykA + kxkA + 2 hy, xiA + kykA 2 kxkA


2

= kx ykA + 2 hy, xiA kxkA + kykA ,


ou

kykA 2 hy, xiA = kx ykA kxkA .


Logo, podemos escrever

1
1
2
2
kekA kxkA .
2
2
Conseq
uentemente, minimizar o funcional f e equivalente a minimizar a A-norma do erro.
Agora, em um metodo de descida, depois de j iteracoes temos:

ej = x xj = x x0 0 p0 + 1 p1 + . . . + j1 pj1

= e0 0 p0 + 1 p1 + . . . + j1 pj1 .
2
Logo, minimizar ej A e equivalente a minimizar
0

e 0 p0 + 1 p1 + . . . + j1 pj1 ,
A
f (y) =

(4.71)

o que por sua vez e equivalente a encontrar a melhor aproximacao do vetor e0 no subespaco Wj = p0 , p1 , . . . , pj1 .
Esta e dada pelo lema da melhor aproximacao:

Rodney Josue Biezuner

115

4.26 Proposi
c
ao. Sejam A Mn (R) uma matriz simetrica positiva definida, v Rn e W um subsespaco
n
de R . Ent
ao existe um u
nico w W tal que
kv wkA = min kv zkA .
zW

O vetor w e caracterizado pela condic


ao v w A W .
j
Segue deste resultado que e A e minimizado quando escolhemos p = 0 p0 + 1 p1 + . . . + j1 pj1 Wj
tal que ej = e0 p satisfaz
ej A pi para i = 1, . . . , j 1.
(4.72)
Defini
c
ao. Dois vetores y, z que sao ortogonais com respeito ao produto interno h, iA , isto e, tais que
hy, ziA = 0
sao chamados conjugados.
Nosso objetivo entao e desenvolver um metodo em que o erro a cada passo e conjugado com todas as direcoes
de busca anteriores. O proximo resultado, que e basicamente uma reafirmacao da Proposicao 4.25, mostra
que em qualquer metodo de descida em que a busca na reta e exata satisfaz automaticamente ej A pj1 ,
isto e, (4.72) e valido para a u
ltima iteracao (o erro da iteracao presente e A-ortogonal `a direcao de busca
da iteracao anterior).
4.27 Proposi
c
ao. Seja xk+1 = xk + k pk obtido atraves de uma busca na reta exata. Ent
ao
rk+1 pk
e

ek+1 A pk .

Prova: Temos

b Axk+1 = b Axk k Apk ,

de modo que a seq


uencia dos resduos e dada pela formula
rk+1 = rk k Apk .
Logo,

k+1

,p

= rk+1 , pk k Apk , pk = rk , pk

Alem disso, como


segue que

(4.73)
k k
k k
p ,r
Ap , p = 0.
k
k
hp , Ap i

Aek+1 = rk+1 ,
k+1 k

e
, p A = Aek+1 , pk = rk+1 , pk = 0.

O significado geometrico deste resultado e que o mnimo do funcional f na reta xk + k pk ocorre quando a
derivada direcional de f na direcao de busca e zero, ou seja,
0=

f k+1
x
= f xk+1 , pk = rk+1 , pk .
pk

De acordo com a Proposicao 4.27, depois do primeiro passo temos e1 A p0 . Para manter os erros
subseq
uentes conjugados a p0 , como
ek+1 = x xk+1 = x xk k pk

Rodney Josue Biezuner


ou

116

ek+1 = ek k pk ,

(4.74)
0

basta escolher as direcoes de busca subseq


uentes conjugadas a p . Se escolhemos p conjugado a p , obtemos
x2 para o qual o erro satisfaz e2 A p1 ; como p1 A p0 , segue de (4.74) que e2 A p0 tambem. Para manter
os erros subseq
uentes conjugados a p0 e p1 , basta escolher as direcoes de busca subseq
uentes conjugadas a
0
1
p e p . Assim, vemos que para obter a condicao (4.72) basta escolher as direcoes de busca de tal forma que
pi A pj

para todos i 6= j.

Um metodo com estas caractersticas e chamado um m


etodo de dire
c
oes conjugadas. Estes resultados
sao resumidos na proposicao a seguir:
4.28 Teorema. Se um metodo emprega direc
oes de busca conjugadas e performa buscas na reta exatas,
ent
ao
ej A pi para i = 1, . . . , j 1,
para todo j. Conseq
uentemente

e = min e0 p ,
A
A
pWj

onde Wj = p0 , p1 , . . . , pj1 .

Prova: A demonstracao e por inducao. Para j = 1, temos e1 A p0 pela Proposicao 4.27 porque a busca
na reta e exata. Em seguida, assuma ej A pi para i = 1, . . . , j 1; queremos mostrar que ej+1 A pi
para i = 1, . . . , j. Como
ej+1 = ej j pj ,
para i = 1, . . . , j 1 temos
j+1 i

e , p A = ej j pj , pi A = ej , pi A j pj , pi A = 0 0 = 0
porque as direcoes de busca sao conjugadas. ej+1 A pj segue novamente da Proposicao 4.27.
Quando a direcao inicial e dada pelo vetor gradiente de f , como na primeira iteracao do metodo da descida
mais acentuada, obtemos o m
etodo do gradiente conjugado. As direcoes subseq
uentes sao escolhidas
atraves de A-ortogonalizar o resduo (ou vetor gradiente de f , que e a direcao de busca em cada iteracao
do metodo da descida mais acentuada) com todas as direcoes de busca anteriores, para isso utilizando o
algoritmo de Gram-Schmidt. Assim, dado um chute inicial p0 , a primeira direcao e

p0 = f x0 = b Ax0 = r0
ou seja, a direcao inicial e o primeiro resduo:
p0 = r0 .

(4.75)

Depois de k passos com direcoes de busca conjugadas p0 , . . . , pk , escolhemos


pk+1 = rk+1

k
X

cki pi

(4.76)

i=0

onde os cki sao dados pelo algoritmo de Gram-Schmidt:


k+1 i
r
,p A
cki =
.
i
hp , pi iA

(4.77)

de forma que pk+1 A pi para todos i = 1, . . . , k. Felizmente, como veremos a seguir depois de algum trabalho
preliminar (Corolario 4.32), cki = 0 para todo i exceto i = k, o que torna necessario que apenas a direcao

Rodney Josue Biezuner

117

de busca mais recente pk seja armazenada na memoria do computador, o que garante que a implementacao
do gradiente conjugado e eficiente:
k+1 k
k+1

r
,p A k
r
, Apk k
k+1
k+1
k+1
p
=r

p =r

p .
(4.78)
hpk , pk iA
hpk , Apk i
Esta e a modificacao do metodo do gradiente conjugado em relacao ao metodo da descida mais acentuada,
em que pk+1 = rk+1 .
co de Krylov Kj (A, v) e o subespaco
Defini
ao. Dada uma matriz A Mn (C) e um vetor v Cn , o espa
c
v, Av, . . . , Aj1 v .
4.29 Teorema. Depois de j iteraco
es do algoritmo do gradiente conjugado (com rk 6= 0 em cada iterac
ao),
temos
0 1

p , p , . . . , pj1 = r0 , r1 , . . . , rj1 = Kj A, r0 .
Prova: A demonstracao e por inducao. O resultado e trivial para j = 0, pois p0 = r0 . Assuma o resultado
valido para j 1. Em primeiro lugar, mostraremos que
0 1

(4.79)
r , r , . . . , rj Kj+1 A, r0 .

j1
Em vista da
hipotese de indu
cao,
basta mostrar que rj Kj+1 A, r0 . Como rj = rj1 j1 Ap
e

j1
0
0
j1
0
r
Kj A, r Kj+1 A, r por hipotese de indu
c
a

o,
basta
provar
que
Ap

K
A,
r
.
Mas,
j+1

tambem por hipotese de inducao, pj1 Kj+1 A, r0 , logo

Apj1 Kj A, Ar0 = Ar0 , A2 r0 , . . . , Aj r0 r0 , Ar0 , A2 r0 , . . . , Aj r0 = Kj+1 A, r0 .


Em seguida, mostraremos que
0 1

p , p , . . . , pj r0 , r1 , . . . , rj .
(4.80)

Por hipotese de inducao, basta provar que pj r0 , r1 , . . . , rj . Isso segue de (4.76) e da hipotese de inducao.
Ate aqui provamos que
0 1

p , p , . . . , pj r0 , r1 , . . . , rj Kj+1 A, r0 .
(4.81)
Para provar que eles sao iguais, basta mostrar que eles tem a mesma dimensao. Isso decorre de

dim r0 , r1 , . . . , rj 6 j + 1,

dim Kj+1 A, r0 6 j + 1
e

dim p0 , p1 , . . . , pj = j + 1,

ou
ltimo porque os vetores p0 , p1 , . . . , pj s
ao vetores nao-nulos A-ortogonais.
4.30 Corol
ario. Depois de j iterac
oes do algoritmo do gradiente conjugado, temos

ej A Kj A, r0
para todo j.
Prova: Segue imediatamente do teorema anterior e do Teorema 4.28.

Rodney Josue Biezuner

118

4.31 Corol
ario. Depois de j iterac
oes do algoritmo do gradiente conjugado, temos

rj Kj A, r0
para todo j.
Prova: Em vista do Teorema 4.29, basta provar que rj p0 , p1 , . . . , pj1 para todo j. Como Aej+1 = rj+1 ,
j+1 i j+1 i j+1 i
r , p = Ae , p = e , p A = 0
para todo i = 1, . . . , j 1, como vimos na demonstracao do Teorema 4.28.
4.32 Corol
ario. cki = 0 para todo i = 1, . . . , k 1.
Prova: Temos que provar que

k+1 i

r
, p A = rk+1 , Api = 0

para todos i = 1, . . . , k 1. Pelo Teorema 4.29, pi p0 , p1 , . . . , pi = r0 , Ar0 , . . . , Ai r = Ki+1 A, r0 ,


logo

Api Ar0 , A2 r0 , . . . , Ai+1 r Ki+2 A, r0 Kk+1 A, r0


e o resultado segue do corolario anterior.
4.33 Teorema. Seja A uma matriz simetrica positiva definida nn. Ent
ao o metodo do gradiente conjugado
converge em n iterac
oes.
Prova: Se fizemos n 1 iteracoes em obter x, pelo Corolario 4.32 os vetores r0 , r1 , . . . , rn1 formam uma
base ortogonal
Rn . Depois
iteracao, de acordo com este mesmo corolario o resduo rn
para
den mais uma
n
0 1
n1
n
satisfaz r r , r , . . . , r
= R , logo r = 0.
De fato, na maioria das aplicacoes o metodo do gradiente conjugado converge ainda mais rapido, se apenas
uma boa aproximacao e requerida. Defina o n
umero de condi
c
ao de uma matriz simetrica positiva definida
por
max { : e um autovalor de A}
(A) =
;
(4.82)
min { : e um autovalor de A}
assim, quanto maior o n
umero de condicao de uma matriz, ela e mais mal-condicionada e a convergencia
de metodos de descida e mais vagarosa. Pode-se provar a seguinte estimativa de erro para o metodo do
gradiente conjugado (veja [Strikwerda]):
!k
p
k

(A) 1
e 6 2 e0
p
.
(4.83)
A
A
(A) + 1
Esta estimativa e uma estimativa grosseira, mas mostra que o metodo do gradiente conjugado converge
mais rapidamente para matrizes bem-condicionadas ( (A) 1). Uma comparacao entre a velocidade de
convergencia dos dois metodos para a matriz de discretizacao da formula de cinco pontos aplicada ao problema
descrito na primeira secao deste captulo, desta vez com o tamanho das matrizes indicado na linha superior
da tabela, e dada a seguir [Watkins].
Descida Mais Acentuada
Gradiente Conjugado

n = 81
304
29

n = 361
1114
60

n = 1521
4010
118

No caso desta matriz de discretizacao no quadrado unitario temos


(n 1)
x
4

2n
= cot2
2 2
= cot2

2n
2
x
sen2
2n

sen2
(A) =

Rodney Josue Biezuner


de modo que

119
p

(A) 1

(A) + 1

1 x/2
1 x,
1 + x/2

o que da uma velocidade de convergencia para o metodo do gradiente conjugado duas vezes maior que a
do metodo SOR com o fator de relaxamento otimo. No entanto, deve-se ter em mente que enquanto que a
taxa de covergencia que obtivemos para o metodo SOR e precisa, a estimativa de erro (4.83) para o metodo
do gradiente conjugado e apenas um limitante superior grosseiro (veja [Watkins] para algumas estimativas
melhoradas).

Captulo 5

M
etodos Multigrid
5.1

Suavizac
ao de Erros

5.2

Operador Restric
ao e Operador Extens
ao

5.3

Ciclos V

5.4

Multigrid Completo

5.5

Converg
encia

5.6

Multigrid Adaptativo

5.7

Multigrid Alg
ebrico

120

Captulo 6

M
etodo de Elementos Finitos
O metodo de elementos finitos e um outro metodo de discretizacao de equacoes diferenciais parciais baseado
na reformulacao variacional da equacao. Por exemplo, como ja vimos exemplos, encontrar a solucao u de
uma equacao diferencial parcial dada e equivalente a resolver um problema de minimizacao
F (u) = min F (v)
vV

onde V e um conjunto de funcoes admissveis e F : V R e um funcional. Em geral, a dimensao de V e


infinita e portanto as funcoes em V nao podem ser descritas por um n
umero finito de parametros. Discretizar
este problema atraves de elementos finitos e substituir o espaco de dimensao infinita V por um subespaco de
dimensao finita Vh consistindo de funcoes simples (por exemplo, funcoes polinomiais). O problema discreto
passa a ser encontrar o minimizador do funcional F sobre o subespaco Vh . Espera-se que este seja uma
aproximacao do minimizador de F sobre o espaco completo V , isto e, uma aproximacao para a solucao da
equacao diferencial parcial.

6.1

O Caso Unidimensional

Nesta secao, desenvolveremos metodos de elementos finitos para resolver o problema de Dirichlet para a
equacao de Poisson em uma dimensao

u00 = f (x)
em [0, 1] ,
(6.1)
u (0) = u (1) = 0,
onde f e uma funcao contnua.

6.1.1

Formula
c
ao Variacional

Para obter uma formulacao variacional deste problema, defina

V = v C 0 ([0, 1]) : v 0 e contnua por partes em [0, 1] e v (0) = v (1) = 0


e
F (v) =

1
2

1
0

Z
2

|v 0 (x)| dx

f (x) v (x) dx =
0

1 0
kv kL2 hf, viL2 .
2

(6.2)

(6.3)

Veremos agora que uma solucao para o problema de Dirichlet (6.1), que sabemos existir por integracao
simples, e solucao tanto de um problema de minimizacao como de um problema variacional.

121

Rodney Josue Biezuner

122

6.1 Proposi
c
ao. (Problema Variacional) Se u V e uma soluc
ao do problema (6.1), ent
ao u e a soluc
ao
u
nica do problema variacional
hu0 , v 0 iL2 = hf, viL2
Prova. Multiplicando a equacao

para todo v V.

(6.4)

u00 (x) = f (x)

por uma func


ao teste v V e integrando sobre o intervalo (0, 1), obtemos
Z 1
Z 1
00

u (x) v (x) dx =
f (x) v (x) dx.
0

Integrando por partes, temos


Z 1
Z
1
u00 (x) v (x) dx = u (x) v (x)|0
0

Portanto,

Z
u0 (x) v 0 (x) dx =

u0 (x) v 0 (x) dx.

u0 (x) v 0 (x) dx =

f (x) v (x) dx.

A unicidade de solucao para o problema variacional (6.4) e facilmente determinada. Se u1 , u2 satisfazem


hu01 , v 0 iL2 = hf, viL2 ,
hu02 , v 0 iL2 = hf, viL2 ,
para todo v V , entao

hu01 u02 , v 0 iL2 = 0

para todo v V , em particular para v = u1 u2 , donde


ku01 u02 kL2 = 0.
Isso implica u1 u2 = c para alguma constante c, e as condicoes de fronteira implicam que c = 0.
6.2 Proposi
c
ao. (Problema de Minimizacao) u V e uma soluc
ao do problema variacional (6.4), se e
somente se u satisfaz
F (u) = min F (v) .
(6.5)
vV

Prova. Suponha que u satisfaz (6.4). Dado v V , escreva w = u v. Temos


1 0
1
1
ku + w0 kL2 hf, u + wiL2 = ku0 kL2 + hu0 , w0 i + kw0 kL2 hf, uiL2 hf, wiL2
2
2
2
1 0
1
0
0
0
= ku kL2 hf, uiL2 + hu , w i hf, wiL2 + kw kL2
2
2
1
0
= F (u) + kw kL2 > F (u) .
2

F (v) = F (u + w) =

Reciprocamente, suponha que u e um minimizador para o funcional F em V . Considere a funcao quadratica


g : R R definida por
g (t) = F (u + tv) .
Temos
t2
1 0
ku kL2 + t hu0 , v 0 i + kv 0 kL2 hf, uiL2 t hf, viL2
2
2
t2 0
0 0
= kv kL2 + t [ hu , v i hf, viL2 ] + F (u) .
2

g (t) =

Rodney Josue Biezuner

123

Como u e um ponto de mnimo para F , 0 e um ponto de mnimo para g, logo g 0 (0) = hu0 , v 0 i hf, viL2 = 0.

O problema variacional e chamado metodo de Galerkin, enquanto que o problema de minimizacao e


chamado metodo de Ritz. Coletivamente, eles sao chamados simplesmente de metodo de Ritz-Galerkin.

6.1.2

Elementos Finitos Lineares por Partes

Vamos agora construir um subespaco Vh de dimensao finita de V consistindo das funcoes lineares por partes
em [0, 1]. Seja
0 = x0 < x1 < x2 < . . . < xn < xn+1 = 1
uma particao do intervalo [0, 1] em n+1 subintervalos Ij = [xj1 , xj ] de comprimento hj = xj xj1 . Defina
Vh = {v V : v e linear em Ij para j = 0, . . . , n} .

(6.6)

Observe que para descrever uma funcao v Vh e suficiente conhecer os n valores v (x1 ) , . . . , v (xn ). Introduzimos uma base B = {1 , . . . , n } Vh para Vh declarando

1
se i = j,
(6.7)
j (xi ) =
0
se i 6= j,
(note que como estas funcoes sao nao-negativas, esta base e evidentemente nao-ortogonal). Assim as funcoes
v de V tem a representacao
v = v (x1 ) 1 + . . . + v (xn ) n .
(6.8)
As funcoes 1 , . . . , n sao chamadas func
oes base. Note que dim Vh = n. Observe que estas funcoes tem
suporte compacto, e que o suporte esta contido em dois subintervalos adjacentes.
Se uh Vh satisfaz o problema variacional
hu0h , v 0 iL2 = hf, viL2
entao em particular

0 0
uh , j L2 = hf, j iL2

para todo v Vh ,
para todo j = 1, . . . , n.

(6.9)
(6.10)

Escrevendo
uh = uh (x1 ) 1 + . . . + uh (xn ) n
ou
uh = u1 1 + . . . + un n ,

(6.11)

onde denotamos ui = uh (xi ), obtemos um sistema linear nas incognitas u1 , . . . , un :


n
X
0 0
i , j L2 ui = hf, j iL2

para j = 1, . . . , n.

(6.12)

i=1

A matriz do sistema

h01 , 01 iL2 . . . h01 , 0n iL2

..
..
A=
(6.13)

.
.
0
0
0
0
hn , 1 iL2 . . . hn , n iL2
0 0

e uma matriz simetrica porque i , j L2 = 0j , 0i L2 . Ela e chamada a matriz de rigidez e o vetor

hf, 1 iL2

..
b=

.
hf, n iL2

Rodney Josue Biezuner

124

e chamado o vetor de carga, terminologia emprestada das primeiras aplicacoes do metodo de elementos
finitos em mecanica de estruturas; o metodo foi inventado por engenheiros para tratar de tais problemas na
decada de 1950. As entradas da matriz de rigidez podem ser facilmente calculados. Primeiro observe que
0 0
i , j L2 = 0 se |i j| > 1,
porque, neste caso, onde 0i nao se anula, 0j se anula, e vice-versa. Em particular, segue que a matriz A
e uma matriz esparsa tridiagonal. A escolha especial de Vh e das funcoes base garantiu a esparsidade da
matriz de rigidez. Os elementos da diagonal principal da matriz de rigidez sao dados por
Z xi+1
Z xi
Z xi+1
1
1
1
1
2
0i (x) dx =
h0i , 0i iL2 =
dx
+
dx =
+
,
2
h2i+1
hi
hi+1
xi1
xi1 hi
xi
enquanto que os elementos das diagonais secundarias sao dados por

Z xi+1
Z xi+1
0 0
1
1
1
i , i+1 L2 =

dx =
.
0i (x) 0i+1 (x) dx =
hi+1 hi+1
hi+1
xi
xi
Resumindo,
0 0
i , j L2

1
1

hi
hi+1
1
=

hi+1
0

se i = j,
(6.14)

se |i j| = 1,
se |i j| > 1.

A matriz de rigidez tambem e positiva definida, Se = (1 , . . . , n ) Rn e um vetor nao-nulo e v =


temos
hA, i =

n
X

n
X
0 0
aij i j =
i , j L2 i j =

i,j=1

i,j=1

* n
X
i=1

i 0i ,

n
X
j=1

n
P
i=1

i i ,

= hv 0 , v 0 iL2 > 0.

j 0j
L2

No caso especial em que

1
=: h,
n+1
a matriz de rigidez e exatamente a matriz de discretizacao de diferencas finitas centradas:

2 1
1

2 1

..
..

.
.
1
1

2
.
.
h
..
. . 1

1
2 1
1
2
hi = xi xi1 =

6.2

O Caso Bidimensional

Nesta secao, desenvolveremos metodos de elementos finitos para resolver o problema de Dirichlet para a
equacao de Poisson em um domnio R2 :

u = f
em ,
(6.15)
u=0
sobre ,
onde f e uma funcao contnua.

Rodney Josue Biezuner

6.2.1

125

Formula
c
ao Variacional

Para obter uma formulacao variacional deste problema, defina


V = W01,2 ()
e

1
F (v) =
2

Z
2

|v (x)| dx

f (x) v (x) dx =

(6.16)
1
kvkL2 () hf, viL2 () .
2

(6.17)

Como vimos no Captulo 1, os problemas variacional e de minimizacao sao equivalentes e a solucao de ambos
e a solucao do problema (6.15):
6.3 Proposi
c
ao. u V e uma soluca
o do problema (6.15), se e somente se u e a soluc
ao u
nica do problema
variacional
hu, viL2 () = hf, viL2 () para todo v V,
(6.18)
ou, equivalentemente, se e somente se u satisfaz
F (u) = min F (v) .
vV

6.2.2

(6.19)

Triangula
co
es e Elementos Finitos Lineares por Partes

Vamos agora construir um subespaco Vh de dimensao finita de V consistindo das funcoes lineares por partes
em . Por simplicidade, assumiremos que e um domnio poligonal, significando que e uma curva poligonal (no caso geral, e necessario antes aproximar por uma curva poligonal). Fazemos uma triangula
c
ao
de subdividindo em um conjunto de triangulos que nao se sobrepoem, podendo se interceptar apenas
ao longo de uma aresta em comum ou em um vertice em comum:
=

N
[

Ti .

(6.20)

i=1

Esta triangulacao de e tambem chamada uma malha triangular e os vertices da triangulacao sao freq
uentemente chamados nodos. Definimos o par
ametro da malha
h = max (diam Ti ) .
i=1,...,N

(6.21)

Observe que o diametro de um triangulo e o comprimento de seu maior lado. Definimos o subespaco Vh de
dimensao finita de V por
Vh = {v V : v e contnua em e linear em Ti para i = 1, . . . , N } .

(6.22)

Para descrever uma funcao v Vh , e suficiente conhecer os n valores de v nos n nodos internos da triangulacao
de : x1 , . . . , xn (nos nodos da fronteira, v e nula). Introduzimos uma base B = {1 , . . . , n } Vh para Vh
declarando

1
se i = j,
j (xi ) =
(6.23)
0
se i 6= j.
As funcoes v de V tem a seguinte representacao em termos das func
oes base 1 , . . . , n :
v = v (x1 ) 1 + . . . + v (xn ) n

(6.24)

e dim Vh = n. Note que o suporte de j consiste dos triangulos que tem xn como um nodo comum. Tais
funcoes bases podem ser definidas da seguinte forma. Se Tk e um triangulo da triangulacao de que tem xi

Rodney Josue Biezuner

126

como vertice, sejam xi = x0 , y 0 , a1k = x1 , y 1 e a2k = x2 , y 2 os tres vertices de Tk ; definimos i em Tk


por

x x1 y 2 y 1 y y 1 x2 x1
i (x, y) = 0
.
(x x1 ) (y 2 y 1 ) (y 0 y 1 ) (x2 x1 )

Observe que i x0 , y 0 = 1 e i x1 , y 1 = i x2 , y 2 = 0. Se Tk e um triangulo da triangulacao de que


nao tem xi como vertice, entao definimos j 0 em Tk .
Se uh Vh satisfaz o problema variacional
huh , viL2 () = hf, viL2 ()

para todo v Vh ,

(6.25)

entao em particular
huh , j iL2 () = hf, j iL2 ()

para todo j = 1, . . . , n.

(6.26)

Escrevendo
uh = uh (x1 ) 1 + . . . + uh (xn ) n
ou
uh = u1 1 + . . . + un n ,

(6.27)

onde denotamos ui = uh (xi ), obtemos um sistema linear nas incognitas u1 , . . . , un :


n
X

hi , j iL2 () ui = hf, j iL2 ()

para j = 1, . . . , n.

(6.28)

i=1

A matriz de rigidez (isto e, a matriz do sistema)

h1 , 1 iL2 ()

..
A=
.
hn , 1 iL2 ()

...
...

h1 , n iL2 ()

..

.
hn , n iL2 ()

(6.29)

e uma matriz simetrica, positiva definida, pelos mesmos motivos que a matriz de rigidez no caso unidimensional e. Ela e esparsa porque o suporte da funcao base j e constitudo pelos triangulos que tem o vertice xj
em comum. De fato, hi , j iL2 () = 0 se xi e xj nao sao diretamente ligados pelo lado de um triangulo.
Para calcular o valor das entradas nao-nulas, e u
til usar a seguinte formula de mudanca de
coordenadas:

se
T e o triangulo de vertices (0, 0), (0, 1) e (1, 0) e Te e um triangulo qualquer com vertices x0 , y 0 , x1 , y 1 e
2 2
x , y , entao a aplicacao : T Te definida por

(, ) = x0 , y 0 + x1 x0 , y 1 y 0 + x2 x0 , y 2 y 0
e um difeomorfismo com

det d (, ) = x1 x0 y 1 y 0 x2 x0 y 2 y 0 ,
de modo que se F : Te R e uma funcao contnua, entao
Z
Z

F ( (, )) dxdy.
F (x, y) dxdy = x1 x0 y 1 y 0 x2 x0 y 2 y 0
Te

Rodney Josue Biezuner

6.2.3

127

Interpreta
c
ao Geom
etrica do M
etodo de Elementos Finitos

6.4 Lema. (Melhor Aproximacao) Se u V e a soluc


ao exata do problema de Dirichlet (6.15) e uh e a
soluc
ao aproximada dada pelo metodo de elementos finitos, ent
ao
ku uh kW 1,2 () 6 ku vkW 1,2 ()
0

(6.30)

para todo v Vh , ou seja, uh e a melhor aproximaca


o para u em Vh na norma W01,2 () .
Prova. Como
hu, viL2 () = hf, viL2 ()

para todo v V

e
huh , viL2 () = hf, viL2 ()

para todo v Vh ,

segue que
hu uh , viL2 () = 0

para todo v Vh .

(6.31)

Pela desigualdade de Cauchy, para todo v Vh vale entao


2

ku uh kL2 () = hu uh , u uh iL2 () + hu uh , uh viL2 ()


= hu uh , u viL2 ()
6 ku uh kL2 () ku vkL2 () ,
donde
ku uh kL2 () 6 ku vkL2 ()
para todo v Vh . Lembrando que a norma L2 do gradiente e uma norma em W01,2 (), pela desigualdade
de Poincare, segue o resultado.

6.3

Formulac
ao Abstrata do M
etodo dos Elementos Finitos

Denotaremos por V um espaco de Hilbert com produto escalar h, iV e correspondente norma induzida kkV .
Defini
c
ao. Uma forma bilinear a : V V R e limitada (ou contnua) se existe uma constante > 0
tal que
|a (u, v)| 6 kukV kvkV para todos u, v V.
(6.32)
a e coerciva se existe um n
umero > 0 tal que
2

|a (v, v)| > kvkV

para todo v V.

(6.33)

6.5 Lema. (Teorema de Lax-Milgram) Sejam V um espaco de Hilbert e a : V V R uma forma


bilinear limitada e coerciva em V . Ent
ao para todo funcional linear limitado f : V R existe um
u
nico u V tal que
a (u, v) = f (v) para todo v V.
Se a forma bilinear a que satisfaz as hipoteses do Teorema de Lax-Milgram for simetrica, isto e,
a (u, v) = a (v, u)

para todos u, v V,

(6.34)

entao ela define um produto interno em V , e a conclusao segue diretamente do Teorema de Representacao
de Riesz. Seja a uma forma bilinear limitada coerciva e f um funcional linear limitado em V . Consideremos
o funcional F : V R definido por
F (v) =

1
a (v, v) f (v) .
2

(6.35)

Rodney Josue Biezuner

128

No caso da equacao de Poisson com condicao de Dirichlet homogenea, temos V = W01,2 () e


Z
a (u, v) =
u v,
Z
f (v) =
f v,

de modo que a e simetrica.


6.6 Lema. Sejam V um espaco de Hilbert, a : V V R uma forma bilinear simetrica, limitada e
coerciva em V com
2
|a (v, v)| > kvkV para todo v V
e f : V R um funcional linear limitado em V com
|f (v)| 6 C kvkV

para todo v V.

Ent
ao existe uma u
nica soluc
ao u V para o problema variacional
a (u, v) = f (v)

para todo v V.

(6.36)

se e somente se existe uma u


nica soluc
ao u V para o problema de minimizac
ao
F (u) = min F (v) .
vV

Alem disso, existe de fato uma u


nica soluc
ao u V para estes problemas e ela satisfaz a seguinte
condic
ao de estabilidade:
C
kukV 6 .

Prova. A existencia de solucao para o problema variacional segue do teorema de Lax-Milgram. Suponha
que u satisfaz o problema variacional. Dado v V , escreva w = u v. Temos
1
a (u + w, u + w) f (u + w)
2
1
1
= a (u, u) + a (u, w) + a (w, w) f (u) f (w)
2
2
1
1
= a (u, u) + f (w) + a (w, w) f (u) f (w)
2
2
1

2
= F (u) + a (w, w) > F (u) + kwkV
2
2
> F (u) .

F (v) = F (u + w) =

Reciprocamente, suponha que u e um minimizador para o funcional F em V . Considere a funcao quadratica


g : R R definida por
1
a (u + tv, u + tv) f (u + tv)
2
1
t2
= a (u, u) + ta (u, v) + a (v, v) f (u) tf (v)
2
2
t2
= a (v, v) + t [ a (u, v) f (v)] + F (u) .
2

g (t) = F (u + tv) =

Como u e um ponto de mnimo para F , 0 e um ponto de mnimo para g, logo g 0 (0) = a (u, v) f (v) = 0
para todo v V .

Rodney Josue Biezuner

129

Para provar a estimativa de estabilidade, escreva


2

kukV 6 a (u, u) = f (u) 6 C kukV .

Observe que pelo Teorema de Lax-Milgram a solucao para o problema variacional existe mesmo se a forma
bilinear nao e simetrica. No entanto, neste caso nao existe um problema de minimizacao associado.
Seja Vh um subespaco de V de dimensao finita. Seja B = {1 , . . . , n } uma base para Vh e
v = v1 1 + . . . + vn n
a representacao de v nesta base. Se uh Vh satisfaz o problema variacional
a (uh , v) = f (v)

para todo v Vh ,

(6.37)

entao em particular
a (uh , j ) = f (j )

para todo j = 1, . . . , n.

(6.38)

Escrevendo
uh = u1 1 + . . . + un n ,

(6.39)

obtemos um sistema linear nas incognitas u1 , . . . , un :


n
X

a (i , j ) ui = f (j )

para j = 1, . . . , n.

(6.40)

i=1

A matriz do sistema

a (1 , n )

..

.
a (n , n )

a (1 , 1 ) . . .

..
A=
.
a (n , 1 ) . . .

e chamada matriz de rigidez.


ao a
6.7 Proposi
c
ao. Se a : V V R e uma forma bilinear simetrica, limitada e coerciva em V , ent
matriz de rigidez e simetrica e positiva definida.
Em particular, existe uma u
nica soluc
ao para o problema discretizado (6.37). Alem disso, vale a mesma
estimativa de estabilidade do lema anterior.
Prova. Seja A = (aij ). Se = (1 , . . . , n ) Rn e um vetor nao-nulo e v =

hA, i =

n
X

aij i j =

i,j=1

n
X

n
P
i=1

i i , temos

n
n
X
X
2
a (i , j ) i j = a
i i ,
j j = a (v, v) > kvkV > 0.

i,j=1

i=1

j=1

Vamos agora provar a seguinte estimativa de erro:


6.8 Proposi
c
ao. (Estimativa de Erro) Se u V e a soluc
ao exata para o problema variacional (6.36) e uh
e a soluc
ao do problema discretizado (6.37), ent
ao
ku uh kV 6
para todo v Vh .

ku vkV

(6.41)

Rodney Josue Biezuner

130

Prova. Como
a (u, v) = f (v)

para todo v V

e
a (uh , v) = f (v)

para todo v Vh ,

a (u uh , v) = 0

para todo v Vh .

segue que
(6.42)

Para todo v Vh vale entao


2

ku uh kV 6 a (u uh , u uh ) + a (u uh , uh v)
= a (u uh , u v)
6 ku uh kV ku vkV ,
donde
2

ku uh kV 6

ku vkL2 ()

para todo v Vh .
Introduzimos uma norma equivalente em V , induzida pela forma bilinear simetrica a, definindo
kvka = a (v, v)
De fato,

kvkV 6 kvka 6

1/2

(6.43)

kvkV .

Esta norma e chamada norma da energia.


ao exata para o problema variacional (6.36) e
6.9 Proposi
c
ao. (Melhor Aproximacao) Se u V e a soluc
uh e a soluc
ao do problema discretizado (6.37), ent
ao
ku uh ka 6 ku vka
para todo v Vh , ou seja, uh e a melhor aproximaca
o para u em Vh na norma da energia.
Prova. A demonstracao e analoga `a da proposicao anterior.

(6.44)

Captulo 7

Aproximac
ao de Autovalores do
Laplaciano
Neste captulo desejamos mostrar que tanto os autovalores da matriz de discretizacao, quanto os autovalores
da matriz de rigidez, sao aproximacoes para os autovalores do laplaciano, o que produz metodos numericos
para encontrar os autovalores do laplaciano em domnios arbitrarios.

7.1

Elementos Finitos

Como vimos, o problema de autovalor para o laplaciano com condicao de Dirichlet

u = u
em ,
u=0
sobre ,

(7.1)

pode ser formulado variacionalmente como


a (u, v) = hu, viL2 ()

para todo v V = W01,2 () ,

onde

(7.2)

Z
a (u, v) = hu, viL2 () =

u v.

A discretizacao correspondente de Ritz-Galerkin (isto e, elementos finitos) do problema de autovalor e


a (uh , v) = h huh , viL2 ()

para todo v Vh .

Escolhendo uma base B = {1 , . . . , n } para Vh , de modo que


uh =

n
X

ui i , v =

i=1

n
X

vi i

i=1

e
a (uh , v) =
huh , viL2 () =

n
X
i,j=1
n
X

ui a (i , j ) vj =

n
X

ui hi , j iL2 () vj = uth Av,

i,j=1

ui hi , j iL2 () vj = uth M v,

i,j=1

131

(7.3)

Rodney Josue Biezuner

132

onde

A = hi , j iL2 ()

16i,j6n

e a matriz de rigidez e

M = hi , j iL2 ()

16i,j6n

e a chamada matriz de massa, este problema toma a seguinte forma matricial:


Auh = h M uh .

(7.4)

Ou seja, e um problema de autovalor generalizado. Para transforma-lo em um problema de autovalor


normal, observe que a matriz de massa e simetrica e positiva definida, pois se = (1 , . . . , n ) Rn e um
n
P
vetor nao-nulo e v =
i i , temos
i=1

hM , i =

n
X

*
hi , j iL2 () i j =

i,j=1

n
X

i i ,

i=1

Logo, podemos decompor

n
X

+
j j

j=1

= hv, viL2 () > 0.


L2 ()

M = BtB

onde B tambem e simetrica positiva definida (por exemplo, a menos de similaridade ortogonal, B = M 1/2 ).
Definindo
e = B t AB 1 ,
A
u
eh = Buh ,
o problema de autovalor generalizado (7.4) e transformado no problema de autovalor:
euh = h u
Ae
eh .

(7.5)

Os autovalores em ambos os problemas sao iguais, mas nao as autofuncoes.

7.1.1

Resultados Preliminares

De agora em diante, alem da continuidade e coercividade da forma bilinear a (no caso da equacao de Poisson,
observe que podemos tomar a constante de coercividade igual a 1 usando a norma equivalente em W01,2 ())
e do fato que W01,2 () esta compactamente imerso em L2 (), assumiremos que {Vhi }, hi 0, sera sempre
uma seq
uencia de subespacos de dimensao finita de V que aproximam V no sentido que
lim dist (u, Vhi ) = 0

hi 0

para todo u V

(7.6)

ou, dito de outro modo,


lim inf {ku uh kV : uh Vhi }

hi 0

para todo uh V.

(7.7)

Nestas condicoes, pode-se provar que a solucao uh dada pelo metodo de elementos finitos converge na norma
de V para a solucao exata u (veja [Hackbusch]). Uma condicao suficiente para assegurar (7.6) e que
Vh1 Vh2 . . . Vhi Vhi+1 . . . V

[
i=1

Vhi e denso em V.

(7.8)

Rodney Josue Biezuner

133

Defina a forma bilinear


a (u, v) = a (u, v) hu, viL2 () .

(7.9)

Se a e coerciva com constante de coercividade , entao a tambem e coerciva para todo || < (veja Lema
7.2 a seguir). Em seguida, considere os n
umeros
() =

inf

sup |a (u, v)| ,

uV
vV
kukV =1 kvk =1

(7.10)

h () =

inf

sup |a (u, v)| .

uVh
vVh
kukV =1 kvk =1

(7.11)

A relacao entre os n
umeros () e h () e os respectivos problemas de autovalores e dada pelos Lemas 7.1
e 7.2 a seguir.
A uma forma bilinear contnua a : V V R podemos associar de forma u
nica um operador linear
contnuo L : V V 0 que satisfaz
a (u, v) = (Lu) (v) .
(7.12)
Alem disso, se
|a (u, v)| 6 C kukV kvkV
para todos u, v V , entao
kLk 6 C.
7.1 Lema. Sejam L e Lh os operadores lineares associados `
as formas bilineares a : V V R e a :
Vh Vh R, respectivamente.
Se n
ao e um autovalor, temos
1
,
() =

1
(L I)
1
.
h () =

1
(Lh I)
Prova. Se nao e um autovalor, entao o operador linear L I e invertvel pela alternativa de Fredholm.
Observe que L I e precisamente o operador linear associado `a forma bilinear a . Denotando A = L I,
temos


AA1 u0 (v)
|a (u, v)|
|(Au) (v)|
() = inf sup
= inf sup
= 0inf 0 sup
uV vV kukV kvkV
uV vV kukV kvkV
u V vV kA1 u0 kV kvkV
0
u6=0 v6=0

u6=0 v6=0

u 6=0 v6=0

1
|u (v)|
1
= 0inf 0
sup
= 0inf 0
ku0 kV
1
0
1
0k
u
k
kvk
u
u V kA
u V kA
vV
V
V
V
0
0
u 6=0

v6=0

u 6=0

1
.
=
kA1 k
A demonstracao para h () e analoga.
7.2 Lema. e um autovalor de (7.2) se e somente se () = 0.
h e um autovalor de (7.3) se e somente se h (h ) = 0.
Prova. Se e um autovalor de (7.2), entao por definicao existe u V tal que a (u, v) = 0 para todo v V ,
donde () = 0. Reciprocamente, se n
ao e um autovalor, pelo lema anterior () 6= 0. A demonstracao
para h () e analoga.

Rodney Josue Biezuner

134

7.3 Corol
ario. () e h () s
ao contnuas em C.
7.4 Lema. Se a : V V R e uma forma bilinear coerciva com
2

|a (v, v)| > kvkV

para todo v V,

ent
ao existe R tal que a tambem e coerciva. Alem disso,
() > || ,
h () > || .
Prova. Temos

|a (u, u)| > |a (u, u)| || kukL2 () > ( ||) kukV ,


de modo que a e coerciva sempre que || < . Para provar as desigualdades, note que se u V e kukV = 1
entao
sup |a (u, v)| > |a (u, u)| > || .
vV
kvkV =1

7.5 Lema. Seja K C compacto. Ent


ao existem n
umeros C > 0 e h > 0 independentes de K com
lim h = 0 tais que
h0

h () > C () h ,
() > Ch () h ,

(7.13)
(7.14)

para todo K.
Prova. Escolha R como no lema anterior. Defina operadores Z : V V e Zh : V Vh por
z = Z (u) e a solucao de a (z, v) = ( ) hu, viL2 () para todo v V,
zh = Zh (u) e a solucao de a (zh , v) = ( ) hu, viL2 () para todo v Vh .
A existencia e unicidade de z e zh e garantida pelo Teorema de Lax-Milgram. Observe que
a (u, v) = a (u z, v) ,

(7.15)

pois
a (u, v) = a (u, v) hu, viL2 ()
= a (u, v) hu, viL2 () ( ) hu, viL2 ()
= a (u, v) a (z, v) .
Usando a continuidade dos operadores Z , Zh com relacao a e a compacidade de K, seja CZ > 0 uma
constante positiva tal que

kZ k , Zh 6 CZ para todo K.
(7.16)
Denote por C uma constante de continuidade para a forma bilinear a , isto e,
|a (v, w)| 6 C kvkV kwkV

(7.17)

para todos u, v V , por C0 uma constante uniforme de continuidade para as formas bilineares a , K,
isto e,
|a (v, w)| 6 C0 kvkV kwkV ,
(7.18)

Rodney Josue Biezuner

135

para todos u, v V , para todo K, e


= || .

(7.19)

Consideremos a primeira desigualdade, (7.13). Da definicao de (), segue que para todo u V vale
() kukV 6 sup |a (u, v)| = sup |a (u z, v)| 6 C ku zkV .
vV
kvkV =1

(7.20)

vV
kvkV =1

Usando o Lema 7.4 e esta u


ltima desigualdade escrevemos entao
sup |a (u, v)| = sup |a (u zh , v)|

vVh
kvkV =1

vVh
kvkV =1

> h () ku zh kV
> ku zh kV
> (ku zkV kz zh kV )

()
Z Zh kukV
>
C
para todo u V . Escolhendo u Vh tal que kukV = 1 e
h () =

inf

sup |a (u, v)| = min

uVh
vVh
kukV =1 kvk =1

sup |a (u, v)| = sup |a (u, v)| ,

uVh
vVh
kukV =1 kvk =1

obtemos
h () >

vVh
kvkV =1

() Z Zh .
C

(7.21)

Portanto, (7.13) segue se provarmos que

lim sup Z Zh = 0.

(7.22)

h0 K

Da mesma forma, a demonstracao de (7.14) depende de (7.22). De fato, pela definicao de h () segue
que para todo uh Vh temos
h () kuh kV 6 sup |a (uh , v)| = sup |a (uh zh , v)| 6 C kuh zh kV .
vVh
kvkV =1

vVh
kvkV =1

Usando o Lema 7.4 e esta u


ltima desigualdade escrevemos
sup |a (uh , v)| = sup |a (uh z, v)|

vV
kvkV =1

vV
kvkV =1

> () kuh zkV


> kuh zkV
> (kuh zh kV kz zh kV )

h ()
Z Zh kuh kV
>
C
para todo uh Vh . Escolha u V tal que kukV = 1 e
() =

inf

sup |a (u, v)| = min

uV
vV
kukV =1 kvk =1
V

sup |a (u, v)| = sup |a (u, v)| .

uV
vV
kukV =1 kvk =1
V

vV
kvkV =1

(7.23)

Rodney Josue Biezuner

136

Como
sup |a (u uh , v)| 6 C0 ku uh kV ,

vV
kvkV =1

segue que
() + C0 ku uh kV > sup |a (u, v)| + sup |a (u uh , v)|
vV
kvkV =1

vV
kvkV =1

> sup |a (uh , v)|


vV
kvkV =1

>
donde

() >

h ()
Z Zh kuh kV ,
C

h () Z Zh kuh kV C0 ku uh kV .
C

Como para cada h podemos escolher uh tal que ku uh kV 0 quando h 0, por (7.7), (7.14) sera provado
se (7.22) for verdadeiro.
Para terminar a demonstracao do lema, provaremos agora (7.22). Suponha por absurdo que existe > 0,
{i } K e hi 0 tal que

Zi Zhii > .
Entao existe uma seq
uencia {ui } V com kui kV = 1 tal que

Zi (ui ) Zhii (ui ) > .


2
V
Pela compacidade de K e da imersao V L2 (), podemos assumir a menos de uma subseq
uencia que
i 0 ,
ui u0 em V 0 .
Segue do fato que a solucao dada por elementos finitos aproxima a solucao exata que

Z0 (u0 ) Zh0i (u0 ) 0.


V

Logo,

Zi (ui ) Zhii (ui ) 6 kZi (ui ) Z0 (ui )kV + Zh0i (ui ) Zhii (ui )
V
V

hi
+ kZ0 (ui u0 )kV + Z0 (u0 ui )
V

hi
+ Z0 (u0 ) Z0 (u0 )
V

6 2C |i 0 | + 2Cz ku0 ui kV 0 + Z0 (u0 ) Zh0i (u0 )


0
uma contradicao.

Rodney Josue Biezuner

7.1.2

137

Converg
encia dos Autovalores Discretos para os Autovalores Contnuos

A convergencia dos autovalores discretos para os autovalores exatos pode ser agora demonstrada:
7.6 Teorema. Sejam hi autovalores discretos de (7.3) tais que
lim hi = 0 .

(7.24)

Ent
ao 0 e um autovalor de (7.2).
Prova. Suponha por absurdo que 0 nao e um autovalor de (7.2). Entao, pelo Lema 7.2,
(0 ) = 0 > 0.
Como () e uma funcao contnua, existe 0 > 0 tal que
() >

0
>0
2

para todo D0 (0 ) = {z C : |z 0 | 6 0 }. Escolha K = D0 (0 ) no Lema 7.5 e sejam h e C os


n
umeros dados naquele lema. Como lim hi = 0, seja h0 > 0 tal que
h 6 C

0
4

para todo h 6 h0 . Segue dos Lemas 7.2 e 7.5 que para todo hi D0 (0 ) com hi 6 h0 nos temos
0 = hi (hi ) > C (hi ) hi > C

0
0
0
C
=C
> 0,
2
4
4

uma contradicao.
7.7 Lema. As func
oes () e h () n
ao possuem um mnimo positivo pr
oprio no interior de um compacto
K C.
Prova. Seja L o operador associado `a forma bilinear a. Sejam um ponto interior de K com () > 0
e > 0 suficientemente pequeno para que D () K e () > 0 para todo D (). Pelo Lema 7.2,
1
(L I) esta definida em D (), logo e holomorfica a. Pela formula integral de Cauchy,
I
1
(L zI)
1
1
dz
(L I) =
2i D ()
z
para todo D (). Da,

1
1

1
1
= (L I) 6 max (L zI) = max
,
()
zD ()
zD () (z)
de modo que
() >

min

zD ()

(z)

para todo D (). Portanto, () nao pode assumir um mnimo proprio em D ().
A demonstracao para h () e analoga.
A recproca do Teorema 7.6, isto e, que todos os autovalores reais podem ser aproximados por uma
seq
uencia de autovalores discretos, e dada no proximo resultado:
7.8 Teorema. Seja 0 um autovalor de (7.2). Ent
ao existem autovalores discretos h de (7.3) tais que
lim h = 0 .

h0

(7.25)

Rodney Josue Biezuner

138

Prova. Os autovalores do laplaciano sao isolados, logo pelo Lema 7.2


() > 0

para todo 0 < | 0 | <

se > 0 e suficientemente pequeno. Como () e contnua e D (0 ) e compacto, temos


= min () > 0.
D (0 )

Segue do Lema 7.5 que para todo D (0 ) e para todo h suficientemente pequeno temos
h <

C
1+

1
C

donde

h
(0 )
> h (0 )
= h (0 ) .
C
C
Em particular, h () tem um mnimo proprio em D (0 ). Pelo lema anterior, isso implica que existe
h D (0 ) tal que h (h ) = 0, isto e, h e um autovalor discreto.
h () > C () h > C h >

7.1.3

Converg
encia das Autofunco
es

A convergencia das autofuncoes segue do proximo teorema:


oes de (7.3) associadas respectivamentes aos autovalores discretos h e
7.9 Teorema. Sejam uh autofunc
satisfazendo kuh kV = 1 e lim h = 0 . Ent
ao existe uma subseq
uencia uhi que converge em V para
h0

uma autofunc
ao u0 associada ao autovalor 0 de (7.2) com ku0 kV = 1.
Prova. Usando o fato que V = W01,2 () esta compactamente imerso em L2 (), obtemos uma subseq
uencia
uhi convergente para u0 L2 (). Como no Lema 7.4, definimos
z0 = Z0 (u0 ) e a solucao de a (z0 , v) = (0 ) hu0 , viL2 () para todo v V,
zhi = Zh0i (u0 ) e a solucao de a (zhi , v) = (0 ) hu0 , viL2 () para todo v Vhi .
Dado > 0, existe h1 > 0 tal que
kz0 zhi kV <

(7.26)

se hi < h1 . A funcao uhi e uma solucao de


a (uhi , v) = (hi ) huhi , viL2 () para todo v Vhi ,
ou seja, uhi = Zhii (uhi ). Segue que
fi (v) := a (zhi uhi , v)
= (0 ) hu0 , viL2 () (hi ) huhi , viL2 ()
= (0 ) hu0 uhi , viL2 () (hi 0 ) huhi , viL2 ()
para todo v Vhi . Mas fi 0 em V 0 porque hi 0 e uhi u0 em L2 (), logo existe h2 > 0 tal que
kfi kV 0 6

Rodney Josue Biezuner

139

e
kzhi uhi kV <
para hi < h2 . Portanto,

se hi < min h1 , h2 , o que implica

kz0 uhi kV <


uhi z0

em V,

Em particular,
z0 = u0 ,
ou seja,
a (u0 , v) = (0 ) hu0 , viL2 () para todo v V,
e, portanto,
a (u0 , v) = 0 hu0 , viL2 () para todo v V.

(7.27)

Captulo 8

M
etodos Num
ericos para a Obtenc
ao
de Autovalores de Matrizes
Os autovalores de uma matriz A sao as razes do polinomio caracterstico de A
p () = det (I A) = n + an1 n1 + . . . + a1 + a0 .
Encontrar as razes de um polinomio nao e uma tarefa simples e nenhum dos algoritmos usados para encontrar
os autovalores de uma matriz e baseado nesta estrategia (alem disso, obter o polinomio caracterstico de
uma matriz grande tambem pode ser uma tarefa que consome muito tempo e recursos computacionais). Na
verdade, muitos algoritmos para encontrar razes de polinomios sao baseados em algoritmos para encontrar
autovalores de matrizes. Eles sao baseados no fato que, dado um polinomio monico p qualquer, ele e o
polinomio caracterstico da matriz companheira de p:

an1 an2 . . . a1 a0

1
0
...
0
0

.
..
.
0
1
0
0
A=

..
..
.
.

.
.
.
0
0
0
0
...
1
0
Assim, encontrar as razes do polinomio p e equivalente a encontrar os autovalores da matriz companheira
de p. Por exemplo, o comando roots em MATLAB encontra as razes de um polinomio transformando-o
primeiro em um polinomio monico e em seguida utilizando o eficiente algoritmo QR, discutido neste captulo,
para encontrar os autovalores da matriz companheira.
Diferente do caso da resolucao de sistemas lineares, em que existem metodos diretos eficientes para
matrizes grandes, esparsas ou nao, nao existem correspondentes metodos diretos para obter autovalores de
uma matriz (um metodo e chamado direto se a solucao e obtida apos um n
umero finito de passos). Isso e
devido ao teorema de Abel que diz que nao existe uma formula geral para obter as razes de um polinomio
de grau maior que 4; se existisse um procedimento finito para obter os autovalores de uma matriz, usando a
equivalencia entre as razes de um polinomio e os autovalores de sua matriz companheira, obteramos uma
formula geral para obter as razes de um polinomio, por mais complicada que fosse. Portanto, todos os
algoritmos para obter autovalores sao iterativos.

8.1

M
etodo das Pot
encias

O metodo das potencias e o algoritmo mais simples, mas ele pode apenas encontrar o maior autovalor de uma
matriz A. Para simplificar a exposicao, suponha que A e uma matriz diagonalizavel cujo maior autovalor e
140

Rodney Josue Biezuner

141

um autovalor simples. Ordene os autovalores de A na forma


|1 | > |2 | > . . . > |n |
e seja {v1 , . . . , vn } uma base correspondente de autovetores. 1 e chamado o autovalor dominante de A e
v1 um autovetor dominante. Quando A tem um autovalor dominante, este e um correspondente autovetor
dominante podem ser encontrados atraves do metodo das potencias, que consiste essencialmente em tomar
um vetor q arbitrario e considerar as potencias
q, Aq, A2 q, . . . , Ak q, . . .
ou seja,

Ak q = A Ak1 q .

Para quase todas as escolhas de q esta seq


uencia converge em um certo sentido para um autovetor dominante
de A. De fato, para a maioria das escolhas de q devemos ter
n
X

q=

ai vi

i=1

com a1 6= 0; raramente uma escolha aleatoria de q produzira um vetor no subespaco hv2 , . . . , vn i. Temos
Ak q =

n
X

ai ki vi ,

i=1

donde

"
Ak q = k1 a1 v1 +

n
X

ai

i=2

i
1

#
vi .

Embora Ak q se 1 > 1 e Ak q 0 se 1 < 1, como

i
1

k
0,

para todo i = 2, . . . , n, segue que a seq


uencia reescalada
qk =

Ak q
a1 v1
k1

converge para um autovetor dominante. No entanto, como o autovalor 1 nao e conhecido a priori, e
impossvel trabalhar com esta seq
uencia. Em geral, escolhemos um fator de escala k e definimos
qk+1 =

1
k+1

Aqk .

(8.1)

O fator de escala k e comumente escolhido como sendo o valor da coordenada de Aqk que tem o maior
valor absoluto. Deste modo, o maior componente de qk e igual a 1 e a seq
uencia converge para um autovetor
dominante cujo maior componente e 1.

8.1.1

Itera
c
ao Inversa e Iterac
ao com Deslocamento

O metodo das potencia permite apenas encontrar o autovalor dominante. Para obter o menor autovalor de
A, podemos aplicar o metodo das potencias `a matriz A1 , pois se e o menor autovalor de A, 1/ sera

Rodney Josue Biezuner

142

o maior autovalor de A1 . Este metodo e chamado metodo das potencias inverso ou iterac
ao inversa (em
contraste, o metodo das potencias e `as vezes chamado iterac
ao direta).
Para encontrar os demais autovalores da matriz A, observe que se A tem autovalores 1 , . . . , n , entao
A I tem autovalores 1 , . . . , n . O escalar e chamado um deslocamento. Podemos entao aplicar
1
o metodo das potencias `a matriz (A I) , pois o maior autovalor desta matriz e 1/ ( ), onde e o
autovalor de A mais proximo de . De fato, se
1

(A I)

v = v,

entao v = (A I) v, donde

1
Av = +
v.

Assim, podemos escolher quais autovalores de A encontrar atraves da escolha do deslocamento . Este
metodo e chamado iterac
ao com deslocamento. Ele e particularmente eficiente quando possumos boas
estimativas para os autovalores de A.
muito importante notar que tanto na iteracao inversa, quanto na iteracao com deslocamento, em
E
nenhum momento e necessario calcular a inversa A1 explicitamente, o que consumiria muito tempo e
recursos. Embora as iteradas satisfazem
1
1
qk+1 =
(A I) qk ,
k+1
basta resolver o sistema
(A I) qek+1 = qk
e entao tomar
qk+1 =

8.2

1
k+1

qek+1 .

Iterac
ao de Subespacos

O metodo de potencias pode ser visto como uma iteracao de subespacos


S0 = hqi ,
S1 = AS,
S2 = A2 S,
..
.
Sk = Ak S,
..
.
que convergem para o subespaco T = hv1 i associado ao autovalor dominante de A. Esta ideia pode ser
tornada mais precisa quando se define a distancia entre dois subespacos vetoriais.
Defini
c
ao. Dados dois subespacos vetoriais E, F de um espaco vetorial V de dimensao finita com produto
interno, cujas dimensoes m = dim E, p = dim F satisfazem
m > p > 1,
os
angulos principais 1 , . . . , p [0, /2] entre E e F sao definidos recursivamente por
cos j =

max

max

uE
vF
kuk=1
kvk=1
hu,ui i=0
hv,vi i=0
para i=1,...,j1 para i=1,...,j1

hu, vi = huj , vj i .

Os vetores {u1 , . . . , up } e {v1 , . . . , vp } sao chamados os vetores principais entre os subespacos E e F .

Rodney Josue Biezuner

143

Em outras palavras, escolha vetores u1 , v1 tais que o maximo


max max hu, vi

uE vF
kuk=1 kvk=1

e realizado nestes vetores, e defina


cos 1 = hu1 , v1 i .
Por exemplo, se dim E = 2 e dim F = 1, entao 1 e o maior angulo que a reta F faz com retas de E; se
dim E = dim F = 2, entao 1 e o maior angulo entre uma reta de E e uma reta de F . Em seguida, escolha
vetores u2 , v2 tais que o maximo
max max hu, vi
uE
vF
kuk=1
kvk=1
hu,u1 i=0 hv,v1 i=0

e realizado nestes vetores, e defina


cos 2 = hu2 , v2 i .
Por exemplo, se dim E = dim F = 2, entao 2 = 0 porque u2 = v2 . E assim por diante definimos os angulos

principais restantes 3 , . . . , p . Angulos


principais e vetores principais aparecem em aplicacoes de estatstica
e permitem a definicao de uma nocao de distancia entre subespacos vetoriais de mesma dimensao.
Defini
c
ao. Dados dois subespacos vetoriais de mesma dimensao S1 , S2 V a dist
ancia dist (S1 , S2 ) entre
S1 e S2 e o seno do maior angulo principal entre eles.
Dada uma seq
uencia de subespacos {Sk } V e um subespaco T V , todos de mesma dimensao,
dizemos que Sk converge para T , denotado por
Sk T
se
dist (Sk , T ) 0.
8.1 Teorema. Seja A Mn (F) uma matriz diagonaliz
avel com autovalores 1 , . . . , n F satisfazendo
|1 | > |2 | > . . . > |n |
Seja B = {v1 , . . . , vn } Fn uma base de autovetores correspondente. Suponha que |m | > |m+1 | para
algum m. Sejam
Tm = hv1 , . . . , vm i ,
Um = hvm+1 , . . . , vn i .
Seja S um subespaco m-dimensional qualquer de Fn tal que S Um = {0}. Ent
ao existe uma constante
C > 0 tal que

m+1 k

dist Ak S, Tm 6 C
para todo k.
m
Em particular, Ak S Tm .
Prova. Embora nao demonstraremos o Teorema 8.1 rigorosamente, daremos uma ideia da demonstracao.
Seja q S um vetor arbitrario. Entao q se escreve de maneira u
nica na forma
q=

m
X
i=1

a i vi +

n
X
i=m+1

ai vi =: q1 + q2

Rodney Josue Biezuner

144

com q1 Tm e q2 Um . Como q
/ Um , necessariamente q1 6= 0, isto e, ai 6= 0 para algum ndice i = 1, . . . , m.
Em primeiro lugar, note que os subespacos Ak S sao todos m-dimensionais. De fato, |m | > |m+1 | implica
que nenhum dos autovalores 1 , . . . , m e o autovalor nulo, logo ker A Um . Como S Um ={0},
segue
que A e injetiva sobre S logo dim S = dim (AS). Mais geralmente, como Ak Tm = Tm , temos ker Ak Um
para todo k. Alem disso, Ak S Um = {0}, pois se q = q1 + q2 S e um vetor arbitrario com
Pmq1 Tm e
q2 Um , segue que a componente Ak q1 de Ak q em Tm e nao-nula para todo k, pois Ak q1 = i=1 ai k vi e
ai 6= 0 para algum ndice i = 1, . . . , m. Portanto, dim (AS) = dim (AS) = . . . = dim Ak S .
Temos
k

m1
n
X i k
X
Ak q
i
=
v
+
a
v
+
vi .
a
a
i
m m
i
i
km
m
m
i=1
i=m+1
Os coeficientes da componente em Tm crescem, ou pelo menos nao decrescem, enquanto que os coeficientes
da
em Um tendem a zero com taxa igual a ou melhor que m+1 /m . Portanto, toda seq
uencia
kcomponente

A q converge para um vetor em Tm com a taxa de convergencia dada no enunciado. O limite Ak S nao
pode ser um subespaco proprio de Tm porque ele tem dimensao m.
Tm e chamado o subespa
co invariante dominante de A de dimensao m.
Para fazer uma iteracao de subespacos na pratica, e necessario escolher uma base
0 para 0osubespaco a
ser iterado, iterando
todos
os
vetores
desta
base
simultaneamente.
Assim,
se
B
=
q1 , . . . , qm e uma base
0

0
para S, Bk = Ak q10 , . . . , Ak qm
e uma base para Ak S.
Por
outro
lado,
j
a
vimos
que trabalhar com os

vetores Ak qj0 pode ser problematico, pois pode ocorrer Ak qj0 ouAk qj0 0; seria necessario fazer

0
convergem
um reescalamento a cada iteracao. Pior que isso, as seq
uencias de vetores Ak q10 , . . . , Ak qm
0
. , A k qm
cada uma para o autovetor dominante v1 , como vimos na secao anterior, logo osvetores Ak q10 , . .
k 0
k 0
apontam aproximadamente para a mesma direcao v1 para m grande, logo Bk = A q1 , . . . , A qm nao e
uma boa base para Ak S (dizemos que Bk e uma base mal-condicionada): pequenas perturbacoes em um dos
vetores-base podem fazer uma grande diferenca no espaco.
Deve-se portanto substituir a base obtida em cada iteracao por uma base bem-condicionada. A maneira
mais
a
vel de fazer isso e ortonormalizar a base.
Assim, come
ca-se com uma base ortonormal B0 =

0 confi
0
0
para AS. Atraves de um processo de
para S e obtem-se a base Be1 = Aq10 , . . . , Aqm
q 1 , . . . , qm
ortonormaliza
c
a

o,
como
o
algoritmo
de
Gram-Schmidt,
a
partir
de Be1 obt
base ortonormal

em-se uma

k
1
para Ak S, obtepara AS. Em geral, dada uma base ortonormal Bk = q1k , . . . , qm
B1 = q11 , . . . , qm
k+1

k
k+1
mos uma base ortonormal Bk+1 = q1 , . . . , qm
.
para Ak+1 S a partir da base Bek+1 = Aq1k , . . . , Aqm
Este procedimento e chamado itera
c
ao simult
anea com ortonormaliza
c
ao ou simplesmente itera
c
ao
simult
anea.

8.3

M
etodo QR

O algoritmo mais usado para calcular o conjunto completo de autovalores de uma matriz e o algoritmo
QR, desenvolvido simultanea e independentemente por Francis e Kublanovskaya em 1961. Ele pode ser
compreendido a partir do processo de iteracao simultanea.
o que acontece quando o processo de iteracao simultanea e aplicado a uma base B0 =
0 Consideremos

q1 , . . . , qn0 de vetores ortonormais para Fn . Como antes, assumimos que A e diagonalizavel com autovalores
1 , . . . , n e B = {v1 , . . . , vn } e uma base correspondente de autovetores. Assuma
|m | > |m+1 |
para m = 1, . . . , n 1, e defina

0
Sm = q10 , . . . , qm
,
Tm = hv1 , . . . , vm i ,
Um = hvm+1 , . . . , vn i .

Rodney Josue Biezuner

145

Assuma tambem que Sm Um = {0} para m = 1, . . . , n 1. Pelo Teorema 8.1,

k
Ak Sm = q1k , . . . , qm
Tm
com velocidade de convergencia igual a |m+1 | / |m |.
b k a matriz unitaria cujas colunas sao os vetores ortonormais q k , . . . , qnk e denote
Seja Q
1
b k AQ
bk .
Ak = Q

(8.2)

Como Ak e similar a A, Ak possui os mesmos autovalores de A. Para k grande, as primeiras m colunas de


b k sao proximas ao subespaco invariante Tm . Se estas colunas gerassem exatamente o subespaco Tm , entao
Q
Ak teria a forma em blocos
"
#

k
Ak11 kk
A12 k(nk)

Ak =
(8.3)
0(nk)k
Ak22 (nk)(nk)
e os autovalores 1 , . . . , k seriam os autovalores do bloco Ak11 . Como estas colunas apenas aproximam Tm ,
ao inves de um bloco nulo devemos obter um bloco Ak21 cujas entradas sao proximas de zero. Pode-se provar
que de fato Ak21 0. Isso acontece para todo k, de modo que Ak converge para uma matriz triangular, cujos
elementos na diagonal principal sao os autovalores 1 , . . . , n de A. Se A for uma matriz hermitiana, entao
Ak tambem sera hermitiana e Ak convergira para uma matriz diagonal.
O algoritmo QR e uma variante da iteracao de subespacos que produz a seq
uencia (Ak ) diretamente.

8.3.1

O Algoritmo QR

Para obter o algoritmo QR, vamos colocar a iteracao simultanea em forma matricial. Assumiremos que A
e invertvel. Depois de k iteracoes, temos os vetores ortonormais q1k , . . . , qnk , que sao as colunas da matriz
b k , isto e,
unitaria Q

b k = q1k . . . qnk .
(8.4)
Q
Denote

bk =
Bk+1 = AQ

Aq1k

...

Aqnk

(8.5)

Em seguida, o processo de Gram-Schmidt classico e aplicado aos vetores linearmente independentes bk+1
=
1
k+1
k
k+1
=
Aq
(da

a
hip
o
tese
de
que
A

e
invert
vel)
para
obter
vetores
ortonormais
q
,
.
.
.
,
q
Aq1k , . . . , bk+1
n
n
n
1
b k+1 .
que serao as colunas da matriz unitaria Q
Para expressar o algoritmo de Gram-Schmidt em forma matricial, lembre-se que para obter vetores
ortonormais q1 , . . . , qn a partir de vetores linearmente independentes b1 , . . . , bn neste processo primeiro ortogonalizamos, obtendo os vetores ortogonais
qe1 = b1 ,
qe2 = b2

hb2 , qe1 i
qe1 ,
he
q1 , qe1 i

..
.
qem = bm

m1
X
j=1

hbm , qej i
qej ,
he
qj , qej i

..
.
qen = bn

n
X
hbn , qej i
j=1

he
qj , qej i

qejk+1 .

Rodney Josue Biezuner

146

e depois normalizamos obtendo os vetores ortonormais


qe1
,
ke
q1 k

q1 =
..
.

qen
.
ke
qn k

qn =

Podemos escrever o processo de ortogonalizacao na forma


qem = bm

m1
X

hbm , qj i qj ,

j=1

qm =

qem
,
ke
qm k

ou
qem = bm

m1
X

rjm qj ,

(8.6)

j=1

qm =

1
qem ,
rmm

(8.7)

onde
rjm = hbm , qj i ,
rmm = ke
qm k .

se j = 1, . . . , m 1,

(8.8)
(8.9)

Os vetores b1 , . . . , bn podem entao ser escritos diretamente em funcao dos vetores q1 , . . . , qn :


bm =

m1
X

rjm qj + rmm qm ,

(8.10)

j=1

ou seja,
b1 = r11 q1 ,
b2 = r12 q1 + r22 q2 ,
b3 = r13 q1 + r23 q2 + r33 q3
..
.
bn = r1n q1 + r2n q2 + . . . + rnn qn
Em forma matricial, se definirmos rjm = 0 sempre que j > m e considerarmos a matriz
R = (rij ), temos

r11 r12 r13 . . .


0 r22 r23 . . .

0 r33 . . .
b1 b2 b3 . . . bn = q1 q2 q3 . . . qn 0
..
..
..
..
.
.
.
.
0

...

triangular superior
r1n
r2n
r3n
..
.
rnn

Rodney Josue Biezuner

147

ou
B = QR

(8.11)

Esta e a chamada decomposic


ao QR de uma matriz invertvel B em um produto de uma matriz unitaria Q
(ortogonal, se B for uma matriz real) e uma matriz triangular superior com entradas diagonais reais positivas
R.
Portanto, usando a decomposicao QR, um passo de iteracao simultanea pode ser expresso em forma
matricial como
bk = Q
b k+1 Rk+1 ,
Bk+1 = AQ
(8.12)
onde Rk+1 e a matriz triangular superior definida por

Aqjk , qjk+1
(Rk+1 )jm =

Aqjk , Aqjk

se j > m,
se j = 1, . . . , m 1,
se j = m.

(8.13)

que comecemos a iteracao simultanea a partir dos vetores da base canonica, isto e,
0 Agora 0suponha

b 0 = I. Entao
q1 , . . . , qn = {e1 , . . . , en }, de modo que Q
b 0 = A,
B1 = AQ
donde

b 1 R1 .
A=Q

Da,

b 1 AQ
b 1 = R1 Q
b1 .
A1 = Q

b 1 , escrevemos
Denotando Q1 = Q
A = Q1 R1
e
A1 = R1 Q1 .
No proximo passo,

(8.14)

b1 = Q
b 2 R2 .
B2 = AQ

Observando que

b 2 R2 ,
b1 = Q
b 1 Q
b 1 AQ
A1 = Q

definindo

b 1 Q
b2
Q2 = Q

obtemos a decomposicao QR da matriz A1 :


A1 = Q2 R2 .
Da,

(8.15)

b 2 AQ
b2 = Q
b 2 Q
b 1 R1 Q
b 2 = Q2 R1 Q
b 1 Q2 = Q2 A1 Q2 .
A2 = Q

Como Q2 A1 = R2 , segue que

A2 = R2 Q2 .

(8.16)

Ak1 = Qk Rk ,
Ak = Rk Qk ,

(8.17)
(8.18)

Em geral,

isto e, obtemos primeiro a decomposicao QR da matriz Ak1 e a partir dela obtemos a proxima iterada, a
matriz Ak .

Rodney Josue Biezuner

8.3.2

148

Implementa
c
ao Eficiente do Algoritmo QR

O algoritmo QR da forma como introduzido na secao anterior e altamente ineficiente. Cada decomposicao
QR
O n3 operacoes de ponto flutuante e a multiplicacao de matrizes que lhe segue tambem custa
custa

3
O n operacoes de ponto flutuante. Alem disso, a velocidade de convergencia tambem e muito lenta.
O primeiro problema e resolvido quando se reduz a matriz A `a sua forma de Hessenberg. Uma decomposicao QR de uma matriz na forma de Hessenberg e apenas O n2 operacoes de ponto flutuante para uma
matriz geral e O (n) operacoes de ponto flutuante para uma matriz hermitiana.
Defini
c
ao. Dizemos que uma matriz A = (aij ) e uma matriz de Hessenberg superior se aij = 0 sempre
que i > j + 1.
Em outras palavras, uma matriz de Hessenberg

0
0

superior tem a forma


.
0
0 0

Observe que uma matriz hermitiana de Hessenberg e uma matriz tridiagonal. Toda matriz complexa e
semelhante a uma matriz na forma de Hessenberg superior atraves de uma matriz unitaria, isto e, dada
A Mn (C), existe uma matriz unitaria Q tal que
B = Q AQ
3
coes de ponto flutuante. Detalhes podem ser
e de Hessenberg superior. O custo para isso e de 10
3 n opera
vistos em [Watkins]. Se Ak1 e uma matriz de Hessenberg superior, entao a matriz Ak obtida atraves do
metodo QR tambem e de Hessenberg superior. De fato, da decomposicao QR de Ak1 , Ak1 = Qk Rk ,
obtemos Qk = Ak1 Rk1 . Como a inversa de uma matriz triangular superior e uma matriz triangular
superior, segue que Rk1 e triangular superior. O produto de uma matriz triangular superior e de uma
matriz de Hessenberg superior, em qualquer ordem, sempre e uma matriz de Hessenberg superior. Segue
que Qk e de Hessenberg superior e da que Ak = Rk Qk e de Hessenberg superior. Assim, se comecarmos
com uma matriz de Hessenberg superior, em cada passo
QR estaremos
trabalhando com uma matriz de
Hessenberg superior e o custo computacional cai de O n3 para O n2 (ou ate mesmo O (n) se a matriz for
hermitiana), uma reducao significativa.
A velocidade de convergencia do algoritmo QR pode ser acelerada pela estrategia de deslocamento. Com
efeito, como a taxa de convergencia do metodo depende da razao |m+1 | / |m |, ela pode ser melhorada
quando esta razao e decrescida. Isso pode ser feito atraves de deslocamento; |m+1 | / |m | pode
ser tornado arbitrariamente proximo a zero escolhendo um deslocamento arbitrariamente proximo a m+1 .
A escolha do deslocamento pode ser feita atraves do proprio metodo QR: depois de algumas iteracoes, os
elementos na diagonal principal de Ak sao aproximacoes dos autovalores de A.
O metodo pode ter sua velocidade de convergencia ainda mais acelerada atraves do uso de uma tecnica
chamada defla
c
ao. Suponha que obtivemos uma boa aproximacao para o autovalor de menor modulo n
(como este autovalor tem o menor modulo, ele deve ser o melhor aproximado pelas iteracoes QR iniciais usadas
para encontrar boas aproximacoes para os autovalores). Aplicando o algoritmo QR `a matriz C = A I,
obteremos uma convergencia muito rapida, de modo que apos poucas iteracoes a matriz Ck +I (adicionando
o deslocamento de volta) tera aproximadamente a forma

bk

...
A
.
Ck + I =


0 0 0
n

Rodney Josue Biezuner

149

bk , que e uma matriz (n 1) (n 1), de modo que


Os autovalores restantes de A serao os autovalores de A
podemos efetuar iteracoes subseq
uentes nesta matriz. Operando desta forma, a cada autovalor encontrado
diminumos o tamanho da matriz, diminuindo o custo computacional (e claro que a cada autovalor encontrado
devemos tambem considerar um novo deslocamento, aproximando o proximo autovalor a ser encontrado).

8.4

M
etodos para Matrizes Esparsas

O algoritmo QR nao e conveniente para obter os autovalores de matrizes esparsas, ja que depois de uma
iteracao QR a matriz A1 ja deixa de ser esparsa (pode-se construir exemplos em que todas as posicoes
superiores da matriz de Hessenberg sao preenchidas; veja [Watkins], Exerccio 6.3.24). Precisaremos de
metodos que nao preenchem os zeros da matriz esparsa A. Uma possibilidade e voltar ao metodo de iteracao
de subespacos basico, sem as mudancas de coordenadas a cada iteracao que caracterizam o metodo QR e
alteram a forma esparsa da matriz. Por outro lado, isso implica que apenas alguns poucos autovalores de
maior modulo podem ser calculados. Para contornar este problema, deve-se usar as estrategias de iteracao
inversa e iteracao com deslocamento.
Entretanto, metodos mais sofisticados e eficientes existem para encontrar os autovalores de uma matriz
esparsa.

8.4.1

Processo de Arnoldi

O processo de Arnoldi foi introduzido em 1950, mas so entrou em moda para calcular autovalores apenas na
decada de 1970. Atualmente, ele e suas variantes, sao o metodo preferido para o calculo de autovalores em
varias aplicacoes.
O metodo das potencias (ou mesmo o metodo da iteracao de subespacos) utiliza apenas a informacao do
u
ltimo iterado para calcular o proximo iterado. A ideia do processo de Arnoldi (semelhante `a do algoritmo
do gradiente conjugado) e usar toda a informacao dos passos anteriores. Depois de k passos no metodo
das potencias, guardamos todos os k + 1 vetores q, Aq, A2 q, . . . , Ak q e procuramos boas aproximacoes de
autovetores no subespaco (k + 1)-dimensional gerado por estes vetores.
Na pratica, como ja vimos antes, os vetores q, Aq, A2 q, . . . , Ak q formam uma base mal-condicionada para
o subespaco, porque tendem a apontar na mesma direcao do autovetor dominante, logo em cada iteracao
substitumos esta base por uma base ortonormal q1 , . . . , qk+1 . Isso e realizado pelo algoritmos de GramSchmidt com uma pequena modificacao. Se trabalhassemos com a seq
uencia original q, Aq, A2 q, . . . , Ak1 q,
k
k1
para obter A q bastaria multiplicar A
q por A. Como em cada passo usamos o algoritmo de Gram-Schmidt
para ortonormalizar o conjunto de vetores obtidos anteriormente, o vetor Ak1 q nao esta disponvel. Ao
inves, multiplicamos o vetor qk por A e e necessario apenas ortonormalizar o vetor Aqk com relac
ao aos
vetores q1 , . . . , qk para obter o vetor qk+1 . Este e o processo de Arnoldi.
Mais detalhadamente, no primeiro passo temos
q
q1 =
.
(8.19)
kqk
Em passos subseq
uentes, tomamos
qbk+1 = Aqk

k
X

hjk qj ,

(8.20)

j=1

qbk+1
,
kb
qk+1 k

(8.21)

hjk = hAqk , qj i , se j = 1, . . . , k,
hk+1,k = kb
qk+1 k .

(8.22)
(8.23)

qk+1 =
onde

Rodney Josue Biezuner

150

Pode-se mostrar que este processo produz exatamente a mesma seq


uencia de vetores que o processo de
Gram-Schmidt produz aplicado aos vetores q, Aq, A2 q, . . . , Ak q.
Para ver como o processo de Arnoldi pode ser utilizado para encontrar autovalores, primeiro estabelecemos
alguns resultados teoricos. Lembre-se que dada uma matriz A Mn (C) e um vetor q Cn , o j-esimo espaco
de Krylov associado com A e q e o subespaco

Kj (A, q) = q, Aq, . . . , Aj1 q .


8.2 Proposi
c
ao. Sejam A Mn (C) e q Cn . Suponha que q, Aq, . . . , Am1 q s
ao linearmente independentes. Ent
ao Km (A, q) e invariante sob A se e somente se q, Aq, . . . , Am1 q, Am q s
ao linearmente
dependentes.
Prova. Como Km (A, q) e gerado por q, Aq, . . . , Am1 q, Km (A, q) e invariante sob A se e somente se Am q
e combinacao linear de q, Aq, . . . , Am1 q.
8.3 Teorema. Sejam A Mn (C) e q Cn . Suponha que q, Aq, . . . , Am1 q s
ao linearmente independentes.
Sejam q1 , . . . , qm os vetores gerados pelo processo de Arnoldi. Ent
ao
(a) Kk (A, q) = hq1 , . . . , qk i para k = 1, . . . , m.
(b) hk+1,k > 0 para k = 1, . . . , m 1.
(c) hm+1,m = 0 se e somente se q, Aq, . . . , Am q s
ao linearmente dependentes ou, equivalentemente, se
e somente se Km (A, q) e invariante sob A.
Prova. (a) e (b) seguem por inducao. Para k = 1 e obvio. Assumindo (a) e (b) validos para todo j 6 k < m,
vamos provar a validade de (a) e (b) para k + 1. Isso significa que temos que mostrar que hk+1,k > 0 e

q, Aq, . . . , Ak1 q, Ak q = hq1 , . . . , qk+1 i


assumindo valido
hqi = hq1 i
hq, Aqi = hq1 , q2 i

q, Aq, A2 q = hq1 , q2 , q3 i
..
.

k1
q, Aq, . . . , A
q = hq1 , . . . , qk i
Em particular, vemos que cada vetor qj , para j = 1, . . . , k, possui uma componente nao-nula na direcao de
Aj1 q, digamos
j2
X
j1
qj = aj1 A q +
ai Ai q com aj1 6= 0.
i=0

Por definicao
qbk+1 = Aqk

k
X

hjk qj ,

j=1

de modo que se qbk+1 = 0 teramos

Aqk = A ak1 A

k1

q+

k2
X
i=0

!
i

ai A q

k
X
j=1

hjk qj ,

Rodney Josue Biezuner

151

donde

Ak q =

1
ak1

k
X

hjk qj

j=1

k2
X

ai Ai q =

aj1

i=0

j1
! k1
k
X
X
X

hjk
bij Ai q
ai Ai q ,
j=1

i=0

(8.24)

i=1

produzindo Ak q como combinacao linear de q, Aq, . . . , Ak1 q para k < m, violando a hipotese de que
q, Aq, . . . , Am1 q sao linearmente independentes. Isso prova que hk+1,k = kb
qk+1 k > 0. Alem disso, como

qbk+1 = A ak1 A

k1

q+

k2
X

!
i

ai A q

i=0

k
X

k1
X

hjk qj = ak1 A q +

j=1

ai A q

i=1

k
X

hjk qj ,

j=1

segue que qk+1 = qbk+1 / kb


qk+1 k possui uma componente nao-nula na direcao de Ak q; isso mais a hipotese de
inducao

q, Aq, . . . , Ak1 q = hq1 , . . . , qk i


implica que

q, Aq, . . . , Ak1 q, Ak q = hq1 , . . . , qk+1 i

Para provar (c), observe que hm+1,m = 0 implica q, Aq, . . . , Am q linearmente dependentes por (8.24).
Reciprocamente, se Am q e combinacao linear de q, Aq, . . . , Am1 q, entao

Am q q, Aq, . . . , Am1 q = hq1 , . . . , qm i ,


e portanto
Am q =

m
X

hAqm , qj i qj

j=1

pois esta e a expressao de Am q na base ortonormal {q1 , . . . , qm }; da segue da definicao que qbm+1 = 0.

8.4.2

Representa
c
ao Matricial do Processo de Arnoldi

Segue de (8.20) e (8.21) que


Aqk =

k+1
X

hjk qj .

(8.25)

j=1

Pelo Teorema 8.3, esta relacao vale para k = 1, . . . , m se q, Aq, . . . , Am q forem linearmente independentes.
Estas equacoes vetoriais podem ser combinadas em uma equacao matricial da seguinte maneira. Definimos

Qm = q1 . . . qm nm
(8.26)
e

Hm+1,m

h11
h21
0

=
0

.
..
0

h12
h22
h32
0
..
.
0

...
...
...
..
.
..

.
...

h1,m1
h2,m1
h3,m1
..
.

h1m
h2m
h3,m
..
.

hm,m1
0

hm,m
hm+1,m

(8.27)

(m+1)m

Temos
AQm = Qm+1 Hm+1,m .

(8.28)

Rodney Josue Biezuner

152

Observe que Qm e uma isometria (embora nao necessariamente um isomorfismo isometrico, a nao ser que
m = n) e que Hm+1,m e uma matriz de Hessenberg superior, nao quadrada, com entradas diagonais positivas. Denotaremos por Hm a matriz de Hessenberg superior quadrada obtida atraves de Hm+1,m quando
suprimimos a u
ltima linha desta. Segue que

AQm = Qm Hm + qm+1 0 . . . 0 hm+1,m


ou

AQm = Qm Hm + qm+1 hm+1,m etm .

(8.29)

ao vetores ortonormais,
8.4 Proposi
c
ao. Suponha que q1 , . . . , qm+1 s

Qm = q1 . . . qm ,
e que Hm e uma matriz de Hessenberg superior com hj+1,j > 0 para j = 1, . . . , m. Embora estes
possam ter sido obtidos por qualquer processo, suponha que eles satisfazem (8.29).
Ent
ao q1 , . . . , qm+1 s
ao exatamente os vetores produzidos pelo processo de Arnoldi com vetor inicial
q1 . Em outras palavras, dada uma matriz A, os objetos em (8.29) s
ao unicamente determinados pela
primeira coluna de Qm .
Se q, Aq, . . . , Am q sao linearmente independentes, entao hm+1,m 6= 0. Se eles sao linearmente dependentes,
entao hm+1,m = 0 e
AQm = Qm Hm .
(8.30)
Em particular, isso implica que hq1 , . . . , qm i sao invariantes sob A e que os autovalores de Hm sao autovalores
de A, como o proximo resultado mostra:
8.5 Proposi
c
ao. Suponha que x1 , . . . , xm Fn s
ao linearmente independentes e sejam S = hx1 , . . . , xm i e

X = x1 . . . xm nm
Ent
ao S e invariante sob A Mn (F) se e somente se existe algum B Mm (F) tal que
AX = XB.
Alem disso, todo autovalor de B e um autovalor de A com autovetor correspondente em S.
Prova. Se existe tal B, entao
Axj =

m
X

xi bij S.

i=1

Reciprocamente, se X e invariante sob A, entao para cada ndice j = 1, . . . , m existem escalares bij tais que
Axj =

m
X

bij xi .

i=1

Defina B = (bij ).
Se w e um autovetor de B com autovalor , entao v = Xw S e um autovetor de A com autovalor .
Se m nao e muito grande, podemos entao usar o algoritmo QR para encontrar os autovalores de Hm . Na
pratica, dificilmente obteremos hm+1,m = 0 exatamente, mas se hm+1,m e proximo de zero podemos esperar
que estamos proximos de um subespaco invariante e, portanto, que os autovalores de Hm sao proximos aos
autovalores de A. O proximo resultado mostra que mesmo na eventualidade em que hm+1,m nao e pequeno,
alguns dos autovalores de Hm podem ser boas aproximacoes dos autovalores de A.
8.6 Teorema. Sejam Qm , Hm e hm+1,m gerados pelo processo de Arnoldi. Seja um autovalor de Hm
com autovetor unit
ario x. Seja v = Qm x. Ent
ao
kAv vk = |hm+1,m | |xm | ,
onde xm denota a u
ltima componente de x.

Rodney Josue Biezuner

8.4.3

153

M
etodo de Lanczos

Para matrizes simetricas reais, o processo de Arnoldi assume uma forma bem mais simples, porque a matriz
de Hessenberg Hm e simetrica e portanto e uma matriz tridiagonal. Neste caso, o processo de Arnoldi e
chamado o m
etodo de Lanczos.

Refer
encias Bibliogr
aficas
[Asmar]

Nakhle ASMAR, Partial Differential Equations and Boundary Value Problems, Prentice Hall, 2000.

[Aronszajn]

N. ARONSZAJN, A unique continuation theorem for solutions of elliptic partial differential equations of second order, J. Math. Pures Appl. 36 (1957), 235-239.

[Bandle]

Catherine BANDLE, Isoperimetric Inequalities and Applications, Pitman, 1980.

[Berard1]

Pierre BERARD,
Transplantation et isospectralite, Math. Ann. 292 (1992), pp. 547
559

[Berard2]

Pierre BERARD,
Domaines plans isospectraux `
a la Gordon-Webb-Wolpert: une
preuve elementaire, Afrika Mat. 3 (1993), no. 1, 135146.

[Biezuner]

Rodney Josue BIEZUNER, Notas de Aula: Equac


oes Diferenciais Parciais, UFMG,
2005.

[BHM]

William L. BRIGGS, Van Emden HENSON e Steve F. McCORMICK, A Multigrid


Tutorial, SIAM, 2000.

[Chapman]

S. J. CHAPMAN, Drums That Sound the Same, American Mathematical Monthly,


102 (1995), no. 2, 124138.

[Cheng]

Shiu-Yuen CHENG, Eigenfunctions and nodal sets, Comment. Math. Helvetici 51


(1976), 4355.

[Courant-Hilbert]

Richard COURANT e David HILBERT, Methods of Mathematical Physics, WileyInterscience, 1953.

[Demmel]

James W. DEMMEL, Applied Numerical Linear Algebra, SIAM, 1997.

[Driscoll]

Tobin A. DRISCOLL, Eigenmodes of isospectral drums, SIAM Review 39 (1997), no.


1, 117.

[Evans]

Lawrence C. EVANS, Partial Differential Equations, AMS, 1998.

[Gilbarg-Trudinger]

David GILBARG e Neil S. TRUDINGER, Elliptic Partial Differential Equations of


Second Order, 2nd Ed., Springer-Verlag, 1983.

[Gladwell-Zhu]

G. M. L. GLADWELL and H. ZHU, Courants Nodal Line Theorem and Its Discrete Counterparts, The Quarterly Journal of Mechanics and Applied Mathematics
55 (2002), 1-15.

[GWW1]

Carolyn GORDON, David L. WEBB e Scott WOLPERT, One cannot hear the shape
of a drum, Bulletin of the American Mathematical Society 27 (1992), n. 1, 134138.
154

Rodney Josue Biezuner

155

[GWW2]

Carolyn GORDON, David L. WEBB e Scott WOLPERT, Isospectral plane domains


and surfaces via Riemannian orbifolds, Inventiones Mathematicae 110 (1992), n. 1,
122.

[Hackbusch]

W. HACKBUSCH, Elliptic Differential Equations: Theory and Numerical Treatment,


Springer Series in Computational Mathematics 18, Springer, 1992.

[Herrman]

H. HERRMANN, Beziehungen zwischen den Eigenwerten und Eigenfunktionen verschiedener Eigenwertprobleme, Math. Z. 40 (1935), 221241.

[Heuveline]

Vincent HEUVELINE, On the computation of a very large number of eigenvalues for


selfadjoint elliptic operators by means of multigrid methods, Journal of Computational
Physics 184 (2003), 321337.

[Horn-Johnson]

Roger A. HORN e Charles R. JOHNSON, Matrix Analysis, Cambridge University


Press, 1985.

[Johnson]

Claes JOHNSON, Numerical solutions of partial differential equations by the finite


element method, Cambridge, 1987.

[Jost]

J
urgen JOST, Partial Differential Equations, Graduate Texts in Mathematics 214,
Springer-Verlag, 2002.

[Kac]

M. KAC, Can one hear the shape of a drum?, American Mathematical Monthly 73
(1966), no. 4, part II, 123.

[Kuttler-Sigillito]

J. R. KUTTLER e V. G. SIGILLITO, Eigenvalues of the Laplacian in two dimensions,


SIAM REVIEW 26 (1984) no. 2, 163193.

[Milnor]

J. MILNOR, Eigenvalues of the Laplace operator on certain manifolds, Proceedings


of the National Academy of Sciences USA 51 (1964), 542.

[Pleijel]

A. PLEIJEL, Remarks on Courants nodal line theorem, Comm. Pure Appl. Math. 9
(1956), 543550.

[Protter]

M. H. PROTTER, Can one hear the shape of a drum? Revisited, SIAM REVIEW
29 (1987) no. 2, 185197.

[Rosser1]

J. Barkley ROSSER, Nine point difference solutions for Poissons equation, Comp.
Math. Appl. 1 (1975), 351360.

[Rosser2]

J. Barkley ROSSER, Finite-difference solution of Poissons equation in rectangles of


arbitrary proportions, Zeitschrift f
ur Angewandte Mathematik und Physik (ZAMP)
28 (1977), no.2, 185196.

[Sridhar-Kudrolli]

S. SRIDAR e A. KUDROLLI, Experiments on not hearing the shape of drums,


Physical Review Letters 72 (1994), 21752178.

[Strang]

Gilbert STRANG, Linear Algebra and its Applications, 3rd Ed., Harcourt Brace Jovanovich, 1988.

[Strikwerda]

John C. STRIKWERDA, Finite Difference Schemes and Partial Differential Equations, 2nd Ed., SIAM, 2004.

[Thomas1]

J. W. THOMAS, Numerical Partial Differential Equations: Finite Difference Methods, Texts in Applied Mathematics 22, Springer, 1995.

Rodney Josue Biezuner

156

[Thomas2]

J. W. THOMAS, Numerical Partial Differential Equations: Conservation Laws and


Elliptic Equations, Texts in Applied Mathematics 33, Springer, 1999.

[Uhlenbeck1]

K. UHLENBECK, Eigenfunctions of Laplace operator, Bulletin of the American


Mathematical Society 78 (1972), 10731076.

[Uhlenbeck2]

K. UHLENBECK, Generic properties of eigenfunctions, American Journal of Mathematics 98 (1976), 10591078.

[Vigneras]

Marie-France VIGNERAS,
Varietes riemanniennes isospectrales et non isometriques,
Annals of Mathematics 91 (1980), 2132.

[Wat1]

K. WATANABE, Plane Domains Which Are Spectrally Determined, Annals of Global


Analysis and Geometry 18 (2000), no. 5, 447475.

[Wat2]

K. WATANABE, Plane Domains Which Are Spectrally Determined II, J. Inequal.


Appl. 7 (2002), no. 1, 2547.

[Watkins]

David S. WATKINS, Fundamentals of Matrix Computations, 2nd Ed., John Wiley &
Sons, 2002.

[Weyl]

H. WEYL, Uber
die Asymptotische Verteilung der Eigenwerte, Nachr. Konigl. Ges.
Wiss. Gottingen (1911), 110117.

[Young]

David M. YOUNG, Iterative Solutions of Large Linear Systems, Academic Press,


1971.

[Zelditch]

S. ZELDITCH, Spectral determination of analytic bi-axisymmetric plane domains,


Geometric and Functional Analysis 10 (2000), no. 3, 628677.

Você também pode gostar