Você está na página 1de 48

Introdução aos métodos de decomposição de

domı́nio

Juan Galvis

Texas A&M University

2009

1 / 48
Equações elı́pticas

Achar
( u : D ⊂ R2 → R tal que:
−div(κ(x)∇u(x)) = f (x) ∀x = (x1 , x2 ) ∈ D, (1)
u(x) = g (x) ∀x = (x1 , x2 ) ∈ ∂D

I (1) é elı́ptica se existem κmin e κmax t.q. ∀x ∈ D

0 < κmin ≤ κ(x) ≤ κmax ,

2 / 48
1D

Achar u : (a, b) → R tal que:


(
−(κ(x)u 0 (x))0 = f (x), ∀x ∈ (a, b), (2)
u(x) = g (x), x = a e x = b,
é elı́ptica quando existem κmax e κmin tais que

0 < κmin ≤ κ(x) ≤ κmax para todo x ∈ (a, b).

Remark
Em muitas aplicações precisa-se resolver (1) muitas vezes

3 / 48
1D

Achar u : (a, b) → R tal que:


(
−(κ(x)u 0 (x))0 = f (x), ∀x ∈ (a, b), (2)
u(x) = g (x), x = a e x = b,
é elı́ptica quando existem κmax e κmin tais que

0 < κmin ≤ κ(x) ≤ κmax para todo x ∈ (a, b).

Remark
Em muitas aplicações precisa-se resolver (1) muitas vezes

4 / 48
Em termos gerais

 (
 Tamanho da matriz1 : Tamanho do domı́nio


Custo 1: Exatidão requerida
 n
 Condição 1 : Exatidão requerida

5 / 48
O minicurso: Objetivo

I o uso de técnicas de decomposição de domı́nios (DD) para


obter de forma eficiente a solução numérica de (2) e (1).
I precisamos:
I introduzir uma discretização para aproximar as soluções destas
equações.
I Muitas.!!
I Método dos Elementos Finitos (MEF ou FEM)
I introduzir um método para resolver sistemas lineares.
I O método do(s) Gradiente(s) Conjugado(s)

6 / 48
O minicurso: Objetivo

I o uso de técnicas de decomposição de domı́nios (DD) para


obter de forma eficiente a solução numérica de (2) e (1).
I precisamos:
I introduzir uma discretização para aproximar as soluções destas
equações.
I Muitas.!!
I Método dos Elementos Finitos (MEF ou FEM)
I introduzir um método para resolver sistemas lineares.
I O método do(s) Gradiente(s) Conjugado(s)

7 / 48
O minicurso: Objetivo

I o uso de técnicas de decomposição de domı́nios (DD) para


obter de forma eficiente a solução numérica de (2) e (1).
I precisamos:
I introduzir uma discretização para aproximar as soluções destas
equações.
I Muitas.!!
I Método dos Elementos Finitos (MEF ou FEM)
I introduzir um método para resolver sistemas lineares.
I O método do(s) Gradiente(s) Conjugado(s)

8 / 48
O minicurso: Objetivo

I o uso de técnicas de decomposição de domı́nios (DD) para


obter de forma eficiente a solução numérica de (2) e (1).
I precisamos:
I introduzir uma discretização para aproximar as soluções destas
equações.
I Muitas.!!
I Método dos Elementos Finitos (MEF ou FEM)
I introduzir um método para resolver sistemas lineares.
I O método do(s) Gradiente(s) Conjugado(s)

9 / 48
O minicurso: Objetivo

I o uso de técnicas de decomposição de domı́nios (DD) para


obter de forma eficiente a solução numérica de (2) e (1).
I precisamos:
I introduzir uma discretização para aproximar as soluções destas
equações.
I Muitas.!!
I Método dos Elementos Finitos (MEF ou FEM)
I introduzir um método para resolver sistemas lineares.
I O método do(s) Gradiente(s) Conjugado(s)

10 / 48
O minicurso: Objetivo

I o uso de técnicas de decomposição de domı́nios (DD) para


obter de forma eficiente a solução numérica de (2) e (1).
I precisamos:
I introduzir uma discretização para aproximar as soluções destas
equações.
I Muitas.!!
I Método dos Elementos Finitos (MEF ou FEM)
I introduzir um método para resolver sistemas lineares.
I O método do(s) Gradiente(s) Conjugado(s)

11 / 48
O minicurso: Objetivo

I o uso de técnicas de decomposição de domı́nios (DD) para


obter de forma eficiente a solução numérica de (2) e (1).
I precisamos:
I introduzir uma discretização para aproximar as soluções destas
equações.
I Muitas.!!
I Método dos Elementos Finitos (MEF ou FEM)
I introduzir um método para resolver sistemas lineares.
I O método do(s) Gradiente(s) Conjugado(s)

12 / 48
DD?

I A solução direta da equação diferencial no domı́nio original


requer resolver um sistema linear
I gigantesco, mal condicionado (esparso).
I é impraticável em muitos casos (custo computacional, tempo de
processamento).
I DD introduz uma decomposição do domı́nio original em
subdomı́nios.
I ideia: Resolver a equação diferencial somente nos subdomı́nios
várias vezes,
I As soluções nos subdomı́nios são obtidas resolvendo sistemas
pequenos (baixo custo, pouco tempo de processamento).
I Computação paralela pode ser usada

13 / 48
DD?

I A solução direta da equação diferencial no domı́nio original


requer resolver um sistema linear
I gigantesco, mal condicionado (esparso).
I é impraticável em muitos casos (custo computacional, tempo de
processamento).
I DD introduz uma decomposição do domı́nio original em
subdomı́nios.
I ideia: Resolver a equação diferencial somente nos subdomı́nios
várias vezes,
I As soluções nos subdomı́nios são obtidas resolvendo sistemas
pequenos (baixo custo, pouco tempo de processamento).
I Computação paralela pode ser usada

14 / 48
DD?

I A solução direta da equação diferencial no domı́nio original


requer resolver um sistema linear
I gigantesco, mal condicionado (esparso).
I é impraticável em muitos casos (custo computacional, tempo de
processamento).
I DD introduz uma decomposição do domı́nio original em
subdomı́nios.
I ideia: Resolver a equação diferencial somente nos subdomı́nios
várias vezes,
I As soluções nos subdomı́nios são obtidas resolvendo sistemas
pequenos (baixo custo, pouco tempo de processamento).
I Computação paralela pode ser usada

15 / 48
DD?

I A solução direta da equação diferencial no domı́nio original


requer resolver um sistema linear
I gigantesco, mal condicionado (esparso).
I é impraticável em muitos casos (custo computacional, tempo de
processamento).
I DD introduz uma decomposição do domı́nio original em
subdomı́nios.
I ideia: Resolver a equação diferencial somente nos subdomı́nios
várias vezes,
I As soluções nos subdomı́nios são obtidas resolvendo sistemas
pequenos (baixo custo, pouco tempo de processamento).
I Computação paralela pode ser usada

16 / 48
DD?

I A solução direta da equação diferencial no domı́nio original


requer resolver um sistema linear
I gigantesco, mal condicionado (esparso).
I é impraticável em muitos casos (custo computacional, tempo de
processamento).
I DD introduz uma decomposição do domı́nio original em
subdomı́nios.
I ideia: Resolver a equação diferencial somente nos subdomı́nios
várias vezes,
I As soluções nos subdomı́nios são obtidas resolvendo sistemas
pequenos (baixo custo, pouco tempo de processamento).
I Computação paralela pode ser usada

17 / 48
DD?

I A solução direta da equação diferencial no domı́nio original


requer resolver um sistema linear
I gigantesco, mal condicionado (esparso).
I é impraticável em muitos casos (custo computacional, tempo de
processamento).
I DD introduz uma decomposição do domı́nio original em
subdomı́nios.
I ideia: Resolver a equação diferencial somente nos subdomı́nios
várias vezes,
I As soluções nos subdomı́nios são obtidas resolvendo sistemas
pequenos (baixo custo, pouco tempo de processamento).
I Computação paralela pode ser usada

18 / 48
DD?

I A solução direta da equação diferencial no domı́nio original


requer resolver um sistema linear
I gigantesco, mal condicionado (esparso).
I é impraticável em muitos casos (custo computacional, tempo de
processamento).
I DD introduz uma decomposição do domı́nio original em
subdomı́nios.
I ideia: Resolver a equação diferencial somente nos subdomı́nios
várias vezes,
I As soluções nos subdomı́nios são obtidas resolvendo sistemas
pequenos (baixo custo, pouco tempo de processamento).
I Computação paralela pode ser usada

19 / 48
Exemplos de coeficiente κ(x)?

1. Coeficiente constante por partes


2. Coeficiente oscilatório
3. Coeficiente aleatório
4. ...

I O contraste do coeficiente é

contraste(κ) = κmax /κmin .

20 / 48
Exemplos de coeficiente κ(x)?

1. Coeficiente constante por partes


2. Coeficiente oscilatório
3. Coeficiente aleatório
4. ...

I O contraste do coeficiente é

contraste(κ) = κmax /κmin .

21 / 48
Exemplos de coeficiente κ(x)?

1. Coeficiente constante por partes


2. Coeficiente oscilatório
3. Coeficiente aleatório
4. ...

I O contraste do coeficiente é

contraste(κ) = κmax /κmin .

22 / 48
Exemplos de coeficiente κ(x)?

1. Coeficiente constante por partes


2. Coeficiente oscilatório
3. Coeficiente aleatório
4. ...

I O contraste do coeficiente é

contraste(κ) = κmax /κmin .

23 / 48
Exemplos de coeficiente κ(x)?

1. Coeficiente constante por partes


2. Coeficiente oscilatório
3. Coeficiente aleatório
4. ...

I O contraste do coeficiente é

contraste(κ) = κmax /κmin .

24 / 48
Ideia Original (Schwarz 1870)
I Queremos resolve uma equação diferencial elı́ptica no seguinte
domı́nio com o valor da função dado na fronteira.

I Vamos construir uma iteração que converge para a solução


I O domı́nio é união de dois subdomı́nios mais simples (onde a
solução pode ser calculada explicitamente)

25 / 48
Ideia Original (Schwarz 1870)
I Queremos resolve uma equação diferencial elı́ptica no seguinte
domı́nio com o valor da função dado na fronteira.

I Vamos construir uma iteração que converge para a solução


I O domı́nio é união de dois subdomı́nios mais simples (onde a
solução pode ser calculada explicitamente)

26 / 48
Ideia Original (Schwarz 1870)
I Queremos resolve uma equação diferencial elı́ptica no seguinte
domı́nio com o valor da função dado na fronteira.

I Vamos construir uma iteração que converge para a solução


I O domı́nio é união de dois subdomı́nios mais simples (onde a
solução pode ser calculada explicitamente)

27 / 48
Passo 1: Resolver no cı́rculo

I impor condição de contorno na parte da fronteira do cı́rculo


interior ao retângulo

28 / 48
Passo 1: Resolver no retângulo

I Nova condição de bordo no retângulo: o valor da solução no


cı́rculo

29 / 48
Iterar ate a convergência

I Voltamos ao passo um mas com a mais nova aproximação


I Iteramos ate a convergência.

30 / 48
Iterar ate a convergência

I Voltamos ao passo um mas com a mais nova aproximação


I Iteramos ate a convergência.

31 / 48
Ilustração

I Dimensão um
I NS = 2, δ pequeno
I NS = 2, δ maior
I NS = 8
I Um problema grosso
I Dimensão dois
I NS = 2 × 2, δ pequeno
I NS = 4
I Um problema grosso

32 / 48
Ilustração

I Dimensão um
I NS = 2, δ pequeno
I NS = 2, δ maior
I NS = 8
I Um problema grosso
I Dimensão dois
I NS = 2 × 2, δ pequeno
I NS = 4
I Um problema grosso

33 / 48
Ilustração

I Dimensão um
I NS = 2, δ pequeno
I NS = 2, δ maior
I NS = 8
I Um problema grosso
I Dimensão dois
I NS = 2 × 2, δ pequeno
I NS = 4
I Um problema grosso

34 / 48
Ilustração

I Dimensão um
I NS = 2, δ pequeno
I NS = 2, δ maior
I NS = 8
I Um problema grosso
I Dimensão dois
I NS = 2 × 2, δ pequeno
I NS = 4
I Um problema grosso

35 / 48
Ilustração

I Dimensão um
I NS = 2, δ pequeno
I NS = 2, δ maior
I NS = 8
I Um problema grosso
I Dimensão dois
I NS = 2 × 2, δ pequeno
I NS = 4
I Um problema grosso

36 / 48
Ilustração

I Dimensão um
I NS = 2, δ pequeno
I NS = 2, δ maior
I NS = 8
I Um problema grosso
I Dimensão dois
I NS = 2 × 2, δ pequeno
I NS = 4
I Um problema grosso

37 / 48
Ilustração

I Dimensão um
I NS = 2, δ pequeno
I NS = 2, δ maior
I NS = 8
I Um problema grosso
I Dimensão dois
I NS = 2 × 2, δ pequeno
I NS = 4
I Um problema grosso

38 / 48
Ilustração

I Dimensão um
I NS = 2, δ pequeno
I NS = 2, δ maior
I NS = 8
I Um problema grosso
I Dimensão dois
I NS = 2 × 2, δ pequeno
I NS = 4
I Um problema grosso

39 / 48
Ilustração

I Dimensão um
I NS = 2, δ pequeno
I NS = 2, δ maior
I NS = 8
I Um problema grosso
I Dimensão dois
I NS = 2 × 2, δ pequeno
I NS = 4
I Um problema grosso

40 / 48
Ideia Original (Schwarz 1870)

I Pode ser modificada para resolver os problemas locais em


paralelo
I Tudo em termos de equações diferenciais (aproximações locais
e aproximação grossa)
I sistemas lineares gerais

Remark
Schwarz + Gradiente Conjugado= Melhor convergência

41 / 48
Ideia Original (Schwarz 1870)

I Pode ser modificada para resolver os problemas locais em


paralelo
I Tudo em termos de equações diferenciais (aproximações locais
e aproximação grossa)
I sistemas lineares gerais

Remark
Schwarz + Gradiente Conjugado= Melhor convergência

42 / 48
Ideia Original (Schwarz 1870)

I Pode ser modificada para resolver os problemas locais em


paralelo
I Tudo em termos de equações diferenciais (aproximações locais
e aproximação grossa)
I sistemas lineares gerais

Remark
Schwarz + Gradiente Conjugado= Melhor convergência

43 / 48
Ideia Original (Schwarz 1870)

I Pode ser modificada para resolver os problemas locais em


paralelo
I Tudo em termos de equações diferenciais (aproximações locais
e aproximação grossa)
I sistemas lineares gerais

Remark
Schwarz + Gradiente Conjugado= Melhor convergência

44 / 48
Ideia Original (Schwarz 1870)

I Pode ser modificada para resolver os problemas locais em


paralelo
I Tudo em termos de equações diferenciais (aproximações locais
e aproximação grossa)
I sistemas lineares gerais

Remark
Schwarz + Gradiente Conjugado= Melhor convergência

45 / 48
Ideia Original (Schwarz 1870)

I Pode ser modificada para resolver os problemas locais em


paralelo
I Tudo em termos de equações diferenciais (aproximações locais
e aproximação grossa)
I sistemas lineares gerais

Remark
Schwarz + Gradiente Conjugado= Melhor convergência

46 / 48
Ideia Original (Schwarz 1870)

I Pode ser modificada para resolver os problemas locais em


paralelo
I Tudo em termos de equações diferenciais (aproximações locais
e aproximação grossa)
I sistemas lineares gerais

Remark
Schwarz + Gradiente Conjugado= Melhor convergência

47 / 48
P.-L. Lions,
On the Schwarz alternating method. I, in R. Glowinski, G. H.
Golub, G. A. Meurant, and J. Periaux (eds.),
First International Symposium on Domain Decomposition
Methods for Partial Differential Equations, SIAM, Philadelphia,
PA, 1988, pp 1–42.
P.-L. Lions,
On the Schwarz alternating method. II, in T. Chan, R.
Glowinski, J. Periaux, and O. Widlund (eds.),
Domain Decomposition Methods, SIAM, Philadelphia, PA,
1989, pp. 40–47.

48 / 48

Você também pode gostar