Você está na página 1de 136

UNIVERSIDADE FEDERAL DE PERNAMBUCO

CENTRO DE TECNOLOGIA E GEOCIÊNCIAS


DEPARTAMENTO DE ENGENHARIA CIVIL

OTIMIZAÇÃO ROBUSTA DE ESTRUTURAS


UTILIZANDO O MÉTODO DA BASE REDUZIDA

Renato de Siqueira Motta

Dissertação submetida ao Corpo Docente do Curso


de Pós-Graduação da Universidade Federal de Per-
nambuco, como parte dos requisitos necessários à
obtenção do Grau de Mestre em Ciências em En-
genharia Civil.

Orientador: Silvana Maria Bastos Afonso da Silva

Co-orientador: Paulo Roberto Maciel Lyra

Recife, Pernambuco – Brasil


Novembro de 2009.
OTIMIZAÇÃO ROBUSTA DE ESTRUTURAS
UTILIZANDO O MÉTODO DA BASE REDUZIDA

Renato de Siqueira Motta

Dissertação submetida ao Corpo Docente do Curso de Pós-Graduação da


Universidade Federal de Pernambuco, como parte dos requisitos necessá-
rios à obtenção do Grau de Mestre em Ciências em Engenharia Civil.

Aprovada por:

_____________________________________________
Prof. Silvana Maria Bastos Afonso da Silva, Ph.D. Orientador - UFPE

_____________________________________________
Prof. Paulo Roberto Maciel Lyra, Ph.D. Co-orientador - UFPE

_____________________________________________
Prof. Bernardo Horowitz, Ph.D. Examinador Interno - UFPE

_____________________________________________
Prof. Ramiro Brito Willmersdorf, Ph.D. Examinador Externo - UFPE

_____________________________________________
Prof. Luis Eloy Vaz, Dr.-Ing. Examinador Externo - UFRJ

Recife, Pernambuco – Brasil


Novembro de 2009.
M921o Motta, Renato de Siqueira
Otimização robusta de estruturas utilizando o método da base
reduzida / Renato de Siqueira Motta. - Recife: O Autor, 2009.
xiii, 121 f.; il., gráfs., tabs.

Dissertação (Mestrado) – Universidade Federal de Pernambuco.


CTG. Programa de Pós-Graduação em Engenharia Civil, 2009.

Inclui Referências bibliográficas.

1. Engenharia civil. 2. Otimização Robusta. 3. Método da


Colocação Probabilística. 4. Otimização Multiobjetivo. 5.
Método da Base Reduzida. I. Título.

UFPE

624 CDD (22. ed.) BCTG/2010-043


“No processo de evolução das espécies,
somos um ótimo local”

iv
OTIMIZAÇÃO ROBUSTA DE ESTRUTURAS
UTILIZANDO O MÉTODO DA BASE REDUZIDA

Renato de Siqueira Motta

Resumo
Com o rápido aumento da capacidade computacional, o tema otimização avan-
çou de maneira notável nos últimos anos. Atualmente inúmeras aplicações de proje-
tos ótimos em diferentes especialidades, como mecânica estrutural, custos de produ-
ção, escoamento de fluidos, acústica, etc. têm sido descritas na literatura. Entretanto,
na maioria das aplicações da engenharia, a abordagem tradicional é considerar mo-
delos e parâmetros determinísticos. Infelizmente a abordagem determinística pode
levar a soluções cujo desempenho pode cair significativamente devido às perturba-
ções decorrentes das incertezas. Nestas circunstâncias, um objetivo melhor seria um
projeto ótimo que tenha um alto grau de robustez. O processo de encontrar este óti-
mo é chamado Otimização Robusta (OR).
Aqui, abordaremos duas técnicas para a análise de propagação de incerteza, não in-
trusivas, que utiliza modelos computacionais determinísticos: o método de Monte Carlo
(MC) e o método da Colocação Probabilística (“Probabilistic Collocation Method”)
(PCM). A análise de propagação de incerteza essencialmente envolve o cálculo de mo-
mentos estatísticos da função de interesse. Várias medidas de robustez têm sido propos-
tas na literatura, em particular, o valor médio e o desvio padrão da função envolvida no
problema de otimização serão considerados aqui. Quando estas medidas de robustez são
usadas combinadas, a procura de projetos ótimos robustos surge como um problema de
Otimização Multiobjetivo Robusta (OMR).
Técnicas de Otimização Multiobjetiva permitem o projetista modelar um problema
específico considerando um comportamento mais realista, o qual comumente envolve o
atendimento de vários objetivos simultaneamente. O procedimento adequado, quando
um problema multiobjetivo precisa ser resolvido, é determinar a fronteira de Pareto. Nos
últimos 15 anos, distribuições eficientes de pontos de Pareto têm sido obtidas através de
novos algoritmos como o NBI (Normal-Boundary Intersection) e o NNC (Normalized
Normal-Constraint). Estas estratégias são implementadas aqui, junto com outras abor-
dagens comumente utilizadas na literatura, como o método da soma ponderada e o mé-
todo Min-Max.
Como a geração de pontos de Pareto e a análise de incerteza podem ser muito cus-
tosas, técnicas de aproximação, baseada no uso do Método da Base Reduzida (MBR),
são incorporadas ao nosso procedimento. O propósito do método é obter um modelo de
alta fidelidade com custo computacional aceitável. Além disto, uma estratégia de sepa-
rabilidade com uma decomposição afim, permite o desenvolvimento de uma estratégia
eficiente de cálculo “off-line/on-line”, para a implementação computacional do MBR.
Problemas contínuos em duas dimensões submetidos a carregamentos estáticos e
térmicos são as aplicações consideradas neste trabalho, os desempenhos das diferentes
estratégias examinadas são comparadas. A combinação das várias técnicas de aproxi-
mação descritas permitiu a obtenção das soluções OMR em pouco tempo computacio-
nal.

Palavras chaves: Otimização robusta, método da Colocação Probabilística, Otimiza-


ção Multiobjetivo, Método da base reduzida.
v
STRUCTURAL ROBUST OPTIMIZATION
CONSIDERING REDUCED-BASIS METHOD

Renato de Siqueira Motta

Abstract
The topic of optimization has advanced in a remarkable manner in recent years,
with the rapid growth of computational power. Nowadays a number of applications on
design optimization from different disciplines such as structural mechanics, acoustics,
etc. have been already reported in literature. However, in most engineering applications,
the traditional approach is to consider deterministic models and parameters.
Unfortunately, the deterministic approach generally leads to a final design whose
performance may degrade significantly because of perturbations arising from
uncertainties. In this scenario a better target that provides an optimal design is one that
gives a high degree of robustness. The process to find such optimal is referred to as
robust optimization (RO).
Here, we discuss two nonintrusive uncertainty propagation analysis techniques that
exploit deterministic computer models: Monte Carlo (MC) method and Probabilistic
Collocation Method (PCM). The uncertainty propagation analysis essentially involves
computing the statistical moments of the output.
Several robustness measures have been proposed in the literature, in particular, the
expected value and standard deviation of the function involved in the optimization
problem are considered here. When using these robustness measures combined the
search of optimal robust design appears as a robust multiobjetive optimization (RMO)
problem.
Multiobjective optimization techniques allow a designer to model a specific
problem considering a more realistic behavior, which commonly involves the
satisfaction of several targets simultaneously. The computation of the Pareto front
solutions is the adequate procedure when a multiobjective problem has to be solved. In
the last 15 years efficient Pareto point distribution has been obtained through the use of
new algorithms such as NBI (Normal-Boundary Intersection), and NNC (Normalized
Normal-Constraint). These two strategies are implemented in this work together with
other commonly considered approaches in literature such as weighted sum method and
min-max method.
As the generation of Pareto points and the uncertainty analysis could be very costly,
approximation techniques based on the use of Reduced Basis Method (RBM) are also
incorporated in our procedure. The purpose of such scheme is to get high fidelity model
information with acceptable computational expense. Moreover, a parameter separability
strategy together with the affine decomposition allows the development of an efficient
off-line/on-line calculation strategy for the computational implementation of the RBM.
Two dimensional continua problems under static loads are the applications ad-
dressed in this work and the performance of the different strategies discussed are com-
pared. The combination of all the approximate methodologies described in this work
allows the computations of RMO solutions, with very low computational time.

Keywords: Robust optimization, Probabilistic Collocation Method, Multiobjetive opti-


mization, Reduced basis method
vi
SUMÁRIO
LISTA DE SÍMBOLOS ix

1. INTRODUÇÃO 1
1.1. MOTIVAÇÃO E CONSIDERAÇÕES INICIAIS 1
1.2. OBJETIVOS 3
1.3. ORGANIZAÇÃO DA DISSERTAÇÃO 5
1.4. REFERÊNCIAS 5

2. PROBLEMAS BIDIMENSIONAIS 8
2.1. FORMULAÇÃO DE PROBLEMAS TÉRMICOS 8
2.1.1. Método dos Elementos Finitos aplicado à problemas térmicos 9
2.2. FORMULAÇÕES DOS PROBLEMAS ELÁSTICOS 11
2.2.1. Método dos Elementos Finitos aplicado à elasticidade bidimensional 13
2.2.2. Acoplamento termo-elástico 14
2.3. MAPEAMENTO DAS EQUAÇÕES DO MEF 15
2.3.1. Mapeamento da equação térmica 16
2.3.2. Mapeamento da equação elástica 18
2.4. MÉTODO DA BASE REDUZIDA 20
2.4.1. Procedimento Computacional Off-Line/On-Line 23
2.5. EXEMPLOS 24
2.5.1. Placa quadrada com orifício central 24
2.5.2. Exemplo termo-elástico acoplado 28
2.6. REFERÊNCIAS 32

3. OTIMIZAÇÃO ESCALAR E ANÁLISE DE SENSIBILIDADE 34


3.1. INTRODUÇÃO 34
3.2. FORMULAÇÃO MATEMÁTICA 35
3.3. PROGRAMAÇÃO MATEMÁTICA 35
3.3.1. Condições de ótimo para problemas com restrições 36
3.3.2. Programação Quadrática Sequencial - SQP 38
3.4. ANÁLISE DE SENSIBILIDADES 40
3.4.1. Método das diferenças finitas globais 41
3.4.2. Método direto 41
3.5. INTEGRAÇÃO ANÁLISE/OTIMIZAÇÃO 42
3.5.1. O método da base reduzida no procedimento de otimização 43
(a) Análise de sensibilidade através do RBM 43
3.6. EXEMPLOS 45
3.7. REFERÊNCIAS 48

4. OTIMIZAÇÃO MULTIOBJETIVO 52
4.1. DEFINIÇÃO DO PROBLEMA 52
4.2. CONCEITO DE ÓTIMO DE PARETO 53
4.3. MÉTODOS PARA GERAÇÃO DE PONTOS DE PARETO 54
4.3.1. Método da Soma Ponderada dos Objetivos 54
4.3.2. Método Min-Max 56
4.3.3. Método da Interseção Contorno-Normal (NBI) 56
4.3.4. Método da Restrição Normal Normalizada (NNC) 59
4.3.5. Diferenças entre o NBI e o NNC 61
4.4. EXEMPLOS 62
4.4.1. Treliça de 3 barras 62
4.4.2. Placa quadrada com um orifício central 63
4.4.3. Placa engastada - problema aclopado 66
4.5. PROBLEMAS COM MAIS DE DUAS FUNÇÕES OBJETIVO 68
4.5.1. Exemplo geométrico com 3 funções objetivo 72
4.5.2. Exemplo analítico com 3 funções objetivo 73
4.5.3. Placa sob ação termo-estrutural acoplada com 3 funções objetivo 75
4.6. REFERÊNCIAS 77

5. OTIMIZAÇÃO CONSIDERANDO INCERTEZAS 80


5.1. INTRODUÇÃO 80
5.2. TEORIA PROBABILÍSTICA E ESTATÍSTICA 81
5.2.1. Variáveis Aleatórias 82
5.2.2. Distribuições de probabilidade 83
5.3. CÁLCULO DAS ESTATÍSTICAS 85
5.3.1. Método de Monte Carlo 86
5.3.2. Técnicas de amostragem 89
(a) Exemplo - MC por diferentes amostragens 90
5.3.3. Método da Colocação Probabilística (PCM) 92
(a) Polinômios ortogonais 92
(b) Quadratura de Gauss 93
(c) Aplicando Quadratura de Gauss à estatística - PCM 95
(d) Implementação Computacional 99
5.3.4. Exemplos 101
(a) Verificação - PCM 101
(b) Função Periódica 103
(c) Função com singularidade 104
5.4. OTIMIZAÇÃO ROBUSTA 109
5.4.1. Medidas de Robustez 109
5.4.2. Exemplo: Placa quadrada com orifício central 112
(a) Determinação das amostras 112
(b) Resultado da otimização 114
5.5. REFERÊNCIAS 115

6. CONCLUSÃO E TRABALHOS FUTUROS 118


6.1. PRINCIPAIS DESENVOLVIMENTOS 118
6.2. CONCLUSÕES DOS RESULTADOS OBTIDOS 118
6.3. TRABALHOS FUTUROS 120
LISTA DE SÍMBOLOS

ABREVIATURAS E SIGLAS

Capítulo 2
MEF Método dos Elementos Finitos.
EF Elementos Finitos.
Q4 Elemento retangular isoparamétrico linear de quatro nós.
T3 Elemento triangular linear de três nós (vide CST).
CST “Constant Strain Triangle” – Elemento triangular de deformação constan-
te.
MBR Método da Base Reduzida.
NGL Número de Graus de Liberdade
Le Tamanho médio dos elementos

Capítulo 3
SSO “Structural Shape Optimization” - Otimização estrutural de forma.
SQP “Sequential Quadratic Programming” - Programação sequencial quadráti-
ca.
KKT Karush-Kuhn-Tucker – Relativo às condições de ótimo.
BFGS Broyden-Fletcher-Goldfarb-Shann - Métodos para aproximação da matriz
Hessiana
MDF Método das Diferenças Finitas

Capítulo 4
OM Otimização Multiobjetivo
POM Problema de Otimização Multiobjetivo
WS “Weight Sum” – Método da soma ponderada
NBI “Normal-Boundary Intersection” - Interseção Contorno-Normal
NBIm NBI modificado (vide NBI)
ECMI Envoltória Convexa de Mínimos Individuais
NNC “Normalized Normal Constraint” - Método da Restrição Normal Normali-
zada
NC “Normal Constraint” - Restrição Normal
x
NU Normal à linha utópica

Capítulo 5
OMR Otimização Multiobjetivo Robusta
OR Otimização Robusta
PDF “Probability Density Function” - Função densidade de probabilidade
CDF “Cumulative Distribution Function” - Função de distribuição acumulada
MC Método de Monte Carlo
DoE “Design of experiments” – Plano de amostragem
LHS “Latin Hipercube Sampling” - Método para gerar amostras aleatórias
MT “Mersenne Twister” - método para a geração de amostras pseudo-aleatória
PCM “Probabilistic Collocation Method” - Método da colocação probabilística
ME-PCM “Multi-Element Probabilistic Collocation Method”

LISTA DE SÍMBOLOS

ROMANOS

Escalares
c1 Constante de Lamé
c2 Constante de Lamé
Dijkl Componente do tensor de elasticidade
E Módulo de elasticidade do material
Fobj(x) Função objetiva
gi(x) Restrição de desigualdade
hi(x) Restrição de igualdade
kij Termos do tensor de condutividade térmica
N Tamanho da Base
Ni Função de forma do nó i
f (μ ) Flexibilidade
f N (μ) Flexibilidade aproximada
L(x,α,β,λ) Função Lagrangeana
ti Largura da região
Ti Temperatura no nó i
xri Coordenada de um nó i na sub-região r
x kl Limite inferior da variável de projeto

xi
x ku Limite superior da variável de projeto

Vetores
b Forças de volume agindo sobre o domínio V*
Forças de volume agindo sobre o domínio computacional para uma sub-
br(μ)
região r
de Vetor de deslocamentos nodais de um elemento
ε Vetor de deformação
fn Forças normais aplicadas no contorno Γ*
ft Forças tangenciais e tangentes aplicadas no contorno Γ*
r
f (μ)
n Forças normais aplicadas no contorno Γ para uma sub-região r
f tr (μ) Forças tangenciais aplicadas no contorno Γ para uma sub-região r
r
FTE Carregamento devido à deformação térmica
F Vetor de forças, Vetor das funções objetivo
F* Vetor do mínimo individual das funções objetivo
F N (μ) Vetor de carregamentos transformado
*r
F Vetor de carregamentos do domínio real de uma sub-região r
F jr Vetor de carregamento independente de μ para uma sub-região r

F̂ Vetor de Pseudo-força
q Fluxo de calor no contorno
qv Calor interno gerado sobre o domínio V*,
S Vetor da direção de busca
TN Vetor de temperaturas aproximado
u Vetor de deslocamento
u N (μ ) Deslocamento aproximado
T0 Temperatura inicial

Matrizes
Matriz que relaciona as componentes da derivada de deslocamento com
B *e deslocamentos
C(μ) Operador simétrico usado para relaxação
D Matriz de elasticidade
D* Pseudo-matriz de elasticidade no domínio real
G Matriz de transformação
Gr Matriz de transformação de uma sub-região r
H Hessiana da função Lagrangeana
I Matriz identidade
Ks Matriz de rigidez
K *s Matriz de rigidez no domínio real

xii
K *s N Matriz de rigidez no domínio real no espaço reduzido
*r
K s Matriz de rigidez do domínio real de uma sub-região r
K rs j Matriz de rigidez independente de μ para uma sub-região r
KT Matriz de “rigidez térmica” ou condutividade térmica generalizada
K *T Matriz de “rigidez térmica” transformada
*N
K T Matriz de “rigidez térmica” transformada no espaço reduzido
K rk j Matriz de condutividade independente de μ
K Γr c Matriz de convecção no contorno de referência
Nr
K Γc Matriz de convecção no contorno de referência no espaço reduzido
K Ωr c Matriz de convecção no domínio de referência
K ΩNrc Matriz de convecção no domínio de referência no espaço reduzido
Kk Matriz de condutividade térmica
N Matriz de função de forma
SN Conjunto de amostras para campo de solução
WN Espaço da Base Reduzida
Z Matriz compostas por soluções base do espaço reduzido

GREGOS

Escalares
α Passo da busca linear
αΩ Coeficiente de convecção no domínio
αΩ Coeficiente de convecção no contorno
βi Componentes do vetor com os pesos para os problemas multiobjetivo

β sr ( μ ) j Termos que dependem do parâmetro μ da transformação da Matriz de ri-


gidez
βTr ( μ ) j Termos que dependem do parâmetro μ da transformação da Matriz de
condutividade térmica
Δxi Pertubação da variável
λ, β, φ Multiplicadores de Lagrange
Γ Contorno
μ Parâmetros variáveis
μ low Limite inferior do espaço de projeto
μ up
Limite superior do espaço de projeto
ϕ (μ )
r
Ω Termos da transformação no domínio que dependem de μ
ϕ (μ )
r
Γ Termos da transformação no contorno que dependem de μ

xiii
Ω Domínio
Ω* Domínio real (transformado)
σ ij Tensão
ν Coeficiente de Poisson
γ Coeficiente de expansão térmica

Vetores
α(μ) Coeficiente linear da aproximação no espaço reduzido
*
ε 0 Deformações iniciais (térmicas)
Vetor dos Multiplicadores de Lagrange das funções restrições para um x
ϕ, λ
qualquer
Vetor dos Multiplicadores de Lagrange das funções restrições para x*
ϕ *, λ*
ótimo
μ Vetor de parâmetros variáveis
ζi Conjunto de soluções do espaço
∇N i Derivadas da função de forma para um nó i

Matrizes
Φ Matriz auxiliar na definição dos pontos que compõem a ECMI
σ *
Tensor de tensões

xiv
CAPÍTULO 1
INTRODUÇÃO
1 INTRODUÇÃO

1.1 MOTIVAÇÃO E CONSIDERAÇÕES INICIAIS

Técnicas de otimização têm sido extensivamente usadas para obter projetos viáveis
e econômicos nos mais variados campos das Engenharias. Atualmente as abordagens
têm se tornado cada vez mais realistas, tendo sido comumente empregadas na solução
de problemas não triviais da engenharia prática, incluindo o projeto de estruturas ótimas
através de simulação computacional. No entanto, dois pontos apenas recentemente têm
sido abordados de forma mais incisiva.
A primeira questão diz respeito a atender simultaneamente várias metas (funções
objetivo) em geral conflitantes, além das várias restrições a serem satisfeitas, quase
sempre envolvidas no desenvolvimento de projetos ótimos de problemas reais. Otimiza-
dores de propósito geral não resolvem tais problemas. Uma classe de estratégias basea-
das no denominado conceito de Pareto (ARORA et al., 2007), constitui a abordagem
adequada quando problemas de otimização multiobjetivo (OM) devem ser resolvidos.
Nos últimos 15 anos distribuições eficientes de pontos de Pareto têm sido obtidas
graças ao desenvolvimento de algoritmos eficientes tais como o NBI (“Normal-
Boundary Intersection”) (DAS e DENNIS, 1996) e o NNC (“Normalized Normal Cons-
traint”) (MESSAC et al, 2003). Essas estratégias juntamente com outras abordagens de
mais fácil implementação (Método da soma ponderada e Método min-max) (ARORA et
al., 2007) são aqui implementados e analisadas.
Outra questão importante, são as incertezas embutidas de várias formas no proble-
ma de otimização. Na maioria das aplicações na engenharia, a abordagem tradicional é
considerar modelos determinísticos. Porém, algum grau de incerteza ou variação nas
características de qualquer sistema estrutural é inevitável. Infelizmente, a abordagem
determinística pode levar a soluções cujo desempenho pode cair significativamente de-
vido às perturbações decorrentes de incertezas.
A Otimização Robusta (OR) leva em consideração as variáveis incertas (aleatórias)
e suas probabilidades de ocorrência, de modo a encontrar um ótimo menos vulnerável a
variação dos parâmetros incertos.
Nesta dissertação, serão examinadas algumas abordagens para a consideração das
incertezas no processo de otimização e assim obter projetos robustos. As medidas de
robustez utilizadas aqui foram: a esperança e a variância da função de interesse. Quando
usa-se estas medidas, a busca por um projeto robusto ótimo, surge com um problema de
decisão com múltiplos critérios (otimização multi-objetivo robusta - OMR).

1
Neste trabalho, uma ferramenta para obter projetos ótimos robustos, sobre vários
critérios, é descrita, implementada e aplicada no âmbito estrutural. Para o cálculo dos
parâmetros estatísticos serão empregadas duas técnicas não intrusivas de análise de pro-
pagação de incerteza, o método de Monte Carlo (MC) e o método da colocação probabi-
lística (“Probabilistic Collocation Method” - PCM) (RAMAMURTHY, 2005).
O MC é um dos métodos mais tradicionais para este tipo de análise, porém é inviá-
vel para ser aplicado diretamente em modelos complexos de alta fidelidade, devido ao
grande número de análises necessárias. O PCM é uma ferramenta desenvolvida visando
uma análise de incerteza eficiente, mesmo em modelos complexos e computacional-
mente custosos. A idéia básica do PCM é aproximar a resposta do modelo em função
das variáveis aleatórias, por funções polinomiais, e estimar os parâmetros estatísticos
por integração numérica.
Foi ainda estudado o comportamento do MC para o cálculo das estatísticas de fun-
ções especificas, através do uso de diferentes técnicas de amostragem.
Os problemas de otimização estrutural aqui considerados, abordam modelos elásti-
cos lineares e/ou térmicos bidimensionais, além de treliças planas. Para sua solução, foi
utilizado um algoritmo padrão de otimização de forma (“Structural Shape Optimization”
- SSO) integrando aos procedimentos de otimização, a modelagem geométrica, a análise
estrutural (ou térmica) e a análise de sensibilidade, para o cálculo dos gradientes reque-
ridos pelo otimizador. Este algoritmo usa a programação sequencial quadrática (“Se-
quential Quadratic Programming” - SQP) (VANDERPLAATS, 2004) como otimizador
e na versão inicial do algoritmo SSO, cada análise estrutural (e/ou térmica) é calculada
através de simulação computacional utilizando o Método dos Elementos Finitos (MEF)
(COOK et al, 2003).
O algoritmo SSO será aproveitado e adaptado para os métodos de obtenção de pon-
tos de Pareto, e nele também serão introduzidos os procedimentos para os cálculos dos
parâmetros estatísticos das funções de interesse.
A depender da aplicação, o custo das análises dos modelos, bem como da análise de
sensibilidade via MEF, pode ser elevado. No entanto, as obtenções dos pontos de Pareto
para os problemas de OM e principalmente nos problemas de OMR estão associados a
um grande número de avaliações de funções e cálculos de gradientes, assim sendo o
tempo total de CPU no procedimento de otimização pode ser bastante elevado. Para
amenizar esta dificuldade, técnicas de aproximação baseadas no método das bases redu-
zidas (MBR) (AFONSO, 2003; ALBUQUERQUE, 2005; AFONSO et al., 2009) são
inseridas na metodologia, para as etapas de análise e de análise de sensibilidade requeri-
das pelo algoritmo, durante o processo de otimização, produzindo um grande ganho
computacional, sem grande perda de fidelidade do modelo.
O MBR aqui implementado, é uma projeção do tipo Galerkin em um espaço de
aproximação de baixa ordem, formado por soluções do modelo de alta fidelidade, para o
problema de interesse em pontos selecionados do espaço de projeto. O procedimento
combina dois aspectos, a saber: uma aproximação com precisão e uma melhoria na efi-
ciência computacional.
No MBR utiliza-se do mapeamento da geometria das regiões do modelo para apli-
car uma estratégia de separabilidade de parâmetros (variáveis aleatórias, variáveis de
projeto). Todos os cálculos são conduzidos em um domínio fixo denominado domínio

2
de referência. Transformações geométricas entre o domínio real e computacional são
conduzidas e inseridas nas equações governantes de cada problema específico. Isto,
junto com a decomposição dos termos da rigidez e de força permite o desenvolvimento
de um algoritmo para implementação computacional do método dividido em dois está-
gios denominados “off-line” e “on-line”. Os cálculos “off-line” são conduzidos somente
uma vez e usados subseqüentemente no estágio “on-line” para cada novo parâmetro
desejado. Com isso, para cada novo projeto, funções e gradientes são obtidos muito ra-
pidamente. A conseqüência de avaliações de funções (e seus gradientes) precisas e de
baixo custo computacional torna este procedimento bem atrativo para propósitos de
OMR.
Vários exemplos utilizando as várias estratégias serão investigados com o objetivo
de se verificar a efetividade e robustez dos procedimentos desenvolvidos.
Será demonstrado que a união de estratégias eficientes de OM e OMR e procedi-
mentos de aproximação constitui uma ferramenta efetiva e confiável para se obter os
pontos de Pareto nos problemas aqui estudados e por seguinte dá indícios de sucesso
para outros problemas mais complexos.

1.2 OBJETIVOS

O objetivo final desta dissertação é investigar, desenvolver e implementar procedi-


mentos gerais para a otimização multiobjetivo convencional e robusta, incorporando um
procedimento de aproximação (MBR), aplicado na análise estrutural e/ou térmica e aná-
lise de sensibilidade.
Na Figura 1.1 é apresentado o fluxograma do processo de otimização para as dife-
rentes configurações possíveis implementadas.
Os principais aspectos relacionados ao desenvolvimento deste trabalho são:
• Adaptar e implementar rotinas para análise estrutural e/ou térmica e análise de sen-
sibilidade via Método dos Elementos Finitos (aqui denominado modelo real);
• Automatizar, desenvolver e implementar os procedimentos para análise estrutural
e/ou térmica e o cálculo das sensibilidades no contexto do MBR (aqui denominado
modelo aproximado);
• Realizar um estudo comparativo dos dois procedimentos descritos nos itens anterio-
res, através de exemplos envolvendo análise estrutural e/ou térmica;
• Desenvolver e implementar rotinas que solucionem o problema OM para ambos os
modelos (real e aproximado) a fim de obter os pontos de Pareto;
• Acoplar aos algoritmos de otimização multiobjetivo, as rotinas de otimização estru-
tural;
• Realizar um estudo comparativo através exemplos envolvendo otimização multiob-
jetivo;

3
• Implementar rotina para o cálculo dos parâmetros estatísticos da resposta de inte-
resse, além de seus gradientes, através do método de MC, com diferentes técnicas
de amostragem;
• Implementar o procedimento para o desenvolvimento e aplicação do PCM para va-
riáveis aleatórias considerando as distribuições de probabilidade;
• Incorporar o PCM, na rotina para o cálculo dos parâmetros estatísticos e seus gradi-
entes;
• Realizar um estudo comparativo entre o MC e o PCM;
• Adaptar o MBR para considerar as variáveis aleatórias no espaço da base reduzida;
• Considerar os parâmetros estatísticos no processo de otimização uni e multiobjeti-
vo, tanto utilizando apenas o MEF como via MBR;
• Obter resultados finais, considerando as diferentes metodologias para a otimização
multiobjetivo, para a análise, e para o cálculo dos parâmetros estatísticos.

4
Início

Definir:
• Geometria do problema Caso
Caso Estocástico: • Condições de contorno MBR:
• Variáveis de projeto
Definir variáveis Definir
• Funções objetivo e amostras
aleatórias e suas restrição
distribuições

Caso MBR: Gerar soluções via MEF


e a estruturas de dados off-line

Geração do
projeto inicial

Análise Estru-
tural/Térmica MEF Determinístico
ou ou
Análise de MBR Estocástico
Sensibilidade
Otimização
Escalar
ou Otimizador
SQP
Otimização
Multiobjetivo
(neste caso, Geração do
repetir o pro- novo projeto
cesso para cada
ponto de Pare-
to) Não
Convergiu?

Sim

Fim

Figura 1.1 Algoritmo para as diferentes opções de otimização consideradas.

5
1.3 ORGANIZAÇÃO DA DISSERTAÇÃO

Esta dissertação consiste de seis capítulos organizados conforme será descrito a


seguir.
Após este breve capítulo introdutório, é apresentado no segundo capítulo a formu-
lação do problema bidimensional térmico e estrutural, o MEF aplicado a estes, a separa-
bilidade das variáveis do problema e a aproximação pelo MBR. Este capítulo é uma
continuação da dissertação de (ALBUQUERQUE, 2005), com a inclusão do uso do
elemento retangular bilinear (Q4) para o cálculo via MEF (o elemento triangular linear
(CST) já havia sido considerado).
No terceiro capítulo, é explanado o problema de otimização escalar, seus procedi-
mentos de solução e as diferentes técnicas para a análise de sensibilidade, aplicadas via
o MEF e o MBR. Em seguida são confrontados os resultados obtidos por ambas as a-
bordagens.
No capítulo quarto é apresentada a formulação do problema de otimização multiob-
jetivo, o conceito de pontos de Pareto e os métodos para encontrá-los. Alguns exemplos
são resolvidos para a comparação das técnicas. Este capítulo é baseado na dissertação de
(MACEDO, 2002) aplicado para otimização de treliças planas. As extensões aqui con-
duzidas, foram a incorporação de ferramentas para a solução de problemas 2D contí-
nuos, a inclusão do método NNC (MESSAC et al., 2003) e de uma modificação da es-
tratégia NBI (DAS e DENNIS, 1996), proposta neste trabalho, para problemas com
mais de duas funções objetivo.
O capítulo cinco é onde as incertezas passam a ser consideradas no problema de
otimização. Nele é feita uma breve introdução sobre probabilidade e conceitos estatísti-
cos para, a seguir, serem apresentados e investigados os métodos MC e o PCM para o
cálculo das estatísticas de interesse. Posteriormente, é feita uma introdução à otimização
robusta, para só então, serem apresentados os exemplos utilizando este conceito de oti-
mização.
No sexto capítulo serão feitas algumas conclusões e sugestões de trabalhos futuros.

1.4 REFERÊNCIAS

AFONSO, S.M.B, LYRA, P.R.M, ALBUQUERQUE, T.M. M., R. S., MOTTA. “Struc-
tural Analysis and Optimization in the Framework of Reduced-Basis Method”. Struc-
tural and Multidisciplinary Optimization, Springer Berlin / Heidelberg, DOI:
10.1007/s00158-008-0350-4, Published online, January 2009.

AFONSO, S. M. B. e PATERA, A. T. “Structural Optimization in Framework of Re-


duced Basis Method”. in XXIV CILAMCE, Congresso Ibero Latino Americano de
Métodos Computacionais na Engenharia, 2003.

ARORA J. S.; MESSAC, A.; MULLUR, A. A. “OPTIMIZATION OF STRUCTURAL


AND MECHANICAL SYSTEMS. Chapter 4 - Multiobjective Optimization: Concepts
and Methods”. Jasbir S Arora, University of Iowa, USA, 2007.
6
ALBUQUERQUE T. M. M.. “Análise e Otimização de Problemas Térmicos e Estrutu-
rais Bidimensionais Através do Método das Bases Reduzidas”. Dissertação de mestra-
do, Dept. de Engenharia Civil, Universidade Federal de Pernambuco, Recife-PE, Brasil,
2005.

COOK, R. D., MALKUS, D. S., PLESHA, M. E. e WITT R. J. “Concepts and Applica-


tions of Finite Element Analysis”. Fourth edition, Wiley, 2003.

DAS, I. e DENNIS, J.E. “Normal Boundary Intersection: A New Method for Gene-
rating Pareto Surface in Nonlinear Multicriteria Optimization Problems”. SIAM J. Oti-
mization, Vol. 8, No. 3, pp. 631-657, 1996.

MACEDO, C. M. H. “Otimização de Treliças Planas sob Várias Solicitações com Ênfa-


se a Problemas Multiobjetivos”. Dissertação de Mestrado, Dept. de Engenharia Civil,
Universidade Federal de Pernambuco. Recife-PE, Brasil, 2002.

MESSAC, A., ISMAIL-YAHAYA A. e MATTSON C. A. “The Normalized Normal


Constraint Method for Generating the Pareto Frontier”. Structural Optimization, Vol.
25, No. 2, pp. 86-98, 2003.

RAMAMURTHY, D. “Smart simulation techniques for the evaluation of parametric un-


certainties in black box systems”. Thesis (M.S. in computer science). Washington State
University. 2005.

VANDERPLAATS, G. N. “Numerical Optimization Techniques for Engineering De-


sign - with Applications”. 4rt Edition, Vanderplaats Research & Development, Inc.,
Colorado Springs, CO, 2004.

7
CAPÍTULO 2
PROBLEMAS BIDIMENSIONAIS

2 PROBLEMAS BIDIMENSIONAIS

2.1 FORMULAÇÃO DE PROBLEMAS TÉRMICOS

Nesta seção estão apresentadas as equações governantes dos problemas térmicos no


regime estacionário (ou permanente). Inicialmente deve-se levar em conta que as equa-
ções governantes são descritas para um material homogêneo e ortotrópico, onde este
corpo Ω possui contorno Γ. A variável T, que representa neste caso a temperatura, satis-
faz a equação diferencial parcial

nd
∂qi
(2.1) ∑ = Q − α Ω (T − T0 ) em Ω (2.1)
i =1 ∂xi

onde qi representa a componente i do vetor de fluxo de calor, nd é o número de dimen-


sões do problema, Q representa o termo de fonte (ou sumidouro) de calor no domínio,
α Ω é o coeficiente de convecção no domínio, T0 é a temperatura ambiente e Ω repre-
senta o domínio do problema. O fluxo de calor se relaciona com o gradiente de tempera-
tura através da lei de Fourier da condução,

nd
∂T
(2.2) qi = ∑ −kij (2.2)
j =1 ∂x j

onde kij representa os termos do tensor da condutividade térmica. A Equação (2.1) pode
então ser expressa como

nd
∂ ⎛ nd ∂T ⎞
(2.3) −∑ ⎜⎜ ∑ kij ⎟⎟ + α Ω (T − T0 ) = Q em Ω (2.3)
i =1 ∂xi ⎝ j =1 ∂x j ⎠

Além disso, as seguintes condições de contorno são consideradas

T =T em ΓT
(2.4) (2.4)
q n = q n − α Γ (T − T0 ) em Γ q

8
onde ΓT representa a porção de contorno com temperaturas prescritas T (condição de
contorno de Dirichlet), Γ q representa a parcela do contorno sujeita a fluxo e/ou a con-
vecção (condição de contorno de Cauchy), q n é o fluxo na direção n ortogonal à Γ q ,
α Γ é o coeficiente de convecção no contorno e T0 é a temperatura ambiente.
As expressões foram escritas até então, utilizando notação indicial. Na forma matri-
cial, as equações governantes no domínio Ω (2.3) e no contorno Γ q (2.4) podem ser
expressas como

−∇T k∇T + α ΩT = α ΩT0 + Q em Ω


(2.5) (2.5)
k∇Tn + α ΓT = α ΓT0 + q n em Γ eq

Para o caso bidimensional ortotrópico, ∇ = [ ∂ /∂x, ∂ /∂y ] e k é a matriz constitutiva


T

que contém as condutividades térmicas do material nas direções x e y, dado por

⎡kx 0⎤
(2.6) k = ⎢ (2.6)
⎣0 k y ⎥⎦

2.1.1 Método dos Elementos Finitos aplicado à problemas térmicos

Na aproximação via elementos finitos é feita uma discretização do domínio em


subdomínios chamados de elementos, onde serão efetuadas as aproximações. Para os
problemas térmicos em regime estacionário, onde todos os graus de liberdade estão as-
sociados à temperatura em determinado nó, a temperatura Te(ξ,η) no elemento “e”, em
qualquer ponto (ξ,η) deste elemento, é aproximada da seguinte forma

n
(2.7) T e (ξ ,η ) ∑ N (ξ ,η ) T
i =1
i
e
i
e
= N e Te (2.7)

onde Ti e é a temperatura no nó i e N ie é a função de forma associado ao nó i. Conside-


rando (ξ j ,η j ) as coordenadas locais do nó j as funções de forma são definidas de tal
forma que (ZIEKIEWICZ e TAYLOR, 2000)

⎧1, para j = i
(2.8) N i (ξ j ,η j ) = ⎨ i, j = 1...n (2.8)
⎩0, para j ≠ i

9
Definimos, então, os vetores N e e Te , onde N e = ⎡⎣ N1e ,… , N ie ,… , N ne ⎤⎦ é o vetor das
T
funções de forma do elemento “e”, Te = ⎡⎣T1e ,… , Ti e ,… , Tne ⎤⎦ é o vetor das temperaturas
nodais deste mesmo elemento e n é o número de nós do elemento.
Utilizando a aproximação dada em (2.7), as equações governantes (2.5) para o do-
mínio Ω e para o contorno Γ q , podem ser aproximadas como

(2.9)
( −∇ k∇N + α N ) T = α
T
Ω T + Q em Ω
Ω 0
(2.9)
( k∇Nn + α Γ N ) T = α ΓT0 + qn em Γ q

onde N é o vetor contendo as funções de formas relacionadas aos nós, e T é o vetor con-
tendo as temperaturas nodais dos nós.
Para a solução do sistema de equações diferenciais (2.9), será usado o Método dos
Resíduos Ponderados. A partir da parametrização da aproximação da solução do pro-
blema, este método consiste em encontrar os parâmetros referentes à aproximação con-
siderada (no nosso caso T), que anule a integral em todo o domínio, do resíduo das e-
quações ponderado por diferentes funções peso Wl , para l =1..nl, onde nl é o número de
funções de peso utilizadas. As equações do problema estacionário de condução de calor
devem satisfazer, então, a seguinte equação

⎡ ⎤
⎢ ∫ ( −∇T k∇N + α Ω N )Wl d Ω + ∫ ( k∇Nn + α Γ N ) Wl d Γ q ⎥ × T =
⎢ ⎥
(2.10) ⎣ Ω Γq ⎦ (2.10)
∫ (α
Ω
Ω T0 + Q ) Wl d Ω + ∫ (α Γ T0 + q n ) Wl d Γ q
Γq

para l =1..nl
Considerando uma discretização em elementos finitos do domínio em estudo, apli-
cando a aproximação de Galerkin do Método dos Resíduos Ponderados, onde as funções
de peso são as próprias funções de forma (utilizadas para a aproximação da solução), e
integrando por partes o termo com derivada de maior ordem, chega-se a forma fraca do
problema estacionário de condução de calor (ALMEIDA, 2001)

⎡ ⎤
⎢ ∫ ( ∇NT k∇N + α Ω NT N ) d Ω + ∫ α Γ NT Nd Γ q ⎥ × T =
⎢ ⎥
(2.11) ⎣ Ω Γq ⎦ (2.11)
∫ (α T0 + Q ) N d Ω + ∫ (α T0 + q n ) N d Γ q
T T
Ω Γ
Ω Γq

As integrais que aparecem na Equação (2.11), podem ser avaliadas, somando as


contribuições de cada elemento. A equação governante do problema térmico na forma
discreta, pode ser expressa como

10
(2.12) K T T = FT (2.12)

onde KT é a matriz de “rigidez térmica”, FT é o vetor com termos de cargas térmicas


total e T é o vetor das temperaturas nodais incógnitos. O vetor FT é dado por

(2.13) FT = FΩ + FΓ (2.13)

onde FΩ representa as cargas no domínio e FΓ as cargas no contorno, dado por

(2.14) FΩ = ∫ (α Ω T0 + Q ) NT d Ω ; FΓ = ∫ (α T
Γ 0 + q n ) NT dΓ q (2.14)
Ω Γq

Para o problema descrito na Equação (2.12) a matriz de “rigidez térmica” apresenta


a contribuição das parcelas relativas à condutividade térmica Kk, convecção no domínio
K Ωc e convecção contorno K Γc , i.e.

(2.15) K T = K k + K Ωc + K Γc (2.15)

onde

(2.16) K k = ∫ ∇NT k∇Nd Ω; K Ωc = ∫ α Ω NT Nd Ω; K Γc = ∫ α Γ NT Nd Γ q (2.16)


Ω Ω Γq

2.2 FORMULAÇÕES DOS PROBLEMAS ELÁSTICOS

Nesta seção serão apresentadas as equações governantes da elasticidade linear nas


formas forte. Para tornar mais prática a apresentação da formulação, considera-se a de-
formação de um corpo homogêneo Ω com contorno Γ sujeito à forças volumétricas e
carregamentos distribuídos. Além disso, considera-se que o gradiente do deslocamento
é suficientemente pequeno, de forma que o modelo de elasticidade linear descreva ade-
quadamente a deformação. Desta forma as equações de equilíbrio são satisfeitas na for-
ma

nd ⎛ ∂σ ⎞
(2.17) ∑ ⎜
ij
⎜ ⎟⎟ + b j = 0 em Ω (2.17)
i =1 ⎝ ∂x j ⎠

onde bj é a força volumétrica agindo sobre o domínio Ω na direção j e o tensor de ten-


sões σ ij está relacionado linearmente com o vetor de deformação. Na forma matricial,
as equações de equilíbrio para o caso bidimensional, podem ser expressas da seguinte
forma

11
(2.18) ∇ σ + b = 0
T
(2.18)

onde ∇ é um operador diferencial, σ é o vetor das tensões e b o vetor das forças de


volume, definidos respectivamente por

⎡∂ ∂ ⎤ ⎡σ xx ⎤
⎢ ∂x 0 0⎥ ⎢σ ⎥
∂y ⎡ bx ⎤
(2.19) ∇T = ⎢ ⎥, σ = ⎢⎢σ yy ⎥⎥ , b=⎢ ⎥ (2.19)
⎢ ∂ ∂⎥ xy ⎣ by ⎦
⎢0 0
∂x ⎥⎦
⎢ ⎥
⎣ ∂y ⎢⎣σ yx ⎥⎦

A equação constitutiva, para a elasticidade linear na forma matricial, é apresentada


através da seguinte relação

(2.20) σ = Dε (2.20)

onde ε o vetor de deformações dado por ε = ∇u onde u é o vetor dos deslocamentos,


que no caso de problemas de elasticidade plana é dado por

⎡u ( x, y ) ⎤
(2.21) u = ⎢ ⎥ (2.21)
⎣ v ( x, y ) ⎦

Para materiais isotrópicos com módulo de elasticidade E e coeficiente de Poisson


υ , a matriz de elasticidade D (Equação (2.20)) para o estado plano de deformação é
dada por (VILLAÇA e GARCIA, 2000).

⎡ 2c2 + c1 c1 0 0⎤
⎢ ⎥
c1 2c2 + c1 0 0⎥
(2.22) D = ⎢ (2.22)
⎢ 0 0 c2 c2 ⎥
⎢ ⎥
⎢⎣ 0 0 c2 c2 ⎥⎦

onde, c1 e c2 são as constantes de Lamé definidas por

Eυ E
(2.23) c1 = , c2 = (2.23)
(1 + υ )(1 − 2υ ) 2(1 + υ )

A equação de equilíbrio para elasticidade plana pode então ser expressa, em função
dos deslocamentos, da seguinte forma

12
(2.24) ∇ D∇u + b = 0
T
(2.24)

Além das equações no domínio, têm-se as condições de contorno de deslocamento


em Γ D e de tensão prescrita em Γ N , ou seja,

u = u em Γ D
(2.25) (2.25)
σ = σ em Γ N

2.2.1 Método dos Elementos Finitos aplicado à elasticidade bidimensional

Na aproximação via elementos finitos para os problemas bi-dimensionais onde to-


dos os graus de liberdade estão associados aos deslocamentos nodais. Os deslocamentos
ue(ξ,η) e ve (ξ,η) em qualquer ponto (ξ,η) no elemento “e”, onde u e v são, respectiva-
mente, as componentes horizontais e verticais do deslocamento, são aproximados da
seguinte forma

n
u e ( ξ ,η ) ∑ N (ξ ,η ) u
i =1
i
e e
i

(2.26) n
(2.26)
v (ξ ,η )
e
∑ N (ξ ,η ) v
i =1
i
e e
i

onde uie e vie são as componentes do deslocamento no nó i do elemento e e N i é a fun-


ção de forma associado ao nó i, da mesma forma como foi definido para o caso térmico
na seção 2.1.1. Com isso pode-se reescrever a equação que relaciona deformação e des-
locamento para um elemento genérico e da seguinte maneira

n
(2.27) ε e B ed e = ∑ Biedie (2.27)
i=1

T
onde Be é matriz que relaciona as deformações com deslocamentos, die = [uie vie ] e n é
o número de nós por elemento. Para um nó específico i, Bie pode ser escrita como

(2.28) Bie = ∇N ie (2.28)

Partindo da formulação forte e aplicando a aproximação de Galerkin em Elementos


Finitos (ZIEKIEWICZ e TAYLOR, 2000) a equação diferencial governante para pro-
blemas de elasticidade pode ser escrita como

13
⎡ ⎤
(2.29) ⎢ ∫ BT DBd Ω ⎥ u = ∫ NT bd Ω + ∫ NT f n d Γ + ∫ NT ft d Γ (2.29)
⎣Ω ⎦ Ω Γn Γt

Na Equação (2.29) b é o vetor das forças de volume agindo sobre o domínio Ω , f n


e ft são respectivamente os vetores das forças normais e tangentes aplicadas no contor-
no Γ n e Γt respectivamente, N é a matriz relacionada com as funções de forma utiliza-
das pelo Método dos Elementos Finitos em modelos bi-dimensional e B a matriz que
relaciona as componentes das deformações com deslocamentos, apresentadas anterior-
mente.
A Equação (2.29), pode ser reescrita como

(2.30) K s u = Fs (2.30)

onde Ks é a matriz de rigidez da estrutura e Fs é o vetor com termos de carregamento e


condições de contorno.

2.2.2 Acoplamento termo-elástico

A equação governante para problemas termo-elásticos constitui uma extensão da


apresentada na Equação (2.29) com a inclusão de um termo de carregamento adicional
relacionado com as deformações térmicas. Assim, tem-se

⎡ ⎤
(2.31) ⎢ ∫ BT DBd Ω ⎥ u = ∫ NT bd Ω + ∫ NT f n d Γ + ∫ NT ft d Γ + ∫ BT Dε 0 d Ω (2.31)
⎣Ω ⎦ Ω Γ Γ Ω

Na equação anterior, ε 0 é o vetor das deformações iniciais devido à variação térmi-


ca. Assim, o último termo da Equação (2.31) é o responsável pelo acoplamento entre os
problemas térmico e estrutural. As deformações iniciais são causadas por variação tér-
mica do material em uma estrutura e devido a restrições oriundas das condições de a-
poio.
Considerando um material isotrópico com coeficiente de expansão térmica γ, coefi-
ciente de Poisson υ e uma variação da temperatura em relação a uma temperatura de
referência ΔT, tem-se para as condições de Estado Plano de Deformação que

⎡(1 + ν ) γ ΔT ⎤
⎢ ⎥
(2.32) ε 0 = ⎢(
1 + ν ) γ ΔT ⎥ (2.32)
⎢ 0 ⎥
⎢ ⎥
⎣ 0 ⎦

14
As deformações térmicas produzem apenas uma variação no volume da estrutura,
sem variar sua forma. Por isso, as componentes da deformação de cisalhamento são
iguais à zero. Como se pode observar, o efeito dos carregamentos térmicos é introduzi-
do na análise estrutural transferindo-se o campo de temperaturas do modelo térmico
para o modelo elástico. Este campo de temperaturas é utilizado para computar as defor-
mações iniciais térmicas, que introduzem carregamentos mecânicos na estruturas atra-
vés do último termo da Equação (2.31).

2.3 MAPEAMENTO DAS EQUAÇÕES DO MEF

Os elementos utilizados neste trabalho serão: o quadrilateral isoparamétrico bilinear


de quatro nós (Q4) e o triângular linear de três nós (T3) conhecido como CST – “Cons-
tant Strain Triangle”, pois como suas funções de forma são lineares, a deformação é
constante no elemento.
A fim de evitar a necessidade de uma nova discretização, bem como reduzir o custo
computacional relativo ao processamento da solução via MEF a cada mudança de parâ-
metro que altere a geometria da estrutura, pode-se realizar os cálculos sobre um domínio
de referência Ω mantido constante durante todo o procedimento e aplicar transforma-
ções a fim de obter as equações em outro domínio Ω *, chamado domínio real. Para tal
utiliza-se inicialmente o conceito de separabilidade (ALBUQUERQUE, 2005), escre-
vendo os termos da matriz de rigidez e vetor de carga em forma decomposta. Assim, os
domínios bidimensionais serão divididos em várias regiões r = 1… R , de acordo com a
dependência dos parâmetros variáveis para o problema em particular. Considerando a
contribuição de cada sub-região Ω r a matriz de rigidez e o vetor dos termos de carre-
gamento definidos nas Equações (2.12) e (2.30) podem ser reescritos como

R R
(2.33) K = ∑ K r F = ∑ Fr (2.33)
r =1 r =1

Separando os termos (regiões) que dependem do parâmetro variável, um novo con-


junto de parâmetros constituirá somente um novo dado a ser ajustado na forma decom-
posta, não se tornando necessário outro processo de discretização de um novo domínio,
por conseguinte, contribuindo para a melhoria da eficiência computacional. Este proce-
dimento se mostrará ainda mais interessante mais adiante, ao se utilizar o MBR (Méto-
do da Base Reduzida) (AFONSO e PATERA, 2003).
Cada novo domínio real Ω* bidimensional é dividido em um número de regiões R,
onde cada região r possui uma transformação diferente, entre o domínio real Ω*r e o
domínio de referência Ω r , a depender dos parâmetros ajustáveis de cada região. Isto
significa que para cada região, há uma associação linear entre os domínios de referência
e o real, definido da seguinte forma

(2.34) xi*r = G ijr x rj ou x*r = G r xr com i, j = 1, 2, e r = 1,..., R (2.34)

15
onde x1 e x2 correspondem às coordenadas nas direções x e y respectivamente, e a matriz
de mapeamento (ou transformação) G é dada por

⎡∂ x1* ∂ x1* ⎤
⎢ ⎥
∂x ∂ x2 ⎥
(2.35) G (μ) = ⎢ 1*
r
(2.35)
⎢∂ x2 ∂ x2* ⎥
⎢ ⎥
⎣∂ x1 ∂ x2 ⎦

Esta matriz jacobiana (2.35) é escrita em função dos parâmetros variáveis μ , para
maiores informações vide (ALBUQUERQUE, 2005). O mapeamento desta transforma-
ção permitirá obter as equações para novos domínios, sem a necessidade de gerar nova
malha nem construir as matrizes ou vetores do novo sistema de equação.
Considerando a transformação apresentada, pode-se então obter as equações gover-
nantes para um novo domínio qualquer Ω*r em função dos parâmetros μ , a partir das
equações no domínio de referência Ω r . Para uma região específica r, as transformações
dos infinitesimais do domínio e do contorno podem ser escritas como

(2.36) d Ω*r = ϕΩr (μ)d Ω r e d Γ*r = ϕΓr (μ)d Γ r (2.36)

onde

(2.37) ϕΩr (μ) = det[G r (μ)]−1 e ϕΓr (μ) = [G r (μ)]−1 n r t (2.37)

onde n*r t é o vetor unitário tangente ao contorno Γr de uma região particular r e sig-
nifica a norma euclidiana do vetor.

2.3.1 Mapeamento da equação térmica

Aplicando os conceitos de separabilidade, juntamente com as transformações apli-


cada á matriz ∇N e aos infinitesimais d Ω e d Γ , tem-se que as matrizes de “rigidez
térmica” e o vetor de carregamento térmico decompostos, podem ser transformados do
domínio de referência para o domínio real como

K *kr ( μ ) = ∫ ∇N
T
⎡⎣G rT (μ)k r G r (μ) ⎤⎦ ∇N det[G r (μ)]−1 d Ω r
Ωr

(2.38) K *Ωrc ( μ ) = ∫α
r
Ω NT N det[G r (μ )]−1 d Ω r (2.38)
r
Ω

K *Γrc ( μ ) = ∫ α Γr NT N [G r (μ)]−1 n r t d Γ rq
Γ rq

16
FΩ*r = ∫ (α T0 + Q r ) NT det[G r (μ )]−1 d Ω r
r
Ω
Ωr
(2.39) (2.39)
FΓ*r = ∫ (α T − q rn ) NT [G r (μ)]−1 n r t d Γ rq
r
Γ 0
Γ rq

Na presente aplicação, o único termo dependente de μ é G r (μ) .


Estas transformações, nas aplicações aqui analisadas, são constantes no domínio de
cada região, sendo possível “retirá-las” das integrais e desta forma reescrever as matri-
zes e vetores decompostos apresentados nas Equações (2.38) e (2.39) com o auxilio da
Equação (2.37), da seguinte maneira

nt
(2.40) K *kr ( μ ) = ∑ βTr ( μ ) j K rk j ; K *Ωrc ( μ ) = ϕΩr (μ)K Ωr c ; K *Γrc ( μ ) = ϕΓr (μ)K Γr c (2.40)
j =1

(2.41) FT*r ( μ ) = ϕΩr (μ)FΩr + ϕΓr (μ)FΓr (2.41)

onde os termos independentes do parâmetro µ são dados pelas Equações (2.14) e (2.16)
aplicada a cada região. As matrizes K rk j são formadas a partir da sub-decomposição da
matriz K *kr de condutividade térmica. Nesta decomposição nt e βTr ( μ ) j variam de a-
cordo com a transformação específica da região. As matrizes K rk j são calculadas da se-
guinte forma

(2.42) K rk j = ∫ ∇N k ∇Nd Ω j = 1...nt


T r r
j , (2.42)
r
Ω

onde as sub-matrizes constitutivas k rj são obtidas através da decomposição de k *r (μ) ,


que é definida a partir do seu valor de referência como

(2.43) k *r (μ) = ⎡⎣G rT (μ)k r G r (μ) ⎤⎦ det[G r (μ )]−1 (2.43)

A partir desta transformação (Equação (2.43)) são retiradas não só as matrizes k rj como
também o parâmetro β kr ( μ ) j que contêm os fatores de dependência da variável µ, de tal
modo que

nt
(2.44) k *r (μ) = ∑ βTr ( μ ) j k rj (2.44)
j =1

Para maiores detalhes vide (ALBUQUERQUE, 2005).

17
A partir da Equação (2.33) e das matrizes e vetores decompostos mostrados nas
Equações (2.40) e (2.41), respectivamente, obtém-se as equações governantes, no domí-
nio real, para valores de μ quaisquer, da mesma forma como foi feito nas Equações
(2.15) e (2.16). Temos assim

(2.45) K *T T* = FT* (2.45)

Resolve-se este novo sistema para se obter as temperaturas atualizadas T* .

2.3.2 Mapeamento da equação elástica

Utilizando as transformações de coordenadas das Equações (2.34) e (2.35), aplica-


das à matriz B, as relações infinitesimais da Equação (2.36) e o conceito da separabili-
dade, tem-se as novas sub-matrizes de rigidez K *er e os termos de carregamento Fe*r no
domínio real de cada região (Equações (2.29) e (2.30)), da seguinte forma

(2.46) K *s r ( μ ) = ∫ (G ( μ ) B
rT T
)Dr (G r ( μ ) B) det[G r (μ)]−1 d Ω r (2.46)
Ωr

Fs*r ( μ ) = ∫N b
T r
det[G r (μ)]−1 d Ω r + ∫Nf
T r
n [G r (μ)]−1 n nr t d Γ nr
Ωr Γ nr
(2.47) (2.47)
+ ∫ NT ftr [G r (μ)]−1 ntr t d Γtr
Γtr

Assim como para o caso térmico, as componentes que dependem de μ podem ser
retirados das integrais e desta forma obter

nt
(2.48) K *s r ( μ ) = ∑ β sr ( μ ) j K rj (2.48)
j =1

(2.49) Fs*r ( μ ) = ϕΩr (μ)Fbr + ϕΓr (μ)F fr (2.49)

onde

(2.50) K rj = ∫B
T
Drj BdV r (2.50)
Vr

(2.51) Fbr = ∫ N b dV , F fr = ∫Nf d Γr + ∫N f d Γr


T r r T r T r
n t (2.51)
r nr tr
V Γ Γ

18
Nas equações anteriores, cada componente das sub-matrizes de elasticidade Drj e
β sr ( μ ) j são definidos de maneira análoga à decomposição da matriz de condutividade
térmica k *r (Equação (2.43) e (2.44)), de tal modo que

nt
(2.52) D*r (μ) = ∑ β sr ( μ ) j Drj = ⎡⎣G rT (μ) Dr G r (μ) ⎤⎦ det[G r (μ)]−1 (2.52)
j =1

Como se pode verificar na Equação (2.52), dependendo da transformação a ser a-


plicada em cada região, a pseudo-matriz de elasticidade D*r depende diretamente de Gr
e, portanto, da geometria/transformação da região.
O vetor que acopla os efeitos térmicos ao carregamento elástico é calculado nova-
mente para cada variação do parâmetro μ (estagio on-line do MBR que será tratado
mais adiante), pois os valores das deformações variam em função da temperatura, que
não pode ser mapeada no domínio da região r. Desta forma, para cada valor de μ se tem

*r
(2.53) FTE (μ ) = ∫B
*T
Dε*o (μ)dV *r (2.53)
V *r

O vetor carregamento que acopla os efeitos térmicos, pode ser decomposto de for-
ma linear em relação às temperaturas, porém tal decomposição não foi aplicada.
O vetor de carregamento total considerando os efeitos térmicos nas deformações i-
niciais de uma região r para um valor de μ qualquer, pode ser calculado como

(2.54) Fs*r ( μ ) = ϕΩr (μ)Fbr + ϕΓr (μ)F fr + FTE


*r
(μ ) (2.54)

A partir da Equação (2.33) as equações governantes são obtidas para valores de μ


quaisquer. Para se obter os deslocamentos atualizados u* , no domínio real, resolve-se o
novo sistema.

(2.55) K *s u* = Fs* (2.55)

2.4 MÉTODO DA BASE REDUZIDA

O MBR consiste numa projeção do tipo Galerkin em um espaço de ordem reduzida


que contém soluções (base) para o problema de interesse em pontos selecionados do
espaço de projeto.
O campo de soluções u(μ) (onde, no presente trabalho, u pode representar deslo-
camentos ou temperaturas) faz parte do espaço de solução de dimensões infinitas Y , e
claramente os possíveis valores de u(μ) não cobrem inteiramente o espaço Y . Conside-
rando Y como um espaço tri-dimensional, observa-se que u em função de μ pode ser
representado por uma curva ou superfície conforme a Figura 2.1 (a). A partir disto, po-

19
de-se afirmar que o espaço das soluções não se trata de um espaço de dimensão infinita
N
Y e sim um espaço de dimensão reduzida Y , onde é observado a dependência do pa-
râmetro variável μ (PRUD` HOMME et al, 2002), como ilustrado na Figura 2.1 (b).

u(μnovo)
u(μ)
u(μN)
u(μ1)
u(μ2)

(a) (b)

Figura 2.1 Redução de dimensões do espaço solução - (a) Variação da solução com o
parâmetro μ; e (b) aproximação da solução μnovo através de uma combinação linear de
soluções u(μi) pré-calculadas.

Conforme comentado acima, não é mais preciso representar todas as possíveis fun-
ções em Y para aproximar u(μ), tornando-se necessário aproximar somente aquelas
funções no espaço reduzido YN. Com isso, pode-se simplesmente calcular a solução u
em vários pontos do conjunto correspondente a diferentes valores de μ e para qualquer
novo parâmetro μnovo pode-se aproximar u(μnovo) através de uma combinação linear de
soluções conhecidas u(μi). A ilustração desta combinação linear encontra-se na Figura
2.1 (b).
Para se construir uma aproximação para o campo de solução, inicialmente deve-se
construir a amostra de pontos sob a qual a base será montada. Desta forma tem-se a de-
finição do conjunto de amostras representada da seguinte forma

{
(2.56) S N = (μ1 ,…, μ R ) ,…, (μ1 ,…, μ R )
1 N
} (2.56)

onde cada (μ 1 , … , μ R ) está contido no espaço Dμ, isto significa que


i

(2.57) μ low ≤ μ ri ≤ μ up (2.57)

20
no qual μ low e μ up são os limites inferior e superior, respectivamente, do espaço de
projeto Dμ e N é o número de amostras.
Para cada componente de SN calcula-se a solução u(μ) através do Método dos Ele-
mentos Finitos, utilizando as Equações (2.12) e/ou (2.30). Isto nos permite construir um
espaço de Base Reduzida WN tal que

(2.58) W N = span{u[ (μ1 ,…, μ R ) ],…,u[ (μ1 , …, μ R ) ]}


1 N
(2.58)

Para simplificar a notação defini-se ζ i ∈ R n como

(
(2.59) ζ i = u (μ1 ,..., μ R )
i
) (2.59)

e assim WN pode ser escrito como

(2.60) W N = span{ζ i } com i = 1,…, N (2.60)

A equação acima significa que qualquer vetor do espaço reduzido WN pode ser ex-
presso como uma combinação linear das soluções ζ i . Vale salientar que as soluções nos
pontos amostrais devem ser linearmente independentes, para que ζ seja base de WN.
Caso haja soluções redundantes elas devem ser desconsideradas. Isto nos leva à defini-
ção da aproximação do MBR para a solução como

N
(2.61) u N (μ) = ∑ α ( μ ) ζ j
j
α j ∈ Rn (2.61)
j =1

ou na forma matricial

(2.62) u N (μ) = Zα (μ ) (2.62)

no qual

(2.63) Z = [ζ1 ,..., ζ N ] ; αT ( μ ) = [α ( μ ) ,..., α ( μ ) ]


1 N
(2.63)

Partindo da equação fundamental do MEF (Equações (2.12) e (2.30)) e substituindo


o vetor solução u (ou T) por uN tem-se

(2.64) K (μ )Zα (μ ) = F (μ ) (2.64)

Pre-multiplicando ambos os lados de (2.64) por ZT , ou alternativamente, aplicando


mínimos quadrados em (2.62), obtemos

21
(2.65) Z T K (μ )Zα(μ ) = Z T F(μ ) (2.65)

Com isso, os coeficientes lineares α(μ) são obtidos resolvendo o problema no espa-
ço WN dado da seguinte forma

(2.66) K N (μ)α (μ) = F N (μ) (2.66)

no qual

(2.67) K N (μ ) = Z T K (μ)Z ∈ R N × N , F N (μ) = Z T F(μ) ∈ R N (2.67)

Para ganhar ainda mais agilidade, pode-se utilizar o conceito da separabilidade, já


discutido, onde a matriz de rigidez e o vetor de carregamento no espaço WN podem ser
escrito como

R R
(2.68) K = ∑ K , F = ∑ F Nr
N Nr N
(2.68)
r =1 r =1

com K Nr e F Nr representando, respectivamente, a contribuição de cada sub-região na


matriz de rigidez e no vetor de carregamento no espaço WN, i.e.

(2.69) K N r (μ ) = Z T K r (μ)Z , F N r (μ) = Z T F r (μ) (2.69)

Nas equações acima os termos K r (μ ) e F r (μ) podem ser mapeados como foi visto
nas seções 2.3.1 e 2.3.2, e assim reescrevê-los, para se obter os mesmos correspondentes
ao domínio real de cada região r . Por exemplo, para o caso elástico, resulta em

nt
(2.70) K *s Nr ( μ ) = ∑ βsr ( μ ) j K sNr j ; Fs* Nr ( μ ) = ϕΩr (μ)FbNr + ϕΓr (μ )F fNr (2.70)
j =1

r
onde apenas os termos βs j , ϕbr , ϕnr e ϕtr dependem do parâmetro variável, K sNr j e F jNr
são constantes, calculados para o domínio de referência e projetados no espaço de base
reduzida. Além disso, nt é o número de termos da matriz e tal como anteriormente men-
cionado varia com a transformação específica da região correspondente r. Vale salientar
que estes parâmetros foram discutidos com mais profundidade na seção 2.3. Para o caso
térmico, as matrizes e vetores de cada região podem ser escritos da seguinte forma

nt
(2.71) K *k Nr ( μ ) = ∑ βTr ( μ ) j K kNr j ; K *ΩNrc ( μ ) = ϕΩr (μ )K ΩNrc ; K *ΓNr
c ( μ ) = ϕ Γ (μ )K Γc
r Nr
(2.71)
j =1

22
(2.72) F* Nr ( μ ) = ϕdr (μ)FdNr + ϕcr (μ)FcNr (2.72)

2.4.1 Procedimento Computacional Off-Line/On-Line

No mapeamento das equações governantes da base reduzida, os termos que são de-
pendentes/não dependentes do parâmetro μ são claramente distinguidos. Como uma
conseqüência desta subdivisão, a implementação computacional para cálculo das gran-
dezas pelo Método da Base Reduzida é conduzida por um algoritmo “off-line” (inde-
pendente de μ)/ “on-line” (dependente de μ). A idéia deste algoritmo consiste no fato
que a parte “off-line” só é executado uma vez, gerando variáveis contendo as matrizes
K iNr e vetores de força FiNr . Consequentemente, no estágio on-line utiliza-se estes da-
dos gerados anteriormente para executar uma resposta em tempo real para um novo μ.
No caso de problemas de termo-elasticidade, o procedimento do Método da Base Redu-
zida é implementado de acordo com o algoritmo mencionado na Tabela 2.1. Para os
problemas térmicos o algoritmo é bastante similar. Para mais detalhes sobre o procedi-
mentos do MBR utilizado, bem como suas aplicações e resultados, vide (AFONSO e
PATERA, 2003; ALBUQUERQUE, 2005; MOTTA et al., 2007; AFONSO et al.,
2009)

Tabela 2.1 Algoritmo do Método da Base Reduzida: OFF-LINE/ON-LINE. (Problemas


acoplados)
OFF-LINE - μ independent:

1- Problema Térmico

1.1 Escolher a amostra: S N = {( μ ,..., μ ) ,..., ( μ ,..., μ ) } ;


1 R
1
1 R
N

1.2 Construir a matriz de soluções térmicas via MEF: ΖT = [ζ T1 ,..., ζ TN ] ;


1.3 Construir as componentes matrizes de “rigidez térmica” no espaço reduzido:
K kNr j = ZTT K rk j ZT ; K ΩNrc = ZTT K Ωr c ZT ; K ΓNrc = ZTT K Γr c ZT ;

1.4 Constrói as componentes dos vetores de cargas térmicas no espaço reduzido:


FΩNr = ZTT FΩr ; FΓNr = ZTT FΓr .

2- Elástico Acoplado
2.1 Construir a matriz de soluções dos deslocamentos via MEF (a partir da amostra e
das soluções térmicas): Ζ s = [ζ s1 ,..., ζ sN ] ;
2.3 Construir as componentes da matriz de rigidez no espaço reduzido: K sNr j = ZTs K rs j Z s ;

2.4 Construir as componentes dos vetores de carga estrutural no espaço reduzido:


FbNr = ZTs Fbr ; F fNr = ZTs F fr .

23
ON-LINE – para um novo vetor μ :

1- Problema Térmico
1.1 Formar a matriz de “rigidez térmica” no espaço reduzido:
R
⎛ r nt

K T ( μ ) = ∑ ⎜ ϕΩ (μ)K Ωc + ϕΓ (μ )K Γc + ∑ βTr ( μ ) j K kNr j ⎟ ;
*N Nr r Nr

r =1 ⎝ j =1 ⎠
1.2 Formar o vetor de cargas térmicas no espaço reduzido:
R
FT* N ( μ ) = ∑ (ϕΩr (μ)FΩNr + ϕΓr (μ)FΓNr ) ;
r =1

1.3 Resolver: K T* N (μ)αT (μ) = FT* N (μ) ;

1.4 Calcular: T N (μ) = ZT αT (μ) .


2- Elástico Acoplado
R nt
2.1. Formar a matriz de rigidez no espaço reduzido: K *s N (μ) = ∑∑ β sr (μ ) j K sNr j ;
r =1 j =1

2.2 Formar o vetor de carga estrutural no espaço reduzido:


R
Fs* N (μ) = ∑ ⎡⎣ϕΩr (μ)FΩNr + ϕΓr (μ)F fNr + FTE
* Nr
( μ )⎤⎦ ;
r =1

2.3 Resolver: K *s N ( μ)αs ( μ) = Fs* N ( μ) ;

2.4 Calcular: u N ( μ) = Z s αs ( μ) ;

2.5 EXEMPLOS

2.5.1 Placa quadrada com orifício central

O primeiro exemplo a ser considerado será uma placa quadrada com um orifício
central cujo comportamento estrutural pode ser modelado como estado plano de tensões.
Devido à simetria do problema apenas um quarto da placa será modelada. A geometria,
as condições de contorno e as variáveis de projeto estão apresentadas na Figura 2.1. As
variáveis do problema são as dimensões μ1 e μ2 representadas na figura.

24
μ1

μ2
1
2 3

Figura 2.1 Um quarto da placa quadrada – Definição do problema.

As propriedades do material e as dimensões do modelo são as seguintes:


• O Módulo de elasticidade das regiões 1 e 2 é E = 105 MPa,
• O Módulo de elasticidade da região 3 é E3 = 5x104 MPa,
• O Coeficiente de Poisson υ = 0.3,
• Espessura t = 1mm,
• Comprimento lateral é 100mm,
• Carregamento distribuído p = 1 N/mm.
Para as dimensões do orifício os limites inferior e superior impostos são 25mm e
75mm, respectivamente.
Neste exemplo, é analisada a estrutura citada para μ1 = 45 mm e μ2 = 55 mm. Um
teste de convergência da malha foi realizado para dois tipos de elementos utilizados no
modelo de Elementos Finitos (EF), variando seus tamanhos médios (Le). A convergên-
cia foi estudada em relação à flexibilidade total da estrutura (FTu). Os elementos utili-
zados foram o quadrilateral isoparamétrico bilinear de quatro nós (Q4) e o triângulo
linear de três nós (T3). A Figura 2.2 apresenta um gráfico do valor da flexibilidade total
para diferentes refinamentos de malha. Na Figura 2.2 (a) o eixo x é o tamanho dos ele-
mentos (Le), enquanto que na Figura 2.2 (b) o eixo x é o número de graus de liberdade.
As malhas utilizadas são estruturadas e uniformes, os elementos quadrilaterais pos-
suem lados iguais (quando possível) e as malhas de elementos triangulares se sobre-
põem as malhas de elementos quadrilaterais, ou seja, possuem os mesmos nós. A densi-
dade (refinamento) da malha é definida pelo tamanho médio dos elementos (Le).

25
a) b)
Figura 2.2 Um quarto da placa quadrada – Convergência da malha de EF em relação à
flexibilidade total (10-3 J): a) Le – tamanho médio do elemento, b) Número de graus de
liberdade.

Apesar da convergência mais eficiente do elemento quadrilateral, a formulação do


sistema de equações do elemento triangular é mais rápida devido à obtenção da integra-
ção analítica das equações, sem a necessidade de utilizar a integração numérica. Para
maiores detalhes vide (COOK et al, 2003).
Agora, será examinado o procedimento de análise via MBR. Para tal, as malhas de
elementos finitos consideradas, foram as que apresentaram um erro (em relação à flexi-
bilidade utilizando a malha mais refinada) próximo de 0,1 %, portanto:
• Para o elemento Q4 adotou-se elementos de dimensão média de 2mm. O
modelo possui 3.952 graus de liberdade (erro 0,12%).
• Para o elemento T3 adotou-se elementos de dimensão média de 1mm. O
modelo possui 15.402 graus de liberdade (erro 0,10%).
Os resultados para estas malhas estão indicados com um “X” na Figura 2.2 (a e b).
O valor absoluto dos deslocamentos máximos para o modelo utilizando o elemento Q4
de 2mm e o elemento T3 de 1mm foram, respectivamente, 6.5819 x10-3 mm e
6.5828x10-3 mm, as flexibilidade foram, respectivamente, 0.42714 x10-3 J e 0.42722
x10-3 J e o tempo de CPU foram 4.41s e 9.83s, respectivamente.
A Figura 2.3 apresenta a distribuição das tensões de von Mises do modelo defor-
mado, utilizando as discretizações mencionadas, distribuições similares podem ser ob-
servadas. Na Figura 2.3 (a) foi utilizada uma malha de elementos Q4 de tamanho médio
de 2mm e na Figura 2.3 (b) foi utilizada uma malha de elementos T3 de tamanho médio
de 1mm.

26
a) Q4 b) T3
Figura 2.3 Um quarto da placa quadrada – Contornos das tensões von Mises para a con-
figuração deformada calculadas considerando-se os elementos Q4 e T3.

Para a aproximação via MBR, 3 regiões (indicadas na Figura 2.1) são definidas. A
base reduzida foi construída no espaço viável das variáveis geométricas, D ={[25, 75]²}.
O número de pontos amostrais N foi variado de 4 à 10, e as análises foram feitas consi-
derando as malhas (modelos computacionais) utilizadas anteriormente. Para verificar a
convergência do MBR, construímos o gráfico da flexibilidade aproximada (FNTα) com o
número de pontos amostrais N, apresentado na Figura 2.4. No gráfico pode-se verificar
a convergência para poucas soluções base (tamanho da amostra).

Figura 2.4 Um quarto da placa quadrada – Convergência do MBR com malhas de EF


utilizando elementos Q4 e T3.

A Tabela 2.2 ilustra os tempos de CPU do MBR “OFF-Line” e “ON-Line” (para


uma reavaliação), para diferentes tamanhos de amostras, utilizando o elemento Q4. Fica
evidenciada a eficácia no processo de reavaliação de funções, a ser utilizado para proce-
dimentos de otimização e cálculos estocásticos, os quais serão considerados nesta dis-
sertação.

27
Tabela 2.2 Desempenho do MBR utilizando o elemento Q4.
N Tempo “OFF-Line” (s) Tempo “ON-Line” (s)
10 54.9937 0.0035
9 50.4739 0.0031
8 45.9483 0.0018
7 41.3479 0.0020
6 36.8836 0.0019
5 32.4563 0.0017
4 27.9801 0.0017

2.5.2 Exemplo termo-elástico acoplado

Como segundo exemplo, será considerada uma estrutura plana bidimensional indi-
cada na Figura 2.5 (a) e (b) com o total de treze (13) regiões, especificadas para o pre-
sente problema, numeradas conforme indicado na Figura 2.5 (a) em função dos parâme-
tros variantes do problema em questão (μ1 à μ4 indicados na Figura 2.5(a)). Todas as
dimensões do problema estão especificadas na Figura 2.5 (a). Condições de contorno
para o problema elástico e de transferência de calor estão indicadas na Figura 2.5 (b). A
estrutura é engastada na lateral esquerda e esta isolada termicamente (não possui fluxo
de calor) nos vazios no centro da estrutura e na parte superior.

a)

28
b)
Figura 2.5 Definição do problema: a) Geometria, b) Condições de contorno.

As propriedades do material são: E= 104 MPa (1000 kN/cm²), o coeficiente de


Poisson υ = 0.2, coeficiente de convecção h = 10 W/m² ºC, a condutividade térmica κx
= κy = 1 W/(mK), o coeficiente de dilatação térmica α = 2x10-4 ºC-1 e as condições de
convecção são para temperatura ambiente Ta = 20 ºC na base inferior e 100 ºC na lateral
direita da estrutura (o sentido da convecção indicado na figura é meramente ilustrativo).
Os quatro parâmetros considerados são: as espessuras t1, t2 e as distâncias horizontais L1
e L2, indicados na Figura 2.5 (a). A aproximação foi construída de forma que os parâ-
metros μ=( t1, t2, L1, L2 ) pertençam ao espaço de projeto Dμ = [ 0,5;5] × [10;21] ×
2

[28;38] cm4.
A discretização de um exemplo de domínio real, onde μ1 = 2, μ2 = 2, μ3 = 14, μ4 =
31 cm e o domínio de referência se encontram respectivamente na Figura 2.6 (a) e (b).

a) b)
Figura 2.6 Malha de elementos finitos: a) domínio real (projeto inicial) e b) domínio
computacional.

29
Para este exemplo de discretização foram usados elementos triangulares T3, totali-
zando 1976 graus de liberdade para o problema elástico e 1023 para o térmico.
Um teste de convergência, similar ao realizado no exemplo anterior, foi conduzido
para esta estrutura. As malhas foram refinadas, variando o tamanho médio (Le) dos e-
lementos. Os elementos utilizados foram os mesmos do exemplo anterior: o quadrilate-
ral (Q4) e o triangular (T3). A Figura 2.7 apresenta um gráfico do valor da flexibilidade
total para diferentes refinamentos de malha. Na Figura 2.7 (a) o eixo da abscissa repre-
senta o tamanho dos elementos (Le), enquanto que na Figura 2.7 (a) o eixo da abscissa
indica o número de graus de liberdade.

Figura 2.7 Problema acoplado – Convergência da malha de EF

Foi então examinado o procedimento de análise via MBR. Para tal, as malhas de e-
lementos finitos consideradas, foram as que apresentaram um erro (em relação à flexibi-
lidade utilizando a malha mais refinada) próximo de 0,1 %, portanto:
• Para o elemento Q4 adotou-se elementos de dimensão média de 0.5 cm. O
modelo possui 2.046 graus de liberdade (erro 0,11%).
• Para o elemento T3 adotou-se elementos de dimensão média de 0.25 cm. O
modelo possui 7.342 graus de liberdade (erro 0,10%).
A Figura 2.8 apresenta a distribuição das temperaturas e o contorno das tensões de
von Mises no modelo deformado, utilizando as malhas descritas anteriormente. Na
Figura 2.8 (a) e (b) são apresentados o resultado da análise para uma malha de elemen-
tos Q4 de tamanho médio de 0.5 cm e na Figura 2.8 (c) e (d) o resultado da análise para
uma malha de elementos T3 de tamanho médio de 0.25cm.

a) Térmico – Q4 (Cº) b) Acoplado – Q4 (kN/cm²)

30
c) Térmico – T3 (Cº) d) Acoplado – T3 (kN/cm²)

Figura 2.8 Problema acoplado – Contornos das temperaturas e das tensões von Mises
para as malhas consideradas.

O valor absoluto dos deslocamentos máximos para o modelo utilizando o elemento


Q4 e para o elemento T3 foram, respectivamente, 0.4141 cm e 0.4046 cm, já as flexibi-
lidades foram, respectivamente, 4,6828 kJ e 4,6835 kJ enquanto que o tempo de CPU
foram 3.11 s e 3.56 s, respectivamente.
Na Figura 2.9 (a) é apresentado o gráfico da convergência da flexibilidade calcula-
da pelo MBR em função do tamanho da base N utilizada, para as malhas citadas anteri-
ormente. Na Figura 2.9 (b) é apresentado o tempo de CPU off-line, para a construção
das bases.

Figura 2.9 Problema acoplado – Convergência do MBR e tempo off-line.

O tempo “on-line” não variou significativamente com o número de pontos da amos-


tra, sendo o tempo on-line médio para a malha de elementos T3 = 0.8s e para a malha de
elementos Q4 = 1.3s. O MBR para o problema acoplado se mostra menos eficiente que
nos outros tipos de solicitações (puramente elástico ou puramente térmico) devido à
atualização do vetor de carga gerado pela deformação térmica que é desenvolvido du-
rante o estágio “on-line”.

31
2.6 REFERÊNCIAS

AFONSO, S.M.B, LYRA, P.R.M, ALBUQUERQUE, T.M. M., R. S., MOTTA, 2009,
“Structural Analysis and Optimization in the Framework of Reduced-Basis Method.
Structural and Multidisciplinary Optimization”, Springer Berlin / Heidelberg, DOI:
10.1007/s00158-008-0350-4, Published online, January 2009.

AFONSO, S. M. B. e PATERA, A. T. “Structural Optimization in Framework of Re-


duced Basis Method”. in XXIV CILAMCE, Congresso Ibero Latino Americano de Mé-
todos Computacionais na Engenharia, 2003.

ALBUQUERQUE T. M. M. “Análise e Otimização de Problemas Térmicos e Estrutu-


rais Bidimensionais Através do Método das Bases Reduzidas”. Msc. Thesis ( in Portu-
guese), Dept. de Engenharia Civil, Universidade Federal de Pernambuco, Recife-PE,
Brasil, 2005.

ALMEIDA, F. P. C. “OTIMIZAÇÃO DE FORMA EM PROBLEMAS TERMO-


ESTRUTURAIS ACOPLADOS”. Dissertação de mestrado, Dept. de Engenharia Mecâ-
nica, Universidade Federal de Pernambuco, Recife-PE, Brasil, 2001.

COOK, R. D., MALKUS, D. S., PLESHA, M. E. e WITT R. J. “Concepts and Applica-


tions of Finite Element Analysis”. Fourth edition, Wiley, 2003.

MOTTA, R. S.; AFONSO, S. M. B.; LYRA, P. R. M. “Multiobjective Solutions for 2d


Continua Problems Considering Reduced-Basis Approximations”. CMNE/CILAMCE
2007. Porto, Portugal, 2007.

PRUD’HOMME, C., ROVAS, D. V., VEROY, K., MACHIELS, L., MADAY, Y., PA-
TERA, A.T. e TURICINI, G. “Reliable Real-time Solution of Parameterized Partial
Differential Equations: Reduced-basis Output Bound Method”. J. of Fluids Eng.,
Vol.124, pp.70-79, 2002.

VILLAÇA, S. F. e GARCIA, L. F. T. “Introdução à Teoria da Elasticidade”. 4ª edição,


COPPE/UFRJ, Rio de. Janeiro, RJ, Brasil, 2000.

VEROY, K. “Reduced-Basis Methods Applied to Problems in Elasticity: Analysis and


Applications” PhD Thesis. Department of Civil and Environmental Engineering, Mas-
sachusetts Institute of Technology, 2003.

ZIENKIEWICZ O C & TAYLOR R L. “The finite element method. Vol. I. Basic for-
mulations and linear problems”. London: McGraw-Hill. 648 p. Vol. 2, 1989.

32
33
CAPÍTULO 3
OTIMIZAÇÃO ESCALAR E ANÁLISE DE
SENSIBILIDADE

3 OTIMIZAÇÃO ESCALAR E ANÁLISE DE SENSIBILIDADE

3.1 INTRODUÇÃO

Os procedimentos de otimização de forma consistem numa abordagem geral para


projetar estruturas dos mais variados campos da engenharia tais como Civil, Mecânicas,
Aeroespaciais, Marítimas, etc. Através da variação de parâmetros de forma e/ou dimen-
sões que definam a estrutura, um dado projeto inicial é melhorado com relação a um
conjunto de funções objetivo e restrições pré-definidas.
A pesquisa científica no campo da otimização (uni ou multiobjetivo) foi substanci-
almente aumentada durante as últimas décadas, e um progresso considerável foi atingi-
do. Este desenvolvimento foi devido principalmente ao progresso de ferramentas confi-
áveis para a análise em geral, tais como o método dos elementos finitos, métodos de
análise de sensibilidades e métodos de programação matemática. Tal procedimento foi
fortemente alavancado pelo crescimento acentuado das velocidades e capacidades dos
computadores digitais. Uma idéia geral das atividades em tal campo nas últimas décadas
pode ser encontrada na literatura (BATES, 2003; VENKATARAMAN e HAFTKA,
2004; VANDERPLAATS, 2006).
Com o objetivo de dimensionar formas estruturais eficientes, surge o processo de
Otimização Estrutural de Forma (“Structural Shape Optimization” - SSO) que inclui,
além do algoritmo de otimização adequado, a análise estrutural e a análise de sensibili-
dade, quando o método de otimização requer a determinação dos gradientes das funções
objetivo e restrição. Desta forma, as alterações no processo de dimensionamento são
feitas de forma automática, baseadas em informações sobre o comportamento do proje-
to, obtidas ao longo do processo de otimização. Para isso, essas técnicas de programa-
ção matemática podem ser integradas ao procedimento de análise por Elementos Fini-
tos, resultando em uma excelente ferramenta automatizada para a otimização do projeto
estrutural. Estes procedimentos podem ser associados também, a métodos aproximados
como o Método da Base Reduzida, permitindo assim, uma grande economia computa-
cional como será visto posteriormente. Para a obtenção de projetos ótimos através da
otimização de forma será utilizado um algoritmo SSO (ALBUQUERQUE, 2005), o
qual permite tanto a otimização seguindo o procedimento convencional (MEF) quanto
através das aproximações via o Método da Base Reduzida. Este procedimento iterativo
envolve vários processos de análise antes de atingir a solução ótima.

34
3.2 FORMULAÇÃO MATEMÁTICA

Quando os problemas de otimização envolvem uma única função objetivo ele é de-
nominado problema de otimização escalar (HAFTKA e GURDAL, 1993). Sua repre-
sentação genérica é dada por:

(3.1) min f ( x ) (3.1)


x∈ nvp

Sujeito às seguintes condições:

hk ( x ) = 0 k = 1,… , ne
(3.2) g ( x ) ≤ 0 i = 1,… , ni
(3.2)
i
xlj ≤ x j ≤ xuj j = 1,… , npv

sendo: f(x) → função objetivo;


h(x) → função restrição de igualdade;
g(x) → função restrição de desigualdade;
x → vetor das variáveis de projeto;
ne → número de funções restrições de igualdade;
ni → número de funções restrições de desigualdade;
nvp → número de variáveis de projeto;
nvp
→ espaço das variáveis de projeto (nvp dimensional).

As funções restrições de igualdade, h(x), e de desigualdade, g(x) definem o espaço


viável ou admissível para a(s) variável(eis) de projeto. As restrições, em certo ponto x*
viável, são ditas inativas, caso g i ( x ) < 0 e ativas caso g i ( x ) = 0 , todas as restrições de
igualdade são consideradas ativas.

3.3 PROGRAMAÇÃO MATEMÁTICA

A Programação Matemática pode ser considerada como a primeira linha de méto-


dos para resolução de problemas de otimização. Ela trata o problema de forma iterativa
e determinística, isto é, através de gradientes, funcionais, operações matriciais, etc., para
encontrar o ponto ótimo.
Na maioria dos casos de otimização, supõe-se a continuidade das funções, assim
como de suas derivadas, o que nem sempre ocorre acarretando na principal dificuldade
encontrada por estes tipos de métodos. O processo de otimização é abordado no espaço
ℜnvp. A diferenciabilidade e a convexidade do problema influem, fundamentalmente,
sobre a natureza das condições de ótimo.

35
Os métodos mais empregados para solucionar problemas de otimização não-
lineares com restrições, são os métodos diretos (VANDERPLAATS, 2004). Estes mé-
todos definem um subproblema para a determinação de uma direção de busca S e em
seguida realizam uma busca linear para se determinar o tamanho do passo α, nessa dire-
ção. A forma clássica da atualização das variáveis, por este procedimento iterativo, é
dada por:

(3.3)xk+1 = xk + αSk+1 (3.3)

onde S é o vetor da direção de busca e α representa o tamanho do passo na direção de S.


A seleção do algoritmo de otimização depende fundamentalmente do problema envolvi-
do. Isto é importante para se obter uma otimização confiável e um alto nível de eficiên-
cia computacional (tempo de computação, taxa de convergência, memória requerida).
Vários são os algoritmos utilizados na resolução dos problemas de otimização não-
lineares com restrições baseadas no método direto (KLEIBER, 2005). A resolução des-
tes problemas pode ser feita por meio dos chamados métodos indiretos. Estes transfor-
mam o problema original definido pela Equações (3.1) e (3.2), num problema sem res-
trições através de algum artifício como: penalidade, dualidade, lagrangeano aumentado,
etc... (BATES, 2003; HAFTKA e GURDAL, 1993).
O algoritmo usado neste trabalho, na busca da solução ótima para os problemas de
otimização, é o da programação quadrática seqüencial, mais conhecido como SQP
(“Sequential Quadratic Programming”). As etapas e as equações básicas deste método
estão descritas na seção 2.4.2.

3.3.1 Condições de ótimo para problemas com restrições

Um ponto x é dito regular, caso os gradientes das funções restrição ativas sejam li-
nearmente independentes. Neste caso o número de restrições ativas deve ser menor ou
igual ao número de variáveis de projeto.
Um ponto regular viável x, para ser dito um ponto de mínimo local (x*), deve aten-
der às condições necessárias de primeira ordem, dadas pelas condições de Karush-
Kuhn-Tucker (condições KKT) (KARUSH, 1939; KUHN e TUCKER, 1950). Neste
ponto o gradiente da função objetivo deve ser capaz de se anular (mesma direção e sen-
tido opostos), como uma combinação linear dos gradientes das restrições ativas, e os
coeficiente lineares relacionados às restrições de desigualdade ativas devem ser não
negativos.
As condições de KKT podem ser escritas como:

ne ni
(3.4) ∇f (x* ) + ∑ λk*∇hk (x* ) + ∑ φi*∇gi (x* ) = 0 (3.4)
k =1 i =1

(3.5) φi* ≥ 0, i = 1..ni (3.5)

(3.6) φi* gi (x* ) = 0, i = 1..ni (3.6)

36
onde λk e φi, são os multiplicadores de Lagrange associados respectivamente às restri-
ções hk, gi, no ponto x e formam as variáveis duais do problema. Os coeficientes φi,
também são conhecidos como os multiplicadores de KKT. Os asteriscos indicam se
tratar de um ponto de ótimo, incluindo os multiplicadores de Lagrange ótimos. Nas res-
trições gi estão incluídas também, as 2npv restrições de lateralidade definidas na Equa-
ção (3.2).
A Equação (3.4) é chamada de condição de estacionaridade.
A Equação (3.5) é conhecida como as condições de viabilidade dual e impõe que os
multiplicadores de Lagrange associados às restrições de desigualdade (multiplicadores
de KKT) ativas em x* sejam positivos (ou nulas para restrições redundantes). Isto por-
que as restrições são escritas na forma gi ≤ 0.
A Equação (3.6) é chamada de condição de complementaridade, ela implica que
uma restrição inativa tem um multiplicador nulo e que uma restrição ativa pode ter mul-
tiplicador diferente de zero.
É conveniente utilizar a função Lagrangeana, para o desenvolvimento metodológico
do processo de otimização. A função Lagrangeana é definida por (CHONG, 2001):

ne ni
(3.7) L ( x, λ , φ ) = f (x) + ∑ λk hk (x) + ∑ φi gi (x) (3.7)
k =1 i =1

A Equação (3.4) representa, então, o gradiente da função Lagrangeana em relação a


x num ponto de ótimo, ou seja,

ne ni
(3.8) ∇L ( x, λ , φ ) = ∇f (x) + ∑ λk ∇hk (x) + ∑ φi ∇gi (x) = 0 (3.8)
k =1 i =1

Para as condições de ótimo de segunda ordem, é necessário definir S que representa


uma direção de decréscimo da função objetivo pertencente ao subespaço tangente das
direções viáveis T, onde pequenas perturbações nestas direções mantêm a viabilidade
do problema. O subespaço tangente T é definido como:

(3.9)T = N (∇h(x)) ∪ N (∇g j (x)) , j ∈ J (x) (3.9)

onde N (⋅) representa o núcleo e J (x) é o conjunto dos índices das restrições de desi-
gualdade ativas, ou seja,

(3.10) J (x) = { j : g j (x) = 0} (3.10)

N (∇h(x)) = núcleo(∇h(x)) = {S | S ≠ 0 e ST ∇h(x) = 0}


(3.11) (3.11)
N (∇g j (x)) = núcleo(∇g j (x)) = {S | S ≠ 0 e ST ∇g j (x) ≤ 0} , j ∈ J ( x)

37
Assim, as direções viáveis estacionárias S pertencem a N (∇h(x)) e N (∇g j (x)) ,
que são os espaços tangentes das superfícies definidas pelas restrições de igualdade e
pelas restrições de desigualdade ativas ( g j (x) = 0 ), respectivamente.

A condição necessária de segunda ordem pode ser enunciada da seguinte maneira


(CHONG, 2001): Se existirem os vetores λ, φ tais que as restrições (3.4) a (3.6) sejam
satisfeitas, então a condição dada na equação abaixo é necessária para x* ser um mínimo
local.

(3.12) ST HS ≥ 0, ∀S ∈ T (3.12)

ou ainda, podemos ter a condição suficiente para x* ser um mínimo local estrito.

(3.13) ST HS > 0, ∀S ∈ T (3.13)

sendo S qualquer direção de decréscimo da função objetivo pertencente ao subespaço


tangente das direções viáveis T e H representa a matriz Hessiana da função Lagrangea-
na em relação a x:

ne ni
(3.14) H = ∇ 2 L ( x, λ , φ ) = ∇ 2 f (x) + ∑ λk ∇ 2 hk (x) + ∑ φi ∇ 2 gi (x) (3.14)
k =1 i =1

3.3.2 Programação Quadrática Sequencial - SQP

No método da programação quadrática sequencial, o problema é resolvido por meio


de uma seqüência de subproblemas quadráticos convexos aproximados (POWEL,
1978).
Partindo-se da solução do passo anterior, para se obter um novo incremento das va-
riáveis de projeto, resolve-se uma seqüência de problemas quadráticos aproximados.
Essa seqüência deve convergir para um ponto de mínimo x*. Assim, dado x, procura-se
o valor de S que resolve o problema original:

(3.15) min f ( x + S ) (3.15)


S∈ nvp

Sujeito as seguintes condições:

(3.16) hk ( x + S ) = 0 k = 1,… , ne (3.16)


gi (x + S) ≤ 0 i = 1,… , n i

A função Lagrangeana associada às Equações (3.15) e (3.16) é:

38
(3.17) L ( x + S, λ , φ ) = f (x + S) + λ T h(x + S) + φT g (x + S) (3.17)

Sendo h = (h1,..., hne)T e g = (g1,..., gni)T vetores que contêm as restrições e λ = (λ1,...,
λne)T e φ = (φ1,..., φni)T os vetores que contêm os multiplicadores de Lagrange de di-
mensão ne e ni, respectivamente. As condições de ótimo de primeira ordem aplicadas ao
problema (3.15) e (3.16) fornecem as equações:

(3.18) ∇L ( x + S, λ , φ ) = ∇f (x + S) + λ T ∇h(x + S) + φT ∇g (x + S) = 0 (3.18)

(3.19) h(x + S) = 0 (3.19)

(3.20) g(x + S) ≤ 0 (3.20)

(3.21) φT g(x + S) = 0 (3.21)

(3.22) φi ≥ 0, i = 1..ni (3.22)

(3.23)

onde ∇g e ∇h são matrizes Jacobianas cujas linhas são os gradientes de ∇gi e ∇hk, res-
pectivamente. Aproximando as Equações de (3.18) até (3.21) por uma série de Taylor
até termos de primeira ordem em x resulta:

(3.24) ∇L(x) + ∇ 2 L(x)S = 0 (3.23)

(3.25) h(x) + ∇h(x)S = 0 (3.24)

(3.26) g (x) + ∇g (x)S ≤ 0 (3.25)

(3.27) φT [ g (x) + ∇g (x)S ] = 0 (3.26)

onde ∇L(x) é o gradiente e ∇ 2 L(x) é a matriz Hessiana da função Lagrangeana, defi-


nidos por:

(3.28) ∇L(x) = ∇f (x) + λ T ∇h(x) + φT ∇g(x) (3.27)

(3.29) ∇ 2 L(x) = ∇ 2 f (x) + ⎡⎣ λ∇ 2h(x) ⎤⎦ + ⎡⎣φ∇ 2 g (x) ⎤⎦ (3.28)

ne ni
Utilizando a seguinte notação: ⎡⎣ λ∇ 2h(x) ⎤⎦ = ∑ λi ∇ 2 hi (x) e ⎡⎣ φ∇ 2 g(x) ⎤⎦ = ∑ φi ∇ 2 gi (x) .
i =1 i =1

As Equações (3.22) e de (3.23) a (3.26) são as condições de otimalidade do subpro-


blema de determinação da direção de busca S dado por:

39
1
(3.30) min ∇f (x)T S + ST ∇ 2 L(x)S (3.29)
S∈ ndv
2

Sujeito as seguintes restrições

h(x) + ∇h(x)S = 0
(3.31) (3.30)
g(x) + ∇g(x)S ≤ 0

Este é o esquema básico de linearização que, demonstra-se, é localmente de segun-


da ordem, desde que satisfeitas algumas hipóteses, evidentemente, uma delas a condição
de ótimo de segunda ordem. As dificuldades na solução deste subproblema são a deter-
minação dos multiplicadores de Lagrange e o cálculo a cada iteração da Hessiana ∇2L
que depende dos multiplicadores, sendo geralmente, um processo caro. Assim, surgi-
ram os métodos Quase-Newton, nos quais uma aproximação da matriz Hessiana da fun-
ção Lagrangeana ∇2L é construída a partir dos gradientes ∇L da Lagrangeana ao longo
das iterações. Estes métodos possuem convergência superlinear e são largamente utili-
zados na solução dos problemas de otimização. Entre os métodos Quase-Newton, o
Broyden-Fletcher-Goldfarb-Shann (BFGS) é o utilizado neste trabalho. Entretanto, a
questão dos multiplicadores permanece, e é necessário utilizar alguma técnica para es-
timá-los (VANDERPLAATS, 2004).
Após a obtenção da direção de busca S, é necessário calcular o tamanho do passo
nessa direção, a fim de se obter o novo vetor das variáveis de projeto. A forma como
estes dois componentes são determinados reflete, fundamentalmente, na eficiência e
confiabilidade do algoritmo de programação para cada caso. O parâmetro tamanho do
passo é determinado de modo a produzir o maior decréscimo na função mérito. A fun-
ção mérito usada aqui, é a própria função Lagrangeana, porém os multiplicadores de
Lagrange são parâmetros de penalidade (POWELL, 1978).
Todo o processo de otimização (obter direção de busca, busca linear, atualização da
matriz hessiana, atualização das variáveis, etc..) é feito automaticamente, através de
ferramentas do ambiente computacional MATLAB (MATHWORKS, 2007), utilizadas
neste trabalho.

3.4 ANÁLISE DE SENSIBILIDADES

A análise de sensibilidades constitui uma fase importante de qualquer algoritmo de


otimização que necessita do cálculo dos gradientes. A análise de sensibilidade avalia a
resposta da função objetivo ou das restrições às alterações das variáveis de projeto e
normalmente está relacionada com procedimentos numéricos para o cálculo das deriva-
das destas funções e restrições em relação às variáveis de projeto. Vários são os proce-
dimentos para o cálculo de sensibilidades (CHOI et al, 2005; KEULEN et al, 2005).
Na elaboração deste trabalho foram utilizados dois métodos, são eles o método das
diferenças finitas (MDF) e método direto. A seguir, os métodos usados serão discutidos
e em seguida aplicados na solução de exemplos-padrão.
O método das diferenças finitas apresenta a vantagem de ser de fácil implementa-
ção, porém podem induzir a erros elevados. Já os métodos direto e adjunto, que não
fazem uso de cálculos via diferenças finitas, apresentam como mérito principal a preci-

40
são na solução e a eficiência computacional, mas sua implementação é mais elaborada e
consequentemente mais propícia a erros.

3.4.1 Método das diferenças finitas globais

É um dos mais antigos métodos usados para a análise de sensibilidade. Possui co-
mo característica principal a simplicidade de implementação do algoritmo. Apresenta
um inconveniente quando o número de variáveis de projeto é grande, pois o custo com-
putacional passa a ser alto. Isto ocorre porque para cada variável de projeto perturbada é
necessária a resolução das equações governantes. Um outro problema é encontrar um
valor do tamanho da perturbação que modifique as variáveis de projeto de tal forma que
forneça uma boa precisão para os gradientes (HAFTKA e GURDAL, 1993; CHOI et al,
2005).
Sua formulação vem da representação da função em análise na forma da série de
Taylor, cuja forma é:

∂f ( μ ) ∂ 2 f ( μ + eiδΔμi ) Δμi2
(3.32) f ( μ + ei Δμi ) = f ( μ ) + Δμi + (3.31)
∂μi ∂μi 2 2!

para algum δ entre 0 e 1.


Truncando-se os termos de ordem superior ( Δμi2 ) e realizando-se algumas opera-
ções matemáticas, tem-se:

∂f Δf f ( μi + ei Δμi ) − f ( μi )
(3.33) = , para i = 1,..., m (3.32)
∂μi Δμi Δμi

O principal fator que influencia a precisão deste método é o tamanho do passo Δμi
usado. Quando as sensibilidades são obtidas usando o método das diferenças finitas, o
dilema em relação ao tamanho da perturbação surge (HAFTA e GURDAL, 1993;
KEULEN et al, 2005), pois grandes perturbações geram erros de truncamento (estão
relacionados aos termos negligenciados no truncamento da série de Taylor) e pequenas
amplificam os erros de arredondamento. No caso deste método o tamanho do passo em
torno de 10-4 μ i a 10-6 μ i é tido como satisfatório (AFONSO, 1995).

3.4.2 Método direto

Este método possibilita a obtenção de gradientes com custo computacional mais


baixo quando comparado ao MDF, anteriormente apresentado. O gradiente é determina-
do aplicando-se a derivada de primeira ordem à função em análise com relação a uma
dada variável de projeto. Apesar deste método não ser tão simples quanto o anterior é
computacionalmente mais eficiente. Para demonstrar este método parte-se da forma
discretizada da equação governante (CHOI et al, 2005). No caso de problemas elásticos,

41
(3.34) Ku = F (3.33)

onde K é a matriz de rigidez, u é o vetor de deslocamento e F é o vetor de carregamen-


to. Derivando a equação em relação à variável de projeto x tem-se

∂u ∂K ∂F
(3.35) K + u= (3.34)
∂μk ∂μk ∂μk

o gradiente dos deslocamentos pode ser calculado, então, da seguinte forma:

∂u ⎛ ∂F ∂K ⎞
(3.36) = K −1 ⎜ − u⎟ (3.35)
∂μk ⎝ ∂μ k ∂μ k ⎠

∂K ∂F
Caso as derivadas e sejam calculadas indiretamente, como por diferenças
∂x ∂x
finitas, tem-se as versões do método direto, denominada semi-analítica (convencional
ou exato) (AFONSO, 1995). Porém, através da decomposição por região e do mapea-
mento aplicado ao domínio de referência, abordado no seção 2.3.2, pode-se obter as
derivadas analíticas das matriz de rigidez e vetor carregamento de cada região. Para isto,
basta derivar as Equações (2.48) e (2.49) em relação a k-esima variável de projeto, logo

∂K *s r ( μ ) nt ∂β s ( μ ) j r ∂Fs*r ( μ ) ∂ϕΩr (μ) r ∂ϕΓr (μ) r


r

(3.37) =∑ Kj ; = Fb + Ff (3.36)
∂μk j =1 ∂μk ∂μk ∂μk ∂μk

Os gradientes da matriz de rigidez e vetor carregamento são calculados somando-se


a contribuição de cada região

∂K *s nr ∂K s ( μ ) ∂Fs* nr ∂F ( μ )
*r *r

(3.38) =∑ ; =∑ (3.37)
∂μk r =1 ∂μk ∂μk r =1 ∂μk

Através deste método podemos usar a matriz de rigidez já decomposta e para cada
novo x calculamos apenas as derivadas dos parâmetros variáveis (dependentes de x),
estas derivadas são analiticamente conhecidas, obtendo assim um ganho computacional.
Apesar das equações para a análise de sensibilidade apresentadas, estarem relacio-
nadas com as equações do problema de elasticidade, estas são estendidas para proble-
mas de condução de calor tratados aqui (regime estacionário), bem como para o caso
acoplado.

3.5 INTEGRAÇÃO ANÁLISE/OTIMIZAÇÃO

O sistema computacional desenvolvido neste trabalho incorpora todos os elementos


necessários para a otimização de forma/dimensões, incluindo: modelagem geométrica,

42
geração de malhas, análise estrutural e/ou térmica, análise de sensibilidades e o módulo
que integra o procedimento completo com um algoritmo de programação matemática.
Este sistema permite executar uma otimização de projetos estruturais envolvendo efeitos
mecânicos, termo-mecânicos acoplados em regime estático, e otimização térmica em
regime permanente. Na Tabela 3.1 é mostrado o Algoritmo SSO, que resume o proce-
dimento utilizado na otimização de forma.

Tabela 3.1 Algoritmo SSO: procedimento de otimização de forma.


SSO1. Definir o problema de otimização de forma;
SSO2. Gerar a geometria e discretizar o problema;
SSO3. Efetuar a análise estrutural, térmica ou termo-estrutural conforme o caso;
SSO4. Efetuar a análise de sensibilidades (via Diferenças Finitas ou Método Direto
Analítico) ;
SSO5. Obter um novo projeto utilizando o procedimento de programação matemática;
SSO6. Verificar o critério de convergência para a otimização de forma:
SSO6.1 parar se o novo projeto satisfaz ao critério;
SSO6.2 caso contrário atualizar o projeto e retornar ao passo SSO2.

3.5.1 O método da base reduzida no procedimento de otimização

Nesta seção serão descritas algumas peculiaridades relacionadas ao MBR no proce-


dimento de otimização. No algoritmo SSO apresentado na Tabela 3.1, esta técnica se
insere no módulo de análise (avaliação de funções) e no módulo de análise de sensibili-
dades (avaliação dos gradientes das funções). O procedimento aplicado para análise via
MBR foram discutidos nos capítulo 2. No que se segue, apresenta-se a análise de sensi-
bilidades via MBR, onde as equações foram particularizadas para problemas de elastici-
dade.

(a) Análise de sensibilidade através do MBR

O uso das matrizes decompostas para as matrizes de rigidez e vetores de carrega-


mento de cada região, além do mapeamento e projeção das grandezas, permite que o
Método da Base Reduzida aplique o Método Direto Analítico na análise de sensibilida-
de, de forma simplificada. Estas matrizes e vetores são independentes do valor da variá-
vel de projeto vide Equações (3.36) e (3.37). Com isso, para cada novo parâmetro μ
executamos a análise de sensibilidade com um menor custo computacional que os mé-
todos baseados nas equações tradicionais provenientes do MEF.

43
No caso do cálculo das sensibilidades utilizando o método das diferenças finitas, o
MBR também é vantajoso pois as análises são obtidas de maneira mais rápida que o
método convencional (totalmente via MEF).
No caso de problemas de elasticidade por exemplo, a análise de sensibilidade via o
método direto é conduzida conforme descrito a seguir (CHOI et al, 2005).
Utilizando a equação dos deslocamentos aproximados Equação (2.62), e aplicando
diferenciação direta tem-se

∂u N ∂α N
(3.39) =Z (3.38)
∂μk ∂μk

onde a derivada dos coeficientes lineares α , pode ser obtida derivando-se diretamente a
Equação (2.66),

∂K N ∂α ∂F N ∂α −1 ⎛ ∂F ∂K N ⎞
N
(3.40) α + KN = ⇒ = ⎡⎣K N ⎤⎦ ⎜ − α⎟ (3.39)
∂μk ∂μk ∂μk ∂μk ⎝ ∂μk ∂μk ⎠

ou na forma compacta (KEULEN et al, 2005)

∂α −1
(3.41) = ⎡⎣K N ⎤⎦ Fˆ N (3.40)
∂μk

onde Fˆ N é o pseudo vetor de força da base reduzida, definido como

ˆ ⎛ ∂F N ∂K N ⎞
(3.42) F = ⎜
N
− α⎟ (3.41)
⎝ ∂μk ∂μk ⎠

De forma análoga à diferenciação no MEF, através da decomposição por região, do


mapeamento aplicado ao domínio de referencia abordado no seção 2.3.2, e aplicando as
projeções na base reduzida (seção 2.4), pode-se então derivar as Equações (2.70) em
relação a k-esima variável de projeto, para se obter, no domínio real, as derivadas das
matriz de rigidez e vetor carregamento de cada região no espaço de base reduzida WN.
Somando-se as contribuição de cada região, os gradientes no domínio real, das matriz
de rigidez e vetor carregamento totais, na base reduzida, são obtidos através de

∂K *s N ( μ ) nr nt ∂βs ( μ ) j Nr
r

= ∑∑ Ks j
∂μk r =1 j =1 ∂μk
(3.43) (3.42)
∂F ( μ ) nr ⎡ ∂ϕ (μ) Nr ∂ϕ (μ) Nr ⎤
*N r r
s
= ∑⎢ Fb +
Ω
Ff ⎥ Γ
∂μk r =1 ⎣ ∂μ k ∂μk ⎦

44
As Equações (3.38), (3.40), (3.41) e (3.42) são desenvolvidas para cada nova variá-
vel de projeto ( μ ).
O algoritmo completo para a implementação computacional via o Método da Base
Reduzida Tabela 2.1, ficará acrescido de um item na etapa “on-line” para a análise de
sensibilidade, após o cálculo do vetor uN , o cálculo do gradiente de uN através da Equa-
ção (3.38).
Para comprovar a eficácia do método, são apresentados na seção seguinte alguns
exemplos envolvendo análise de sensibilidade e otimização.

3.6 EXEMPLOS

Neste exemplo iremos realizar via Método dos Elementos Finitos e Método da Base
Reduzida a análise de sensibilidade e otimização do problema apresentado na seção
2.5.1 e que se refere à análise do estado plano de tensões em uma placa quadrada com
um orifício central.
Neste exemplo prático as dimensões do orifício são as variáveis do projeto selecio-
nadas para a otimização. Os valores iniciais das variáveis de projeto são μ1 = 60 mm e
μ2 = 43 mm, e os limites inferior e superior impostos são 25mm e 75mm, respectiva-
mente.
O objetivo considerado é minimizar a flexibilidade. Ao volume, é imposto ser infe-
rior ou igual ao seu valor inicial.
O problema de otimização pode ser formulado como:

Minimizar: f ( μ )
sujeito a
V ( μ ) ≤ V0
25mm ≤ μk ≤ 75mm k = 1,...ndv

Onde f ( μ ) é a flexibilidade, V ( μ ) o volume da estrutura, V0 o volume inicial e


ndv o número de variáveis de projeto.
Serão considerados vários modelos de elementos finitos, onde o número de graus
de liberdade será variado através da alteração na dimensão média dos elementos, na
configuração de referência onde μ1 = μ2 = 50mm.
Uma análise de sensibilidade foi realizada, considerando as malhas utilizadas para o
estudo do comportamento do MBR para o cálculo da flexibilidade, definidas na seção
2.5.1. O gradiente da flexibilidade foi calculado via MEF e via MBR, o número de a-
mostras utilizada neste caso foi 8 e os resultados obtidos estão ilustrados na Tabela 3.2.
Pode-se notar que para poucas reavaliações da sensibilidade, o tempo total via MEF
superara o tempo total via MBR, pois as reavaliações via MBR são feitas todas no esta-
gio on-line (o tempo da avaliação é o tempo “on-line”).

45
Tabela 3.2 Resultados da análise de sensibilidade.
∂f ( μ ) ∂f ( μ ) Tempo (s) da Tempo (s)
∂μ1 ∂μ2 avaliação “off-line”
MEF – T3 -0.0085236 -0.015176 17.05 -
MBR – T3 -0.0085230 -0.015177 0.064 75.5
MEF – Q4 -0.0085210 -0.015172 8.75 -
MBR – Q4 -0.0085206 -0.015174 0.054 45.1

Para o processo de otimização via MEF, o valor da dimensão média dos elementos
foi variada de 10 mm à 1 mm, resultando em modelos de EF (Elementos Finitos) que
variam de malhas grosseiras até as mais refinadas. Para cada refinamento de malha será
feita uma otimização. Analisou-se a função objetivo e as variáveis de projeto ótimas
resultantes das otimizações.
A Figura 3.1 ilustra o resultado de cada otimização variando com o número de
graus de liberdade da malha utilizada para a otimização. Na Figura 3.1 (a) é apresentado
a convergência do valor ótimo de X1 (X1 ótimo), onde X1= 50 − μ1 se refere à primeira
variável de projeto, com a variação do número de graus de liberdade (NGL). Já na
Figura 3.1 (b), vemos o gráfico da função objetivo (flexibilidade) no ponto ótimo versus
o NGL.

a) variável X1 b) função objetivo f


Figura 3.1 Um quarto da placa quadrada – Variação do ótimo com a variação do núme-
ro de graus de liberdade: a) valor da primeira variável no ponto ótimo, b) valor da fun-
ção objetivo.

Esses gráficos ilustram a influência da aproximação do MEF no resultado final da


otimização, ressaltando a importância de uma boa modelagem. Também se pode imagi-
nar um processo mais eficiente, utilizando recursivamente como ponto inicial, um ponto
ótimo obtido com uma malha mais grosseira, para obter um ponto de ótimo de um mo-
delo mais refinado, porém este procedimento não foi testado aqui.
Foi examinado o procedimento de otimização, realizando a etapa das análises via
MBR. Para tal, as malhas de elementos finitos consideradas foram a que apresentaram
resultados satisfatórios para a função objetivo no ponto ótimo, são elas:

46
• Para o elemento Q4 adotou-se elementos de dimensão média de 10/3 mm. O
modelo possui 1.472 graus de liberdade.
• Para o elemento T3 adotou-se elementos de dimensão média de 2 mm. O
modelo possui 3.952 graus de liberdade.
A base foi construída no espaço das variáveis de projeto, D ={[25, 75]²}. Foram re-
alizados vários processos de otimização para o problema considerado, variando o núme-
ro de pontos amostrados para a base reduzida N de 5 à 16. Para verificar a convergência
do MBR, construímos o gráfico apresentado na Figura 3.2 (a) do valor referente à pri-
meira variável no ponto ótimo (X1 ótimo) variando com número de pontos amostrados
N, e o gráfico do objetivo (flexibilidade) ótimo variando com N, Figura 3.2 (b). No grá-
fico podemos verificar a convergência para poucas soluções base.
A Figura 3.3 ilustra os tempos de CPU para o procedimento “off-line” e para o pro-
cesso de otimização (“on-line”) via MBR.

a) variável X1 b) função objetivo f


Figura 3.2 Um quarto da placa quadrada – Convergência do ponto ótimo com o tama-
nho da base.

a) Tempo “off-line” b) Tempo “on-line”


Figura 3.3 Um quarto da placa quadrada: a) Tempo “off-line”,
b) tempo de otimização “on-line”.
47
A Tabela 3.3 resume o desempenho de otimizações via MEF e via MBR, onde X1 e
X2 são respectivamente 50 − μ1 e 50 − μ2 . As malhas utilizada foram as mesmas consi-
deradas para o estudo da otimização via MBR e o número de pontos amostrados para a
aproximação do MBR foi 11.

Tabela 3.3 Comparativo dos resultados das otimizações: MEF x MBR


Flexibilidade Tempo Tempo Tempo
X1 X2
“on-line”(s) “off-line” (s) Total
MEF – T3 -21.5248 13.9286 0.37320 - - 67.3
MBR – T3 -21.5410 13.9368 0.37317 0.6 14.7 15.3
MEF – Q4 -21.5051 13.9187 0.37360 - - 118.6
MBR – Q4 -21.5149 13.9236 0.37356 0.3 25.7 26.0

Os resultados comprovam a eficiência do método, principalmente para problemas


de otimização complexos onde são exigidos muitos cálculos das funções de interesse.
Além disso, o estágio “off-line” pode ser facilmente paralelizável diminuindo significa-
tivamente o tempo “off-line”, consequentemente o tempo total da otimização.

3.7 REFERÊNCIAS

AFONSO, S. M. B. “Shape Optimization of Shells Under Static and Free Vibrations


Conditions”. Tese de Doutorado, University of Swansea, Wales, U.K. 1995.

AFONSO, S. M. B.; MACEDO, C. M. H.; OLIVEIRA, D. A. P. “Structural Shape Op-


timization under Multicriteria Conditions In: V World Congress on Computational Me-
chanics, Viena. 2002.

ALBUQUERQUE T. M. M. “Análise e Otimização de Problemas Térmicos e Estrutu-


rais Bidimensionais Através do Método das Bases Reduzidas”. Msc. Thesis ( in Portu-
guese), Dept. de Engenharia Civil, Universidade Federal de Pernambuco, Recife-PE,
Brasil, 2005.

BATES, S. “Development of Robust Simulation, Design and Optimization Techniques


for Engineering Applications”. PhD Thesis. School of Engineering, University of
Wales, Swansea. 2003.

CHOI K.K.; KIM N. H. “Structural Sensitivity Analysis and Optimization 1 – Linear


Systems”. Springer Mechanical Engineering Series, Springer New York, 2005.

48
CHONG, E. K. P.; ZAK, S. H. “An Introduction to Optimization”, Second edition, John
Wiley & Sons, 2001.

HAFTKA, R.T.; GURDAL, Z. “Elements of Structural Optimization”. Third Revised


and Expanded Edition, Kluwer Academic Publishers, 1993.

KARUSH, W. “Minima of Functions of Several Variables with Inequalities as Side


Constraints”. M.Sc. Dissertation. Dept. of Mathematics, Univ. of Chicago, Chicago,
Illinois, 1939.

KEULEN F. V.; HAFTKA, R. T.; KIM N. H. “Review of options for structural design
sensitivity analysis. Part 1: Linear systems”. Comput. Methods Appl. Mech. Engrg. 194,
pp. 3213–3243, 2005.

KIRSCH, U. “Structural Optimization Fundamentals and Applications”. Springer Ver-


lag, 1993.

KLEIBER M. “Parameter Sensitivity in Nonlinear Mechanics – Theory and Finite Ele-


ment Computations”. John Wiley & Sons, 1997.

KUHN, H. W.; TUCKER, A. W. “Nonlinear Programming”. In: Procedeering 2nd


Berkeley Symposium Mathematics Statistics and Probability, 481, 1950.

MACEDO, C. M. H. “Otimização de Treliças Planas sob Várias Solicitações com Ênfa-


se a Problemas Multiobjetivos”. dissertação de Mestrado, Universidade Federal de Per-
nambuco. Recife-PE, Brasil, 2002.

MATHWORKS. “MATLAB User’s Guide”. Mathworks Inc., Natacki, 2007.

POWEL, M. J. D. “Algorithms for Nonlinear Constraints that use Lagrangian Func-


tion”. Math. Programming, vol 14, pp. 224-248, 1978.

ROCKAFELLAR, R. T. “LAGRANGE MULTIPLIERS AND OPTIMALITY”. Vol.


35, No. 2, pp. 183-238, June 1993.

VANDERPLAATS, G. N. “Numerical Optimization Techniques for Engineering De-


sign - with Applications”. 4rt Edition, Vanderplaats Research & Development, Inc.,
Colorado Springs, CO, 2004.

49
VANDERPLAATS, G. N. “Structural Optimization for Statics, Dynamics, and
Beyond”. Journal of the Brazilian Society of Mechanical Sciences and Engineering. vol.
28, no.3, p.316-322. ISSN 1678-5878, September 2006.

VENKATARAMAN, S.; HAFTKA, R.T. “Structural optimization complexity: what


has Moore’s law done for us?”. Structural and Multidisciplinary Optimization, 28(6),
pp. 375-387, 2004.

50
CAPÍTULO 4
OTIMIZAÇÃO MULTIOBJETIVO

4 OTIMIZAÇÃO MULTIOBJETIVO

O projeto ótimo de problemas reais quase sempre está envolvido com várias metas
(funções objetivo) a serem aprimoradas e várias restrições a serem satisfeitas. Os algo-
ritmos de otimização de propósito geral (existentes na literatura) são capazes de resolver
problemas que envolvam uma única função objetivo. A maioria dos otimizadores dis-
poníveis na literatura não lida, portanto com várias funções objetivo simultaneamente.
No entanto, o problema de otimização multiobjetivo (POM) pode ser resolvido empre-
gando-se uma das estratégias:
• O uso do conceito de Pareto
• O uso da Programação Hierárquica
Na presente pesquisa, serão consideradas metodologias baseadas no uso do concei-
to de Pareto.
Nos últimos 15 anos distribuições eficientes de pontos de Pareto têm sido obtidas
graças ao desenvolvimento de algoritmos eficientes tais como o NBI (Normal-Boundary
Intersection) (DAS e DENNIS, 1996) e o NNC (Normalized Normal Constraint)
(MESSAC et al, 2003 ). Essas estratégias juntamente com outras abordagens de mais
fácil implementação (Método da soma ponderada e Método min-max) são aqui imple-
mentadas.

4.1 DEFINIÇÃO DO PROBLEMA

O problema multiobjetivo pode ser expresso como:

(4.1) min F ( x ) = ⎡ f1 ( x ), f 2 ( x ), f 3 ( x ),… , f nobj ( x ) ⎤ , nobj ≥ 2 … (POM) (4.1)


x ⎣ ⎦

Sujeito às seguintes condições:

hk ( x ) = 0 k = 1,… , ne
(4.2) g ( x ) ≤ 0 i = 1,… , ni
(4.2)
i
xlj ≤ x j ≤ xuj j = 1,… , npv

onde as restrições são as mesmas definidas no capítulo 3, porém os objetivos agora for-
mam um vetor de nobj funções objetivo, as quais precisam ser minimizadas.

52
4.2 CONCEITO DE ÓTIMO DE PARETO

Nos problemas de otimização multiobjetivo encontrar um x* que minimize várias


funções objetivo simultaneamente é uma tarefa muito árdua, senão impossível para a
quase totalidade dos problemas. Uma forma de determinar um x que satisfaça em parte
os POM (Equações (4.1) e (4.2)) está contida na definição de Otimalidade de Pareto
(ARORA et al., 2007).
Pontos de Pareto são pontos xP tais que não exista nenhum ponto x o qual:
i) f k ( x) ≤ f k ( x P ) para k = 1, … , n

ii) f k ( x) < f k ( x P ) para uma função objetivo ao menos

Os pontos de Pareto apresentam a propriedade de que quando se movem na direção


decrescente de uma das funções, pelo menos uma das outras funções restantes tem seu
valor aumentado. Vê-se isso na Figura 4.1, onde o ponto ótimo de Pareto é qualquer
ponto no intervalo x1 ≤ x ≤ x2. Também, devido às restrições, o ponto ótimo de Pareto
pode estar localizado ao longo do contorno da região viável.
f
f2 f1

f1*
f2*

x1 x2 x
Figura 4.1 Problema de otimização com uma variável e duas funções objetivo.

Em problemas irrestritos, os ótimos de Pareto são pontos onde os gradientes das


funções objetivo se anulem através de coeficientes lineares não-negativos. No caso bi-
objetivo, os gradientes possuem direções opostas (Figura 4.2).

f2
x1
xP
f1
x

x2

Figura 4.2 Pareto mínima com duas variáveis de projeto e duas funções objetivo.

53
Em problemas de otimização multiobjetivo é muito importante formular o problema
no espaço das funções objetivo. Isto pode ser feito usando-se um sistema de equações
geradas pelas funções objetivo e conjuntos das restrições ativas. Para cada projeto viá-
vel, haverá correspondentes valores das funções objetivo que definirão o espaço viável
das funções objetivo. Sobre seu contorno se localizam os pontos ótimos de Pareto. Na
Figura 4.3, tem-se o exemplo de um problema com duas variáveis de projeto e duas
funções objetivo. Em ambas as Figura 4.3 (a) e (b), a linha tracejada representa os pon-
tos ótimos de Pareto.

x2 f2

x
F(x)
P
x
F(xP)
x1 f1

a) b)
Figura 4.3 Região viável e pontos de Pareto: a) no espaço das variáveis de projeto,
b) no espaço das funções objetivo

Conforme já mencionado, em problemas multiobjetivo, o interesse do projetista é


encontrar um vetor das variáveis de projeto x* tal que as Equações (4.1) e (4.2) sejam
satisfeitas. Usualmente, não existe tal x* devido ao aspecto de conflito comum entre as
funções objetivo. Usando o conceito de Pareto, o projetista tem que encontrar tantos
pontos quanto possíveis. A partir destes pontos, será escolhido o projeto o qual irá satis-
fazer, mais adequadamente, cada função objetivo.

4.3 MÉTODOS PARA GERAÇÃO DE PONTOS DE PARETO

Existem várias técnicas para se obter o chamado conjunto de mínimo de Pareto


(DAS e DENNIS, 1997; BATES, 2003; COLLETTE, 2004). Entre eles, métodos basea-
dos em metodologias metaheurísticas têm sido usados com algum sucesso (LALONDE
et al 2009). Porém, neste trabalho apenas serão considerados procedimentos que fazem
uso de programação matemática. Os métodos considerados serão os seguintes: Método
da Soma Ponderada (STEUER, 1985), Método Min-Max (HWANG et all, 1980), Méto-
do NBI (DAS e DENNIS, 1997) e o Método da Restrição Normal Normalizada (MES-
SAC et al, 2003).

4.3.1 Método da Soma Ponderada dos Objetivos

Dentre os métodos desenvolvidos para otimização multiobjetivo, no qual se substi-


tui as funções objetivo por uma única função, denominada de função substituta, o mais

54
empregado e de uso mais simples é o método da soma ponderada (“Weight Sum me-
thod” – WS) (KOSKI, 1985; AFONSO, 1997; AFONSO e SIENZ, 1999; AFONSO et
al, 2002). Sua técnica baseia-se em atribuir um vetor de coeficientes de ponderação β j ,
às funções objetivo normalizadas, combinando-as linearmente, ou seja, transformando-
as em uma única função objetivo. Sua representação algébrica é dada da seguinte forma

f nobj f
(4.3) F = β = ∑ β j ,k k
T
j (4.3)
f0 k =1 f0k

onde os elementos de β j ,k são normalizados, da seguinte maneira:

nobj
(4.4) ∑β
k =1
j ,k = 1 , 0 ≤ β j ,k ≤ 1 (4.4)

e f 0 k é a função objetiva k no projeto inicial x0.


O algoritmo desse método pode ser representado pelos seguintes passos:
i) Definir o número de subconjuntos β;
ii) Normalizar as funções objetivo;
iii) Para cada β j faça:

iii.a) Obter a função objetivo substituta usando a Equação (4.3);


iii.b) Otimizar a função substituta e encontrar o ponto xj*;
iii.c) Substituir o xj* nas funções objetivo e obter os seus valores;
Problemas na obtenção de pontos de Pareto via WS poderão surgir quando o con-
torno da região viável no espaço das funções objetivos for não-convexa, como mostra a
Figura 4.4. Neste caso, não existirá nenhum β j capaz de fornecer uma solução que este-
ja na parte não-convexa.
f2

f1*

f2*

f1

Figura 4.4 Região viável não-convexa no espaço das funções objetivo.

Em geral, quando se utiliza essa metodologia, ocorre que uma distribuição uniforme
dos pesos β não fornece uma distribuição uniforme de pontos de Pareto.

55
4.3.2 Método Min-Max

Este método foi desenvolvido com o propósito de sanar os problemas listados ante-
riormente no método da soma ponderada dos objetivos, o que é parcialmente alcançado
no que se refere a obter pontos uniformemente distribuídos.
Neste procedimento, as funções objetivo são normalizadas, de forma diferente da-
quela do método da soma ponderada dos objetivos, sendo para isso acrescido dois pa-
râmetros: max fk e min fk. Estes parâmetros são obtidos das soluções das otimizações
escalares, isto é, que envolvem a consideração individual das funções objetivo isoladas.
Obtém-se, então, um conjunto de variáveis xk*, resultante de cada otimização k isolada.
Aplica-se esse conjunto a cada função objetivo e daí atribui-se o máximo valor da fun-
ção a max fk e o mínimo a min fk.
As novas funções objetivo normalizadas assumirão a forma:

f k − min f k
(4.5) f k = , k = 1,..., nobj (4.5)
max f k − min f k

O novo vetor das funções objetivo é

(4.6) F = ⎡ f1 , f 2 ,..., f k ,..., f nobj ⎤ (4.6)


⎣ ⎦

Então, um coeficiente βk é associado a cada nova função objetivo e o seguinte pro-


blema é proposto:

(4.7) min ( γ ) (4.7)

onde

(4.8) γ = max( β k f k ), k = 1,..., n obj (4.8)

sujeita às restrições definidas na Equação (4.2) e às restrições adicionais

(4.9) β k f k ≤ γ k = 1,..., nobj (4.9)

para vários conjuntos de vetores β, pois para cada vetor β diferente um novo subpro-
blema de otimização é formulado e um novo ponto de Pareto é obtido.

4.3.3 Método da Interseção Contorno-Normal (NBI)

O método da Interseção Contorno-Normal ou Normal-Boundary Intersection (NBI)


(DAS e DENNIS, 1996) é uma técnica criada para encontrar pontos eficientes (ou pon-
tos NBI) do contorno do espaço viável gerado pelos vetores objetivos alcançáveis,
{F(x): x∈C}, que possibilitem a construção de uma curva suave, de forma que o proje-
tista possa definir em qual daqueles pontos será considerada a solução compromisso
para o problema multiobjetivo. Quando os pontos eficientes estiverem sobre uma parte

56
do contorno suficientemente convexa daquele espaço viável, esses são definidos como
pontos de Pareto. Isto acontece para a grande maioria dos casos estudados na engenhari-
a. Porém, se aqueles pontos estiverem na parte côncava do contorno, não há a garantia
de que eles sejam pontos de Pareto. Apesar disso, esses pontos contribuem para que a
curva Pareto seja definida.
Este método é inovador com relação à obtenção dos pontos eficientes sobre a super-
fície Pareto, permitindo que se obtenha uma distribuição uniforme daqueles pontos até
mesmo para um pequeno conjunto de vetores do parâmetro β, independentemente do
número de funções objetivos. Este método difere daqueles descritos anteriormente por
não ocorrer a transformação do vetor das funções objetivo em uma única função objeti-
vo, através de uma combinação linear.
A idéia central do NBI é encontrar uma porção do contorno do denominado espaço
das funções objetivo (DAS e DENNIS, 1996), o qual contém os pontos ótimos de Pare-
to. Tais pontos podem ser encontrados resolvendo-se um problema de otimização. No
que se segue, apresentam-se, inicialmente, algumas terminologias específicas do método
para em seguida detalharmos a metodologia.
Define-se F* como sendo o vetor do mínimo local das funções objetivo, denomina-
do de Ponto Utópico (Shadow Minima ou Utopia Point) (DAS e DENNIS, 1996), repre-
sentado por:

(4.10) F* = ⎡⎣ f1* , f 2* , f 3* ,… , f nobj * ⎤⎦ T


(4.10)

onde cada f i* representa um mínimo local individual. Sendo o vetor xi* a solução ótima
de f i , temos que f i * = f i ( xi* ) . Define-se a envoltória convexa do mínimo individual
(ECMI) como:

⎧ n ⎫
(4.11) ⎨Φβ :β ∈ ℜ n , ∑ β i =1, β i ≥ 0⎬ (4.11)
⎩ i =1 ⎭

onde

(4.12) Φ (i, j ) = fi ( x*j ) − f i * , i = 1, … , nobj; j = 1, … , nobj (4.12)

Assim, os pontos pertencentes a ECMI são definidos por um conjunto de pontos do


ℜn, que são definidos pelas combinações convexas de {F(xi*)- F*}, armazenados sob a
forma de matriz, Φ, denominada de "pay-off" (DAS e DENNIS, 1996). Um exemplo da
representação gráfica da ECMI é ilustrada na Figura 4.5. Nesta figura é considerado
que na origem esteja o ponto de utopia F* e, dessa forma, todas as funções objetivos são
não-negativas, isto é, F(x) é substituída por F que é definido da seguinte forma: F (x) =
F(x) – F*

57
f2

C
B f1
0

Figura 4.5 Representação gráfica da ECMI num espaço bidimensional.

Com esta redefinição, observa-se na Figura 4.5 que o ponto A é F (x1*) e o ponto B
é F ( x2*), 0 é a origem e ao mesmo tempo o ponto Utópico F*, o segmento tracejado é a
ECMI, enquanto que o arco ACB é a fronteira de Pareto no espaço das funções objetivo.
O conjunto das funções objetivo no espaço viável {F(x): x∈C} será denominado por ƒ e
o seu contorno por ∂ƒ. A técnica NBI possui o objetivo de encontrar parte do contorno
∂ƒ que contém os pontos ótimos de Pareto.
A idéia geométrica associada ao método é que tais pontos de Pareto são encontra-
dos a partir da interseção da reta quase-normal à ECMI, apontada para a origem, e o
contorno ∂ƒ como ilustrado na Figura 4.6. Nesta, observa-se que a família dos vetores
quase-normais uniformemente espaçados intercepta os pontos igualmente espaçados
sobre o contorno.

f2

F ( x1*)
ECMI
∂ƒ

F ( x2 *) f1

Figura 4.6 A imagem do conjunto viável sobre o mapeamento de ƒ no espaço das fun-
ções objetivo.

Matematicamente, tais pontos podem ser encontrados resolvendo-se um problema


de otimização descrito a seguir. Dados os parâmetros β, Φβ representa pontos sobre a
ECMI. Seja n̂ o vetor unitário quase-normal à ECMI, i.e. direção que liga o ponto mé-
dia da ECMI e o ponto Utópico F*. Então, Φβ + tnˆ , com t∈ℜ, representa o conjunto
de pontos sobre n̂ , que formam uma reta quase-normal à ECMI. A interseção entre a

58
reta quase-normal a ECMI, e o contorno que define o espaço {F(x) | x∈C}, ∂ƒ, mais
próximo da origem é a solução global do seguinte problema de programação não-linear:

(4.13) max t
x,t (4.13)

sujeita às restrições definidas na Equação (4.2) e às restrições adicionais

(4.14) Φβ + tn
ˆ = F ( x) (4.14)

sendo esta equação de restrição a garantia do mapeamento de x por F ( x ) sobre a reta


quase-normal. O problema apresentado nas Equações (4.13), (4.14) e (4.2) passa a ser
definido com um subproblema NBI, representado por NBIβ, considerando que β seja o
parâmetro que caracteriza o subproblema. Cada vetor parâmetro β, resultará em uma
solução pretendente à Pareto. Resolvendo esse subproblema para um conjunto de parâ-
metros β, encontra-se um conjunto de pontos sobre ∂ƒ, que poderão fornecer uma curva
suavizada. Esses pontos serão pontos de Pareto de ótimo caso estejam numa porção
convexa do ∂ƒ. Em caso contrário, eles poderão não ser ponto de Pareto de ótimo. Em
não sendo, poderão ser úteis na suavização da curva Pareto, além da garantia de que
todo ∂ƒ foi explorado, o que não ocorre para os métodos descritos anteriormente. Para
maiores detalhes, ver referências (DAS e DENNIS, 1996; MACEDO, 2002).

4.3.4 Método da Restrição Normal Normalizada (NNC)

Este método foi introduzido por (MESSAC et al, 2003) e é uma melhoria sobre o
método da Restrição Normal (NC) de Yahaya e Messac removendo problemas numéri-
cos de escala com a normalização das funções objetivo. Este método mostrou ser capaz
de gerar uma propagação uniforme de pontos Pareto. O NNC trabalha de forma similar
ao método da Interseção Contorno-Normal (NBI), (discutido anteriormente), e sua re-
presentação gráfica, tirada da referência (MESSAC et al, 2003), é mostrada a seguir.
No espaço das funções objetivo normalizadas (mesma normalização usada no mé-
todo Min-Max), todos os pontos mínimos locais das funções objetivo, estão a uma uni-
dade de distância do Ponto Utópico. E o Ponto Utópico está na origem – por definição
Na Figura 4.7 nós observamos o espaço viável e a fronteira de Pareto corresponden-
te. Nós também notamos os dois pontos de mínimo das funções objetivo que são obtidos
pela minimização separada do primeiro e do segundo objetivo do projeto. Uma linha
ligando os dois pontos é chamada de Linha Utópica, ela é equivalente à envoltória con-
vexa do mínimo individual (ECMI) no método NBI. Ela é dividida em m-1 segmentos,
resultando em m pontos.

59
f2

1 F( x1* )

Nk
m −1
0 F ( x2* )
0 1 f1

Figura 4.7 Um conjunto de pontos espaçados na linha Utópica


para um problema bi-objetivo.

Na Figura 4.8 um ponto genérico X pertencente à Linha Utópica é utilizado para


definir uma reta normal (NU). Está linha normal (NU) diminui a região viável, como
indicado na Figura 4.8. Como pode ser visto, minimizando-se f 2 , o resultado ótimo
será o ponto f ∗ . Transladando o ponto genérico X , pela Linha Utópica, podemos ver
que um conjunto de Pontos Pareto correspondente será obtido.

f2

f 1∗ Região
1 Linha NU
Viavel

X pj Região
Inviavel
∗ 2∗
0 f f
0 1 f1
Plano Utópico

Figura 4.8 Representação gráfica do método da NNC para um problema bi-objetivo.

No que se segue, a formulação matemática do Método da Restrição Normal Norma-


lizada para a otimização multiobjetivo em geral é apresentada. O vetor x define as vari-
áveis de projeto e fi (f ∈ Rn ) a i-esima função objetivo. x* ( xi* ∈ R nx ) é o ponto ótimo
da função fi . Sendo nobj o número de funções objetivo de um problema genérico, os
vetores do Plano Utópico N k são definidos como a direção dos F( xk* ) até F( xnobj
*
) , para
k=1..nobj-1, pela equação:

(4.15) N k = F( xnobj ) − F( xk ), k = 1, 2,...nobj − 1


* *
(4.15)

60
Um conjunto de np pontos distribuídos no Plano Utópico é gerado da seguinte for-
ma.

nobj
(4.16) X j = ∑ β j ,k F ( xk* ) , j = 1, 2,...n p (4.16)
k =1

onde

nobj
(4.17) 0 ≤ β j ,k < 1 e ∑ β j ,k = 1, j = 1, 2,..., n p (4.17)
k =1

Agora nós geramos pontos distribuídos no espaço das funções objetivas normaliza-
das. Para cada ponto X gerados anteriormente é obtido um Ponto Pareto corresponden-
te, solucionando o problema abaixo:

Para j = 1, 2,..., np
(4.18) (4.18)
min f nobj
x

sujeita às restrições definidas na Equação (4.2) e às restrições adicionais:

(4.19) N k ( F − Xj ) ≤ 0,
T
k = 1, 2,..., n − 1 (4.19)

4.3.5 Diferenças entre o NBI e o NNC

As diferenças entre o método da Interseção Contorno-Normal e o método da Restri-


ção Normal Normalizada são três:
1. Enquanto o NNC faz a normalização das funções objetivo, o NBI faz apenas
uma translação.
2. O NNC diminui a região viável, do problema original, à uma região limitada (na
direção de fn ) pela reta NU (normal ao Plano Utópico). Enquanto que no NBI a
região viável se restringe estritamente à reta (quase) normal á ECMI.
3. Com relação à reta normal à ECMI (no NBI) ou ao Plano Utópico (no NNC),
enquanto no NNC ela é na direção perpendicular, no NBI ela é quase normal (di-
reção de um ponto médio da ECMI ao Ponto utópico).
Sem estas diferenças, os resultados seriam absolutamente os mesmos.

61
4.4 EXEMPLOS

4.4.1 Treliça de 3 barras

Neste primeiro exemplo consideramos a treliça de 3 barras de Koski (1985), ilus-


trada na Figura 4.9, na qual L = 1 m. Para este exemplo em particular, a carga aplicada é
F = 20 KN e o módulo de Young é E = 200 GPa.

Figura 4.9 Treliça de três barras: definição do problema.

As variáveis de projeto são as áreas das seções transversais das barras e os limites
superiores e inferiores são respectivamente XL = 0.1 cm2 e XU = 2 cm2.
Neste problema, soluções multiobjetivo serão encontradas considerando a minimi-
zação de duas funções objetivas:
(1) Volume total da estrutura,
(2) Combinação linear dos deslocamentos: dp = 0.25δ1 + 0.75δ2.

Além das restrições das variáveis de projeto, são impostas restrições de tensão para
todas as barras σall < 200 Mpa (para compressão e tração).
Na seqüência 100 soluções de Pareto para o problema são apresentadas, conside-
rando os métodos WS, Min-Max, NBI e NNC, respectivamente nas Figura 4.10 (a), (b),
(c) e (d).
Os resultados estão em acordo com os reportados na literatura (KOSKI, 1985,
MESSAC et al., 2003). Como esperado, os métodos NBI e NNC produziram pontos de
Pareto melhores distribuídos. Além disso existe uma região côncava na fronteira de Pa-
reto como indicado na Figura 4.10 (a). É importante enfatizar que as técnicas Min-Max,
NBI e NNC são capazes de calcular pontos nesta área ao contrário do método WS, que
assume uma combinação convexa entre as funções.
Na região côncava existe alguns pontos não Pareto, o método NBI encontrou esses
pontos, como apresenta a Figura 4.10 (c). Apesar disso, (DAS e DENNIS, 1996) argu-
mentam que esses pontos contribuem para que a curva Pareto seja definida. O método
Min-Max definiu bem a curva de Pareto, desconsiderando corretamente a parcela não

62
Pareto da região convexa, Figura 4.10 (b). A distribuição de pontos do NNC excluiu
alguns deles, como observado na Figura 4.10 (d). Porém todos os pontos não Pareto
podem ser facilmente separados através de um filtro nos pontos.

a) WS b) Min-Max

c) NBI d) NNC
Figura 4.10 Treliças de três barras – Distribuição de Pareto:
(a) WS, (b) Min-Max, (c) NBI e (d) NNC.

4.4.2 Placa quadrada com um orifício central

O segundo exemplo se refere ao já apresentado na seção 2.5.1 e considerado tam-


bém, na seção 3.6. Nele foi considerada a análise do estado plano de tensão em uma
placa quadrada com um orifício central.
O módulo de elasticidade é considerado o mesmo para todas as regiões: E = 105
N/mm. As dimensões do orifício são as variáveis do projeto selecionadas para a otimi-
zação. Os valores iniciais das variáveis de projeto são μ1 = μ2 = 50mm, e os limites infe-

63
rior e superior impostos são 25mm e 75mm, respectivamente. Dois objetivos são consi-
derados, são eles: minimizar o volume total e minimizar a flexibilidade total da placa.
As soluções MO serão obtidas considerando 10 pontos de Pareto.
Para a aproximação via MBR, três regiões são definidas. A base reduzida será cons-
truída no espaço viável do projeto D = [25, 75]² e o número de amostras analisadas foi
N = 10, baseada no estudo de convergência do MBR, já realizado para este caso, na
seção 2.5.1. O domínio de referência (o qual neste caso é igual ao projeto inicial) com
sua respectiva malha de EF para elementos triangulares CST, com número total de graus
de liberdade – ndof = 6.732, é mostrado na Figura 4.11 (a). A distribuição das tensões
de von Mises e a configuração deformada para o projeto inicial é mostrada na Figura
4.11 (b).

100

80

60

40

20

0 20 40 60 80 100

Figura 4.11 Projeto inicial (domínio de referência). a) malha EF (ndof = 6.732), b) ten-
são de von Mises (N/mm²).

A Figura 4.12 apresenta as distribuições dos pontos Paretos obtidos para os métodos
aqui considerados. As soluções são obtidas considerando o modelo de MEF e o modelo
aproximado via MBR. Verifica-se que as curvas de Pareto via MEF e MBR estão de
acordo. Como pode ser observado, soluções via o método da soma ponderada (WS) são
bastante pobres com pontos aglutinados (cluster) e regiões vazias sobre a fronteira de
Pareto esperada. Soluções via Min-Max se mostraram melhores. Entretanto os métodos
NBI e NNC são os que conseguem obter pontos uniformemente espaçados em todas as
partes da fronteira de Pareto.

64
3 3
FEM FEM
Strain Energy (N.mm) 2.5 RBM 2.5 RBM

Strain Energy (N.mm)


2 2

1.5 1.5

1 1

0.5 0.5

0 0
4000 5000 6000 7000 8000 9000 10000 4000 5000 6000 7000 8000 9000 10000
Volume (mm³) Volume (mm³)

a)WS b)Min-Max
3 3
FEM FEM
2.5 RBM 2.5 RBM
Strain Energy (N.mm)

Strain Energy (N.mm)


2 2

1.5 1.5

1 1

0.5 0.5

0 0
4000 5000 6000 7000 8000 9000 10000 4000 5000 6000 7000 8000 9000 10000
Volume (mm³) Volume (mm³)

c)NBI d)NNC

Figura 4.12 Placa quadrada com um orifício central – Pontos Paretos:


a) WS, b) Min-Max, c) NBI, d) NNC.

A Tabela 4.1 sumariza as performances de cada método investigado. Soluções via


MBR são mais que duas ordens de magnitude mais rápidas em comparação com os re-
sultados totalmente obtidos via MEF. Para a obtenção de pontos de Pareto pelos proce-
dimento considerados, utilizando o MBR, o estágio “off-line”, foi avaliado apenas uma
vez, totalizando 37.4 s. Além disso, o processo de obtenção dos pontos de Pareto (está-
gio “on-line”) pelos quatro métodos, foram feitas em paralelo em um computador dota-
do de um processador quad core, através de ferramentas do ambiente computacional
MATLAB. Um ganho computacional ainda maior seria alcançado paralelizando, tam-
bém, o estágio off-line.

Tabela 4.1 Placa quadrada com um orifício central – Desempenho dos algoritmos.
WS Min-Max NBI NNC
FEM 4902.0s 3846.2s 3444.3s 4613.7s
RBM (37.4 s) 21.5s 5.2s 7.3s 7.8s

Na Figura 4.13 os projetos ótimos (na configuração deformada) para os pontos de


Pareto 1, 3, 5, 7, 9 e 10 são ilustrados, para dar uma idéia dos pontos de Pareto obtidos
pelo método NBI.

65
Ponto de Pareto - 1 Ponto de Pareto - 3 Ponto de Pareto - 5

Ponto de Pareto - 7 Ponto de Pareto - 9 Ponto de Pareto - 10

Figura 4.13 Placa quadrada com um orifício central – Tensões von Mises (N/mm²) na
configuração deformada, dos projetos para pontos de Pareto ótimos
obtidos pelo método NBI.

4.4.3 Placa engastada - problema aclopado

Finalizando as aplicações considerando duas funções objetivo, será estudada uma


estrutura plana bidimensional, a mesma analisada na seção 2.5.2 e indicada na Figura
4.14 (a), porém com condições de contorno diferentes, indicada na Figura 4.14 (b).
Tem-se um total de treze (13) regiões especificadas para o presente problema, numera-
das conforme indicado na Figura 4.14 (a) em função dos parâmetros variantes do pro-
blema em questão. Condições de contorno para o problema estático e de transferência
de calor estão indicadas na Figura 4.14 (b), onde a lateral esquerda está engastada e a
parte superior está submetida a um carregamento distribuído de 1MPa, ambas regiões,
assim como o interior vazio da estrutura, encontram-se isoladas termicamente. Todas as
dimensões do problema estão especificadas na figura.
p=1 MPa

q = 1 W/m²

Ta = 20 ºC

Figura 4.14 Definição do problema: a) Geometria , b) Condições de contorno.

66
As propriedades do material são E= 10³ MPa, o coeficiente de Poisson υ = 0.2, co-
eficiente de convecção h = 10 W/m² ºC, a condutividade térmica κx = κy = 1 W/(mK), o
coeficiente de dilatação térmica α = 10-4 ºC-1 e as condições de convecção são para
temperatura ambiente Ta = 20ºC. Quatro parâmetros (variáveis de projeto), indicados na
Figura 4.14 (a) serão considerados na otimização. São eles: as espessuras t1, t2 e as dis-
tâncias horizontais L1, L2 indicadas na figura acima. A aproximação foi construída de
forma que os parâmetros μ=( t1, t2, L1, L2 ) pertençam ao espaço de projeto Dμ =
[0.5;5]2 × [10,21]× [28,38] . Para o presente problema o número de amostras consideradas foi
N=30, baseado no estudo realizado no capítulo 2, seção 2.5.2.
A discretização do domínio real (projeto inicial) onde μ1 = 2, μ2 = 2, μ3 = 19, μ4 =
31 e o domínio de referência (1976 graus de liberdade para o problema elástico e 1023
para o térmico) se encontram, respectivamente, na Figura 4.15 (a) e (b). A otimização
será conduzida considerando os seguintes objetivos: Minimização da temperatura má-
xima e minimização da tensão Von Mises máxima. Além dos limites das variáveis, o
volume inicial deve ser mantido constante. As soluções OM serão obtidas considerando
15 pontos de Pareto.

a) domínio real b) domínio de referência


Figura 4.15 Malha de elementos finitos: a) domínio real (projeto inicial),
b) domínio de referência.

A Figura 4.16 apresenta a distribuição de Pontos Pareto para os métodos aqui con-
siderados. As curvas de Pareto obtidas pelo MEF e MBR estão de acordo. Como pode-
se observar, as soluções via o método WS e o Min-Max apresentam regiões vazias na
fronteira de Pareto esperada, o WS ainda apresenta pontos sobrepostos. Já os métodos
NBI e NNC conseguiram obter pontos bem distribuídos em todas as partes da fronteira
de Pareto.

67
a)WS b)Min-Max

c)NBI d)NNC

Figura 4.16 Pontos de Pareto: a) Soma Ponderada, b) Min-Max, c) NBI, d) NNC.

A Tabela 2 resume as performances de cada procedimento investigado. Soluções


via MBR foram mais rápidas comparadas com o procedimento baseado apenas no MEF.
O ganho computacional do MBR não foi tão grande quanto o obtido no exemplo anteri-
or, devido à computação do termo de acoplamento, realizado na etapa on-line.

Tabela 2. Desempenho dos algoritmos.


WS Min-Max NBI NNC
FEM 777,12s 826,92s 1239,30s 963,00s
RBM 340,53s 387,46s 353,25s 323,51s

4.5 PROBLEMAS COM MAIS DE DUAS FUNÇÕES OBJETIVO

Pode-se obter qualquer ponto de Pareto de um problema qualquer, tanto pelo NBI
como pelo NNC, resolvendo um subproblema com um determinado vetor β associado
(Equações (4.14), (4.16) e (4.19)). Porém no caso de problemas com mais de duas fun-
ções objetivo, as componentes do vetor β não são necessariamente não-nulas. Encon-

68
trar pontos sobre toda a fronteira de Pareto em problemas com muitas funções objetivo
ainda é um problema em aberto (ARORA, MESSAC e MULLUR, 2007).
Como exemplo, considere a Figura 4.17 (a) (DAS e DENNIS, 1996) onde é apre-
sentado o espaço de três funções objetivo de um problema qualquer. Caso o vetor β só
tenha componentes positivas, as Equações (4.11) e (4.16) indicam que apenas é possível
encontrar pontos partindo do interior do triângulo formado por F(X1*), F(X2*) e F(X3*)
(vide Figura 4.17 (b)), desprezando deste modo, a região da fronteira de Pareto adjacen-
te, incluindo os arcos F(X1*)F12*F(X2*), F(X1*)F13*F(X3*) e F(X2*)F23*F(X3*).
Além disto, os pontos podem recair sobre uma região fora da superfície de Pareto, é o
que ocorre neste caso. Como podemos observar na Figura 4.17, uma parte do segmento
de reta F(X1* ) F(X3* ) , se projeta no exterior da região de Pareto. Neste caso o NBI irá
encontrar um ponto não-Pareto, devido a sua restrição rígida (de igualdade). Já o ótimo
encontrado através do NNC, pode se deslocar para a região de Pareto, devido à suas
restrições mais flexíveis (de desigualdade).
A Figura 4.17 (b), apresenta os pontos θβ (Equação (4.11)) na ECMI (para o NBI)
ou os pontos X j (Equação (4.16)) no plano utópico (para o NNC), para coeficientes β
normalizados igualmente espaçados. Nota-se que os métodos só se preocupam com a
região formada pelos pontos F(X1*), F(X2*) e F(X3*).

F12*

F13*

F23*

a) Frente de Pareto

69
b) Pontos base para os sub-problemas
Figura 4.17 Problema com 3 funções objetivo (DAS e DENNIS, 1996),
a) Frente de Pareto no espaço de três funções objetivo, b) Pontos base para a definição
dos sub-problemas de otimização dos métodos NBI e NNC.

Para encontrar toda a fronteira de Pareto, (MESSAC e MATTSON, 2004) apresen-


tam uma modificação no método NNC original, que visa solucionar o problema das
regiões inexploradas pelo método original, através da ampliação do Plano Utópico (ou a
ECMI) de forma que ele contenha toda a superfície de Pareto. Deste novo Plano Utópi-
co são desconsideradas algumas partes onde há menos probabilidade em haver pontos
Pareto projetados. Porém o problema das otimizações em regiões onde não há pontos de
Pareto projetados continua e ainda é amplificado, podendo ainda os pontos se projeta-
rem em regiões inviáveis, gerando um problema de otimização mal formulado. Quanto
mais pontos não-Paretos encontrados, menos eficiente se torna o procedimento, mesmo
retirando-os por um processo de filtragem, pois é uma otimização desperdiçada.
Outra possível solução, proposta no presente trabalho, é definir inicialmente os con-
tornos da fronteira de Pareto e encontrar os pontos no seu interior. Para isso é preciso
resolver o problema multiobjetivo por pares de funções objetivo e assim definir cada
contorno da fronteira de Pareto, ou seja, resolvendo o POM considerando apenas os
objetivos f1 e f2, obtemos a curva de Pareto F12*, resolvendo o POM para f2 e f3, en-
contramos a curva de Pareto F23*, já desconsiderando a função f2, alcançamos a curva
de Pareto F13*.
Na Figura 4.18 vemos um exemplo de pontos de Pareto encontrados para cada par
de funções objetivo marcados em preto, a partir destes pontos de Pareto são distribuídos
os restantes dos pontos centrais, marcados de azul.

70
Figura 4.18 Problema com 3 funções objetivo – Distribuição dos pontos.

Depois de encontrados os pontos de Pareto que formam o contorno da fronteira to-


tal (pontos pretos na Figura 4.18), projeta-se as curvas formadas por estes pontos, no
plano formado por F(X1*), F(X2*) e F(X3*). Estas curvas projetadas delimitam uma
região a qual é utilizada (ao invés do triângulo original) para encontrarmos o restante
dos pontos centrais. As curvas F12*, F23* e F13* são consideradas as soluções de Pareto
dos subproblemas onde o coeficiente β da função desconsiderada é nulo. Um exemplo
desta metodologia é tratada a seguir a partir da seção 4.5.2 onde será utilizado o NBI
para se encontrar as curvas de Pareto do contorno da superfície de Pareto, bem como
para as otimizações dos subproblemas relacionados aos pontos centrais, este procedi-
mento proposto, será chamado NBIm.
Para problemas com mais de 3 funções objetivo a idéia básica é a mesma,
1. Resolver os problemas de otimização uni-objetivo para cada objetivo.
2. Em posse dos mínimos individuais, que limitam as curvas de Pareto, resol-
ver os problemas bi-objetivos para todas as possíveis permutações de obje-
tivos.
3. Em posse das curvas de Pareto para os pares de objetivos, que delimitam as
superfícies de Pareto, resolver os problemas com três objetivos para todas as
possíveis permutações.
4. Em posse das superfícies de Pareto para os trios de objetivos, que delimitam
as hiper-superfícies de Pareto, resolver os problemas com quatro objetivos
para todas as possíveis permutações.
E assim sucessivamente até que se chegue ao número total de objetivos.

71
4.5.1 Exemplo geométrico com 3 funções objetivo

Considere o problema definido na Figura 4.19, a qual ilustra o espaço das (duas)
variáveis de projeto. Serão considerados três objetivos, são eles minimizar a distância
do ponto definido pelas variáveis, aos pontos A, B e C. Tem-se ainda a restrição que o
espaço viável exclui o circulo preto indicado na Figura 4.19, ou seja, a distância do pon-
to definido pelas variáveis, ao ponto D deve ser maior que 0.5.

Figura 4.19 Definição do problema.

A Figura 4.20 (a) ilustra a região ótima exata dos pontos de Pareto, indicada pela
cor azul. As figuras seguintes apresentam os resultados obtidos para as diferentes técni-
cas, onde cada ponto azul indica o valor da variável de projeto para cada subproblema
otimizado. Na legenda de cada figura, a partir da letra (b), se encontram o método utili-
zado e, entre parênteses, o número total de funções avaliadas, utilizadas pelo método.
Nota-se, novamente, os espaçamentos vazios entre as soluções do método da soma
ponderada e o grande numero de funções calculadas. O Min-Max já apresenta um resul-
tado melhor apresentando uma boa definição dos contornos da região de ótimos e um
numero bem menor de funções avaliadas, porém com poucos resultados centrais. O
NNC e o NBI, apresentam pontos bem distribuídos, porém apresentando soluções não-
Pareto, principalmente o NBI, por motivos já citados. Ambos os métodos também reali-
zaram um grande número de avaliações de funções, isto ocorreu principalmente, devido
a procura de pontos viáveis em sub-problemas mal formulados sem região viável. O
NBIm, foi o que melhor cobriu a região de ótimos, com pontos relativamente bem dis-
tribuídos e contorno definido, foi também, o que utilizou o menor número de avaliações
de funções entre os métodos investigados.

a) Solução exata do problema b) WS (9263)

72
c) Min-Max (3802) d) NBI (7553)

e) NNC (6819) f) NBIm (2048)


Figura 4.20 Soluções de Pareto: a) Solução exata, b) Soma Ponderada (9263),
c) Min-Max (3802), d) NBI (7553), e) NNC (6819), f) NBIm (2048).

4.5.2 Exemplo analítico com 3 funções objetivo

Considere o seguinte problema de otimização multiobjetivo:


min f ( x)i = xi , i = 1, 2,3
x

Sujeito às seguintes restrições :


1 1 1 1 1 1
x1 ≥ + ; x2 ≥ + ; x3 ≥ +
x2 x3 x1 x3 x1 x2
0.2 ≤ xi ≤ 10, i = 1, 2,3

A Figura 4.21 apresenta os pontos de Pareto para 15 valores de βi , i = 1..3 unifor-


memente distribuídos, que combinados totalizam 120 vetores β diferentes, para mais
detalhes sobre as combinações dos parâmetros β vide (DAS e DENNIS, 1996). O grá-
fico da esquerda apresenta uma vista de topo ( f ( x)1 x f ( x) 2 ) do espaço das funções obje-
tivo, onde a escala de cor se refere ao valor da terceira função objetivo f ( x)3 . O gráfico
da direita apresenta uma vista isométrica do espaço das funções objetivo. Na legenda de
cada par de figura, se encontram o método utilizado e , entre parênteses, o número total
de funções avaliadas.

73
a) WS (7092)

b) Min-Max (6090)

c) NBI (3281)

74
d) NNC (5617)

e) NBIm (2748)

Figura 4.21 Pontos de Pareto: a) Soma Ponderada (7092), b) Min-Max (6090),


c) NBI (3281), d) NNC (5617), e) NBIm (2748).

Como se pode observar, os métodos da Soma Ponderada e o Min-Max apresenta-


ram concentrações de pontos em alguns lugares, espaços vazios em outros e os maiores
números de funções calculadas. Já os métodos NNC e o NBI obtiveram pontos igual-
mente espaçados, porém não foram capazes de cobrir toda a superfície de Pareto, apenas
as regiões onde se projeta a ECMI (triangulo formado pelos mínimos individuais). Entre
estes, o NBI apresentou um numero menor de funções avaliadas. Já com o NBIm, atra-
vés da estratégia de definir os contornos da região de Pareto, foram obtidos pontos bem
distribuídos sobre toda a região de Pareto, apresentando ainda o menor número de fun-
ções avaliadas entre os métodos investigados.

4.5.3 Placa sob ação termo-estrutural acoplada com 3 funções objetivo

Como exemplo, foi considerada a placa engastada do exemplo 4.4.3 com condições
de contorno, para o problema estático e de transferência de calor, diferentes, mostradas
na Figura 4.22.

75
Figura 4.22 Definição do problema - Condições de contorno.

As propriedades do material são: E= 104 MPa, o coeficiente de Poisson υ = 0.2,


coeficiente de convecção h = 10 W/m² ºC, a condutividade térmica κx = κy = k = 1
W/(mK), o coeficiente de dilatação térmica α = 2x10-4 ºC-1 e as condições de convec-
ção são para temperatura ambiente Ta = 20 ºC e uma temperatura externa de 100 ºC na
lateral direita da estrutura (o sentido da convecção indicado na figura é meramente ilus-
trativo). Os mesmos quatro parâmetros (variáveis de projeto), indicados na Figura 4.14
(a) serão considerados na otimização. Para o presente problema o número de amostras
consideradas foi N=30, vide estudo de convergência seção 2.5.2.
A otimização será conduzida considerando três objetivos: Minimizar o volume da
estrutura, minimizar a flexibilidade total e minimizar o deslocamento máximo. Além
dos limites das variáveis, a tensão Von Misses foi limitada a 124 kN/cm². As soluções
OM serão obtidas considerando 55 pontos de Pareto.
A Figura 4.23 apresenta a distribuição de Pontos Pareto para os métodos MO aqui
considerados obtidas pelo MBR. Nos resultados obtidos, foram filtrados os pontos do-
minados (não Pareto), esse filtro verifica para toda solução se existe algum outra que a
domina. Os “x” marcados de vermelho na Figura 4.23, são pontos não Paretos, pois fo-
ram dominados por alguma solução de algum dos métodos.
Como podemos observar na Figura 4.23, a solução via o método WS e o Min-Max
são ineficientes, pois apresentam pontos sobrepostos e regiões vazias na superfície de
Pareto. Assim como, os métodos NBI e NNC apresentaram resultados bem diferentes,
como o NBI não tem flexibilidade nas restrições adicionais, ele não foi capaz de encon-
trar a verdadeira superfície de Pareto, apenas alguns pontos, pois ela não se encontra
totalmente na projeção da ECMI. O NNC se comportou pouco melhor, porém não con-
seguiu definir toda a superfície de Pareto e não consegui obter um resultado melhor que
o WS. Já o NBIm foi o que conseguiu definir melhor todas as partes da fronteira de Pa-
reto, seus resultados podiam ser ainda melhor através de melhorias no procedimento de
distribuição dos pontos centrais (estudo ainda não concluído).

76
a) WS b) Min-Max

c) NBI d) NNC

e) NBIm

Figura 4.23 Pontos de Pareto: a) Soma Ponderada, b) Min-Max, c) NBI, d) NNC, e)


NBIm.

4.6 REFERÊNCIAS

AFONSO, S. M. B.; MACEDO, C. M. H.; OLIVEIRA, D. A. P. “Structural Shape Op-


timization under Multicriteria Conditions In: V World Congress on Computational Me-
chanics, Viena. 2002.

77
ARORA J. S.; MESSAC, A.; MULLUR, A. A. “OPTIMIZATION OF STRUCTURAL
AND MECHANICAL SYSTEMS. Chapter 4 - Multiobjective Optimization: Concepts
and Methods”. Jasbir S Arora, University of Iowa, USA, 2007.

BATES, S. “Development of Robust Simulation, Design and Optimization Techniques


for Engineering Applications”. PhD Thesis. School of Engineering, University of
Wales, Swansea. 2003.

COLLETTE, Y., SIARRY, P. “Multiobjective Optimization: Principles and Case Stu-


dies”, Springer, 2004.

DAS, I.; DENNIS, J.E. Normal Boundary Intersection: A New Method for Generating
Pareto Surface in Nonlinear Multicriteria Optimization Problems. SIAM J. Optimiza-
tion, Vol. 8, No. 3, pp. 631-657, 1996.

HWANG, C. L.; PAIDY, S. R.; YOON, K. e MASUD, A. S. M., 1980. Mathematical


Programing whith Multiple Objectives: A Tutorial, Comput. and Ops. Res., Vol. 7, pp.
5-31.

LALONDE, N.; KIM, I. Y.; WECK, O. “A Comprehensive Comparison between De-


terministic and Probabilistic Multiobjective Optimization Algorithms with Mathemati-
cal and Practical Applications”. 8º World Congress on Structural and Multidisciplinary
Optimization. Lisbon, Portugal, 2009.

MACEDO, C. M. H. “Otimização de Treliças Planas sob Várias Solicitações com Ênfa-


se a Problemas Multiobjetivos”. dissertação de Mestrado, Universidade Federal de Per-
nambuco. Recife-PE, Brasil, 2002.

MESSAC, A., ISMAIL-YAHAYA, A. e MATTSON C. A. “The Normalized Normal


Constraint Method for Generating the Pareto Frontier”. Structural Optimization, Vol.
25, No. 2, pp. 86-98, 2003.

MESSAC, A.; MATTSON C.A. “Normal constraint method with guarantee of even
representation of complete Pareto frontier”, 45th AIAA/ASME/ASCE/AHS/ASC Struc-
tures, Structural Dynamics & Material Conference, Palm Springs, CA, 2004.

STEUER, R. E. “Multicriteria optimization – theory, computation and application” .


John Wiley & Sons, 1985.

78
79
CAPÍTULO 5
OTIMIZAÇÃO CONSIDERANDO
INCERTEZAS
5 OTIMIZAÇÃO CONSIDERANDO INCERTEZAS

5.1 INTRODUÇÃO

Este capítulo se concentra no projeto de sistemas estruturais na presença de incerte-


zas. A motivação para tal vem do fato de que algum grau de incerteza ou variação nas
características de qualquer sistema estrutural é inevitável. Quando se analisa e projeta-se
um sistema estrutural, a caracterização determinística de suas propriedades e do ambien-
te que o cerca pode não ser oportuno por várias razões, incluindo incertezas nas propri-
edades dos materiais, variação na geometria devido à tolerância na fabricação, incerteza
no carregamento devido à natureza não determinística do ambiente operacional, incerte-
zas devido a degradação do sistema em serviço, e assim por diante.
Na prática da engenharia é comum assumir valores nominais para os parâmetros in-
certos ao realizar estudos de projeto, de fato, a consideração determinística tem sido fei-
ta implicitamente em toda esta dissertação até o presente. Infelizmente, a abordagem de-
terminística leva a um projeto final cujo desempenho pode cair significativamente devi-
do a perturbações decorrentes de incertezas. Este problema é acentuado quando lida-se
com projetos que foram severamente otimizados, pois projetos ótimos tendem a se loca-
lizar nos extremos da função objetivo ou no contorno das restrições (pequenas perturba-
ções podem levar a queda de desempenho e/ou violação das restrições do projeto). Co-
mo conseqüência, um ótimo determinístico pode potencialmente ser uma solução de al-
to risco (BEYER et al, 2007). Marczyk escreveu “Otimização, na verdade é o oposto de
robustez” (MARCZYK, 2000). Apesar de não ser de todo certo, há alguma verdade nis-
so, porém pode-se utilizar os atuais algoritmos de otimização, de forma apropriada para
atingir projetos robustos.
Uma maneira de garantir segurança contra incertezas é aplicar restrições mais rígi-
das que as idealmente impostas. Por exemplo, quando se projeta um sistema estrutural,
para garantir que ele não falhe geralmente são impostas restrições de projetos nas ten-
sões da forma σ (x) < σ max , onde σ max é a tensão de falha do material e x é o conjunto
das variáveis de projeto. Para considerar as incertezas já citadas, a restrição pode ser es-
crita como FSσ (x) < σ max , onde Fs é chamado o fator de segurança. Normalmente o va-
lor do fator de segurança varia entre 1.2 e 3.0. Este valor muitas vezes é definido com
base na experiência a priori do material usado e de projetos com conceitos similares.
Claramente, o novo projeto ótimo será mais conservador quanto mais se aumenta o va-
lor de Fs, haja visto que o ótimo se distancia do contorno da restrição original
σ (x) − σ max = 0 . Para o uso de novos materiais e projetos com novos conceitos, para os
quais não há a priori experiência no projeto e limitada informação experimental, não é

80
trivial decidir um valor apropriado para os fatores de segurança (KEANE e NAIR,
2005).
Neste capítulo, serão examinadas algumas abordagens para a consideração das in-
certezas no processo de otimização e assim obter projetos robustos. Isto contrasta com
as abordagens que utilizam o fator de segurança, nos quais os parâmetros incertos não
são explicitamente incorporados na formulação do projeto.
Projetos robustos requerem que seu desempenho pouco se altere quando exposto à
incertezas. Várias medidas de robustez foram propostas, incluído medidas de esperança
e de dispersão. Em particular, a esperança e a variância são as medidas básicas usadas
para otimização robusta (DOLTSINIS e KANG, 2004; BEYER et al, 2007;
SCHUËLLER e JENSEN, 2008). Quando usa-se estas medidas, à busca por um projeto
robusto ótimo, surge com um problema de decisão com múltiplos critérios. Por exem-
plo, ao otimizar a esperança pode se encontrar um valor alto de dispersão ou variância,
o que em geral não é desejável. Nestes casos há uma “negociação” (trade-off) entre o
valor médio e a variância, então uma solução combinada deve ser encontrada (otimiza-
ção multiobjetivo robusta - OMR). Alternativamente, pode ser usada alguma das meto-
dologias descritas no Cap. 4 para geração de um conjunto de soluções ótimas de Pareto
que são possíveis candidatas à solução.

5.2 TEORIA PROBABILÍSTICA E ESTATÍSTICA

Esta seção introduz conceitos elementares da teoria da probabilidade e conceitos es-


tatísticos.
Intuitivamente, a probabilidade é uma medida da freqüência de ocorrência de um
determinado evento. Em um experimento isto pode ser medido dividindo o número de
situações favoráveis pelo número de eventos possíveis. Entretanto, uma definição ma-
tematicamente mais rigorosa pode ser formulada a partir de três axiomas básicos.
Considerando eventos relacionados aos subconjuntos A, B, C.... contidos num con-
junto Ω , que é o conjunto de todos os eventos possíveis, a função Prob (i.e. probabili-
dade) é definida através de três axiomas:

(5.1) 0 ≤ Prob [ A] ≤ 1 (5.1)

(5.2) Prob [ Ω ] = 1 (5.2)

(5.3) Prob [ A ∪ B ] = Prob [ A] + Prob [ B ] − Prob [ A ∩ B ] (5.3)

A probabilidade de um evento A condicionado a ocorrência de um evento B, é a


probabilidade de ocorrer A dado que o evento B ocorreu, e pode ser definida como:

Prob [ A ∩ B ]
(5.4) Prob ⎡⎣ A B ⎤⎦ = (5.4)
Prob [ B ]

81
5.2.1 Variáveis Aleatórias

Variáveis aleatórias são funções de um espaço amostral que assumem valores nu-
méricos através de um mapeamento do fenômeno aleatório associado. Elas podem ser
de dois tipos: discretas ou contínuas. Variáveis aleatórias discretas podem assumir ape-
nas um número finito de valores. Variáveis aleatórias contínuas podem assumir infinitos
valores distintos, em geral são valores reais de alguma medida. Neste trabalho serão u-
sadas apenas variáveis aleatórias contínuas reais.
Para toda variável aleatória real, existe uma função chamada de Função Densidade
de Probabilidade (“Probability Density Function” - PDF) P (ξ ) que define a distribui-
ção de ocorrências de ξ ∈ associada a um fenômeno aleatório, tal que (MEYER,
1983):

b
(5.5) Prob(a ≤ ξ ≤ b) = ∫ P(ξ )dξ ∀a, b ∈ ea≤b (5.5)
a

Um evento aleatório A pode ser definido como a ocorrência de uma determinada


variável aleatória real ξ ser menor que um valor determinístico prescrito x. Assim,
A = {ξ ξ < x} . A probabilidade Prob[A] associado com este evento obviamente depen-
de do valor prescrito x, i.e. Prob[A] = Fξ ( x) , esta função Fξ ( x) é chamada função de
distribuição acumulada (“Cumulative Distribution Function” - CDF), calculada como:

x
(5.6) Fξ ( x) = ∫ P(ξ )d ξ ∀x ∈ (5.6)
−∞

Se ξ é uma variável aleatória, então uma função qualquer f (ξ ) também será, po-
rém com uma PDF própria associada. As PDFs são dependentes de parâmetros, os quais
podem possuir interpretações práticas, tais como o seu valor médio ou média f (ξ ) e a
sua variância υ. Matematicamente, a média em relação a uma função aleatória é cha-
mada de esperança da função E [ f (ξ ) ] , calculado como


(5.7) f = E [ f (ξ ) ] = ∫ f (ξ ) P(ξ )d ξ (5.7)
−∞

A variância ( σ 2f = σ [ f (ξ )] ) pode ser calculada como:


2

(5.8) σ 2f = E ⎡⎢( f (ξ ) − f ) ⎤⎦⎥ = ∫ ( f (ξ ) − f )


2 ∞ 2
P(ξ )dξ (5.8)
⎣ −∞

ou

( f (ξ ) ) P(ξ )dξ − ( f )

(5.9) σ 2f = E ⎡⎣ f (ξ ) 2 ⎤⎦ − ( f ) = f 2 −( f )
2 2 2
=∫ 2
(5.9)
−∞

82
onde σ f é a raiz quadrada da variância de f (ξ ) , conhecida como desvio padrão.

A descrição das variáveis aleatórias em termos da média e do desvio padrão é cha-


mada “representação de segundo momento”. Uma generalização desta representação é
dada pela definição do momento central de k-ésima ordem (BUCHER, 2009).

(5.10) μk = E ⎡( f (ξ ) − f ) ⎤⎥⎦ = ∫ ( f (ξ ) − f )
k ∞ k

⎢⎣ P(ξ )dξ , k ≥ 2 (5.10)


−∞

Estes momentos serão úteis aqui, para o cálculo de duas outras estatísticas: a obli-
qüidade ("skewness") e a curtose (“kurtosis”). A obliqüidade é uma medida da assime-
tria de uma determinada distribuição, enquanto que a curtose é uma medida de dispersão
que caracteriza o "achatamento" da curva da função de distribuição e são definidas res-
pectivamente por:

μ3 μ4
(5.11) s = e κ= −3 (5.11)
σ3 σ4

5.2.2 Distribuições de probabilidade

Neste trabalho serão utilizadas apenas dois tipos de distribuição, a distribuição


Normal ou Gaussiana e a distribuição Lognormal.
A distribuição Normal, também conhecida como Gaussiana, é uma das distribuições
fundamentais da teoria estatística. O teorema do limite-central, diz que o somatório de
variáveis aleatórias de distribuição quaisquer, tende a uma distribuição Normal (PA-
POULIS, 1965). Ela descreve bem, vários fenômenos aleatórios “naturais”. É também
bastante simples, pois é definida com apenas dois parâmetros básicos, a média e o des-
vio padrão. Se uma variável ξ tem uma distribuição Normal, escrevesse simbolicamen-
te ξ ~ N ( μ , σ ) , onde μ é a média e σ o desvio padrão da variável. A PDF normal pa-
ra uma variável aleatória ξ é expressa por:

−1/2
⎡ ⎤
2
⎛ ξ −μ ⎞
⎜ ⎟
(5.12) P (ξ ) = ⎢ 2πσ e⎝ σ ⎠ ⎥ (5.12)
⎢⎣ ⎥⎦

Sua formula padrão N ( 0,1) considera média igual a zero e desvio padrão unitário:

( )
2 −1/2
(5.13) P (ξ ) = 2π eξ (5.13)

83
A Figura 5.1 apresenta o gráfico da PDF normal padrão.

Função Densidade de Probabilidade


0.4

0.35

0.3

0.25
P(x)

0.2

0.15

0.1

0.05

0
-3 -2 -1 0 1 2 3
x

Figura 5.1 Função densidade de probabilidade (PDF) Normal.

A distribuição Normal e a Lognormal estão fortemente relacionadas. Se uma variá-


vel aleatória ξ tem distribuição Normal com média μ e variância v , então exp( ξ ) tem
distribuição Lognormal, com média μlog e variância vlog , respectivamente, iguais a:

(5.14) μlog = e μ + v 2 vlog = e(


2 μ +v)
(e v
− 1) (5.14)

Esta distribuição é muito usada para variáveis aleatórias que só aceitam valores po-
sitivos, pois ela é definida apenas para valores reais maiores do que zero. Quando sua
média se afasta de zero, com um valor fixo do desvio padrão, a distribuição Lognormal
se aproxima de uma distribuição Normal. A PDF Lognormal é definida como:

1 ⎛ − ln (ξ a )2 ⎞ 1⎛ ln (ξ / a )

−1 2

(5.15) P (ξ ) = exp ⎜

⎟=
⎟ ⎜ b 2π ( ξ a ) b
⎟ (5.15)
ξ b2π ⎝ 2b ⎠ x⎝ ⎠

μ σ
onde b = ln(c 2 + 1) , a = e c=
é o coeficiente variacional definido apenas
c +1 X 2

para variáveis aleatórias com médias não-zero. A Figura 5.2 apresenta o gráfico da PDF
Lognormal com variância unitária para diferentes valores de média.

84
Pdf Lognormal com variância 1
1

0.9 Media 1
Media 2
0.8 Media 6

0.7

P(x) 0.6

0.5

0.4

0.3

0.2

0.1

0
0 2 4 6 8 10
x

Figura 5.2 Função densidade de probabilidade Lognormal para valores distintos de mé-
dia.

5.3 CÁLCULO DAS ESTATÍSTICAS

Sendo ξ uma variável aleatória com distribuição de probabilidade conhecida, po-


de-se calcular diretamente a distribuição de probabilidade para uma função f ( X ) , caso
f seja uma função monotônica, através da sua função inversa (BUCHER, 2009). Foi a-
presentado também como encontrar diretamente parâmetros estocásticos de f utilizando
a distribuição de probabilidade da variável aleatória ξ , através de Equações (5.7) à
(5.10). Porém, na grande maioria dos problemas envolvendo simulação numérica, estes
procedimentos analíticos não são viáveis ou possíveis. Neste caso é necessário o uso de
métodos aproximados.
Há duais classes básicas de métodos usados no cálculo das estatísticas da função
f (ξ ) , os métodos não-intrusivos (“Black-box”) e os métodos intrusivos (“Physics-
based”). Na análise de incertezas o objetivo central é ter um método geral que possa ser
aplicado a sistemas complexos com parâmetros incertos. Grandes esforços têm sido a-
plicados no desenvolvimento de um método não-intrusivo para análise de incerteza, que
explora modelos computacionais determinísticos existentes. Estas abordagens conside-
ram o sistema computacional como uma caixa-preta (“Black-box”) que retornam o valor
da função para um dado vetor de entradas. Neste trabalho serão utilizados dois métodos
que satisfazem esta condição, o método de Monte Carlo (MC) e o Método da Coloca-
ção Probabilística (“Probabilistic Collocation Method” - PCM) (RAMAMURTHY,
2005; WEBSTER). Os problemas aqui tratados, essencialmente envolveram o cálculo
apenas de alguns momentos estatísticos sem a necessidade de se encontrar toda a distri-
buição de probabilidade da função aleatória. Considere as Equações (5.7) e (5.9) a idéia
básica é aproximar numericamente estas integrais, através de simulações determinísti-
cas. Ambas as metodologias serão tratadas nas seções subsequentes.

85
5.3.1 Método de Monte Carlo

O método de Monte Carlo é o mais popular método não-intrusivo e pode ser utili-
zado para qualquer problema de propagação de incerteza (KEANE e NAIR, 2005). Da-
do uma distribuição conjunta de probabilidade das variáveis aleatórias envolvidas, o
método de MC pode ser aplicado para o cálculo aproximado da estatística da resposta de
interesse, incluindo sua distribuição, com um nível de erro arbitrário, desde que seja
fornecido um número suficiente de amostras. Esta abordagem é utilizada também para
validar outras técnicas, no cálculo das estatísticas. No método de MC as funções f (ξ )
de interesse, são calculadas em m pontos ξ (i ) , i = 1… m gerados aleatoriamente a partir
de suas distribuições P (ξ ) , então as integrais das Equações (5.7) e (5.9) são aproxima-
das, respectivamente, por:

1 m
(5.16) f f MC = ∑ f (ξ (i ) )
m i =1
(5.16)

1 ⎡m 2⎤
(5.17) σ [ f (ξ ) ] = σ 2f
2
σˆ 2f = ⎢ ∑
m − 1 ⎣ i =1
( f (ξ (i ) ) 2 ) − m ( f MC ) ⎥ (5.17)

onde m é o número de pontos amostrados, f MC é a aproximação de MC da média


de f (ξ ) e σˆ f é a aproximação de MC do desvio padrão de f (ξ) . Se f é integrável em ξ ,
então f MC → f a medida em que m → ∞ . O cálculo da variância pode ser usada para
verificar a aproximação f MC através da Equação (5.9), e então pode-se estimar o erro
dado por σ f m (KEANE e NAIR, 2005 ), o qual independe do número de variáveis a-
leatórias do problema. O maior problema do método de MC é sua baixa taxa de conver-
gência, já que o seu erro estimado é de ordem O(1 m ) . Por exemplo, para melhorar em
um décimo a aproximação, é necessário uma amostra 100 vezes maior. Porém o método
é facilmente paralelizável, pois o cálculo de cada f (ξ (i ) ) pode ser feito de forma inde-
pendente. No caso das avaliações de f (ξ (i ) ) serem caras computacionalmente, recomen-
da-se o emprego de modelos substitutos.
Pode-se calcular a partir das Equações (5.16) e (5.17) os gradientes da média e do
desvio padrão em relação a variáveis quaisquer (aleatórias ou determinísticas). Estes
gradientes serão requeridos durante o processo de otimização, e podem ser calculados
derivando as Equações (5.16) e (5.17) em relação às variáveis de projeto x:

∂f (x, ξ ) ∂f MC 1 m ∂f (x, ξ (i ) )
(5.18) = ∑ (5.18)
∂x ∂x m i =1 ∂x

86
∂ (σ 2f ) ∂ (σˆ 2f ) 1 ⎡m ⎛ ∂f (x, ξ (i ) ) ⎞ ∂f MC ⎤
(5.19) = ⎢ ∑ ⎜ 2 f ( x, ξ ( i ) ) ⎟ − 2m ( f MC ) ⎥ (5.19)
∂x ∂x m − 1 ⎣ i =1 ⎝ ∂x ⎠ ∂x ⎦

derivando σˆ f = (σˆ ) , tem-se que


2
f

1 2 −1/2 ∂ (σˆ f )
∂σˆ f
2
1 ⎡m ⎛ ∂f (x, ξ (i ) ) ⎞ ∂f ⎤
(5.20) = (σˆ f ) = ⎢ ∑ ⎜ f ( x, ξ ( i ) ) ⎟ − m ( f MC ) MC ⎥
∂x 2 ∂x σˆ f ( m − 1) ⎣ i =1 ⎝ ∂x ⎠ ∂x ⎦
(5.20)

Um ponto muito importante, quando se utiliza o método de MC para um processo


de otimização iterativo, é usar uma mesma semente (“seed”), para a geração de amos-
tras parentes, para as várias etapas do processo de otimização. Caso a PDF das variáveis
aleatórias não dependam das variáveis de projeto, as amostras geradas devem ser sem-
pre iguais. Caso contrário, as amostras devem sofrer alterações em função do valor da
variável de projeto correspondente. Este requisito é fundamental, principalmente, para
alguns métodos que iterativamente aproximam gradientes ( ∇f ) ou hessianas ( ∇ 2 f ) de
uma função f calculada a partir de MC, pois a utilização de amostras independentes (a-
leatórias) para cada iteração gera um erro aleatório O(1 m ) dificultando (ou até impos-
sibilitando) a convergência de tais métodos. Nesse caso são necessários outros métodos
de otimização que lidam diretamente com as incertezas, é o caso de métodos de otimi-
zação estocástica como algoritmos evolucionários, métodos de aproximação estocástica
(“stochastic approximation methods”), entre outros (ANDRADÓTTIR, 1998; SCHUË-
LLER e JENSEN, 2008).
Esta dificuldade no uso de amostras independentes é ressaltada quando se considera
o cálculo da função f no mesmo ponto em duas iterações sucessivas, o que leva a um
gradiente (ou hessiana) indeterminado, pois a função f terá dois valores (ou gradien-
tes) distintos para o mesmo ponto, causado pelo uso de amostras diferentes.

(a) Exemplo

Para ilustrar a conseqüência do uso de amostras aleatórias e a importância de se fi-


x2 (1 + x − x 2 )
xar a semente (“seed”), considere a função f ( x, ξ ) = ξ 2 − ξ , onde
10 3
ξ ~ N ( 0,1) , e pretende-se encontrar x* que minimize a média da função f ( x, ξ ) em re-
lação à ξ . A média de f ( x, ξ ) pode ser analiticamente encontrada através das Equa-
ções (5.7) e (5.13), obtém-se f ( x) = x 2 10 , logo x* = 0 . Foi realizada uma aproxima-
ção da média da função de interesse por MC ( f MC ( x) ) utilizando uma amostra ξ com
30 pontos, para vários valores de x, variando-o de -1 a 1 com incrementos de 0.01. Po-
rém duas estratégias diferentes para a construção das amostras foram consideradas:

87
mantendo a mesma amostra ξ para todos os pontos de x (“seed” fixo) e gerando uma
nova amostra aleatória para cada ponto de x (“seed” aleatório).
Na Figura 5.3 (a) é apresentado o gráfico de f ( x) (média de f ( x, ξ ) ) em função
de x, calculada por quatro procedimentos diferentes:
1. Cálculo analítico já mencionado,
2. Cálcular via PCM com 3 pontos de integração,
3. Aproximar f MC ( x) utilizando a mesma amostra para todos os pontos (“seed” fixo)
4. Aproxima f MC ( x) utilizando uma amostra diferente para cada ponto de x (“seed”
aleatório).
Nos itens 3 e 4, o MC foi feito com 30 pontos. Para a função utilizada neste exem-
plo, o PCM com 3 pontos encontra a resposta exata da média e do desvio padrão (este
método será tratado adiante), por isso as curvas da solução analítica e da solução por
PCM estão sobrepostas (exato* (PCM)).

a) b)
Figura 5.3 Monte Carlo: a) Gráfico da média de f ( x, ξ ) e b) Gráfico do erro
f MC ( x) − f ( x) .

Na Figura 5.3, nota-se claramente a dificuldade em otimizar a função f MC ( x) usan-


do MC com amostras aleatórias (MC - seed aleatório) indicada em vermelho. Já o MC
com o uso da mesma amostra (MC - seed fixo), mesmo apresentando um erro médio
considerável, apresenta uma curva tão suave quanto a função f ( x, ξi ) para um ξi qual-
quer. Isto ocorre, pois se f MC ( x) trata da média das funções fi ( x) = f ( x, ξi ) , i = 1..m,
onde m é o tamanho da amostra. Assim, a função f MC ( x) pode ser otimizada e se encon-
ξ
*
trar ótimos adequados. Neste caso o ótimo de f MC ( x) será xˆMC = para qual-
0.6ξ 2 + 2ξ
quer amostra (fixa) de ξ , pois

88
x2 2 (1 + x − x 2 ) df MC x 1
(5.21) f MC ( x) = ξ −ξ e ( x, ξ ) = (3ξ 2 + 10ξ ) − ξ (5.21)
10 3 dx 15 3

onde ξ e ξ 2 são respectivamente a média da amostra e a média dos quadrados da a-


mostra. À medida que a amostra aumenta (melhora) ξ 2 − (ξ )
2
→ σ ξ2 (Equação (5.9)),
com isso ξ e ξ 2 tendem, respectivamente, a zero e a um, consequentemente,
*
xˆMC → x* . Para a amostra de 30 pontos utilizada no gráfico, ξ = -0.0275 e
*
xˆMC = -0.0469 .

5.3.2 Técnicas de amostragem

A geração das amostras pode ser feita de maneira totalmente aleatória (ou pseudo-
aleatória), ou utilizando técnicas mais eficientes para o plano de amostragem (“Design
of experiments” – DoE) (GIUNTA et al, 2002) tal como o método LHS (“Latin Hiper-
cube Sampling”) que melhora a distribuição dos pontos da amostra e conseqüentemente
aumenta a convergência do MC. As amostras com distribuição Lognormal são geradas a
partir de amostras com distribuição Normal, estas são geradas a partir de amostras com
distribuição Uniforme. A geração computacional desta ultima é feita através de algorit-
mos determinísticos, capazes de gerar recursivamente uma sequência finita de números
inteiros ou de ponto flutuante, com um determinado período, sendo por isso chamados
de números pseudo-aleatórios.
No presente trabalho as metodologias utilizadas para a geração das amostras serão
uma técnica pseudo-aleatória e o LHS. Na primeira abordagem será considerado o algo-
ritmo “Mersenne Twister” (MT) (MATSUMOTO, 1998) para a geração de amostras
com distribuição uniforme, seguido por um algoritmo polar para obter as amostras com
distribuição Normal. Ambos os algoritmos usados são do ambiente MATLAB 7.5
(MATHWORKS, 2007).
O LHS é um método utilizado para a geração de uma amostra que cubra mais efici-
entemente o espaço das variáveis aleatórias, para um determinado número de pontos. A
sua idéia básica é dividir o intervalo de cada uma das n dimensões da amostra pelo nú-
mero de pontos pretendidos N, onde cada subintervalo tem a mesma probabilidade de
ocorrência. Os N pontos são dispostos de forma que cada subintervalo de cada uma das
n variáveis tenha apenas um ponto, para mais detalhes vide (BARÓN, et al , 1999). As
amostras LHS são geradas a partir de uma amostra aleatória com distribuição normal, a
qual é ajustada para que as distribuições marginais de cada variável se aproxime da sua
distribuição de probabilidade teórica (STEIN, 1987).
Quando se faz o cálculo das estatísticas de uma amostra de variáveis aleatórias ge-
radas por alguma das técnicas mencionadas, em geral esses parâmetros não apresentam
os mesmos valores originais das variáveis aleatórias, calculados através das PDF das va-
riáveis. Estes parâmetros são desejados, pois, como se pode notar na aproximação de
MC do exemplo anterior, eles estão diretamente ligados à convergência da aproxima-

89
ção. Pode-se ver no exemplo anterior, que quanto mais esses valores se aproximam de
seus valores originais, melhor será a aproximação do MC para esta amostra.
Deste modo, como será utilizada a mesma amostra-base, durante todo o processo de
otimização, foi criada uma estratégia para a seleção de uma amostra, escolhida a partir
de um conjunto de amostras. A amostra selecionada será a que apresentar as estatísticas
mais próximas da desejada, a partir de uma determinada norma.
Para a distinção das amostras foi proposta uma função que faz uma ponderação do
erro (de forma empírica) das estatísticas da amostra. As amostras são geradas conside-
rando uma distribuição Normal padrão ∼ N ( 0,1) . Essa equação empírica, que qualifica
as amostras, faz a ponderação dos logaritmos dos erros quadráticos dos momentos cen-
trais estatísticos das amostras, dando maior peso aos momentos de maior ordem. Esta
função é definida como:

ln ( (σ x − 1) 2 ) ln ( s 2 ) ln (κ 2 )
(5.22) FErr = ln ( μ 2
)+ + + (5.22)
2 6 24

onde μ é a média da amostra, σ x o seu desvio padrão, s a obliqüidade e κ a curtose.


Para uma amostra com distribuição Normal padrão N ( 0,1) : μ , s e κ devem ser iguais
a zero, enquanto σ x deve se aproximar de um. A amostra selecionada é a que apresenta
o menor valor de FErr . Este procedimento não pretende escolher a amostra que conse-
guirá a melhor aproximação por MC do parâmetro de interesse, apenas se quer evitar
que ocasionalmente se utilize uma amostra deficiente que empobreça a aproximação.
Vale salientar que o mesmo foi criado de maneira intuitiva e adaptado em função de ex-
perimentos numéricos realizados.
Outras duas funções “teste”, para se diferenciar as amostras, foram aplicadas: o tes-
te de Kolmogorov-Smirnov e o teste de Anderson-Darling, (NIST/SEMATECH, 2009).
Elas testam o quanto a CDF de uma dada amostra se aproxima da CDF de uma dada
distribuição. Os resultados de propagação de incerteza obtidos com amostras LHS sele-
cionadas por estes critérios não apresentaram grande avanço em comparação com as
amostras LHS originais (isto é, sem critério de seleção), para o exemplo considerado
(especificado a seguir).

(a) Exemplo - MC por diferentes amostragens

Para exemplificar o uso da amostra selecionada, considere a função


f ( X , Y ) = sen( X )cos(Y ) , onde X e Y são variáveis aleatórias ∼ N (1, 0.1) . Foi realizada
uma aproximação da média f MC e do desvio padrão σˆ f de f ( X , Y ) por MC, utilizando
três técnicas de amostragem diferentes: totalmente aleatória, LHS padrão e LHS sele-
cionada, para este último, foram analisados conjuntos de cinco mil amostras. Variou-se
o tamanho da amostra de 64 até 16.384 para cada tipo de amostra. Este procedimento
foi repetido 50 vezes, pois seus resultados são aleatórios, então foi calculado o erro mé-
dio no cálculo de f MC de cada tipo de amostra.

90
No caso das amostras LHS selecionadas, para cada uma das 50 repetições feitas,
um conjunto diferente de cinco mil amostras foi analisado, consequentemente 50 amos-
tras selecionadas diferentes foram obtidas (totalizando 250.000 amostras analisadas e 50
selecionadas), para cada tamanho de amostra diferente.
Na Figura 5.4 é apresentado o gráfico da do erro médio de f MC , para os diferentes
tamanhos de amostras (de 64 até 16384) pelos três tipos de amostragem. O erro foi me-
dido em relação à média exata f calculada simbolicamente pelo do MATLAB, através
das Equações (5.7), (5.8) e (5.13).

a) b)
Figura 5.4 Erro médio na aproximação por MC utilizando três técnicas de amostragem
diferentes: totalmente aleatória, LHS padrão e LHS selecionada: a) Erro da média e b)
Erro do desvio padrão.

Como se pode observar na Figura 5.4 (a) a amostra LHS Selecionada apresentou
melhor resultado no cálculo da média para tamanhos de amostras menores, porém à me-
dida que o número de pontos aumenta a diferença entre as amostras LHS diminui, sendo
necessário um conjunto maior de amostras para extrair uma que se sobressaia significa-
tivamente. Os resultados da LHS Selecionada chega a apresentar um erro médio maior
que o LHS simples para amostras maiores. Já para o cálculo do desvio padrão os resul-
tados não foram muitos diferentes, quando se compara o LHS com o LHS Selecionado.
No gráfico nota-se também, a convergência mais acentuada do LHS em relação à amos-
tra totalmente aleatória*, para o cálculo da média e do desvio padrão.
Para este caso simples o custo computacional do LHS Selecionado não justificaria o
seu uso, pois o tempo de CPU pra se gerar uma amostra LHS é maior que a propia ava-
liação da função f ( X , Y ) . Porém, para problemas em que o custo computacional, de se
gerar e avaliar uma amostra LHS, é irrelevante em comparação ao custo do cálculo da
função de interesse, o processo de seleção amostral mostrou-se adequado para os casos
aqui considerados (seção 5.4.2). Assim sendo, nos exemplo analíticos posteriores serão
usadas amostras LHS padrão, enquanto que nos exemplos práticos o processo de sele-
ção amostral será empregado.

91
5.3.3 Método da Colocação Probabilística (PCM)

Métodos tradicionais como o MC, mesmo com técnicas de amostragem que melho-
ram sua eficiência, são inviáveis para serem aplicadas diretamente em modelos comple-
xos de alta fidelidade. O Método da Colocação Probabilística (“Probabilistic Collocati-
on Method” - PCM) (RAMAMURTHY, 2005) é uma ferramenta desenvolvida visando
uma análise de incerteza eficiente em modelos complexos e computacionalmente custo-
sos. A idéia básica do PCM é aproximar a resposta do modelo em função das variáveis
aleatórias, por funções polinomiais, e estimar as integrais das Equações (5.7) e (5.9) por
Quadratura de Gauss (STOER e BULIRSCH, 1991). Em particular, um PCM de grau n-
1, aproxima a resposta do modelo por uma função polinomial de grau 2n-1, através de n
pontos calculados, obtendo de forma exata as estatísticas de funções polinomiais de
grau menor ou igual a 2n-1.
Este método é indicado principalmente para problemas onde as funções de interesse
são suaves, pois as aproximações polinomiais podem apresentar dificuldades para fun-
ções oscilatórias ou com singularidades. Além disso, o número de variáveis aleatórias
consideráveis deve ser pequeno, pois o número de pontos necessários, para a aproxima-
ção de um mesmo grau, aumenta exponencialmente com o número de variáveis aleató-
rias. Esta dificuldade pode ser superada utilizando técnicas de integração por grades es-
parsas (“sparse grids) (HEISS e WINSCHEL, 2008).
O PCM se baseia nos conceitos de Quadratura de Gauss e de polinômios ortonor-
mais. A idéia básica do método é aproximar a função de interesse por funções polinomi-
ais e calcular as integrais (5.7) e (5.9) por quadratura de Gauss. Então, antes de explanar
sobre os pormenores da estrutura do PCM, é necessário apresentar os assuntos supraci-
tados.

(a) Polinômios ortogonais

Polinômios são ditos ortogonais entre si com relação a um produto interno relacio-
nado a um espaço, se este for nulo. Todo produto interno em um dado espaço F , de
funções reais f, g e h pertencentes a F , deve satisfazer as seguintes condições (APOS-
TOL, 1967):

f , g + h = f , g + f ,h
α f , g = α f , g = f , α g , onde α é um escalar
(5.23) (5.23)
f , g = g, f
f , f > 0, se f ≠ 0

Dado um espaço linear de funções reais F e considerando duas funções polinomi-


ais f ( x), g ( x) ∈ F , o produto interno aqui tratado é definido como:

92
(5.24) f ( x ) , g ( x ) = ∫ f ( x ) g ( x ) P( x)dx (5.24)
F

onde P(x) é uma função de ponderação não negativa definida no espaço F .


Este produto interno forma a base da integração por Quadratura de Gauss e para o
PCM. Como já mencionado, as funções polinomiais f ( x), g ( x) ∈ F são ortogonais se
seu produto interno for nulo. Um conjunto de polinômios hi ( x) pertencentes ao espaço
polinomial H , pode ser definido como:

i
(5.25) hi ( x) = ai ,0 + ai ,1 x + ai ,2 x 2 ... + ai ,i x i = ∑ ai , j x j (5.25)
j =0

Estes polinômios serão ortonormais em relação a uma função de ponderação P(x),


se a seguinte relação existe para todos hi ( x) , i=0,1..n, onde o índice de hi indica o grau
do polinômio:

⎧1, para i = j
(5.26) hi ( x), h j ( x) = ⎨ (5.26)
⎩0, para i ≠ j

Através destas relações são encontrados os coeficientes ai , j que definem os poli-


nômios ortonormais. Estes polinômios são únicos para cada função de ponderação dada,
e formam uma base para H . Todas as raízes x*j , j = 1..i de um polinômio hi ( x) , estão
contidas no espaço real, ou seja, hi ( x*j ) = 0, x*j ∈ F , j = 1..i , e dependem apenas da
função de ponderação P(x). As raízes de hi ( x) formam os pontos de colocação da qua-
dratura de Gauss. Para mais detalhes consulte (GAUTSCHI, 2005).
Note que h0 ( x ) é uma constante, h0 ( x ) = a0,0 , consequentemente propriedades im-
portantes, a partir da Equação (5.26), podem ser obtidas, as quais serão usadas adiante.

h0 ( x ) , hi ( x ) = 0, ∫ h ( x ) P( x)dx = 0,
i i>0
F
(5.27) (5.27)
h0 ( x ) , h0 ( x ) = 1, a ∫ P ( x)dx = 1
0,0
2
F

(b) Quadratura de Gauss

Na integração numérica via quadratura de Gauss para integrais da seguinte forma:

93
(5.28) ∫ f ( x) P ( x ) dx
F
(5.28)

Aproxima-se a função f ( x) , por um polinômio de grau 2n-1 , a partir da base orto-


normal do espaço H , em relação à função de ponderação P( x) , onde n é o número de
pontos de integração, tal como segue

⎛ n −1 ⎞ ⎛ n −1 ⎞
(5.29) f ( x) fˆ ( x) = ⎜ ∑ bi hi ( x) ⎟ + hn ( x) ⎜ ∑ ci hi ( x) ⎟ (5.29)
⎝ i =0 ⎠ ⎝ i =0 ⎠

Na integral da Equação (5.28) aproximada por quadratura de Gauss, o segundo ter-


mo da aproximação se cancela (por ortogonalidade) e lembrando as propriedades (5.27)
os termos para i = 1..n − 1 do primeiro somatório da aproximação também é cancelado.
A integral desejada (5.28), aproximada por quadratura de Gauss, pode ser expressa en-
tão da seguinte forma:

(5.30) ∫ f ( x ) P ( x ) dx
F
b0 h0 ∫ P ( x ) dx
F
(5.30)

Para encontrar os coeficientes bi e ci da aproximação (Equação (5.29)), seria neces-


sário o cálculo da função f ( x) em 2n pontos. Porém, como a integral não depende dos
coeficientes ci, pode-se calcular a função f ( x) nas n raízes x* de hn ( x) , cancelando as-
sim o segundo termo da aproximação apresentada na Equação (5.29), pois
hn ( xi* ) = 0, i = 1..n . Os coeficientes ai , j que definem os polinômios ortonormais são
calculados através das relações (5.26), como já mencionado. Desta forma, os coeficien-
tes bi são encontrados resolvendo o sistema:

⎡ f ( x1* ) ⎤ ⎡ h0 hn −1 ( x1* ) ⎤ ⎡ b0 ⎤
⎛ n −1
⎞ ⎢ ⎥ ⎢ ⎥⎢ ⎥
(5.31) f ( xi* ) = ⎜ ∑ b j h j ( xi* ) ⎟ ; ou ⎢ ⎥=⎢ ⎥⎢ ⎥ (5.31)
⎝ j =0 ⎠ ⎢ * ⎥ ⎢ hn −1 ( xn* ) ⎥⎦ ⎢⎣bn −1 ⎥⎦
⎣ f ( xn ) ⎦ ⎣ h0

Definindo-se a matriz h j ( xi* ) inversa, como

−1
⎡ h0 hn −1 ( x1* ) ⎤
⎢ ⎥
(5.32) Ap = ⎢ ⎥ (5.32)
⎢ h0 hn −1 ( xn* ) ⎥⎦

os coeficientes b0 podem ser calculados como:

94
⎡ b0 ⎤ ⎡ f ( x1* ) ⎤
⎢ ⎥ n
(5.33) ⎢⎢ bi ⎥⎥ = Ap ⎢ f ( xi* ) ⎥ , logo b0 = ∑ Ap1,i f ( xi* ) (5.33)
⎢⎣bn −1 ⎥⎦ ⎢ f ( xn* ) ⎥ i =1
⎣ ⎦

Para o cálculo da integral, basta conhecer a primeira linha da matriz Ap e ponderar


as respostas da função nos pontos de integração (raízes de hn ), então, o vetor dos pesos
P é definido como Pi = Ap1,i .

Definindo-se

(5.34) C0 = h0 ∫ P( x)dx (5.34)


F

o valor da integral (5.30) é aproximado por b0C0 .


Os passos para a determinação dos parâmetros necessários a aplicação da metodo-
logia são:
1. A partir de uma função de ponderação qualquer P( x) (não negativa), encon-
tra-se os polinômios hi ( x) , i=1..n (cujos coeficientes ai , j são obtidos utili-
zando (5.26)).
2. Calcula-se as raízes xi* de hn ( x) .
3. Calcula-se a matriz Ap .
4. Computa-se o vetor de ponderação P, onde Pi = Ap1,i .

5. Calcula-se o valor da integral utilizada na Equação (5.30) e defini-se uma


constante C0 Equação (5.34).

Restando apenas avaliar a resposta f ( xi* ) em cada ponto de integração, para então
calcular o valor desejado:

n
(5.35) ∫ f ( x) P( x)dx C0 ∑ Pi f ( xi* ) (5.35)
F
i =1

Vale ressaltar que não é necessário calcular estes parâmetros para as funções de dis-
tribuição conhecidas, pois estes valores são conhecidos e podem ser encontrados na lite-
ratura, bem como em bibliotecas computacionais da maioria dos programas.

(c) Aplicando Quadratura de Gauss à estatística - PCM

A avaliação das estatísticas definidas nas Equações (5.7) e (5.9) considerando o


PCM (“Probabilistic Collocation Method”) é uma aplicação direta da quadratura de
Gauss considerando o espaço das variáveis aleatórias ξ e sua PDF como função de

95
ponderação. Portanto tem-se que ∫F
P(ξ )dξ = 1 e pela segunda propriedade em (5.27)
h0 = 1 , consequentemente a constante C0 = 1 (definida pela Equação (5.34)). Com isso
o valor da integral (5.30) é aproximado apenas por b0 . Os polinômios ortonormais são
definidos para cada PDF. A média e o desvio padrão de uma resposta de interesse serão
aproximados pelo PCM da seguinte forma:

n
f PC = ∑ Pi f (ξ*(i ) )
i =1
(5.36) n
(5.36)
σˆ 2
PC = ∑ Pi f (ξ ) − f PC
* 2
(i )
2

i =1

onde ξ*(i ) , i = 1..n são as raízes do polinômio ortonormal.

Pode-se calcular a partir da Equação (5.36) os gradientes da média e do desvio pa-


drão em relação a variáveis quaisquer, aleatórias ou determinísticas, da mesma forma
como foi feito para o MC, derivando a Equação (5.36) em relação às variáveis de proje-
to x

∂f (x, ξ ) ∂f PC m ∂f (x, ξ (i ) )
(5.37) = ∑ Pi (5.37)
∂x ∂x i =1 ∂x

∂ (σ 2f ) ∂ (σˆ PC
2
) m
⎛ ∂f (x, ξ (i ) ) ⎞ ∂f PC
(5.38) = ∑ ⎜ 2 Pi f (x, ξ (i ) ) ⎟ − 2 f PC (5.38)
∂x ∂x i =1 ⎝ ∂x ⎠ ∂x

derivando σˆ PC = (σˆ ) , tem-se que


2
PC

∂σˆ PC 1 2 −1/2 ∂ (σˆ PC )


2
1 ⎡m ⎛ ∂f (x, ξ (i ) ) ⎞ ∂f ⎤
(5.39) = (σˆ PC ) = ⎢ ∑ ⎜ f ( x, ξ ( i ) ) ⎟ − f PC PC ⎥ (5.39)
∂x 2 ∂x σˆ PC ⎣ i =1 ⎝ ∂x ⎠ ∂x ⎦

Uma dificuldade da integração por Quadratura de Gauss e que também padece o


PCM é a chamada maldição dimensional (“dimensional curse”), pois o número de pon-
tos de integração (para um mesmo grau de aproximação) cresce exponencialmente com
o número de dimensões do problema. Ou seja, no caso do PCM, o número de variáveis
aleatórias a ser considerada não deve ser elevado. Por exemplo, para um problema de 10
variáveis aleatórias, caso seja utilizado o PCM com 3 pontos de colocação para todas as
variáveis (aproximação de 5º grau), serão necessários 59.049 (310) cálculos da função de
interesse.

96
Para problemas com muitas variáveis aleatórias pode-se utilizar técnicas de grades
esparsas (“sparse grids”) baseadas nas regras de Smolyak (1963) para integração multi-
variável, diminuindo consideravelmente o número de pontos de colocação, para mais
detalhes vide (HEISS e WINSCHEL, 2008).
Será mostrado aqui, como encontrar cada valor ξ (*i ) , i = 1..n , raízes do polinômio
hn (ξ ) e os coeficientes de ponderação Pi , porém estes valores apenas devem ser calcu-
lados uma única vez para cada distribuição e seus valores devem ser armazenados para
serem usados em problemas diversos. No nosso caso, será tratada apenas a distribuição
normal padrão ∼ N ( 0,1) , pois os mesmos valores podem ser aplicados a uma distribui-
ção normal com parâmetros diferentes, bem como a uma distribuição Lognormal, atra-
vés de uma transformação de variáveis.
Os polinômios ortogonais para uma distribuição gaussiana são conhecidos como
polinômios Hermitianos. Como exemplo, será calculado os coeficientes ai ,k , k = 0..i
dos polinômios ortonormais hi (ξ ), i = 0..n , os quais foram definidos na Equação
(5.25), usando como função de ponderação a PDF Normal padrão (Equação (5.13)). Isso
será feito até ser encontrado o polinômio ortonormal do primeiro grau, ou seja, i = 0,1 ,
através das relações descritas na Equação (5.26) e sabendo que para uma distribuição
∞ ∞
normal padrão ∫−∞
ξ P(ξ )d ξ = 0 , ∫
−∞
ξ 2 P(ξ )dξ = 1 e ξ ∈ , obtém-se:

h0 (ξ ), h0 (ξ ) = 1
(5.40) ∞ (5.40)
a0,0 2 ∫ P(ξ )dξ = 1
−∞

logo, a0,0 = 1 . E para

h0 (ξ ), h1 (ξ ) = 0

∫ ( a )( a + a ξ ) P(ξ )dξ = 0

(5.41) 0,0 1,0 1,1 (5.41)
−∞
∞ ∞
a ∫ P(ξ )dξ + a ∫ ξ P(ξ )dξ = 0
1,0 −∞ 1,1 −∞

logo, a1,0 = 0 . E ainda, para

h1 (ξ ), h1 (ξ ) = 1

∫ (a + a1,1ξ )( a1,0 + a1,1ξ ) P(ξ )d ξ = 1



(5.42) 1,0 (5.42)
−∞
∞ ∞ ∞
a ∫
1,0
2
P(ξ )d ξ + 2a1,1a1,0 ∫ ξ P (ξ )d ξ + a1,12 ∫ ξ 2 P (ξ )d ξ = 1
−∞ −∞ −∞

logo, a1,1 = 1 .

97
Portanto, os dois primeiros polinômios ortonormais são: h0 (ξ ) = 1 e h1 (ξ ) = ξ . Para
se encontrar um polinômio de grau j, a partir dos polinômios de menor grau já calcula-
dos (de 0 à j-1), resolve-se um sistema de j+1 equações não lineares definidos na Equa-
ção (5.26), onde i = 0...j . Assim o seguinte sistema é resolvido:

∞ ⎛ i ⎞⎛ j ⎞ ⎧0, i ≠ j
(5.43) hi (ξ ), h j (ξ ) = ∫ ⎜ ∑ ai ,k ξ k ⎟ ⎜ ∑ a j ,k ξ k ⎟ P(ξ )d ξ = ⎨ (5.43)
−∞
⎝ k =0 ⎠ ⎝ k =0 ⎠ ⎩1, i = j

para i = 0… j . Onde todos os coeficientes ai ,k dos polinômios hi (ξ ) , para i = 0… j − 1 ,


já são conhecido. O sistema é resolvido considerando os coeficientes a j ,k do polinômio
h j (ξ ) , como incógnitas, onde k = 0… j . Esse procedimento é repetido recursivamente
variando o j até atingir o polinômio de grau n ( hn (ξ ) ) desejado.
Depois de encontrados os n polinômios ortonormais, continua-se analogamente os
mesmos passos de 1 a 5 utilizados na quadratura de Gauss, Item 5.3.3 (b)., i.e:
1. Calcula-se as n raízes ξ j * , j = 1..n de hn (ξ ) ,

2. Cria-se a matriz de hi (ξ j * ) avaliando os polinômios hi (ξ ), i = 0… n − 1 em


cada ξ j * , j = 1..n .

3. Calcula-se sua inversa: Ap


4. Extraí-se da 1ª linha de Ap os pesos Pi = Ap1,i .

Os valores de Pj e ξ j * , j = 1..n são armazenados e utilizados para obter as estatísti-


cas de qualquer função em estudo, a partir da Equação (5.36).
Para poder aplicar os valores de ξ* , obtidos para uma distribuição normal padrão
∼ N ( 0,1) , a uma distribuição normal com parâmetros diferentes ∼ N ( μ , σ ) , basta rea-
lizar um simples transformação (WEBSTER et al, 1996).

(5.44) ξ ' = ξ *σ + μ (5.44)

onde ξ ' será o vetor das raízes do polinômio ortonormal com relação à uma distribuição
normal ∼ N ( μ , σ ) . Os pesos P são os mesmos para este caso, bem como para o caso de
uma distribuição lognormal.
Através de uma transformação de variáveis inversa à citada na Equação (5.14), se
obtém as raízes ξ 'log do polinômio ortonormal para uma distribuição lognormal. Esta
transformação é realizada da seguinte forma:

(5.45) ξ 'log = exp (ξ *θ + η ) (5.45)

98
onde

⎛ μ2 ⎞ ⎛σ 2 ⎞
(5.46) η = ln ⎜ ⎟ e θ = ln ⎜ 2 + 1⎟ (5.46)
⎜ μ2 +σ 2 ⎟ ⎝μ ⎠
⎝ ⎠

(d) Implementação Computacional

Para o desenvolvimento da metodologia, foi implementado no MATLAB uma fun-


ção para o cálculo dos coeficientes ai , j de cada polinômio ortonormal. Esta função sim-
b
bolicamente calcula as integrais de ∫ a
ξ i P(ξ )dξ para i = 0...2n − 1 , onde a função de
ponderação P (ξ ) , os limites [a,b] onde ela é definida e o valor de n são dados de entra-
da. A partir dos valores das integrais obtidos, cria-se um sistema de equações não linea-
res, apresentado na Equação (5.43), o qual também é resolvido simbolicamente, para se
obter os coeficientes ai , j de cada polinômio ortonormal.

Como exemplo da aplicação da metodologia citada, os coeficientes que formam os


dez primeiros polinômios ortonormais (até o polinômio de nono grau), obtidos para uma
distribuição Normal padrão com limites [a,b]=[-∞, ∞], estão indicados abaixo:
ai , j =
[ 1]
[ 0, 1]
[ -1, 0, 1]/2*2^(1/2)
[ 0, -3, 0, 1]/6*6^(1/2)
[ 3, 0, -6, 0, 1]/12*6^(1/2)
[ 0, 15, 0, -10, 0, 1]/60*30^(1/2)
[ -15, 0, 45, 0, -15, 0, 1]/60*5^(1/2)
[ 0,-105, 0, 105, 0, -21, 0, 1]/420*35^(1/2)
[ 105, 0,-420, 0, 210, 0, -28, 0, 1]/1680*70^(1/2)
[ 0, 945, 0,-1260, 0, 378, 0, -36, 0, 1]/5040*70^(1/2)

para i = 0… n, e j = 0… i .
Estes polinômios ortonormais estão de acordo com os polinômios ortogonais encon-
trados na literatuda (WEBSTER et al, 1996), após normalização. Depois de encontrado
os polinômios ortonormais, pode-se encontrar os pontos de colocação calculando suas
raízes através da função “roots” do próprio MATLAB (MATHWORKS, 2007). Para o
polinômio ortonormal de nona ordem ( h9 (ξ ) ), encontra-se:

ξ* =
0

99
-4.512745863399775
4.512745863399775
-3.205429002856465
3.205429002856465
-2.076847978677832
-1.023255663789131
2.076847978677832
1.023255663789131

Os resultados acima obtidos estão em concordância com os apresentados na refe-


rência (GREENWOOD e MILLER, 1948), onde são obtidas as raízes de polinômios or-
togonais Hermitianos, sendo necessário a multiplicação pela raiz de 2, para se obter as
raízes dos polinômios ortonormais em relação à função de peso Gaussiana utilizada. Es-
tes nove pontos de colocação são utilizados para uma aproximação de 17ª ordem.
Como já foi mencionado, a partir destes pontos, cria-se a matriz de hi (ξ j * ) avalian-
do os polinômios hi (ξ ), i = 0… n − 1 em cada ξ j * , j = 1..n . Só restando então calcular
Ap, invertendo a matriz criada, e extrair da 1ª linha os pesos P, onde Pi = Ap1,i . Os pesos
obtidos para os nove pontos de colocação foram:

P=
0.406349206349205
2.2345844007746e-5
2.2345844007746e-5
2.789141321231750e-3
2.789141321231750e-3
4.9916406765217772e-2
0.244097502894940
4.9916406765217772e-2
0.244097502894940

Os resultados acima obtidos estão em concordância com os apresentados na refe-


rência (GREENWOOD e MILLER, 1948), onde são obtidas os coeficientes de pondera-
ção para os polinômios ortogonais Hermitianos, sendo necessário dividí-los por π ,
para se obter os coeficientes de ponderação dos polinômios ortonormais em relação à
função de peso Gaussiana utilizada.
Vale notar que a partir da matriz Ap pode-se encontrar os coeficientes da aproxima-
ção polinomial para posterior verificação, como será feito mais adiante. Os valores de
P e ξ* são armazenados e utilizados para obter as estatísticas da função em estudo a
partir da Equação (5.36).

100
5.3.4 Exemplos

(a) Verificação - PCM

Além da verificação, já efetuada no item anterior, relacionada com a obtenção dos


parâmetros do método: pontos de colocação e coeficientes de ponderação, a verificação
geral da metodologia irá ser feita aqui, através do cálculo da média e do desvio padrão
para uma função polinomial de grau N P = 8 de uma variável aleatória ξ ∼ N (0,1) , para
este caso o PCM deve obter uma solução exata para um determinado número de pontos.
A função polinomial que será utilizada é:

1 NP 1
f (ξ ) = ∏
C i =1
( ξ − i (−1)i ) , ou f (ξ ) = (ξ + 1)(ξ − 2 )(ξ + 3) ... (ξ − 8 )
C
(5.47) NP
(5.47)
onde, C = ( N P !) ∏ −(−1) = 1(−2)3...7(−8)
i

i =1

Vale salientar que para o cálculo exato da média de um polinômio de 8º grau, são
necessários 5 pontos de colocação, pois 2n-1 = 9. Já para o cálculo do desvio padrão, a
função aproximada pelo PCM é a f (ξ ) 2 , o que leva a um polinômio de 16º grau, sendo
necessários 9 pontos de colocação (2n-1 = 17) para a convergência do PCM. A Tabela
5.1 ilustra o erro no cálculo da média e no desvio padrão pelo PCM, para aproximações
que utilizam de 3 até 9 pontos, onde nota-se a convergência esperada do método.

Tabela 5.1 Aproximação da média e do desvio padrão via


PCM de uma função polinomial de oitavo grau.
PCM
n 2n-1 Erro na média Erro no desvio padrão
3 5 0.012053546253266 0.055207201802620
4 7 0.000595258325395 0.029324964183213
5 9 0.000000000000000 0.009362017482057
6 11 0.000000000000001 0.002193953762619
7 13 0 0.000319231598934
8 15 0.000000000000000 0.000022214207163
9 17 0.000000000000000 0

101
Como comparativo, a Tabela 5.2 ilustra a aproximação do mesmo caso por MC uti-
lizando amostras do LHS, onde se percebe a grande vantagem do PCM para este tipo de
caso.
Tabela 5.2 Aproximação da média e do desvio padrão via.
MC
Nº pontos Erro da média Erro do desvio padrão
103 0.001008014052612 0.000064040096951
209 0.000299157888075 0.001628113576030
327 0.000301517289170 0.000156040536578
481 0.000531314411038 0.000984779588322
743 0.000688695761748 0.001169150370338
1329 0.000185486317499 0.000273969426433
2887 0.000072895050160 0.000098277073118
7361 0.000036488736102 0.000024487079049
20583 0.000009992521449 0.000003760397742
60049 0.000002035240651 0.000005664316955

A Figura 5.5 sumariza os resultados obtidos pelos dois métodos o MC utilizando


amostras LHS e o PCM, onde o erro mínimo foi fixado em 10-10. Percebe-se a grande
vantagem do PCM para este caso.

Figura 5.5 Teste de convergência dos métodos MC e PCM, para um caso polinomial.
(erro mínimo fixado em 10-10).

102
(b) Exemplo - Função Periódica

Neste exemplo será comparado o PCM com o LHS-MC considerando-se novamente


a função f ( X , Y ) = sen( X )cos (Y ) , onde X e Y ∼ N (1, σ ) são variáveis aleatórias in-
dependentes. Para este exemplo o valor do desvio padrão σ será variado para que se te-
nham diferentes “regiões de abrangência” (regiões onde há probabilidade de ocorrência
significante) das variáveis aleatórias. O MC foi testado com amostra LHS de 50.000
pontos, enquanto que para o PCM utilizou-se 7 pontos de colocação para cada variável,
totalizando 49 pontos de colocação analisados.
Assim um estudo paramétrico sobre o desvio padrão σ das variáveis aleatórias foi
conduzido, variando-o de 0.2 até 2.6. A Figura 5.6 mostra para cada valor de σ , no in-
tervalo (de 0.2 até 2.6), o valor das estatísticas da função, média (Figura 5.6(a)) e desvio
padrão (Figura 5.6(b)), bem como os erros de cada método no cálculo da média (Figura
5.6(c)) e no cálculo do desvio padrão (Figura 5.6(d)).

(a) média (b) desvio padrão

(c) erro da média (d) erro no desvio padrão


Figura 5.6 Estudo paramétrico da função f ( X , Y ) variando σ das variáveis aleatórias:
(a) média, (b) desvio padrão, erros de cada método no cálculo (c) da média e (d) do des-
vio padrão.

103
Note que, quanto menor o desvio padrão das variáveis aleatórias, mais “simples” se-
rá sua região de influência na função f ( X , Y ) (menos oscilações, i.e. picos e vales).
Como pode-se observar o PCM com 49 pontos se mostrou melhor para valores menores
de σ (menor região de abrangência), para todos as aproximações da média e do desvio
padrão. Já o MC apresentou um desempenho quase constante, não apresentando grande
variação na ordem de grandeza do erro com o aumento do desvio padrão.
Vale frisar que com os parâmetros utilizados neste exemplo, a solução via o PCM é
três ordens de grandeza mais rápido que o LHS-MC, devido a diferença no número de
pontos em que a função é avaliada por cada método (49 pontos o PCM e 50x10³ pontos
o MC).
Na Figura 5.7 é apresentada a superfície da função f ( X , Y ) , os pontos de coloca-
ção do PCM e os pontos de integração do MC, para o valor inicial de σ = 0.2 , o que da
uma idéia da região de abrangência inicial. Os resultados deste caso correspondem aos
indicados pelos inícios das curvas apresentadas na Figura 5.6.

Figura 5.7 Superfície da função f ( X , Y ) , pontos de colocação do PCM, e amostra do


MC para o valor inicial de σ = 0.2 .

Na Figura 5.8 é apresentada a superfície da função f ( X , Y ) e os pontos de coloca-


ção do PCM, para o valor de σ = 1.6 , o que já seria um valor “elevado” de desvio pa-
drão, porém como pode-se ver nas Figura 5.6 (c) e (d), através dos pontos circulados no
gráfico, o PCM com 49 pontos ainda apresenta um resultado melhor que o MC com
50.000 pontos, tanto para a média quanto para o desvio padrão, este ultimo com peque-
na diferença. Só a partir deste ponto, com o aumento do desvio padrão da variável alea-
tória ( σ > 1.6 ), o MC com amostra LHS de 50.000 pontos começa a apresentar resulta-
dos melhores que o PCM no cálculo de desvio padrão da função. Para o cálculo da mé-
dia o PCM obteve erros menores para todo o intervalo do σ analisado.

104
(a)

(b)
Figura 5.8 Valores de σ = 1.6 (ou183°): (a) Pontos de colocação do PCM e (b) Pontos
de integração do MC.

À medida que se aumenta o valor de σ , aparecem regiões de mínimos e máximos e


um comportamento multimodal é verificado para a função f ( X , Y ) . Quando o número
de regiões de mínimos e máximos torna-se elevado para um mesmo número de pontos
de colocação, a aproximação do PCM apresenta dificuldades. Uma alternativa seria usar
métodos que utilizam aproximações discretas, dividindo o domínio das variáveis aleató-
rias, como o “Multi-Element Probabilistic Collocation Method” (ME-PCM) (FOO,
WAN e KARNIADAKIS, 2008).

105
(c) Exemplo – Função com singularidade

Neste exemplo serão testados o PCM e o MC para o caso de uma função não conti-
nuamente diferenciável, confrontando-os com a resposta exata. Considere a função
f ( x, ξ ) = x − ξ − ξ (1 + x − x 2 ) , onde ξ ∼ N ( 0,1) é a variável aleatória.

A Figura 5.9 ilustra o gráfico de f ( x) (a média de f ( x, ξ ) em função de x), com x


variando de -1 à 1. Três procedimentos para o seu cálculo foram usados:
• O primeiro (MC - 30) aproxima f MC ( x) por MC utilizando uma amostra a-
leatória fixa de 30 pontos para ξ (para todos os valores de x);
• O segundo faz o cálculo exato, através da Equação (5.7) (integrando simbo-
licamente pelo MATLAB);
• Do terceiro (PCM - 3) ao sexto (PCM - 8) foi aproximada a média da função
por PCM utilizando 3, 5, 6 e oito pontos de colocação respectivamente.
Como a função f ( x, ξ ) não é continuamente diferenciável (singular em x = ξ ), a
aproximação polinomial “global” apresenta dificuldades. Como se pode notar na Figura
5.9 o PCM não consegue capturar a função de modo satisfatório. Já a aproximação por
MC, mesmo para esta função singular, apresentou um comportamento semelhante ao
obtido no item 5.3.1(a).

Figura 5.9 Gráfico de f ( x) (média da função f ( x, ξ ) em relação à ξ ), calculadas ana-


liticamente, por MC e por PCM para diferentes graus de aproximação.

Como para cada valor ξi da amostra, f ( x, ξi ) apresenta uma singularidade em


xi = ξi , (i = 1..n) , então a função f MC ( x) terá n pontos de singularidade (onde n é o ta-
manho da amostras). Isto resulta em singularidades do gráfico f MC ( x) , que são mais
perceptíveis ao se observar o gráfico do erro, mostrado na Figura 5.10. A Figura 5.10
mostra o erro da aproximação por PCM com 8 pontos de colocação e o erro de f MC ( x)

106
calculado por MC com 30 pontos. Para este caso o PCM apresentou erros maiores que
os obtidos usando MC.

Figura 5.10 Gráfico do erro no cálculo de f ( x) (média da função f ( x, ξ ) em relação à


ξ ), calculadas por MC e por PCM.

Para melhor ilustrar as dificuldades enfrentadas pelo PCM, considere um caso par-
ticular da função do exemplo anterior, onde x=0: f (0, ξ ) = f (ξ ) = ξ − ξ onde
ξ ∼ N (1, 0 ) . Utilizando o PCM, aproximou-se a função f (ξ ) através da aproximação
apresentada na Equação (5.29) e verificou-se o seu comportamento com a variação no
grau dos polinômios utilizado.
A aproximação completa apresentada na Equação (5.29), uma vez determinado os
ξ tal que hn (ξ * ) = 0 , não necessita ser calculada, pois para qualquer valor de c a inte-
*

gral desejada (Equação (5.30) não tem seu valor alterado. Pode-se então definir qual-
quer valor aos coeficientes c. Neste estudo em particular foi analisada a forma de
fˆ (ξ ) para ci=0 e apenas os coeficientes b, foram encontrados.
Para diferentes graus aproximação, ou seja, para diferentes números de pontos de
colocação n, as várias aproximações obtidas estão apresentadas na Figura 5.11(a). Na
Figura 5.11(b) ilustra-se o gráfico de fˆ (ξ ) P (ξ ) , usada para a obtenção da média (E-
quação (5.7)), para os diferentes graus de aproximação. Em ambas as figuras a função
analítica (exata) é também apresentada.
Observa-se a oscilação da aproximação polinomial do PCM com o aumento do nú-
mero de pontos, mostrando a dificuldade na convergência do método para casos onde a
função a ser aproximada não é continuamente diferenciavel.

107
ξ
a)

ξ
b)
Figura 5.11 PCM para diferentes graus de aproximação, aplicadas para a: a) função
f (ξ ) e b) função f (ξ ) P(ξ ) .

A Figura 5.12 ilustra o erro no cálculo da média via PCM para vários graus de a-
proximação, onde observa-se a convergência não monotônica do PCM para este caso.
Onde o valor da média f (ξ ) , foi calculada analiticamente a partir da função f (ξ ) e da
PDF P (ξ ) e vale 0,79788456 (Equação (5.7)).

108
Figura 5.12 Variação do erro no cálculo da média via PCM com o número de pontos.

Como já mencionado, uma alternativa seria utilizar o “multi-element probabilistic


collocation method” (ME-PCM) (FOO, WAN e KARNIADAKIS, 2008). Este método é
uma generalização do PCM onde a aproximação é feita por subdomínios (elementos), a
partir da discretização do domínio das variáveis aleatórias.

5.4 OTIMIZAÇÃO ROBUSTA

Nos capítulos 3 e 4 foram apresentadas a formulação geral de um problemas de o-


timização uni e multiobjetivo, respectivamente. As soluções deste problema podem ser
muito sensíveis à variação de parâmetros incertos, introduzidos no modelo como deter-
minísticos. Sob estas circunstâncias os valores da(s) função(ões) objetivo e das restri-
ções podem possuir uma grande probabilidade de sofrer variações inesperadas prejudi-
ciais ao projeto. A Otimização Robusta leva em consideração as variáveis incertas (alea-
tórias) e suas probabilidades de ocorrência (PDF) de modo a encontrar um ótimo menos
vulnerável a variabilidade dos parâmetros incertos.

5.4.1 Medidas de Robustez

Considere um processo de otimização com incertezas, onde a função de interesse é


f (x, ξ ) , x ∈ n são as variáveis de projeto e ξ ∈ E as variáveis incertas, onde E é o
espaço amostral das variáveis. Um objetivo robusto e utópico seria encontrar um x* , de
tal forma que para todo ξ ∈ E

(5.48) f (x* , ξ ) ≤ f (x, ξ ) ∀x ∈ n


(5.48)

109
Achar tal x* que simultaneamente minimize f (x, ξ ) , para todos os ξ ∈ E , é o pro-
blema central da teoria da decisão estatística (KEANE e NAIR, 2005 Apud PRATT et
al, 1996; BARROS, 2009). Porém, esta condição não pode ser atingida na maioria dos
problemas, sendo necessário definir alguma medida de robustez que viabilize o proble-
ma, varias abordagens são usadas neste contexto. A primeira visa encontrar um x* que
minimiza o pior caso ( ξ ∈ E mais desfavorável para f (x, ξ ) ), ou seja,

F (x) = max ( f (x, ξ ) )


ξ∈E
(5.49) (5.49)
minn [ F (x) ]
x∈

Para problemas cujas variáveis aleatórias são continuas e ilimitadas e ainda não se
pode determinar o máximo da função avaliada em todos os ξ ∈ E , outras abordagens
podem ser consideradas. Visando diminuir o conservadorismo, pode-se considerar uma
região menor A(ξ, ε ) , ao invés de todo o domínio das variáveis aleatórias. Ou seja, a o-
timização é realizada sobre o pior caso dentro da região A(ξ, ε ) , neste caso

(5.50) F (x, ε ) = max


ξ∈ A ( ξ ,ε )
( f (x, ξ) ) (5.50)

onde ε é o parâmetro regularizador que define o tamanho da região, tal que:

(5.51) lim ( F (x, ε ) ) → f (x, ξ 0 ) (5.51)


ε →0

onde ξ 0 é um determinado valor central da região A(ξ, ε ) e o parâmetro ε regula o


conservadorismo da otimização. Esta abordagem é conhecida por regulação robusta
(“robust regularization approach”) (BEYER et al, 2007).
Outra abordagem semelhante é ver a função f como uma variável aleatória, onde em
muitos casos, sua distribuição e seus limites são desconhecidos. Imaginando a função f
como tendo, por exemplo, uma distribuição normal, pode-se admitir o pior caso com
uma probabilidade p ( w) ( F (x, w) ), como sendo o valor de f onde há uma probabilida-
de p ( w) de f apresentar um valor menor, assim

(5.52) F (x, w) = f (x) + wσ f (x) (5.52)

onde f e σ f são a média e o desvio padrão, respectivamente, da função de interesse


em relação a variável aleatória ξ ∈ E . O parâmetro w controla o conservadorismo da so-
lução, por exemplo, para w=1, 2 e 3, tem-se o pior caso com probabilidades 84.13%,
97.72% e 99.87% respectivamente. Já para w=0 ( p ( w) = 50% ) apenas a média seria o-

110
timizada, não sendo considerada esta, uma abordagem de pior caso, pois se teria o pior
caso com uma probabilidade de 50%. Quando w → ∞ tende-se a um pior caso com
uma probabilidade de 100% e apenas o desvio padrão passa a ser considerado, assim

(5.53) minn ⎡ lim F (x, w) ⎤ → minn ⎡⎣σ f (x) ⎤⎦ (5.53)


x∈ ⎣ w→∞ ⎦ x∈

Neste caso pode ser considerada a otimização do desvio padrão da função. Assim a so-
lução será o ponto onde há a menor variação da resposta de interesse, esta constitui a i-
déia central da otimização robusta.
A segunda abordagem, motivada pelo princípio de Bayes, tenta encontrar x* , tal
que

(5.54) f (x* , ξ ) ≤ f (x, ξ ) ∀x ∈ n


(5.54)

onde f é a média da função de interesse em relação a variável aleatória ξ ∈ E .


Nota-se que a primeira abordagem é mais conservativa, já que se trata da otimiza-
ção do pior caso. Por outro lado o principio de Bayes se preocupa com caso geral, já
que apenas o valor da média é minimizado (KEANE e NAIR, 2005).
Neste trabalho serão utilizados dois controles principais do objetivo: a média e o
desvio padrão de uma dada função. Esta consideração tem sido adotada em várias refe-
rências no contexto da otimização robusta (DOLTSINIS e KANG, 2004; BEYER et al,
2007; SCHUËLLER e JENSEN, 2008). Otimizando a média encontra-se um ótimo me-
nos conservador, pois pode existir uma probabilidade razoável do desempenho ser bem
pior (ou melhor) que o valor encontrado. Enquanto que quando um processo de otimi-
zação é realizado sobre o desvio padrão se está sendo conservativo, e encontra-se o pon-
to onde há a menor variação da função de interesse, sendo esta uma das principais me-
didas de robustez. Como já mencionado este tipo de consideração leva a um problema
de otimização multiobjetivo, para se encontrar soluções intermediárias de interesse (o-
timização multiobjetivo robusta - OMR).
O problema de OMR mencionado anteriormente pode ser formulado como:

Minimizar: ⎡⎣ E ( f (x) ) , σ ( f (x) ) ⎤⎦

gi ( x ) ≤ 0 i = 1,...m
hj ( x) = 0 j = 1,...
xk ≤ xk ≤ xku k = 1,...ndv

onde E(.) é a esperança, definida na Equação (5.7), σ (.) o desvio padrão definido na
Equação (5.8), f é a função de interesse e x o vetor das variáveis de projeto.

111
Para a solução deste problema, as técnicas de MO apresentadas no Capítulo 5 serão
utilizadas.

5.4.2 Exemplo: Placa quadrada com orifício central

O primeiro exemplo prático a ser considerado o problema apresentado na seção


2.5.1 e que se refere à análise do estado plano de tensões em uma placa quadrada com
um orifício central.
O Módulo de elasticidade da região 3 é uma variável aleatória com distribuição
lognormal de média 5x104 MPa e desvio padrão 104 MPa.
As dimensões do orifício são as variáveis do projeto selecionadas para a otimiza-
ção. Os valores iniciais das variáveis de projeto são μ1 = μ2 = 50mm, e os limites inferior
e superior impostos são 25mm e 75mm, respectivamente.
Tal como definido, dois objetivos estocásticos são considerados são eles: minimizar
a média e o desvio padrão da flexibilidade. Ao volume, é imposto ser inferior ou igual
ao seu valor inicial. Além desta restrição, a média da tensão mais três vezes seu desvio
padrão é restrito a magnitude de 7.0 N/mm². As soluções OMR serão obtidas conside-
rando 15 pontos de Pareto.
O problema de otimização pode ser formulado como:

Minimizar: ⎡⎣ E ( f ( μ , E 3 ) ) , σ ( f ( μ , E 3 ) ) ⎤⎦

sujeito à
E (τ eq ( i ) ( μ , E 3 ) ) + 3σ (τ eq (i ) ( μ , E 3 ) ) ≤ 7 MPa i = 1,...nel
V ( μ ) ≤ V0

25mm ≤ μk ≤ 75mm k = 1,...ndv

Onde f ( μ , E 3 ) é a flexibilidade, τ eq (i ) ( μ , E 3 ) é a tensão Von Misses no elemento i,


V ( μ ) o volume da estrutura, V0 o volume inicial, nel é o número de elementos e ndv o
número de variáveis de projeto.
O modelo de elementos finitos considerado possui 3900 graus de liberdade com e-
lementos de dimensão média de 2mm, na configuração de referência onde μ1 = μ2 =
50mm.
Para a aproximação via MBR, 3 regiões (indicadas na figura) são definidas. A base
reduzida será construída no espaço viável das variáveis de projeto, bem como das variá-
veis aleatórias, D ={ [1, 9]x104,[25, 75]²} e o número de amostras analisadas foi N = 16.

(a) Determinação das amostras

Para o cálculo das estatísticas do problema, serão usados os dois métodos já men-
cionados o MC e o PCM. Para definir o número de pontos (tamanho da amostras) utili-

112
zados por cada método, foi realizado um teste de convergência apresentado na Figura
5.13, Tabela 5.3 e Tabela 5.4.
Os resultados do MC apresentam uma variabilidade, devido à aleatoriedade das
amostras. Para quantificar esta flutuação nos resultados do MC todo o processo de cál-
culo das estatísticas da flexibilidade, foi repetido 100 vezes, para cada tamanho de a-
mostra. E a partir destes dados foi calculado o desvio padrão dos resultados (“D. P.”), o
que permite quantificar de modo aproximado a variação dos parâmetros calculados pelo
MC para cada tamanho de amostra.
A Figura 5.13 apresenta os resultados do MC para a média (Figura 5.13(a)) e o des-
vio padrão (Figura 5.13 (b)), da flexibilidade. O tamanho das amostras (“Número de
pontos”) criadas por LHS foram variadas exponencialmente de 127 à 16255. As linhas
pretas indicam o intervalo de flutuação dos resultados do MC, ou seja os resultados do
MC variaram entre a linha preta superior e a linha preta inferior com uma certa freqüên-
cia. Considerando que um parâmetro estatístico calculado via MC segue uma distribui-
ção normal, o intervalo entre as linhas pretas ( μ ± σ ) compreende aproximadamente
58% das ocorrências da aproximação. Vale salientar que este estudo só foi possível gra-
ças ao desempenho computacional conseguido através do MBR.
Também foram analisados, para cada tamanho da amostra (“Número de pontos”),
os resultados das estatísticas com uma amostra selecionada, indicado pela curva azul,
amostra esta, utilizada no processo de otimização com MC utilizando uma amostra de
5000 pontos.

a) Média de f b) Desvio padrão de f


Figura 5.13 Placa quadrada com um orifício central – Convergência do MC para o cál-
culo das estatísticas da flexibilidade: a) média e b) desvio padrão.

A Tabela 5.3 mostra os resultados do MC com amostra LHS selecionada, ilustrado


no gráfico da Figura 5.13 com a linha azul, para alguns tamanhos de amostras.

113
Tabela 5.3 Placa quadrada com um orifício central – Cálculo via MC
com amostra LHS selecionada, para a média e desvio padrão.
Tamanho
Média Desvio Padrão
da amostra
202 0.308530959713673 0.035326555620201
403 0.308550213518812 0.035410907482470
806 0.308556674596121 0.035455905892811
1613 0.308558482597648 0.035455246318295
3225 0.308559106575475 0.035453460837231
6451 0.308559457041847 0.035451940103915
12902 0.308559963766802 0.035455220139521

A Tabela 5.4 mostra os resultados da média e do desvio padrão calculados pelo


PCM, para diferentes números de pontos de colocação. Observa-se a convergência a-
centuada para poucos pontos, devido à suavidade da função flexibilidade em função do
módulo de elasticidade.

Tabela 5.4 Placa quadrada com um orifício central – Resultados do PCM


Tamanho
Média Desvio Padrão
da amostra
2 0.308541286854411 0.034854261923426
3 0.308559984101546 0.035445314900078
4 0.308560062653515 0.035455152887810
5 0.308560062770421 0.035455264870394
6 0.308560062772797 0.035455265822598
7 0.308560062777446 0.035455265989171
8 0.308560062777447 0.035455265989205

(b) Resultado da otimização

A Figura 5.14 apresenta as distribuições dos pontos Paretos obtidos para os méto-
dos aqui considerados para a otimização multiobjetiva, comparando os métodos de
Monte Carlo (MC) e o Método da Colocação Probabilística (PCM). Tendo em vista os
resultados obtidos na seção anterior, para o cálculo das estatísticas foram utilizados
5000 pontos para o MC e 5 pontos de colocação para o PCM. As curvas de Pareto via
MC e PC estão de acordo, mesmo com a grande diferença no número de pontos calcula-

114
dos. Como pode ser observado, soluções pelos métodos NBI e NNC são as que conse-
guem obter pontos uniformemente espaçados em todas as partes da fronteira de Pareto.

a)WS b)Min-Max

c)NBI d)NNC

Figura 5.14 Placa quadrada com um orifício central – Pontos de Pareto: a) WS, b) Min-
Max, c) NBI, d) NNC.

A Tabela 5.5 sumariza os desempenhos de cada método investigado em segundos.


Soluções via PC são três ordens de magnitude mais rápidos em comparação com os re-
sultados obtidos via MC.

Tabela 5.5 Placa quadrada com um orifício central – desempenhos dos algoritmos.
(segundos) WS Min-Max NBI NNC
MC 5000 pontos 38 623 26 486 19 480 18 633
PC 5 pontos 60 43 31 28

REFERÊNCIAS

115
APOSTOL T. M. “Calculus, Volume 1, One-Variable Calculus with an Introduction to
Linear Algebra”. 2nd Edition, John Wiley & Sons, 1967.

PAPOULIS, A. “Probability, Random Variables, and Stochastic Processes”. McGraw–


Hill Kogakusha. 1965.

MEYER, P. L. Probabilidade: aplicações à estatística, 2a edição, Rio de Janeiro, LTC.


1983.

MARCZYK, J. “Stochastic multidisciplinary improvement: beyond optimization,


American Institute of Aeronautics and Astronautics”, AIAA-2000-4929, 2000.

BEYER, H. G.; SENDHOFF, B., “Robust optimization – A comprehensive survey”.


Computational Methods and Applications in Mechanical Engineering. 196 (2007).

SCHUËLLER, G.I.; JENSEN, H.A. Computational methods in optimization consider-


ing uncertainties – An overview. Computational Methods and Applications in Mechani-
cal Engineering, 2008.

MATSUMOTO, M.; NISHIMURA, T. “Mersenne Twister: A 623-Dimensionally


Equidistributed Uniform Pseudorandom Number Generator”. ACM Transactions on
Modeling and Computer Simulation, (1998), 8(1):3-30.

ANDRADÓTTIR, S. “A review of simulation optimization techniques”. in: D. Medei-


ros, E. Watson, J. Carson, M. Manivannan (Eds.), Proceedings of the 30th Conference
on Winter simulation, IEEE, Piscataway, NJ, pp. 151– 158, 1998.

DOLTSINIS, I.; KANG, Z. Robust design of structures using optimization methods.


Computational Methods and Applications in Mechanical Engineering, 194. 2004

KEANE, A. J.; NAIR P. B. Computational Approaches for Aerospace Design: The Pur-
suit of Excellence. John-Wiley and Sons. 602 p., August 2005.

NIST/SEMATECH, e-Handbook of Statistical Methods. Disponível em:


http://www.itl.nist.gov/div898/handbook, acessado em: set. 2009.

BARÓN, J.H.; MAC NÚÑEZ LEOD, J.E. “SCALABILITY ON LHS SAMPLES FOR
USE IN UNCERTAINTY ANALYSIS OF LARGE NUMERICAL MODELS”. Inter-
national Conference on Safety and Reliability – ESREL ´99, Munich, Alemanha, 1999.

116
GAUTSCHI, W. “Orthogonal polynomials (in Matlab)”. Journal of Computational and
Applied Mathematics, Vol. 178, 2005, pp. 215-234, 2005.

MATHWORKS. “MATLAB User’s Guide”. Mathworks Inc., Natacki, 2007.

STOER, J.; BULIRSCH, R. “Introduction to Numerical Analysis - Second Edition”.


Springer-Verlag, Heidelberg, Berlin. p. 150-166, 1991.

WEBSTER, M.; TATANG, M. A.; MCRAE, G. J. “Application of the Probabilistic


Collocation Method for an Uncertainty Analysis of a Simple Ocean Model”. MIT Joint
Program on the Science and Policy of Global Change, 1996.

HEISS, F.; WINSCHEL, V., “Likelihood approximation by numerical integration on


sparse grids”, Jornal of Econometrics, 144, p. 62-80. 2008.

GREENWOOD, R. E.; MILLER, J. J. “Zeros of the Hermite Polynomials and Weights


for Gauss' Mechanical Quadrature Formula”. THE UNIVERSITY OF TEXAS. Bull.
Amer. Math. Soc. 54, MathSciNet, 1948.

LAGAROS, N., PLEVRIS, V., PAPADRAKAKIS, M. “Multi-objective design optimi-


zation using cascade evolutionary computation”, Comput. Methods Appl. Mech. Engrg.
194 (2005) 3496–3515.

FOO, J., WAN, X., KARNIADAKIS, G. E. “The multi-element probabilistic colloca-


tion method (ME-PCM): Error analysis and applications”. Journal of Computational
Physics 227. 2008.

BARROS, M., 2009. “Teoria da Decisao: NEYMAN-PEARSON e BAYES”, disponível


em, http://www.mbarros.com/sitebuildercontent/sitebuilderfiles/Teoria_Decisao.pdf.
Acesso em: 09 de set. de 2009.

STEIN, M. “Large Sample Properties of Simulations Using Latin. Hypercube Sam-


pling”. Technometrics, vol 29, no.2, May 1987.

WAN, X.; KARNIADAKIS, G. E. “Multi-Element generalized Polynomial Chaos for


arbitrary probability measures”, SIAM J. Sci. Comput. 28 (3) (2006) 901–928.

RAMAMURTHY, D. “Smart simulation techniques for the evaluation of parametric un-


certainties in black box systems”. Thesis (M.S. in computer science). Washington State
University. 2005.

117
CAPÍTULO 6
CONCLUSÃO E TRABALHOS FUTUROS

6 CONCLUSÃO E TRABALHOS FUTUROS

6.1 PRINCIPAIS DESENVOLVIMENTOS

Nesta dissertação procedimentos para a solução das diversas configurações de oti-


mização apresentadas, foram desenvolvidos, implementados e verificados. Foram con-
siderados incertezas e/ou múltiplos objetivos, permitindo a utilização de dois métodos
para a avaliação dos parâmetro estatísticos e diversos esquemas para a obtenção da fren-
te de Pareto, bem como diferentes formas para avaliação das funções relacionadas com
a análise estrutural e/ou térmica e análise de sensibilidade. Todas as opções desenvol-
vidas foram incorporadas para análise de estruturas, considerando modelos elásticos
lineares e térmicos, bidimensionais.
Na etapa de análise, foi incluído a opção do uso do elemento quadrilateral bilinear
(Q4) para o cálculo via MEF (o elemento triangular linear (CST) já havia sido imple-
mentado) e um gerador de malhas estruturadas uniformes. Além da implementação do
MBR para o elemento quadrilateral, todo o procedimento de atualização para as diver-
sas formas de mapeamento consideradas foi automatizado.
Foram implementados os métodos para a obtenção de pontos de Pareto para pro-
blemas OM para a solução de problemas 2D contínuos. Os esquemas considerados fo-
ram: WS, Min-Max, NBI e o NNC. Também foi proposto uma modificação da estraté-
gia NBI para problemas com mais de duas funções objetivo.
Foram introduzidas as incertezas no problema de otimização, através dos métodos
MC e o PCM, implementados e investigados para o cálculo das estatísticas de interesse,
e assim obter resultados ótimos robustos sob múltiplos critérios. E por fim, foram apre-
sentados os exemplos utilizando este conceito, para problemas de otimização estrutural
multiobjetivo robusto.
Os aspectos desenvolvidos que destacamos são:
• Foram adaptadas e implementadas rotinas para análise estrutural e/ou térmica e
análise de sensibilidade via Método dos Elementos Finitos, para a consideração
do elemento Q4, além do CST já implementado;
• Foram automatizados, desenvolvidos e implementados os procedimentos para
análise estrutural e/ou térmica e o cálculo das sensibilidades utilizando o Método
da Base Reduzida;
• Foi realizado um estudo comparativo dos métodos através de exemplos envol-
vendo análise estrutural e/ou térmica.

118
• Foram implementados os métodos: WS, Min-Max, NBI e NNC, além de uma
modificação no NBI para problemas com mais de duas funções objetivo, a fim
de obter os pontos de Pareto para problemas de otimização multiobjetivo, e seus
resultados mostraram concordância com os da literatura;
• Foram acoplados aos algoritmos de otimização multiobjetivo, as rotinas de oti-
mização estrutural através de ambos os modelos (real e aproximado);
• Uma rotina para o cálculo dos parâmetros estatísticos da resposta de interesse,
além de seus gradientes, através do método de MC, foi implementada, com dife-
rentes técnicas de amostragem (totalmente aleatória e LHS);
• Foi implementado um procedimento para o desenvolvimento e aplicação do
PCM para variáveis aleatórias de distribuições de probabilidade específica;
• Foram feitos estudos em funções analíticas, com o objetivo de avaliar o com-
portamento do método MC e PCM para algumas situações específicas.
• O MBR foi adaptado para considerar as variáveis aleatórias no espaço da base
reduzida;
• Além do MC, o PCM foi incorporado na rotina para o cálculo dos parâmetros es-
tatísticos e seus gradientes, para o processo de otimização estrutural através de
ambos os modelos (real e aproximado);
• Soluções robustas e/ou multiobjetivo foram obtidas para problemas contínuos
2D. Diferentes esquemas para a obtenção dos parâmetros estatísticos de interes-
se, bem como, para a obtenção da frente de Pareto, foram incorporados em um
algoritmo de SSO, de modo eficiente.

6.2 CONCLUSÕES DOS RESULTADOS OBTIDOS

As principais conclusões extraídas, através dos resultados dos exemplos analisados,


foram:
• Os resultados da análise comparativa entre os elementos Q4 e o CST não indi-
cam claramente o mais eficaz. Os testes de convergência indicam que a imple-
mentação do elemento quadrilateral foi adequada.
• Do estudo comparativo realizado, entre o procedimento de análise via MBR e
via MEF, foi mostrada uma convergência do MBR para poucos pontos amostra-
dos, em relação ao número de variáveis de projeto. Devido à própria metodolo-
gia do MBR, o método não é indicado para problemas onde o número de variá-
veis de projeto se aproxima do número de graus de liberdade do modelo à ser a-
proximado.
• As técnicas NBI and NNC demonstraram ser as mais eficientes para problemas
com duas funções objetivo.
• Foram confrontados os resultados de problemas com mais de duas funções obje-
tivo, obtidos através das quatro técnicas, bem como pela modificação proposta
do NBI, que mostrou ser eficaz para os exemplos estudados.
119
• A importância de se incorporar técnicas de aproximação no procedimento de
OM e OMR foi destacada.
• Os resultados foram comparados com aqueles obtidos quando do uso de solu-
ções que se baseiam integralmente no MEF. Conforme esperado, as soluções via
o MBR foram acompanhadas por uma grande redução de tempo computacional,
sem comprometimento substancial dos resultados das análises dos modelos.
• Duas metodologias para o cálculo das estatísticas de várias respostas foram em-
pregadas de modo satisfatório: o método de Monte Carlo (MC) e o método da
colocação probabilística (PCM). Para a maioria dos casos, o número de ponto de
integração necessários para uma aproximação com erros de mesma magnitude,
foi mais de três ordens de grandeza menor via PCM, quando comparado ao MC.
No entanto o PCM pode requerer um número elevado de pontos de colocação,
em casos em que a função de interesse apresentar muitas variáveis aleatórias.
Além disso, foi observado que o PCM pode não obter soluções satisfatórias em
casos de funções com pontos de singularidades ou comportamento multimodal.
• Os resultados obtidos mostram a grande vantagem em usar o PCM para os pro-
blemas de otimização na engenharia aqui considerados, i.e. para funções suaves
e com poucas variáveis aleatórias.
• A combinação das várias técnicas de aproximação descritas, além de métodos e-
ficientes para lidar com problemas multiobjetivo, permitiram a obtenção das so-
luções OMR em pouco tempo computacional. Em alguns casos a eficiência al-
cançada pelo uso do modelo aproximado foi de um tempo computacional 100
vezes menor que sem o seu uso.

6.3 TRABALHOS FUTUROS

Baseado nos estudos/implementações aqui conduzidos e resultados obtidos, apre-


senta-se as seguintes sugestões de continuidade do presente trabalho:

• Abordar outros tipos de problemas, como problemas dinâmicos transiente e/ou


interação fluido-estrutura e/ou escoamentos em meios porosos, etc.

• Incorporar processos de adaptação de malhas, para, não apenas garantir a acurá-


cia da solução e diminuir o tempo da análise via MEF, como o tempo do estágio
“off-line” no MBR e o tempo do procedimento “on-line” para variáveis de proje-
to não mapeáveis. Lembrando que o procedimento “on-line” do MBR independe
da malha de EF considerada.

• Adicionar a opção de elementos de maior ordem, lembrando que o procedimento


“on-line” do MBR também independe tipo de elemento considerado.

• Adaptar o MBR para análises que considerem as não linearidades físicas e geo-
métricas do problema.

• Adaptar o MBR para otimização de forma.


120
• Implementar o NNC com a expansão do Plano Utópico, para encontrar frentes
de Pareto com mais de dois objetivos.

• Investigar problemas com mais de 3 objetivos.

• Aplicar o PCM para variáveis aleatórias com pdfs diferentes.

• Implementar o ME-PCM (“Multi-Element Probabilistic Collocation Method”),


objetivando tratar os casos de funções multimodal ou com singularidades.

• Implementar a integração do PCM por grades esparsas (“sparse grids”) para di-
minuir o número de pontos de integração em problemas com muitas variáveis
aleatórias.

• Explorar novos problemas de OMR. Considerando outras estruturas, funções ob-


jetivo, restrições, etc.

• Considerar restrições probabilísticas pela probabilidade de falha, através de aná-


lise de confiabilidade estrutural.

• Utilizar paradigmas da computação paralela, que pode ser eficientemente incor-


porada em várias etapas do processo, como: para conduzir o estágio “off-line”
do MBR, para a geração dos pontos de Pareto e para o cálculo das grandezas es-
tatísticas.

• Automatizar, por meio de análise de erro, o cálculo do tamanho das amostras pa-
ra a base do MBR, bem como o número de pontos de integração para o cálculo
das estatísticas via MC e PCM.

• Investigar procedimento para determinar o número adequado de pontos de Pare-


to, necessários para a definição da fronteira de Pareto.

121

Você também pode gostar