Escolar Documentos
Profissional Documentos
Cultura Documentos
Aprovada por:
_____________________________________________
Prof. Silvana Maria Bastos Afonso da Silva, Ph.D. Orientador - UFPE
_____________________________________________
Prof. Paulo Roberto Maciel Lyra, Ph.D. Co-orientador - UFPE
_____________________________________________
Prof. Bernardo Horowitz, Ph.D. Examinador Interno - UFPE
_____________________________________________
Prof. Ramiro Brito Willmersdorf, Ph.D. Examinador Externo - UFPE
_____________________________________________
Prof. Luis Eloy Vaz, Dr.-Ing. Examinador Externo - UFRJ
UFPE
iv
OTIMIZAÇÃO ROBUSTA DE ESTRUTURAS
UTILIZANDO O MÉTODO DA BASE REDUZIDA
Resumo
Com o rápido aumento da capacidade computacional, o tema otimização avan-
çou de maneira notável nos últimos anos. Atualmente inúmeras aplicações de proje-
tos ótimos em diferentes especialidades, como mecânica estrutural, custos de produ-
ção, escoamento de fluidos, acústica, etc. têm sido descritas na literatura. Entretanto,
na maioria das aplicações da engenharia, a abordagem tradicional é considerar mo-
delos e parâmetros determinísticos. Infelizmente a abordagem determinística pode
levar a soluções cujo desempenho pode cair significativamente devido às perturba-
ções decorrentes das incertezas. Nestas circunstâncias, um objetivo melhor seria um
projeto ótimo que tenha um alto grau de robustez. O processo de encontrar este óti-
mo é chamado Otimização Robusta (OR).
Aqui, abordaremos duas técnicas para a análise de propagação de incerteza, não in-
trusivas, que utiliza modelos computacionais determinísticos: o método de Monte Carlo
(MC) e o método da Colocação Probabilística (“Probabilistic Collocation Method”)
(PCM). A análise de propagação de incerteza essencialmente envolve o cálculo de mo-
mentos estatísticos da função de interesse. Várias medidas de robustez têm sido propos-
tas na literatura, em particular, o valor médio e o desvio padrão da função envolvida no
problema de otimização serão considerados aqui. Quando estas medidas de robustez são
usadas combinadas, a procura de projetos ótimos robustos surge como um problema de
Otimização Multiobjetivo Robusta (OMR).
Técnicas de Otimização Multiobjetiva permitem o projetista modelar um problema
específico considerando um comportamento mais realista, o qual comumente envolve o
atendimento de vários objetivos simultaneamente. O procedimento adequado, quando
um problema multiobjetivo precisa ser resolvido, é determinar a fronteira de Pareto. Nos
últimos 15 anos, distribuições eficientes de pontos de Pareto têm sido obtidas através de
novos algoritmos como o NBI (Normal-Boundary Intersection) e o NNC (Normalized
Normal-Constraint). Estas estratégias são implementadas aqui, junto com outras abor-
dagens comumente utilizadas na literatura, como o método da soma ponderada e o mé-
todo Min-Max.
Como a geração de pontos de Pareto e a análise de incerteza podem ser muito cus-
tosas, técnicas de aproximação, baseada no uso do Método da Base Reduzida (MBR),
são incorporadas ao nosso procedimento. O propósito do método é obter um modelo de
alta fidelidade com custo computacional aceitável. Além disto, uma estratégia de sepa-
rabilidade com uma decomposição afim, permite o desenvolvimento de uma estratégia
eficiente de cálculo “off-line/on-line”, para a implementação computacional do MBR.
Problemas contínuos em duas dimensões submetidos a carregamentos estáticos e
térmicos são as aplicações consideradas neste trabalho, os desempenhos das diferentes
estratégias examinadas são comparadas. A combinação das várias técnicas de aproxi-
mação descritas permitiu a obtenção das soluções OMR em pouco tempo computacio-
nal.
Abstract
The topic of optimization has advanced in a remarkable manner in recent years,
with the rapid growth of computational power. Nowadays a number of applications on
design optimization from different disciplines such as structural mechanics, acoustics,
etc. have been already reported in literature. However, in most engineering applications,
the traditional approach is to consider deterministic models and parameters.
Unfortunately, the deterministic approach generally leads to a final design whose
performance may degrade significantly because of perturbations arising from
uncertainties. In this scenario a better target that provides an optimal design is one that
gives a high degree of robustness. The process to find such optimal is referred to as
robust optimization (RO).
Here, we discuss two nonintrusive uncertainty propagation analysis techniques that
exploit deterministic computer models: Monte Carlo (MC) method and Probabilistic
Collocation Method (PCM). The uncertainty propagation analysis essentially involves
computing the statistical moments of the output.
Several robustness measures have been proposed in the literature, in particular, the
expected value and standard deviation of the function involved in the optimization
problem are considered here. When using these robustness measures combined the
search of optimal robust design appears as a robust multiobjetive optimization (RMO)
problem.
Multiobjective optimization techniques allow a designer to model a specific
problem considering a more realistic behavior, which commonly involves the
satisfaction of several targets simultaneously. The computation of the Pareto front
solutions is the adequate procedure when a multiobjective problem has to be solved. In
the last 15 years efficient Pareto point distribution has been obtained through the use of
new algorithms such as NBI (Normal-Boundary Intersection), and NNC (Normalized
Normal-Constraint). These two strategies are implemented in this work together with
other commonly considered approaches in literature such as weighted sum method and
min-max method.
As the generation of Pareto points and the uncertainty analysis could be very costly,
approximation techniques based on the use of Reduced Basis Method (RBM) are also
incorporated in our procedure. The purpose of such scheme is to get high fidelity model
information with acceptable computational expense. Moreover, a parameter separability
strategy together with the affine decomposition allows the development of an efficient
off-line/on-line calculation strategy for the computational implementation of the RBM.
Two dimensional continua problems under static loads are the applications ad-
dressed in this work and the performance of the different strategies discussed are com-
pared. The combination of all the approximate methodologies described in this work
allows the computations of RMO solutions, with very low computational time.
1. INTRODUÇÃO 1
1.1. MOTIVAÇÃO E CONSIDERAÇÕES INICIAIS 1
1.2. OBJETIVOS 3
1.3. ORGANIZAÇÃO DA DISSERTAÇÃO 5
1.4. REFERÊNCIAS 5
2. PROBLEMAS BIDIMENSIONAIS 8
2.1. FORMULAÇÃO DE PROBLEMAS TÉRMICOS 8
2.1.1. Método dos Elementos Finitos aplicado à problemas térmicos 9
2.2. FORMULAÇÕES DOS PROBLEMAS ELÁSTICOS 11
2.2.1. Método dos Elementos Finitos aplicado à elasticidade bidimensional 13
2.2.2. Acoplamento termo-elástico 14
2.3. MAPEAMENTO DAS EQUAÇÕES DO MEF 15
2.3.1. Mapeamento da equação térmica 16
2.3.2. Mapeamento da equação elástica 18
2.4. MÉTODO DA BASE REDUZIDA 20
2.4.1. Procedimento Computacional Off-Line/On-Line 23
2.5. EXEMPLOS 24
2.5.1. Placa quadrada com orifício central 24
2.5.2. Exemplo termo-elástico acoplado 28
2.6. REFERÊNCIAS 32
4. OTIMIZAÇÃO MULTIOBJETIVO 52
4.1. DEFINIÇÃO DO PROBLEMA 52
4.2. CONCEITO DE ÓTIMO DE PARETO 53
4.3. MÉTODOS PARA GERAÇÃO DE PONTOS DE PARETO 54
4.3.1. Método da Soma Ponderada dos Objetivos 54
4.3.2. Método Min-Max 56
4.3.3. Método da Interseção Contorno-Normal (NBI) 56
4.3.4. Método da Restrição Normal Normalizada (NNC) 59
4.3.5. Diferenças entre o NBI e o NNC 61
4.4. EXEMPLOS 62
4.4.1. Treliça de 3 barras 62
4.4.2. Placa quadrada com um orifício central 63
4.4.3. Placa engastada - problema aclopado 66
4.5. PROBLEMAS COM MAIS DE DUAS FUNÇÕES OBJETIVO 68
4.5.1. Exemplo geométrico com 3 funções objetivo 72
4.5.2. Exemplo analítico com 3 funções objetivo 73
4.5.3. Placa sob ação termo-estrutural acoplada com 3 funções objetivo 75
4.6. REFERÊNCIAS 77
ABREVIATURAS E SIGLAS
Capítulo 2
MEF Método dos Elementos Finitos.
EF Elementos Finitos.
Q4 Elemento retangular isoparamétrico linear de quatro nós.
T3 Elemento triangular linear de três nós (vide CST).
CST “Constant Strain Triangle” – Elemento triangular de deformação constan-
te.
MBR Método da Base Reduzida.
NGL Número de Graus de Liberdade
Le Tamanho médio dos elementos
Capítulo 3
SSO “Structural Shape Optimization” - Otimização estrutural de forma.
SQP “Sequential Quadratic Programming” - Programação sequencial quadráti-
ca.
KKT Karush-Kuhn-Tucker – Relativo às condições de ótimo.
BFGS Broyden-Fletcher-Goldfarb-Shann - Métodos para aproximação da matriz
Hessiana
MDF Método das Diferenças Finitas
Capítulo 4
OM Otimização Multiobjetivo
POM Problema de Otimização Multiobjetivo
WS “Weight Sum” – Método da soma ponderada
NBI “Normal-Boundary Intersection” - Interseção Contorno-Normal
NBIm NBI modificado (vide NBI)
ECMI Envoltória Convexa de Mínimos Individuais
NNC “Normalized Normal Constraint” - Método da Restrição Normal Normali-
zada
NC “Normal Constraint” - Restrição Normal
x
NU Normal à linha utópica
Capítulo 5
OMR Otimização Multiobjetivo Robusta
OR Otimização Robusta
PDF “Probability Density Function” - Função densidade de probabilidade
CDF “Cumulative Distribution Function” - Função de distribuição acumulada
MC Método de Monte Carlo
DoE “Design of experiments” – Plano de amostragem
LHS “Latin Hipercube Sampling” - Método para gerar amostras aleatórias
MT “Mersenne Twister” - método para a geração de amostras pseudo-aleatória
PCM “Probabilistic Collocation Method” - Método da colocação probabilística
ME-PCM “Multi-Element Probabilistic Collocation Method”
LISTA DE SÍMBOLOS
ROMANOS
Escalares
c1 Constante de Lamé
c2 Constante de Lamé
Dijkl Componente do tensor de elasticidade
E Módulo de elasticidade do material
Fobj(x) Função objetiva
gi(x) Restrição de desigualdade
hi(x) Restrição de igualdade
kij Termos do tensor de condutividade térmica
N Tamanho da Base
Ni Função de forma do nó i
f (μ ) Flexibilidade
f N (μ) Flexibilidade aproximada
L(x,α,β,λ) Função Lagrangeana
ti Largura da região
Ti Temperatura no nó i
xri Coordenada de um nó i na sub-região r
x kl Limite inferior da variável de projeto
xi
x ku Limite superior da variável de projeto
Vetores
b Forças de volume agindo sobre o domínio V*
Forças de volume agindo sobre o domínio computacional para uma sub-
br(μ)
região r
de Vetor de deslocamentos nodais de um elemento
ε Vetor de deformação
fn Forças normais aplicadas no contorno Γ*
ft Forças tangenciais e tangentes aplicadas no contorno Γ*
r
f (μ)
n Forças normais aplicadas no contorno Γ para uma sub-região r
f tr (μ) Forças tangenciais aplicadas no contorno Γ para uma sub-região r
r
FTE Carregamento devido à deformação térmica
F Vetor de forças, Vetor das funções objetivo
F* Vetor do mínimo individual das funções objetivo
F N (μ) Vetor de carregamentos transformado
*r
F Vetor de carregamentos do domínio real de uma sub-região r
F jr Vetor de carregamento independente de μ para uma sub-região r
F̂ Vetor de Pseudo-força
q Fluxo de calor no contorno
qv Calor interno gerado sobre o domínio V*,
S Vetor da direção de busca
TN Vetor de temperaturas aproximado
u Vetor de deslocamento
u N (μ ) Deslocamento aproximado
T0 Temperatura inicial
Matrizes
Matriz que relaciona as componentes da derivada de deslocamento com
B *e deslocamentos
C(μ) Operador simétrico usado para relaxação
D Matriz de elasticidade
D* Pseudo-matriz de elasticidade no domínio real
G Matriz de transformação
Gr Matriz de transformação de uma sub-região r
H Hessiana da função Lagrangeana
I Matriz identidade
Ks Matriz de rigidez
K *s Matriz de rigidez no domínio real
xii
K *s N Matriz de rigidez no domínio real no espaço reduzido
*r
K s Matriz de rigidez do domínio real de uma sub-região r
K rs j Matriz de rigidez independente de μ para uma sub-região r
KT Matriz de “rigidez térmica” ou condutividade térmica generalizada
K *T Matriz de “rigidez térmica” transformada
*N
K T Matriz de “rigidez térmica” transformada no espaço reduzido
K rk j Matriz de condutividade independente de μ
K Γr c Matriz de convecção no contorno de referência
Nr
K Γc Matriz de convecção no contorno de referência no espaço reduzido
K Ωr c Matriz de convecção no domínio de referência
K ΩNrc Matriz de convecção no domínio de referência no espaço reduzido
Kk Matriz de condutividade térmica
N Matriz de função de forma
SN Conjunto de amostras para campo de solução
WN Espaço da Base Reduzida
Z Matriz compostas por soluções base do espaço reduzido
GREGOS
Escalares
α Passo da busca linear
αΩ Coeficiente de convecção no domínio
αΩ Coeficiente de convecção no contorno
βi Componentes do vetor com os pesos para os problemas multiobjetivo
xiii
Ω Domínio
Ω* Domínio real (transformado)
σ ij Tensão
ν Coeficiente de Poisson
γ Coeficiente de expansão térmica
Vetores
α(μ) Coeficiente linear da aproximação no espaço reduzido
*
ε 0 Deformações iniciais (térmicas)
Vetor dos Multiplicadores de Lagrange das funções restrições para um x
ϕ, λ
qualquer
Vetor dos Multiplicadores de Lagrange das funções restrições para x*
ϕ *, λ*
ótimo
μ Vetor de parâmetros variáveis
ζi Conjunto de soluções do espaço
∇N i Derivadas da função de forma para um nó i
Matrizes
Φ Matriz auxiliar na definição dos pontos que compõem a ECMI
σ *
Tensor de tensões
xiv
CAPÍTULO 1
INTRODUÇÃO
1 INTRODUÇÃO
Técnicas de otimização têm sido extensivamente usadas para obter projetos viáveis
e econômicos nos mais variados campos das Engenharias. Atualmente as abordagens
têm se tornado cada vez mais realistas, tendo sido comumente empregadas na solução
de problemas não triviais da engenharia prática, incluindo o projeto de estruturas ótimas
através de simulação computacional. No entanto, dois pontos apenas recentemente têm
sido abordados de forma mais incisiva.
A primeira questão diz respeito a atender simultaneamente várias metas (funções
objetivo) em geral conflitantes, além das várias restrições a serem satisfeitas, quase
sempre envolvidas no desenvolvimento de projetos ótimos de problemas reais. Otimiza-
dores de propósito geral não resolvem tais problemas. Uma classe de estratégias basea-
das no denominado conceito de Pareto (ARORA et al., 2007), constitui a abordagem
adequada quando problemas de otimização multiobjetivo (OM) devem ser resolvidos.
Nos últimos 15 anos distribuições eficientes de pontos de Pareto têm sido obtidas
graças ao desenvolvimento de algoritmos eficientes tais como o NBI (“Normal-
Boundary Intersection”) (DAS e DENNIS, 1996) e o NNC (“Normalized Normal Cons-
traint”) (MESSAC et al, 2003). Essas estratégias juntamente com outras abordagens de
mais fácil implementação (Método da soma ponderada e Método min-max) (ARORA et
al., 2007) são aqui implementados e analisadas.
Outra questão importante, são as incertezas embutidas de várias formas no proble-
ma de otimização. Na maioria das aplicações na engenharia, a abordagem tradicional é
considerar modelos determinísticos. Porém, algum grau de incerteza ou variação nas
características de qualquer sistema estrutural é inevitável. Infelizmente, a abordagem
determinística pode levar a soluções cujo desempenho pode cair significativamente de-
vido às perturbações decorrentes de incertezas.
A Otimização Robusta (OR) leva em consideração as variáveis incertas (aleatórias)
e suas probabilidades de ocorrência, de modo a encontrar um ótimo menos vulnerável a
variação dos parâmetros incertos.
Nesta dissertação, serão examinadas algumas abordagens para a consideração das
incertezas no processo de otimização e assim obter projetos robustos. As medidas de
robustez utilizadas aqui foram: a esperança e a variância da função de interesse. Quando
usa-se estas medidas, a busca por um projeto robusto ótimo, surge com um problema de
decisão com múltiplos critérios (otimização multi-objetivo robusta - OMR).
1
Neste trabalho, uma ferramenta para obter projetos ótimos robustos, sobre vários
critérios, é descrita, implementada e aplicada no âmbito estrutural. Para o cálculo dos
parâmetros estatísticos serão empregadas duas técnicas não intrusivas de análise de pro-
pagação de incerteza, o método de Monte Carlo (MC) e o método da colocação probabi-
lística (“Probabilistic Collocation Method” - PCM) (RAMAMURTHY, 2005).
O MC é um dos métodos mais tradicionais para este tipo de análise, porém é inviá-
vel para ser aplicado diretamente em modelos complexos de alta fidelidade, devido ao
grande número de análises necessárias. O PCM é uma ferramenta desenvolvida visando
uma análise de incerteza eficiente, mesmo em modelos complexos e computacional-
mente custosos. A idéia básica do PCM é aproximar a resposta do modelo em função
das variáveis aleatórias, por funções polinomiais, e estimar os parâmetros estatísticos
por integração numérica.
Foi ainda estudado o comportamento do MC para o cálculo das estatísticas de fun-
ções especificas, através do uso de diferentes técnicas de amostragem.
Os problemas de otimização estrutural aqui considerados, abordam modelos elásti-
cos lineares e/ou térmicos bidimensionais, além de treliças planas. Para sua solução, foi
utilizado um algoritmo padrão de otimização de forma (“Structural Shape Optimization”
- SSO) integrando aos procedimentos de otimização, a modelagem geométrica, a análise
estrutural (ou térmica) e a análise de sensibilidade, para o cálculo dos gradientes reque-
ridos pelo otimizador. Este algoritmo usa a programação sequencial quadrática (“Se-
quential Quadratic Programming” - SQP) (VANDERPLAATS, 2004) como otimizador
e na versão inicial do algoritmo SSO, cada análise estrutural (e/ou térmica) é calculada
através de simulação computacional utilizando o Método dos Elementos Finitos (MEF)
(COOK et al, 2003).
O algoritmo SSO será aproveitado e adaptado para os métodos de obtenção de pon-
tos de Pareto, e nele também serão introduzidos os procedimentos para os cálculos dos
parâmetros estatísticos das funções de interesse.
A depender da aplicação, o custo das análises dos modelos, bem como da análise de
sensibilidade via MEF, pode ser elevado. No entanto, as obtenções dos pontos de Pareto
para os problemas de OM e principalmente nos problemas de OMR estão associados a
um grande número de avaliações de funções e cálculos de gradientes, assim sendo o
tempo total de CPU no procedimento de otimização pode ser bastante elevado. Para
amenizar esta dificuldade, técnicas de aproximação baseadas no método das bases redu-
zidas (MBR) (AFONSO, 2003; ALBUQUERQUE, 2005; AFONSO et al., 2009) são
inseridas na metodologia, para as etapas de análise e de análise de sensibilidade requeri-
das pelo algoritmo, durante o processo de otimização, produzindo um grande ganho
computacional, sem grande perda de fidelidade do modelo.
O MBR aqui implementado, é uma projeção do tipo Galerkin em um espaço de
aproximação de baixa ordem, formado por soluções do modelo de alta fidelidade, para o
problema de interesse em pontos selecionados do espaço de projeto. O procedimento
combina dois aspectos, a saber: uma aproximação com precisão e uma melhoria na efi-
ciência computacional.
No MBR utiliza-se do mapeamento da geometria das regiões do modelo para apli-
car uma estratégia de separabilidade de parâmetros (variáveis aleatórias, variáveis de
projeto). Todos os cálculos são conduzidos em um domínio fixo denominado domínio
2
de referência. Transformações geométricas entre o domínio real e computacional são
conduzidas e inseridas nas equações governantes de cada problema específico. Isto,
junto com a decomposição dos termos da rigidez e de força permite o desenvolvimento
de um algoritmo para implementação computacional do método dividido em dois está-
gios denominados “off-line” e “on-line”. Os cálculos “off-line” são conduzidos somente
uma vez e usados subseqüentemente no estágio “on-line” para cada novo parâmetro
desejado. Com isso, para cada novo projeto, funções e gradientes são obtidos muito ra-
pidamente. A conseqüência de avaliações de funções (e seus gradientes) precisas e de
baixo custo computacional torna este procedimento bem atrativo para propósitos de
OMR.
Vários exemplos utilizando as várias estratégias serão investigados com o objetivo
de se verificar a efetividade e robustez dos procedimentos desenvolvidos.
Será demonstrado que a união de estratégias eficientes de OM e OMR e procedi-
mentos de aproximação constitui uma ferramenta efetiva e confiável para se obter os
pontos de Pareto nos problemas aqui estudados e por seguinte dá indícios de sucesso
para outros problemas mais complexos.
1.2 OBJETIVOS
3
• Implementar rotina para o cálculo dos parâmetros estatísticos da resposta de inte-
resse, além de seus gradientes, através do método de MC, com diferentes técnicas
de amostragem;
• Implementar o procedimento para o desenvolvimento e aplicação do PCM para va-
riáveis aleatórias considerando as distribuições de probabilidade;
• Incorporar o PCM, na rotina para o cálculo dos parâmetros estatísticos e seus gradi-
entes;
• Realizar um estudo comparativo entre o MC e o PCM;
• Adaptar o MBR para considerar as variáveis aleatórias no espaço da base reduzida;
• Considerar os parâmetros estatísticos no processo de otimização uni e multiobjeti-
vo, tanto utilizando apenas o MEF como via MBR;
• Obter resultados finais, considerando as diferentes metodologias para a otimização
multiobjetivo, para a análise, e para o cálculo dos parâmetros estatísticos.
4
Início
Definir:
• Geometria do problema Caso
Caso Estocástico: • Condições de contorno MBR:
• Variáveis de projeto
Definir variáveis Definir
• Funções objetivo e amostras
aleatórias e suas restrição
distribuições
Geração do
projeto inicial
Análise Estru-
tural/Térmica MEF Determinístico
ou ou
Análise de MBR Estocástico
Sensibilidade
Otimização
Escalar
ou Otimizador
SQP
Otimização
Multiobjetivo
(neste caso, Geração do
repetir o pro- novo projeto
cesso para cada
ponto de Pare-
to) Não
Convergiu?
Sim
Fim
5
1.3 ORGANIZAÇÃO DA DISSERTAÇÃO
1.4 REFERÊNCIAS
AFONSO, S.M.B, LYRA, P.R.M, ALBUQUERQUE, T.M. M., R. S., MOTTA. “Struc-
tural Analysis and Optimization in the Framework of Reduced-Basis Method”. Struc-
tural and Multidisciplinary Optimization, Springer Berlin / Heidelberg, DOI:
10.1007/s00158-008-0350-4, Published online, January 2009.
DAS, I. e DENNIS, J.E. “Normal Boundary Intersection: A New Method for Gene-
rating Pareto Surface in Nonlinear Multicriteria Optimization Problems”. SIAM J. Oti-
mization, Vol. 8, No. 3, pp. 631-657, 1996.
7
CAPÍTULO 2
PROBLEMAS BIDIMENSIONAIS
2 PROBLEMAS BIDIMENSIONAIS
nd
∂qi
(2.1) ∑ = Q − α Ω (T − T0 ) em Ω (2.1)
i =1 ∂xi
nd
∂T
(2.2) qi = ∑ −kij (2.2)
j =1 ∂x j
onde kij representa os termos do tensor da condutividade térmica. A Equação (2.1) pode
então ser expressa como
nd
∂ ⎛ nd ∂T ⎞
(2.3) −∑ ⎜⎜ ∑ kij ⎟⎟ + α Ω (T − T0 ) = Q em Ω (2.3)
i =1 ∂xi ⎝ j =1 ∂x j ⎠
T =T em ΓT
(2.4) (2.4)
q n = q n − α Γ (T − T0 ) em Γ q
8
onde ΓT representa a porção de contorno com temperaturas prescritas T (condição de
contorno de Dirichlet), Γ q representa a parcela do contorno sujeita a fluxo e/ou a con-
vecção (condição de contorno de Cauchy), q n é o fluxo na direção n ortogonal à Γ q ,
α Γ é o coeficiente de convecção no contorno e T0 é a temperatura ambiente.
As expressões foram escritas até então, utilizando notação indicial. Na forma matri-
cial, as equações governantes no domínio Ω (2.3) e no contorno Γ q (2.4) podem ser
expressas como
⎡kx 0⎤
(2.6) k = ⎢ (2.6)
⎣0 k y ⎥⎦
n
(2.7) T e (ξ ,η ) ∑ N (ξ ,η ) T
i =1
i
e
i
e
= N e Te (2.7)
⎧1, para j = i
(2.8) N i (ξ j ,η j ) = ⎨ i, j = 1...n (2.8)
⎩0, para j ≠ i
9
Definimos, então, os vetores N e e Te , onde N e = ⎡⎣ N1e ,… , N ie ,… , N ne ⎤⎦ é o vetor das
T
funções de forma do elemento “e”, Te = ⎡⎣T1e ,… , Ti e ,… , Tne ⎤⎦ é o vetor das temperaturas
nodais deste mesmo elemento e n é o número de nós do elemento.
Utilizando a aproximação dada em (2.7), as equações governantes (2.5) para o do-
mínio Ω e para o contorno Γ q , podem ser aproximadas como
(2.9)
( −∇ k∇N + α N ) T = α
T
Ω T + Q em Ω
Ω 0
(2.9)
( k∇Nn + α Γ N ) T = α ΓT0 + qn em Γ q
onde N é o vetor contendo as funções de formas relacionadas aos nós, e T é o vetor con-
tendo as temperaturas nodais dos nós.
Para a solução do sistema de equações diferenciais (2.9), será usado o Método dos
Resíduos Ponderados. A partir da parametrização da aproximação da solução do pro-
blema, este método consiste em encontrar os parâmetros referentes à aproximação con-
siderada (no nosso caso T), que anule a integral em todo o domínio, do resíduo das e-
quações ponderado por diferentes funções peso Wl , para l =1..nl, onde nl é o número de
funções de peso utilizadas. As equações do problema estacionário de condução de calor
devem satisfazer, então, a seguinte equação
⎡ ⎤
⎢ ∫ ( −∇T k∇N + α Ω N )Wl d Ω + ∫ ( k∇Nn + α Γ N ) Wl d Γ q ⎥ × T =
⎢ ⎥
(2.10) ⎣ Ω Γq ⎦ (2.10)
∫ (α
Ω
Ω T0 + Q ) Wl d Ω + ∫ (α Γ T0 + q n ) Wl d Γ q
Γq
para l =1..nl
Considerando uma discretização em elementos finitos do domínio em estudo, apli-
cando a aproximação de Galerkin do Método dos Resíduos Ponderados, onde as funções
de peso são as próprias funções de forma (utilizadas para a aproximação da solução), e
integrando por partes o termo com derivada de maior ordem, chega-se a forma fraca do
problema estacionário de condução de calor (ALMEIDA, 2001)
⎡ ⎤
⎢ ∫ ( ∇NT k∇N + α Ω NT N ) d Ω + ∫ α Γ NT Nd Γ q ⎥ × T =
⎢ ⎥
(2.11) ⎣ Ω Γq ⎦ (2.11)
∫ (α T0 + Q ) N d Ω + ∫ (α T0 + q n ) N d Γ q
T T
Ω Γ
Ω Γq
10
(2.12) K T T = FT (2.12)
(2.13) FT = FΩ + FΓ (2.13)
(2.14) FΩ = ∫ (α Ω T0 + Q ) NT d Ω ; FΓ = ∫ (α T
Γ 0 + q n ) NT dΓ q (2.14)
Ω Γq
(2.15) K T = K k + K Ωc + K Γc (2.15)
onde
nd ⎛ ∂σ ⎞
(2.17) ∑ ⎜
ij
⎜ ⎟⎟ + b j = 0 em Ω (2.17)
i =1 ⎝ ∂x j ⎠
11
(2.18) ∇ σ + b = 0
T
(2.18)
⎡∂ ∂ ⎤ ⎡σ xx ⎤
⎢ ∂x 0 0⎥ ⎢σ ⎥
∂y ⎡ bx ⎤
(2.19) ∇T = ⎢ ⎥, σ = ⎢⎢σ yy ⎥⎥ , b=⎢ ⎥ (2.19)
⎢ ∂ ∂⎥ xy ⎣ by ⎦
⎢0 0
∂x ⎥⎦
⎢ ⎥
⎣ ∂y ⎢⎣σ yx ⎥⎦
(2.20) σ = Dε (2.20)
⎡u ( x, y ) ⎤
(2.21) u = ⎢ ⎥ (2.21)
⎣ v ( x, y ) ⎦
⎡ 2c2 + c1 c1 0 0⎤
⎢ ⎥
c1 2c2 + c1 0 0⎥
(2.22) D = ⎢ (2.22)
⎢ 0 0 c2 c2 ⎥
⎢ ⎥
⎢⎣ 0 0 c2 c2 ⎥⎦
Eυ E
(2.23) c1 = , c2 = (2.23)
(1 + υ )(1 − 2υ ) 2(1 + υ )
A equação de equilíbrio para elasticidade plana pode então ser expressa, em função
dos deslocamentos, da seguinte forma
12
(2.24) ∇ D∇u + b = 0
T
(2.24)
u = u em Γ D
(2.25) (2.25)
σ = σ em Γ N
n
u e ( ξ ,η ) ∑ N (ξ ,η ) u
i =1
i
e e
i
(2.26) n
(2.26)
v (ξ ,η )
e
∑ N (ξ ,η ) v
i =1
i
e e
i
n
(2.27) ε e B ed e = ∑ Biedie (2.27)
i=1
T
onde Be é matriz que relaciona as deformações com deslocamentos, die = [uie vie ] e n é
o número de nós por elemento. Para um nó específico i, Bie pode ser escrita como
13
⎡ ⎤
(2.29) ⎢ ∫ BT DBd Ω ⎥ u = ∫ NT bd Ω + ∫ NT f n d Γ + ∫ NT ft d Γ (2.29)
⎣Ω ⎦ Ω Γn Γt
(2.30) K s u = Fs (2.30)
⎡ ⎤
(2.31) ⎢ ∫ BT DBd Ω ⎥ u = ∫ NT bd Ω + ∫ NT f n d Γ + ∫ NT ft d Γ + ∫ BT Dε 0 d Ω (2.31)
⎣Ω ⎦ Ω Γ Γ Ω
⎡(1 + ν ) γ ΔT ⎤
⎢ ⎥
(2.32) ε 0 = ⎢(
1 + ν ) γ ΔT ⎥ (2.32)
⎢ 0 ⎥
⎢ ⎥
⎣ 0 ⎦
14
As deformações térmicas produzem apenas uma variação no volume da estrutura,
sem variar sua forma. Por isso, as componentes da deformação de cisalhamento são
iguais à zero. Como se pode observar, o efeito dos carregamentos térmicos é introduzi-
do na análise estrutural transferindo-se o campo de temperaturas do modelo térmico
para o modelo elástico. Este campo de temperaturas é utilizado para computar as defor-
mações iniciais térmicas, que introduzem carregamentos mecânicos na estruturas atra-
vés do último termo da Equação (2.31).
R R
(2.33) K = ∑ K r F = ∑ Fr (2.33)
r =1 r =1
15
onde x1 e x2 correspondem às coordenadas nas direções x e y respectivamente, e a matriz
de mapeamento (ou transformação) G é dada por
⎡∂ x1* ∂ x1* ⎤
⎢ ⎥
∂x ∂ x2 ⎥
(2.35) G (μ) = ⎢ 1*
r
(2.35)
⎢∂ x2 ∂ x2* ⎥
⎢ ⎥
⎣∂ x1 ∂ x2 ⎦
Esta matriz jacobiana (2.35) é escrita em função dos parâmetros variáveis μ , para
maiores informações vide (ALBUQUERQUE, 2005). O mapeamento desta transforma-
ção permitirá obter as equações para novos domínios, sem a necessidade de gerar nova
malha nem construir as matrizes ou vetores do novo sistema de equação.
Considerando a transformação apresentada, pode-se então obter as equações gover-
nantes para um novo domínio qualquer Ω*r em função dos parâmetros μ , a partir das
equações no domínio de referência Ω r . Para uma região específica r, as transformações
dos infinitesimais do domínio e do contorno podem ser escritas como
onde
onde n*r t é o vetor unitário tangente ao contorno Γr de uma região particular r e sig-
nifica a norma euclidiana do vetor.
K *kr ( μ ) = ∫ ∇N
T
⎡⎣G rT (μ)k r G r (μ) ⎤⎦ ∇N det[G r (μ)]−1 d Ω r
Ωr
(2.38) K *Ωrc ( μ ) = ∫α
r
Ω NT N det[G r (μ )]−1 d Ω r (2.38)
r
Ω
K *Γrc ( μ ) = ∫ α Γr NT N [G r (μ)]−1 n r t d Γ rq
Γ rq
16
FΩ*r = ∫ (α T0 + Q r ) NT det[G r (μ )]−1 d Ω r
r
Ω
Ωr
(2.39) (2.39)
FΓ*r = ∫ (α T − q rn ) NT [G r (μ)]−1 n r t d Γ rq
r
Γ 0
Γ rq
nt
(2.40) K *kr ( μ ) = ∑ βTr ( μ ) j K rk j ; K *Ωrc ( μ ) = ϕΩr (μ)K Ωr c ; K *Γrc ( μ ) = ϕΓr (μ)K Γr c (2.40)
j =1
onde os termos independentes do parâmetro µ são dados pelas Equações (2.14) e (2.16)
aplicada a cada região. As matrizes K rk j são formadas a partir da sub-decomposição da
matriz K *kr de condutividade térmica. Nesta decomposição nt e βTr ( μ ) j variam de a-
cordo com a transformação específica da região. As matrizes K rk j são calculadas da se-
guinte forma
A partir desta transformação (Equação (2.43)) são retiradas não só as matrizes k rj como
também o parâmetro β kr ( μ ) j que contêm os fatores de dependência da variável µ, de tal
modo que
nt
(2.44) k *r (μ) = ∑ βTr ( μ ) j k rj (2.44)
j =1
17
A partir da Equação (2.33) e das matrizes e vetores decompostos mostrados nas
Equações (2.40) e (2.41), respectivamente, obtém-se as equações governantes, no domí-
nio real, para valores de μ quaisquer, da mesma forma como foi feito nas Equações
(2.15) e (2.16). Temos assim
(2.46) K *s r ( μ ) = ∫ (G ( μ ) B
rT T
)Dr (G r ( μ ) B) det[G r (μ)]−1 d Ω r (2.46)
Ωr
Fs*r ( μ ) = ∫N b
T r
det[G r (μ)]−1 d Ω r + ∫Nf
T r
n [G r (μ)]−1 n nr t d Γ nr
Ωr Γ nr
(2.47) (2.47)
+ ∫ NT ftr [G r (μ)]−1 ntr t d Γtr
Γtr
Assim como para o caso térmico, as componentes que dependem de μ podem ser
retirados das integrais e desta forma obter
nt
(2.48) K *s r ( μ ) = ∑ β sr ( μ ) j K rj (2.48)
j =1
onde
(2.50) K rj = ∫B
T
Drj BdV r (2.50)
Vr
18
Nas equações anteriores, cada componente das sub-matrizes de elasticidade Drj e
β sr ( μ ) j são definidos de maneira análoga à decomposição da matriz de condutividade
térmica k *r (Equação (2.43) e (2.44)), de tal modo que
nt
(2.52) D*r (μ) = ∑ β sr ( μ ) j Drj = ⎡⎣G rT (μ) Dr G r (μ) ⎤⎦ det[G r (μ)]−1 (2.52)
j =1
*r
(2.53) FTE (μ ) = ∫B
*T
Dε*o (μ)dV *r (2.53)
V *r
O vetor carregamento que acopla os efeitos térmicos, pode ser decomposto de for-
ma linear em relação às temperaturas, porém tal decomposição não foi aplicada.
O vetor de carregamento total considerando os efeitos térmicos nas deformações i-
niciais de uma região r para um valor de μ qualquer, pode ser calculado como
19
de-se afirmar que o espaço das soluções não se trata de um espaço de dimensão infinita
N
Y e sim um espaço de dimensão reduzida Y , onde é observado a dependência do pa-
râmetro variável μ (PRUD` HOMME et al, 2002), como ilustrado na Figura 2.1 (b).
u(μnovo)
u(μ)
u(μN)
u(μ1)
u(μ2)
(a) (b)
Figura 2.1 Redução de dimensões do espaço solução - (a) Variação da solução com o
parâmetro μ; e (b) aproximação da solução μnovo através de uma combinação linear de
soluções u(μi) pré-calculadas.
Conforme comentado acima, não é mais preciso representar todas as possíveis fun-
ções em Y para aproximar u(μ), tornando-se necessário aproximar somente aquelas
funções no espaço reduzido YN. Com isso, pode-se simplesmente calcular a solução u
em vários pontos do conjunto correspondente a diferentes valores de μ e para qualquer
novo parâmetro μnovo pode-se aproximar u(μnovo) através de uma combinação linear de
soluções conhecidas u(μi). A ilustração desta combinação linear encontra-se na Figura
2.1 (b).
Para se construir uma aproximação para o campo de solução, inicialmente deve-se
construir a amostra de pontos sob a qual a base será montada. Desta forma tem-se a de-
finição do conjunto de amostras representada da seguinte forma
{
(2.56) S N = (μ1 ,…, μ R ) ,…, (μ1 ,…, μ R )
1 N
} (2.56)
20
no qual μ low e μ up são os limites inferior e superior, respectivamente, do espaço de
projeto Dμ e N é o número de amostras.
Para cada componente de SN calcula-se a solução u(μ) através do Método dos Ele-
mentos Finitos, utilizando as Equações (2.12) e/ou (2.30). Isto nos permite construir um
espaço de Base Reduzida WN tal que
(
(2.59) ζ i = u (μ1 ,..., μ R )
i
) (2.59)
A equação acima significa que qualquer vetor do espaço reduzido WN pode ser ex-
presso como uma combinação linear das soluções ζ i . Vale salientar que as soluções nos
pontos amostrais devem ser linearmente independentes, para que ζ seja base de WN.
Caso haja soluções redundantes elas devem ser desconsideradas. Isto nos leva à defini-
ção da aproximação do MBR para a solução como
N
(2.61) u N (μ) = ∑ α ( μ ) ζ j
j
α j ∈ Rn (2.61)
j =1
ou na forma matricial
no qual
21
(2.65) Z T K (μ )Zα(μ ) = Z T F(μ ) (2.65)
Com isso, os coeficientes lineares α(μ) são obtidos resolvendo o problema no espa-
ço WN dado da seguinte forma
no qual
R R
(2.68) K = ∑ K , F = ∑ F Nr
N Nr N
(2.68)
r =1 r =1
Nas equações acima os termos K r (μ ) e F r (μ) podem ser mapeados como foi visto
nas seções 2.3.1 e 2.3.2, e assim reescrevê-los, para se obter os mesmos correspondentes
ao domínio real de cada região r . Por exemplo, para o caso elástico, resulta em
nt
(2.70) K *s Nr ( μ ) = ∑ βsr ( μ ) j K sNr j ; Fs* Nr ( μ ) = ϕΩr (μ)FbNr + ϕΓr (μ )F fNr (2.70)
j =1
r
onde apenas os termos βs j , ϕbr , ϕnr e ϕtr dependem do parâmetro variável, K sNr j e F jNr
são constantes, calculados para o domínio de referência e projetados no espaço de base
reduzida. Além disso, nt é o número de termos da matriz e tal como anteriormente men-
cionado varia com a transformação específica da região correspondente r. Vale salientar
que estes parâmetros foram discutidos com mais profundidade na seção 2.3. Para o caso
térmico, as matrizes e vetores de cada região podem ser escritos da seguinte forma
nt
(2.71) K *k Nr ( μ ) = ∑ βTr ( μ ) j K kNr j ; K *ΩNrc ( μ ) = ϕΩr (μ )K ΩNrc ; K *ΓNr
c ( μ ) = ϕ Γ (μ )K Γc
r Nr
(2.71)
j =1
22
(2.72) F* Nr ( μ ) = ϕdr (μ)FdNr + ϕcr (μ)FcNr (2.72)
No mapeamento das equações governantes da base reduzida, os termos que são de-
pendentes/não dependentes do parâmetro μ são claramente distinguidos. Como uma
conseqüência desta subdivisão, a implementação computacional para cálculo das gran-
dezas pelo Método da Base Reduzida é conduzida por um algoritmo “off-line” (inde-
pendente de μ)/ “on-line” (dependente de μ). A idéia deste algoritmo consiste no fato
que a parte “off-line” só é executado uma vez, gerando variáveis contendo as matrizes
K iNr e vetores de força FiNr . Consequentemente, no estágio on-line utiliza-se estes da-
dos gerados anteriormente para executar uma resposta em tempo real para um novo μ.
No caso de problemas de termo-elasticidade, o procedimento do Método da Base Redu-
zida é implementado de acordo com o algoritmo mencionado na Tabela 2.1. Para os
problemas térmicos o algoritmo é bastante similar. Para mais detalhes sobre o procedi-
mentos do MBR utilizado, bem como suas aplicações e resultados, vide (AFONSO e
PATERA, 2003; ALBUQUERQUE, 2005; MOTTA et al., 2007; AFONSO et al.,
2009)
1- Problema Térmico
2- Elástico Acoplado
2.1 Construir a matriz de soluções dos deslocamentos via MEF (a partir da amostra e
das soluções térmicas): Ζ s = [ζ s1 ,..., ζ sN ] ;
2.3 Construir as componentes da matriz de rigidez no espaço reduzido: K sNr j = ZTs K rs j Z s ;
23
ON-LINE – para um novo vetor μ :
1- Problema Térmico
1.1 Formar a matriz de “rigidez térmica” no espaço reduzido:
R
⎛ r nt
⎞
K T ( μ ) = ∑ ⎜ ϕΩ (μ)K Ωc + ϕΓ (μ )K Γc + ∑ βTr ( μ ) j K kNr j ⎟ ;
*N Nr r Nr
r =1 ⎝ j =1 ⎠
1.2 Formar o vetor de cargas térmicas no espaço reduzido:
R
FT* N ( μ ) = ∑ (ϕΩr (μ)FΩNr + ϕΓr (μ)FΓNr ) ;
r =1
2.4 Calcular: u N ( μ) = Z s αs ( μ) ;
2.5 EXEMPLOS
O primeiro exemplo a ser considerado será uma placa quadrada com um orifício
central cujo comportamento estrutural pode ser modelado como estado plano de tensões.
Devido à simetria do problema apenas um quarto da placa será modelada. A geometria,
as condições de contorno e as variáveis de projeto estão apresentadas na Figura 2.1. As
variáveis do problema são as dimensões μ1 e μ2 representadas na figura.
24
μ1
μ2
1
2 3
25
a) b)
Figura 2.2 Um quarto da placa quadrada – Convergência da malha de EF em relação à
flexibilidade total (10-3 J): a) Le – tamanho médio do elemento, b) Número de graus de
liberdade.
26
a) Q4 b) T3
Figura 2.3 Um quarto da placa quadrada – Contornos das tensões von Mises para a con-
figuração deformada calculadas considerando-se os elementos Q4 e T3.
Para a aproximação via MBR, 3 regiões (indicadas na Figura 2.1) são definidas. A
base reduzida foi construída no espaço viável das variáveis geométricas, D ={[25, 75]²}.
O número de pontos amostrais N foi variado de 4 à 10, e as análises foram feitas consi-
derando as malhas (modelos computacionais) utilizadas anteriormente. Para verificar a
convergência do MBR, construímos o gráfico da flexibilidade aproximada (FNTα) com o
número de pontos amostrais N, apresentado na Figura 2.4. No gráfico pode-se verificar
a convergência para poucas soluções base (tamanho da amostra).
27
Tabela 2.2 Desempenho do MBR utilizando o elemento Q4.
N Tempo “OFF-Line” (s) Tempo “ON-Line” (s)
10 54.9937 0.0035
9 50.4739 0.0031
8 45.9483 0.0018
7 41.3479 0.0020
6 36.8836 0.0019
5 32.4563 0.0017
4 27.9801 0.0017
Como segundo exemplo, será considerada uma estrutura plana bidimensional indi-
cada na Figura 2.5 (a) e (b) com o total de treze (13) regiões, especificadas para o pre-
sente problema, numeradas conforme indicado na Figura 2.5 (a) em função dos parâme-
tros variantes do problema em questão (μ1 à μ4 indicados na Figura 2.5(a)). Todas as
dimensões do problema estão especificadas na Figura 2.5 (a). Condições de contorno
para o problema elástico e de transferência de calor estão indicadas na Figura 2.5 (b). A
estrutura é engastada na lateral esquerda e esta isolada termicamente (não possui fluxo
de calor) nos vazios no centro da estrutura e na parte superior.
a)
28
b)
Figura 2.5 Definição do problema: a) Geometria, b) Condições de contorno.
[28;38] cm4.
A discretização de um exemplo de domínio real, onde μ1 = 2, μ2 = 2, μ3 = 14, μ4 =
31 cm e o domínio de referência se encontram respectivamente na Figura 2.6 (a) e (b).
a) b)
Figura 2.6 Malha de elementos finitos: a) domínio real (projeto inicial) e b) domínio
computacional.
29
Para este exemplo de discretização foram usados elementos triangulares T3, totali-
zando 1976 graus de liberdade para o problema elástico e 1023 para o térmico.
Um teste de convergência, similar ao realizado no exemplo anterior, foi conduzido
para esta estrutura. As malhas foram refinadas, variando o tamanho médio (Le) dos e-
lementos. Os elementos utilizados foram os mesmos do exemplo anterior: o quadrilate-
ral (Q4) e o triangular (T3). A Figura 2.7 apresenta um gráfico do valor da flexibilidade
total para diferentes refinamentos de malha. Na Figura 2.7 (a) o eixo da abscissa repre-
senta o tamanho dos elementos (Le), enquanto que na Figura 2.7 (a) o eixo da abscissa
indica o número de graus de liberdade.
Foi então examinado o procedimento de análise via MBR. Para tal, as malhas de e-
lementos finitos consideradas, foram as que apresentaram um erro (em relação à flexibi-
lidade utilizando a malha mais refinada) próximo de 0,1 %, portanto:
• Para o elemento Q4 adotou-se elementos de dimensão média de 0.5 cm. O
modelo possui 2.046 graus de liberdade (erro 0,11%).
• Para o elemento T3 adotou-se elementos de dimensão média de 0.25 cm. O
modelo possui 7.342 graus de liberdade (erro 0,10%).
A Figura 2.8 apresenta a distribuição das temperaturas e o contorno das tensões de
von Mises no modelo deformado, utilizando as malhas descritas anteriormente. Na
Figura 2.8 (a) e (b) são apresentados o resultado da análise para uma malha de elemen-
tos Q4 de tamanho médio de 0.5 cm e na Figura 2.8 (c) e (d) o resultado da análise para
uma malha de elementos T3 de tamanho médio de 0.25cm.
30
c) Térmico – T3 (Cº) d) Acoplado – T3 (kN/cm²)
Figura 2.8 Problema acoplado – Contornos das temperaturas e das tensões von Mises
para as malhas consideradas.
31
2.6 REFERÊNCIAS
AFONSO, S.M.B, LYRA, P.R.M, ALBUQUERQUE, T.M. M., R. S., MOTTA, 2009,
“Structural Analysis and Optimization in the Framework of Reduced-Basis Method.
Structural and Multidisciplinary Optimization”, Springer Berlin / Heidelberg, DOI:
10.1007/s00158-008-0350-4, Published online, January 2009.
PRUD’HOMME, C., ROVAS, D. V., VEROY, K., MACHIELS, L., MADAY, Y., PA-
TERA, A.T. e TURICINI, G. “Reliable Real-time Solution of Parameterized Partial
Differential Equations: Reduced-basis Output Bound Method”. J. of Fluids Eng.,
Vol.124, pp.70-79, 2002.
ZIENKIEWICZ O C & TAYLOR R L. “The finite element method. Vol. I. Basic for-
mulations and linear problems”. London: McGraw-Hill. 648 p. Vol. 2, 1989.
32
33
CAPÍTULO 3
OTIMIZAÇÃO ESCALAR E ANÁLISE DE
SENSIBILIDADE
3.1 INTRODUÇÃO
34
3.2 FORMULAÇÃO MATEMÁTICA
Quando os problemas de otimização envolvem uma única função objetivo ele é de-
nominado problema de otimização escalar (HAFTKA e GURDAL, 1993). Sua repre-
sentação genérica é dada por:
hk ( x ) = 0 k = 1,… , ne
(3.2) g ( x ) ≤ 0 i = 1,… , ni
(3.2)
i
xlj ≤ x j ≤ xuj j = 1,… , npv
35
Os métodos mais empregados para solucionar problemas de otimização não-
lineares com restrições, são os métodos diretos (VANDERPLAATS, 2004). Estes mé-
todos definem um subproblema para a determinação de uma direção de busca S e em
seguida realizam uma busca linear para se determinar o tamanho do passo α, nessa dire-
ção. A forma clássica da atualização das variáveis, por este procedimento iterativo, é
dada por:
Um ponto x é dito regular, caso os gradientes das funções restrição ativas sejam li-
nearmente independentes. Neste caso o número de restrições ativas deve ser menor ou
igual ao número de variáveis de projeto.
Um ponto regular viável x, para ser dito um ponto de mínimo local (x*), deve aten-
der às condições necessárias de primeira ordem, dadas pelas condições de Karush-
Kuhn-Tucker (condições KKT) (KARUSH, 1939; KUHN e TUCKER, 1950). Neste
ponto o gradiente da função objetivo deve ser capaz de se anular (mesma direção e sen-
tido opostos), como uma combinação linear dos gradientes das restrições ativas, e os
coeficiente lineares relacionados às restrições de desigualdade ativas devem ser não
negativos.
As condições de KKT podem ser escritas como:
ne ni
(3.4) ∇f (x* ) + ∑ λk*∇hk (x* ) + ∑ φi*∇gi (x* ) = 0 (3.4)
k =1 i =1
36
onde λk e φi, são os multiplicadores de Lagrange associados respectivamente às restri-
ções hk, gi, no ponto x e formam as variáveis duais do problema. Os coeficientes φi,
também são conhecidos como os multiplicadores de KKT. Os asteriscos indicam se
tratar de um ponto de ótimo, incluindo os multiplicadores de Lagrange ótimos. Nas res-
trições gi estão incluídas também, as 2npv restrições de lateralidade definidas na Equa-
ção (3.2).
A Equação (3.4) é chamada de condição de estacionaridade.
A Equação (3.5) é conhecida como as condições de viabilidade dual e impõe que os
multiplicadores de Lagrange associados às restrições de desigualdade (multiplicadores
de KKT) ativas em x* sejam positivos (ou nulas para restrições redundantes). Isto por-
que as restrições são escritas na forma gi ≤ 0.
A Equação (3.6) é chamada de condição de complementaridade, ela implica que
uma restrição inativa tem um multiplicador nulo e que uma restrição ativa pode ter mul-
tiplicador diferente de zero.
É conveniente utilizar a função Lagrangeana, para o desenvolvimento metodológico
do processo de otimização. A função Lagrangeana é definida por (CHONG, 2001):
ne ni
(3.7) L ( x, λ , φ ) = f (x) + ∑ λk hk (x) + ∑ φi gi (x) (3.7)
k =1 i =1
ne ni
(3.8) ∇L ( x, λ , φ ) = ∇f (x) + ∑ λk ∇hk (x) + ∑ φi ∇gi (x) = 0 (3.8)
k =1 i =1
onde N (⋅) representa o núcleo e J (x) é o conjunto dos índices das restrições de desi-
gualdade ativas, ou seja,
37
Assim, as direções viáveis estacionárias S pertencem a N (∇h(x)) e N (∇g j (x)) ,
que são os espaços tangentes das superfícies definidas pelas restrições de igualdade e
pelas restrições de desigualdade ativas ( g j (x) = 0 ), respectivamente.
(3.12) ST HS ≥ 0, ∀S ∈ T (3.12)
ou ainda, podemos ter a condição suficiente para x* ser um mínimo local estrito.
ne ni
(3.14) H = ∇ 2 L ( x, λ , φ ) = ∇ 2 f (x) + ∑ λk ∇ 2 hk (x) + ∑ φi ∇ 2 gi (x) (3.14)
k =1 i =1
38
(3.17) L ( x + S, λ , φ ) = f (x + S) + λ T h(x + S) + φT g (x + S) (3.17)
Sendo h = (h1,..., hne)T e g = (g1,..., gni)T vetores que contêm as restrições e λ = (λ1,...,
λne)T e φ = (φ1,..., φni)T os vetores que contêm os multiplicadores de Lagrange de di-
mensão ne e ni, respectivamente. As condições de ótimo de primeira ordem aplicadas ao
problema (3.15) e (3.16) fornecem as equações:
(3.23)
onde ∇g e ∇h são matrizes Jacobianas cujas linhas são os gradientes de ∇gi e ∇hk, res-
pectivamente. Aproximando as Equações de (3.18) até (3.21) por uma série de Taylor
até termos de primeira ordem em x resulta:
ne ni
Utilizando a seguinte notação: ⎡⎣ λ∇ 2h(x) ⎤⎦ = ∑ λi ∇ 2 hi (x) e ⎡⎣ φ∇ 2 g(x) ⎤⎦ = ∑ φi ∇ 2 gi (x) .
i =1 i =1
39
1
(3.30) min ∇f (x)T S + ST ∇ 2 L(x)S (3.29)
S∈ ndv
2
h(x) + ∇h(x)S = 0
(3.31) (3.30)
g(x) + ∇g(x)S ≤ 0
40
são na solução e a eficiência computacional, mas sua implementação é mais elaborada e
consequentemente mais propícia a erros.
É um dos mais antigos métodos usados para a análise de sensibilidade. Possui co-
mo característica principal a simplicidade de implementação do algoritmo. Apresenta
um inconveniente quando o número de variáveis de projeto é grande, pois o custo com-
putacional passa a ser alto. Isto ocorre porque para cada variável de projeto perturbada é
necessária a resolução das equações governantes. Um outro problema é encontrar um
valor do tamanho da perturbação que modifique as variáveis de projeto de tal forma que
forneça uma boa precisão para os gradientes (HAFTKA e GURDAL, 1993; CHOI et al,
2005).
Sua formulação vem da representação da função em análise na forma da série de
Taylor, cuja forma é:
∂f ( μ ) ∂ 2 f ( μ + eiδΔμi ) Δμi2
(3.32) f ( μ + ei Δμi ) = f ( μ ) + Δμi + (3.31)
∂μi ∂μi 2 2!
∂f Δf f ( μi + ei Δμi ) − f ( μi )
(3.33) = , para i = 1,..., m (3.32)
∂μi Δμi Δμi
O principal fator que influencia a precisão deste método é o tamanho do passo Δμi
usado. Quando as sensibilidades são obtidas usando o método das diferenças finitas, o
dilema em relação ao tamanho da perturbação surge (HAFTA e GURDAL, 1993;
KEULEN et al, 2005), pois grandes perturbações geram erros de truncamento (estão
relacionados aos termos negligenciados no truncamento da série de Taylor) e pequenas
amplificam os erros de arredondamento. No caso deste método o tamanho do passo em
torno de 10-4 μ i a 10-6 μ i é tido como satisfatório (AFONSO, 1995).
41
(3.34) Ku = F (3.33)
∂u ∂K ∂F
(3.35) K + u= (3.34)
∂μk ∂μk ∂μk
∂u ⎛ ∂F ∂K ⎞
(3.36) = K −1 ⎜ − u⎟ (3.35)
∂μk ⎝ ∂μ k ∂μ k ⎠
∂K ∂F
Caso as derivadas e sejam calculadas indiretamente, como por diferenças
∂x ∂x
finitas, tem-se as versões do método direto, denominada semi-analítica (convencional
ou exato) (AFONSO, 1995). Porém, através da decomposição por região e do mapea-
mento aplicado ao domínio de referência, abordado no seção 2.3.2, pode-se obter as
derivadas analíticas das matriz de rigidez e vetor carregamento de cada região. Para isto,
basta derivar as Equações (2.48) e (2.49) em relação a k-esima variável de projeto, logo
(3.37) =∑ Kj ; = Fb + Ff (3.36)
∂μk j =1 ∂μk ∂μk ∂μk ∂μk
∂K *s nr ∂K s ( μ ) ∂Fs* nr ∂F ( μ )
*r *r
(3.38) =∑ ; =∑ (3.37)
∂μk r =1 ∂μk ∂μk r =1 ∂μk
Através deste método podemos usar a matriz de rigidez já decomposta e para cada
novo x calculamos apenas as derivadas dos parâmetros variáveis (dependentes de x),
estas derivadas são analiticamente conhecidas, obtendo assim um ganho computacional.
Apesar das equações para a análise de sensibilidade apresentadas, estarem relacio-
nadas com as equações do problema de elasticidade, estas são estendidas para proble-
mas de condução de calor tratados aqui (regime estacionário), bem como para o caso
acoplado.
42
geração de malhas, análise estrutural e/ou térmica, análise de sensibilidades e o módulo
que integra o procedimento completo com um algoritmo de programação matemática.
Este sistema permite executar uma otimização de projetos estruturais envolvendo efeitos
mecânicos, termo-mecânicos acoplados em regime estático, e otimização térmica em
regime permanente. Na Tabela 3.1 é mostrado o Algoritmo SSO, que resume o proce-
dimento utilizado na otimização de forma.
43
No caso do cálculo das sensibilidades utilizando o método das diferenças finitas, o
MBR também é vantajoso pois as análises são obtidas de maneira mais rápida que o
método convencional (totalmente via MEF).
No caso de problemas de elasticidade por exemplo, a análise de sensibilidade via o
método direto é conduzida conforme descrito a seguir (CHOI et al, 2005).
Utilizando a equação dos deslocamentos aproximados Equação (2.62), e aplicando
diferenciação direta tem-se
∂u N ∂α N
(3.39) =Z (3.38)
∂μk ∂μk
onde a derivada dos coeficientes lineares α , pode ser obtida derivando-se diretamente a
Equação (2.66),
∂K N ∂α ∂F N ∂α −1 ⎛ ∂F ∂K N ⎞
N
(3.40) α + KN = ⇒ = ⎡⎣K N ⎤⎦ ⎜ − α⎟ (3.39)
∂μk ∂μk ∂μk ∂μk ⎝ ∂μk ∂μk ⎠
∂α −1
(3.41) = ⎡⎣K N ⎤⎦ Fˆ N (3.40)
∂μk
ˆ ⎛ ∂F N ∂K N ⎞
(3.42) F = ⎜
N
− α⎟ (3.41)
⎝ ∂μk ∂μk ⎠
∂K *s N ( μ ) nr nt ∂βs ( μ ) j Nr
r
= ∑∑ Ks j
∂μk r =1 j =1 ∂μk
(3.43) (3.42)
∂F ( μ ) nr ⎡ ∂ϕ (μ) Nr ∂ϕ (μ) Nr ⎤
*N r r
s
= ∑⎢ Fb +
Ω
Ff ⎥ Γ
∂μk r =1 ⎣ ∂μ k ∂μk ⎦
44
As Equações (3.38), (3.40), (3.41) e (3.42) são desenvolvidas para cada nova variá-
vel de projeto ( μ ).
O algoritmo completo para a implementação computacional via o Método da Base
Reduzida Tabela 2.1, ficará acrescido de um item na etapa “on-line” para a análise de
sensibilidade, após o cálculo do vetor uN , o cálculo do gradiente de uN através da Equa-
ção (3.38).
Para comprovar a eficácia do método, são apresentados na seção seguinte alguns
exemplos envolvendo análise de sensibilidade e otimização.
3.6 EXEMPLOS
Neste exemplo iremos realizar via Método dos Elementos Finitos e Método da Base
Reduzida a análise de sensibilidade e otimização do problema apresentado na seção
2.5.1 e que se refere à análise do estado plano de tensões em uma placa quadrada com
um orifício central.
Neste exemplo prático as dimensões do orifício são as variáveis do projeto selecio-
nadas para a otimização. Os valores iniciais das variáveis de projeto são μ1 = 60 mm e
μ2 = 43 mm, e os limites inferior e superior impostos são 25mm e 75mm, respectiva-
mente.
O objetivo considerado é minimizar a flexibilidade. Ao volume, é imposto ser infe-
rior ou igual ao seu valor inicial.
O problema de otimização pode ser formulado como:
Minimizar: f ( μ )
sujeito a
V ( μ ) ≤ V0
25mm ≤ μk ≤ 75mm k = 1,...ndv
45
Tabela 3.2 Resultados da análise de sensibilidade.
∂f ( μ ) ∂f ( μ ) Tempo (s) da Tempo (s)
∂μ1 ∂μ2 avaliação “off-line”
MEF – T3 -0.0085236 -0.015176 17.05 -
MBR – T3 -0.0085230 -0.015177 0.064 75.5
MEF – Q4 -0.0085210 -0.015172 8.75 -
MBR – Q4 -0.0085206 -0.015174 0.054 45.1
Para o processo de otimização via MEF, o valor da dimensão média dos elementos
foi variada de 10 mm à 1 mm, resultando em modelos de EF (Elementos Finitos) que
variam de malhas grosseiras até as mais refinadas. Para cada refinamento de malha será
feita uma otimização. Analisou-se a função objetivo e as variáveis de projeto ótimas
resultantes das otimizações.
A Figura 3.1 ilustra o resultado de cada otimização variando com o número de
graus de liberdade da malha utilizada para a otimização. Na Figura 3.1 (a) é apresentado
a convergência do valor ótimo de X1 (X1 ótimo), onde X1= 50 − μ1 se refere à primeira
variável de projeto, com a variação do número de graus de liberdade (NGL). Já na
Figura 3.1 (b), vemos o gráfico da função objetivo (flexibilidade) no ponto ótimo versus
o NGL.
46
• Para o elemento Q4 adotou-se elementos de dimensão média de 10/3 mm. O
modelo possui 1.472 graus de liberdade.
• Para o elemento T3 adotou-se elementos de dimensão média de 2 mm. O
modelo possui 3.952 graus de liberdade.
A base foi construída no espaço das variáveis de projeto, D ={[25, 75]²}. Foram re-
alizados vários processos de otimização para o problema considerado, variando o núme-
ro de pontos amostrados para a base reduzida N de 5 à 16. Para verificar a convergência
do MBR, construímos o gráfico apresentado na Figura 3.2 (a) do valor referente à pri-
meira variável no ponto ótimo (X1 ótimo) variando com número de pontos amostrados
N, e o gráfico do objetivo (flexibilidade) ótimo variando com N, Figura 3.2 (b). No grá-
fico podemos verificar a convergência para poucas soluções base.
A Figura 3.3 ilustra os tempos de CPU para o procedimento “off-line” e para o pro-
cesso de otimização (“on-line”) via MBR.
3.7 REFERÊNCIAS
48
CHONG, E. K. P.; ZAK, S. H. “An Introduction to Optimization”, Second edition, John
Wiley & Sons, 2001.
KEULEN F. V.; HAFTKA, R. T.; KIM N. H. “Review of options for structural design
sensitivity analysis. Part 1: Linear systems”. Comput. Methods Appl. Mech. Engrg. 194,
pp. 3213–3243, 2005.
49
VANDERPLAATS, G. N. “Structural Optimization for Statics, Dynamics, and
Beyond”. Journal of the Brazilian Society of Mechanical Sciences and Engineering. vol.
28, no.3, p.316-322. ISSN 1678-5878, September 2006.
50
CAPÍTULO 4
OTIMIZAÇÃO MULTIOBJETIVO
4 OTIMIZAÇÃO MULTIOBJETIVO
O projeto ótimo de problemas reais quase sempre está envolvido com várias metas
(funções objetivo) a serem aprimoradas e várias restrições a serem satisfeitas. Os algo-
ritmos de otimização de propósito geral (existentes na literatura) são capazes de resolver
problemas que envolvam uma única função objetivo. A maioria dos otimizadores dis-
poníveis na literatura não lida, portanto com várias funções objetivo simultaneamente.
No entanto, o problema de otimização multiobjetivo (POM) pode ser resolvido empre-
gando-se uma das estratégias:
• O uso do conceito de Pareto
• O uso da Programação Hierárquica
Na presente pesquisa, serão consideradas metodologias baseadas no uso do concei-
to de Pareto.
Nos últimos 15 anos distribuições eficientes de pontos de Pareto têm sido obtidas
graças ao desenvolvimento de algoritmos eficientes tais como o NBI (Normal-Boundary
Intersection) (DAS e DENNIS, 1996) e o NNC (Normalized Normal Constraint)
(MESSAC et al, 2003 ). Essas estratégias juntamente com outras abordagens de mais
fácil implementação (Método da soma ponderada e Método min-max) são aqui imple-
mentadas.
hk ( x ) = 0 k = 1,… , ne
(4.2) g ( x ) ≤ 0 i = 1,… , ni
(4.2)
i
xlj ≤ x j ≤ xuj j = 1,… , npv
onde as restrições são as mesmas definidas no capítulo 3, porém os objetivos agora for-
mam um vetor de nobj funções objetivo, as quais precisam ser minimizadas.
52
4.2 CONCEITO DE ÓTIMO DE PARETO
f1*
f2*
x1 x2 x
Figura 4.1 Problema de otimização com uma variável e duas funções objetivo.
f2
x1
xP
f1
x
x2
Figura 4.2 Pareto mínima com duas variáveis de projeto e duas funções objetivo.
53
Em problemas de otimização multiobjetivo é muito importante formular o problema
no espaço das funções objetivo. Isto pode ser feito usando-se um sistema de equações
geradas pelas funções objetivo e conjuntos das restrições ativas. Para cada projeto viá-
vel, haverá correspondentes valores das funções objetivo que definirão o espaço viável
das funções objetivo. Sobre seu contorno se localizam os pontos ótimos de Pareto. Na
Figura 4.3, tem-se o exemplo de um problema com duas variáveis de projeto e duas
funções objetivo. Em ambas as Figura 4.3 (a) e (b), a linha tracejada representa os pon-
tos ótimos de Pareto.
x2 f2
x
F(x)
P
x
F(xP)
x1 f1
a) b)
Figura 4.3 Região viável e pontos de Pareto: a) no espaço das variáveis de projeto,
b) no espaço das funções objetivo
54
empregado e de uso mais simples é o método da soma ponderada (“Weight Sum me-
thod” – WS) (KOSKI, 1985; AFONSO, 1997; AFONSO e SIENZ, 1999; AFONSO et
al, 2002). Sua técnica baseia-se em atribuir um vetor de coeficientes de ponderação β j ,
às funções objetivo normalizadas, combinando-as linearmente, ou seja, transformando-
as em uma única função objetivo. Sua representação algébrica é dada da seguinte forma
f nobj f
(4.3) F = β = ∑ β j ,k k
T
j (4.3)
f0 k =1 f0k
nobj
(4.4) ∑β
k =1
j ,k = 1 , 0 ≤ β j ,k ≤ 1 (4.4)
f1*
f2*
f1
Em geral, quando se utiliza essa metodologia, ocorre que uma distribuição uniforme
dos pesos β não fornece uma distribuição uniforme de pontos de Pareto.
55
4.3.2 Método Min-Max
Este método foi desenvolvido com o propósito de sanar os problemas listados ante-
riormente no método da soma ponderada dos objetivos, o que é parcialmente alcançado
no que se refere a obter pontos uniformemente distribuídos.
Neste procedimento, as funções objetivo são normalizadas, de forma diferente da-
quela do método da soma ponderada dos objetivos, sendo para isso acrescido dois pa-
râmetros: max fk e min fk. Estes parâmetros são obtidos das soluções das otimizações
escalares, isto é, que envolvem a consideração individual das funções objetivo isoladas.
Obtém-se, então, um conjunto de variáveis xk*, resultante de cada otimização k isolada.
Aplica-se esse conjunto a cada função objetivo e daí atribui-se o máximo valor da fun-
ção a max fk e o mínimo a min fk.
As novas funções objetivo normalizadas assumirão a forma:
f k − min f k
(4.5) f k = , k = 1,..., nobj (4.5)
max f k − min f k
onde
para vários conjuntos de vetores β, pois para cada vetor β diferente um novo subpro-
blema de otimização é formulado e um novo ponto de Pareto é obtido.
56
do contorno suficientemente convexa daquele espaço viável, esses são definidos como
pontos de Pareto. Isto acontece para a grande maioria dos casos estudados na engenhari-
a. Porém, se aqueles pontos estiverem na parte côncava do contorno, não há a garantia
de que eles sejam pontos de Pareto. Apesar disso, esses pontos contribuem para que a
curva Pareto seja definida.
Este método é inovador com relação à obtenção dos pontos eficientes sobre a super-
fície Pareto, permitindo que se obtenha uma distribuição uniforme daqueles pontos até
mesmo para um pequeno conjunto de vetores do parâmetro β, independentemente do
número de funções objetivos. Este método difere daqueles descritos anteriormente por
não ocorrer a transformação do vetor das funções objetivo em uma única função objeti-
vo, através de uma combinação linear.
A idéia central do NBI é encontrar uma porção do contorno do denominado espaço
das funções objetivo (DAS e DENNIS, 1996), o qual contém os pontos ótimos de Pare-
to. Tais pontos podem ser encontrados resolvendo-se um problema de otimização. No
que se segue, apresentam-se, inicialmente, algumas terminologias específicas do método
para em seguida detalharmos a metodologia.
Define-se F* como sendo o vetor do mínimo local das funções objetivo, denomina-
do de Ponto Utópico (Shadow Minima ou Utopia Point) (DAS e DENNIS, 1996), repre-
sentado por:
onde cada f i* representa um mínimo local individual. Sendo o vetor xi* a solução ótima
de f i , temos que f i * = f i ( xi* ) . Define-se a envoltória convexa do mínimo individual
(ECMI) como:
⎧ n ⎫
(4.11) ⎨Φβ :β ∈ ℜ n , ∑ β i =1, β i ≥ 0⎬ (4.11)
⎩ i =1 ⎭
onde
57
f2
C
B f1
0
Com esta redefinição, observa-se na Figura 4.5 que o ponto A é F (x1*) e o ponto B
é F ( x2*), 0 é a origem e ao mesmo tempo o ponto Utópico F*, o segmento tracejado é a
ECMI, enquanto que o arco ACB é a fronteira de Pareto no espaço das funções objetivo.
O conjunto das funções objetivo no espaço viável {F(x): x∈C} será denominado por ƒ e
o seu contorno por ∂ƒ. A técnica NBI possui o objetivo de encontrar parte do contorno
∂ƒ que contém os pontos ótimos de Pareto.
A idéia geométrica associada ao método é que tais pontos de Pareto são encontra-
dos a partir da interseção da reta quase-normal à ECMI, apontada para a origem, e o
contorno ∂ƒ como ilustrado na Figura 4.6. Nesta, observa-se que a família dos vetores
quase-normais uniformemente espaçados intercepta os pontos igualmente espaçados
sobre o contorno.
f2
F ( x1*)
ECMI
∂ƒ
F ( x2 *) f1
Figura 4.6 A imagem do conjunto viável sobre o mapeamento de ƒ no espaço das fun-
ções objetivo.
58
reta quase-normal a ECMI, e o contorno que define o espaço {F(x) | x∈C}, ∂ƒ, mais
próximo da origem é a solução global do seguinte problema de programação não-linear:
(4.13) max t
x,t (4.13)
(4.14) Φβ + tn
ˆ = F ( x) (4.14)
Este método foi introduzido por (MESSAC et al, 2003) e é uma melhoria sobre o
método da Restrição Normal (NC) de Yahaya e Messac removendo problemas numéri-
cos de escala com a normalização das funções objetivo. Este método mostrou ser capaz
de gerar uma propagação uniforme de pontos Pareto. O NNC trabalha de forma similar
ao método da Interseção Contorno-Normal (NBI), (discutido anteriormente), e sua re-
presentação gráfica, tirada da referência (MESSAC et al, 2003), é mostrada a seguir.
No espaço das funções objetivo normalizadas (mesma normalização usada no mé-
todo Min-Max), todos os pontos mínimos locais das funções objetivo, estão a uma uni-
dade de distância do Ponto Utópico. E o Ponto Utópico está na origem – por definição
Na Figura 4.7 nós observamos o espaço viável e a fronteira de Pareto corresponden-
te. Nós também notamos os dois pontos de mínimo das funções objetivo que são obtidos
pela minimização separada do primeiro e do segundo objetivo do projeto. Uma linha
ligando os dois pontos é chamada de Linha Utópica, ela é equivalente à envoltória con-
vexa do mínimo individual (ECMI) no método NBI. Ela é dividida em m-1 segmentos,
resultando em m pontos.
59
f2
1 F( x1* )
Nk
m −1
0 F ( x2* )
0 1 f1
f2
f 1∗ Região
1 Linha NU
Viavel
X pj Região
Inviavel
∗ 2∗
0 f f
0 1 f1
Plano Utópico
60
Um conjunto de np pontos distribuídos no Plano Utópico é gerado da seguinte for-
ma.
nobj
(4.16) X j = ∑ β j ,k F ( xk* ) , j = 1, 2,...n p (4.16)
k =1
onde
nobj
(4.17) 0 ≤ β j ,k < 1 e ∑ β j ,k = 1, j = 1, 2,..., n p (4.17)
k =1
Agora nós geramos pontos distribuídos no espaço das funções objetivas normaliza-
das. Para cada ponto X gerados anteriormente é obtido um Ponto Pareto corresponden-
te, solucionando o problema abaixo:
Para j = 1, 2,..., np
(4.18) (4.18)
min f nobj
x
(4.19) N k ( F − Xj ) ≤ 0,
T
k = 1, 2,..., n − 1 (4.19)
61
4.4 EXEMPLOS
As variáveis de projeto são as áreas das seções transversais das barras e os limites
superiores e inferiores são respectivamente XL = 0.1 cm2 e XU = 2 cm2.
Neste problema, soluções multiobjetivo serão encontradas considerando a minimi-
zação de duas funções objetivas:
(1) Volume total da estrutura,
(2) Combinação linear dos deslocamentos: dp = 0.25δ1 + 0.75δ2.
Além das restrições das variáveis de projeto, são impostas restrições de tensão para
todas as barras σall < 200 Mpa (para compressão e tração).
Na seqüência 100 soluções de Pareto para o problema são apresentadas, conside-
rando os métodos WS, Min-Max, NBI e NNC, respectivamente nas Figura 4.10 (a), (b),
(c) e (d).
Os resultados estão em acordo com os reportados na literatura (KOSKI, 1985,
MESSAC et al., 2003). Como esperado, os métodos NBI e NNC produziram pontos de
Pareto melhores distribuídos. Além disso existe uma região côncava na fronteira de Pa-
reto como indicado na Figura 4.10 (a). É importante enfatizar que as técnicas Min-Max,
NBI e NNC são capazes de calcular pontos nesta área ao contrário do método WS, que
assume uma combinação convexa entre as funções.
Na região côncava existe alguns pontos não Pareto, o método NBI encontrou esses
pontos, como apresenta a Figura 4.10 (c). Apesar disso, (DAS e DENNIS, 1996) argu-
mentam que esses pontos contribuem para que a curva Pareto seja definida. O método
Min-Max definiu bem a curva de Pareto, desconsiderando corretamente a parcela não
62
Pareto da região convexa, Figura 4.10 (b). A distribuição de pontos do NNC excluiu
alguns deles, como observado na Figura 4.10 (d). Porém todos os pontos não Pareto
podem ser facilmente separados através de um filtro nos pontos.
a) WS b) Min-Max
c) NBI d) NNC
Figura 4.10 Treliças de três barras – Distribuição de Pareto:
(a) WS, (b) Min-Max, (c) NBI e (d) NNC.
63
rior e superior impostos são 25mm e 75mm, respectivamente. Dois objetivos são consi-
derados, são eles: minimizar o volume total e minimizar a flexibilidade total da placa.
As soluções MO serão obtidas considerando 10 pontos de Pareto.
Para a aproximação via MBR, três regiões são definidas. A base reduzida será cons-
truída no espaço viável do projeto D = [25, 75]² e o número de amostras analisadas foi
N = 10, baseada no estudo de convergência do MBR, já realizado para este caso, na
seção 2.5.1. O domínio de referência (o qual neste caso é igual ao projeto inicial) com
sua respectiva malha de EF para elementos triangulares CST, com número total de graus
de liberdade – ndof = 6.732, é mostrado na Figura 4.11 (a). A distribuição das tensões
de von Mises e a configuração deformada para o projeto inicial é mostrada na Figura
4.11 (b).
100
80
60
40
20
0 20 40 60 80 100
Figura 4.11 Projeto inicial (domínio de referência). a) malha EF (ndof = 6.732), b) ten-
são de von Mises (N/mm²).
A Figura 4.12 apresenta as distribuições dos pontos Paretos obtidos para os métodos
aqui considerados. As soluções são obtidas considerando o modelo de MEF e o modelo
aproximado via MBR. Verifica-se que as curvas de Pareto via MEF e MBR estão de
acordo. Como pode ser observado, soluções via o método da soma ponderada (WS) são
bastante pobres com pontos aglutinados (cluster) e regiões vazias sobre a fronteira de
Pareto esperada. Soluções via Min-Max se mostraram melhores. Entretanto os métodos
NBI e NNC são os que conseguem obter pontos uniformemente espaçados em todas as
partes da fronteira de Pareto.
64
3 3
FEM FEM
Strain Energy (N.mm) 2.5 RBM 2.5 RBM
1.5 1.5
1 1
0.5 0.5
0 0
4000 5000 6000 7000 8000 9000 10000 4000 5000 6000 7000 8000 9000 10000
Volume (mm³) Volume (mm³)
a)WS b)Min-Max
3 3
FEM FEM
2.5 RBM 2.5 RBM
Strain Energy (N.mm)
1.5 1.5
1 1
0.5 0.5
0 0
4000 5000 6000 7000 8000 9000 10000 4000 5000 6000 7000 8000 9000 10000
Volume (mm³) Volume (mm³)
c)NBI d)NNC
Tabela 4.1 Placa quadrada com um orifício central – Desempenho dos algoritmos.
WS Min-Max NBI NNC
FEM 4902.0s 3846.2s 3444.3s 4613.7s
RBM (37.4 s) 21.5s 5.2s 7.3s 7.8s
65
Ponto de Pareto - 1 Ponto de Pareto - 3 Ponto de Pareto - 5
Figura 4.13 Placa quadrada com um orifício central – Tensões von Mises (N/mm²) na
configuração deformada, dos projetos para pontos de Pareto ótimos
obtidos pelo método NBI.
q = 1 W/m²
Ta = 20 ºC
66
As propriedades do material são E= 10³ MPa, o coeficiente de Poisson υ = 0.2, co-
eficiente de convecção h = 10 W/m² ºC, a condutividade térmica κx = κy = 1 W/(mK), o
coeficiente de dilatação térmica α = 10-4 ºC-1 e as condições de convecção são para
temperatura ambiente Ta = 20ºC. Quatro parâmetros (variáveis de projeto), indicados na
Figura 4.14 (a) serão considerados na otimização. São eles: as espessuras t1, t2 e as dis-
tâncias horizontais L1, L2 indicadas na figura acima. A aproximação foi construída de
forma que os parâmetros μ=( t1, t2, L1, L2 ) pertençam ao espaço de projeto Dμ =
[0.5;5]2 × [10,21]× [28,38] . Para o presente problema o número de amostras consideradas foi
N=30, baseado no estudo realizado no capítulo 2, seção 2.5.2.
A discretização do domínio real (projeto inicial) onde μ1 = 2, μ2 = 2, μ3 = 19, μ4 =
31 e o domínio de referência (1976 graus de liberdade para o problema elástico e 1023
para o térmico) se encontram, respectivamente, na Figura 4.15 (a) e (b). A otimização
será conduzida considerando os seguintes objetivos: Minimização da temperatura má-
xima e minimização da tensão Von Mises máxima. Além dos limites das variáveis, o
volume inicial deve ser mantido constante. As soluções OM serão obtidas considerando
15 pontos de Pareto.
A Figura 4.16 apresenta a distribuição de Pontos Pareto para os métodos aqui con-
siderados. As curvas de Pareto obtidas pelo MEF e MBR estão de acordo. Como pode-
se observar, as soluções via o método WS e o Min-Max apresentam regiões vazias na
fronteira de Pareto esperada, o WS ainda apresenta pontos sobrepostos. Já os métodos
NBI e NNC conseguiram obter pontos bem distribuídos em todas as partes da fronteira
de Pareto.
67
a)WS b)Min-Max
c)NBI d)NNC
Pode-se obter qualquer ponto de Pareto de um problema qualquer, tanto pelo NBI
como pelo NNC, resolvendo um subproblema com um determinado vetor β associado
(Equações (4.14), (4.16) e (4.19)). Porém no caso de problemas com mais de duas fun-
ções objetivo, as componentes do vetor β não são necessariamente não-nulas. Encon-
68
trar pontos sobre toda a fronteira de Pareto em problemas com muitas funções objetivo
ainda é um problema em aberto (ARORA, MESSAC e MULLUR, 2007).
Como exemplo, considere a Figura 4.17 (a) (DAS e DENNIS, 1996) onde é apre-
sentado o espaço de três funções objetivo de um problema qualquer. Caso o vetor β só
tenha componentes positivas, as Equações (4.11) e (4.16) indicam que apenas é possível
encontrar pontos partindo do interior do triângulo formado por F(X1*), F(X2*) e F(X3*)
(vide Figura 4.17 (b)), desprezando deste modo, a região da fronteira de Pareto adjacen-
te, incluindo os arcos F(X1*)F12*F(X2*), F(X1*)F13*F(X3*) e F(X2*)F23*F(X3*).
Além disto, os pontos podem recair sobre uma região fora da superfície de Pareto, é o
que ocorre neste caso. Como podemos observar na Figura 4.17, uma parte do segmento
de reta F(X1* ) F(X3* ) , se projeta no exterior da região de Pareto. Neste caso o NBI irá
encontrar um ponto não-Pareto, devido a sua restrição rígida (de igualdade). Já o ótimo
encontrado através do NNC, pode se deslocar para a região de Pareto, devido à suas
restrições mais flexíveis (de desigualdade).
A Figura 4.17 (b), apresenta os pontos θβ (Equação (4.11)) na ECMI (para o NBI)
ou os pontos X j (Equação (4.16)) no plano utópico (para o NNC), para coeficientes β
normalizados igualmente espaçados. Nota-se que os métodos só se preocupam com a
região formada pelos pontos F(X1*), F(X2*) e F(X3*).
F12*
F13*
F23*
a) Frente de Pareto
69
b) Pontos base para os sub-problemas
Figura 4.17 Problema com 3 funções objetivo (DAS e DENNIS, 1996),
a) Frente de Pareto no espaço de três funções objetivo, b) Pontos base para a definição
dos sub-problemas de otimização dos métodos NBI e NNC.
70
Figura 4.18 Problema com 3 funções objetivo – Distribuição dos pontos.
71
4.5.1 Exemplo geométrico com 3 funções objetivo
Considere o problema definido na Figura 4.19, a qual ilustra o espaço das (duas)
variáveis de projeto. Serão considerados três objetivos, são eles minimizar a distância
do ponto definido pelas variáveis, aos pontos A, B e C. Tem-se ainda a restrição que o
espaço viável exclui o circulo preto indicado na Figura 4.19, ou seja, a distância do pon-
to definido pelas variáveis, ao ponto D deve ser maior que 0.5.
A Figura 4.20 (a) ilustra a região ótima exata dos pontos de Pareto, indicada pela
cor azul. As figuras seguintes apresentam os resultados obtidos para as diferentes técni-
cas, onde cada ponto azul indica o valor da variável de projeto para cada subproblema
otimizado. Na legenda de cada figura, a partir da letra (b), se encontram o método utili-
zado e, entre parênteses, o número total de funções avaliadas, utilizadas pelo método.
Nota-se, novamente, os espaçamentos vazios entre as soluções do método da soma
ponderada e o grande numero de funções calculadas. O Min-Max já apresenta um resul-
tado melhor apresentando uma boa definição dos contornos da região de ótimos e um
numero bem menor de funções avaliadas, porém com poucos resultados centrais. O
NNC e o NBI, apresentam pontos bem distribuídos, porém apresentando soluções não-
Pareto, principalmente o NBI, por motivos já citados. Ambos os métodos também reali-
zaram um grande número de avaliações de funções, isto ocorreu principalmente, devido
a procura de pontos viáveis em sub-problemas mal formulados sem região viável. O
NBIm, foi o que melhor cobriu a região de ótimos, com pontos relativamente bem dis-
tribuídos e contorno definido, foi também, o que utilizou o menor número de avaliações
de funções entre os métodos investigados.
72
c) Min-Max (3802) d) NBI (7553)
73
a) WS (7092)
b) Min-Max (6090)
c) NBI (3281)
74
d) NNC (5617)
e) NBIm (2748)
Como exemplo, foi considerada a placa engastada do exemplo 4.4.3 com condições
de contorno, para o problema estático e de transferência de calor, diferentes, mostradas
na Figura 4.22.
75
Figura 4.22 Definição do problema - Condições de contorno.
76
a) WS b) Min-Max
c) NBI d) NNC
e) NBIm
4.6 REFERÊNCIAS
77
ARORA J. S.; MESSAC, A.; MULLUR, A. A. “OPTIMIZATION OF STRUCTURAL
AND MECHANICAL SYSTEMS. Chapter 4 - Multiobjective Optimization: Concepts
and Methods”. Jasbir S Arora, University of Iowa, USA, 2007.
DAS, I.; DENNIS, J.E. Normal Boundary Intersection: A New Method for Generating
Pareto Surface in Nonlinear Multicriteria Optimization Problems. SIAM J. Optimiza-
tion, Vol. 8, No. 3, pp. 631-657, 1996.
MESSAC, A.; MATTSON C.A. “Normal constraint method with guarantee of even
representation of complete Pareto frontier”, 45th AIAA/ASME/ASCE/AHS/ASC Struc-
tures, Structural Dynamics & Material Conference, Palm Springs, CA, 2004.
78
79
CAPÍTULO 5
OTIMIZAÇÃO CONSIDERANDO
INCERTEZAS
5 OTIMIZAÇÃO CONSIDERANDO INCERTEZAS
5.1 INTRODUÇÃO
80
trivial decidir um valor apropriado para os fatores de segurança (KEANE e NAIR,
2005).
Neste capítulo, serão examinadas algumas abordagens para a consideração das in-
certezas no processo de otimização e assim obter projetos robustos. Isto contrasta com
as abordagens que utilizam o fator de segurança, nos quais os parâmetros incertos não
são explicitamente incorporados na formulação do projeto.
Projetos robustos requerem que seu desempenho pouco se altere quando exposto à
incertezas. Várias medidas de robustez foram propostas, incluído medidas de esperança
e de dispersão. Em particular, a esperança e a variância são as medidas básicas usadas
para otimização robusta (DOLTSINIS e KANG, 2004; BEYER et al, 2007;
SCHUËLLER e JENSEN, 2008). Quando usa-se estas medidas, à busca por um projeto
robusto ótimo, surge com um problema de decisão com múltiplos critérios. Por exem-
plo, ao otimizar a esperança pode se encontrar um valor alto de dispersão ou variância,
o que em geral não é desejável. Nestes casos há uma “negociação” (trade-off) entre o
valor médio e a variância, então uma solução combinada deve ser encontrada (otimiza-
ção multiobjetivo robusta - OMR). Alternativamente, pode ser usada alguma das meto-
dologias descritas no Cap. 4 para geração de um conjunto de soluções ótimas de Pareto
que são possíveis candidatas à solução.
Prob [ A ∩ B ]
(5.4) Prob ⎡⎣ A B ⎤⎦ = (5.4)
Prob [ B ]
81
5.2.1 Variáveis Aleatórias
Variáveis aleatórias são funções de um espaço amostral que assumem valores nu-
méricos através de um mapeamento do fenômeno aleatório associado. Elas podem ser
de dois tipos: discretas ou contínuas. Variáveis aleatórias discretas podem assumir ape-
nas um número finito de valores. Variáveis aleatórias contínuas podem assumir infinitos
valores distintos, em geral são valores reais de alguma medida. Neste trabalho serão u-
sadas apenas variáveis aleatórias contínuas reais.
Para toda variável aleatória real, existe uma função chamada de Função Densidade
de Probabilidade (“Probability Density Function” - PDF) P (ξ ) que define a distribui-
ção de ocorrências de ξ ∈ associada a um fenômeno aleatório, tal que (MEYER,
1983):
b
(5.5) Prob(a ≤ ξ ≤ b) = ∫ P(ξ )dξ ∀a, b ∈ ea≤b (5.5)
a
x
(5.6) Fξ ( x) = ∫ P(ξ )d ξ ∀x ∈ (5.6)
−∞
Se ξ é uma variável aleatória, então uma função qualquer f (ξ ) também será, po-
rém com uma PDF própria associada. As PDFs são dependentes de parâmetros, os quais
podem possuir interpretações práticas, tais como o seu valor médio ou média f (ξ ) e a
sua variância υ. Matematicamente, a média em relação a uma função aleatória é cha-
mada de esperança da função E [ f (ξ ) ] , calculado como
∞
(5.7) f = E [ f (ξ ) ] = ∫ f (ξ ) P(ξ )d ξ (5.7)
−∞
ou
( f (ξ ) ) P(ξ )dξ − ( f )
∞
(5.9) σ 2f = E ⎡⎣ f (ξ ) 2 ⎤⎦ − ( f ) = f 2 −( f )
2 2 2
=∫ 2
(5.9)
−∞
82
onde σ f é a raiz quadrada da variância de f (ξ ) , conhecida como desvio padrão.
(5.10) μk = E ⎡( f (ξ ) − f ) ⎤⎥⎦ = ∫ ( f (ξ ) − f )
k ∞ k
Estes momentos serão úteis aqui, para o cálculo de duas outras estatísticas: a obli-
qüidade ("skewness") e a curtose (“kurtosis”). A obliqüidade é uma medida da assime-
tria de uma determinada distribuição, enquanto que a curtose é uma medida de dispersão
que caracteriza o "achatamento" da curva da função de distribuição e são definidas res-
pectivamente por:
μ3 μ4
(5.11) s = e κ= −3 (5.11)
σ3 σ4
−1/2
⎡ ⎤
2
⎛ ξ −μ ⎞
⎜ ⎟
(5.12) P (ξ ) = ⎢ 2πσ e⎝ σ ⎠ ⎥ (5.12)
⎢⎣ ⎥⎦
Sua formula padrão N ( 0,1) considera média igual a zero e desvio padrão unitário:
( )
2 −1/2
(5.13) P (ξ ) = 2π eξ (5.13)
83
A Figura 5.1 apresenta o gráfico da PDF normal padrão.
0.35
0.3
0.25
P(x)
0.2
0.15
0.1
0.05
0
-3 -2 -1 0 1 2 3
x
Esta distribuição é muito usada para variáveis aleatórias que só aceitam valores po-
sitivos, pois ela é definida apenas para valores reais maiores do que zero. Quando sua
média se afasta de zero, com um valor fixo do desvio padrão, a distribuição Lognormal
se aproxima de uma distribuição Normal. A PDF Lognormal é definida como:
1 ⎛ − ln (ξ a )2 ⎞ 1⎛ ln (ξ / a )
⎞
−1 2
(5.15) P (ξ ) = exp ⎜
⎜
⎟=
⎟ ⎜ b 2π ( ξ a ) b
⎟ (5.15)
ξ b2π ⎝ 2b ⎠ x⎝ ⎠
μ σ
onde b = ln(c 2 + 1) , a = e c=
é o coeficiente variacional definido apenas
c +1 X 2
para variáveis aleatórias com médias não-zero. A Figura 5.2 apresenta o gráfico da PDF
Lognormal com variância unitária para diferentes valores de média.
84
Pdf Lognormal com variância 1
1
0.9 Media 1
Media 2
0.8 Media 6
0.7
P(x) 0.6
0.5
0.4
0.3
0.2
0.1
0
0 2 4 6 8 10
x
Figura 5.2 Função densidade de probabilidade Lognormal para valores distintos de mé-
dia.
85
5.3.1 Método de Monte Carlo
O método de Monte Carlo é o mais popular método não-intrusivo e pode ser utili-
zado para qualquer problema de propagação de incerteza (KEANE e NAIR, 2005). Da-
do uma distribuição conjunta de probabilidade das variáveis aleatórias envolvidas, o
método de MC pode ser aplicado para o cálculo aproximado da estatística da resposta de
interesse, incluindo sua distribuição, com um nível de erro arbitrário, desde que seja
fornecido um número suficiente de amostras. Esta abordagem é utilizada também para
validar outras técnicas, no cálculo das estatísticas. No método de MC as funções f (ξ )
de interesse, são calculadas em m pontos ξ (i ) , i = 1… m gerados aleatoriamente a partir
de suas distribuições P (ξ ) , então as integrais das Equações (5.7) e (5.9) são aproxima-
das, respectivamente, por:
1 m
(5.16) f f MC = ∑ f (ξ (i ) )
m i =1
(5.16)
1 ⎡m 2⎤
(5.17) σ [ f (ξ ) ] = σ 2f
2
σˆ 2f = ⎢ ∑
m − 1 ⎣ i =1
( f (ξ (i ) ) 2 ) − m ( f MC ) ⎥ (5.17)
⎦
∂f (x, ξ ) ∂f MC 1 m ∂f (x, ξ (i ) )
(5.18) = ∑ (5.18)
∂x ∂x m i =1 ∂x
86
∂ (σ 2f ) ∂ (σˆ 2f ) 1 ⎡m ⎛ ∂f (x, ξ (i ) ) ⎞ ∂f MC ⎤
(5.19) = ⎢ ∑ ⎜ 2 f ( x, ξ ( i ) ) ⎟ − 2m ( f MC ) ⎥ (5.19)
∂x ∂x m − 1 ⎣ i =1 ⎝ ∂x ⎠ ∂x ⎦
1 2 −1/2 ∂ (σˆ f )
∂σˆ f
2
1 ⎡m ⎛ ∂f (x, ξ (i ) ) ⎞ ∂f ⎤
(5.20) = (σˆ f ) = ⎢ ∑ ⎜ f ( x, ξ ( i ) ) ⎟ − m ( f MC ) MC ⎥
∂x 2 ∂x σˆ f ( m − 1) ⎣ i =1 ⎝ ∂x ⎠ ∂x ⎦
(5.20)
(a) Exemplo
87
mantendo a mesma amostra ξ para todos os pontos de x (“seed” fixo) e gerando uma
nova amostra aleatória para cada ponto de x (“seed” aleatório).
Na Figura 5.3 (a) é apresentado o gráfico de f ( x) (média de f ( x, ξ ) ) em função
de x, calculada por quatro procedimentos diferentes:
1. Cálculo analítico já mencionado,
2. Cálcular via PCM com 3 pontos de integração,
3. Aproximar f MC ( x) utilizando a mesma amostra para todos os pontos (“seed” fixo)
4. Aproxima f MC ( x) utilizando uma amostra diferente para cada ponto de x (“seed”
aleatório).
Nos itens 3 e 4, o MC foi feito com 30 pontos. Para a função utilizada neste exem-
plo, o PCM com 3 pontos encontra a resposta exata da média e do desvio padrão (este
método será tratado adiante), por isso as curvas da solução analítica e da solução por
PCM estão sobrepostas (exato* (PCM)).
a) b)
Figura 5.3 Monte Carlo: a) Gráfico da média de f ( x, ξ ) e b) Gráfico do erro
f MC ( x) − f ( x) .
88
x2 2 (1 + x − x 2 ) df MC x 1
(5.21) f MC ( x) = ξ −ξ e ( x, ξ ) = (3ξ 2 + 10ξ ) − ξ (5.21)
10 3 dx 15 3
A geração das amostras pode ser feita de maneira totalmente aleatória (ou pseudo-
aleatória), ou utilizando técnicas mais eficientes para o plano de amostragem (“Design
of experiments” – DoE) (GIUNTA et al, 2002) tal como o método LHS (“Latin Hiper-
cube Sampling”) que melhora a distribuição dos pontos da amostra e conseqüentemente
aumenta a convergência do MC. As amostras com distribuição Lognormal são geradas a
partir de amostras com distribuição Normal, estas são geradas a partir de amostras com
distribuição Uniforme. A geração computacional desta ultima é feita através de algorit-
mos determinísticos, capazes de gerar recursivamente uma sequência finita de números
inteiros ou de ponto flutuante, com um determinado período, sendo por isso chamados
de números pseudo-aleatórios.
No presente trabalho as metodologias utilizadas para a geração das amostras serão
uma técnica pseudo-aleatória e o LHS. Na primeira abordagem será considerado o algo-
ritmo “Mersenne Twister” (MT) (MATSUMOTO, 1998) para a geração de amostras
com distribuição uniforme, seguido por um algoritmo polar para obter as amostras com
distribuição Normal. Ambos os algoritmos usados são do ambiente MATLAB 7.5
(MATHWORKS, 2007).
O LHS é um método utilizado para a geração de uma amostra que cubra mais efici-
entemente o espaço das variáveis aleatórias, para um determinado número de pontos. A
sua idéia básica é dividir o intervalo de cada uma das n dimensões da amostra pelo nú-
mero de pontos pretendidos N, onde cada subintervalo tem a mesma probabilidade de
ocorrência. Os N pontos são dispostos de forma que cada subintervalo de cada uma das
n variáveis tenha apenas um ponto, para mais detalhes vide (BARÓN, et al , 1999). As
amostras LHS são geradas a partir de uma amostra aleatória com distribuição normal, a
qual é ajustada para que as distribuições marginais de cada variável se aproxime da sua
distribuição de probabilidade teórica (STEIN, 1987).
Quando se faz o cálculo das estatísticas de uma amostra de variáveis aleatórias ge-
radas por alguma das técnicas mencionadas, em geral esses parâmetros não apresentam
os mesmos valores originais das variáveis aleatórias, calculados através das PDF das va-
riáveis. Estes parâmetros são desejados, pois, como se pode notar na aproximação de
MC do exemplo anterior, eles estão diretamente ligados à convergência da aproxima-
89
ção. Pode-se ver no exemplo anterior, que quanto mais esses valores se aproximam de
seus valores originais, melhor será a aproximação do MC para esta amostra.
Deste modo, como será utilizada a mesma amostra-base, durante todo o processo de
otimização, foi criada uma estratégia para a seleção de uma amostra, escolhida a partir
de um conjunto de amostras. A amostra selecionada será a que apresentar as estatísticas
mais próximas da desejada, a partir de uma determinada norma.
Para a distinção das amostras foi proposta uma função que faz uma ponderação do
erro (de forma empírica) das estatísticas da amostra. As amostras são geradas conside-
rando uma distribuição Normal padrão ∼ N ( 0,1) . Essa equação empírica, que qualifica
as amostras, faz a ponderação dos logaritmos dos erros quadráticos dos momentos cen-
trais estatísticos das amostras, dando maior peso aos momentos de maior ordem. Esta
função é definida como:
ln ( (σ x − 1) 2 ) ln ( s 2 ) ln (κ 2 )
(5.22) FErr = ln ( μ 2
)+ + + (5.22)
2 6 24
90
No caso das amostras LHS selecionadas, para cada uma das 50 repetições feitas,
um conjunto diferente de cinco mil amostras foi analisado, consequentemente 50 amos-
tras selecionadas diferentes foram obtidas (totalizando 250.000 amostras analisadas e 50
selecionadas), para cada tamanho de amostra diferente.
Na Figura 5.4 é apresentado o gráfico da do erro médio de f MC , para os diferentes
tamanhos de amostras (de 64 até 16384) pelos três tipos de amostragem. O erro foi me-
dido em relação à média exata f calculada simbolicamente pelo do MATLAB, através
das Equações (5.7), (5.8) e (5.13).
a) b)
Figura 5.4 Erro médio na aproximação por MC utilizando três técnicas de amostragem
diferentes: totalmente aleatória, LHS padrão e LHS selecionada: a) Erro da média e b)
Erro do desvio padrão.
Como se pode observar na Figura 5.4 (a) a amostra LHS Selecionada apresentou
melhor resultado no cálculo da média para tamanhos de amostras menores, porém à me-
dida que o número de pontos aumenta a diferença entre as amostras LHS diminui, sendo
necessário um conjunto maior de amostras para extrair uma que se sobressaia significa-
tivamente. Os resultados da LHS Selecionada chega a apresentar um erro médio maior
que o LHS simples para amostras maiores. Já para o cálculo do desvio padrão os resul-
tados não foram muitos diferentes, quando se compara o LHS com o LHS Selecionado.
No gráfico nota-se também, a convergência mais acentuada do LHS em relação à amos-
tra totalmente aleatória*, para o cálculo da média e do desvio padrão.
Para este caso simples o custo computacional do LHS Selecionado não justificaria o
seu uso, pois o tempo de CPU pra se gerar uma amostra LHS é maior que a propia ava-
liação da função f ( X , Y ) . Porém, para problemas em que o custo computacional, de se
gerar e avaliar uma amostra LHS, é irrelevante em comparação ao custo do cálculo da
função de interesse, o processo de seleção amostral mostrou-se adequado para os casos
aqui considerados (seção 5.4.2). Assim sendo, nos exemplo analíticos posteriores serão
usadas amostras LHS padrão, enquanto que nos exemplos práticos o processo de sele-
ção amostral será empregado.
91
5.3.3 Método da Colocação Probabilística (PCM)
Métodos tradicionais como o MC, mesmo com técnicas de amostragem que melho-
ram sua eficiência, são inviáveis para serem aplicadas diretamente em modelos comple-
xos de alta fidelidade. O Método da Colocação Probabilística (“Probabilistic Collocati-
on Method” - PCM) (RAMAMURTHY, 2005) é uma ferramenta desenvolvida visando
uma análise de incerteza eficiente em modelos complexos e computacionalmente custo-
sos. A idéia básica do PCM é aproximar a resposta do modelo em função das variáveis
aleatórias, por funções polinomiais, e estimar as integrais das Equações (5.7) e (5.9) por
Quadratura de Gauss (STOER e BULIRSCH, 1991). Em particular, um PCM de grau n-
1, aproxima a resposta do modelo por uma função polinomial de grau 2n-1, através de n
pontos calculados, obtendo de forma exata as estatísticas de funções polinomiais de
grau menor ou igual a 2n-1.
Este método é indicado principalmente para problemas onde as funções de interesse
são suaves, pois as aproximações polinomiais podem apresentar dificuldades para fun-
ções oscilatórias ou com singularidades. Além disso, o número de variáveis aleatórias
consideráveis deve ser pequeno, pois o número de pontos necessários, para a aproxima-
ção de um mesmo grau, aumenta exponencialmente com o número de variáveis aleató-
rias. Esta dificuldade pode ser superada utilizando técnicas de integração por grades es-
parsas (“sparse grids) (HEISS e WINSCHEL, 2008).
O PCM se baseia nos conceitos de Quadratura de Gauss e de polinômios ortonor-
mais. A idéia básica do método é aproximar a função de interesse por funções polinomi-
ais e calcular as integrais (5.7) e (5.9) por quadratura de Gauss. Então, antes de explanar
sobre os pormenores da estrutura do PCM, é necessário apresentar os assuntos supraci-
tados.
Polinômios são ditos ortogonais entre si com relação a um produto interno relacio-
nado a um espaço, se este for nulo. Todo produto interno em um dado espaço F , de
funções reais f, g e h pertencentes a F , deve satisfazer as seguintes condições (APOS-
TOL, 1967):
f , g + h = f , g + f ,h
α f , g = α f , g = f , α g , onde α é um escalar
(5.23) (5.23)
f , g = g, f
f , f > 0, se f ≠ 0
92
(5.24) f ( x ) , g ( x ) = ∫ f ( x ) g ( x ) P( x)dx (5.24)
F
i
(5.25) hi ( x) = ai ,0 + ai ,1 x + ai ,2 x 2 ... + ai ,i x i = ∑ ai , j x j (5.25)
j =0
⎧1, para i = j
(5.26) hi ( x), h j ( x) = ⎨ (5.26)
⎩0, para i ≠ j
h0 ( x ) , hi ( x ) = 0, ∫ h ( x ) P( x)dx = 0,
i i>0
F
(5.27) (5.27)
h0 ( x ) , h0 ( x ) = 1, a ∫ P ( x)dx = 1
0,0
2
F
93
(5.28) ∫ f ( x) P ( x ) dx
F
(5.28)
⎛ n −1 ⎞ ⎛ n −1 ⎞
(5.29) f ( x) fˆ ( x) = ⎜ ∑ bi hi ( x) ⎟ + hn ( x) ⎜ ∑ ci hi ( x) ⎟ (5.29)
⎝ i =0 ⎠ ⎝ i =0 ⎠
(5.30) ∫ f ( x ) P ( x ) dx
F
b0 h0 ∫ P ( x ) dx
F
(5.30)
⎡ f ( x1* ) ⎤ ⎡ h0 hn −1 ( x1* ) ⎤ ⎡ b0 ⎤
⎛ n −1
⎞ ⎢ ⎥ ⎢ ⎥⎢ ⎥
(5.31) f ( xi* ) = ⎜ ∑ b j h j ( xi* ) ⎟ ; ou ⎢ ⎥=⎢ ⎥⎢ ⎥ (5.31)
⎝ j =0 ⎠ ⎢ * ⎥ ⎢ hn −1 ( xn* ) ⎥⎦ ⎢⎣bn −1 ⎥⎦
⎣ f ( xn ) ⎦ ⎣ h0
−1
⎡ h0 hn −1 ( x1* ) ⎤
⎢ ⎥
(5.32) Ap = ⎢ ⎥ (5.32)
⎢ h0 hn −1 ( xn* ) ⎥⎦
⎣
94
⎡ b0 ⎤ ⎡ f ( x1* ) ⎤
⎢ ⎥ n
(5.33) ⎢⎢ bi ⎥⎥ = Ap ⎢ f ( xi* ) ⎥ , logo b0 = ∑ Ap1,i f ( xi* ) (5.33)
⎢⎣bn −1 ⎥⎦ ⎢ f ( xn* ) ⎥ i =1
⎣ ⎦
Definindo-se
Restando apenas avaliar a resposta f ( xi* ) em cada ponto de integração, para então
calcular o valor desejado:
n
(5.35) ∫ f ( x) P( x)dx C0 ∑ Pi f ( xi* ) (5.35)
F
i =1
Vale ressaltar que não é necessário calcular estes parâmetros para as funções de dis-
tribuição conhecidas, pois estes valores são conhecidos e podem ser encontrados na lite-
ratura, bem como em bibliotecas computacionais da maioria dos programas.
95
ponderação. Portanto tem-se que ∫F
P(ξ )dξ = 1 e pela segunda propriedade em (5.27)
h0 = 1 , consequentemente a constante C0 = 1 (definida pela Equação (5.34)). Com isso
o valor da integral (5.30) é aproximado apenas por b0 . Os polinômios ortonormais são
definidos para cada PDF. A média e o desvio padrão de uma resposta de interesse serão
aproximados pelo PCM da seguinte forma:
n
f PC = ∑ Pi f (ξ*(i ) )
i =1
(5.36) n
(5.36)
σˆ 2
PC = ∑ Pi f (ξ ) − f PC
* 2
(i )
2
i =1
∂f (x, ξ ) ∂f PC m ∂f (x, ξ (i ) )
(5.37) = ∑ Pi (5.37)
∂x ∂x i =1 ∂x
∂ (σ 2f ) ∂ (σˆ PC
2
) m
⎛ ∂f (x, ξ (i ) ) ⎞ ∂f PC
(5.38) = ∑ ⎜ 2 Pi f (x, ξ (i ) ) ⎟ − 2 f PC (5.38)
∂x ∂x i =1 ⎝ ∂x ⎠ ∂x
96
Para problemas com muitas variáveis aleatórias pode-se utilizar técnicas de grades
esparsas (“sparse grids”) baseadas nas regras de Smolyak (1963) para integração multi-
variável, diminuindo consideravelmente o número de pontos de colocação, para mais
detalhes vide (HEISS e WINSCHEL, 2008).
Será mostrado aqui, como encontrar cada valor ξ (*i ) , i = 1..n , raízes do polinômio
hn (ξ ) e os coeficientes de ponderação Pi , porém estes valores apenas devem ser calcu-
lados uma única vez para cada distribuição e seus valores devem ser armazenados para
serem usados em problemas diversos. No nosso caso, será tratada apenas a distribuição
normal padrão ∼ N ( 0,1) , pois os mesmos valores podem ser aplicados a uma distribui-
ção normal com parâmetros diferentes, bem como a uma distribuição Lognormal, atra-
vés de uma transformação de variáveis.
Os polinômios ortogonais para uma distribuição gaussiana são conhecidos como
polinômios Hermitianos. Como exemplo, será calculado os coeficientes ai ,k , k = 0..i
dos polinômios ortonormais hi (ξ ), i = 0..n , os quais foram definidos na Equação
(5.25), usando como função de ponderação a PDF Normal padrão (Equação (5.13)). Isso
será feito até ser encontrado o polinômio ortonormal do primeiro grau, ou seja, i = 0,1 ,
através das relações descritas na Equação (5.26) e sabendo que para uma distribuição
∞ ∞
normal padrão ∫−∞
ξ P(ξ )d ξ = 0 , ∫
−∞
ξ 2 P(ξ )dξ = 1 e ξ ∈ , obtém-se:
h0 (ξ ), h0 (ξ ) = 1
(5.40) ∞ (5.40)
a0,0 2 ∫ P(ξ )dξ = 1
−∞
h0 (ξ ), h1 (ξ ) = 0
∫ ( a )( a + a ξ ) P(ξ )dξ = 0
∞
(5.41) 0,0 1,0 1,1 (5.41)
−∞
∞ ∞
a ∫ P(ξ )dξ + a ∫ ξ P(ξ )dξ = 0
1,0 −∞ 1,1 −∞
h1 (ξ ), h1 (ξ ) = 1
logo, a1,1 = 1 .
97
Portanto, os dois primeiros polinômios ortonormais são: h0 (ξ ) = 1 e h1 (ξ ) = ξ . Para
se encontrar um polinômio de grau j, a partir dos polinômios de menor grau já calcula-
dos (de 0 à j-1), resolve-se um sistema de j+1 equações não lineares definidos na Equa-
ção (5.26), onde i = 0...j . Assim o seguinte sistema é resolvido:
∞ ⎛ i ⎞⎛ j ⎞ ⎧0, i ≠ j
(5.43) hi (ξ ), h j (ξ ) = ∫ ⎜ ∑ ai ,k ξ k ⎟ ⎜ ∑ a j ,k ξ k ⎟ P(ξ )d ξ = ⎨ (5.43)
−∞
⎝ k =0 ⎠ ⎝ k =0 ⎠ ⎩1, i = j
onde ξ ' será o vetor das raízes do polinômio ortonormal com relação à uma distribuição
normal ∼ N ( μ , σ ) . Os pesos P são os mesmos para este caso, bem como para o caso de
uma distribuição lognormal.
Através de uma transformação de variáveis inversa à citada na Equação (5.14), se
obtém as raízes ξ 'log do polinômio ortonormal para uma distribuição lognormal. Esta
transformação é realizada da seguinte forma:
98
onde
⎛ μ2 ⎞ ⎛σ 2 ⎞
(5.46) η = ln ⎜ ⎟ e θ = ln ⎜ 2 + 1⎟ (5.46)
⎜ μ2 +σ 2 ⎟ ⎝μ ⎠
⎝ ⎠
para i = 0… n, e j = 0… i .
Estes polinômios ortonormais estão de acordo com os polinômios ortogonais encon-
trados na literatuda (WEBSTER et al, 1996), após normalização. Depois de encontrado
os polinômios ortonormais, pode-se encontrar os pontos de colocação calculando suas
raízes através da função “roots” do próprio MATLAB (MATHWORKS, 2007). Para o
polinômio ortonormal de nona ordem ( h9 (ξ ) ), encontra-se:
ξ* =
0
99
-4.512745863399775
4.512745863399775
-3.205429002856465
3.205429002856465
-2.076847978677832
-1.023255663789131
2.076847978677832
1.023255663789131
P=
0.406349206349205
2.2345844007746e-5
2.2345844007746e-5
2.789141321231750e-3
2.789141321231750e-3
4.9916406765217772e-2
0.244097502894940
4.9916406765217772e-2
0.244097502894940
100
5.3.4 Exemplos
1 NP 1
f (ξ ) = ∏
C i =1
( ξ − i (−1)i ) , ou f (ξ ) = (ξ + 1)(ξ − 2 )(ξ + 3) ... (ξ − 8 )
C
(5.47) NP
(5.47)
onde, C = ( N P !) ∏ −(−1) = 1(−2)3...7(−8)
i
i =1
Vale salientar que para o cálculo exato da média de um polinômio de 8º grau, são
necessários 5 pontos de colocação, pois 2n-1 = 9. Já para o cálculo do desvio padrão, a
função aproximada pelo PCM é a f (ξ ) 2 , o que leva a um polinômio de 16º grau, sendo
necessários 9 pontos de colocação (2n-1 = 17) para a convergência do PCM. A Tabela
5.1 ilustra o erro no cálculo da média e no desvio padrão pelo PCM, para aproximações
que utilizam de 3 até 9 pontos, onde nota-se a convergência esperada do método.
101
Como comparativo, a Tabela 5.2 ilustra a aproximação do mesmo caso por MC uti-
lizando amostras do LHS, onde se percebe a grande vantagem do PCM para este tipo de
caso.
Tabela 5.2 Aproximação da média e do desvio padrão via.
MC
Nº pontos Erro da média Erro do desvio padrão
103 0.001008014052612 0.000064040096951
209 0.000299157888075 0.001628113576030
327 0.000301517289170 0.000156040536578
481 0.000531314411038 0.000984779588322
743 0.000688695761748 0.001169150370338
1329 0.000185486317499 0.000273969426433
2887 0.000072895050160 0.000098277073118
7361 0.000036488736102 0.000024487079049
20583 0.000009992521449 0.000003760397742
60049 0.000002035240651 0.000005664316955
Figura 5.5 Teste de convergência dos métodos MC e PCM, para um caso polinomial.
(erro mínimo fixado em 10-10).
102
(b) Exemplo - Função Periódica
103
Note que, quanto menor o desvio padrão das variáveis aleatórias, mais “simples” se-
rá sua região de influência na função f ( X , Y ) (menos oscilações, i.e. picos e vales).
Como pode-se observar o PCM com 49 pontos se mostrou melhor para valores menores
de σ (menor região de abrangência), para todos as aproximações da média e do desvio
padrão. Já o MC apresentou um desempenho quase constante, não apresentando grande
variação na ordem de grandeza do erro com o aumento do desvio padrão.
Vale frisar que com os parâmetros utilizados neste exemplo, a solução via o PCM é
três ordens de grandeza mais rápido que o LHS-MC, devido a diferença no número de
pontos em que a função é avaliada por cada método (49 pontos o PCM e 50x10³ pontos
o MC).
Na Figura 5.7 é apresentada a superfície da função f ( X , Y ) , os pontos de coloca-
ção do PCM e os pontos de integração do MC, para o valor inicial de σ = 0.2 , o que da
uma idéia da região de abrangência inicial. Os resultados deste caso correspondem aos
indicados pelos inícios das curvas apresentadas na Figura 5.6.
104
(a)
(b)
Figura 5.8 Valores de σ = 1.6 (ou183°): (a) Pontos de colocação do PCM e (b) Pontos
de integração do MC.
105
(c) Exemplo – Função com singularidade
Neste exemplo serão testados o PCM e o MC para o caso de uma função não conti-
nuamente diferenciável, confrontando-os com a resposta exata. Considere a função
f ( x, ξ ) = x − ξ − ξ (1 + x − x 2 ) , onde ξ ∼ N ( 0,1) é a variável aleatória.
106
calculado por MC com 30 pontos. Para este caso o PCM apresentou erros maiores que
os obtidos usando MC.
Para melhor ilustrar as dificuldades enfrentadas pelo PCM, considere um caso par-
ticular da função do exemplo anterior, onde x=0: f (0, ξ ) = f (ξ ) = ξ − ξ onde
ξ ∼ N (1, 0 ) . Utilizando o PCM, aproximou-se a função f (ξ ) através da aproximação
apresentada na Equação (5.29) e verificou-se o seu comportamento com a variação no
grau dos polinômios utilizado.
A aproximação completa apresentada na Equação (5.29), uma vez determinado os
ξ tal que hn (ξ * ) = 0 , não necessita ser calculada, pois para qualquer valor de c a inte-
*
gral desejada (Equação (5.30) não tem seu valor alterado. Pode-se então definir qual-
quer valor aos coeficientes c. Neste estudo em particular foi analisada a forma de
fˆ (ξ ) para ci=0 e apenas os coeficientes b, foram encontrados.
Para diferentes graus aproximação, ou seja, para diferentes números de pontos de
colocação n, as várias aproximações obtidas estão apresentadas na Figura 5.11(a). Na
Figura 5.11(b) ilustra-se o gráfico de fˆ (ξ ) P (ξ ) , usada para a obtenção da média (E-
quação (5.7)), para os diferentes graus de aproximação. Em ambas as figuras a função
analítica (exata) é também apresentada.
Observa-se a oscilação da aproximação polinomial do PCM com o aumento do nú-
mero de pontos, mostrando a dificuldade na convergência do método para casos onde a
função a ser aproximada não é continuamente diferenciavel.
107
ξ
a)
ξ
b)
Figura 5.11 PCM para diferentes graus de aproximação, aplicadas para a: a) função
f (ξ ) e b) função f (ξ ) P(ξ ) .
A Figura 5.12 ilustra o erro no cálculo da média via PCM para vários graus de a-
proximação, onde observa-se a convergência não monotônica do PCM para este caso.
Onde o valor da média f (ξ ) , foi calculada analiticamente a partir da função f (ξ ) e da
PDF P (ξ ) e vale 0,79788456 (Equação (5.7)).
108
Figura 5.12 Variação do erro no cálculo da média via PCM com o número de pontos.
109
Achar tal x* que simultaneamente minimize f (x, ξ ) , para todos os ξ ∈ E , é o pro-
blema central da teoria da decisão estatística (KEANE e NAIR, 2005 Apud PRATT et
al, 1996; BARROS, 2009). Porém, esta condição não pode ser atingida na maioria dos
problemas, sendo necessário definir alguma medida de robustez que viabilize o proble-
ma, varias abordagens são usadas neste contexto. A primeira visa encontrar um x* que
minimiza o pior caso ( ξ ∈ E mais desfavorável para f (x, ξ ) ), ou seja,
Para problemas cujas variáveis aleatórias são continuas e ilimitadas e ainda não se
pode determinar o máximo da função avaliada em todos os ξ ∈ E , outras abordagens
podem ser consideradas. Visando diminuir o conservadorismo, pode-se considerar uma
região menor A(ξ, ε ) , ao invés de todo o domínio das variáveis aleatórias. Ou seja, a o-
timização é realizada sobre o pior caso dentro da região A(ξ, ε ) , neste caso
110
timizada, não sendo considerada esta, uma abordagem de pior caso, pois se teria o pior
caso com uma probabilidade de 50%. Quando w → ∞ tende-se a um pior caso com
uma probabilidade de 100% e apenas o desvio padrão passa a ser considerado, assim
Neste caso pode ser considerada a otimização do desvio padrão da função. Assim a so-
lução será o ponto onde há a menor variação da resposta de interesse, esta constitui a i-
déia central da otimização robusta.
A segunda abordagem, motivada pelo princípio de Bayes, tenta encontrar x* , tal
que
gi ( x ) ≤ 0 i = 1,...m
hj ( x) = 0 j = 1,...
xk ≤ xk ≤ xku k = 1,...ndv
onde E(.) é a esperança, definida na Equação (5.7), σ (.) o desvio padrão definido na
Equação (5.8), f é a função de interesse e x o vetor das variáveis de projeto.
111
Para a solução deste problema, as técnicas de MO apresentadas no Capítulo 5 serão
utilizadas.
Minimizar: ⎡⎣ E ( f ( μ , E 3 ) ) , σ ( f ( μ , E 3 ) ) ⎤⎦
sujeito à
E (τ eq ( i ) ( μ , E 3 ) ) + 3σ (τ eq (i ) ( μ , E 3 ) ) ≤ 7 MPa i = 1,...nel
V ( μ ) ≤ V0
Para o cálculo das estatísticas do problema, serão usados os dois métodos já men-
cionados o MC e o PCM. Para definir o número de pontos (tamanho da amostras) utili-
112
zados por cada método, foi realizado um teste de convergência apresentado na Figura
5.13, Tabela 5.3 e Tabela 5.4.
Os resultados do MC apresentam uma variabilidade, devido à aleatoriedade das
amostras. Para quantificar esta flutuação nos resultados do MC todo o processo de cál-
culo das estatísticas da flexibilidade, foi repetido 100 vezes, para cada tamanho de a-
mostra. E a partir destes dados foi calculado o desvio padrão dos resultados (“D. P.”), o
que permite quantificar de modo aproximado a variação dos parâmetros calculados pelo
MC para cada tamanho de amostra.
A Figura 5.13 apresenta os resultados do MC para a média (Figura 5.13(a)) e o des-
vio padrão (Figura 5.13 (b)), da flexibilidade. O tamanho das amostras (“Número de
pontos”) criadas por LHS foram variadas exponencialmente de 127 à 16255. As linhas
pretas indicam o intervalo de flutuação dos resultados do MC, ou seja os resultados do
MC variaram entre a linha preta superior e a linha preta inferior com uma certa freqüên-
cia. Considerando que um parâmetro estatístico calculado via MC segue uma distribui-
ção normal, o intervalo entre as linhas pretas ( μ ± σ ) compreende aproximadamente
58% das ocorrências da aproximação. Vale salientar que este estudo só foi possível gra-
ças ao desempenho computacional conseguido através do MBR.
Também foram analisados, para cada tamanho da amostra (“Número de pontos”),
os resultados das estatísticas com uma amostra selecionada, indicado pela curva azul,
amostra esta, utilizada no processo de otimização com MC utilizando uma amostra de
5000 pontos.
113
Tabela 5.3 Placa quadrada com um orifício central – Cálculo via MC
com amostra LHS selecionada, para a média e desvio padrão.
Tamanho
Média Desvio Padrão
da amostra
202 0.308530959713673 0.035326555620201
403 0.308550213518812 0.035410907482470
806 0.308556674596121 0.035455905892811
1613 0.308558482597648 0.035455246318295
3225 0.308559106575475 0.035453460837231
6451 0.308559457041847 0.035451940103915
12902 0.308559963766802 0.035455220139521
A Figura 5.14 apresenta as distribuições dos pontos Paretos obtidos para os méto-
dos aqui considerados para a otimização multiobjetiva, comparando os métodos de
Monte Carlo (MC) e o Método da Colocação Probabilística (PCM). Tendo em vista os
resultados obtidos na seção anterior, para o cálculo das estatísticas foram utilizados
5000 pontos para o MC e 5 pontos de colocação para o PCM. As curvas de Pareto via
MC e PC estão de acordo, mesmo com a grande diferença no número de pontos calcula-
114
dos. Como pode ser observado, soluções pelos métodos NBI e NNC são as que conse-
guem obter pontos uniformemente espaçados em todas as partes da fronteira de Pareto.
a)WS b)Min-Max
c)NBI d)NNC
Figura 5.14 Placa quadrada com um orifício central – Pontos de Pareto: a) WS, b) Min-
Max, c) NBI, d) NNC.
Tabela 5.5 Placa quadrada com um orifício central – desempenhos dos algoritmos.
(segundos) WS Min-Max NBI NNC
MC 5000 pontos 38 623 26 486 19 480 18 633
PC 5 pontos 60 43 31 28
REFERÊNCIAS
115
APOSTOL T. M. “Calculus, Volume 1, One-Variable Calculus with an Introduction to
Linear Algebra”. 2nd Edition, John Wiley & Sons, 1967.
KEANE, A. J.; NAIR P. B. Computational Approaches for Aerospace Design: The Pur-
suit of Excellence. John-Wiley and Sons. 602 p., August 2005.
BARÓN, J.H.; MAC NÚÑEZ LEOD, J.E. “SCALABILITY ON LHS SAMPLES FOR
USE IN UNCERTAINTY ANALYSIS OF LARGE NUMERICAL MODELS”. Inter-
national Conference on Safety and Reliability – ESREL ´99, Munich, Alemanha, 1999.
116
GAUTSCHI, W. “Orthogonal polynomials (in Matlab)”. Journal of Computational and
Applied Mathematics, Vol. 178, 2005, pp. 215-234, 2005.
117
CAPÍTULO 6
CONCLUSÃO E TRABALHOS FUTUROS
118
• Foram implementados os métodos: WS, Min-Max, NBI e NNC, além de uma
modificação no NBI para problemas com mais de duas funções objetivo, a fim
de obter os pontos de Pareto para problemas de otimização multiobjetivo, e seus
resultados mostraram concordância com os da literatura;
• Foram acoplados aos algoritmos de otimização multiobjetivo, as rotinas de oti-
mização estrutural através de ambos os modelos (real e aproximado);
• Uma rotina para o cálculo dos parâmetros estatísticos da resposta de interesse,
além de seus gradientes, através do método de MC, foi implementada, com dife-
rentes técnicas de amostragem (totalmente aleatória e LHS);
• Foi implementado um procedimento para o desenvolvimento e aplicação do
PCM para variáveis aleatórias de distribuições de probabilidade específica;
• Foram feitos estudos em funções analíticas, com o objetivo de avaliar o com-
portamento do método MC e PCM para algumas situações específicas.
• O MBR foi adaptado para considerar as variáveis aleatórias no espaço da base
reduzida;
• Além do MC, o PCM foi incorporado na rotina para o cálculo dos parâmetros es-
tatísticos e seus gradientes, para o processo de otimização estrutural através de
ambos os modelos (real e aproximado);
• Soluções robustas e/ou multiobjetivo foram obtidas para problemas contínuos
2D. Diferentes esquemas para a obtenção dos parâmetros estatísticos de interes-
se, bem como, para a obtenção da frente de Pareto, foram incorporados em um
algoritmo de SSO, de modo eficiente.
• Adaptar o MBR para análises que considerem as não linearidades físicas e geo-
métricas do problema.
• Implementar a integração do PCM por grades esparsas (“sparse grids”) para di-
minuir o número de pontos de integração em problemas com muitas variáveis
aleatórias.
• Automatizar, por meio de análise de erro, o cálculo do tamanho das amostras pa-
ra a base do MBR, bem como o número de pontos de integração para o cálculo
das estatísticas via MC e PCM.
121