Escolar Documentos
Profissional Documentos
Cultura Documentos
CONFIABILIDADE E SEGURANÇA
DAS ESTRUTURAS
1 INTRODUÇÃO A CONFIABILIDADE 1
1.1 CLASSIFICAÇÃO DE INCERTEZAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Incerteza intrínsica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Incerteza epistêmica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.3 Erro humano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.4 Precisão £ acurácia, erro aleatório £ erro sistemático . . . . . . . . . . . . . . . . . . . . 6
1.2 ELEMENTOS DE CONFIABILIDADE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1 Con abilidade: de nição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.2 Problema fundamental de con abilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 FALHAS QUE OCORREM AO LONGO DO TEMPO . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.1 Processos estocásticos e eventos extremos . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.2 Taxa de falhas constante e tempo entre falhas . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.3 Valor nominal de ações variáveis e distribuição de valores extremos . . . . . . . . . . . . . 15
1.3.4 Taxa de falhas dependente da idade ou taxa de falhas instantânea . . . . . . . . . . . . . 18
1.4 RISCOS: PROBABILIDADES E CONSEQUÊNCIAS . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4.1 Risco: de nição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4.2 Classi cação e exemplos de riscos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.4.3 Critérios de aceitabilidade para risco social . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.4.4 Análise qualitativa: matriz de risco . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4.5 Gestão de riscos tecnológicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.4.6 Custo esperado de falhas de sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1
2.1.1 Requisitos de projeto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.1.2 Estados limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.1.3 Equações de estado limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.1.4 Probabilidade de falha: medida da propensão à violação de estados limites . . . . . . . . 38
2.2 CONFIABILIDADE DAS ESTRUTURAS: DEFINIÇÃO E INTERPRETAÇÃO . . . . . . . . . 39
2.3 MODELOS DE RESISTÊNCIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.3.1 A resistência característica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.3.2 Concreto armado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.3.3 Aço estrutural laminado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.3.4 Outros materiais e propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.3.5 Incertezas de modelo da resistência de elementos estruturais . . . . . . . . . . . . . . . . . 48
2.3.6 Degradação da resistência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.4 MODELOS DE AÇÕES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.4.1 Vida de projeto e valor nominal de ações variáveis . . . . . . . . . . . . . . . . . . . . . . 56
2.4.2 Ação permanente em lajes (prédios) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.4.3 Ação variável de utilização em lajes (prédios) . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.4.4 Ação do vento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.4.5 Introdução ao problema de combinação de ações . . . . . . . . . . . . . . . . . . . . . . . 65
2.4.6 Interação e dependência entre ações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.4.7 Incertezas de modelo de ações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.5 PROJETO UTILIZANDO COEFICIENTES DE SEGURANÇA . . . . . . . . . . . . . . . . . . 69
2.6 FORMULAÇÃO DOS PROBLEMAS DE CONFIABILIDADE ESTRUTURAL . . . . . . . . . . 73
2.6.1 Problema de con abilidade dependente do tempo . . . . . . . . . . . . . . . . . . . . . . . 73
2.6.2 Problema de con abilidade estrutural típico . . . . . . . . . . . . . . . . . . . . . . . . . . 73
2.6.3 Problema de con abilidade estrutural independente do tempo . . . . . . . . . . . . . . . . 75
2.6.4 Problemas estáticos, quasi-estáticos e dinâmicos em con abilidade estrutural . . . . . . . 77
2.6.5 Nível da análise: elemento, ponto material ou global . . . . . . . . . . . . . . . . . . . . . 77
3 MÉTODOS DE TRANSFORMAÇÃO 79
3.1 INTRODUÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.2 MÉTODO DE PRIMEIRA ORDEM E SEGUNDO MOMENTO (FOSM) . . . . . . . . . . . . . 80
3.2.1 A transformação de Hasofer e Lind . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
3.2.2 Interpretação geométrica do índice de con abilidade . . . . . . . . . . . . . . . . . . . . . 80
3.2.3 O ponto de projeto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.2.4 Projeção da origem, vetor ® e cossenos diretores . . . . . . . . . . . . . . . . . . . . . . . 84
3.2.5 Generalização para problemas em Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.2.6 Equação de estado limite linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.2.7 Equação de estado limite não-linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.2.8 Solução numérica do problema de otimização . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.2.9 Transformação de Hasofer-Lind matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3.2.10 Algoritmo FOSM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.2.11 Variáveis aleatórias correlacionadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.3 MÉTODO DE CONFIABILIDADE DE PRIMEIRA ORDEM (FORM) . . . . . . . . . . . . . . 102
3.3.1 Distribuição conjunta de probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3.3.2 A transformação de Rosenblatt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.3.3 Transformação composta utilizando o modelo de Nataf . . . . . . . . . . . . . . . . . . . . 103
3.3.4 Transformação direta reversível . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
3.3.5 Comparação entre as transformações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
3.3.6 Algoritmo FORM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
3.4 MÉTODO DE CONFIABILIDADE DE SEGUNDA ORDEM (SORM) . . . . . . . . . . . . . . . 115
3.4.1 Aproximação parabólica baseada em curvaturas . . . . . . . . . . . . . . . . . . . . . . . . 115
3.4.2 Aproximação parabólica baseada em pontos . . . . . . . . . . . . . . . . . . . . . . . . . . 117
3.4.3 Índice de con abilidade equivalente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
3.5 CONCLUSÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
APÊNDICES 327
i
ii
Lista de Símbolos
w ponto amostral
X(w) ou X variável aleatória
x realização da variável aleatória X
µX média de X
σX desvio-padrão de X
σ2X variância de X
fX (x) função densidade de probabilidades de X
FX (x) função de distribuição cumulativa de probabilidades de X
iii
Con abilidade independente do tempo:
R con abilidade
pf probabilidade de falha
pfF O estimativa de primeira ordem da probabilidade de falha
pfSO estimativa de segunda ordem da probabilidade de falha
pfSY S probabilidade de falha de sistema
R resistência ou capacidade
S solicitação ou demanda
g(x) equação de estado limite
f domínio de falha
s domínio de sobrevivência
X espaço original de projeto (dimensões físicas)
Y espaço normal padrão (adimensional)
y = T(x) transformação para o espaço normal padrão
Jyx matriz Jacobiana da transformação y = T(x)
Jxy matriz Jacobiana da transformação inversa x = T¡1 (y)
x¤ ponto de projeto no espaço X
y¤ ponto de projeto no espaço Y
β índice de con abilidade
®2 coe cientes de sensibilidade
rg(y) vetor gradiente (derivadas de primeira ordem)
H(y) matriz Hessiana (derivadas de segunda ordem)
n número de variáveis aleatórias
nLS número de equações de estado limite
nit número de iterações para convergência
nS número de amostras em Simulação de Monte Carlo
M (x) modelo de alta delidade
f(x)
M meta-modelo ou surrogate model
xsup ponto de suporte para construção de meta-modelo
iv
Equações de projeto:
rk valor característico da resistência do material
sn valor nominal de uma ação
R() função resistência de elemento estrutural ou da estrutura
S() função que converte uma ação em seus efeitos
Rn (= R(rk )) valor nominal da resistência de elemento ou da estrutura
D ação permanente (gravitacional)
Q ação variável genérica
L ação variável de utilização
W ação variável provocada pelo vento
γR fator parcial aplicado à resistência do material
φ fator parcial aplicado à resistência do elemento estrutural
γS fator parcial aplicado às ações, ou aos seus efeitos
λ0 fator de segurança central
λG fator de segurança global
Otimização:
βT índice de con abilidade alvo
pf T probabilidade de falha admissível (máxima)
cf custo de falha
cef custo esperado de falha
cet custo esperado total
L( ) Função Lagrangeana
u Multiplicador de Lagrange
s Variável de folga (slack variable)
v
vi
PREFÁCIO
É obrigação do Médico informar ao paciente sobre os riscos associados às diferentes alternativas de trata-
mento. Cabe ao paciente decidir sobre estes riscos: cirurgia com maior taxa de sucesso mas risco de morte;
medicação com seus efeitos colaterais; homeopatia; nenhum tratamento; etc.
É dever do Advogado informar ao cliente sobre os riscos relacionados à estratégias alternativas de acusação
ou defesa. Cabe ao cliente, ciente destes riscos, decidir sobre a estratégia a ser adotada, e aceitar as conseqüências
desta escolha para sua causa: pleitear inocência sob risco de maior pena; admitir a culpa e reduzir a pena; alegar
loucura e terminar em um hospício, etc.
Por analogia, é obrigação do Engenheiro informar ao proprietário da obra sobre os riscos associados às
diferentes alternativas de concepção e execução. Cabe ao proprietário a decisão sobre qual alternativa adotar:
maior gasto inicial, com redução de custos esperados no ciclo de vida; economizar na obra e pagar por custos
futuros de falhas e de acidentes, etc.
Concordar com esta analogia implica em uma mudança de paradigma por parte dos pro ssionais de enge-
nharia. Seja esta uma motivação ao estudo de Con abilidade e Segurança das Estruturas.
O autor.
vii
UMA MUDANÇA DE PARADIGMA
A provocação apresentada, de forma brilhante, pelo Prof. Nelson Aoki, implica em uma mudança de paradig-
ma por parte da pro ssão de engenharia. A atual formação do engenheiro privilegia uma visão determinista
e cartesiana da pro ssão. Esta formação está baseada em três grandes pilares do conhecimento: a lógica de
Aristóteles, a mecânica Newtoniana e a geometria de Descartes. Estes três ramos fundamentais da ciência abor-
dam problemas abstratos, com geometria dada, com condições iniciais e de contorno perfeitamente conhecidas,
e cujas equações diferenciais ou constitutivas representam, de forma exata, o problema abstrato a ser resolvido.
Para estes problemas abstratos, a lógica, a mecânica e a geometria fornecem soluções exatas.
No entanto, na abstração necessária para trazer problemas do mundo real para o arcabouço da lógica, da
mecânica e da geometria, perdemos informação e fazemos simpli cações. Com o passar dos anos e com a
evolução da técnica, simpli cações antes aceitas passam a ser inadmissíveis. A informatização da pro ssão,
por exemplo, trouxe a engenharia assistida por computador ou CAE (Computer Aided Engineering) e o projeto
assistido por computador ou CAD (Computer Aided Design), que praticamente eliminaram incertezas referentes
à representação da geometria de componentes mecânicos e de estruturas. Técnicas de manufatura avançada ou
CAM (Computer Aided Manufacturing) permitem reduzir incertezas na fabrição de componentes mecânicos e
de elementos estruturais. Métodos numéricos como elementos nitos, métodos sem malha, elementos de con-
torno, elementos discretos, diferenças nitas, etc., permitem resolver, de forma praticamente exata, as equações
diferenciais e integrais da versão abstrata dos problemas de engenharia.
A formação atual em engenharia, baseada na lógica de Aristóteles, na mecânica Newtoniana e na geometria
de Descartes, contribui para uma compreensão determinista da pro ssão. Já a prática, cada vez mais baseada
em computador, gera uma falsa sensação de precisão, que não corresponde exatamente à realidade dos prob-
lemas com os quais a pro ssão lida. Na realidade, as ações ou demandas às quais componentes mecânicos e
estruturas estão submetidos são típicamente aleatórios. Ações estruturais de origem ambiental, como sismos,
ondas, ventos, correntes, precipitação, neve, etc., são processos intrinsicamente aleatórios. Ações acidentais
decorrentes de impactos, acidentes, ou mesmo da mera ocupação das estruturas por diferentes usuários são, em
última análise, imprevisíveis. A resistência de materiais estruturais ou de componentes mecânicos ou elétricos
é intrinsicamente aleatória. De forma desconcertante para a pro ssão, os modelos de cálculo são limitados
e imprecisos; fornecendo, na melhor das hipóteses, valores aproximados para a resistência de componentes e
para as solicitações sobre os mesmos. A estas incertezas intrínsicas, somam-se incertezas decorrentes da falta
de informações, da ambiguidade, da incapacidade de prever condições futuras de uso de um componente ou
estrutura. Tais incertezas tem impacto no desempenho de sistemas de engenharia, e sua existência não pode ser
ignorada. Este texto é uma iniciativa no sentido de quanti car incertezas e prever o comportamento de sistemas
na presença destas.
A visão cartesiana da engenharia não é privilégio de estudantes recém-formados: ela é levada para a
pro ssão, e perpetuada por pro ssionais e professores que tiveram a mesma formação. Também não é exclu-
sividade do Brasil, pois no mundo todo se escutam críticas sobre a forma determinista como se ensina e se
aprende a engenharia (Vogel, 1999). No Brasil, as recém-aprovadas Diretrizes Curriculares Nacionais dos Cur-
sos de Engenharia (Conselho Nacional de Educação, 2001) não incluem, no curriculum mínimo, uma disciplina
de Probabilidade e Estatística. Ainda assim, os melhores cursos de engenharia do Brasil possuem pelo menos
uma disciplina de Probabilidade e Estatística. Nas universidades públicas brasileiras, é comum que esta única
disciplina seja ministrada pelos Departamentos de Matemática e Estatística. Desta forma, conseguimos ensinar
os princípios teóricos fundamentais, mas não se consegue fazer a necessária ligação com a prática ou com os
problemas da pro ssão. Em geral, estudantes completam a disciplina sem entender a razão da mesma constar
nos currículos dos cursos. Com grande frequência, estudantes chegam a desenvolver aversão ao tema, conforme
experiência do autor.
Como professor da disciplina Con abilidade Estrutural, do Programa de Pós-Graduação em Engenharia
Civil (Estruturas) da USP, recebo como alunos engenheiros formados nas melhores universidades do país (prin-
cipalmente civis), que aceitam a natureza aleatória da resistência dos materiais ou das ações ambientais mas
que, na melhor das hipóteses, tem uma compreensão limitada do que é a resistência característica do concreto
viii
Figura 0-1: Resposta de um sistema de engenharia sujeito a incertezas.
ou o vento nominal de projeto. Sem compreender a natureza aleatória destes processos, estes engenheiros se
agarram ao porto seguro das normas de projeto. Através destas normas, e de uma sucessão de aproximações
conservadoras, a pro ssão vai sendo praticada de forma determinista, ignorando o impacto das incertezas no
desempenho dos sistemas que projeta, constrói e opera.
Incertezas são inerentes a qualquer sistema de engenharia. A Figura 0-1 ilustra, de forma conceitual, a
relação de causa e efeito das incertezas em sistemas de engenharia. Quando existe incerteza nos parâmetros
de entrada de um sistema, esta se propaga para a resposta. Portanto, a resposta de sistemas de engenharia
também é afetada pelas incertezas, e não há como garantir, de forma determinista, que a resposta do sistema
será sempre a resposta desejada. Portanto, uma consequência importante das incertezas é a existência de uma
possibilidade do sistema não responder conforme o esperado. Quando esta possibilidade é medida em termos
de probabilidades, falamos em probabilidade de falha. O produto da probabilidade de falha pela consequência,
ou custo de falha, dá origem ao risco, que é uma das principais consequências das incertezas. Para viabilizar a
construção e operação de sistemas de engenharia, os riscos devem ser compreendidos, controlados, comunicados e
distribuídos de forma equânime entre os diferentes envolvidos: proprietários, projetistas, construtores, usuários,
reguladores e terceiros (o público em geral).
ix
Carlos (EESC), Universidade de São Paulo. O texto reete a experiência do autor, adquirida em treze anos
ministrando as disciplinas acima, para um total de cento e cinquenta alunos. O texto reete a experiência do
autor como orientador de trinta e sete alunos de iniciação cientí ca, mestrado e doutorado. Este texto condensa
20 anos de pesquisa em con abilidade estrutural e temas correlatos, que resultaram na publicação de quase
oitenta artigos cientí cos. Dentre estas, as publicações de caracter teórico são citadas ao longo do texto, quando
conveniente, e servem para aprofundar os temas abordados. Alguns destes artigos são discutidos em aula, após
a leitura pelos estudantes. O texto não aprofunda em aplicações especí cas, mas reete a experiência do autor
na aplicação dos conceitos a estruturas metálicas (Beck & Dória, 2008; Chaves et al., 2010; Bolandim et al.,
2013); estruturas de concreto armado (Silva et al., 2008; Corelhano et al, 2012; Santos et al., 2014, 2015; de
Barros et al. 2021); vigas protendidas (de Lyra et al., 2020), estruturas mistas aço-concreto (Oliveira et al.
2008; Beck et al. 2009; Pereia et al. 2017); estruturas geotécnicas como estacas (Mosquera et al. 2015), túneis
(Napa-Garcia et al. 2017, 2018; Kroetz et al. 2018) taludes (Santos et al. 2018) e barragens (Pires et al. 2019;
Siacara et al. 2020), manipuladores robóticos (Vieira et al. 2020), dutovias (Gomes et al., 2013; Gomes & Beck,
2014; Bazán & Beck, 2016), poços de petróleo (Beck et al. 2020a) e conexões de tubulares (Uribe et al. 2019,
2020). Alguns destes artigos são resultado do trabalho de avaliação da disciplina Con abilidade Estrutural
da EESC.
Este texto presume conhecimentos fundamentais sobre Mecânica dos Sólidos, Cálculo e Teoria de Probabil-
idades e Estatística, disciplinas comuns aos bons cursos de Engenharia. Algum conhecimento sobre Teoria das
Estruturas e Otimização Matemática são desejáveis, mas não necessários para acompanhar o texto.
Como texto didático, houve a preocupação em fornecer ao leitor todo o embasamento teórico necessário para
compreender os conceitos, em especial aqueles da Teoria de Probabilidades e Estatística, onde o autor entende
que estejam as maiores carências de formação. Os conceitos da Teoria de Probabilidades são apresentados
apenas na medida do considerado necessário para a compreensão dos conceitos e problemas fundamentais de
Con abilidade das Estruturas. Ainda assim, esta parte do texto pode ser considerada pesada por alguns
leitores.
Há duas formas sugeridas de acompanhar este texto. A forma sequencial, que segue a disposição dos
capítulos, é sugerida ao leitor interessado nos conceitos, problemas e soluções fundamentais de Con abilidade
das Estruturas, que esteja disposto a aceitar os resultados sem demonstração, e a postergar a compreensão
de alguns tópicos para uma segunda leitura. Este leitor pode seguir as referências cruzadas para a Teoria de
Probabilidades, apresentada nos Apêndices A e B, sempre que julgar conveniente. Este leitor, tipicamente, seria
engenheiro praticante, ou projetista de estruturas.
A forma não-sequencial é sugerida aos estudantes de graduação e pós-graduação, interessados em formação
mais profunda no tema. A estes leitores é sugerido começar pelo Apêndice A, antes do Capítulo 1. A sequência
de leitura sugerida segue com os Capítulos 2 a 5. Esta parte do texto trata dos problemas e soluções que
envolvem Variáveis Aleatórias. Na sequência, recomendamos a leitura do Apêndice B, que trata da Teoria
de Processos Estocásticos, antes do Capítulo 6. Alternativamente, o leitor pode seguir com os Capítulos 7
e 8. O curso Con abilidade Estrutural da EESC vai até o Capítulo 5, incluindo o Apêndice A. O curso
Con abilidade Estrutural Avançada segue com Apêndice B e Capítulos 6 até 8.
Como acompanhamento para um curso de graduação, sugerimos os Capítulos 1 e 2, juntamente com tópicos
selecionados do Apêndice A e dos Capítulos 3, 4 e 5.
Abordagens alternativas dos vários temas tratados neste livro podem ser encontradas em Benjamin & Cornell
(1970), Ang & Tang (1975, 1990), Thoft-Christensen & Baker (1982), Madsen et al. (1986), Ditlevsen & Madsen
(1996, 2005), Ang & Tang (2007), Sagrilo e Lima (2010), Melchers & Beck (2018).
AGRADECIMENTOS
Finalizar este texto é uma enorme satisfação pessoal! A meta de escrevê-lo foi traçada há quase duas décadas,
e completá-lo representa o encerramento de um ciclo. Reconheço no texto traços da dissertação de mestrado,
defendida em 1999 na saudosa Ilha de Santa Catarina, e fragmentos de minha tese de doutorado, esboçados
em Newcastle, Australia, entre os anos 2000 e 2003. O restante do texto foi redigido para servir de suporte as
disciplinas de pós-graduação já citadas.
A redação deste texto só foi possível graças a inspiração e motivação de alguns ilustres pro ssionais que
inuenciaram meu pensar, e guiaram minha trajetória acadêmica e cientí ca. Pelo exemplo e pela motivação,
agradeço aos mestres:
Prof. Julius Sporket, Colégio Sinodal, São Leopoldo, RS.
Prof. Rogério Rato Marczak, UFRGS, Porto Alegre, RS.
Prof. Edson da Rosa, UFSC, Florianópolis, SC.
Prof. Robert E. Melchers, University of Newcastle, Australia.
Ao longo dos anos, este texto foi aprimorado a partir do feedback de uma centena e meia de alunos que
passaram por minhas disciplinas de pós-graduação. Agradeço a estes alunos pela paciência e por inúmeras
sugestões. Em especial, agradeço aos alunos, orientandos e colegas que, como parte de seu trabalho de pesquisa,
desenvolveram material que foi em menor ou maior grau, direta ou indiretamente incorporado ao texto: Camila
C. Verzenhassi, Ketson R. M. dos Santos, Felipe A. V. Bazán, Jano A. Coelho, Wellison J. S. Gomes, Gian F.
Napa-Garcia, Wagner C. Santiago, Henrique M. Kroetz, Rodolfo K. Tessari, Gustavo A. da Silva, Luis Gustavo
L. Costa, Rafael H. Lopez, Leandro F. F. Miguel, Cláudio A. da Silva Jr. e Mauro de Vasconcellos Real. Em
especial, agradeço ao Túlio R. C. Felipe pela atenta e detalhada revisão técnica da versão nal do texto da
primeira edição.
DEDICATÓRIA
Dedicado à Sandra, Bruna e Gabito. A família é a fortaleza do homen.
Capítulo 1
INTRODUÇÃO A
CONFIABILIDADE
A incerteza física corresponde à aleatoriedade natural dos fenômenos físicos, químicos, biológicos, atmosféricos
que nos rodeiam, e que afetam o comportamento de sistemas de engenharia. Exemplos de processos com
incerteza física são:
2 INTRODUÇÃO A CONFIABILIDADE
A incerteza física pode ser reduzida através da coleta de mais informações sobre os fenômenos envolvidos,
mas não pode ser eliminada. A incerteza nas dimensões de elementos estruturais ou na resistência de materiais
pode ser diminuída, através de melhorias em controle de qualidade e de produção, mas também não pode ser
eliminada. Incertezas físicas podem ser quanti cadas em termos de probabilidades, e representadas através de
variáveis aleatórias, processos estocásticos e campos estocásticos.
Incerteza de previsão
Este tipo de incerteza se refere à previsão de condições futuras de um processo ou sistema. Muitas vezes, a
informação disponível sobre determinado processo é limitada a um curto período, mas deve ser extrapolada
para o período de vida útil da estrutura. Extremos de fenômenos ambientais são exemplos típicos.
Durante as fases de projeto e de construção de uma obra, existem grandes incertezas em relação à resistência
dos materiais estruturais e em relação aos carregamentos que realmente atuarão na estrutura durante sua vida
útil. Obviamente, à medida que estas informações vão sendo coletadas, este tipo de incerteza pode ser reduzida.
No entanto, projetos estruturais são feitos antes da execução e da utilização da estrutura; logo, incertezas de
previsão devem ser levadas em conta no projeto. A evolução de incertezas ao longo do processo de construção
de uma estrutura, e sua conversão de epistêmica para intrínsica, são discutidas em um belo artigo de Der
Kiureghian e Ditlevsen (2009).
A determinação com base em amostras da curva de distribuição de probabilidades de uma variável aleatória ou
de seus parâmetros e momentos está sujeita à chamada incerteza estatística. Quando a média, por exemplo,
de uma variável é determinada a partir de uma amostra, a variância do resultado corresponde a uma incerteza
estatística nesta média. Se o número de amostras é pequeno, não pode ser aumentado e a variável é de grande
importância para o problema, então a própria média da distribuição pode ser representada como uma variável
aleatória. Isto vale também para qualquer outro momento ou parâmetro de distribuição.
Quando inferimos um modelo de distribuição para uma variável aleatória com base em um histograma (e.g.:
tal variável segue uma distribuição normal!), o fazemos através de um teste de hipótese, que revela que tal
a rmação só é verdadeira com determinado nível de probabilidade. Isto tambem dá origem a uma incerteza
estatística.
A incerteza de medição, que tem sua origem na imperfeição ou na faixa de erro do instrumento de medição
utilizado, também pode ser classi cada como uma incerteza estatística. A incerteza de medição pode ser
incorporada na incerteza da variável medida.
1.1. CLASSIFICAÇÃO DE INCERTEZAS 3
Incerteza de decisão
A incerteza de decisão está relacionada com a de nição sobre se determinado evento ocorreu ou não. O conceito
de estados limites, por exemplo, implica em escrever uma equação de estado limite que estabelece uma fronteira
discreta, tipo on/o¤, entre os estados de sobrevivência e de falha. No entanto, a realidade de engenharia
de estruturas mostra que, muitas vezes, esta transição é gradual, ou ocorre em uma determinada faixa de
parâmetros. Como exemplos, temos as deformações limites para os estádios do concreto, e falhas de serviço do
concreto com base em abertura de ssuras. Outras vezes, falhas estruturais são de nidas de maneira indireta.
Na análise sísmica, por exemplo, estados limites de ssuração e de danos em alvenarias de fechamento, e até
de colapso, são de nidos em termos de deslocamentos relativos entre pavimentos (interstory drift). A de nição
indireta de modos de falha contribui para a incerteza quanto à ocorrência ou não da falha.
Incerteza de modelo
Incertezas de modelo tem sua origem na representação do comportamento estrutural através de modelos simpli-
cados. Quando determinamos a resistência de um elemento de concreto armado em função das resistências do
aço, do concreto, e das dimensões do elemento, introduzimos um erro de modelo. A incerteza de modelo pode
ser representada através de uma variável aleatória, e sua distribuição de probabilidades pode ser determinada,
por exemplo, realizando comparações entre ensaios experimentais e a resistência determinada via modelo. A
incerteza de modelos usuais em engenharia de estruturas é discutida na Seção 2.3.5.
Incerteza fenomenológica
Os efeitos de degradação da resistência de metais sob cargas dinâmicas passaram a ser amplamente conhecidos
apenas em meados do século 19. Engenheiros que construíram carreiras antes disto não estavam preparados
para lidar com o fenômeno.
Já em 1879, quando a Tay Bridge colapsou após menos de dois anos em serviço, o fenômeno da fadiga era
amplamente conhecido. A falha por fadiga das luvas, que acomodavam as transversinas das colunas da ponte,
deve ser classi cada como uma falha de projeto e de manutenção. No entanto, o ponto na linha do tempo a
partir do qual determinado fenômeno pode ser considerado como amplamente e/ou completamente conhecido
é discutível! Em particular porque falhas por fadiga continuaram, e continuam, ocorrendo; ainda que, às vezes,
de forma sorrateiramente distinta! Durante a segunda guerra mundial, mais de 200 navios Liberty sofreram
severas rupturas frágeis, incluindo a ruptura completa do casco em alguns casos. O SS John Gaines foi um
destes: afundou em novembro de 1943, em função de ruptura do casco. A causa é hoje completamente conhecida:
a fragilização do material, ou transição ductil-frágil, em função da redução da temperatura! Já o colapso da
ponte Silver Bridge em West Virginia, em 1967, foi atribuído a um novo tipo de fadiga: a fadiga induzida por
corrosão. A comissão encarregada de investigar as causas do acidente inocentou os projetistas porque, na época
da construção (circa 1920), os fenômenos de fadiga induzida por corrosão, e corrosão sob tensão, não eram
conhecidos. Contribuíram para a falha da cadeia de sustentação da ponte o fato de a trinca ter se originado em
um detalhe (barra de olhal) de difícil inspeção, ou seja, de impossível detecção com a tecnologia existente na
época. Também foi determinante para o colapso o fato da cadeia de sustentação ser formada por apenas duas
barras em paralelo1 .
As razões pelas quais as lições de 1842 e 1847, e tantas outras, não foram incorporadas ao projeto das
aeronaves de Havilland Comet, são uma grande incógnita. Quando começaram a despencar dos céus, em 1953
e 1954, as hipóteses foram de descargas elétricas (raios) até erros de piloto. Um engenheiro suspeitou de fadiga,
e com alguma insistência conseguiu que um teste de pressurização completo da fuselagem fosse realizado. Um
detalhe particular se mostrou altamente relevante: os testes foram realizados com água, e não com ar! Fossem
realizados com ar, a despressurização explosiva teria espalhado pedaços da fuselagem para todos os lados,
como nas falhas em serviço, di cultando a identi cação da origem exata do problema. A despressurização
controlada devido ao vazamento da agua interrompeu a propagação das trincas de fadiga, permitindo identi car
precisamente sua origem, nos cantos vivos das janelas quadradas... A concentração de tensões nos cantos
vivos das janelas dos Comets foi a mesma que causou o colapso da ponte sobre o Dee (1847), e identi cada
por Rankine em 1843! A compreensão completa do fenômeno resultou em janelas arredondadas, nas gerações
seguintes dos Comets. Ao longo dos anos, a compreensão do fenômeno também resultou nas melhorias de
projeto que permitiram falhas seguras (não-catastró cas) dos Boeings da Aloha (1988) e da Southwest Airlines
(2011). É a con rmação de teorias sobre as causas de falha que permitem que desastres se tornem lições, e que
o conhecimento seja incorporado a novos projetos (Petroski, 2012).
Outro exemplo clássico de incerteza fenomenológica foi o colapso espetacular, captado em video, da ponte
Tacoma Narrows (EUA), em 1940. Quando começou a ser projetada, em 1929, e com vão suspenso de 853
metros, esta ponte representava um avanço de apenas 16% em relação ao maior vão suspenso existente na data
(ponte Ambassador, entre Detroit e Windsor, com 560 metros de vão livre). Outros projetos mais arrojados
já estavam em fase de conclusão ou de construção: a ponte George Washington, inaugurada em 1931 com vão
livre de 1067 metros (90% maior que Ambassador); e a icônica ponte Golden Gate, inaugurada em 1937, com
vão livre de 1280 metros (avanço de 20% em relação a George Washington). O que tornava a Tacoma Narrows
única era a esbeltez de seu tabuleiro: ao invés de uma treliça aberta, como de suas irmãs, a Tacoma Narrows
possuia tabuleiro em viga de aço, formado por chapas soldadas. Por acomodar apenas duas vias de rodagem, o
tabuleiro também era muito estreito, em relação ao vão; e extremamente leve, com apenas 8,93 ton/m, contra
cerca de 47 ton/m das irmãs George Washington e Golden Gate. A razão de aspecto vão/profundidade usual
para tabuleiros suspensos, na época, era de 150; a ponte Tacoma chegou a 853/2, 44 = 350! Esta era a mesma
1 A ponte Hercílio Luz, em Florianópolis, é da mesma época e método construtivo, mas utiliza quatro barras em paralelo. A
ponte foi interditada em 1982, em função da descoberta de uma trinca com 5 cm de comprimento, em uma barra de olhal junto ao
pilar sul.
1.1. CLASSIFICAÇÃO DE INCERTEZAS 5
razão de aspecto do tabuleiro da ponte George Washington, que pesava cinco vezes mais. Já a razão de aspecto
vão/largura chegou a 853/11, 8 = 72; contra 33 da George Washington e 45 da Golden Gate. O tabuleiro da
Tacoma Narrows era extremamente exível, característica que lhe rendeu o apelido de Galloping Gertie, nos
poucos meses em que operou. O deslocamento horizontal, calculado para um vento extremo de 145 km/h (40,2
m/s), chegou a 6,1 metros no centro do vão; valor considerado aceitável pelos projetistas.
A enorme esbeltez do tabuleiro, que resultou em uma ponte de aspecto elegante e moderno, não era um
problema estrutural, segundo os projetistas. No entanto, as consequências desta esbeltez extraordinária não
foram bem apreciadas, como se veri cou! A Tacoma Narrows entrou em território desconhecido, em
termos da esbeltez de um tabuleiro suspenso!
Em 7 de novembro de 1940, apenas quatro meses depois de inaugurada, e sob ação de um vento de apenas
67,7 km/h (menos da metade do vento extremo de projeto), o tabuleiro começou a oscilar de forma acentuada,
primeiro em movimentos verticais, depois em movimento torcional em torno do eixo longitudinal. Aparente-
mente, tal mudança de movimento foi provocada pelo surgimento de folga em um dos cabos de sustentação,
próximo ao centro do vão; o que provocou uma assimetria nas forças de suporte do tabuleiro. O movimento
torcional aumentou em amplitude, até provocar o completo colapso do tabuleiro. Confrontados com a falha
vergonhosa, os projetistas não souberam explicar o ocorrido! O caso tornou-se objeto de debate por algumas
décadas, dividindo engenheiros e físicos (Petroski, 2012). Em inúmeros estudos e publicações que se seguiram ao
desastre, o mesmo foi atribuído a um simples problema de ressonância. Estava claro se tratar de um problema
de vibrações forçadas provocadas pelo movimento aleatório e turbulento do vento, ou de excitação aerodinâmi-
ca, mas o mecanismo exato que provocou as oscilações não foi completamente compreendido ou explicado até
1991 (Billah & Scanlan, 1991). Segundo os autores, o que ocorreu foi um fenômeno de excitação ou palpitação
(utter) devido à formação de vórtices complexos (Von Kármán). Estes vórtices se formaram na esteira de
escoamento, provocados pelo movimento torcional do tabuleiro. Como tinham a mesma frequência da vibração
torcional, estes vórtices retro-alimentaram o processo, levando a oscilações crescentes, e ultimamente ao colapso
do tabuleiro.
Detalhes técnicos a parte, este é um exemplo de incerteza fenomenológica porque, na época, efeitos de
excitação dinâmica provocados pelo vento, e efeitos de interação uido-estrutura, não eram considerados no
projeto de pontes! Por este motivo, os projetistas foram inocentados de imperícia ou erro grave pela comissão
que investigou as causas do acidente.
Outro exemplo mais recente de incerteza fenomenológica provocando o colapso de uma grande estrutura
foi a queda dos prédios do World Trade Center, nos ataques terroristas de 11 de setembro de 2001. As torres
gêmeas haviam sido projetadas para resistir ao impacto de pequenas aeronaves (monomotores, helicópteros,
etc.), e de fato resistiram ao impacto de enormes aviões comerciais. As torres também haviam sido projetadas
para resistir às temperaturas e duração de incêndios típicos de escritório, tendo como combustível divisórias,
móveis, papéis, etc. A falha estrutural das torres pode ser atribuída ao incêndio de proporções inimagináveis
(aos projetistas), alimentado por milhares de litros de querosene de aviação. O aumento de temperatura e a
duração do incêndio foram signi cativamente maiores do que no incêndio de projeto, o que eventualmente
levou à ruptura da ligação metálica entre as lajes de concreto e a estrutura metálica externa. Sem o suporte
lateral fornecido por estas ligações, as colunas metálicas aquecidas falharam por instabilidade, provocando o
colapso progressivo dos andares inferiores.
Devido ao seu carácter inimaginável, não há formas convencionais de incluir incertezas fenomenológicas em
análise. A manifestação de incertezas fenomenológicas é geralmente um fenômeno de grande impacto, tanto
em termos do desastre em si, como em termos da obviedade do fenômeno, quando analisado pós-factum. O
fenômeno tem forte semelhança com o conhecido efeito cisne negro ou black swan (Taleb, 2010).
2014), erros na veri cação de projetos, erros de execução ou construção (plataforma Alexander Kielland, 1980),
problemas de operação (inúmeros acidentes com guindastes-torre em construção civil; sonda Deepwater Horizon,
2010), problemas de inspeção e manutenção (plataforma P-36, 2001), e desastres provocados por falhas no alto
gerenciamento das instituições (Challenger Space Shuttle, 1986; Columbia Space Shuttle, 2003; sonda Deepwater
Horizon, 2010).
A ação direta ou indireta do homem, que por imprudência, imperícia ou negligência afeta de maneira in-
desejável o desempenho ou a segurança de sistemas de engenharia, é chamada de erro humano. Em geral, a
falha humana é apenas um dos elementos na sequência de eventos que levam à ocorrência de grandes acidentes.
Erros humanos possuem um carácter de imprevisibilidade, e são difíceis de representar através de modelos. No
entanto, existem estatísticas conhecidas da taxas de falha de humanos na realização de tarefas repetitivas e
especí cas. É amplamente reconhecido que erros humanos podem ser reduzidos através de atividades motiva-
cionais, treinamento e educação. Literatura especí ca pode ser consultada para maiores informações (Dhillon,
1986, 2009; Kirwan, 1994; Stewart & Melchers, 1998; McLeod, 2015).
Con abilidade (R) de um sistema é a probabilidade de que este sistema não falhe, dentro de uma
vida de projeto especi cada, respeitadas as condições de operação e de projeto do mesmo.
Probabilidade de falha (pf ) é a probabilidade do sistema falhar, não atendendo às especi cações de
projeto, dentro de uma vida de projeto especi cada, mesmo respeitadas as condições de operação e
de projeto do sistema.
Há diversos elementos nas de nições acima. A con abilidade não pode ser garantida inde nidamente. A
con abilidade não pode ser garantida independentemente das condições de utilização do produto ou sistema.
A con abilidade é garantida a partir de modelos, cálculos e testes realizados para a chamada vida de projeto,
1.2. ELEMENTOS DE CONFIABILIDADE 7
Figura 1-1: Distinção entre precisão e acurácia, erro aleatório e erro sistemático.
2 A utilização do sistema remove algumas incertezas existentes em projeto; logo, é possível ocorrer o aumento da con abilidade.
Um exemplo típico é a remoção dos componentes defeituosos. A vida de pro jeto serve como teste para remover os componentes
defeituosos; a con abilidade dos componentes restantes, ao nal da vida de projeto, é maior do que aquela prevista para a população
inicial.
8 INTRODUÇÃO A CONFIABILIDADE
em relação à população total de componentes em produção ou em operação. Para este tipo de produto, a
interpretação frequentista de probabilidades pode ser utilizada (Apêndice A, Eq. A.1). Já a con abilidade
das estruturas, tema deste livro, se aplica a estruturas únicas como prédios, pontes, torres, barragens, túneis,
etc. Para tais estruturas, a con abilidade deve ser compreendida como uma medida subjetiva, como grau
de con ança na capacidade da estrutura em desempenhar suas funções (veja Seção A.1.1). A de nição de
Con abilidade Estrutural será retomada na Seção 2.2.
pf = P [fS ¸ Rg]
Z
= fRS (r, s)drds, (1.1)
f
sendo f o chamado domínio de falha: f = f(r, s)jr · sg.Conforme ilustrado na Figura (1-2), o domínio de
falha f é limitado pela equação r = s, de forma que:
Z +1 Z s
pf = fRS (r, s)drds.
¡1 ¡1
1.2. ELEMENTOS DE CONFIABILIDADE 9
Quando as variáveis R e S são estatísticamente independentes (Seção A.4.7), a função de densidade conjunta
de probabilidades é dada pelo produto das funções marginais (Equação A.60):
sendo:
fS (s) a função marginal de densidade de probabilidade da solicitação;
FR (r) a função marginal de distribuição cumulativa de probabilidades da resistência.
Portanto, a probabilidade de falha vem a ser a área sob a curva fS (s)FR (s). Esta área é proporcional (mas
não idêntica) à area de interferência entre as distribuições de R e S, conforme Figura (1-3). Por esta semelhança,
este problema é também conhecido na literatura como o problema de interferência entre populações.
A Figura (1-3) ilustra dois casos de interferência entre distribuições: interferência menor à esquerda e maior
à direita. Observamos as distribuições de probabilidade acima e o produto fS (s)FR (s) abaixo. Da esquerda
para a direita, na gura, podemos observar que ocorre uma maior sobreposição das curvas de densidade de
probabilidade, que são acompanhadas por uma maior área do produto fS (s)FR (s), ou seja, maior probabili-
dade de falha. Observamos ainda que este aumento não é diretamente proporcional: um aumento modesto na
sobreposição das funções de densidade causa um grande aumento na probabilidade de falha.
Na Figura (1-3) podemos observar ainda dois procedimentos que podem ser adotados em projeto para
diminuir a probabilidade de interferência entre as distribuições, ou seja, para diminuir a probabilidade de falha.
Podemos afastar as médias ou diminuir os desvio-padrão das variáveis R e S. No projeto de estruturas, afastar
as médias corresponte aproximadamente a aumentar os coe cientes de segurança. Diminuir o desvio-padrão da
resistência implica em aumentar o controle de qualidade sobre o processo produtivo dos materiais, e aumentar
o controle dimensional no processo produtivo dos elementos estruturais. Diminuir ou controlar o desvio-padrão
da solicitação é mais difícil e implica, por exemplo, na imposição de limites de carga para estradas, pontes e
elevadores.
Integrando a Eq. (1.2) primeiramente em relação a S, obtemos um resultado equivalente:
Z +1 ·Z 1 ¸ Z 1
pf = fR (r) fS (s)ds dr = fR (r)[1 ¡ FS (r)]dr, (1.3)
¡1 r ¡1
sendo:
fR (r) a função marginal de densidade de probabilidade da resistência;
FS (s) a função marginal de distribuição cumulativa de probabilidades da solicitação.
O problema fundamental de con abilidade pode ser resolvido a partir da variável margem de segurança (M ):
M = R ¡ S. (1.4)
Valores negativos da margem de segurança correspondem à falha, enquanto valores positivos indicam sobrevivên-
cia. Um valor nulo da margem de segurança corresponde à situação limite. Se R e S são variáveis aleatórias,
M será também uma variável aleatória. Podemos calcular a probabilidade de falha a partir de M :
10 INTRODUÇÃO A CONFIABILIDADE
Z 0
pf = P [fM · 0g] = fM (m)dm = FM (0). (1.5)
¡1
µM = µR ¡ µS ,
q
σM = σ2R + σ2S . (1.6)
A variável M pode ser transformada em uma variável normal padrão Y (adimensional, com média nula e
desvio-padrão unitário), através da transformação de Hasofer-Lind (pg. 370):
M ¡ µM
Y = . (1.7)
σM
Esta transformação permite avaliar probabilidades associadas à variável M através da função de distribuição
cumulativa normal padrão ©(.) (veja Eq. A.41 e Apêndice E). A probabilidade de falha resulta:
1.2. ELEMENTOS DE CONFIABILIDADE 11
pf = P [fM · 0g]
· ¸
µ
= P fY · ¡ M g
σM
µ ¶
µM
= © ¡ . (1.8)
σM
Na variável adimensional Y obtemos uma medida geométrica da probabilidade de falha, que corresponde à
distância entre o ponto m = 0 e a origem (média) da distribuição de Y, conforme Figura (1-5). Esta medida é
chamada de índice de con abilidade, representada pela letra grega β (beta) e dada pela razão µσM
M
:
µM µ ¡ µS
β´ = p R2 . (1.9)
σM σR + σ 2S
Nesta expressão, podemos observar que o índice de con abilidade β está diretamente relacionado à pro-
babilidade de falha. O índice de con abilidade β é de extrema importância na con abilidade estrutural. Os
resultados aqui apresentados serão amplamente utilizado nos próximos capítulos, pois permitem obter a solução
de problemas envolvendo um número qualquer de variáveis aleatórias.
O índice de con abilidade de nido na Eq. (1.9) é conhecido como índice de con abilidade de Cornell (Cornell,
1969). A Eq. (1.9) é estritamente válida apenas para variáveis aleatórias R e S normais e independentes, e
margem de segurança linear.
12 INTRODUÇÃO A CONFIABILIDADE
Uma solução analítica semelhante à Eq. (1.9), é obtida para o caso em que as variáveis aleatórias R e S são
independentes e tem distribuição log-normal. Seja R » LN(λR , ξ R ) e S » LN (λS , ξ S ). Neste caso, convém
escrever uma equação equivalente à margem de segurança como:
R
Z= . (1.11)
S
Como R e S tem distribuição log-normal, resulta que ln(R) e ln(S) tem distribuição normal (veja q
Seção A.3.2
e Exemplo 31). Logo, M também tem distribuição normal, com parâmetros M » N (λR ¡ λS , ξ 2R + ξ 2S ).
Portanto, de maneira semelhante à Eq. (1.9), o índice de con abilidade é obtido como:
λR ¡ λS
β=q .
ξ 2R + ξ 2S
Utilizando as relações entre distribuição normal e log-normal (Eq. A.43), podemos mostrar que este resultado
ca: µ r ¶
1+δ 2
ln µµR 1+δ 2S
S R
β=q ,
ln((1 + δ 2R )(1 + δ 2S ))
sendo δ = σ/µ o coe ciente de variação. Quando os coe cientes de variação são pequenos (δ R , δ S < 0, 3), este
resultado se simpli ca para (Rosenbleuth e Esteva, 1972):
³ ´
ln µµR
S
β=q . (1.12)
δ R + δ 2S
2
1.3. FALHAS QUE OCORREM AO LONGO DO TEMPO 13
Figura 1-6: Realização do processo S(t), mostrando visitas às barreiras r = 2 e r = 2, 69. Distribuições de
ponto arbitrário e de valores extremos a esquerda.
Figura 1-7: Registros históricos dos níveis de cheia de rios: eventos extremos tendem a estar mais distantes no
passado.
1.3. FALHAS QUE OCORREM AO LONGO DO TEMPO 15
Medindo o tempo entre visitas para um longo registro, ou para visitas frequentes, podemos obter um conjunto
de observações a partir das quais as estatísticas da variável aleatória T (r) podem ser determinadas. É claro que
tal determinação supõe que a frequência e a duração das visitas não mude ao longo do tempo.
Dizemos que o processo S(t) é estacionário no tempo quando suas estatísticas (média, desvio-padrão, dis-
tribuição de probabilidades, taxa de passagens υ+ (r), etc.) não mudam ao longo do tempo. Intuitivamente, se
o processo é estacionário e a barreira r é constante, então a taxa de falhas e o tempo entre falhas podem ser
determinados a partir de um registro su cientemente longo, que gere um número signi cativo de observações.
Na Figura 1-6 podemos veri car que o processo S(t) visitou a barreira r = 2 cinco vezes em cinquenta anos.
Com base neste registro, podemos inferir a taxa de falhas υ + (2) ¼ 5/50 = 0, 1. Portanto, o período médio de
retorno ao nível r = 2 é aproximadamente µT (2) ¼ 50/5 = 10 anos. O valor exato para o processo em questão
e para o nível r = 2 , é µT (2) = 9, 933. Como as visitas ao nível r = 2 são frequentes, foi possível obter uma
boa estimativa para µT (2) com base em um único registro do processo S(t). Veri camos na Figura 1-6 que o
mesmo não pode ser dito para a barreira r = 2, 69. Para determinar as estatísticas de visita ao nível r = 2, 69
precisaríamos de um registro muito mais longo, ou da observação de vários registros com duração de 50 anos,
como ilustrado na Figura 1-8.
3 Trata-se de uma convenção, o que nem sempre é o caso. Nos Estados Unidos, por exemplo, estruturas são pro jetadas para vida
Figura 1-8: Realizações do processo S(t), mostrando visitas à barreira r = 2, 69 e valores extremos em cada
realização.
1.3. FALHAS QUE OCORREM AO LONGO DO TEMPO 17
para este exemplo didático (lembrando que a ação S(t) tem valor médio nulo e desvio padrão unitário). Este
valor corresponde à barreira mais elevada ilustrada na Figura 1-6.
Uma vez xado o período para o qual a ação nominal é determinada (50 anos, neste exemplo), convém
olhar para diversas realizações do processo S(t), todas com duração igual a 50 anos. A Figura 1-8 ilustra cinco
realizações deste processo. Na gura, para cada realização, foi identi cado o tempo em que ocorre o maior valor
da ação, e o valor máximo correspondente. Coletando os máximos valores observados em várias realizações
do processo, sempre para um tempo total xo em 50 anos, podemos determinar a distribuição de extremos de
50 anos do processo (Seção A.7). Para o exemplo em questão, esta distribuição está ilustrada na Figura 1-6,
à esquerda, em linha contínua, identi cada como f50 (s). Para efeito de comparação, também é ilustrada na
mesma gura, em linha tracejada, a distribuição de ponto arbitrário fS (s)4 do processo S(t). Intuitivamente,
quanto maior o tempo de observação, maiores serão os máximos observados, e mais para cima se desloca a
distribuição de extremos correspondente.
Podemos demonstrar que a valor nominal da ação (s50 = 2, 69 no exemplo) corresponde à moda, ou valor
mais provável, da distribuição de extremos f50 (s). O valor nominal também é chamado de máximo característico
da distribuição. O número esperado de vezes que o máximo característico sn é observado no período médio
de retorno n é igual a um. Nas Figuras 1-6 e 1-8 observamos que o processo S(t) visitou o nível s50 = 2, 69
aproximadamente uma vez a cada realização.
Quando as visitas de barreira são raras, podem ser interpretadas como um processo de Poisson (Seção A.3.1).
Neste caso, a probabilidade de observar zero visitas dentro do período médio de retorno n é (Eq. A.34):
Esta probabilidade é bastante alta, o que signi ca que o valor nominal de projeto determinado para um período
4 Se observamos o processo S(t) para qualquer tempo t xo, ele segue a distribuição de ponto arbitrário (N (0, 1) no exemplo).
18 INTRODUÇÃO A CONFIABILIDADE
de retorno igual a vida de projeto da estrutura não é su cientemente conservador. Por conta disto, utilizamos
um coe ciente parcial de segurança (γ > 1), que determina o valor de projeto da ação, majorando o valor
nominal: sD = γsn , sendo o sub-índice ( )D para Design.
Em engenharia de estruturas, falhas ocorrem quando as ações atingem seus valores máximos. Portanto,
para realizar uma análise de con abilidade de estrutura projetada a partir de ação nominal sn , determinada a
partir do período de retorno n, precisamos necessariamente utilizar a distribuição de valores extremos fn (s) da
ação. Típicamente, distribuições de extremos são assimétricas, não-Gaussianas (Seção A.7.5); logo, a solução
fundamental da Eq. (1.10) não pode ser utilizada, pelo menos não diretamente. No Capítulo 3 vamos estudar
transformações que permitem aproveitar o resultado expresso na Eq. (1.10). Quando existe mais de uma ação
variável, soluções especiais são necessárias. Estas serão estudadas no Capítulo 6, em particular na Seção 6.7.
A princípio, a solução fundamental expressa na Eq. (1.2) poderia ser utilizada para resolver problema de
con abilidade das estruturas envolvendo a distribuição de extremos (não-Gaussiana) da ação. No entanto, a
resistência de um elemento estrutural, ou de uma estrutura, é em geral função de um grande número de variáveis
aleatórias. Converter um problema multi-dimensional na resistência em um problema escalar requer determinar
a distribuição de probabilidades da variável dependente, a resistência do elemento. Tal conversão implica em
aproximações desnecessárias, como veremos no Capítulo 3.
Nesta expressão ca evidente que, quando FT (t) ¼ 0 ou R(t) ¼ 1, as funções fT (t) e h(t) se confundem. O
conhecimento de uma entre h(t), fT (t) e FT (t) é su ciente para determinar as outras duas. A taxa de falhas
instantânea h(t) pode ser utilizada para descrever falhas que ocorrem sob processos S(t) não-estacionários, ou
em problemas nos quais a barreira ou resistência muda ao longo do tempo.
A Figura 1-10 ilustra o comportamento típico da taxa de falhas h(t) de componentes mecânicos ou eletro-
eletrônicos. Observamos três fases distintas, identi cadas como falhas prematuras, falhas por chance e falhas
por envelhecimento. Na fase inicial, a taxa de falhas é elevada devido à falha dos componentes que possuem
1.3. FALHAS QUE OCORREM AO LONGO DO TEMPO 19
Figura 1-10: Curva da banheira, representando a taxa instantânea de falhas de componentes idênticos em
operação.
defeitos de fabricação. Com a reposição destes componentes, a taxa de falhas se estabiliza. Geralmente, esta
fase corresponde ao período de garantia do produto. A fase seguinte é de falhas por chance, na qual a taxa
de falhas é aproximadamente constante no tempo. Nesta fase as falhas ocorrem devido ao uso; por exemplo,
devido a uma sobrecarga. Nesta fase as falhas se comportam tal qual descrito na Seção 1.3.2. Na fase nal
da vida, a taxa de falhas aumenta novamente devido aos efeitos de envelhecimento (desgaste, corrosão, fadiga,
etc.). Devido ao formato típico, a curva ilustrada na Figura 1-10 é conhecida como curva da banheira. Na
Seção A.7.5 mostramos como a curva da banheira pode ser construída a partir da distribuição de Weibull.
A curva da banheira também descreve aproximadamente o comportamento da taxa de falhas de elementos
estruturais ou de estruturas. Na fase inicial, além das falhas por defeitos de fabricação ou de material, podem
ocorrer falhas especí cas da fase de construção (retirada prematura do escoramento, sobrecarga de construção,
etc.), e podem se manifestar falhas decorrentes de erros de projeto. As falhas por chance são aquelas caracteri-
zadas por uma sobrecarga durante a vida útil da estrutura. Na fase nal da vida, a resistência das estruturas é
reduzida por efeitos de envelhecimento como desgaste, perda de aderência do concreto, fraturamento, corrosão
ou fadiga. Nesta fase a taxa de falhas aumenta.
A Figura 1-11 mostra a taxa de mortalidade, em função da idade, da população Brasileira em 2015 (IBGE,
2015). Observamos que a taxa de mortalidade humana também segue o formato clássico da curva da banheira.
A fase inicial corresponde à mortalidade infantil. A taxa de mortalidade nesta idade depende diretamente das
condições de higiene e alimentação da população. A mortalidade nesta fase é signi cativamente maior em países
sub-desenvolvidos. Dos 2 aos 30 anos observamos uma taxa de mortalidade quase constante, mas com variações
características do comportamento humano. A mortalidade atinge um valor mínimo em torno dos 10 anos de
idade: superada a mortalidade infantil, observamos os efeitos da proteção dos pais. Na adolescência, em torno
de 14 a 20 anos, os lhos começam a sair de casa, e a mortalidade aumenta. A partir dos 40 anos temos um
aumento signi cativo e constante da mortalidade, provocada pelos efeitos do envelhecimento (problemas de
saúde em geral). Apenas a título de curiosidade, a Figura 1-11 também mostra a expectativa de sobrevida, em
função da idade, para os indivíduos que tinham aquela idade em 2015.
20 INTRODUÇÃO A CONFIABILIDADE
Figura 1-11: Taxa de mortalidade por idade e expectativa de vida por idade para população Brasileira. Fonte:
IBGE, 2015.
risco[F ] = pf £ cf , (1.17)
1.4. RISCOS: PROBABILIDADES E CONSEQUÊNCIAS 21
sendo cf o custo de falha. A quanti cação de custos de falha nem sempre é trivial, por exemplo quando a falha
envolve morte, danos físicos, ou impacto ambiental. Outras vezes o evento negativo é a própria medida das
consequências, como a morte, para o indivíduo envolvido. Um exemplo simples é o risco de um funcionário
envolvido em determinada atividade morrer devido a uma explosão. Seja:
risco[morte] = 0, 01 £ 0, 1
= 10¡3 mortes por ano.
Quando o risco é calculado de forma composta, como no exemplo acima, um dos elementos pode ser dado
como uma frequência relativa, mas todos os demais devem ser dados na forma de probabilidades, para que o
risco resultante seja dimensionalmente consistente.
Risco também pode ser de nido como probabilidade de dano. Em palavras:
Risco involuntário é aquele imposto a um indivíduo ou grupo de indivíduos por atividades de terceiros,
portanto sem a opção do indivíduo. Exemplos são todos os tipos de atividades industriais perigosas, que expõe
tanto funcionários quanto a comunidade a riscos devido a vazamentos, explosões, incêndios, etc.
Risco individual é aquele que afeta um indivíduo em particular. Geralmente, é dado na forma de chance
de morte por ano por milhão de habitantes. A Tabela (1.1) mostra exemplos de risco individual, em atividades
diversas. O objetivo desta tabela é colocar os riscos em perspectiva e, em particular, compará-los aos riscos de
falha estrutural, abordados neste texto. Observamos na tabela que o risco de falha estrutural (0,1 morte por
milhão de habitantes, por ano; ou 10¡7 por habitante e por ano) é pelo menos uma ordem de grandeza menor
do que a maior parte dos outros riscos individuais para a população. Este é um nível de risco considerado
históricamente aceitável, e temos que trabalhar para continue assim (pequeno e aceitável). Observamos ainda
na tabela que há riscos voluntários muito maiores do que riscos involuntários para toda a população. Em geral,
as pessoas se submetem a riscos individuais voluntários em troca de algum benefício. Os benefícios são líquidos
e certos, os riscos apenas estatísticas...
Risco social está associado com incidentes onde um grande número de fatalidades pode ocorrer: e.g.,
atividades perigosas em zonas de grande densidade populacional. Risco social expressa a relação entre frequência
(probabilidade) de ocorrência de um evento e o número de pessoas potencialmente atingidas por este evento.
A Figura (1-12) ilustra riscos sociais relacionados a atividades de engenharia segundo Whitman (1984), apud
Aoki (2005), com destaque para atividades de geotecnia.
22 INTRODUÇÃO A CONFIABILIDADE
Figura 1-12: Risco social em atividades de engenharia, adaptado de Whitman (1984) e Aoki (2005).
24 INTRODUÇÃO A CONFIABILIDADE
As Tabelas (1.2) e (1.3) mostram exemplos de riscos associados à atividades de transporte. A Tabela (1.2)
compara riscos associados aos diferentes modais de transportes. O transporte aéreo é frequentemente associado
a elevado nível de risco, talvez em função da grande comoção causada por acidentes com centenas de vítimas.
De fato, o risco por hora de exposição é maior do que para transporte rodoviário ou ferroviário. No entanto,
quando consideramos a exposição típica, ou a velocidade média, veri camos que o risco de morte no transporte
aéreo é menor, seja em mortalidade anual, ou na taxa de mortalidade por km viajado. Os valores indicados na
Tabela (1.2) são médias globais para toda a população de usuários destes modais de transporte.
A Tabela (1.3) quanti ca riscos associados ao transporte rodoviário no Brasil, para o ano de 2002. Os dados
estão desatualizados pois aparentemente, e infelizmente, o DENATRAN deixou de atualizar as estatísticas
após 2006. Estatísticas recentes mostram que a violência do trânsito está entre as maiores causas de morte,
especialmente entre os jovens (revista Veja, 2013). Anualmente, o trânsito no Brasil mata praticamente tantos
brasileiros como a guerra do Vietnã, que durou 20 anos e vitimou quase 60 mil soldados americanos. Os números
na Tabela (1.3) mostram que praticamente 1% da frota nacional de veículos se envolve em acidentes de trânsito,
anualmente.
Tabela 1.2: Risco individual em mortes por ano e por quilômetro rodado para viagens.
Modal de transporte Taxa de mortalidade Exposição típica Risco de morte
(10¡9 mortes/hora) (horas/ano) (10¡6 mortes/ano)
Aéreo 1200 20 24
Rodoviário 700 300 200
Ferroviário 80 200 15
Taxa de mortalidade Velocidade média Taxa de mortalidade
(10¡9 mortes/hora) (km/h) (10¡6 mortes/mil km)
Aéreo 1200 800 1,5
Rodoviário 700 80 8,75
Ferroviário 80 120 0,66
Tabela 1.3: Risco individual de mortes/lesões por acidente de trânsito no Brasil. (Fonte: DENATRAN, 2002:
Anuário Estatístico de Acidentes de Trânsito de 2002).
Número de vítimas Percentual Número de Percentual
não fatais em acidentes (vítimas) vítimas fatais (mortalidade)
Média pela 1822 vítimas por milhão 0,18% da 108 vítimas fatais por 0,01% da
população de habitantes por ano população milhão de habitantes por ano população
Média 9284 vítimas por milhão 0,93% 551 vítimas fatais por 0,05%
pela frota de veículos por ano da frota milhão de veículos por ano da frota
Risco de origem ambiental é aquele que se origina em fenômenos naturais ou ambientais, como terremo-
tos, tempestades, furacões, tsunamis, tornados, ondas de frio e calor, inundações, secas, etc. Este tipo de risco
tem a tendência de se intensi car, por efeito das recentes mudanças climáticas que o planeta vem experimen-
tando. Há evidências de que fenômenos ambientais tem ocorrido com maior intensidade e maior frequência, em
função de alterações do aumento da temperatura média global.
Risco de origem tecnológica é aquele que tem sua origem em atividades industriais perigosas, como ma-
nipulação, bene ciamento, transporte e estoque de produtos tóxicos e/ou inamáveis, como venenos, produtos
químicos, combustíveis, material radioativo, etc. O risco tecnológico também pode ser caracterizado pela uti-
lização ou exposição a equipamentos produzidos pelo homem, como aviões, foguetes, carros, navios, etc. Quando
um tsunami ou furacão atinge uma cidade, provocando destruição de prédios, inundação, e vítimas fatais e não
fatais, dizemos que se trata de um risco de origem ambiental (exemplo, destruição de New Orleans pelo furacão
1.4. RISCOS: PROBABILIDADES E CONSEQUÊNCIAS 25
Catrina em 2005). Quando um tsunami causa dispersão de radiação por destruição de uma planta nuclear,
como ocorrido em Fukushima em 2011, temos como origem um fenômeno ambiental, mas as consequências
determinadas por questões tecnológicas. Neste caso, podemos classi car o risco como de origem tecnológica.
A Tabela 1.4 lista alguns dos maiores desastres ambientais ocorridos, a nível mundial, nos últimos anos,
em consequência de fatores tecnológicos e industriais. Todos os casos listados caracterizam riscos sociais de
origem tecnológica, pois provocaram um grande número de vítimas, e/ou enormes consequências ambientais.
Os eventos são apresentados em ordem cronológica. A última coluna apresenta as consequências de cada evento,
em alguns casos com estimativa dos custos com reparação e indenizações. Vários dos desastres listados tem
em sua origem falhas estruturais; caso da falha de vasos de pressão em Seveso e Bhopal, falha por ruptura em
dutos na Vila Socó, falha de estruturas de contenção nos acidentes radiativos de Three Mile Island, Chernobyl
e Fukushima, falha de cimentação no poço Macondo e falha por ruptura da barragem de Mariana. Estas falhas
estruturais não tem necessáriamente causas estruturais; em geral são consequência de falhas de operação ou de
gerenciamento.
Três dos grandes desastres listados na Tabela 1.4 ocorreram no Brasil. Além destes, vale mencionar o
acidente envolvendo cápsulas de Césio 137, ocorrido em Goiânia, GO, em setembro de 1987; vazamento de 4
milhões de litros de óleo ocorrido na REPAR, no Paraná, em 16 de julho de 2000; e derramamento de petróleo
ocorrido no campo do Frade, bacia de Campos, em novembro de 2011. Outros acidentes com derramamento de
óleo combustível ou petróleo são listados no site Ambiente Brasil (2017).
No Brasil, os principais riscos de origem ambiental estão relacionados com excesso ou falta de precipitação.
Problemas envolvendo prolongadas secas, especialmente no Nordeste, e excesso de chuvas, no Sul e Sudeste. O
maior desastre natural da história do Brasil ocorreu em Janeiro de 2011, na região serrana do Rio de Janeiro. O
excesso de chuvas provocou inundações e deslizamentos de terra; estes destruíram casas em regiões de encosta.
O evento resultou em aproximadamente 800 vítimas fatais, além de milhares de desabrigados.
Eventos de seca e excesso de precipitação são recorrentes no país, que obviamente pouco faz em termos de
medidas de mitigação. Ameaças ambientais são fenômenos naturais, mas as consequências são fortemente deter-
minadas pelo homem. Em países desenvolvidos, eventos ambientais extremos tem consequências extremamente
reduzidas, em comparação aos países sub-desenvolvidos. Inundações na Holanda estão praticamente controladas
por um sistema de diques, enquanto cheias em Bangladesh deslocam milhões de pessoas e provocam centenas
a milhares de mortos a cada 3 ou 4 anos. Vítimas de terremotos intensos em países desenvolvidos podem ser
contadas nos dedos da mão, enquanto um único terremoto no Haiti vitimou fatalmente pelo menos 100 mil
pessoas em 2001.
Os estados do sul e sudeste do Brasil também tem enfrentado fenômenos de ventos extremos. Um furacão
de categoria II na escala Sa¢r-Simpson, com ventos sustentados de até 150 km/h foi registrado pela primeira
vez no litoral do Brasil, em março de 2004. O furacão Catarina deixou um rastro de destruição em cidades do
litoral de Santa Catarina, com pelo menos 11 mortos e 100 mil casas destruídas. Dados compilados pelo National
Weather Services dos Estados Unidos (NOAA) mostram que a região sul do Brasil é a segunda região de maior
risco, no mundo, para a ocorrência de tornados (Figura 1-13). De fato, entre 1990 e 2011 foram registrados ao
menos 205 destes fenômenos meteorológicos em território nacional (Candido, 2012). O tornado mais violento
já registrado no país ocorreu em Itu, SP, em 1991; causou 15 mortes e 176 feridos, além de destruir 280 casas.
Ventos podem ter atingido a categoria F4. Mais recentemente, no ano de 2005, um tornado com ventos de até
250 km/h atingiu a cidade de Indaiatuba, SP, provocando a destruição de 400 imóveis. Ocorrências de tornados
também tem sido compiladas pela Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio, 2007). A
ocorrência de ventos extremos é de grande importância para o projeto de estruturas no país, e não tem sido
levado em conta de forma apropriada.
26 INTRODUÇÃO A CONFIABILIDADE
Tabela 1.4:
1.4. RISCOS: PROBABILIDADES E CONSEQUÊNCIAS 27
Figura 1-13: Mapa de risco para ocorrência de tornados, fonte: NOAA - National Weather Service, Estados
Unidos.
Figura 1-14: Curvas de tolerabilidade ao risco social na Inglaterra e Holanda, e nos estados de SP, RJ e RS.
No estado de São Paulo, a norma CETESB P4.261 (CETESB, 2011) regulamenta a instalação e renovação
de licença de funcionamento de empreendimentos que geram riscos ambientais signi cativos. No estado de São
Paulo, a CETESB adota α = ¡1, mesmo valor utilizado no Reino Unido (UK). Nos estados do Rio Grande
do Sul e Rio de Janeiro, utiliza-se α = ¡1, 5. Note que os pontos de partida das curvas, para n = 1, também
são diferentes. Em geral, estes pontos correspondem aos limites correspondentes (aceitável com restrições,
intolerável) para risco individual. A Holanda é um dos países mais restritivos em relação aos riscos tecnológicos
em geral. Observe que a curva holandesa utiliza α = ¡2 (forte aversão aos riscos com grande número de vítimas
potenciais ) e começa em 10¡5 (pequena tolerabilidade aos riscos individuais).
O princípio ALARP pressupõe que a aprovação de uma planta ou empreendimento industrial seja baseada em
uma análise quantitativa de riscos, na qual seja demonstrado que todas as medidas razoavelmente praticáveis
para a redução de riscos foram adotadas. O razoavelmente praticável implica, por exemplo, em uma análise
de custo-benefício, na qual se demonstre que medidas adicionais de redução de riscos seriam economicamente
inviáveis. Tal análise esta baseada no princípio da desproporção, através do qual se reconhece que, à medida
que o risco diminui, torna-se cada vez mais caro diminuí-lo. De forma resumida, uma análise quantitativa
de riscos para demonstração do princípio ALARP envolve: a) análise de custo-benefício, que demonstre que
o ponto de risco mínimo foi atingido; b) demostrar a aplicação das melhores práticas em cada atividade; c)
demonstrar a e ciência das medidas de redução e mitigação de riscos adotadas; d) demonstrar a redução tanto
das probabilidades de ocorrência dos eventos perigosos como das suas consequências.
Gravidade do evento:
1. Evento minoritário: impacto inicialmente limitado à pequena área no local do evento com potencial para
consequências maiores na falta de ação corretiva.
2. Evento sério: evento que pode causar lesões sérias ou morte na planta ou fora dela; ou danos materiais no
valor de US$5 milhões na planta ou de um milhão fora dela.
3. Evento grave: evento cinco ou dez vezes maior do que um evento sério.
1. Baixa (f < 10¡4 /ano): uma falha ou série de falhas com muito pequena probabilidade de ocorrência dentro
da vida projetada da planta. Exemplos: três ou mais falhas simultâneas de equipamento, instrumento ou
humana; falha espontânea de tanque ou vaso de pressão.
2. Moderada (10¡4 < f < 10¡2 /ano): uma falha ou série de falhas com pequena probabilidade de ocorrência
dentro da vida projetada da planta. Exemplos: falha simultânea de 2 equipamentos ou 2 instrumentos;
combinação de falha de equipamento com falha humana; falha de pequena linha de processo.
3. Alta (f > 10¡2 /ano): pode-se esperar que uma falha aconteça durante a vida projetada da planta.
Exemplos: vazamentos; falha individual de um instrumento ou de um componente; erro humano que
resulta em vazamento de material.
1. Região de alto risco: riscos nesta faixa provavelmente são inaceitáveis e devem ser eliminados ou atenuados;
2. Riscos moderados: os riscos devem ser controlados e, se possível, eliminados. Estratégias de redução de
riscos devem ser estudadas, incluindo a relação custo-benefício de sua redução. Riscos devem ser reduzidos
sempre que estiverem acima da linha de riscos toleráveis;
30 INTRODUÇÃO A CONFIABILIDADE
Figura 1-16: Desproporção entre os esforços dispendidos no controle de riscos e a origem de grandes acidentes.
3. Região de baixo risco: estes riscos provavelmente são aceitáveis e continuarão assim mesmo que o nível
de riscos tolerável seja reduzido. A localização desta zona depende daquilo que o público, governo e
empregados entendem como aceitável ou tolerável (risco social).
cef = pf £ cf .
Observe que esta expressão coincide com a de nição de risco (Eq. 1.16).
Na realização de um empreendimento, há vários custos a serem levados em consideração: aquisição de
terreno, custos de projeto e ante-projeto, custos de construção (mão de obra, materiais, encargos, etc). Na
fase de operação, surgem custos de operação e gastos com inspeções e manutenção. Se o empreendimento se
tornar obsoleto, há custos de desmonte e descarte. Custos esperados de falha são custos indiretos, a serem pagos
na ocorrência de eventos falha. Estas podem ser falhas catastró cas, como explosões ou incêndios, dispersão
de poluentes, etc., ou simplesmente falhas que provocam a parada do empreendimento ou da produção, com
consequentes custos de lucros cessantes. Durante a construção do empreendimento também podem ocorrer
custos indiretos com acidentes de trabalho, provocando paralização e atrasos, indenizações, etc.
Muitos dos custos citados acima são investimentos realizados no sentido de controlar ou diminuir os custos
32 INTRODUÇÃO A CONFIABILIDADE
esperados de falha. Exemplos são gastos com treinamento de pessoal, equipamento de proteção individual,
qualidade de equipamentos da operação, equipamento de controle e alarmes, inspeções periódicas, manutenção
preventiva, etc. Até certo ponto, o investimento nestes itens provoca a melhoria das condições de segurança
do empreendimento, e a redução em custos indiretos com acidentes e outras falhas. Por outro lado, a falta
destes investimentos pode impactar negativamente nos custos futuros do empreendimento. A quanti cação dos
custos acima permite realizar uma análise de custo-benefício das medidas de segurança; por exemplo, para
demonstração de atendimento ao princípio ALARP.
Seja d um vetor que reúne as variáveis que quanti cam o investimento em medidas de segurança: horas
de treinamento, quantidade de equipamento de proteção individual, qualidade de equipamentos de operação,
quantidade e qualidade de equipamentos de controle e alarme, número ou frequência de inspeções periódicas,
política de manutenção (preventiva, preditiva, etc). O chamado custo esperado total, sobre o ciclo de vida, de
um empreendimento de engenharia é obtido como:
sendo cf i (d) o custo associado ao evento de falha ( )i . A Figura 1-19 ilustra como os investimentos em medidas
de segurança (d) tem impacto direto nos custos iniciais (de projeto e construção) e nos custos de inspeção
e manutenção. No entanto, investimentos em d também resultam em uma diminuição acentuada dos custos
indiretos associados com as falhas, cef (d). O nível ótimo de investimentos em d é obtido a partir da solução de
1.4. RISCOS: PROBABILIDADES E CONSEQUÊNCIAS 33
Figura 1-19: Problema de otimização de custos sobre o ciclo de vida e nível de con abilidade ótimo.
um problema de otimização matemática, onde se busca o ponto de mínimo custo esperado total:
Determine : d¤
que minimiza : cet (d),
sujeito à restrições de projeto : d 2 D. (1.19)
A solução do problema acima resulta, de forma indireta, no nível de con abilidade ótima do empreendimento. Ao
mesmo tempo em que se minimiza o custo esperado total, se maximiza o retorno obtido com o empreendimento.
O problema apresentado na Eq. (1.19) é chamado de problema de otimização de custos sobre o ciclo de vida.
A maior parte deste texto está dedicado à avaliação da con abilidade, ou das probabilidades de falha, de
estruturas ou de sistemas estruturais. No entanto, no Capítulo (8) voltamos a abordar o problema de otimização
de custos sobre o ciclo de vida. Na aplicação à problemas de engenharia de estruturas, alguns dos principais
componentes do vetor de projeto d são os coe cientes parciais de segurança, que serão determinados ou avaliados
do ponto de vista da con abilidade das estruturas. Portanto, até o nal do texto fechamos o ciclo, fornecendo
ao leitor os principais elementos para a mudança de paradigmas proposta pelo Prof. Aoki no Prefácio.
34 INTRODUÇÃO A CONFIABILIDADE
Capítulo 2
INTRODUÇÃO À
CONFIABILIDADE ESTRUTURAL
Neste capítulo apresentamos o problema de con abilidade estrutural. Primeiramente, descrevemos os requisitos
técnicos de projeto, e como são formulados em termos de equações de estado limite. Descrevemos variáveis
típicas de resistência, e discutimos modelos estatísticos usuais para estas variáveis. Descrevemos modelos
típicos de ações estruturais variáveis (de utilização, de vento, e outras), baseados em processos estocásticos e em
distribuições de valores extremos. Discutimos uma fonte de incertezas signi cativa e frequentemente ignorada: a
imprecisão dos modelos de cálculo. Apresentamos a formulação de problemas típicos de con abilidade estrutural,
cuja solução é endereçada no restante do texto.
O texto não tem a pretensão de servir como fonte de referência para modelos de incertezas em resistências
e ações. Pretendemos apenas discutir os principais modelos, apreciar a ordem de grandeza das incertezas
nas principais variáveis, e apresentar referências para fontes mais completas, como Ellingwood et al. (1980),
Melchers & Beck (2018), Joint Committee on Structural Safety (JCSS, 2001) e Santiago (2017).
1. requisito de serviço: uma estrutura deve manter-se em condições apropriadas para a execução da função
à qual se destina, durante todo o período de vida útil;
2. requisito de segurança: uma estrutura deve suportar carregamentos extremos esporádicos e carrega-
mentos repetitivos aos quais esteja sujeita dentro do período de vida previsto, sem entrar em colapso ou
apresentar severos danos permanentes;
3. requisito de robustez: uma estrutura não deve ser dani cada por eventos acidentais como incêndio,
explosões, impacto, terremotos ou erros humanos de maneira desproporcional à severidade do evento
causador do dano.
36 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL
Em geral, os requisitos técnicos são atendidos através de projeto e dimensionamento adequados. Estes
requisitos podem ser endereçados inteiramente através de considerações tecnológicas, i.e., sem levar em conta
aspectos econômicos ou sociais. No entanto, é facil perceber que estes 3 requisitos são diretamente conitantes
com interesses econômicos e sociais. Se o nível de segurança for excessivo, o custo da estrutura e a viabilidade
econômica da mesma podem ser comprometidos. Por outro lado, se o nível de segurança for insu ciente,
a aceitação da estrutura (ou do risco que ela representa) por parte do público ou usuário ca comprometida.
Note-se que esta questão está implícita quando se fala em níveis adequados de segurança. Sendo assim, estruturas
e sistemas estruturais devem satisfazer ainda aos seguintes requisitos:
4. requisito econômico: uma estrutura deve atender aos três requisitos técnicos sem comprometer sua
capacidade de gerar lucro, sob pena de tornar-se economicamente inviável;
5. requisito social: uma estrutura deve atender aos quatro requisitos anteriores com níveis de risco
aceitáveis por parte do público ou usuário.
Para atender ao requisito econômico, devemos levar em conta os custos de projeto, construção, manutenção
e operação da estrutura, bem como os custos (esperados) de falha. Em geral, isto representa uma análise
detalhada do compromisso entre segurança e o custo total esperado de uma estrutura. Uma análise deste tipo
resulta no nível adequado de segurança para determinada estrutura.
Em geral, a escolha do nível adequado de segurança deve levar em conta as consequências de falha em termos
de risco de morte ou danos à saúde, potencial para prejuízos econômicos e ambientais, e inconveniência social.
Esta escolha deve ainda levar em conta o custo relativo e a conveniência de se adotar medidas de redução de
risco. Sob esta lógica, medidas de redução de risco que sejam baratas e fáceis de implementar nunca devem
deixar de ser implementadas.
Estados limites últimos correspondem aos requisitos de segurança; envolvem a capacidade máxima de
carga ou de deformação da estrutura, e levam ao colapso parcial ou global da mesma, ou a dano grave e
permanente. Exemplos:
A ultrapassagem de um estado limite último é, em geral, irreversível. Logo, a primeira ocorrência deste
evento caracteriza falha da estrutura.
1. danos locais (formação de ssuras ou trincas) que afetam a durabilidade da estrutura bem como a aparência
de elementos estruturais ou não estruturais;
2. dano causado por efeitos dependentes do tempo como corrosão, desgaste, uência, que comprometam o
uso, mas não a segurança da estrutura;
3. deformação em nível não aceitável, que afete o uso e ciente ou a aparência de elementos estruturais ou
não estruturais, ou ainda que afete o funcionamento de equipamentos;
4. vibração excessiva, que cause desconforto ao usuário ou afete o funcionamento de equipamentos;
5. degradação devido a ações ambientais, como despassivação de armaduras ou intemperismo, que afetem a
e ciência ou a aparência de componentes estruturais ou não estruturais.
Os estado limites de serviço podem ser reversíveis ou irreversíveis. Quando irreversíveis, a primeira ultra-
passagem do estado limite caracteriza a falha. Quando reversíveis, a falha pode ser caracterizada quando a
passagem ao estado indesejável acontecer em momento inoportuno, por período muito prolongado, um número
excessivo de vezes ou ainda qualquer combinação destes. Estados limite de serviço devem ser de nidos utilizando
critérios de utilidade.
Estas equações são escritas de tal forma que valores negativos representam falha e valores positivos represen-
tam não falha ou sobrevivência. As equações de estado limite estabelecem, para cada modo de falha, a fronteira
entre os domínios de falha e não falha, ou a fronteira entre os estados desejável e indesejável da estrutura:
f = fxjg(x) · 0g,
s = fxjg(x) > 0g. (2.2)
O domínio de falha f é formado por todos os pontos do espaço amostral de X que levam a falha da estrutura,
conforme representado na Figura 2-1. O domínio de sobrevivência s é o conjunto complementar ao domínio
de falha. Por convenção, incluímos a equação de estado limite g(x) = 0 no domínio de falha; no entanto, o
conteúdo de probabilidade correspondente à igualdade é nulo (Apêndice A).
A equação de estado limite mais simples é função linear, independente do tempo, e que envolve apenas duas
variáveis aleatórias: resistência e solicitação X = fR, Sgt , ou capacidade e demanda X = fC, Dgt 1 :
g(X) = R ¡ S = 0,
g(X) = C ¡ D = 0. (2.3)
A equação de estado limite na Eq. (2.3) origina o problema de interferência entre populações, discutido na
Seção 1.2.2.
pf = P [fX 2 f g]
= P [fg(X) · 0g].
A probabilidade de falha pode ser avaliada a partir da função conjunta de densidade de probabilidades
fX (x), através da integral multi-dimensional:
Z
pf = fX (x)dx. (2.4)
f
Estas integrais estão representadas na Figura (2-2), para a equação de estado limite representada na Figura
(2-1). Antes de encaminhar a solução da Eq. (2.4), vamos interpretar a probabilidade de falha, e estudar
modelos típicos de ações e resistências em engenharia de estruturas.
2.2. CONFIABILIDADE DAS ESTRUTURAS: DEFINIÇÃO E INTERPRETAÇÃO 39
Figura 2-2: Integração da função de densidade conjunta para obter a con abilidade (esquerda) e probabilidade
de falha (direita).
Con abilidade estrutural é uma medida do grau de con ança em que uma estrutura ou sistema
estrutural atenda aos requisitos técnicos de projeto (função, resistência, equilíbrio), dentro de uma
vida de projeto especi cada, respeitadas as condições de operação e de projeto. Este grau de
con ança reete os modelos físicos, matemáticos e de engenharia utilizados no cálculo, bem como
os modelos estatísticos utilizados na quanti cação das incertezas.
Probabilidade de falha estrutural é uma medida da propensão de uma estrutura ou sistema estrutural
em deixar de atender aos requisitos técnicos de projeto (função, resistência, equilíbrio), dentro de
uma vida de projeto especi cada, respeitadas as condições de operação e de projeto. Esta propensão
é interpretada como grau de (des)con ança, e reete os modelos físicos, matemáticos e de engenharia
utilizados no cálculo, bem como os modelos estatísticos utilizados na quanti cação das incertezas.
As de nições acima tem uma diferença fundamental em relação à de nição apresentada na Seção 1.2.1: o grau
de con ança, ou a interpretação Bayesiana das probabilidades de falha e de sobrevivência (con abilidade). Esta
diferença é extremamente importante, porque determinamos a con abilidade de estruturas únicas, para as quais
falhas não são diretamente observáveis! Não sendo observáveis, e não havendo um grande número de estruturas
idênticas em operação, não cabe a interpretação frequentista das probabilidades de falha ou sobrevivência (Eq.
A.1). Logo, probabilidades de falha estrutural devem ser apresentadas como um número decimal entre 0 e
40 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL
PARÂMETROS OU MODELO
VARIÁVEIS DO COMPORTAMENTAL
PROBLEMA SIMPLIFICADO
TEORIA DE
PROBABILIDADES MODELO MATEMÁTICO
(def. axiomática) (eq. diferenciais e algébricas)
SOLUÇÃO MODELO
ANALÍTICA NUMÉRICO
SOLUÇÃO
NUMÉRICA
TOMADA DE DECISÕES NA
PRESENÇA DE INCERTEZAS RESPOSTA DO SISTEMA
(interpretação Bayesiana)
TOMADA DE DECISÕES
Figura 2-3: Interpretação das de nições de probabilidade na solução de problemas de con abilidade estrutural.
1, e nunca como uma razão entre inteiros. Conceitualmente, existe uma diferença enorme entre pf = 10¡3
(interpretação Bayesiana, grau de con ança) e pf = 1/1000 (interpretação frequentista).
A Figura (2-3) mostra um esquema de solução de problemas de con abilidade estrutural, e ajuda a ilustrar a
questão. A estrutura que existe no mundo real (ou existirá, em se tratando de projeto) se comporta de maneira
independente aos nossos modelos de cálculo. Esta estrutura chega à prancheta (ou computador) do engenheiro
como um modelo extremamente simpli cado da realidade. Como exemplo, e a depender da resposta desejada,
um prédio sujeito a esforços laterais pode ser representado como uma viga engastada, como um conjunto de
vigas e colunas (elementos nitos lineares), como um conjunto discreto de pontos materiais (elementos nitos
2D/3D), ou como um sistema massa-mola (análise dinâmica, modelo shear building, etc.). A equação constitutiva
do(s) material(is) pode ser representada como linear ou não-linear. A solução de equilíbrio pode ser feita na
con guração inicial ou na con guração deformada (não-linearidade geométrica). A condição de contorno pode
ser considerada como engaste perfeito ou elástico. A cada um destes modelos físicos corresponde um ou mais
modelos matemáticos, numéricos ou analíticos.
Os modelos físicos e matemáticos do problema estrutural dependem de variáveis básicas ou parâmetros
que, em sua grande maioria, podem ser medidos e observados. A interpretação frequentista de probabilidades
(Eq. A.1) é utilizada para construir modelos (distribuições de probabilidade) para variáveis observáveis como
resistência dos materiais, geometria e dimensões dos elementos, incertezas de modelo, intensidade e frequência
das ações, etc.
A de nição axiomática de probabilidades (Eq. A.3) é utilizada para propagar as incertezas dos parâmetros de
entrada, através dos modelos matemáticos, até as respostas da estrutura (tensões, deformações, deslocamentos,
etc). Probabilidades entram, probabilidades saem; logo, probabilidades são associadas às respostas da estrutura.
2.3. MODELOS DE RESISTÊNCIA 41
p Com base nos (n) resultados disponíveis, o analista pode determinar a média (r, Eq. A.17) e o desvio-padrão
( v, Eq. A.20) da amostra,
p bem como traçar um histograma dos resultados, conforme ilustrado na Figura 2-4.
As quantidades r e v, bem como o histograma, referem-se especi camente à amostra em análise; no entanto,
o analista quer determinar as propriedades da população, que épa resistência do material, ou variável aleatória
R. Sabemos que no limite com n ! 1, asp quantidades r e v convergem para os momentos µR e σR da
população (a resistência),
p tal que r ! µR e v ! σR . Na prática, para n su cientemente grande, temos que
µR ¼ r e σR ¼ v. A partir destes momentos, e/ou do histograma ilustrado na Figura 2-4, o analista pode
inferir uma distribuição de probabilidades fR (r) para a resistência, o que implica em postular, por exemplo:
a resistência deste material segue uma distribuição normal com parâmetros µR e σ R , ou R » N (µR , σR ); ou
ainda: a resistência segue uma distribuição lognormal com momentos µR e σ R , ou R » LN (µR , σR ). Nestas
sentenças, normal (Seção A.3.2) e lognormal (Seção A.3.2) são apenas dois exemplos de distribuições utilizadas
com frequência para representar variáveis de resistência.
Conhecida a função de distribuição fR (r), bem como os momentos µR e σR , temos uma descrição completa
da variável aleatória R, em termos de probabilidades. No entanto, o emprego de variáveis aleatórias no pro-
jeto ou análise convencional de estruturas, ou na fabricação ou comercialização dos materiais, não é prático,
e nem necessário, como veremos. Para tanto, convencionou-se utilizar o chamado valor característico da re-
sistência. Dentre todos os valores que uma variável aleatória pode assumir, o valor característico rk é aquele
2O
leitor que queira reproduzir um experimento equivalente, de forma muito simples, pode contar o número de ciclos necessários
para romper um conjunto de clips de papel, todos idênticos, e ensaiados em exão alternada.
2.3. MODELOS DE RESISTÊNCIA 43
que corresponde a uma probabilidade pré-determinada pk de não ser ultrapassado no sentido desfavorável. A
probabilidade pk também é chamada de nível de con ança. Para variáveis de resistência temos:
rk = FR¡1 (1 ¡ pk ).
Para variáveis aleatórias com distribuição normal, o valor característico também pode ser obtido por:
rk = µR ¡ kR σ R ,
sendo kR uma constante que reete o nível de con ança pk associada ao valor característico rk (Figura 2-4). A
Tabela 2.1 ilustra alguns valores de kR e pk para a distribuição normal.
é apropriado adimensionalizar, ou normalizar, a variável aleatória por seu valor característico. Seja:
R
Y =
rk
a variável aleatória normalizada (Figura 2-5). Ao multiplicar uma variável aleatória por uma constante (1/rk ),
sua média é multiplicada por esta constante, e seu coe ciente de variação δ = σ/µ ca inalterado. Logo, a
média de Y ca: µY = µR /rk , e δ Y = δ R . Neste contexto, a razão entre a resistência média e a resistência
característica, ou µY = µR /rk , é chamada de fator de bias (tendência). Para muitas famílias de resistências,
como aços ou concretos de uma mesma classe, as características da variável normalizada Y são constantes; logo,
podemos especi car as estatísticas de Y , e o valor característico rk , e reconstruir a variável aleatória R a
partir de R = rk Y. Exemplos são apresentados na sequência.
Concreto
Dentre os materiais estruturais usuais, o concreto é um dos que apresenta maior variabilidade de propriedades.
Observamos também que esta variabilidade é fortemente dependente do controle de qualidade empregado na
produção.
Considere o ensaio de compressão de corpos de prova de concreto usinado, provenientes de uma mesma
betonada, moldados em loco no recebimento, ensaiados em condições controladas de laboratório, após 28 dias
de cura. O processamento dos resultados para n corpos de prova foi exempli cado na Seção 2.3.1. No caso
especí co do concreto, a resistência média é função da fração de cimento utilizada na mistura, e o desvio-padrão
é função do controle de qualidade do processo de produção. Mesmo em uma única betonada, a variabilidade
da resistência decorre da não-homogeneidade micro-estrutural do material, formado por pasta cimentícia e
agregado, e de não-homogeneidades da mistura. A variabilidade da resistência vai aumentando à medida que
consideramos varias betonadas de uma mesma usina, concreto moldado em loco, concretos oriundos de usinas
diferentes em uma mesma região geográ ca, e concretos produzidos em todo um país. A variabilidade entre
betonadas aumenta devido à variações nas proporções da mistura, e variações nas propriedades dos materiais
constituíntes.
A variabilidade da resistência do concreto, a ser considerada em análise de con abilidade, deve ser compatível
com o escopo da análise. Para determinar a con abilidade de uma única estrutura, que será produzida com
concreto de uma única usina, podemos utilizar o desvio-padrão de produção daquela usina. No entanto, em
um trabalho de calibração de normas técnicas, por exemplo, o desvio-padrão a ser considerado deve reetir a
variabilidade dos concretos produzidos em toda a região coberta pela norma.
Referências diversas citam as distribuições normal e lognormal como próprias para descrever a incerteza na
resistência à compressão do concreto. A distribuição normal leva à conhecida expressão:
sendo fck a resistência característica, µ a média e σ o desvio-padrão. O fator 1, 65 está associado ao nível de
con ança de 95%, conforme Tabela 2.1. Esta expressão serve para determinar as proporções da mistura, para
desvio-padrão de norma ou correspondente ao histórico de produção da usina. A mesma expressão fornece a
média da resistência, para fck especi cado. O fator de tendência ou bias ca:
µfc 1, 65σ
µY = =1+ ¢ (2.7)
fck fck
Referências internacionais (Melchers & Beck, 2018; Nowak & Szerszen, 2003) indicam fatores de bias entre
1,12 e 1,38, para concretos usuais, com resistência na faixa 20-45 MPa. Coe cientes de variação δ = σ/µ
estão na faixa de 0,04 a 0,2; com os valores menores correspondentes a controle de qualidade excelente. Estes
valores de coe ciente de variação correspondem a variação entre lotes (diferentes concreteiras). Para lotes de um
único fornecedor, a variabilidade entre betonadas pode ser metade dos valores acima. Valores especí cos para
concretos de alta resistência são dados em (Melchers & Beck, 2018; Nowak & Szerszen, 2003), e para concreto
leve em Nowak & Szerszen (2003). Efeitos de tempo de cura e compactação são discutidos em (Melchers &
Beck, 2018).
Estatísticas da resistência de concretos usinados produzidos no Brasil são apresentadas e discutidas em
Santiago & Beck (2011, 2017). Os autores analisaram resultados de ensaios de resistência à compressão axial
aos 28 dias de idade, realizados em mais de 39 mil corpos de prova cilíndricos moldados in loco em obras das
cinco regiões do Brasil, entre os anos de 2011 e 2016. O fator de bias encontrado está entre 1,11 e 1,30, e o
coe ciente de variação entre 0,1 e 0,2, conforme Tabela 2.2.
Tabela 2.2: Estatísticas de resistência a compressão de concretos brasileiros, segundo Santiago & Beck (2017).
µfc
Classe Bias ( fck ) c.v. (δ)
C20 1,30 0,20
C25 1,25 0,17
C30 1,22 0,15
C35 1,19 0,13
C40 1,16 0,11
C45 1,13 0,10
C50 1,11 0,10
O módulo de elasticidade do concreto está relacionado com a resistência característica através de uma função,
que assume formas variadas nas diversas normas internacionais. Na norma brasileira de concreto (ABNT NBR
6118:2014), consideramos:
( p
5600 αe fck , para fck · 50 MPa;
Ek = ³ ´1/3 (2.8)
21500 αe f10ck
+ 1, 25 , para 50 · fck · 90 MPa;
distribuição normal.
Aço de armadura
A resistência dos aços depende da composição (percentual de carbono, materiais de liga) e do processo de fabri-
cação. Assim, propriedades como tensão de escoamento e tensão última devem ser relacionadas à especi cação
técnica do aço. Resultados compilados por Galambos & Ravindra (1978) para a tensão de escoamento de per s
laminados produzidos nos Estados Unidos mostram um fator de bias de 1,21 em relação à média, como testado
pelo fabricante. Corrigindo para a tensão de escoamento estática, o fator de bias é reduzido para 1,09. O
coe ciente de variação cou em torno de 0,082. Dados obtidos por Baker (1969, 1972) para aços ingleses e por
Alpsten (1972) para aços da Suécia mostram fator de bias entre 1,03 e 1,32 para diversas classes e formas de
aço. Estes valores, quando reduzidos para tensão estática, cam entre 0,92 e 1,21. Coe cientes de variação
estão na faixa de 0,04 a 0,12. Tabelas completas são apresentadas em Melchers & Beck (2018). Aparentemente,
efeitos de taxa de carregamento nos coe cientes de variação podem ser ignorados.
Uma correção empírica para a tensão de escoamento, em função da taxa de carregamento ε, é dada por Rao
et al. (1966): fyh ¡ fy = 22 + 6900ε (MPa), sendo fyh a tensão obtida em ensaio não-estático (0, 0002 · ε ·
0, 0016). Esta diferença é aproximadamente normal, com média em torno de 24 MPa e δ = 0, 13.
O JCSS (2001) reporta um fator de bias entre 1,11 e 1,15 para os aços europeus, antes da redução, e um
coe ciente de variação de 0,07. A recomendação de redução para taxa de carregamento é constante e igual a 20
2.3. MODELOS DE RESISTÊNCIA 47
MPa. O material (JCSS, 2001) também traz estatísticas para a tensão última de ruptura de aços laminados, e
a correlação entre esta e a tensão de escoamento, que é da ordem de 0,75.
Para aços utilizados em construção civil no Brasil, produzidos no Brasil e na China, Santiago (2017) obteve
as estatísticas mostradas na Tabela 2.3. Os resultados correspondem a um representante de aço-carbono (ASTM
A36) e um aço de baixa liga e alta resistência mecânica (ASTM A572 GR50). A tabela inclui ainda valores
médios e o valor de referência utilizado na calibração das normas Norte-Americanas. Resultados para tensão
última de ruptura são apresentados na Tabela 2.4.
As distribuições de probabilidade utilizadas para representar a tensão de escoamento incluem normal, log-
normal e Gumbel. Para os aços empregados no Brasil, uma distribuição normal foi utilizada por Santiago
(2017), tanto para tensão de escoamento como de ruptura.
Tabela 2.3: Estatísticas de resistência ao escoamento de aços utilizados no Brasil, segundo Santiago (2017).
µfy
Aço Bias ensaio Bias red. ( fyk ) c.v.
ASTM A36 1,34 1,26 0,090
ASTM A572 GR50 1,22 1,16 0,080
Média 1,28 1,20 0,085
Ellingwood et al. (1980)
alma de per s extrudados - 1,10 0,110
Tabela 2.4: Estatísticas de resistência à ruptura (tensão última) de aços utilizados no Brasil, segundo Santiago
(2017).
µf u
Aço Bias ( fuk ) c.v.
ASTM A36 1,16 0,060
ASTM A572 GR50 1,19 0,050
Média 1,175 0,055
Ellingwood et al. (1980) 1,10 0,110
Estatísticas obtidas de várias fontes para módulo de elasticidade (E) e coe ciente de Poisson (υ) dos aços
laminados foram compiladas por Galambos e Ravindra (1978), e reproduzidas em detalhes em Melchers & Beck
(2018). Em ensaios de tração, o fator bias µE /Ek ca em torno de 1,02, com δ E = 0, 01. Em ensaios de
compressão, ou em conjuntos mistos, o fator de bias aumenta para até 1,08, e o coe ciente de variação chega a
0, 06. Para o coe ciente de Poisson, o fator de bias esta muito próximo a um (µυ /υ k ¼ 0, 99) com δ υ ¼ 0, 025.
Estas estatísticas foram determinadas para aços com valores nominais Ek = 200 GPa e υ k = 0, 3. Já o JCSS
(2001) recomenda um fator de bias unitário e δ = 0, 03 para ambas variáveis (E e υ). Estatísticas para o módulo
de rigidez são raras, portanto convém tratar G como variável dependente: G = E/[2(1 + υ)]. O JCSS (2001)
recomenda distribuições log-normais para todas as variáveis.
Seção transversal
Incertezas nas dimensões de elementos laminados são consequência do processo de fabricação. Incertezas na
altura ou largura de elementos são bastante pequenas, com coe ciente de variação em torno de 0,2%, e tem
impacto desprezível na resistência dos elementos. A variabilidade na espessura tem impacto maior. No entanto,
em termos de resistência estrutural, são mais importantes as variabilidades nas propriedades de seção transversal,
como área A, momento de inércia da seção I, peso linear W e módulo plástico da seção Z. A maior parte da
48 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL
variabilidade nestas propriedades se deve à variabilidade da espessura dos anges. Histogramas normalizados
de altura e largura da seção transversal, espessura de alma e ange, e das propriedades A/Anom , I/In om ,
W/Wnom , e Z/Znom são reproduzidas em Melchers & Beck (2018), com base em resultados de Alpsten (1972).
Por recomendação de Ellingwood (1980), pode-se considerar um fator de bias unitário e δ = 0, 05 para estas
propriedades da seção transversal de per s de aço laminado.
Para determinar a resistência de um elemento estrutural como viga, coluna, laje, ou de uma estrutura completa,
com base na resistência dos materiais constituíntes, utilizamos modelos de cálculo. Como exemplos podemos
citar a determinação da resistência de vigas de concreto armado, com base na resistência do aço de armadura
e do concreto; a resistência de vigas produzidas a partir de chapas de aço laminado, a resistência de colunas
mistas de aço e concreto, a resistência de uma parede de alvenaria com base na resistência dos blocos e da
argamassa, etc.
Modelos de cálculo aproximam, de forma abstrata, a complexa natureza do comportamento das estruturas,
em especial próximo às situações de falha ou colapso, de interesse para a con abilidade estrutural. Estas aprox-
imações podem incluir, por exemplo, assumir resposta linear dos materiais e resolver as equações de equilíbrio
na con guração indeformada da estrutura. Estas duas classes principais de aproximações são conhecidas como
linearidade material e linearidade geométrica. A estas se somam dezenas de pequenas aproximações, feitas nos
modelos de cálculo no sentido de torná-los simples e operacionais; ou ainda, realizadas simplesmente porque
a natureza exata dos comportamentos não é conhecida. Em engenharia de estruturas estas aproximações são
tipicamente conservadoras, i.e., são feitas usualmente no sentido de aumentar as margens de segurança.
Com o advento da engenharia assistida por computador (CAE), aumentou a percepção da exatidão dos
modelos de cálculo: erros de representação geométrica, ou de solução numérica das equações diferenciais e
integrais dos problemas foram praticamente eliminados. No entanto, existem diferenças signi cativas entre a
complexidade dos problemas reais e a simplicidade dos problemas abstratos que resolvemos no computador. Os
modelos de comportamento material são aproximados, mesmo quando não-lineares; as condições de vinculação
e de aplicação dos carregamentos são idealizadas; os casos de carregamento são um sub-conjunto das situações
às quais a estrutura pode ser submetida durante a vida útil.
Considere como exemplo o comportamento de um elemento estrutural simples como uma coluna. Consider-
amos que existe uma solução exata, dada pela fórmula de Euler, para colunas longas, elásticas e perfeitamente
alinhadas, sujeitas a carregamentos centrados e perfeitamente vinculadas. Soluções analíticas fora do longo,
2.3. MODELOS DE RESISTÊNCIA 49
elástico, perfeitamente retilínio e vinculado são adaptações da equação de Euler, e incluem as colunas curtas
e médias, com imperfeições iniciais, carregamentos excêntricos, vinculações que não são rótulas nem engastes,
ou seja, as colunas que se aproximam da realidade. Soluções numéricas via elementos nitos, por exemplo, per-
mitem representar melhor as imperfeições geométricas, as falhas combinadas por exo-torção, exo-compressão,
não-linearidades materiais e geométricas, etc. No entanto, a complexidade do modelo aumenta, tornando-o
inviável para simular todas as colunas de um prédio, ou todas as barras de uma treliça.
Modelos de cálculo de engenharia representam a essência do conhecimento pro ssional em determinada área,
e por isto muitas vezes é difícil admitir sua imprecisão. Ellingwood e co-autores (Ellingwood et al., 1980, 1982),
falam em fator pro ssional, uma nomenclatura mais sutíl do que incerteza de modelo. No outro extremo,
temos a drástica a rmação do estatístico George Box: all models are wrong, some models are useful (Box et
al., 2005), em tradução livre: todos os modelos são errados; alguns ainda assim são úteis. Neste texto, não
discutimos a precisão de nenhum modelo particular de resistência. Pelo contrário, temos o objetivo de mostrar
ao leitor como a precisão de qualquer modelo de cálculo pode ser avaliada, e de apreciar a ordem de grandeza
das incertezas de modelos usuais em projeto de estruturas.
A precisão de um modelo de cálculo pode ser avaliada comparando suas previsões com resistências observadas
experimentalmente. Idealmente, esta avaliação deveria ser feita em relação à resistência real das estruturas
ou elementos, tal qual construídos; no entanto, é muito difícil medir in loco, e de maneira não-destrutiva, a
resistência de estruturas ou elementos estruturais. Assim, a avaliação da precisão do modelo é feita através de
experimentos em laboratório que devem replicar a situação de trabalho do elemento, ao invés de reproduzir as
hipóteses do modelo, mas respeitadas as limitações conhecidas.
A variável aleatória incerteza de modelo E é de nida como:
Rexp
E= , (2.9)
Rmod
ou seja, a variável E mede a razão entre resultados experimentais, e a resistência prevista para os mesmos
resultados utilizando o modelo, Rmod .
Seja f (p, R) uma função que representa o modelo de cálculo da resistência de uma estrutura ou elemento
estrutural, em função de um vetor de parâmetros p e de um vetor de variáveis aleatórias R:
Os parâmetros p representam o conjunto de situações para as quais o modelo f ( ) se aplica, como dimensões
estruturais, condições de vinculação, etc., mas que não são (representados como) variáveis aleatórias. Na
avaliação da instabilidade de uma coluna, por exemplo, p inclui, entre outros, o comprimento ou índice de
esbeltez da coluna. O vetor R reúne todas as variáveis aleatórias como resistência dos materiais, dimensões,
etc. Para a análise que segue, a incerteza nas variáveis R deve ser conhecida, isto é, antes de realizar o ensaio da
estrutura, devemos realizar medidas das tensões de escoamento e ruptura do material, módulo de elasticidade,
dimensões, etc. Seja ¹R o vetor que contém as médias das variáveis R. Idealmente, a incerteza nas variáveis
R deveria ser a menor possível, para se medir apenas a imprecisão do modelo. Como isto não é possível, uma
análise posterior é necessária para remover incerteza em R da medida de incerteza do modelo.
Considere agora a realização de n ensaios em laboratório, com ou sem mudança nos parâmetros p, para
avaliar a resistência real de estruturas ou elementos estruturais. Para cada ensaio i, obtemos uma realização da
resistência, (Rexp )i , e uma observação da variável aleatória incerteza de modelo:
As estatísticas da variavel aleatória E podem ser determinadas conforme Seção 2.3.1 e Eqs. (A.17) e (A.20).
O erro estatístico de amostragem é reduzido à medida que n ! 1. O modelo de cálculo ideal, ou perfeito, é
50 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL
aquele com erro sistemático nulo (ou média µE = 1) e erro aleatório nulo (variância σ2E = 0), conforme Seção
1.1.4. Na prática, podemos esperar uma média próxima da unidade, e uma variância pequena. Em engenharia
de estruturas, um bom modelo tem coe ciente de variação δ E = σE /µE menor do que 10%. Com frequência
maior do que poderia ser desejável, observamos modelos com δ E signi cativamente maiores. Em se tratanto de
modelos de resistência3 , uma média maior do que a unidade indica um modelo que é, em média, conservador.
Isto signi ca que o modelo erra mais prevendo resistências menores do que a resistência real, do que o contrário.
Modelos de cálculo em engenharia de estruturas são, típicamente, conservadores.
Do ponto de vista puramente estatístico, a avaliação da qualidade de um modelo depende tanto da média
quanto do desvio-padrão. Tal avaliação também é subjetiva, e depende da nalidade do modelo, ou de sua
utilidade para cada usuário. Sem conhecer a aplicação ou utilidade, é difícil dizer se um modelo A, com
µEA = 0, 95 e δ EA = 3% é melhor do que um modelo B, com µEB = 1, 15 e δ EB = 8%. Considerando
especi camente o cálculo de con abilidade, Gomes e Beck (2021) apresentam uma metodologia para veri car e
classi car modelos, com respeito ao grau de conservadorismo.
Para ser representativo, o programa experimental utilizado para obter as estatísticas de incerteza de modelo
(Eq. 2.9) deve considerar variações em todos os parâmetros p considerados signi cativos. Um planejamento
de experimentos (Montgomery, 2012) é recomendável. As estatísticas avaliadas serão válidas para a faixa de
valores p considerados; a eventual extrapolação deve ser feita com cautela. Na manipulação dos resultados
do experimento, podemos eventualmente identi car tendência da variável incerteza de modelo com respeito a
um ou mais parâmetros do modelo. Para efeitos de ilustração, considere que foi identi cada tendência de E
em relação ao parâmetro λ, um dos elementos de p. Neste caso, as estatísticas indicadas na Eq. (2.9) são
determinadas em função do parâmetro λ, e a incerteza de modelo torna-se função explícita deste parâmetro:
Rexp (pj , λk )
Ej (λk ) = , (2.11)
f(pj , λk , ¹R )
sendo j o número de amostras para as quais λ = λk , k = 1, ..., m; e m o número de níveis do parâmetro λ no
programa experimental. Nesta equação, pj refere-se às variações de todos os demais parâmetros.
A identi cação de tendências no modelo é extremamente importante para análise de con abilidade, ou para
eventuais correções do modelo. A determinação das estatísticas envolve análise de regressão (Montgomery, 2012;
Montgomery & Runger, 1999). Uma regressão linear na média, da variável E no parâmetro λ, é obtida fazendo:
E(λ) = aλ + b + ε, (2.12)
sendo a e b dois parâmetros a determinar, e ε uma variável aleatória chamada resíduo. Nesta regressão, a função
aλ + b capta a tendência média do modelo, enquanto a variável ε descreve a incerteza do modelo. Idealmente, os
resíduos deveriam seguir uma distribuição normal com média nula e desvio-padrão constante, i.e., independente
de λ, de forma que ε » N (0, σ ε ). Tomando o valor esperado da Eq. (2.12), obtemos:
Tomando a variância:
Para realizar uma regresão não-linear de E no parâmetro λ, trabalhamos com mudança de variáveis. Por
exemplo, uma regressão linear na variável κ = 1/λ resulta em uma regressão não-linear na variável λ. Um
exemplo de regressão não-linear envolvendo incerteza de modelo é apresentado em Beck et al. (2009). O
exemplo trata de modelos para previsão da capacidade de colunas mistas de aço preenchidas com concreto,
onde foi veri cada tendência do modelo com respeito ao índice de esbeltez das colunas.
A experiência do autor revela que incertezas de modelo são signi cativas em problemas de con abilidade estru-
tural. A inclusão da incerteza de modelo em problemas de con abilidade é feita utilizando como referência os
resultados experimentais, a partir das Eqs. (2.9) ou (2.11):
Nesta equação, a variabilidade de R será maior do que no programa experimental, pois inclui variáveis não
controladas no experimento. Esta expressão é válida para modelo tendencioso (E(λ)) ou não-tendencioso (E(λ) =
E).
Uma vez quanti cada a incerteza de modelo, é possível realizar a correção do modelo pela média. Isto também
é feito a partir das Eqs. (2.9) ou (2.11), substituindo E pela média µE , ou E(λ) pela média µE (λ):
corr
Rmod = µE (λ) f (p, R).
corr
Com a correção pela média, o novo modelo Rmod será não-tendencioso ou, pelo menos, não apresentará a mesma
tendência com relação à variável da regressão (λ).
EM S s N (µS , σS ), S = simples;
EM P s N (µP , σ P ), P = preciso.
Modelos de norma são típicamente conservadores, pois as aproximações geralmente são feitas a favor da
segurança. Para um modelo de resistência, isto signi ca que típicamente µS > 1. Para o model preciso,
assumimos µP = 1. Típicamente, também temos σS > σP , pois as aproximações do modelo simples o
tornam menos preciso. Para uma resistência experimental igual a x, e utilizando a Eq. (2.9), os respectivos
modelos de resistência são obtidos como:
x
M S(x) = ,
µS
x
M P (x) = = x.
µP
Note que o modelo simples, por ser conservador (µS > 1), prevê uma resistência menor do que a resistência
experimental4 . Para completar o problema de con abilidade, consideramos uma ação Q s N (µQ , σQ ),
52 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL
com valor médio unitário (µQ = 1), e um fator de segurança global γ. Para simpli car a solução de
con abilidade, assumimos a resistência do material como determinística; logo, cada equação de estado
limite envolve apenas duas variáveis aleatórias, a ação Q e a incerteza de modelo E.
Solução
Projeto: A solicitação nominal é igual à ação média, µQ = 1. A solicitação de projeto é sD = γ µQ = γ.
A condição de projeto é rD ¸ sD . Utilizando o modelo simples para o projeto, e projetando na igualdade,
temos:
M S(rDS ) = γ
rDS
= γ
µS
rDS = γ µS
Das equações acima observamos que, se σS > σP µS (pode ser considerado típico), então β S < βP , o que
indica conservadorismo no índice de con abilidade β S calculado com o modelo simples. A Figura 2-6 ilustra
os resultados em termos da razão σS /σP , para µS = 1, 05 e µS = 1, 2, considerando µQ = σ Q = 1. Como
vemos na gura, o uso do modelo simples para avaliar a con abilidade pode resultar em estimativas bem
conservadoras para o índice de con abilidade. Sempre que possível devemos utilizar o modelo mais preciso
para avaliação da con abilidade, pela redução da incerteza de modelo.
Projeto e β via modelo preciso: O projeto do elemento estrutural utilizando o modelo mais preciso
não é usual, mas é possível. Para ns de ilustração, desenvolvemos também este resultado. Neste caso,
não faz sentido avaliar a con abilidade utilizando o modelo simples. Utilizando o modelo mais preciso, a
resistência de projeto é rDP = γ µP = γ. A equação de estado limite e o índice de con abilidade são obtidos
2.3. MODELOS DE RESISTÊNCIA 53
Figura 2-6: Índices de con abilidade obtidos via modelo simples, modelo preciso, e projetando via modelo
preciso.
como:
gP P = EM P MP (rDP ) ¡ Q = EM P γ ¡ Q,
µP γ ¡ µQ
βP P = q ,
σ2P γ2 + σ2Q
sendo o índice ()P P para projeto preciso. No exemplo ilustrado na Figura 2-6, vemos que o projeto usando
o modelo preciso (µP = 1) resulta em menores índices de con abilidade, porque a margem de segurança
adicional, resultante de µS > 1, não existe neste caso. Ao trocar modelos de cálculo mais simples, e
conservadores, por modelos mais precisos, convém veri car se o coe ciente global γ deve ser ajustado.
Conforme comentado, modelos de cálculo são fonte signi cativa de incertezas em análises de con abilidade
estrutural. Portanto, é importante realizar a quanti cação de incertezas de modelo, conforme descrito nesta
seção. Como forma de apreciar a qualidade de modelos usuais em engenharia de estruturas, apresentamos aqui
algumas estatísticas de incertezas de modelo da literatura. Os modelos em si não são discutidos; sugerimos
consulta às referências originais para detalhes.
A Tabela 2.5 é uma compilação de dados da literatura para modelos usuais de resistência de elementos de aço,
de normas americanas, européias e brasileiras. Ellingwood et al. (1980) levantaram estatísticas para modelos da
norma americana ANSI/AISC 360 (2005). De acordo com estudo de Santiago (2017), estas estatísticas seriam
válidas para a norma ABNT NBR 8800 (2008), pois os modelos de cálculo são muito semelhantes. Estatísticas
para modelos do Eurocode também são apresentadas, segundo o JCSS (2001).
A Tabela 2.6 apresenta uma compilação de dados da literatura para modelos usuais de resistência de elemen-
tos de concreto, de normas americanas (Ellingwood et al., 1980), européias (JCSS, 2001) e brasileiras. Outros
resultados para normas americanas são apresentados por Nowak & Szerszen (2003).
54 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL
Com relação aos modelos da norma brasileira ABNT NBR 6118 (2014), Santos (2012) estudou modelos de
exão de vigas em concreto armado incluindo resultados experimentais para 144 vigas com diferentes alturas,
taxas de armadura e resistências do concreto. San Martins (2014) estudou incertezas de modelo para 21 vigas
protendidas ensaiadas à exão. Dantas et al. (201?) estudaram modelos para pilares curtos de concreto armado
submetidos à exo-compressão. Com base neste trabalho, Santiago (2017) selecionou 85 pilares executados com
diferentes concretos, taxas de armadura e seção transversal para determinar as estatísticas apresentadas na
Tabela 2.6. Infelizmente, não há resultados con áveis para os modelos de cisalhamento em vigas de concreto
armado da NBR 6118, apesar do esforço de Ribeiro (2012) e Ribeiro et al. (2016). Incertezas de modelo para
colunas de concreto con nado por plástico reforçado com bras de carbono são estudados em (Ferreira, 2017).
Tabela 2.5: Estatísticas de erro de modelo de resistência para elementos estruturais em aço.
Aço Elemento Média (µE ) c.v. Dist. Ref.
Tração 1,00 0,00 N A
Flexão vigas compactas:
momento uniforme 1,02 0,06 N A
vigas contínuas 1,06 0,07 N A
ANSI/AISC Flexão vigas wide ange:
Instabilidade torcional elástica 1,03 0,09 N A
Instabilidade torcional inelástica 1,06 0,09 N A
Vigas longas 1,02 0,10 N A
Flexão 1,00 0,05 LN B
Cisalhamento 1,00 0,05 LN B
Eurocodes Conexões soldadas 1,15 0,15 LN B
Conexões parafusadas 1,25 0,15 LN B
Tabela 2.6: Estatísticas de erro de modelo de resistência para elementos estruturais em concreto.
Concreto Elemento Média (µE ) c.v. Dist. Ref.
Flexão em um eixo, lajes 1,22 0,160 - A
Flexão em dois eixos, lajes 1,12-1,16 0,150 - A
Flexão, vigas 1,01-1,18 0,08-0,14 - A
ANSI/ACI Flexo-compressão, colunas curtas 0,95-1,05 0,12-0,16 - A
Flexo-compressão, colunas longas 0,95-1,10 0,12-0,17 - A
Cisalhamento, sem armadura 0,93 0,210 - A
Cisalhamento, armadura mínima 1,00 0,190 - A
Flexão 1,20 0,150 LN B
Eurocodes Flexo-compressão 1,40 0,250 LN B
Cisalhamento 1,00 0,100 LN B
Flexão concreto armado 0,99 0,024 LN C
NBR6118 Flexão concreto protendido 1,04 0,092 N D
Pilares de CA em exo-compressão 1,15 0,145 N EF
sendo f ( ) uma função de resistência, E(λ) a variável incerteza de modelo, e R um vetor de variáveis aleatórias
de resistência. A variável E pode ser omitida, quando inclusa no vetor R.
Os processos de degradação adicionam incertezas à previsão da resistência ao longo dos anos. Por hora,
assuma que as incertezas que descrevem o tempo de despassivação das armaduras, as taxas de corrosão, a
resistência a fadiga, ao desgaste, etc., estão inclusas no vetor R, e que os modelos de degradação da resistência
estão embutidos na função f ( ). Problemas de con abilidade com degradação da resistência são apresentados
na Seção 2.6.1, mas só são resolvidos no Capítulo 6.
utilização em lajes de prédios, e ações de vento. Também apresentamos algumas referências para modelos de
ações mais especí cas. Novamente, o objetivo é mostrar ao leitor os modelos de ações usuais, e fornecer uma
noção da ordem de grandeza das incertezas envolvidas. Em problemas de con abilidade estrutural, usualmente
incertezas nas ações são predominantes sobre incertezas na resistência.
Nesta seção, bem como no Capítulo 7, utilizamos a nomenclatura das normas americanas para as ações,
por serem mais explícitas. Assim, D refere-se a ação permanente (Dead load), L(t) refere-se a ação variável de
utilização (Live load) e W (t) refere-se a ação do vento (Wind load ). Em algumas situações, as letras referem-se
às ações propriamente ditas; em outros casos, referem-se aos efeitos destas ações. A distinção deve car clara
no contexto. A letra S, ou S(t), refere-se a uma ação genérica, ou ao seu efeito.
Nas discussões que seguem, convém fazer uma distinção entre a distribuição de ponto arbitrário, e a dis-
tribuição de valores extremos de uma ação. Conforme ilustrado na Figura 1-6, a distribuição de ponto arbitrário
no tempo é obtida ao se observar diversas realizações do processo através de uma janela, em um tempo t qual-
quer, mas xo. As distribuições de valores extremos estão associadas a um período especi cado, geralmente a
vida de projeto. Na Figura 1-6 ilustramos a distribuição de valores extremos de 50 anos de um processo es-
tocástico. Fixado o período de referência, a distribuição de valores extremos é obtida observando o maior valor
do processo no intervalo, em várias realizações do processo. Nesta seção, discutimos distribuições de extremos
anuais (W1 ) e de 50 anos para ação do vento (W50 ). Também discutimos distribuições de ponto arbitrário no
tempo (Lapt ) e extremos de 50 anos de ações de utilização (L50 ). O sub-índice ()apt vem do inglês average point
in time.
Variabilidade espacial
A intensidade da ação variável de utilização, sustentada ou intermitente, em um ponto (x, y) de uma laje, pode
ser representada como um campo estocástico W(x, y):
sendo m uma média geral, função da categoria de uso da estrutura; V uma variável aleatória de média nula,
que descreve os desvios em relação a m, das ações em diferentes pisos de um mesmo prédio, ou entre pisos de
prédios distintos; e U (x, y) um campo estocástico de média nula, que descreve as variações dentro de um mesmo
piso. O campo U(x, y) possui assimetria típica para a direita.
Os efeitos resultantes da ação variável são determinados a partir de linhas (caso de pórticos) ou superfí-
cies (caso das lajes) de inuência i(x, y). Assumindo comportamento elástico linear, é válido o princípio da
superposição dos efeitos, e o efeito S da ação de utilização é determinado como:
Z
S= W(x, y)i(x, y)dA.
A
A ação distribuída uniforme equivalente, por unidade de área, é de nida como a ação que produz o mesmo
efeito que o campo original: R
W(x, y)i(x, y)dA
Q= A R ¢
A
i(x, y)dA
2.4. MODELOS DE AÇÕES 59
Sem entrar em maiores detalhes, podemos mostrar (Melchers & Beck, 2018; JCSS, 2001) que os momentos
da ação distribuída uniforme equivalente são obtidos como:
µQ = m,
· ¸
A0
σ2Q · σ2V + κσ 2U max ,1 , (2.17)
AT
sendo A0 a área de atuação da ação de utilização, AT a área tributável e κ um fator que depende da forma da
superfície de inuência, dado em (JCSS, 2001). A distribuição de probabilidades sugerida para Q é a distribuição
Gamma.
O modelo apresentado nas Eqs. (2.16) e (2.17) foi inicialmente desenvolvido por Pier e Cornell (1973) para a
parcela sustentada da ação variável. No entanto, em (JCSS, 2001) este modelo também é utilizado, com outros
parâmetros, para a parcela intermitente. Um modelo alternativo para a parcela intermitente é discutido em
Melchers & Beck (2018).
Variabilidade temporal
Além da variabilidade espacial, ações de utilização em lajes ou pisos mudam ao longo do tempo, conforme
ilustrado na Figura 2-7. Típicamente, mudanças de ocupação (ação sustentada) são representadas como um
processo de Poisson (Seção A.3.1), com taxa média λ (mudanças por ano). Em consequência, o tempo entre
mudanças na ação sustentada segue uma distribuição exponencial (Seção A.3.2). Tipicamente, a chegada dos
pulsos de ação intermitente também é representada como um processo de Poisson, que ocorre com taxa ν (pulsos
por ano). O tempo até a primeira, ou entre ocorrências de pulsos, também segue distribuição exponencial. O
tempo de duração é assumido constante, mas muda em função do tipo de uso do piso.
Estatísticas de ocorrência
O documento Probabilistic Model Code (JCSS, 2001, parte II, pg. 31) reúne estatísticas para os vários parâmetros
dos modelos de ação variável aqui apresentados, com distinção de uso da estrutura (comercial, residencial, hotéis,
salas de aula, lojas, industrial, estoque). Outras estatísticas de ocorrência são apresentadas em Melchers & Beck
(2018). Uma ampla revisão bibliográ ca do tema e das estatísticas é realizada por Costa (2023).
A ação variável total L(t) é soma das parcelas sustentada e intermitente: L(t) = Q(t) + P (t). Trata-se da soma
de dois processos estocásticos com variação no tempo, cuja solução não é trivial. Assumindo independência
entre as parcelas, a distribuição de probabilidades da ação de utilização de ponto arbitrário no tempo, Lapt , e
obtida a partir da integral de convolução (Eq. A.92). A distribuição de máximos, para uma vida de projeto
tD , LtD , é obtida a partir da teoria de valores extremos (Seção A.7); e de alguma regra para combinação de
carregamentos (Seção 6.7). Alternativamente, estas distribuições podem ser obtidas a partir da observação de
estatísticas obtidas por simulações de Monte Carlo (veja Costa 2023).
O modelo de ações variáveis discutido nesta seção combina um campo estocástico, para representar variações
espaciais, com um processo estocástico, para representar variações temporais. Além disto, decompõe a ação
de utilização em uma laje em uma parcela sustentada e outra intermitente. Este modelo é apropriado para
representar o fenômeno, mas não é muito prático para realizar análises de con abilidade estrutural, ou para o
2.4. MODELOS DE AÇÕES 61
trabalho de calibração de normas. Tal como apresentado, o modelo permite soluções via simulação de Monte
Carlo ao longo do tempo (Capítulo 6). A solução utilizando métodos de con abilidade independente do tempo
requer a determinação de distribuições de valores extremos, além do emprego de uma regra de combinação de
carregamentos. Esta regra será introduzida na Seção (2.4.5). Aqui, apresentamos resultados obtidos por Costa
(2023) para as distribuições de ponto arbitrário (Lapt ) e de extremos de 50 anos (L50 ) das ações variáveis, para
uso no Brasil. Os resultados também são apresentados e discutidos em Costa et al. (2022).
O modelo de ações variáveis discutido nesta seção é válido para qualquer região geográ ca. As estatísticas
apresentadas em (JCSS, 2001, parte II, pg. 31) foram obtidas em países desenvolvidos, principalmente Estados
Unidos, Europa e Austrália. Na falta de estatísticas correspondentes para a realidade brasileira, entendemos
que os dados apresentados em (JCSS, 2001, parte II, pg. 31) podem ser utilizados como aproximação. No
entanto, as estatísticas são calculadas com respeito aos valores nominais de projeto das ações de utilização no
Brasil (ABNT NBR 6120:2019).
Costa (2023) realizou extensas simulações de Monte Carlo ao longo do tempo, com base no modelo descrito
nesta seção, e nas estatísticas apresentadas no Probabilistic Model Code (JCSS, 2001), e considerando diferentes
usos da edi cação. Com base nestas simulações, Costa (2023) buscou compatibilizar os valores de projeto pre-
conizados na norma ABNT NBR 6120:2019 com a de nição dos valores característicos da norma ABNT NBR
8681:2003, bem como da própria NBR 6120:2019: os valores característicos das ações variáveis, estabelecidos
por consenso e indicados em normas especí cas, correspondem a valores que têm de 25% a 35% de probabilidade
de serem ultrapassados no sentido desfavorável, durante um período de 50 anos. A variável utilizada para re-
alizar esta compatibilização foi a área tributária da laje (AT ). Costa (2023) também determinou as distribuições
de ponto arbitrário (Lapt ), de extremos de 50 anos (L50 ) e de 140 anos (L140 ) reportadas na Tabela 2.7. 140
anos é o período médio de retorno da ação característica com probabilidade de excedência de aprox. 30% em 50
anos, quando os máximos anuais são independentes. Este não é caso das ações de utilização, conforme discutido
em Costa et al. (2022).
Os valores reportados na Tabela 2.7 foram normalizados com respeito aos valores nominais (Ln ) estabelecidos
na norma ABNT NBR 6120 (2019), para os diferentes tipos de uso. São apresentados os valores de bias (média
em relação ao valor nominal), bem como os coe cientes de variação (c.v.). Também é apresentada uma média,
que é comparada com os valores utilizados por Ellingwood et al. (1980) na calibração das normas americanas.
As distribuições de probabilidade apropriadas são Gamma, para Lapt , e a distribuição de Gumbel (Seção A.7.5)
para L50 e L140 .
Tabela 2.7: Estatísticas de ações variáveis em lajes. Fonte: Costa et al. (2022) e Costa (2023).
Uso Ln AT Pt. arbit. Lapt Extremo L50 Extremo L140
(kN/m2 ) (m2 ) µLapt /Ln c.v. µL50 /Ln c.v. µL140 /Ln c.v.
Eds. comerciais 2,5 55 0,20 0,94 0,93 0,26 1,11 0,21
Eds. residenciais 1,5 70 0,20 0,75 0,93 0,22 1,09 0,18
Quartos de hotel 1,5 110 0,20 0,24 0,95 0,14 1,05 0,13
Enfermarias 2,0 55 0,20 1,16 0,89 0,35 1,13 0,28
Salas de aula 3,0 150 0,20 0,61 0,92 0,24 1,09 0,20
Lojas 4,0 155 0,22 0,86 0,92 0,28 1,11 0,22
Média - 0,21 0,76 0,92 0,25 1,09 0,20
Ellingwood et al. (1980) - 0,25 0,55 1,00 0,25 -
Velocidades de vento são medidas em estações meteorológicas geogra camente distribuídas, tendo como base
variadas médias temporais. Diferentes países e instituições utilizam como velocidade de referência (vref ) o vento
de rajada (média de 3 segundos), médias sobre 30 segundos ou dez minutos, ou o vento médio de milha (EUA,
correspondente à passagem de 1,61 km de vento pelo anemômetro). Estas velocidades podem ser convertidas
em vento médio horário, ou convertidas entre si, utilizando:
1, 05 vref j1h = 1, 0 vref j10 min = 0, 84 vref j1mile = 0, 77 vref j30s = 0, 67 vref j3s . (2.20)
De forma semelhante, dada a relação quadrática entre velocidades e pressões (Eq. 2.18), a conversão de pressões
é dada por:
1, 1 wref j1h = 1, 0 wref j10 min = 0, 71 wref j1mile = 0, 59 wref j30s = 0, 45 wref j3s . (2.21)
O vento de referência vref é medido a uma altura de referência zref ; usualmente zref = 10m acima do solo,
em região plana e aberta, sem interferências do entorno.
Estacionariedade O regime de ventos sofre variação sazonal com o clima (estações do ano), de forma que
o período mínimo no qual se pode assumir estacionariedade é um ano. Assim, máximas anuais do vento de
referência são anotadas, em cada estação meteorológica.
A construção de distribuições de extremos requer a estacionariedade dos dados. Existem vários fenômenos
2.4. MODELOS DE AÇÕES 63
climáticos que afetam o clima em regimes superiores a um ano. O fenômento El Niño, por exemplo, provoca
variações signi cativas nos regimes de chuvas, com períodos entre 2 e 7 anos. Variações climáticas em outras
escalas de tempo, variando de dez a milhares de anos, também são conhecidas. Ainda assim, modelos de ventos
extremos usuais são construídos assumindo a estacionariedade das velocidades máximas anuais.
Mudanças climáticas causadas pelo acúmulo de gas carbônico na atmosfera também tem afetado o regime de
ventos. Há evidências de que a frequência e intensidade de tempestades tem aumentado nos últimos anos. No
Brasil, Matias et al. (2017) investigaram a não-estacionariedade das velocidade de vento ao longo dos últimos
50 anos. A despeito das evidências recentes, a maior parte dos modelos de ventos extremos em uso no mundo
ainda assumem a estacionariedade das velocidades máximas anuais.
Homogeneidade Ventos são produzidos por diferentes fenômenos meteorológicos, como tempestades tropicais
(thunderstorms), ciclones extratropicais (extended mature pressure systems), furacões e tornados. A homogenei-
dade de dados, necessária para a construção de modelos estatísticos, exige a separação dos registros de ventos
produzidos por diferentes fenômenos atmosféricos (Gomes & Vickery, 1976; Batts et al., 1980; Riera & Rocha,
1998). A distinção entre furacões e tornados é mais simples, porque furacões se originam sobre o mar, e tornados
são extremamente localizados. No entanto, a distinção entre tempestades tropicais e ciclones extratropicais é
mais difícil, já que estes fenômenos se sobrepõe em latitudes médias ao redor do globo. Registros históricos de
velocidades de vento não fazem distinção entre os eventos causadores, e portanto se referem a climas mistos.
Esta pode ser uma explicação para a di culdade de se identi car uma distribuição única para representar ventos
máximos anuais ao redor do globo.
Ventos nominais
Seguindo a construção acima, o primeiro vento nominal de projeto é o máximo vento anual (V1 ). O vento máximo
anual corresponde à velocidade de vento com período médio de retorno de um ano. Usualmente, admite-se que os
componentes instantâneos da velocidade (Vx (t), Vy (t)) seguem distribuição Normal. Assumindo comportamento
isotrópico, o módulo da velocidade instantânea (V (t) = [Vx (t)2 , Vy (t)2 ]1/2 ) segue distribuição de Rayleigh (Eq.
A.47). Alternativamente, a distribuição de Weibull (A.121) também é utilizada para V (t). Da Teoria de Valores
Extremos (Apêndice A.7), resulta que a distribuição de Gumbel é o modelo teóricamente compatível com as
distribuições de máximos anuais (V1 ) ou de 50 anos (V50 ). Ainda assim, distribuições de Frechet, Rayleigh e
Weibull também mostram bom acoplamento com observações. Uma possível razão é a falta de homogeneidade
das observações (clima misto). Sendo µ e σ a média e o desvio-padrão dos registros de máximo vref anuais, os
parâmetros da distribuição de Gumbel (un e β) são determinados a partir da Eq. (A.119).
Assumindo independência entre os máximos anuais, as distribuições de extremos para outros períodos médios
de retorno (n) são obtidas como (Eq. A.104):
Em particular, o vento máximo de 50 anos (V50 ) também é obtido da Eq. (2.22). Esta é a chamada velocidade
básica do vento, ou v0 (ABNT NBR 6123:1988).
O procedimento acima é realizado para as várias estações meteorológicas espalhadas pelo país. Utilizando
como suporte o vento básico calculado em cada estação, ou classi cado em regiões climáticas, é construído um
modelo de regressão, conforme ilustrado em Beck e Correa (2013). A partir deste modelo é gerado o mapa de
iso-velocidades, ou mapa de isopletas, que permite determinar o vento básico de projeto em qualquer região do
país (ABNT NBR 6123:1988).
64 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL
Seguindo a lógica da distinção entre os fenômenos atmosféricos, Riera e Rocha (1998) construíram modelos para
ventos máximos anuais originários de tempestades tropicais e de ciclones extratropicais, para a região sul do
Brasil. Os modelos permitem ainda determinar a distribuição de extremos em função do quadrante (direção
do vento). Com base nestes modelos, Beck e Souza Jr. (2010) determinaram distribuições de extremos de 50
anos para o sul do Brasil. Comparando estas distribuições com os ventos básicos de projeto, Beck e Souza Jr.
(2010) determinaram as estatísticas apresentadas na Tabela (2.8), que permitem reconstruir as distribuições de
extremos a partir das velocidades básicas nominais (v0 ). Os dados apresentados nesta tabela representam uma
média para a região sul do Brasil. Estatisticas de pressão são determinadas a partir das velocidades, utilizando
a Eq. (2.18). Para efeitos de comparação, a tabela também ilustra valores utilizados por Ellingwood et al.
(1980) na calibração das normas Norte-Americanas. Observamos que os valores brasileiros e americanos tem a
mesma ordem de grandeza.
O mapa de ventos de projeto atualmente em uso no Brasil (ABNT NBR 6123:1988) foi construído por
Padaratz (1977), com base em registros históricos obtidos nos anos 1950 a 1974. A base de dados original
consistiu em 25 anos de registros, obtidos em 49 estações meteorológicas, totalizando 919 estações-ano de dados.
Uma proposta de atualização deste mapa foi apresentada em Beck e Correa (2013), com base em 4142 estações-
ano de dados, obtidos em 104 estações e cobrindo 62 anos entre 1950 e 2012. Os resultados apresentados (Beck
e Correa, 2013) mostram a urgência de se atualizar o mapa de isopletas da norma brasileira (ABNT NBR
6123:1988). Tal atualização também implicaria em uma reavaliação das estatísticas apresentadas na Tabela
(2.8).
A pressão estática equivalente, a uma altura z acima do nível do solo, é obtida a partir da Eq. (2.18) como:
1
W (z) = AGR(z) ρVn2 , (2.23)
2
sendo Vn a velocidade nominal ou aleatória (V1 , V50 ou v0 ), A o fator de forma ou aerodinâmico, G o fator de
rajada e R(z) o fator topográ co e de rugosidade do terreno. O fator aerodinâmico A depende da àrea exposta
e da orientação da estrutura; o fator de rajada G leva em conta, de forma aproximada, efeitos de interação entre
vento e a estrutura (Davenport, 1967).
O fator topográ co e de rugosidade R(z) determina o per l de variação das velocidades com a altura, em
consideração à localização e tamanho da estrutura, bem como a con guração de entorno. Este fator depende
da topogra a, e diferencia terreno plano de taludes, morros e vales. A rugosidade do terreno é diferenciada em
termos de categorias (superfície calma do mar, lagos e rios; campo em nível com vegetação rasteira; terrenos
planos ou ondulados com árvores e edi cações baixas e esparsas; terreno com muitos obstáculos de pequena
altura como orestas, cidades pequenas, subúrbios e zonas industriais; e terreno com muitos obstáculos de
grande altura, como o centro de grandes cidades). O fator R(z) está relacionado aos fatores topográ co (S1 )
e de rugosidade (S2 (z)) da norma brasileira (ABNT NBR 6123:1988); no entanto, na norma Brasileira estes
2.4. MODELOS DE AÇÕES 65
fatores multiplicam as velocidades, de forma que R(z) ¼ (S1 S2 (z))2 . O per l de velocidades em função da
altura é dado, em diferentes normas, por funções logaritmicas (ln(z/zref )) ou de potência (b(z/zref )p ).
Os fatores A, G e R(z) introduzem incertezas adicionais na avaliação das pressões estáticas equivalentes.
Segundo Davenport (1987), tais fatores podem ser representados como variáveis aleatórias log-normais, com
fator de bias unitário (valor médio correspondente ao valor de norma). Os coe cientes de variação (δ) estão
entre 0, 1 e 0, 3 para A, 0, 1 e 0, 15 para G, e 0, 1 e 0, 2 para R. Já Ellingwood et al. (1980) reportam valores
entre 0, 12 e 0, 15 para δ A , δ G = 0, 11 e δ R = 0, 16.
Devido à relação quadrática entre velocidades e pressões (Eq. 2.18), resulta que o coe ciente de variação das
pressões é aproximadamente o dobro daquele das velocidades (δ W ' 2δ V ). Assumindo a independência entre
as variáveis, o coe ciente de variação das pressões, incluindo a incerteza nos fatores (Eq. 2.23), é obtido como:
δ 2W = δ 2A + δ 2G + δ 2R + (2δ V )2 . (2.24)
Utilizando esta expressão e os coe cientes de variação recomendados por Ellingwood et al. (1980), e as
estatísticas de velocidade de vento (V1 e V50 ) apresentadas na Tabela (2.8), Beck e Souza Jr. (2010) determi-
naram as distribuições de extremos de pressão (W1 e W50 ) para a região sul do Brasil, também apresentadas
na Tabela (2.8). Em teoria, se a velocidade do vento V segue distribuição de Gumbel, a pressão W teria que
ter distribuição distinta. No entanto, segundo Ellingwood et al. (1980), a inclusão da incerteza nos fatores
aerodinâmicos faz com que as distribuições de pressão sigam distribuições de Gumbel também. As distribuições
de pressão de vento apresentadas na Tabela (2.8) podem ser utilizadas diretamente no processo de calibração
de normas técnicas (Capítulo 7).
As distribuições de pressão de vento apresentadas na Tabela (2.8) foram obtidas a partir do modelo de Riera
& Rocha (1998), que inclui tempestades tropicais (thunderstorms) e ciclones extratropicais (extended mature
pressure systems). Estas distribuições não representam ventos de furacões ou de tornados, que tem se mostrado
comuns no sul do Brasil, conforme comentado na Seção 1.4.2. O histórico de furacões é extremamente recente,
portanto acreditamos que não há dados su cientes para a construção de estatísticas. Registros de tornados tem
sido realizados (PUC-Rio, 2007), mas não há no Brasil modelos estatísticos relacionando a região geográ ca
com a frequência e a intensidade das ocorrências. Uma tentativa muito incipiente de relacionar estatísticas
brasileiras com as norte-americanas foi feita em Beck e Verzenhassi (2008).
Castanheta);
b) sequência de pulsos retangulares, com intensidade e duração aleatórias;
c) pulsos esparsos com ocorrência e intensidade aleatórias;
d) processos (estocásticos) contínuos e diferenciáveis.
Ações excepcionais como terremotos, tornados e tempestades marítimas são representadas através da combi-
nação dos modelos c) e d) acima. A ocorrência do evento é representada como um pulso esparso. A intensidade
média (escala Richter para terremotos, escala Fujita para tornados, altura média de onda para tempestades) é
representada pela intensidade do pulso. A este pulso soma-se um processo contínuo de média nula, que repre-
senta a variação rápida do processo no tempo, durante a ocorrência. Este é um exemplo de modelo hierárquico.
Neste texto, não discutimos modelos especí cos para ações de terremotos, tornados ou tempestades marítimas,
por serem mais complexos. Sugerimos referência à literatura técnica especializada.
A Figura 2-8 representa a ocorrência, ao longo do tempo, das ações discutidas neste texto. De cima para
baixo, o primeiro registro representa uma ação permanente (D), que é uma variável aleatória, como vimos.
A segunda curva (L) é uma sequência de pulsos retangulares, e representa ações de utilização em lajes, por
exemplo. A terceira curva (W ) é uma sequência de pulsos de duração xa, utilizada para representar, por
exemplo, o máximo vento anual (W1 ). A quarta curva (A) é um processo de pulsos esparsos, que representa
ações excepcionais. Usualmente, estas ações ocorrem de maneira simultânea nas estruturas. O problema de
combinação de ações consiste em determinar a ação equivalente ou resultante:
também ilustrada na Figura 2-8. Para compreender corretamente o problema, há que se considerar que as curvas
representadas na Figura 2-8 representam apenas uma realização de cada uma destas ações. Com excessão
de D, estas ações são processos estocásticos, que variam de forma aleatória no tempo, tanto em intensidade
como em tempo de renovação. Portanto, o problema de combinação de ações é um problema de combinação (ou
soma) de processos estocásticos. A solução deste problema não é trivial, e será abordada apenas na Seção 6.7.
Conforme vimos neste capítulo, é possível representar ações variáveis (processos estocásticos) através da
distribuição de extremos (uma variável aleatória), para um tempo tD determinado, usualmente a vida de projeto.
No entanto, aproximar a soma na Eq. (2.25) por StD = D + LtD + WtD + AtD seria extremamente conservador,
porque é extremamente improvável que os valores extremos destas ações ocorram de forma simultânea no tempo!
Isto pode ser veri cado na Figura 2-8, observando o instante em que cada ação atinge seu máximo. Também
pode ser observado na Figura 1-8, interpretando que cada registro corresponda a uma ação distinta.
Por outro lado, é certo que eventual ultrapassagem da equação de estado limite (falha da estrutura) ocorrerá
sob efeito da ação extrema StD . Portanto, em algumas circunstâncias5 , é possível converter o problema de
combinação de ações (Eq. 2.25) no problema de encontrar, ainda que de forma aproximada, a ação extrema
combinada, StD . O modelo de Turkstra, que será estudado na Seção 6.7.3, é uma forma simpli cada e intuitiva
de resolver o problem de combinação de ações. De forma resumida, este modelo postula que a ação combinada
extrema StD será a pior combinação entre a distribuição de extremos de uma ação variável, considerada como
principal na combinação, combinada com a soma da distribuição de ponto arbitrário das demais ações (ditas
secundárias, neste contexto). Para as ações ilustradas na Figura 2-8, e para tD = 50 anos (valor típico), temos:
2 3
D + L50 + W1 + Aapt
S50 ¼ max 4 D + Lapt + W50 + Aapt 5 . (2.26)
D + Lapt + W1 + A50
Nesta equação, o sub-índice ()apt vem do inglês average point in time, e representa a distribuição de ponto
arbitrário no tempo, ou seja, aquela que é obtida se o processo é observado em qualquer janela no tempo
(Figuras 1-6, 1-8 e 2-8). Usualmente, nestas combinações, trabalhamos com a distribuição de máximos anuais
do vento (W1 ), ao invés da distribuição Wapt . A regra de Turkstra tem sido utilizada no processo de calibração,
baseado em con abilidade, dos coe cientes parciais de normas de projeto estrutural (veja Capítulo 7). Observe
que a regra de combinação de ações nas normas de projeto estrutural segue o modelo de Turkstra. Os fatores
de combinação de ações (fatores ψ nas normas brasileiras) servem para reduzir, para o valor de ponto arbitrário
no tempo, as ações variáveis extremas, quando estas são consideradas secundárias na combinação. Ao longo
deste texto, esperamos que o leitor possa apreciar a simplicidade, bem como as limitações deste modelo.
mais complexos, como os de ações variáveis em lajes e de ações do vento discutidos neste texto. Por outro lado,
não há como quanti car a imprecisão destes modelos sem dispor de medidas (experimentais ou observações) dos
esforços reais. Logo, há aspectos dos modelos de ações que difícilmente podem ser quanti cados: a extrapolação
de medidas anuais de vento na determinação do vento nominal (de 50 anos); a interpolação de velocidades de
vento em um local geográ co sem estação meteorológica; bem como os vários elementos empíricos do modelo
de ação variável em lajes. Em função destas di culdades, incertezas de modelo de ações são incompletos ou
mesmo desconhecidos.
Ainda assim, há alguns elementos de modelos de ações cuja precisão pode ser veri cada. Como exemplo,
as pressões de vento nos vários pontos de um prédio ou ponte podem ser medidas através de ensaios em túnel
de vento, ou seja, é possível veri car a relação entre a velocidade e direção do vento incidente e as pressões
resultantes (modelo estático equivalente). Com base em um modelo realista em escala, é possivel veri car
respostas dinâmicas como frequências naturais e modos de vibração, interação uido-estrutura, etc. Nestas
situações, e com base nas observações experimentais ((Sexp )i ), obtemos realizações da variável aleatória incerteza
de modelo:
(Sexp )i Sexp (pi )
(ES )i = = , (2.27)
(Smod )i Smod (pi , ¹S )
sendo Smod (pi , ¹S ) o modelo que prevê a ação, para a con guração i dos parâmetros p, e com base na média
¹ das demais variáveis aleatórias envolvidas no modelo. Observe que esta é a mesma expressão utilizada para
modelos de resistência (Eq. 2.9), de forma que em análises de con abilidade a variável incerteza de modelo
apareça de forma multiplicativa: S = ES Smod (p, S). No entanto, como se trata de um modelo de ações, uma
média maior que a unidade caracteriza um modelo que é não-conservador (em média). Isto signi ca que o
modelo erra mais prevendo esforços menores do que os esforços reais, do que o contrário. Modelos de cálculo
em engenharia de estruturas são, tipicamente, conservadores; logo, espera-se uma média µE menor do que a
unidade. O modelo ideal, perfeito, teria média µE unitária e variância σ2E nula.
Como o formato é semelhante, todos os aspectos discutidos na Seção (2.3.5), em relação à incerteza de modelo
de resistências (modelo tendencioso, correção pela média, etc.) são válidos e aplicáveis também a modelos de
ações.
O documento JCSS (2001) apresenta algumas incertezas de modelo de ações; entre elas, incertezas de modelos
numéricos. Com frequência, em função da di culdade de se quanti car de forma completa as incertezas em
modelos de ação, as parcelas de incerteza conhecidas são incorporadas a outros parâmetros do problema. Este é
o caso, por exemplo, das incertezas nos coe cientes aerodinâmicos para determinação da ação estática equivalente
(Seção 2.4.4).
segurança, é conveniente dividirmos os valores característicos pelos valores médios. Desta forma, obtemos um
fator de redução da resistência, φk , e um fator de majoração de solicitações6 , γk , semelhantes aos utilizados em
normas técnicas:
rk
φk = < 1,
µR
sk
γk = > 1.
µS
Nas tabelas, observamos uma variação muito grande dos fatores φk e γ k , em função da distribuição de
probabilidades e do coe ciente de variação destas variáveis. Por conta desta variação, o projeto com base em
valores característicos da resistência, e em valores nominais das ações, não é su ciente para garantir uniformidade
da segurança das estruturas projetadas.
O problema do projetista de estruturas consiste em dimensionar elementos estruturais de forma a atender
aos requisitos de projeto:
6 Nesta análise consideramos uma con ança de 95% no valor das ações, ou seja, a discussão tem base em um valor característico
rD ¸ sD . (2.29)
As letras minúsculas indicam que não se trata mais de variáveis aleatórias, mas de valores representativos
das mesmas, e o índice D se refere a condição de projeto (Design). Portanto, rD é a resistência de projeto, e sD
é a solicitação de projeto. Trata-se de dois valores representativos, entre os (in nitos) valores que R e S podem
assumir.
A margem de segurança necessária é criada ao escolhermos, de maneira apropriada, os valores de projeto para
a resistência e a solicitação. No contexto das normas de projeto estrutural, utilizamos coe cientes de segurança
parciais, aplicados aos valores característicos de resistência e aos valores nominais das ações. A resistência de
projeto é dada por:
rD = φR rk , (2.30)
sendo φR < 1 um fator de redução da resistência e rk o valor característico da resistência. Nas normas brasileiras,
utilizamos um coe ciente de redução da resistência, γ R = 1/φR , o qual (em termos gerais) é equivalente ao
fator φR , de forma que rD = rk /γ R .
A solicitação de projeto é obtida multiplicando o valor nominal da solicitação (efeito de uma ação) por um
fator de majoração de carregamentos, γ S , tal que:
sD = γ S sn . (2.31)
φR rk ¸ γS sn .
Dividindo esta equação pelo termo a direita, obtemos um fator de segurança parcial adicional, que será
unitário ao projetarmos usando a igualdade:
φR rk
λD = ¸ 1. (2.32)
γ S sn
Considerando λD = 1, percebemos que o termo γ S /φR corresponde ao fator de segurança global, utilizado
em muitas normas técnicas antigas. O fator de segurança global λG cria uma margem de segurança em relação
aos valores característico de resistência e nominal da ação:
rk γ
= S ´ λG .
sn φR
Incorporando na Eq. (2.32) as margens de segurança oriundas do uso de valores característico e nominal,
obtemos:
φR φk µR
λD = ¸ 1. (2.33)
γS γ k µS
O termo µR /µS nesta equação é conhecido como fator de segurança central, λ0 , utilizado em algumas normas
técnicas (por exemplo, na geotecnia):
µR
´ λ0 .
µS
Utilizando esta de nição e a igualdade à direita na Eq. (2.33), obtemos uma relação entre os diferentes
72 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL
fatores de segurança:
φk
λG = λ0 .
γk
Este resultado mostra que o fator de segurança global é menor do que o fator de segurança central. Isto ocorre
porque o fator central cria uma margem de segurança em relação à média das distribuições, enquanto que o
fator global cria esta margem a partir dos valores característico e nominal.
A Eq. (2.33) mostra que os fatores de redução de resistência poderiam ser incorporados em um só, fazendo
(φR φk = φ). O mesmo poderia ser feito para os fatores de majoração de solicitações (γ S γ k = γ), de forma que:
φµR
λD = ¸ 1. (2.34)
γµS
De fato, a explicação para a forma da Equação (2.33) é histórica: esta equação se explica por conta da adoção,
no meio técnico, de valores nominais e característicos como valores representativos de ações e resistências.
A Figura 2-9 ilustra uma típica condição de projeto estrutural utilizando coe cientes parciais de segurança.
Estão representados nesta gura:
1. A função de densidades de probabilidade fS (s) de uma variável de solicitação (efeito de uma ação), que
tipicamente representa a distribuição de extremos correspondente a um determinado período de retorno;
o valor nominal desta solicitação (sn ) que corresponde a uma probabilidade de 63% de ser excedido no
período de retorno.
2. A função de densidades de probabilidade fR (r) de uma variável de resistência, e o valor característico da
resistência (rk ), tipicamente associado a uma probabilidade de 95% de ser excedido.
3. Os valores de projeto de solicitação e resistência, obtidos segundo Eqs. (2.30 e 2.31), e as respectivas
margens de segurança em relação aos valores nominais e característicos.
4. A margem de segurança adicional obtida quando λD > 1 na Eq. (2.32) Usualmente, projetamos com
λD = 1 ou marginalmente maior do que 1.
Figura 2-9: Con guração típica de projeto estrutural utilizando coe cientes de segurança.
Na Figura 2-9 ca claro que o problema de projeto fundamental, em duas variáveis aleatórias R e S,
corresponde ao problema de interferência entre populações, discutido na Seção 1.2.2. No entanto, o problema
fundamental de con abilidade das estruturas é um pouco mais complexo do que este, como veremos.
2.6. FORMULAÇÃO DOS PROBLEMAS DE CONFIABILIDADE ESTRUTURAL 73
g(R, S(t), t) = 0.
Portanto, os domínios de falha e sobrevivência (Eq. 2.2) também são funções do tempo:
Neste caso, as probabilidades de falha não podem ser determinadas pela Eq. (2.4).
O problema de con abilidade estrutural dependente do tempo consiste na avaliação da probabilidade de que,
a qualquer instante durante o período tD de vida de projeto da estrutura, a equação de estado limite se torne
negativa. Como o instante t em que o evento g(r, s, t) < 0 ocorre é irrelevante, o problema pode ser formulado
em termos da função mínimo: · ¸
pf (tD ) = P min g(R, S, t) · 0 . (2.36)
0·t·tD
A solução deste problema é baseada no modelo de falha à primeira sobrecarga, estudado no Capítulo 6. Esta
solução não é trivial, especialmente para S(t) multi-dimensional (mais de um processo de carregamento).
A probabilidade de falha pode ser avaliada através da Eq. (2.36). O problema escalar está representado na
Figura (2-10). Observamos, de imediato, que este problema é bastante distinto do problema de con abilidade
fundamental (Seção 1.2.2), em particular devido à dependência do tempo. Típicamente, e conforme ilustrado na
gura, as ações (processos estocásticos) variam rapidamente no tempo, enquanto a resistência muda de forma
lenta e gradual.
A princípio, o problema de con abilidade estrutural típico pode ser convertido em um problema de con a-
bilidade fundamental, mas isto envolveria simpli cações importantes:
74 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL
r, s
f R ( r , t0 )
r (t ) realização de R ( t )
f S ( s, t ) s (t ) realização de S ( t )
Figura 2-10: Problema de con abilidade estrutural típico envolvendo ação estocástica e variação da resistência
no tempo.
Dentre as aproximações acima, a mais aceitável, e que de fato é empregada, é a aproximação 3, como veremos.
No entanto, ela só é válida para o problema junto com a restrição 1, ou seja, desconsiderando a degradação
da resistência. O valor máximo de um processo estocástico em determinado intervalo de tempo é uma variável
aleatória. Se um processo estocástico S(t) está sempre abaixo do nível r durante a vida tD , então o valor
máximo (extremo) do processo neste tempo também estará abaixo de r. Isto permite reescrever a equação de
estado limite (Eq. 2.37) como:
g(R, S) = R ¡ StD ,
o que independe do tempo. A solução do problema fundamental (Eq. 1.2) poderia ser empregada, mas isto
implica nos inconvenientes citados no ítem 2 acima. A solução analítica na Eq. (1.10) certamente não seria
válida, porque as distribuições de valores extremos para StD são não-Gaussianas (Gumbel, Weibull, Frechet,
etc.).
A simplicação do ítem 2 acima pode (e deve) ser evitada considerando a resistência multi-dimensional. Neste
caso, a equação de estado limite ca:
g(R, S) = E(λ) f(R) ¡ StD .
O problema de con abilidade estrutural, nestas condições, pode ser resolvido a partir da Eq. (2.4), sendo
o vetor X composto por R e StD . Isto caracteriza um problema de con abilidade estrutural independente do
tempo. A formulação é exata quando apenas uma ação está envolvida, e não há variação da resistência no
tempo. A existência de degradação da resistência implica na necessidade de uma abordagem dependente do
tempo, conforme Capítulo 6.
2.6. FORMULAÇÃO DOS PROBLEMAS DE CONFIABILIDADE ESTRUTURAL 75
O problema de con abilidade dependente do tempo (Figura 2-10) resulta em um problema de interferência
entre populações para tempo t xo. A solução deste problema resulta na chamada probabilidade de falha
instantânea, conforme Eq. (1.2):
Z 1
pfinstantânea (t) = fS (s, t)FR (s, t)ds. (2.38)
¡1
Esta é a probabilidade de que uma sobrecarga ocorra exatamente no instante t. Esta probabilidade de
falha não é muito útil porque não pode ser integrada no tempo para se obter pf (tD )! Basta observar que, para
qualquer valor da probabilidade de falha instantânea, existiria um tempo tD > 0, tal que a probabilidade pf (tD )
resultante seria maior do que um! Isto ocorre porque as probabilidades de ocorrência de uma sobrecarga em
dois tempos distintos (t1 e t2 ) são eventos dependentes, i.e., uma sobrecarga só pode ocorrer em um instante
t2 > t1 se não tiver ocorrido até o instante t1 , e assim por diante. A única probabilidade de falha instantânea
útil é aquela calculada para t = 0; esta é a probabilidade de faha inicial (pf0 ) em problemas de con abilidade
dependente do tempo.
O domínio de falha é o conjunto de todos os valores que X pode assumir e que levam a falha da estrutura,
conforme representado na Figura 2.2. O domínio de sobrevivência ou seguro é o conjunto complementar a
este:
f = fxjg(x) · 0g,
s = fxjg(x) > 0g. (2.40)
A probabilidade de falha é obtida integrando a função conjunta de densidade de probabilidades fX (x) sobre
o domínio de falha (Eq. A.50): Z
pf = fX (x)dx. (2.41)
f
O problema fundamental de con abilidade, cuja solução é a Eq. (1.9), tem uma equação de estado limite
linear envolvendo duas variáveis aleatórias independentes, com distribuição normal. Conforme Seção A.6.4 e
Exemplo 30, pg. 370, uma função linear de qualquer número de variáveis aleatórias normais é, também, uma
variável normal. Portanto, em problemas multi-dimensionais envolvendo variáveis aleatórias normais e uma
equação de estado limite linear G = g(X), o resultado dado na Eq. (1.9, pg. 11) pode ser generalizado,
resultando naquele que é conhecido como índice de con abilidade de Cornell:
µG E[g(X)]
β´ =p ; (2.42)
σG V ar[g(X)]
sendo E[ ] o operador valor esperado e V ar[ ] o operador variância, de nidos nas pgs. 342 e 343, respectivamente.
76 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL
Nos próximos capítulos, estudaremos diferentes métodos de solução do problema formulado na Equação
(2.41). Estes métodos também serão, posteriormente, empregados na solução de problemas dependentes do
tempo, envolvendo processos estocásticos. A Tabela 2.11 mostra uma hierarquia de métodos de solução de
problemas de con abilidade estrutural independente do tempo. Dizemos que o primeiro nível de análise (1) é o
nível das normas de estados limites, quando os coe cientes parciais de segurança destas normas são calibrados
para atingir con abilidade alvo. De fato, não se trata de uma solução explícita do problema de con abilidade.
No entanto, com base na calibração dos coe cientes parciais, o projeto segundo estas normas consegue atingir
índices de con abilidade conhecidos. O problema de calibração dos coe cientes parciais de segurança de normas
técnicas de projeto é endereçado no Capítulo 7. O nível (2) consiste nos métodos de segundo momento, que
consideram apenas a média e o desvio-padrão das variáveis aleatórias do problema, o que equivale a considera-
las como variáveis normais. As distribuições de probabilidade não são utilizadas. As equações de estado limite
são aproximadas como lineares. A solução neste nível resulta em uma probabilidade de falha dita nominal, já
que as distribuições de probabilidade são ignoradas. A solução via método de segundo momento é estudada no
Capítulo 3 (Seção 3.2); está solução é a base para construção do método FORM (nivel 3). Os métodos de nível
(3) são aqueles que fazem uso completo das distribuições de probabilidades das variáveis aleatórias envolvidas.
O método FORM envolve uma transformação das variáveis aleatórias para o espaço normal padrão, e uma
aproximação linear da equação de estado limite. Os métodos de integração numérica e de simulação (de Monte
Carlo) também fazem uso completo das distribuições de probabilidades. Os métodos de integração numérica
são restritos a problemas de pequenas dimensões (4 a 5 variáveis aleatórias), e portanto não são abordados neste
texto. Os métodos de simulação de Monte Carlo permitem a maior precisão na avaliação das probabilidades
de falha, e por isto são chamados de métodos exatos. Nós preferimos evitar este nome, porque as técnicas
de simulação também tem pequenos vícios, como veremos no Capítulo 5. Ainda assim, a simulação de Monte
Carlo é o porto seguro para onde corremos, quando outras soluções analíticas ou numéricas falham, como é o
caso de algumas soluções para con abilidade de sistemas (Capítulo 4). Os métodos ditos de nível (4) endereçam
explicitamente os requisitos econômicos, incorporando informações sobre custos de falha à solução dos problemas
de projeto. Estes métodos (de otimização) são estudados no Capítulo 8.
Para completar o panorama das técnicas de solução, a Tabela 2.12 ilustra os diferentes métodos de solução
de problemas de con abilidade dependente do tempo. Um problema estacionário é aquele em que não existe
variação da resistência ao longo do tempo, no qual as estatísticas do processo de carregamento não mudam ao
longo do tempo. Quando envolvem um único carregamento, estes problemas são ditos escalares. Na última
coluna, a sigla VA signi ca variáveis aleatórias, e é uma indicação de que a solução envolve técnicas de con a-
bilidade independente do tempo. Como se vê, a maioria das técnicas de solução de problemas de confabilidade
dependente do tempo faz uso de ferramentas desenvolvidas para problemas independentes do tempo. Estas
soluções serão estudados no Capítulo 6.
2.6. FORMULAÇÃO DOS PROBLEMAS DE CONFIABILIDADE ESTRUTURAL 77
AÇÃO Q(t)
Resposta estrutural
Comparação a nível
Solicitação em termos de Resistência de
de elemento
esforços internos elementos estruturais
S(t) = efeito de carregamento[Q(t)] R(t) = função de resistência [R,t]
RESISTÊNCIA R
Resposta estrutural
Comparação a nível
Somatório de deformações
de estrutura Deslocamento crítico
ao longo da estrutura
(deslocamentos)
Figura 2-11: Níveis em que a comparação solicitação £ resistência pode ser feita.
De forma genérica, ou independente do nível em que ocorre a comparação entre resistência e solicitação,
podemos escrever:
Em problemas multi-dimensionais, não é necessário (e muitas vezes é impossível) escrever a equação de estado
limite na forma escalar explicita da Eq. (2.44).
Capítulo 3
MÉTODOS DE TRANSFORMAÇÃO
3.1 INTRODUÇÃO
A solução de problemas de con abilidade estrutural independentes do tempo, conforme formulado na Eq. (2.41),
envolve a determinação (ou uma aproximação) da função conjunta de densidade de probabilidades, fX (x), bem
como aproximações do domínio de integração. Diferentes métodos de solução, incluindo métodos de transfor-
mação e simulação de Monte Carlo, envolvem diferentes aproximações de fX (x) e do domínio de integração.
Na prática, não temos observações que permitam determinar diretamente a função conjunta de densidades
fX (x). Isto signi ca que esta função deve ser construída com base na informação existente, o que na maioria
dos casos se limita à informações sobre as funções de distribuição marginais de cada variável, e em alguns casos,
aos coe cientes de correlação entre pares de variáveis aleatórias.
No método de primeira ordem e segundo momento ou FOSM - First Order Second Moment - a equação
de estado limite é aproximada por uma função linear, e a informação estatística para construção de fX (x) se
limita aos momentos de até segunda ordem (média e covariância). Uma representação das variáveis aleatórias do
problema por seus momentos de primeira e segunda ordem é equivalente a assumi-las com distribuição normal.
Esta hipótese é bastante limitante no tocante à solução de problemas práticos. No entanto, a solução conhecida
como FOSM é a base teórica para a construção de soluções mais completas, e de maior aplicação prática. O
método FOSM é a base dos demais métodos de transformação.
No método de con abilidade de primeira ordem ou FORM - First Order Reliability Method - toda a infor-
mação estatística a respeito das variáveis aleatórias do problema é utilizada. Isto inclui distribuições marginais
não-normais, bem como os coe cientes de correlação entre pares de variáveis. O domínio de integração na Eq.
(2.41) ainda é aproximado por uma função linear. O método de con abilidade de segunda ordem ou SORM -
Second Order Reliability Method - utiliza a mesma informação estatística para construção da função conjunta
de densidades, mas aproxima a equação de estado limite por uma equação quadrática.
Neste capítulo, estudamos inicialmente o método de segundo momento (FOSM), e em seguida os métodos
de primeira e de segunda ordem (FORM e SORM). A descrição dos métodos de transformação está baseada
principalmente em Melchers & Beck (2018).
Na Seção 1.2.2, o problema fundamental de con abilidade foi formulado em R2 e resolvido em forma escalar.
Uma formulação mais geral, em Rn , foi apresentada na Seção 2.6.3, para um problema envolvendo n variáveis
aleatórias. Neste capítulo, estudamos como a solução fundamental é estendida para Rn , e adaptada para
problemas envolvendo variáveis aleatórias com quaisquer distribuições de probabilidades. Inicialmente, uma
solução do problema fundamental é obtida em R2 , e então generalizada para o Rn .
Os métodos de con abilidade estrutural ditos de transformação estão baseados em um mapeamento (trans-
formação) do vetor de variáveis aleatórias do problema, X 2 X ½ Rn , com distribuição conjunta de probabil-
80 MÉTODOS DE TRANSFORMAÇÃO
idades arbitrária, em um vetor de variáveis aleatórias Y 2 Y ½ Rn , com distribuição normal padrão, sendo n
o número de variáveis aleatórias do problema. O conjunto X forma o chamado espaço de projeto, i.e., aquele
em que as variáveis aleatórias tem dimensões físicas (MPa, kN, mm, etc.). O conjunto Y é chamado de es-
paço normal padrão; neste espaço as variáveis aleatórias são adimensionais, com média nula e desvio-padrão
unitário. Os métodos de transformação estão baseados em um mapeamento que leva de X ! Y e de Y ! X.
A Eq. (3.1) transforma um conjunto (vetor) de variáveis normais X » N (¹, D), com média e desvios-padrão
quaisquer, em um conjunto Y » N (0, I) de variáveis aleatórias normais padrão, com média nula e desvio padrão
unitário. Conforme Seção A.4.12, a função de densidade conjunta de probabilidades φn (y) (Eq. A.72) possui
simetria radial em relação à origem, propriedade explorada para construir a solução da Eq. (2.41).
Nesta seção a construção do problema é ilustrada para o caso bi-dimensional, antes de ser generalizada para
problemas em Rn .
Renomeando a margem de segurança M como uma equação de estado limite G, e transformando as variáveis
R e S nas variáveis Y1 e Y2 , através da Eq. (3.1), obtemos uma expressão para a equação de estado limite no
espaço normal padrão:
3.2. MÉTODO DE PRIMEIRA ORDEM E SEGUNDO MOMENTO (FOSM) 81
G = g(R, S) = R ¡ S,
g(y1 , y2 ) = g(r(y1 ), s(y2 )) = y1 σR + µR ¡ y2 σS ¡ µS . (3.2)
O quadrado da distância entre um ponto qualquer (y1 , y2 ) e a origem é d2 = y12 + y22 . Derivando em relação
a y1 e igualando a zero, obtemos a condição de mínimo (necessária mas não su ciente):
∂y2
2y1 + 2y2 = 0,
∂y1
σ
2y1 + 2y2 R = 0.
σS
Utilizando a Eq. (3.3), obtemos a coordenada y1¤ do ponto sobre a equação g(y1 , y2 ) = 0 mais próximo da
origem:
σR
y1¤ = ¡y2
σS
σR (µR ¡ µS )
= ¡ ¢
σ 2R + σ2S
82 MÉTODOS DE TRANSFORMAÇÃO
Considerando novamente a distância d2 = y12 + y22 , derivando em relação a y2 e igualando a zero, e utilizando
a Eq. (3.3), obtemos a coordenada y2¤ do ponto sobre g(y1 , y2 ) = 0 mais próximo da origem:
σS
y2¤ = ¡y1
σR
σS (µR ¡ µS )
= ¢
σ2R + σ 2S
Reunindo os dois resultados, temos as coordenadas do ponto sobre g(y1 , y2 ) = 0 mais próximo da origem:
(µR ¡ µS )
(y1¤ , y2¤ ) = (¡σR , σ S ) . (3.4)
σ2R + σ2S
Substituindo este resultado em d2 = y12 + y22 e tomando a raiz, obtemos uma expressão para a mínima distância
entre a equação g(y1 , y2 ) = 0 e a origem:
µ ¡ µS
dmin = p R2 ¢ (3.5)
σR + σ2S
Este resultado é idêntico à expressão do índice de con abilidade de Cornell (Eq. 1.9). Podemos generalizar
este resultado, constatando que o índice de con abilidade corresponde à mínima distância entre a equação de
estado limite e a origem do espaço normal padrão:
µ ¡ µS
β ´ dmin = p R2 ¢ (3.6)
σ R + σ2S
A Figura 3-2 ilustra a relação entre o índice de con abilidade, obtido da solução de um problema de min-
imização em duas dimensões, e a probabilidade de falha (pf ). A pf corresponde ao volume de probabilidades
na região atrás do hiper-plano, area hachurada na gura. Como se vê nas Figuras 3-2 e 3-3, esta probabilidade
também corresponde à área abaixo da curva φ(u), portanto pode ser calculada como:
pf = ©(¡β). (3.7)
Estes resultados mostram que o índice de con abilidade β pode ser interpretado como uma medida geométrica
da probabilidade de falha, e permitem formular a solução de problemas multi-dimensionais de con abilidade
independente do tempo como problemas de otimização:
De nição 1 O índice de con abilidade β é uma medida geométrica da probabilidade de falha, que corresponde
à mínima distância entre a equação de estado limite e a origem do espaço normal padrão Y.
R ¡β
Figura 3-3: Aproximação de primeira ordem, integração uni-dimensional pf = ©(¡β) = ¡1
φ(y)dy.
84 MÉTODOS DE TRANSFORMAÇÃO
forma circular das linhas de equi-probabilidade, este é também o ponto sobre a equação de estado limite mais
próximo da origem. Isto acontece porque a função de densidade normal padrão multi-variada (veja Seções
A.4.10 e A.4.12) decai exponencialmente com a distância radial da origem, enquanto que a distância à origem
aumenta de forma quadrática. Portanto, asintóticamente com β ! 1, o ponto de projeto é o ponto sobre o
domínio de falha com maior probabilidade de ocorrência. Na prática, isto é valido aproximadamente para β > 0
. Por conta disto, também é conhecido na literatura como most probable failure point ou simplesmente Most
Probable Point (MPP).
Este resultado é muito importante. Por ser o ponto sobre o domínio de falha com maior probabilidade de
ocorrência, o ponto de projeto é também o ponto ideal para se realizar a linearização de equações de estado
limite não-lineares, como veremos.
1 (µ ¡ µS )
(y1¤ , y2¤ ) = ¡ p 2 2
(σR , ¡σS ) p R2
σR + σS σR + σ2S
= ¡(α1 , α2 )β. (3.9)
Este resultado está ilustrado na Figura 3-2, e mostra que o ponto de projeto é ponto de projeção da origem do
espaço Y sobre a equação de estado limite. Em forma vetorial, este resultado é escrito como y¤ = ¡®β. Como
a equação de estado limite do problema fundamental é linear (g(y1 , y2 ) = y1 σR + µR ¡ y2 σS ¡ µS ), resulta que
rg(y1 , y2 ) e ® são constantes.
As coordenadas do ponto de projeto também podem ser escritas em termos de cossenos diretores, conforme
ilustrado na Figura 3-2:
Comparando este resultado com a Eq. (3.9), veri camos que em problemas lineares os componentes do vetor ®
se confundem com os cossenos diretores:
Determinar o ponto: y¤ ,
p
que minimiza: d = kyk = yt y,
sujeito a: g(y) = 0, (3.11)
sendo d a distância entre um ponto y qualquer e a origem. Este é um típico problema de otimização com
restrições. Neste caso, o índice de con abilidade é a mínima distância, encontrada como:
p
β ´ ky¤ k = y¤t y¤ . (3.12)
½ ¾t
∂g ∂g ∂g
rg(y) = , , ..., ,
∂y1 ∂y2 ∂yn
sendo o expoente f gt para transposto (trabalhamos com vetores-coluna em todo o texto). O vetor unitário que
aponta na direção de crescimento da função g(y) é:
rg(y)
®(y) = . (3.13)
krg(y)k
O ponto de projeto y¤ é o ponto sobre a equação de estado limite mais próximo da origem do espaço Y.
Este também é o ponto em que a origem do espaço Y se projeta sobre a equação de estado limite, de forma que:
y¤ = ¡®β, (3.14)
sendo β = ky¤ k a distância entre y¤ e a origem do espaço Y. Note a semelhança desta expressão com a Eq.
(3.9).
n
X
t
g(y) = β + ® y = β + αi yi = 0. (3.15)
i=1
A equação correspondente no espaço de projeto X é obtida aplicando a transformação (Eq. 3.1) em (3.15):
Xn
αi Xn
αi
g(x) = β ¡ µXi + xi = 0.
σ
i=1 Xi
σ
i=1 Xi
obtemos: n
X
g(x) = b0 + bi xi = 0,
i=1
que também é uma função linear em x. Tomando o valor esperado da função g(X):
n
X
E[g(X)] = b0 + bi µXi = β.
i=1
Para uma equação de estado limite linear e distribuições normais, o índice de con abilidade de Cornell (Eq.
2.42), é calculado como:
E[g(X)] β
p = = β.
V ar[g(X)] 1
Observamos que este resultado é idêntico ao índice de con abilidade β calculado a partir da solução do problema
de minimização no espaço Y. Portanto, o índice de con abilidade β independe do espaço de solução. Em geral,
esta observação só é válida para equações de estado limite lineares.
φR Rn = γD Dn + γ L Ln , (3.16)
g(X) = R ¡ (D + L),
sendo X = fR, D, Lgt . As estatísticas das 3 variáveis aleatórias envolvidas estão apresentadas na Tabela
3.1, em relação aos valores nominais. Estas estatísticas foram utilizadas por Ellingwood et al. (1980)
na calibração, baseada em con abilidade, das normas de projeto norte-americanas. As estatísticas para
3.2. MÉTODO DE PRIMEIRA ORDEM E SEGUNDO MOMENTO (FOSM) 87
R referem-se a vigas de aço tre lado, em exão sob momento uniforme. Assumindo distribuições nor-
mais (FOSM) e considerando uma razão unitária entre valores nominais das ações variável e permanente
(Ln /Dn = 1), determine o índice de con abilidade para os coe cientes parciais utilizados na norma ASCE
7.
Solução: Inicialmente, dividimos a Eq. (3.16) por Dn , para colocá-la em termos de razão de carregamento:
φR Rn L
= γ D + γL n . (3.17)
Dn Dn
A partir desta equação, para uma ação permanente nominal unitária (Dn = 1), e para Ln /Dn = 1,
determinamos a resistência nominal necessária:
Dn (γ D + γ L Ln /Dn ) 1(1, 2 + 1, 6) 2, 8
Rn = = = = 3, 1111.
φR 0, 9 0, 9
O vetor de médias é obtido a partir dos valores nominais e dos dados da Tabela 3.1: ¹ =
f3, 3289; 1, 05; 1, 0gt . Um vetor de desvios-padrão é obtido multiplicando os termos de ¹ pelos coe cientes
de variação: ¾ = f0, 4328; 0, 105; 0, 25gt . Como a equação de estado limite é linear, a Eq. (2.42) pode ser
utilizada diretamente:
E[g(X)] 3, 3289 ¡ 1, 05 ¡ 1, 0
β=p =p = 2, 50.
V ar[g(X)] 0, 43282 + 0, 1052 + 0, 252
Exercício 1 Projeto segundo norma (b): repita o Exemplo 2 para uma razão entre ações Ln /Dn = 5.
Resposta: β = 2, 58. Interpretação: porque o índice de con abilidade aumentou?
Exercício 2 Projeto segundo norma (c): repita o Exemplo 2 para uma razão entre ações Ln /Dn = 1,
mas utilizando os coe cientes parciais da norma brasileira NBR 8800. Resposta: β = 2, 42. Interpretação:
porque este valor é menor do que aquele obtido para a norma norte-americana?
Exercício 3 Projeto segundo norma (d): repita o Exemplo 2 para uma razão entre ações Ln /Dn = 5,
mas utilizando os coe cientes parciais da norma brasileira NBR 8800. Resposta: β = 2, 34. Interpretação:
porque este valor é menor do que aquele obtido para Ln /Dn = 1? Porque o comportamento observado
para a norma norte-americana não é observado para a norma brasileira?
Observação para interpretação dos resultados: lembre que os coe cientes parciais de segurança das
normas norte-americanas foram calibrados, com base nos dados da Tabela 3.1, para atingir índice de
con abilidade alvo βT = 3, 0 (combinação D + L), enquanto as normas brasileiras nunca passaram por
esta calibração.
1. solução de problema de otimização para encontrar o ponto de projeto e o índice de con abilidade;
2. aproximação da equação de estado limite por um hiper-plano, no ponto de projeto.
Conforme vimos, o ponto de projeto corresponde ao ponto sobre a equação de estado limite mais próximo da
origem. Portanto, ele pode ser encontrado a partir da solução do problema de otimização formulado na Eq.
(3.11). Utilizando um multiplicador de Lagrange λ, obtemos um problema de otimização sem restrições. O
Lagrangeano deste problema é:
1
L(y,λ) = (yt y) 2 + λg(y). (3.18)
Um ponto estacionário da Eq. (3.18) é obtido derivando L(y,λ) em relação a y e a λ, e igualando todos os
termos a zero:
∂L
= yd¡1 + λrg(y) = 0, (3.19)
∂y
∂L
= g(y) = 0. (3.20)
∂λ
A Eq. (3.20) é satisfeita automaticamente se y está sobre a equação de estado limite. A Eq. (3.19) leva as
coordenadas do ponto estacionário yest :
yest = ¡λdrg(y). (3.21)
Assumindo
p que este ponto de estacionariedade seja um ponto de mínimo (o ponto de projeto y¤ ), e usando
t
d = y y, obtemos:
rg ¤
dmin = ¡ y = ¡®t y¤ . (3.22)
krgk
A seguir, mostramos que esta distância mínima vem a ser o índice de con abilidade β, obtido através de
uma linearização da equação de estado limite no ponto de projeto.
Fazendo uma expansão da equação de estado limite g(y) em série de Taylor em torno de um ponto yp qualquer,
limitada aos termos de primeira ordem, obtemos:
Xn ¯
∂g(y) ¯¯
g(y) ' e
g(y) = g(y )+p
¯ (yi ¡ yip ) (3.23)
i=1
∂y i y=yp
= g(yp ) ¡ rgt yp .
g(y)] = ¡rg t yp .
E[e
n
à ¯ !2
X ∂g(y) ¯¯
V ar[e
g(y)] = = rgt rg. (3.25)
i=1
∂yi ¯y=yp
E[e
g(y)] rgt yp
β= 1 = ¡ = ¡®t yp . (3.26)
(V ar[e
g(y)]) 2 (rgt rg)1/2
Este resultado é identico à Eq. (3.22) para yp = y¤ . Portanto, a mínima distância entre o ponto de projeto
e a origem corresponde ao índice de con abilidade para a equação de estado limite linearizada, desde que a
mesma seja linearizada no ponto de projeto.
Conforme visto, o ponto de projeto é também o ponto sobre o domínio de falha com maior probabilidade
de ocorrência, o que signi ca que o maior conteúdo de probabilidades do domínio de falha está na vizinhança
deste ponto. Sendo assim, uma linearização da equação de estado limite neste ponto minimiza o erro cometido
ao se calcular a probabilidade de falha a partir da equação linearizada (Figura 3-2).
Em resumo, a solução de problemas envolvendo equações de estado limite não lineares envolve a solução de um
problema de otimização, para busca do ponto de projeto, e a aproximação da equação de estado limite original
por um hiper-plano, centrado no ponto de projeto (Figura 3-4). Sendo β a mínima distância entre a equação
de estado limite e a origem do espaço normal padrão, uma estimativa de primeira ordem da probabilidade de
falha é obtida como:
pf ¼ pfF O = ©(¡β). (3.27)
Note que, conforme ilustrado nas Figuras (3-2 e 3-3), a integral multi-dimensional sobre o domínio de falha
(Eq. 2.41) é substituída por uma integral uni-dimensional na variável u, sendo u a distância da origem na
direção do ponto de projeto y¤ .
O método de primeira ordem não forneçe estimativas para o erro cometido com a linearização da equação de
estado limite. No entanto, este erro pode ser avaliado com base na Figura (3-4). Nesta gura, destacamos que a
precisão da aproximação de primeira ordem depende do grau de não-linearidade da equação de estado limite na
região em torno do ponto de projeto, ponto em torno do qual está o maior conteúdo de probabilidades de fX (x)
no domínio de falha. Para uma equação de estado limite convexa em relação à origem, como a ilustrada na
Figura (3-4), a estimativa de primeira ordem é conservadora, i.e., pfF O > pf . A área hachurada mais escura na
gura corresponde ao conteúdo de probabilidade adicional avaliado pela aproximação de primeira ordem. Para
uma equação de estado limite convexa em relação à origem (não ilustrada), a estimativa de primeira ordem é
90 MÉTODOS DE TRANSFORMAÇÃO
Tomando a derivada da aproximação de primeira ordem da probabilidade de falha (Eq. 3.27) em relação às
variáveis de projeto no espaço normal padrão, obtemos informação a respeito da contribuição de cada variável
aleatoria na composição da pf :
¯ ¯
∂pf ¯¯ ∂©(¡β) ∂β ¯¯
=
∂y ¯y=y¤ ∂β ∂y ¯y=y¤
¯
∂β ¯¯
= ¡φ(¡β) .
∂y ¯y=y¤
¯
∂β ¯¯ rg(y¤ )
¯ = ¡®(y¤ ) = ¡ ¢
∂y y=y¤ krg(y¤ )k
Combinando os resultados, temos:
¯
∂pf ¯¯
= φ(¡β)®(y¤ ). (3.28)
∂y ¯y=y¤
P 2
Nesta expressão, o termo φ(¡β) é constante, e o vetor ® é unitário: αi = 1. Portanto, os componentes
α2i indicam a contribuição relativa da variável aleatória Yi (e portanto também da variável aleatória Xi ) na
composição da probabilidade de falha. Esta contribuição é uma combinação do valor médio, do desvio-padrão
e da distribuição de probabilidades da variável aleatória Xi .
Assim, se um valor α2i é pequeno (α2i ¼ 0) em relação à unidade, a variável Xi tem pouca contribuição na
probabilidade de falha da estrutura, e poderia eventualmente ser eliminada (substituída por um valor deter-
minístico). Esta informação é importante, pois permite reduzir a dimensão do problema através da eliminação
de variáveis sem importância. Por outro lado, α2i grande indica uma variável com grande contribuição, à qual se
deveria dar atenção (obter mais dados, reduzir incerteza estatística, etc.). Note que a avaliação dos coe cientes
de sensibilidade não exige cálculos adicionais, pois a informação dos gradientes é necessária para encontrar o
ponto de projeto.
O sinal de cada componente do vetor ® indica se determinada variável aleatória é de resistência ou de
solicitação. Na Eq. (3.8) veri camos que variáveis de resistência possuem αi > 0, enquanto solicitações tem
αi < 0. Em problemas mais complexos, nem sempre é possível saber se determinada variável é de resistência
ou de solicitação. Preservando os sinais ao elevar ao quadrado (α2i ), mostramos a contribuição relativa de cada
variável aleatória e se ela contribui para a resistência ou para a solicitação.
A medida de sensibilidade expressa na Eq. (3.28) é uma medida linear, portanto, os coe cientes de sensibili-
dade são estritamente válidos para equações de estado limite lineares e para distribuições normais. Para equações
de estado limite não-lineares e/ou distribuições de probabilidade não normais, estes coe cientes fornecem uma
aproximação (linear) da contribuição relativa de cada variável.
Enunciado: Determine a contribuição das variáveis aleatórias R, D, e L aos índices de con abilidade
calculados no Exemplo 2.
Solução: Utilizando a transformação de Hasofer Lind (Eq. 3.1) e a regra da cadeia, o vetor gradiente da
equação de estado limite no espaço Y é:
½ ¾t
∂g ∂x1 ∂g ∂x2 ∂g ∂x3
rg(y) = ; ;
∂x1 ∂y1 ∂x2 ∂y2 ∂x3 ∂y3
= f1 σ1 ; ¡1 σ2 ; ¡1 σ3 gt
t
= f0, 4328; ¡0, 105; ¡0, 25g .
rg(y)
®(y) = = f0, 8474; ¡0, 2056; ¡0, 4895gt .
krg(y)k
Mantendo os sinais ao elevar ao quadrado:
92 MÉTODOS DE TRANSFORMAÇÃO
®2 = fα2R ; α2D ; α2L gt = f+0, 718; ¡0, 042; ¡0, 240gt . (3.29)
O resultado mostra que a maior contribuição vem da variável aleatória de resistência R. A ação variável
L tem papel bem mais importante que a ação permanente, porque seu coe ciente de variação é bem maior.
Exercício 4 Projeto segundo norma (f), coe cientes de sensibilidade: repita o Exemplo 3 para uma razão
entre ações Ln /Dn = 5. Resposta:
Conhecido como algoritmo de Hasofer, Lind, Rackwitz e Fiessler, ou HLRF, este foi desenvolvido especí camente
para solução do problema de otimização em con abilidade estrutural (Hasofer e Lind, 1974; Rackwitz e Fiessler,
1978). Sua fórmula recursiva está baseada na aproximação da equação de estado limite por um hiperplano, e
na busca do zero (e
g(y) = 0) desta aproximação.
Uma expansão da equação de estado limite em série de Taylor de primeira ordem, em torno de um ponto
inicial yk qualquer, leva a:
sendo rg(yk ) o gradiente da equação de estado limite (no espaço normal padrão), avaliado no ponto yk . Um
p a equação linearizada, fazendo ge(yk+1 ) = 0 na Eq. (3.31). Da Eq. (3.14)
novo ponto yk+1 é encontrado sobre
temos yk = ¡®k βk , sendo βk = ytk yk . Substituindo na Eq. (3.31) e manipulando, obtemos:
3.2. MÉTODO DE PRIMEIRA ORDEM E SEGUNDO MOMENTO (FOSM) 93
rg(yk )t ®k
®tk ®k = = 1.
krg(yk )k
Portanto:
rg(yk )t ®k
rg(yk )t yk+1 = ¡ rg(yk )t (®k βk ) ¡ g(yk ).
krg(yk )k
Desta expressão, podemos eliminar a pré-multiplicação pela transposta do gradiente, obtendo:
®k
yk+1 = ¡ (®k βk ) ¡ g(yk ).
krg(yk )k
Portanto, o novo ponto pode ser encontrado como:
· ¸
g(yk )
yk+1 = ¡®k β k + . (3.33)
krg(yk )k
Na Eq. (3.33), o termo entre colchetes representa a nova aproximação do índice de con abilidade, ou β k+1 .
Esta expressão é utilizada de forma iterativa, arbitrando um ponto inicial yk qualquer, até atingir a convergência
em y e em β. Note que esta expressão depende de ®k , de β k , do gradiente rg(yk ) e do valor da função no ponto
k, g(yk ). A Eq. (3.33) é apropriada para uma busca manual pelo ponto de projeto, pois fornece explicitamente
a variação no índice de con abilidade de uma iteração para a próxima.
A Figura 3-5 ilustra o processo iterativo de busca do ponto de projeto, segundo o algoritmo HLRF.
Uma expressão alternativa é obtida a partir da Eq. (3.32), pós-multiplicando ambos os termos à direita da
94 MÉTODOS DE TRANSFORMAÇÃO
O termo entre colchetes é um escalar, de forma que a pré-multiplicação pela transposta do gradiente pode ser
eliminada de ambos os lados, resultando:
rg(yk )t yk ¡ g(yk )
yk+1 = rg(yk ). (3.34)
krg(yk )k2
Esta expressão envolve o ponto yk , o gradiente e o valor da função neste ponto, sendo talvez mais apropriada
para programação.
O algoritmo de Hasofer, Lind, Rackwitz e Fiessler (HLRF) aqui apresentado é de longe o algoritmo mais
utilizado para encontrar o ponto de projeto em problemas de con abilidade estrutural. No entanto, não existe
garantia de convergência do algoritmo, nem garantia de que o ponto encontrado seja o ponto de mínimo da
1/2
função β = (yt y) . Uma veri cação simples é arbitrar diferentes pontos iniciais, veri cando se o algoritmo
converge para o mesmo ponto y¤ .
O algoritmo HLRF pode ser melhorado através de uma busca linear para ajuste do passo (Zhang & Der
Kiureghian, 1997; Sudret & Der Kiureghian, 2000). A direção de busca é dada pelo algoritmo HLRF original:
rg(yk )t yk ¡ g(yk )
dk = yk+1 ¡ yk = rg(yk ) ¡ yk . (3.35)
krg(yk )k2
No algoritmo HLRF original, o novo ponto é determinado através de um passo unitário λk = 1, tal que:
yk+1 = yk + λk dk .
O algoritmo HLRF melhorado, ou iHLRF (do inglês improved ) realiza uma busca linear por um passo ótimo
λk que minimiza uma função mérito m(y):
A busca linear é realizada de forma aproximada, utilizando a regra de Armijo (Luenberger, 2003). Buscamos o
menor valor de n que resulte em redução su ciente na função mérito:
kyk
c> ; (3.36)
krg(y)k
Estas duas propriedades são su cientes para assegurar convergência incondicional do algoritmo (para prova
ver Zhang & Der Kiureghian, 1997). Um sumário do algoritmo é apresentado a seguir:
jrg(yk )t yk j
1¡ < e jg(yk )j < δ
krg(yk )k kyk k
rg(yk )t yk ¡ g(yk )
dk = rg(yk ) ¡ yk ;
krg(yk )k2
caso contrário
kyk k
ck = γ ;
krg(yk )k
5. Busca linear:
λk = max[bn j m(yk + bn dk ) ¡ m(yk ) · ¡abn rm(yk )t ¢ dk ];
n2N
6. Atualização do ponto y :
yk+1 = yk + λk dk ;
Observações:
y = D¡1 fx ¡ ¹g,
x = D y + ¹, (3.37)
Para implementar as transformações compostas do método de primeira ordem, é conveniente trabalhar com
matrizes Jacobianas, de nidas como:
· ¸
∂yi
Jyx = = D¡1 ,
∂xj i=1,...,n; j=1,...,n
· ¸
∂xi
Jxy = = D,
∂yj i=1,...,n; j=1,...,n
y = Jyx fx ¡ ¹g,
x = Jxy y + ¹. (3.38)
No contexto do método FOSM, não existe benefício aparente em trabalhar com matrizes Jacobianas para
realizar as transformações necessárias. Estes benefícios aparecerão no contexto do método de primeira ordem
(FORM).
Em geral, os vetores gradiente são avaliados no espaço X. O vetor gradiente em Y é obtido utilizando a
3.2. MÉTODO DE PRIMEIRA ORDEM E SEGUNDO MOMENTO (FOSM) 97
regra da cadeia:
½ ¾
∂g
rg(y) =
∂yi i=1,...,n
8 9
<X n
∂g ∂xj =
=
: ∂xj ∂yi ;
j=1
i=1,...,n;
t
= (Jxy ) rg(x). (3.39)
o algoritmo é interrompido (y¤ = yk+1 ); caso contrário, retorne ao item 4 com k = k + 1 até atingir a
convergência.
9. ao nal, avaliação do índice de con abilidade no ponto de projeto: β = ky¤ k .
Observe que as matrizes Jacobianas não mudam ao longo do processo iterativo; portanto, só precisam ser
calculadas ao início da solução.
Exemplo 4 Equação de estado limite não-linear, rótulo plástica em viga (adaptado de Ang & Tang, 1975,
2007).
98 MÉTODOS DE TRANSFORMAÇÃO
Formulação: Este problema representa a formação de uma rótula plástica em uma viga de aço, devido
a ação de um momento etor externo. As variáveis aleatórias tem distribuição normal, conforme dados
apresentados na Tabela 3.2.
Neste problema, σ y é a tensão de escoamento do aço, W é o módulo plástico da seção transversal da
viga, e M é o momento externo aplicado. Desta forma, a equação de estado limite do problema é:
g(X) = σ y W ¡ M = X1 X2 ¡ X3 . (3.40)
Antes de obter a solução FOSM via processo iterativo, determinamos uma aproximação de primeira
ordem no ponto médio, segundo o índice de con abilidade de Cornell (Eq. 2.42). Esta solução aproximada
é comparada com a solução correta ao nal do exemplo.
E[g(X)] g(¹)
β = p =p
V ar[g(X)] rg (Dt D) rg
t
40 50 ¡ 1000
= p
52 502 + 2, 52 402 + 2002
= 2, 9814.
Para proceder com a solução iterativa, é necessário determinar a equação de estado limite no espaço
normal padrão Y. Para isto, fazemos:
x = Jxy y + ¹
2 38 9 8 9
5 0 0 < y1 = < 40 =
= 4 0 2, 5 0 5 y2 + 50 .
: ; : ;
0 0 200 y3 1000
3.2. MÉTODO DE PRIMEIRA ORDEM E SEGUNDO MOMENTO (FOSM) 99
Logo:
O processo iterativo começa com k = 0, e com o ponto inicial igual a média. Desta forma, valores
iniciais são calculados como:
Agora, a equação recursiva de Hasofer-Lind (algoritmo HLRF ou Eq. 3.33) pode ser utilizada para deter-
minar o próximo valor de y:
· ¸
g(y0 )
y1 = ¡®0 β 0 +
krg(y0 )k
· ¸
1 1000
= ¡ f250; 100; ¡200gt 0 +
335, 41 335, 41
t
= f¡2, 2222; ¡0, 8889; +1, 7778g .
O novo valor de β é:
β 1 = ky1 k = 2, 9814.
Teorema 5 Princípio da invariância com relação à forma da equação de estado limite: para qualquer
função t monotônica, tal que t(0) = 0, as seguinte igualdade de probabilidades deve ser válida: P [g(X) <
0] = P [t(g(X)) < 0]. Como a função t é monotônica com t(0) = 0, resulta que a equação de estado limite
100 MÉTODOS DE TRANSFORMAÇÃO
g(X) = t(g(X)) = 0 não se altera; portanto, a probabilidade calculada também deve ser a mesma. Este
princípio deve ser válido para qualquer técnica de con abilidade estrutural.
Formulação: Neste exemplo, ilustramos uma falha grave do método FOMV, que consiste em uma aprox-
imação de primeira ordem no ponto médio, utilizando o índice de con abilidade de Cornell. Para tanto,
consideramos formas alternativas da equação de estado limite do Exemplo 4. A equação de estado limite
(Eq. 3.40) utilizada na solução do problema original compara momentos etores solicitante e resistente
(aquele necessário para formar uma rótula plástica). Dividindo ambos os termos da Eq. (3.40) por X3 ,
obtemos uma equação de estado limite equivalente, mas adimensional:
X1 X2
g2 (X) = ¡ 1.
X3
De maneira semelhante, podemos re-escrever a Eq. (3.40) de forma a comparar tensão resistente com tensão
solicitante:
X3
g3 (X) = X1 ¡ ,
X2
ou módulo plástico resistente com módulo solicitante:
X3
g4 (X) = X2 ¡ .
X1
E[g2 (X)]
β2 = p
V ar[g2 (X)]
40£50
1000 ¡ 1
= 1
p
1000
5 50 + 2, 52 402 + 22 2002
2 2
= 2, 0739.
Note que este valor é muito diferente daquele obtido pela aproximação de primeira ordem no ponto médio
utilizando a Eq. (3.40). Procedendo de maneira semelhante, e utilizando as equações de estado limite g3 (X)
e g4 (X), obtemos:
β3 = 3, 0861,
β4 = 3, 9036.
Percebemos, através deste exemplo, que a aproximação de primeira ordem no ponto médio (método
FOMV) não é invariante em relação à forma da equação de estado limite. Esta limitação é tão grave que
o FOMV não é considerado uma forma correta de resolver problemas de con abilidade estrutural. Note
que esta limitação se aplica apenas a problemas envolvendo equações de estado limite não-lineares; para
equações lineares envolvendo variáveis aleatórias normais o método fornece a resposta exata.
Para ns de comparação, propomos neste exercício que o leitor resolva novamente o Exemplo 6, via
método interativo de segundo momento (FOSM), utilizando as equações de estado limite g2 (X) a g4 (X).
Ao resolver este exemplo, o leitor irá perceber que a solução iterativa via FOSM produz sempre o mesmo
resultado (β 4 = β3 = β 2 = β ¼ 3, 0491), o que indica que o método FOSM é invariante em relação a
forma da equação de estado limite.
e através de uma matriz de correlação RX , formada pelos coe cientes de correlação (Eqs. A.63 e A.69) entre
pares de variáveis:
2 3
1 ρX12 ... ρX1n
6 ρX 1 ... ρX2n 7
RX = 6 21
4 ...
7, (3.41)
... ... ... 5
ρXn1 ρXn2 ... 1
sendo n o número de variáveis aleatórias do problema.
O método de con abilidade de primeira ordem ou FORM consiste na construção de uma função conjunta de
distribuição de probabilidades fX (x) e na transformação desta em uma distribuição normal padrão multi-variada
fY (y) (Eq. A.70). Esta transformação representa um mapeamento um-a-um, que leva pontos do espaço original
X para o espaço Y. Teoricamente, este mapeamento pode ser realizado através da transformação de Rosenblatt;
no entanto, esta envolve distribuições de probabilidade condicionais difíceis de avaliar. Uma alternativa é uma
transformação composta utilizando o modelo de Nataf, a qual envolve uma transformação em variáveis normais
equivalentes, e a eliminação da correlação entre estas. As duas técnicas são estudadas a seguir.
3.3. MÉTODO DE CONFIABILIDADE DE PRIMEIRA ORDEM (FORM) 103
FX (x0 ) = ©(y0 ).
Uma transformação teórica que permite este mapeamento é a transformação de Rosenblatt (Rosenblatt,
1952; Lebrun & Dutfoy, 2009). Esta transformação é obtida fazendo:
©(y1 ) = F1 (x1 ),
©(y2 ) = F2 (x2 jx1 ),
..
.
©(yn ) = Fn (xn jx1 , x2 , ..., xn¡1 ), (3.42)
sendo F2 (x2 jx1 ) a função de probabilidade condicional de x2 dada a ocorrência de x1 (Seção A.4.5). Invertendo
a função ©( ), podemos escrever:
Em teoria, as funções de probabilidade condicional podem ser obtidas a partir da distribuição conjunta
através de uma generalização das Eqs. (A.55) e (A.56):
f (x1 , x2 , ..., xi )
f (xi jx1 , x2 , ..., xi¡1 ) = , (3.44)
f (x1 , x2 , ..., xi¡1 )
R xi
¡1 f (x1 , x2 , ..., xi¡1 , u)du
F (xi jx1 , x2 , ..., xi¡1 ) = , (3.45)
f (x1 , x2 , ..., xi¡1 )
que poderiam ser resolvidas, por exemplo, por integração numérica. No entanto, considerando a potencial multi-
dimensionalidade do problema (n grande), tal solução não é trivial. Na prática, a transformação de Rosenblatt
é limitada a problemas de pequena dimensão. Um exemplo de cálculo em problema bi-dimensional é resolvido
analiticamente em Melchers & Beck (2018, pg. 120).
1. uma transformação das distribuições marginais originais em distribuições normais equivalentes (conjunto
de variáveis Z com dependência linear);
2. determinação de coe cientes de correlação equivalentes para as distribuições normais (modelo de Nataf);
104 MÉTODOS DE TRANSFORMAÇÃO
Estas três etapas são estudadas a seguir. A Figura 3-6 ilustra as três partes da transformação.
O princípio da aproximação normal (Ditlevsen, 1981; Der Kiureghian & Liu, 1986) consiste em determinar, para
um ponto x¤i , uma distribuição normal equivalente que preserve o conteúdo de probabilidades da distribuição
original FXi (x¤i ) neste ponto. Como a distribuição normal equivalente está de nida no espaço X, escrevemos:
µ ¤ ¶
¤ neq ¤ xi ¡ µneq
Xi
FXi (xi ) = FXi (xi ) = © . (3.46)
σneq
Xi
A distribuição normal equivalente possue dois parâmetros, que são a média µneq neq
Xi e o desvio padrão σ Xi ,
neq
sendo o expoente ( ) para normal equivalente. Para determinar dois parâmetros, é necessária uma segunda
equação. O critério para estabelecer esta segunda equação é arbitrário, mas uma condição natural é igualar
também as funções de densidade:
" µ neq ¶2
#
¤ 1 1 x¤i ¡ µXi φ(zi¤ )
fXi (xi ) = neq p exp ¡ neq = neq , (3.47)
σ Xi 2π 2 σXi σXi
sendo zi¤ obtido da transformação de Hasofer e Lind (Eq. 3.1), adaptada para:
x¤i ¡ µneq
Xi
zi¤ = (3.48)
σneq
Xi
O conjunto de variáveis Z = fZ1 , Z2 , ..., Zn g assim obtido apresenta distribuições marginais normais padrão,
mas possívelmente linearmente dependentes (correlacionadas). Escrevendo a Eq. (3.46) em termos de zi¤
obtemos:
zi¤ = ©¡1 (FXi (x¤i )). (3.49)
3.3. MÉTODO DE CONFIABILIDADE DE PRIMEIRA ORDEM (FORM) 105
Da Eq. (3.47) obtemos uma expressão para o desvio padrão da distribuição normal equivalente:
φ (zi¤ )
σneq
Xi = , (3.50)
fXi (x¤i )
e, nalmente, da Eq. (3.48) obtemos uma expressão para a média da distribuição normal equivalente:
µneq ¤ ¤ neq
Xi = xi ¡ zi σ Xi . (3.51)
Note que esta transformação é realizada para cada uma das distribuições marginais, e é válida para um
ponto x¤ . Desta forma, a transformação deve ser refeita à medida que o algoritmo de busca do ponto de
projeto avança (xk ! x¤ ). O procedimento de aproximar a cauda da distribuição original pela cauda de uma
distribuição normal equivalente é conhecido na literatura como princípio da aproximação normal ou Principle
of normal tail approximation (Ditlevsen, 1981).
Para uma distribuição log-normal, os parâmetros da distribuição normal equivalente são:
µneq = x (1 ¡ ln (x) + λ) ,
σ neq = xξ. (3.52)
A Figura (3-7) ilustra as distribuições normais equivalentes a uma distribuição uniforme X » U (¡1, 1) nos
pontos x = 0, x = 0, 7 e x = 0, 9. Perceba como, à medida que o ponto de transformação se aproxima do limite
superior (x = 1), a distribuição normal equivalente se torna mais estreita.
A transformação de X ! Z também pode ser escrita de forma matricial, a partir de um vetor de médias
¹neq e de uma matriz diagonal de desvios padrão Dneq , contendo os parâmetros das distribuições normais
equivalentes:
¹neq = fµneq neq neq t
X1 , µX2 , ..., µXn g ,
2 1 3
2 neq 3 0 ... 0
σX1 0 ... 0 σneq
6 X1 1 7
6 0 σneq ... 0 7 6 0 σneq
... 0 7
Dneq 6
=4 X 2 7 neq ¡1
(D ) = 6 6 X2 7.
... ... ... ... 5 ... ... ... ... 7
neq 4 5
0 0 ... σXn 0 0 1
... σneq
Xn
As transformações de X ! Z e de Z ! X resultam:
Modelo de Nataf
O princípio da aproximação normal permite obter um conjunto de variáveis aleatórias Z com distribuição
marginal normal padrão, através da Eq. (3.49). A correlação entre pares de variáveis aleatórias (Eq. 3.41),
quando existe, deve ser imposta na distribuição conjunta fZ (z). Seja RZ uma matriz de correlação equivalente
a ser determinada. A distribuição de Z é uma distribuição normal padrão multi-variada (Eq. A.70):
O modelo de Nataf (Nataf, 1962; Lebrun & Dutfoy, 2009) consiste em construir uma aproximação para a
função conjunta de densidade de probabilidades fX (x), a partir da distribuição normal padrão multi-variada
106 MÉTODOS DE TRANSFORMAÇÃO
Figura 3-7: Distribuições normais equivalentes a uma distribuição uniforme U » (¡1, 1) nos pontos x = 0;
x = 0, 7 e x = 0, 9; a esquerda, PDF; a direita, CDF.
3.3. MÉTODO DE CONFIABILIDADE DE PRIMEIRA ORDEM (FORM) 107
Figura 3-8: Ilustração da distribuição fX (x) obtida através do modelo de Nataf, para duas distribuições mar-
ginais uniformes e ρZ = 0, 5.
As Eqs. (3.55 e 3.56) podem ser interpretadas como uma forma de construir a função conjunta de
densidade de probabilidades fX (x), a partir da imposição de dependência linear (coe ciente de correlação ρZij )
na distribuição normal padrão multi-variada. A Figura 3-8 ilustra a construção da função conjunta de densidades
para duas variáveis com distribuição marginal uniforme, e impondo um coe ciente de correlação ρZ = 0, 5.
O problema de con abilidade a ser resolvido envolve a construção de um modelo de distribuição conjunta
das variáveis aleatórias, mas também envolve mapear esta para o espaço normal padrão. Para encontrar esta
transformação, considere duas variáveis Xi e Xj não-normais com coe ciente de correlação ρXij . Se o coe ciente
de correlação entre Xi e Xj (ρXij ) impõe uma certa tendência na distribuição conjunta fXi Xj (xi , xj ), precisamos
encontrar um coe ciente de correlação equivalente ρZij que imponha a mesma tendência na distribuição conjunta
fZi Zj (zi , zj ). Utilizando a de nição da covariância (Eq. A.61), o coe ciente de correlação ρXij é dado por:
Z 1 Z 1
Cov[Xi Xj ] (xi ¡ µXi ) (xj ¡ µXj )
ρXij = = fXi Xj (xi , xj )dxi dxj .
σXi σ Xj ¡1 ¡1 σXi σXj
Utilizando o modelo de Nataf (Eq. 3.56) e a distribuição normal bi-variada (Eq. A.64), esta expressão se reduz
108 MÉTODOS DE TRANSFORMAÇÃO
a:
Z 1 Z 1
(xi ¡ µXi ) (xj ¡ µXj ) fX (xi )fXj (xj )
ρXij = φ2 (zi , zj , ρZij ) i dxi dxj
¡1 ¡1 σXi σ Xj φ(zi )φ(zj )
Z 1 Z1
= zi zj φ2 (zi , zj , ρZij )dzi dzj . (3.57)
¡1 ¡1
A Eq. (3.57) permite calcular ρZij em função do ρXij conhecido, de forma a se construir uma matriz de
correlação equivalente. O modelo de Nataf e a Eq. (3.57) são válidos quando:
1. o mapeamento na Eq. (3.49) é unívoco (um-para-um), o que é verdade se FXi (xi ) é contínua e estritamente
crescente;
2. o valor de ρZij estiver entre ¡1 e +1.
Como a diferença entre ρZ e ρX é pequena, a segunda condição é satisfeita em quase todas as situações
de interesse prático. No entanto, quando ρX & 0, 9, podem aparecer problemas de instabilidade numérica na
avaliação de ρZ .
A avaliação do coe ciente ρZ através da Eq. (3.57) é feita de forma iterativa, arbitrando valores tentativa
para ρZ e avaliando ρX , até atingir o valor de ρX especi cado. Este procedimento iterativo pode ser evitado
através do uso de fórmulas analíticas aproximadas (Der Kiureghian & Liu, 1986), que fornecem uma relação r
para várias combinações de distribuições:
ρZij
rij = . (3.58)
ρXij
Em geral, o fator r não é muito diferente da unidade. À parte distribuições exponenciais deslocadas, o fator
r geralmente ca na faixa 0, 9 · r · 1, 1. Sendo assim, se o coe ciente de correlação ρX entre duas variáveis
de projeto é determinado de forma subjetiva, podemos até aproximar ρZ diretamente por ρX . No entanto, é
importante compreender a diferença teórica entre ρZ e ρX .
O princípio da aproximação normal e o modelo de Nataf permitem obter um conjunto de variáveis aleatórias
Z correlacionadas, com distribuição normal padrão multi-variada fZ (z) = φn (z, RZ ). Para aproveitar as pro-
priedades de simetria da distribuição normal padrão multi-variada, é necessário eliminar a correlação entre as
variáveis Z. Nos espaços Y e Z, os desvios-padrão das variáveis aleatórias são unitários, então a matriz de
correlação se confunde com a matriz de covariâncias.
Buscamos uma transformação linear na forma Y = At Z, sendo A uma matriz a ser determinada e Y
um vetor de variáveis aleatórias independentes e com distribuição normal padrão multi-variada. A matriz de
correlação em Y é dada por:
RY = Cov[Y, Yt ]
= Cov[At Z, Zt A]
= At Cov[Z, Zt ]A
= A t CZ A
= At RZ A. (3.59)
Se A é a matriz ortogonal com colunas formadas pelos autovetores de RZ , então a multiplicação na Eq.
3.3. MÉTODO DE CONFIABILIDADE DE PRIMEIRA ORDEM (FORM) 109
sendo λi o i-ésimo autovalor da matriz RZ . Note que a Eq. (3.60) implica em que o desvio-padrão das variáveis
p
Y resultantes seria diferente da unidade, e igual à raiz quadrada dos respectivos autovalores (σYi = λi ).
Isto não é conveniente, pois exigiria mais uma transformação, como a de Hasofer-Lind, para obter variáveis
reduzidas com variância unitária. Para evitar esta transformação adicional, buscamos A tal que At RZ A seja
igual à matriz identidade. A matriz de transformação desejada é:
A =A¤¡1/2 ,
£ ¤
sendo A a matriz ortogonal cujas colunas são os autovetores de RZ e ¤¡1/2 = (λi )¡1/2 i=1,...,n a matriz
diagonal das inversas das raízes quadradas dos auto-valores de RZ (Horn & Johnson, 1990; Golub & Van Loan,
2012; Lima, 2014). Neste caso:
RY = At RZ A
t
= (A¤¡1/2 ) RZ (A¤¡1/2 )
t
= (¤¡1/2 )t (A RZ A)¤¡1/2
= (¤¡1/2 )t ¤¤¡1/2
= I. (3.61)
Jyz = At = (A¤¡1/2 )t ,
t
Jzy = (At )¡1 = (¤1/2 A )t , (3.62)
y = Jyz z,
z = Jzy y. (3.63)
O custo computacional da decomposição ortogonal é considerável. Uma alternativa que se aplica com vantagens
para matrizes de correlação não cheias (caso típico em con abilidade estrutural) é a decomposição de Cholesky
da matriz de correlação RZ . A decomposição de Cholesky não tem relação direta com a transformação de
Rosenblatt, mas resulta em uma matriz de transformação muito semelhante.
Buscamos uma transformação linear Y = Bt Z que produza um conjunto de variáveis Y independentes e
com variância unitária. Buscamos uma matriz de transformação B que produza o efeito da Eq. (3.61), isto é:
RY = Bt RZ B = I. (3.64)
Pré-multiplicando a Eq. (3.64) por (Bt )¡1 e pós-multiplicando por B¡1 , obtemos:
RZ B = (Bt )¡1 I
RZ = (Bt )¡1 I B¡1
= (Bt )¡1 B¡1 . (3.65)
110 MÉTODOS DE TRANSFORMAÇÃO
Esta é exatamente a forma da decomposição de Cholesky, obtida através de algoritmos bem conhecidos
(Golub & Van Loan, 2012; Lima, 2014). Utilizando esta transformação, as matrizes jacobianas cam:
Jyz = L¡1 ,
Jzy = L. (3.67)
Transformação resultante
Nas três seções anteriores, vimos como realizar o mapeamento de um vetor de variáveis aleatórias de um espaço
X para um espaço Z, e do espaço Z para Y. A Figura 3-6 ilustra estas 3 transformações. Para combina-las,
basta utilizar a regra da cadeia:
· ¸ · ¸
∂yi ∂yi ∂zj
Jyx = = = Jyz Jzx ,
∂xk ∂zj ∂xk
· ¸ · ¸
∂xi ∂xi ∂zj
Jxy = = = Jxz Jzy .
∂yk ∂zj ∂yk
y = Jyx fx ¡ ¹neq g,
x = Jxy y + ¹neq . (3.68)
A matriz Jacobiana composta Jyx e sua inversa Jyx podem ser obtidas utilizando a decomposição
ortogonal:
(a) cálculo dos parâmetros das distribuições normais equivalentes (¹neq e Dneq );
(b) atualização das matrizes Jacobianas Jyx e Jxy (Eqs. 3.69 ou 3.70);
Deve car claro que as matrizes RZ , Jyz e Jzy só precisam ser calculadas uma vez, ao início do processo
iterativo. Já as matrizes Jzx , Jxz , Jyx e Jxy devem ser atualizadas de maneira iterativa, durante a busca pelo
ponto de projeto (xk ! x¤ ).
t
sendo os termos zi dados pela transformação de Y para Z: z(y) = fzi gi=1,...,n = Jzy y. Combinando as trans-
formações, obtemos:
Nas equações acima, as matrizes Jacobianas Jyz e Jzy podem ser obtidas em termos da decomposição
ortogonal (Eq. 3.62) ou da decomposição de Cholesky (Eq. 3.67) da matriz de correlação.
A Figura (3-7) ilustra um exemplo de efeito não-linear que pode surgir quando, durante a busca pelo ponto
de projeto, uma variável aleatória se aproxima demais do seu limite; no caso, para uma variável uniforme.
Na transformação formal (Seção 3.3.3), o desvio-padrão da distribuição normal equivalente tende a zero. Na
transformação direta reversível (Seção 3.3.4) podem aparecer problemas devido a resolução numérica das aprox-
imações utilizadas para as funções ©( ) e ©¡1 ( ), conforme Apêndice F.
O problema é discutido em Beck e Silva Jr. (2016), no contexto de problemas fortemente não-lineares,
envolvendo variáveis aleatórias com suporte compacto (distribuição uniforme) e domínios de falha que tendem
ao conjunto vazio. O artigo também discute o desempenho de diversos algoritmos de busca pelo ponto de
projeto, em problemas fortemente não-lineares.
jrg(yk+1 )t yk+1 j
1¡ < e jg(yk+1 )j < δ
krg(yk+1 )k kyk+1 k
o algoritmo é interrompido, caso contrário retorne ao item 3 com k = k + 1 até atingir a convergência.
10. ao nal, avaliação do índice de con abilidade no ponto de projeto: β = ky¤ k .
Enunciado: No Exemplo 2, determinamos o índice de con abilidade de Cornell, para uma equação de
estado limite linear correspondente ao projeto, segundo norma, de viga de aço submetida a momento
3.3. MÉTODO DE CONFIABILIDADE DE PRIMEIRA ORDEM (FORM) 113
uniforme. Considerando as distribuições indicadas na Tabela (3.1): log-normal para R e Gumbel para L,
determine o índice de con abilidade de Hasofer-Lind.
Solução: O cálculo dos valores nominais segue o apresentado na solução do Exemplo 2 (Rn = 3, 1111; Dn =
1; Ln = 1), o que resulta em ¹ = f3, 3289; 1, 05; 1, 0gt e ¾ = f0, 4328; 0, 105; 0, 25gt . A partir destes
momentos, determinamos os parâmetros das distribuições de R e L.
Conforme Seção A.3.2, os parâmetros da distribuição log-normal de R são:
p p
ξ = ln (1 + (σ/µ)2 ) = ln (1 + (0, 4328/3, 3289)2 ) = 0, 129456,
λ = ln(µ) ¡ 0, 5ξ 2 = ln(3, 3289) ¡ 0, 5 £ 0, 1294562 = 1, 19426.
A solução iterativa se inicia com a de nição do ponto inicial xk , para k = 0. A opção imediata é o
ponto médio, x0 = ¹; no entanto, ao utilizarmos a solução do Exemplo 2 como ponto inicial, diminuimos
o número de iterações. Utilizando resultados anteriores, obtemos:
y0N = y¤ = ¡®β = ¡2, 50425 f0, 8474; ¡0, 2056; ¡0, 4895gt ;
= f¡2, 1221; 0, 5149; 1, 2260gt ;
Este ponto y0N corresponde à solução considerando variáveis normais. Utilizando a transformação de Hasofer
Lind (Eq. 3.1), obtemos:
x0 = y0 ¾ + ¹ = f2, 4105; 1, 1041; 1, 3065gt .
No ponto x0 avaliamos g(x0 ) = R ¡ D ¡ L = 0, ou seja, o ponto inicial já está sobre a equação de estado
limite.
Para o primeiro passo da solução iterativa, precisamos determinar os parâmetros das distribuições nor-
mais equivalentes em x0 . Para a distribuição log-normal (R), podemos utilizar as Eqs. (3.52):
A distribuição de D já é normal; logo, os momentos normais equivalentes são iguais aos próprios
momentos.
Para a distribuição Gumbel (L), utilizamos as Eqs. (3.49, 3.50 e 3.51):
com fX e FX dado pelas Eqs. (A.117 e A.118). Agora, podemos aplicar a transformação de Hasofer Lind
para obter yk , para k = 0, lembrando que não há correlação, logo y = z:
A primeira estimativa do índice de con abilidade é β k = (ytk yk )1/2 = 2, 7691. O vetor gradiente em y é
obtido como:
e o vetor ®k é ®k = f0, 6461; ¡0, 2174; ¡0, 7317gt . Utilizando o algoritmo HLRF, o novo ponto é:
rg(yk )t yk ¡ g(yk )
yk+1 = rg(yk )
krg(yk )k2
= f1, 7891, ¡0, 6020, ¡2, 0260gt .
A próxima estimativa do índice de con abilidade é β k+1 = 2, 5784. O novo ponto no espaço x é
encontrado pela transformação de Hasofer-Lind inversa:
Tabela 3.4: Solução iterativa do problema de calibração de norma com distribuições não-normais.
k y1 y2 y3 g(yk ) βk
0 ¡2, 4287 0, 5149 1, 2265 0 2, 7691
1 ¡1, 6659 0, 5605 1, 8865 0 2, 5784
2 ¡1, 5367 0, 4706 1, 9670 0 2, 5401
3 ¡1, 5087 0, 4523 1, 9902 0 2, 5378
4 ¡1, 5035 0, 4491 1, 9945 0 2, 5378
Exercício 6 Projeto segundo norma (h), distribuições não-normais: repita o Exemplo 7 para uma razão en-
tre ações Ln /Dn = 5. Respostas: β = 2, 37; ®2 = fα2R ; α2D ; α2L gt = f+0, 201; ¡0, 001; ¡0.797gt , comparar
3.4. MÉTODO DE CONFIABILIDADE DE SEGUNDA ORDEM (SORM) 115
com β = 2, 58 (Exercício 1) e Eq. (3.30). Neste problema observamos diferença maior nos resultados, tanto
em termos de β como de sensibilidades. Este resultado mostra que o problema tornou-se mais não-linear,
por aumentar a parcela da ação variável, que tem distribuição de Gumbel.
V = [b b2 , ..., v
v1 , v bn¡1 ].
116 MÉTODOS DE TRANSFORMAÇÃO
vn = g0 (vn¡1 ).
Um parabolóide é então ajustado às curvaturas da equação de estado limite no ponto de projeto (ápice do
parabolóide):
1 XX
n¡1 n¡1
vn = β+ aij vi vj
2 i=1 j=1
1
= β + (vn¡1 )t Avn¡1 , (3.74)
2
sendo A a matriz de derivadas de segunda ordem de g 0 (vn¡1 ). Sendo H(y¤ ) a matriz de derivadas de segunda
ordem (matriz Hessiana) da equação de estado limite:
· 2 ¸
¤ ∂ g(y)
H(y ) = , (3.75)
∂yi ∂yj i=1,...,n; j=1,...,n
Vt H(y¤ )V
A= ¢ (3.76)
krg(y¤ )k
As condições de otimalidade de segunda ordem do problema de otimização de nido na Eq. (3.11) levam a
uma aproximação assintótica de segunda ordem da probabilidade de falha (Breitung, 1984):
1
pf ¼ pfSO = ©(¡β) p ¢ (3.77)
det(I + βA)
3.4. MÉTODO DE CONFIABILIDADE DE SEGUNDA ORDEM (SORM) 117
Um caso particular é obtido quando o sistema ortogonal vb é escolhido de forma a coincidir com as curvaturas
bi são os autovetores da matriz
principais da equação de estado limite no ponto de projeto. Neste caso, os vetores v
Hessiana, a matriz A ca diagonal e os autovalores correspondem às curvaturas principais ki do parabolóide.
Neste caso, a equação do parabolóide ca:
n¡1
1X
vn = β + ki vi2 , (3.78)
2 i=1
A Eq. (3.79) se torna singular se ki = ¡1/β; o que signi ca que nem sempre o SORM fornece uma estimativa
melhor do que a aproximação de primeira ordem.
A estimativa de segunda ordem da probabilidade de falha, através de um parabolóide ajustado por curva-
turas, requer a avaliação da matriz de derivadas de segunda ordem da equação de estado limite (Eq. 3.75). A
determinação desta matriz exige a avaliação da equação de estado limite em n2 +n+1 pontos (sendo n o número
de variáveis aleatórias do problema), o que representa um custo computacional elevado quando a equação de
estado limite é dada de forma numérica. Uma alternativa para reduzir este custo computacional é a construção
de um parabolóide baseado em pontos. Esta solução também é apropriada quando o ponto de projeto é ponto
de inexão da equação de estado limite.
(¡a¡ ¡ + +
i , bi ) e (+ai , bi ), i = 1, ..., n ¡ 1,
Para determinar as coordenadas a e b de cada ponto, é necessário resolver uma equação do tipo:
g(a(b)b
vi + bb
vn ) = 0,
o que é feito de modo iterativo, através do método secante ou método de Newton. Uma vez encontradas as
118 MÉTODOS DE TRANSFORMAÇÃO
coordenadas a e b de cada ponto, um par de semi-parábolas é construído ao longo de cada semi-eixo. As equações
são: ½
β + 12 ki¡ vi2 para vi · 0
vn = ,
β + 21 ki+ vi2 para vi > 0
sendo
2(b¡
i ¡ β) 2(b+
i ¡ β)
ki¡ = e ki+ =
(a¡
i )
2 (a+
i )
2
as curvaturas das semi-parábolas. Para obter a estimativa de segunda ordem da probabilidade de falha utilizando
a formula de Breitung, uma curvatura equivalente para cada eixo vi é determinada:
1³ ´
(1 + βki )¡1/2 = (1 + βki¡ )¡1/2 + (1 + βki+ )¡1/2 .
2
A vantagem do parabolóide ajustado por pontos é obter um ajuste global à equação de estado limite,
independente do ruído característico das soluções numéricas, e evitar o cálculo da matriz Hessiana. O ponto
fraco deste método é que os resultados dependem da escolha do sistema de eixos v bi . Obviamente, a opção ideal
para estes eixos são as direções principais da equação de estado limite, cuja determinação, no entanto, requer o
cálculo da matriz Hessiana.
3.5 CONCLUSÃO
Neste capítulo estudamos a solução de problemas de con abilidade estrutural via métodos de transformação
FOSM, FORM e SORM. Estes métodos estão baseados em um mapeamento do problema, do espaço original de
3.5. CONCLUSÃO 119
projeto, para o espaço normal padrão. As soluções são incrementais, no sentido que incorporam as soluções
anteriores. O método de segundo momento ou FOSM se limita a considerar a média e o desvio-padrão das
variáveis aleatórias, o que é equivalente a assumi-las com distribuição normal. Para equações de estado limite
lineares, a solução exata é obtida pelo índice de con abilidade de Cornell. Equações de estado limite não-
lineares exigem uma solução iterativa de busca pelo ponto de projeto, que é a moda do domínio de falha. No
espaço normal padrão, o índice de con abilidade de Hasofer-Lind (β) é obtido como a menor distância entre a
equação de estado limite e a origem. A aproximação de primeira ordem, que consiste em aproximar a equação
de estado limite por um hiper-plano, no ponto de projeto, leva ao clássico resultado pf ¼ pfF O = ©(¡β). O
método de con abilidade de primeira ordem (FORM) incorpora estas soluções e adiciona uma transformação das
distribuições de probabilidade marginais em distribuições normais equivalentes. Esta transformação aumenta a
não-linearidade da equação de estado limite no espaço normal padrão. O método de con abilidade de segunda
ordem ou SORM consiste em realizar as transformações para o espaço normal padrão, realizar a busca iterativa
pelo ponto de projeto, e aproximar a equação de estado limite neste ponto por um parabolóide.
120 MÉTODOS DE TRANSFORMAÇÃO
Capítulo 4
CONFIABILIDADE DE SISTEMAS
Os problemas abordados nos capítulos anteriores envolveram uma única equação de estado limite, o que corre-
sponde a um único modo de falha. Elementos estruturais que compõem uma estrutura apresentam, em geral,
múltiplos modos de falha. Estruturas completas, ou sistemas estruturais, também apresentam múltiplos modos
de falha.
Modos de falha típicos de elementos estruturais são: deformação plástica (escoamento localizado), formação
de rótula plástica (plasti cação da seção), instabilidade por compressão, ruptura frágil da seção, deexão ex-
cessiva, acúmulo de dano. Modos de falha típicos de estruturas são: deexão excessiva, vibração excessiva,
recalque de apoios, perda de equilíbrio localizada ou generalizada (por ruptura ou formação de rótula plástica
em elementos, ou por falha de vinculações de apoio). Neste capítulo, estudamos como determinar a probabili-
dade de falha de estruturas e de elementos estruturais sujeitos a múltiplos modos de falha. Múltiplos modos de
falha caracterizam sistemas em série. Alguns mecanismos que levam à falha caracterizam sistemas em paralelo.
Chamamos de sistemas estruturais estruturas compostas por muitos componentes ou elementos estruturais.
O grau de redundância hiperestático de uma estrutura determina se a falha de um elemento estrutural (falha
localizada) implica ou não em falha global da estrutura. Em teoria, a falha de um elemento em estruturas
isostáticas implica em falha global da estrutura, devido à ausência de redundância. Estruturas hiperestáticas
falham devido ao colapso progressivo dos elementos, o qual pode ocorrer em diferentes sequências. A análise
exige decomposição do sistema estrutural em combinações de elementos associados em série e em paralelo,
conforme Seção 4.1.
A caracterização da falha de elementos estruturais, ou de sistemas estruturais, está baseada em modelos que
descrevem a falha do(s) material(is). A propagação de falhas localizadas depende diretamente da capacidade
residual dos elementos e/ou materiais, após a falha inicial. Modelos idealizados de comportamento material são
discutidos na Seção 4.2.
A probabilidade de falha de elementos e sistemas estruturais que apresentam múltiplos modos de falha
(sistema em série) é estudada na Seção 4.3. O colapso progressivo de estruturas redundantes é estudado na
Seção 4.4.
A análise de falhas em sistemas complexos requer esquemas sistemáticos para identi car todos os modos de
falha possíveis, bem como todas as possíveis consequências. Para isto, utilizamos árvores de falhas e árvores de
eventos. Estes esquemas são utilizados para modelar as condições que podem levar à falhas estruturais. Árvores
de falha podem ser utilizadas para decompor um evento de interesse (falha estrutural de um componente) em
uniões e intersecções de sub-eventos básicos, que descrevem as condições para que uma falha estrutural ocorra.
Árvores de eventos podem ser utilizadas para determinar, sistematicamente, todas as possíveis consequências
de falhas estruturais. Árvores de falhas e de eventos são estudadas na Seção 4.5.
122 CONFIABILIDADE DE SISTEMAS
F = E1 [ E2 [ E3 [ ... [ En = [ni=1 Ei .
F = E 1 \ E 2 \ E 3 \ ... \ E n = \ni=1 E i .
R = P [F ] = P [\ni=1 E i ].
pf = P [F ] = P [[ni=1 Ei ].
O limite inferior (esquerda) corresponde à dependência perfeita entre os eventos: neste caso, a probabilidade
de falha é determinada pelo componente mais fraco (evento de maior probabilidade de ocorrência). O limite
superior (direita) corresponde à independência entre os eventos (modos de falha independentes - Eq. A.9). Para
probabilidades P [Ei ] pequenas, o limite superior pode ser aproximado pela quase-igualdade à direita da Eq.
(4.1).
4.1. IDEALIZAÇÃO DE SISTEMAS 123
F = E1 \ E2 \ E3 \ ... \ En = \ni=1 Ei .
F = E 1 [ E 2 [ E 3 [ ... [ E n = [ni=1 E i .
Sistemas em paralelo são sistemas redundantes. Esta redundância pode ser ativa ou passiva. Na redundância
ativa, vários componentes dividem uma mesma tarefa. Na redundância passiva, alguns componentes cam em
estado de standby: a medida que algum componente falha, os componentes redundantes são colocados em
operação. A con abilidade de sistemas em paralelo é dada por:
R = P [F ] = P [[ni=1 E i ],
e a probabilidade de falha é:
pf = P [F ] = P [\ni=1 Ei ].
A avaliação destas probabilidades depende do tipo de redundância do sistema.
Redundância ativa
Conforme veri caremos, quando a redundância é do tipo ativa, a probabilidade de falha do sistema em paralelo
é limitada por:
124 CONFIABILIDADE DE SISTEMAS
n
Y
P [Ei ] · pf · min P [Ei ]. (4.2)
i
i=1
O limite inferior (esquerda) corresponde ao caso de independência entre os eventos (modos de falha inde-
pendentes, Eq. A.9). O limite superior corresponde à dependência perfeita entre os eventos. A redundância
ativa nem sempre diminui a probabilidade de falha do sistema (caso de modos de falha comuns).
Redundância passiva
Na redundância passiva, componentes redundantes apenas entram em operação quando algum componente
falha. Logo, a avaliação da probabilidade de falha do sistema requer a análise de probabilidades condicionais,
através de árvores de falhas (Seção 4.5). Estas são construídas estabelecendo as possíveis sequências de falha,
e suas probabilidades. As sequências de falha dependem de como os componentes estão conectados.
Como exemplo, considere um sistema com 3 componentes conectados (i, j, k) associados em paralelo, com
redundância passiva (cada componente tem capacidade redundante, caso outro componente falhe). A falha do
sistema é dada por sequências contendo a falha de três elementos. A probabilidade de ocorrência da sequência
de falha Sijk é dada por:
P [Sijk ] = P [Ei ]P [Ej jEi ]P [Ek jEi,j ].
Se as sequências de falha são mutuamente exclusivas, a probabilidade de falha do sistema é dada pela soma das
probabilidades das 6 permutações possíveis, P3,3 :
X
pf = P [Sijk ].
P3,3
Caso exista um modo de falha comum, as sequências de falha não serão mutuamente exclusivas. Caso os
componentes sejam conectados em ordem (i, j, k), apenas uma sequência de falhas é possível.
O projeto de estruturas utilizando coe cientes de segurança gera uma margem de segurança em relação aos
modos de falha considerados, ou uma reserva de capacidade. Esta reserva de capacidade é uma redundância?
Esta redundância é ativa ou passiva?
Em sistemas isostáticos, a reserva de capacidade corresponde a uma redundância ativa, em relação às ações
de projeto, ou a resistência do material. Caso haja uma sobrecarga, a capacidade reserva é acionada de forma
ativa em todas as barras. No entanto, não existe redundância em relação à falha de qualquer uma das barras.
Sistemas hiperestáticos podem ser redundantes em relação à falha de um componente, ou não, a depender
da capacidade de redistribuir os esforços. Se o sistema tem apenas redundancia ativa, como o sistema isostático,
pode sobreviver a uma sobrecarga, mas não tem capacidade de redistribuir os esforços no caso de falha de um
elemento. Quando o sistema hiperestático tem capacidade de redistribuir os esforços, na falha de um elemento,
a reserva de capacidade dos demais elementos é mobilizada de forma passiva. Neste caso, pode-se dizer que a
redundância é tanto ativa como passiva. No entanto, observa-se que a redundância esta mais relacionada com
a con guração do sistema estrutural, do que com o coe ciente de segurança utilizado em projeto.
Para efeitos de ilustração, considere um sistema estrutural formado por duas barras, que atuam em paralelo
suportando a força F , conforme Figura 4-3. O material das barras é frágil, e a tensão de ruptura é σ r . As duas
barras tem a mesma área nominal AD , e são projetadas a partir da força de projeto FD e utilizando coe ciente
4.1. IDEALIZAÇÃO DE SISTEMAS 125
Figura 4-3: Coe ciente de segurança, capacidade reserva e mobilização da redundância em projeto.
de segurança λ = 4:
2σr AD = λFD ,
4FD
AD = .
2σr
Na condição de projeto (a), apenas 1/4 da capacidade de cada barra é mobilizada. Se o sistema sofre uma
sobrecarga, dada por F = 2FD (b), parte da capacidade reserva é mobilizada (redundância ativa). Esta
também é a condição de sistemas isostáticos (a capacidade reserva é mobilizada de forma ativa).
Agora considere que, em função de incertezas de fabricação, a área da barra à esquerda é AD ¡ , enquanto
a barra à direita tem área de seção transversal AD + , para << AD arbitrariamente pequeno. Quando este
sistema sofre uma sobrecarga F = 4FD (c), a barra à esquerda falha, e a barra à direita assume toda a força F .
A capacidade reserva da barra da direita foi mobilizada de forma passiva! Este é um comportamento típico de
estruturas hiperestáticas redundantes: a falha localizada de um elemento provoca redistribuição dos esforços,
mobilizando de forma passiva a capacidade reserva dos demais elementos.
pf = P [(E1 \ E2 ) [ E3 ], (4.3)
Para trabalhar com sistemas mistos mais complexos, convém identi car os chamados caminhos de falha (cut
set). A Figura 4-5 ilustra um sistema misto que possui quatro sub-sistemas associados em série, sendo que um
destes sub-sistemas contém dois componentes em série. Conforme ilustrado, este sistema possui cinco caminhos
de falha, ou seja, a falha ocorre se qualquer destes caminhos ocorre ([k Ck ). Cada caminho é composto por
um número variável de componentes associados em paralelo, o que pode ser caracterizado por um conjunto de
índices: C1 = f1, 2g; C2 = f3g; C3 = f4, 5, 6g; C4 = f4, 5, 7g e Ck = fng. Cada caminho só ocorre se todos os
eventos correspondentes ao conjunto ocorrerem. Logo, a probabilidade de falha deste sistema pode ser escrita
genericamente como:
pf = P [[k [\i2Ck (Ei )]]. (4.4)
A Eq. (4.4) é uma forma genérica de representar eventos de falha, que se aplica a sistemas em série, em paralelo
e sistemas mistos. Observe que a Eq. (4.3) corresponde à Eq. (4.4), para o sistema de três componentes da
Figura 4-4.
No exemplo apresentado na Figura 4-5, os caminhos C3 e C4 não são mutuamente exclusivos; isto deve ser
levado em conta ao se avaliar a probabilidade P [C3 [ C4 ].
a resistência dos elos é independente, então as realizações fRi = ri gi=1,...,n também são independentes, e a falha
não-necessariamente ocorrerá no elo mais fraco, conforme ilustrado. Se a resistência dos elos é perfeitamente
dependente, então as realizações fRi = ri gi=1,...,n também são dependentes, e a falha será determinada pelo elo
estatísticamente mais fraco! Esta observação justi ca o limite inferior na Eq. (4.1).
Na prática, haverá dependência entre as resistências dos elos se eles forem fabricados do mesmo lote de
material, pela mesma máquina, nas mesmas condições. Se ocorrer um defeito na produção do material, por
exemplo, todos os elos sairão mais fracos. A independência ocorre para elos fabricados de lotes ou materiais
distintos, em máquinas distintas, etc. O exemplo de independência é impróprio para elos de corrente, mas serve
para outros tipos de sistemas em série (componentes eletro-eletrônicos, sequências de operações, modos de falha
de natureza distinta, etc).
Considere agora uma associação em paralelo entre n componentes com con abilidade ou resistência individual
dada por (Ri )i=1,...,n¡1 = R, e Rn = (1 + ε)R, ε > 0 arbitrariamente pequeno, conforme ilustrado na Figura
4-7. Se a força F aumentar, a falha será controlada pela resistência das barras. Nesta construção, a barra
de número n é a barra estatísticamente mais forte. Se a resistência das barras é independente, então as
realizações fRi = ri gi=1,...,n também são independentes; neste caso, a sobrevivência não-necessariamente será
determinada pela barra mais forte, conforme ilustrado. Se a resistência das barras é perfeitamente dependente,
então as realizações fRi = ri gi=1,...,n também são dependentes, e a sobrevivência do sistema será determinada
pela barra estatísticamente mais forte! Esta observação justi ca o limite superior na Eq. (4.2).
Na prática, haverá dependência entre as resistências das barras se elas forem fabricados do mesmo lote de
material, pela mesma máquina, nas mesmas condições. Se ocorrer um defeito na produção do material, por
exemplo, todas as barras sairão mais fracas. A independência ocorre para barras fabricadas de lotes ou materiais
distintos, em máquinas distintas, etc. O exemplo de independência é próprio para sistemas em paralelo, e vale
128 CONFIABILIDADE DE SISTEMAS
aos componentes, e uma taxa de falha individual (a mesma) para cada componente. As principais conclusões
do estudo são discutidas a seguir.
A correlação entre falhas aumenta a con abilidade de sistemas em série, e diminui a con abilidade de sistemas
em paralelo. Em sistemas em série, a falha passa a ser controlada por um único componente, e a con abilidade
do sistema passa a ser a con abilidade do componente. Para sistemas em paralelo, a correlação entre falhas
tem várias implicações:
Com estas preliminares, a probabilidade de falha de um sistema genérico (série, paralelo ou misto) pode ser
escrita como: Z Z
pfSY S = fX (x)dx = fX (x)dx. (4.5)
fSY S [k [\i2Ck (gi (x)·0)]
No restante deste capítulo, nos dedicaremos a avaliar esta probabilidade, em especial para sistemas associados
em série. Esta avaliação fará uso dos limites apresentados na Eq. (4.1), e de outros limites que consideram a
dependência linear (correlação) entre pares de modos de falha.
A análise de sistemas estruturais envolve diversas simpli cações, que podem ser divididas em:
Neste capítulo, consideramos apenas ações invariantes com o tempo. Esta simpli cação não leva em conta
o problema da dependência com o caminho de carregamento (load path dependence), a qual só pode ser corre-
tamente considerada quando as ações são representadas por processos estocásticos. Conforme vimos, processos
estocásticos de carregamento dão origem a problemas de con abilidade dependentes do tempo, que são consid-
erados no Capítulo 6.
A análise de con abilidade ao colapso de treliças hiperestáticas formadas por elementos frágeis envolve a avali-
ação da falha progressiva dos elementos hiperestáticos mais um, até o colapso da estrutura. Considere como
exemplo a treliça ilustrada na Figura 4-9. O grau hiperestático da estrutura é gh = 1, portanto duas barras
devem falhar para que ocorra o colapso da estrutura. Aplicando cargas unitárias (H = 1 e V = 1), isoladamente,
obtemos o fator de carga de cada elemento (hi e vi ). Para simpli car a análise, assumimos que a falha das
barras comprimidas ocorre por instabilidade elástica (fórmula de Euler) e a falha das barras tracionadas ocorre
por ruptura. Portanto, a equação de estado limite para barras tracionadas é:
gi (x) = σr ai ¡ hi H ¡ vi V, i = 1, ..., 6.
132 CONFIABILIDADE DE SISTEMAS
π2 EIi
gi (x) = ¡ hi H ¡ vi V, i = 1, ..., 6,
L2i
sendo ai , Ii e Li a área da seção transversal, o momento de inércia e o comprimento da i-ésima barra, respec-
tivamente; σr e E a tensão de ruptura e o módulo de elasticidade do material, respectivamente. Em alguns
problemas, não será possível determinar se a força em uma barra é de tração ou de compressão; nestes casos,
convém utilizar as duas equações de estado limites acima.
Seja Bk o evento falha da k-ésima barra. Assumindo que qualquer barra possa ser a primeira a falhar, temos
seis caminhos alternativos de falha:
Neste tipo de sistema idealizado, a resistência dos elementos (vigas, colunas) é determinada pelo momento etor
necessário para formar uma rótula plástica nos mesmos. A falha da estrutura é caracterizada pela formação
de um mecanismo plástico, o que corresponde à formação de um número su ciente de rótulas plásticas para
tornar a estrutura instável. Este número é igual ao grau hiperestático da estrutura, mais um: gh + 1. As rótulas
plásticas que correspondem a um mecanismo formam um sistema em paralelo, uma vez que o mecanismo só
é formado quando todas as resistências são mobilizadas. Os diferentes mecanismos formam um sistema em
série, pois qualquer mecanismo leva a perda de equilíbrio. Assim, a desconsideração de algum dos possíveis
mecanismos de falha é não-conservadora (contra a segurança).
A formação de um mecanismo plástico pode ser formulada a partir do Princípio dos Trabalhos Virtuais,
4.2. IDEALIZAÇÃO DE SISTEMAS ESTRUTURAIS 133
igualando o trabalho das forças externas ao trabalho de deformação plástica nas rótulas (forças internas):
X X
Qi δ i ¡ Mj θ j = 0 (4.7)
i j
sendo:
Qi as forças externas atuando sobre o pórtico;
δ i os deslocamentos das forças na formação de um mecanismo;
Mj o momento etor necessário para formar uma rótula plástica na j-ésima seção transversal;
θj a rotação da j-ésima rótula, na formação do mecanismo.
Considere como exemplo o pórtico plano ilustrado na Figura 4-10. Duas ações agem sobre o pórtico: uma
força horizontal H e uma força vertical V . Os quatro mecanismos plásticos que podem levar ao colapso do pórtico
estão ilustrados na gura, e numerados de (a) a (d). Considere o mecanismo a) como exemplo. Ao formar o
mecanismo, as forças H e V se deslocam de δ H e δ V , e as rótulas giram de um ângulo θ 1 . Assumindo pequenos
deslocamentos, na iminência da perda de equilíbrio, resulta que θ 1 ¼ tan(θ1 ) = δ H /h = δ V /l. Portanto, a
partir da Eq. (4.7), temos:
M1 θ 1 + 2M3 θ 1 + 2M4 θ1 ¡ θ1 hH ¡ θ 1 lV = 0
M1 + 2M3 + 2M4 ¡ hH ¡ lV = 0.
Procedendo de maneira semelhante, as equações de estado limite para os quatro mecanismos de falha possíveis
são obtidas como:
Uma solução passo a passo deste problema pode ser encontrada em Melchers & Beck (2018). A solução do
sistema em série formado pelas Eqs. (4.8) é endereçada na Seção 4.3
Como vimos, os modelos idealizados de comportamento de sistemas permitem solucionar problemas hiperestáti-
cos envolvendo treliças formadas por material frágil, e pórticos formados por elementos dúcteis. A consideração
de materiais com capacidade residual (materiais c-d-e na Figura 4-8) complica a análise de colapso progres-
sivo, pois as barras que falham continuam contribuindo para a capacidade portante da estrutura. A solução
envolvendo pórticos hiperestáticos não é apropriada para estruturas com muitos elementos, pela possibilidade
de ocorrência de colapso parcial localizado.
Por outro lado, a representação do comportamento sistêmico, e da interação entre elementos e suas falhas,
pode ser bastante complexa para sistemas estruturais formados pelos materiais b-c-d-e da Figura 4-8. Em
geral, a análise do comportamento de estruturas formadas por estes materiais é realizada através de modelos
numéricos (elementos nitos, elementos de contorno, etc). Nestes casos, convém deixar a representação do
comportamento sistêmico para o modelo numérico, e realizar a análise de con abilidade com base em respostas
globais da estrutura. Em geral, a representação correta da falha global da estrutura requer modelos não-lineares
material e/ou geométrico, e a determinação de curvas de força £ deslocamento da estrutura.
Considere como exemplo a torre metálica ilustrada na Figura 4-11. A torre esta sujeita a uma ação de vento
W de intensidade aleatória, distribuída ao longo da altura, que provoca deslocamento de topo δ. A partir de
134 CONFIABILIDADE DE SISTEMAS
uma análise não-linear material e geométrica, podemos determinar a curva W £ δ ilustrada na gura. Esta
curva permite determinar o deslocamento crítico δ critico e a força crítica Wcritica , que levam à perda de equilíbrio
global da estrutura. O modelo numérico descreve como o colapso ocorre: se por ruptura de barras tracionadas,
se por plasti cação ou instabilidade de barras comprimidas. O modelo material adotado, em cada caso, descreve
a capacidade residual de cada elemento.
Variáveis aleatórias típicas do problema ilustrado são as forças aerodinâmicas provocadas pela pressão do
vento (W ), o ângulo de incidência (α), a tensão de escoamento do material (σy ), o módulo de elasticidade do
material (E), a área da seção transversal das barras (A), o momento de inércia da seção (I) e, possívelmente,
as coordenadas nodais (£ = (x, y, z)). Com base na resposta global da estrutura, a seguinte equação de estado
limite pode ser escrita:
g(X) = δ critico ¡ δ(W, α, σy , E, A, I, £), (4.9)
para X = fW, α, σy , E, A, I, £gt . No caso de estruturas esbeltas, como a torre ilustrada na Figura 4-11,
usualmente o deslocamento δ critico não muda (signi cativamente) em função das demais variáveis aleatórias do
problema. Quando este é o caso, a curva de comportamento global W £ δ é determinada em análise numérica
preliminar, e a análise de con abilidade é realizada apenas com base na resposta δ(W, α, σy , E, A, I, £). A
análise de con abilidade é realizada com base no acoplamento direto entre o software de con abilidade e o
software de análise estrutural numérica, conforme Apêndice G e Figura G-1. A avaliação da probabilidade de
falha, para uma equação de estado limite como a Eq. (4.9), pode ser feita utilizando as técnicas apresentadas
no Capítulo 3. Havendo mais de um modo de falha global, as técnicas discutidas na Seção 4.3 podem ser
empregadas.
Em alguns problemas, o deslocamento crítico poderá mudar também em função de variáveis do problema
(α, σy , E, A, I, £). Este é o caso, por exemplo, de problemas de projeto ou de otimização estrutural (veja
Capítulo 8). Considere, como exemplo, que a área da seção transversal das barras (A) deve ser determinada,
para que a estrutura atinja determinada con abilidade alvo. Neste caso, há duas alternativas de solução: a)
136 CONFIABILIDADE DE SISTEMAS
A resposta global da estrutura também pode ser associada a estados limites de serviço. A torre ilustrada na
Figura 4-11, por exemplo, é uma torre de telefonia móvel. O funcionamento adequado das antenas é condicionado
pela orientação, que muda em função da deexão do topo da torre. Relacionando a orientação limite com o
deslocamento de topo, podemos escrever uma equação de estado limite de serviço, em função da resposta global
da estrutura:
serviço
g(X) = δ critico ¡ δ(W, α, σy , E, A, I, £). (4.11)
serviço
Na determinação de δ critico e δ(W, α, σ y , E, A, I, £), uma análise não-linear geométrica pode ser su ciente.
Torii et al. (2017) mostram que qualquer estado limite de colapso pode ser aproximado conservadora-
mente por um estado limite envolvendo deslocamentos. Isto evita as não-linearidades envolvidas no cálculo da
resistência última. Em termos de deslocamentos, o cálculo de derivadas é mais estável e robusto.
Problemas de con abilidade estrutural envolvendo torres metálicas, e utilizando uma formulação baseada
na resposta global da estrutura, são resolvidos em Beck & Verzenhassi (2008), Gomes & Beck (2013), Tessari
et al. (2017).
1. problemas isostáticos, em que um mesmo modo de falha se aplica a vários elementos associados e série;
2. treliças hiperestáticas de material frágil, em que os caminhos de falha envolvem falhas de elementos
associados em série;
3. pórticos hiperestáticos formados por material dúctil, em que os diferentes mecanismos de falha estão
associados em série;
4. estrutura com vários modos de falha globais associados em série;
5. elementos estruturais com vários modos de falha associados em série;
O caso 5 acima pode aparecer, de forma composta, nos problemas 1 e 2. Exemplos de elementos estru-
turais com múltiplos modos incluem: vigas e lajes (exão, cortante, deformação excessiva); colunas e barras
comprimidas (ambagem global e localizada, esmagamento, deformação excessiva).
Cada modo de falha global de uma estrutura, ou local de um elemento estrutural, pode ser descrito por uma
equação de estado limite:
gi (x) = 0, i = 1, 2, ..., nLS ;
4.3. MÚLTIPLOS MODOS DE FALHA (SISTEMA EM SÉRIE) 137
sendo nLS o número de equações de estado limite (do inglês Limit States). O domínio de falha para cada modo
é dado por:
fi = fxjgi (x) · 0g .
As probabilidades de falha individuais (em relação a cada um dos modos de falha, considerados individ-
ualmente) podem ser determinadas utilizando os métodos estudados no Capítulo 3 (FOSM, FORM, SORM).
Nesta seção, estudamos como estas soluções individuais são empregadas na solução de problemas envolvendo
domínios de falha em série, conforme Eq. (4.12).
A Eq. (4.12) resulta na probabilidade de falha do sistema, ou pfSY S , que envolve múltiplos modos de falha. É
útil podermos comparar este resultado com índices de con abilidade avaliados para modos de falha individuais,
o que é feito a partir do índice de con abilidade equivalente para sistemas:
Observando o diagrama de Venn na Figura 4-12, veri camos que a união dos eventos falha pode ser obtida
como:
pfSY S = +P [F1 ]
+P [F2 ] ¡ P [F2 \ F1 ]
+P [F3 ] ¡ P [F3 \ F1 ] ¡ P [F3 \ F2 ] + P [F3 \ F2 \ F1 ]
+... (4.14)
O primeiro somatório envolve probabilidades de falha individuais; o segundo envolve intersecções de dois
eventos; o terceiro, intersecções de três eventos, e assim por diante. Os sinais (+/¡) dos somatórios alternam-se
entre positivo e negativo, o que signi ca que limites inferiores e superiores para a probabilidade de falha são
138 CONFIABILIDADE DE SISTEMAS
obtidos à medida que estes termos vão sendo incorporados à soma, como segue.
Limites uni-modais são obtidos desconsiderando todos os termos envolvendo intersecções, ou seja: estes
limites são calculados considerando apenas modos individuais de falha. Como veremos a seguir, os resultados
apresentados na Eq. (4.1) correspondem a limites uni-modais. Limites bi-modais são obtidos incluindo os
termos de intersecção entre dois modos de falha P [Fi \ Fj ]. Os termos de intersecção múltipla (três ou mais
modos de falha) são bastante difíceis de calcular, por isto difícilmente são considerados. Limites de terceira
ordem são discutidos em (Zhang, 1993).
Limites uni-modais
A consideração do primeiro somatório (apenas) na Eq. (4.15) dá origem a um limite superior para a probabili-
dade de falha: nLS
X
pfSY S · P [Fi ]. (4.16)
i=1
Os termos de intersecção P [Fi \ Fj ] ou de intersecção múltipla na Eq. (4.15) são sempre menores ou iguais
ao menor dos eventos envolvidos na intersecção:
Isto signi ca que a consideração de apenas um dos termos do somatório na Eq. (4.16) corresponde a um limite
inferior para a probabilidade de falha. Em particular:
Note que esta expressão é idêntica à Eq. (4.1). Os limites uni-modais podem resultar bastante amplos,
4.3. MÚLTIPLOS MODOS DE FALHA (SISTEMA EM SÉRIE) 139
principalmente quando não há um modo de falha dominante. Por isto, nem sempre são úteis. Em con abilidade
estrutural, tentamos, sempre que possível, trabalhar com limites bi-modais.
Limites bi-modais
Limites bi-modais para a probabilidadade de falha de sistemas em série são obtidos incluindo os termos de
segunda ordem (P [Fi \Fj ]) da Eq. (4.15). Para obter um limite inferior, desconsideramos os termos envolvendo
intersecções múltiplas (três ou mais modos de falha), mas utilizamos o operador max[ ] para garantir que não
haja contribuição negativa na probabilidade de falha, devido à desconsideração dos termos de terceira ordem
(P [Fi \ Fj \ Fk ]):
2 3
nLS
X i¡1
X
P [F1 ] + max 40, P [Fi ] ¡ P (Fi \ Fj )5 6 pfSY S . (4.17)
i=2 j=1
Infelizmente, este limite depende da ordenação dos modos de falha. Existem algoritmos para se determinar
a ordenação ideal dos modos de falha, a m de estreitar os limites. A regra geral é ordená-los em escala de
importância, i.e., em escala decrescente de probabilidade de falha individual:
O limite superior é obtido a partir de uma simpli cação das linhas da Eq. (4.14). Cada linha desta expressão
faz uma contribuição não-negativa na probabilidade de falha, de modo que:
nLS
X n
X LS
Aqui, o operador max[ ] também garante que não ocorra contribuição negativa na probabilidade de falha.
Reunindo os dois resultados temos os limites bi-modais para a probabilidade de falha de sistemas em série
(Ditlevsen, 1979):
2 3
nLS
X i¡1
X n
X LS n
XLS
P [F1 ] + max 40, P [Fi ] ¡ P (Fi \ Fj )5 6 pfSY S 6 P [Fi ] ¡ max [P (Fi \ Fj )] . (4.19)
i>j
i=2 j=1 i=1 i=2
Os limites expressos na Eq. (4.19) são conhecidos na literatura como Ditlevsen bounds. Song et al. (2021)
reconhecem a contribuição de trabalhos anteriores, e chamam estes limites de KouniasHunterDitlevsen (KHD)
bounds.
Considere dois hiper-planos tangentes à duas equações de estado limite nos respectivos pontos de projeto:
A covariância entre os dois modos de falha (entre as duas equações de estado limite) é obtida como:
O termo E[yt y] corresponde ao momento de segunda ordem (Eq. A.14), e pode ser calculado como:
No espaço das variáveis normais padrão, E[y] = 0 e σ2Y = 1; logo, E[yt y] = 1. Portanto, a covariância entre
dois modos de falha se resume a:
Portanto, o coe ciente de correlação entre gi (y) e gj (y), que mede a dependência linear entre as equações
de estado limite, é obtido como:
Note que os vetores ®i e ®j são sub-produtos da solução via FORM. O coe ciente de correlação obtido
através da Eq. (4.20) é aproximado, pois é obtido a partir da linearização das equações de estado limite nos
respectivos pontos de projeto. Podemos mostrar que ρgi gj é o cosseno do angulo entre as equações de estado
limite linearizadas. As aproximações envolvidas no cálculo de ρgi gj são compatíveis com as aproximações do
método FORM.
4.3. MÚLTIPLOS MODOS DE FALHA (SISTEMA EM SÉRIE) 141
Para equações de estado limite não-lineares, as probabilidades de intersecção P (Fi \ Fj ) não podem ser deter-
minadas de forma exata. Estas probabilidades são aproximadas a partir das probabilidades de ocorrência dos
eventos A e B representados na Figura 4-13, para cada combinação de modos de falha. Relações de ortogonali-
dade permitem escrever:
0 1
β j ¡ ρgi gj β i
P (Aij ) = ©(¡β i )© @¡ q A,
1 ¡ ρ2gi gj
0 1
β i ¡ ρgi gj β j
P (Bij ) = ©(¡β j )© @¡ q A. (4.21)
1 ¡ ρ2gi gj
Na avaliação dos limites inferior e superior (Eqs. 4.17 e 4.18), os termos P (Fi \Fj ) são aproximados de forma
a preservar os respectivos limites. Quando o coe ciente de correlação ρgi gj é positivo, para o limite inferior
utilizamos:
P (Fi \ Fj ) = P (Aij ) + P (Bij ), (4.22)
e para o limite superior, utilizamos:
Quando o coe ciente de correlação ρgi gj é negativo, para o limite inferior utilizamos:
A formulação destes limites está baseada em três importantes aproximações: a linearização das equações de
estado limite nos respectivos pontos de projeto, a consideração de falha simultânea por dois e não mais do que
dois modos de falha e a aproximação feita no cálculo da probabilidade de intersecção P (Fi \ Fj ).
Devido à linearização e à aproximação feita no cálculo de P (Fi \Fj ), os limites estabelecidos nas Eqs. (4.17) e
(4.18) são assintóticos, isto é: se estreitam à medida que as probabilidades de falha individuais diminuem. Estes
limites ainda podem ser largos se não houver um modo de falha dominante, especialmente se as probabilidades
de falha individuais forem grandes. No entanto, em geral se obtém resultados aceitáveis.
O cálculo dos limites bi-modais linearizados pode ser resumido nas seguintes etapas:
Enunciado: Considere a treliça ilustrada na Figura 4-14, sujeita a duas forças aleatórias H e V . O vão
entre os apoios mede v = 300 mm,p e a altura é h = k v, com fator de aspecto k a ser determinado. O
comprimento das barras é L = v2 + h2 . A seção transversal das barras é circular: a barra 1 tem raio
r1 = 4 mm e a barra 2 tem r2 = 5, 2 mm. As forças são estritamente positivas1 ; logo, a barra 1 é comprimida
por V e tracionada por H, e as duas forças provocam compressão da barra 2. Assim, a barra 1 pode falhar
por ruptura frágil em tração, ou por instabilidade elástica, em compressão. A barra 2 só pode falhar por
compressão. Os dados das variáveis aleatórias do problema são apresentados na Tabela 4.1. Todas as
variáveis tem distribuição normal. A tensão de ruptura e o modulo de elasticidade são os mesmos para
as duas barras. Propriedades materiais (S e E) são consideradas completamente dependentes; as demais
variáveis são independentes. Considerando a fórmula de Euler para instabilidade elástica, determine a
con abilidade do sistema.
Solução: As áreas das seções transversais são Ai = πri2 , e os momentos de inércia à exão, Ii = πri4 /4. Os
fatores de carga são obtidos para carregamentos unitários, atuando de forma isolada. Considerando apenas
H = 1, obtemos h1 = L/2v (tração) e h2 = ¡L/2v (compressão). Considerando apenas V = 1, obtemos
v1 = ¡L/2h (compressão) e v2 = ¡L/2h (compressão). Não há como saber se a força na barra 1 será de
tração ou compressão: se a resultante for positiva (h1 H + v1 V > 0), a força é de tração; se for negativa,
multiplicamos os dois fatores de carga por ¡1 para escrever as equações de estado limite. Sendo gR1 para
ruptura da barra 1, gE1 para ambagem da barra 1 e gE2 para ambagem da barra 2, temos:
µ ¶
A1 S L V
gR1 (S, H, V ) = ¡ +H ¡ [kN],
103 2v k
µ ¶
π2 EI1 L V
gE1 (E, H, V ) = ¡ ¡H + [kN],
L2 2v k
µ ¶
π2 EI2 L V
gE2 (E, H, V ) = ¡ +H + [kN].
L2 2v k
Observe que o mesmo termo (§H ¨ V /k) aparece nas equações gR1 e gE1 , mas com sinais trocados.
Considerando os valores médios das forças (µH = 2µV ), uma situação de equilíbrio entre gR1 e gE1 é
obtido para (k = 1/2)2 ; logo, os dois modos de falha precisam ser considerados. Para k ¿ 1/2, a equação
de ruptura poderia ser desconsiderada; para k À 1/2, a falha por instabilidade da barra 1 poderia ser
desconsiderada. Como as variáveis materiais S e E são completamente dependentes, ao avaliar gR1 usamos
t t
X = fS, H, V g ; já para avaliar as demais equações, X = fE, H, V g .
Como as equações de estado limite são lineares nas três variáveis aleatórias, e estas tem distribuição
normal, o índice de con abilidade de Cornell fornece a probabilidade de falha exata para cada modo de
falha:
L
E[gR1 (X)] A1 µ 10¡3 ¡ 2v (+µH ¡ 2µV )
βR1 = p =q S = 3, 63716;
V ar[gR1 (X)] L 2
A21 σ2S 10¡6 + 4v 2 (+σ 2H + 4σ2V )
2
π µE I1
E[gE1 (X)] 2 ¡ L (¡µH + 2µV )
βE1 = p = q L 2 2 2v = 3, 87807;
V ar[gE1 (X)] π4 σ E I1 L2 2 2
+ 4v 2 (+σ H + 4σ V )
L4
2
π µE I2
E[gE2 (X)] 2 ¡ L (+µH + 2µV )
βE2 = p = q 4L 2 2 2v = 3, 86999. (4.26)
V ar[gE2 (X)] π σ E I2 L2 2 2
+ 4v 2 (+σ H + 4σ V )
L4
144 CONFIABILIDADE DE SISTEMAS
Para determinar os coe cientes de correlação ρ entre os modos de falha, precisamos avaliar os vetores
gradientes no espaço Y. Da Eq. (3.39) temos:
½ ¾ ½ ¾
∂g ∂g
rg(y) = = σXi .
∂yi i=1,...,3 ∂xi i=1,...,3
Portanto:
L L t
rgR1 = fσS A1 10¡3 , ¡σ H
, +σV g = f0, 1235; ¡0, 2236; +0, 2236gt ;
2v 2vk
π2 I1 L L t
rgE1 = fσE 2 , +σH , ¡σV g = f0, 0370; +0, 2236; ¡0, 2236gt ;
L 2v 2vk
π2 I2 L L t
rgE2 = fσE 2 , ¡σH , ¡σV g = f0, 1058; ¡0, 2236; ¡0, 2236gt . (4.28)
L 2v 2vk
Os coe cientes de sensibilidade não são necessários na solução do problema, mas ajudam a interpretar
os resultados. Mantendo os sinais ao elevar ao quadrado, temos:
© ªt
®2j = krgj k¡1 sign[(rgj )i ][(rgj )i ]2 i=1,...,3 .
®2R1 = fα2S ; α2H ; α2V gt = f+0, 132; ¡0, 434; +0, 434gt ;
®2E1 = fα2E ; α2H ; α2V gt = f+0, 014; +0, 493; ¡0, 493gt ;
®2E2 = fα2E ; α2H ; α2V gt = f+0, 101; ¡0, 450; ¡0, 450gt . (4.29)
Observamos que as forças H e V controlam as probabilidades de falha. Como as equações de estado limite
são lineares, e a transformação de Hasofer-Lind é linear, os gradientes são constantes. Os coe cientes de
correlação são encontrados como:
rt gR1 rgE1
ρR1E1 = ®tR1 ®E1 = = ¡0, 8829;
krgR1 k krgE1 k
rt gR1 rgE2
ρR1E2 = ®tR1 ®E2 = = +0, 1154;
krgR1 k krgE2 k
rt gE1 rgE2
ρE1E2 = ®tE1 ®E2 = = +0, 0369. (4.30)
krgE1 k krgE2 k
Observamos correlação negativa entre os modos de falha por tração (ruptura) e por compressão (insta-
bilidade) da barra 1, como esperado. A correlação positiva entre gR1 e gE2 é consequência da dependência
completa entre as propriedades materiais (S e E) e do efeito da força H, cuja variação positiva aumenta a
tração na barra 1 e a compressão na barra 2. A correlação quase nula entre gE1 e gE2 é consequência do
efeito negativo (em termos de correlação) da força H, e dos efeitos positivos da força V . O módulo de elas-
ticidade das barras é o mesmo, o que deveria contribuir para correlação positiva; no entanto, a contribuição
de E é pequena (Eq. 4.29).
Utilizando as Eqs. (4.21) e (4.22 até 4.25), as probabilidades ilustradas na Tabela 4.2 são obtidas. Para
determinar os limites bi-modais, é conveniente ordenar os modos de falha, em ordem crescente de índice de
con abilidade:
β R1 < β E2 < β E1 .
4.3. MÚLTIPLOS MODOS DE FALHA (SISTEMA EM SÉRIE) 145
A partir da Eq. (4.17), o limite inferior da probabilidade de falha do sistema é obtido como:
Estes limites podem ser escritos em termos de índice de con abilidade para sistemas (Eq. 4.13), sendo o
limite inferior em β obtido a partir do limite superior em pfSY S , e vice-versa:
3, 48636 6 β SY S 6 3, 48645.
Observamos que os limites bi-modais são bem justos, tanto em termos de probabilidades de falha, como
em índices de con abilidade, apesar de não haver um modo de falha dominante neste problema. Em
comparação, os limites uni-modais são obtidos como (Eq. 4.13):
Y
©(¡β R1 ) = 1, 3783 10¡4 6 pfSY S 6 2, 44877 10¡4 = 1 ¡ (1 ¡ ©(¡β i )),
i=1,...,3
3, 4863 6 β SY S 6 3, 63716 = β R1 .
Veri camos que os limites uni-modais são amplos, ou seja, fornecem menos informação sobre a con-
abilidade do sistema. Neste problema, há óbvias vantagens em se trabalhar com os limites bi-modais.
Veri camos também que o limite uni-modal superior da pfSY S , que assume independência entre os modos
de falha, está mais próximo da probabilidade correta. Esta é uma consequência de termos dois modos de
falha com forte correlação negativa (ρgR1 gE1 = ¡0, 8829) e outros com fraca correlação positiva (Eq. 4.30).
A Figura 4-15 ilustra o problema em termos das variáveis aleatórias mais importantes, H e V . Na gura
observamos as curvas de nível da função de densidade conjunta de H e V , bem como as três equações de
estado limite, e os respectivos pontos de projeto, no espaço original X.
t
sendo p = fpj g , j = 1, . . . , m, um vetor coluna contendo as probabilidades pj . Esta formulação pode ser
generalizada para avaliar as probabilidades de múltiplos eventos de sistema (falha de serviço, falha parcial,
colapso, etc.) pelo produto matricial PSY S = Ct P, sendo PSY S a matriz de probabilidades dos eventos
compostos, cujo componente (PSY S )ij é a probabilidade de que o i-ésimo evento de sistema ocorra sob a j-
ésima condição; C = [c1 , c2 , . . . , cnSY S ] é a matriz cujas colunas são vetores de eventos, para nSY S eventos
de sistema; e P = [p1 , p2 , . . . , pncond ] é a matriz cujas colunas são os vetores de probabilidades para as ncond
diferentes condições impostas aos componentes. Este esquema foi chamado de con abilidade de sistemas baseada
4.3. MÚLTIPLOS MODOS DE FALHA (SISTEMA EM SÉRIE) 147
em multiplicação de matrizes ou matrix-based system reliability method (Song & Kang, 2009).
Como exemplo, considere um sistema formado por três componentes (n = 3), cujo espaço amostral é formado
por 23 = 8 eventos elementares:
e1 = E1 E2 E3 , e2 = E 1 E2 E3 , e3 = E1 E 2 E3 , e4 = E1 E2 E 3 ,
e5 = E 1 E 2 E3 , e6 = E 1 E2 E 3 , e7 = E1 E 2 E 3 , e8 = E 1 E 2 E 3 ,
sendo Ei Ej = Ei \ Ej . Estes eventos estão listados na Tabela 4.3, juntamente com os coe cientes ci que
caracterizam os quatro eventos compostos E1 [ E2 [ E3 (associação em série), E1 \ E2 \ E3 (associação em
paralelo), (E1 \ E2 ) [ E3 (associação mista A) e (E1 [ E2 ) \ (E 2 [ E3 ) (associação mista B).
Tabela 4.3: Eventos elementares ej e sua participação nos eventos compostos de sistema.
elementarnsistema E1 [ E2 [ E3 E1 \ E2 \ E3 (E1 \ E2 ) [ E3 (E1 [ E2 ) \ (E 2 [ E3 )
e1 = E1 E2 E3 1 1 1 1
e2 = E 1 E2 E3 1 0 1 1
e3 = E1 E 2 E3 1 0 1 1
e4 = E1 E2 E 3 1 0 1 0
e5 = E 1 E 2 E3 1 0 1 0
e 6 = E 1 E2 E 3 1 0 0 0
e7 = E1 E 2 E 3 1 0 0 1
e8 = E 1 E 2 E 3 0 0 0 0
Uma vez que as probabilidades dos eventos elementares ej sejam determinadas, a operacionalização da
avaliação dos eventos de sistema é muito simples, independentemente da complexidade do evento de sistema.
É também muito fácil determinar probabilidades condicionais e derivadas das probabilidades dos eventos de
sistema. Uma limitação da técnica é que o tamanho do problema cresce exponencialmente com o número
de componentes do sistema. Ainda assim, sistemas com até dez componentes podem ser avaliados utilizando
programação em computador. Sugestões para a montagem dos vetores de eventos c e de probabilidades p, em
problemas de grandes dimensões, são apresentadas em (Song & Kang, 2009). Quando os eventos elementares
são dependentes, a construção do vetor de probabilidades p não é trivial, e requer a identi cação das variáveis
Q responsáveis por efeitos comuns. Um vetor de probabilidades condicionais p(q) é obtido, em função das
variáveis comuns, e a probabilidade do evento composto é obtida pelo teorema da probabilidade total:
Z
PSY S = ct p(q) fQ (q)dq.
Q
sendo A1 , A2 , e A3 matrizes cujas colunas são vetores de eventos cujas probabilidades ou limites são conhecidos;
e b1 , b2 , e b3 vetores das probabilidades ou limites conhecidos. Os limites da con abilidade do sistema são
obtidos a partir dos vetores solução do problema de programação linear:
Song & Kiureghian (2003) demonstram que a solução do problema de programação linear acima resulta nos
limites mais estreitos possíveis para a probabilidade de falha do sistema, para o conjunto de informações dadas
(conhecidas).
4.4.1 Introdução
Estruturas usuais de pontes, prédios, ginásios, galpões, barragens, etc., são muitas-vezes hiper-estáticas. Isto
signi ca que di cilmente tais estruturas colapsam sob ações usuais de projeto, como peso próprio, ações de
utilização e do vento, ou mesmo terremotos. No entanto, tais estruturas eventualmente são submetidas à ações
excepcionais, como aquelas decorrentes de incêndios, explosões, impacto de veículos, etc. Ainda que não sejam
su cientes para provocar o colapso direto da estrutura, tais ações excepcionais podem provocar danos localizados,
como a perda de elementos portantes: colunas, paredes, vigas ou lajes. Se a estrutura não estiver bem amarrada,
ou não houverem caminhos de carga alternativos, os danos iniciais localizados podem se propagar, levando ao
colapso parcial ou global da estrutura.
De fato, há diversos registros históricos recentes de colapsos parciais ou globais, ocorridos sob gatilho de danos
iniciais localizados. A torre de apartamentos Ronan Point (UK, 1968) sofreu colapso parcial após explosão de
botijão de gas na cozinha do 18o andar. O prédio Skyline Plaza (US, 1973) sofreu danos progressivos e colapso
parcial após remoção prematura de escoras. Outros exemplos incluem ataques terroristas de Oklahoma City
(1995), às torres de Khobar (1996) e ao World Trade Center (NY, 9/11, 2001); em todos estes exemplos, os danos
nais foram signi cativamente maiores do que os danos localizados causados diretamente pelos terroristas. No
Brasil, observamos recentemente o colapso do edifício Wilton Paes de Almeida (2018), sob incêndio de grandes
proporções. Estes eventos chamaram a atenção da comunidade de engenharia de estruturas para a necessidade
de prever a robustez de estruturas sujeitas a danos localizados, resultando em normas e recomendações de
projeto como DoD (2013) e GSA (2013).
Retomando o conceito de robustez, apresentado na Seção 3: é admissível que uma estrutura sujeita à ações
excepcionais como incêndios, explosões, impacto de veículos ou terremotos de grandes proporções sofra danos
localizados. No entanto, o bom projeto deve garantir que a extensão nal dos danos não seja desproporcional
à intensidade das ações, ou à extensão do dano inicial imposto à estrutura.
4.4. SISTEMAS REDUNDANTES E COLAPSO PROGRESSIVO 149
Duas características típicas das ações excepcionais são: a pequena probabilidade de ocorrência; e a grande
intensidade. A decisão de reforçar uma estrutura para que suporte tais ações, ou a perda de um elemento por-
tante, por exemplo, é um típico caso de tomada de decisões na presença de incertezas. A teoria de con abilidade
das estruturas é própria para abordar o problema.
Multiplas ameaças podem levar à ocorrência de ações excepcionais em estruturas. Sob múltiplas ameaças, a
probabilidade de colapso é dada por:
XX
P [C] = P [CjLD, H]P [LDjH]P [H] (4.31)
H LD
sendo P [C] a probabilidade de colapso, P [H] a probabilidade de ocorrência de uma ameaça, P [LDjH] a proba-
bilidade de ocorrência de dano local, dada a ameaça, e P [CjLD, H] a probabilidade de ocorrência de colapso,
condicional à ocorrência da ameaça e do dano local. O somatório em H representa as várias ameaças à inte-
gridade de uma estrutura, como incêndio, explosão, impacto veicular, terremoto; a soma sobre LD indica os
possíveis danos locais: perda de uma ou mais colunas, perda de parede portante, ruptura de laje, ruptura de
elemento de ligação, etc.
Os riscos associados ao colapso progressivo podem ser mitigados atuando-se nas probabilidades ou nas
consequências. Especí camente, o risco pode ser mitigado em três frentes:
O controle da ameaça (ponto A) geralmente envolve medidas sociais ou administrativas, como proibir a
circulação ou presença de material inamável ou explosivo, construção de barreiras físicas para evitar a aprox-
imação de veículos à pontos sensíveis da estrutura, educação e treinamento dos pro ssionais responsáveis pela
construção e uso da estrutura. Usualmente, ameaças são caracterizadas por uma frequência de ocorrência
anual. Segundo Ellingwood (2006, 2007) e Ellingwood e Dusenberry (2005), a frequência de ocorrência de ex-
plosões de gas e incêndios está entre 10¡6 e 10¡5 eventos por ano. Para ameaças desta magnitude, o produto
P [CjLD, H] £ P [LDjH] deve ser limitado a algo entre 0, 01 e 0, 1; ou seja: como a probabilidade de ocorrência
da ameaça é pequena, admite-se uma probabilidade de colapso maior do que a usual (pois 0, 1 £ 10¡5 = 10¡6 ).
O controle da ameaça envolve construção de árvores de falha, discutidas na Seção 4.5.
O controle do dano local (ponto B) implica em medidas de reforço dos elementos que podem ser alvo de ações
excepcionais. Reforçar localmente a estrutura pode ser inviável, devido às signi cativas incertezas, quanto às
possíveis intensidades das ações excepcionais. Por exemplo, ondas de pressão decorrentes de explosões variam
muito em função do potencial explosivo do material, bem como da carga e da distância ao ponto de detonação
(Shi e Stewart 2015). Cargas de impacto variam muito com a massa e a velocidade do veículo, bem como da
presença de eventual barreira de proteção. Em função destas incertezas, é comum se admitir que o elemento
estrutural alvo de possível ação excepcional será perdido, independentemente de reforço. Isto implica em
aproximar P [LDjH] = 1, e concentrar os esforços de projeto no ponto (C).
O controle da propagação do dano (ponto C) consiste em medidas para prover:
Figura 4-16: Comportamento de colapso progressivo de estruturas de CA. (a) mecanismos de re-distribuição
de esforços; (b) arco compressivo; (c) instabilidade snap-through e (d) ação catenária. Ilustração de Praxedes
(2020).
O projeto ao colapso progressivo é de natureza secundária (He et al. 2019), o que signi ca que, usualmente,
as dimensões dos elementos estruturais são determinadas para as ações usuais. Posteriormente, a estrutura é
veri cada para a condição de perda de elemento portante. Típicamente, a análise resulta em aumento das taxas
de armadura nas vigas e lajes imediatamente afetadas pela perda do elemento estrutural.
Há diferentes formas de prover robustez às estruturas, e resistência ao colapso progressivo. A norma AS-
CE/SEI 7-16:2016 distingue entre ações diretas e indiretas. As ações diretas envolvem consideração explícita
da resistência ao colapso progressivo no projeto, e incluem:
(a) Método da resistência local especí ca, que provê resistência su ciente aos elementos chave, para que
resistam às ações excepcionais;
(b) Método dos caminhos de carga alternativos (Alternate Path Method ou APM), que admite o dano inicial
localizado, mas busca produzir caminhos alternativos para absorver o dano, e evitar o colapso progressivo.
As ações indiretas endereçam o colapso progressivo de forma implícita, buscando produzir níveis mínimos
de resistência, continuidade e ductilidade nas estruturas.
sendo Rm a resistência média, e An o efeito da ação excepcional (valor nominal). Admitindo que a ação
excepcional possa levar à perda de elemento(s) portante(s), estes são seletivamente removidos da estrutura, e a
mesma é veri cada considerando:
φRm ¸ 1, 2Dn + 0, 5Ln . (4.34)
Observe que nas Eqs. (4.33) e (4.34) o valor da ação de utilização é reduzido, em comparacão à ação
constante em (4.32). Isto ocorre porque, sob efeito de ações excepcionais, ou da perda de elemento estrutural,
espera-se que a estrutura seja capaz de suportar a parcela sustentada da ação de utilização, e não o seu valor
extremo de 50 anos.
A norma ASCE/SEI 7-16:2016 orienta a utilizar o coe ciente parcial φ usual para o material; já a norma
ASCE 41:2017 recomenda φ = 1 para colapso progressivo sob ação de sismos.
De acordo com o EUROCODE (EN 1990:2002), sob ações excepcionais e perda de elemento estrutural, a
veri cação e eventual reforço são feitos para:
µ ¶
rk
R ¸ 1, 0Dn + 0, 5Ln ,
γR
combinações especí cas de eventos elementares devem ocorrer, de forma a criar o cenário que pode levar a uma
falha estrutural, ou ao colapso progressivo de um sistema estrutural. Assim como outros grandes acidentes,
falhas estruturais são consequência da combinação de pequenos erros ou incidentes que, de forma isolada, teriam
pouca importância, mas cuja coincidência pode ser fatal. A história dos grandes colapsos estruturais (Petroski
1992, 2006, 2012) é farta de exemplos deste tipo: um erro de projeto, que passa despercebido na veri cação,
que passa despercebido na execução, que coincide com um erro de execução, que coincide com um carregamento
excepcional, etc. A decomposição de um evento principal, como o colapso de um sistema estrutural, em termos
da combinação de eventos elementares necessários para a sua ocorrência, é feita através de árvores de falhas.
Por outro lado, falhas estruturais podem dar origem a diversas consequências, desde a simples perda de
funcionalidade (falha de serviço), até a perda da estrutura (falha última), potencialmente ocasionando danos
materiais a usuários e a terceiros, danos pessoais e danos ambientais. A ocorrência dos diversos cenários de
consequências de falha vai depender da existência de planos de contingência, de barreiras de proteção, de fusíveis
para estancar a progressão do acidente, da presença de pessoas, do potencial para danos ambientais, etc. A
decomposição de eventos iniciais, como um colapso estrutural, no espectro de possíveis consequências, é feita
através de árvores de eventos.
Àrvores de falhas e eventos são parte essencial de análises quantitativas de riscos (Quantitative Risk Analy-
sis), que hoje em dia são obrigatórias no comissionamento de novos empreendimentos na industria química e
em instalações o¤shore no Golfo do México e no Mar do Norte. Nesta seção, àrvores de falhas e eventos são
descritas de maneira super cial; maiores detalhes podem ser encontrados em Dhillon (1999), Bedford e Cooke
(2001), Vinnem (2007), Birolini (2010) e Modarres et al. (2017). Um exemplo simples é apresentado, envolvendo
falha estrutural de um vaso de pressão.
Análise qualitativa
Árvores de falha são uma maneira sistemática de organizar e identi car os componentes e incidentes que podem
levar a ocorrência de um acidente de maiores proporções (evento principal). Além de identi car as prováveis
causas de acidentes, árvores de falha permitem identi car combinações de incidentes que levam à falha, e que
de outra maneira poderiam passar desapercebidas.
Uma análise puramente qualitativa já é su ciente para orientar o projeto de um sistema. Permite identi car
as sequências críticas de eventos, que mais provavelmente levam à falha do sistema. Estas sequências são
chamadas de caminhos críticos de falha ou minimal cut sets (Figura 4-5). Os caminhos críticos que podem
levar ao evento principal podem ser identi cados em uma análise qualitativa. A probabilidade de ocorrência
do evento principal pode ser minimizada reduzindo a probabilidade de ocorrência dos eventos que compõe o
caminho crítico. Por meio dos caminhos críticos, podemos simpli car consideravelmente a árvore de falha de
um sistema muito complexo.
4.5. ÁRVORES DE FALHAS E EVENTOS 153
Análise quantitativa
A análise quantitativa da probabilidade de ocorrência do evento principal requer a quanti cação da probabilidade
de ocorrência dos eventos elementares, e o cálculo das probabilidades associadas às interações (portas AND, OR
e outras).
Taxas de falhas de humanos, na realização de tarefas especí cas e repetitivas, são compiladas em manuais
práticos (Kirwan B, 1994).
Probabilidades e/ou taxas de falhas de componentes mecânicos como compressores, bombas, acionadores,
motores, rolamentos; ou de componentes eletro-eletrônicos como placas de circuitos, relés, válvulas, resistores,
capacitores, etc., são registradas em bases de dados, a partir de históricos de falhas observadas, e apresentadas
na forma de tabelas. Em geral, estes dados são compilados por comunidades que atuam em determinadas áreas,
por exemplo (Dhillon, 1999):
Eletro-eletrônicos: Eletronic Device Failure Analysis Society (EDFAS);
Eletro-eletrônicos: Institute of Electrical and Electronics Engineers (IEEE);
Equipamentos de usinas nucleares: Nuclear Plant Reliability Data System (NPRDS);
Usinas geradoras de energia: National Electric Reliability Council (NERC);
Equipamentos da industria de óleo e gás: O¤shore and Onshore Reliability Data (OREDA);
Falhas em dutos e dutovias: United Kingdom Onshore Pipeline Operators Association (UKOPA), European
Gas pipeline Incident data Group (EGIG) e Conservation of Clean Air and Water in Europe (CONCAWE).
Na análise simpli cada de sistemas complexos, é comum assumir a independência entre eventos associados em
paralelo; logo, a probabilidade de avançar por uma porta AND é determinada pelo produto das probabilidades
individuais. Também de forma simpli cada, eventos em portas OR são assumidos como mutuamente exclusivos;
logo, a probabilidade de avançar por uma porta OR é dada pela soma das probabilidades de ocorrência dos
eventos elementares.
Taxas de falhas geralmente são dadas em termos de frequências relativas (e.g., falhas por ano, falhas por
154 CONFIABILIDADE DE SISTEMAS
hora). O cálculo de probabilidade em uma porta AND admite apenas uma entrada do tipo frequência relativa;
caso contrário, o resultado se tornaria algo como falhasn por anon , o que obviamente não faz sentido. No
entanto, se uma das entradas for uma frequência relativa e as demais entradas forem probabilidades, o resultado
é obtido em termos de frequência relativa. Na operação OR, não há di culdade em combinar várias taxas de
falha, desde que a medida de tempo seja a mesma.
1. de nição do evento inicial, que pode ser uma falha de equipamento, um acidente, vazamento, explosão,
impacto, perda de elemento estrutural, etc;
2. de nição dos eventos secundários relevantes, que provocam as bifurcações dos galhos da árvore. Cada
rami cação é associada a uma probabilidade de ocorrência. A soma das probabilidades de ocorrência de
todos os galhos que rami cam de um nó deve ser unitária;
3. traçado dos caminhos de falha, distinguindo consequências em termos de gravidade. Os caminhos de falha
mostram onde devem ser concentrados os esforços para diminuir as consequências do acidente;
4.5. ÁRVORES DE FALHAS E EVENTOS 155
Avaliação qualitativa
Uma avaliação qualitativa em árvore de eventos pode fornecer informações importantes, como:
Avaliação quantitativa
A probabilidade de ocorrência de cada resultado possível é obtida multiplicando as probabilidades dos eventos
situados ao longo do caminho que leva aquele resultado. Quando as consequências podem ser medidas em termos
monetários, o produto do custo pela probabilidade resulta em um custo esperado. A soma das probabilidades
de todos os resultados possíveis deve ser unitária.
2. há risco de aumentar muito, a medida que mais eventos secundários são considerados;
3. possibilita a avaliação de riscos, incluindo custos esperados de falha;
4. evidencia os efeitos de falhas;
5. mostra a sequência de um acidente;
6. é própria para análise de segurança;
7. sequências de grande signi cado podem ser analisadas usando árvores de falha.
Di cilmente a ruptura de um vaso de pressão que não contém defeitos como trincas de fadiga ou corrosão
falha sob condições normais de operação. No entanto, o processo industrial do qual este vaso de pressão faz
parte pode produzir pressões anormais, signi cativamente maiores do que a pressão de projeto. Estas pressões
anormais podem produzir uma falha estrutural por sobrepressão. O exemplo consiste em determinar uma árvore
de falhas, identi cando os eventos que podem levar a uma pressão anormal, bem como uma árvore de eventos,
para analisar o espectro de possíveis consequências. Portanto, o problema de con abilidade estrutural associado
à Eq. (4.35) não é resolvido.
O vaso de pressão objeto de estudo está ilustrado na Figura 4-19. Ele está dotado de uma válvula de alívio
de pressões, de um manômetro associado a um alarme, e há um funcionário (operador) responsável por resolver
qualquer problema operacional relacionado ao equipamento.
O processo industrial do qual o vaso faz parte eventualmente produz aumentos diretos (primários)
de pressão com uma frequência de 0,01 ocorrências por ano. O processo produz aumentos de temperatura
interna, que levam ao aumento de pressão por expansão volumétrica, com uma frequência de 0,02 ocorrências
por ano. Em ambos os casos, a válvula de alívio é a proteção primária; no entanto, esta tem uma taxa
de falhas de 0,001 por ano. O aumento da pressão se propaga se a válvula de alívio falhar, tanto para
um aumento primário de pressão, como para um evento de aumento de temperatura. A árvore de falhas
se inicia com estes três eventos, conforme ilustrado na Figura 4-20. Os eventos avançam por duas portas
AND; a gura ilustra as probabilidades calculadas assumindo independência entre os eventos.
A ocorrência de pressão anormal, devido à falha da válvula de alívio, deveria ser observada pelo operador,
com base na leitura do manômetro ou na escuta do alarme sonoro. No entanto, em uma a cada 100
ocorrências, o operador falha, isto é, não adota as medidas corretivas necessárias para reduzir a pressão no
vaso. Por outro lado, o manômetro e o alarme também podem falhar; a taxa de falhas destes equipamentos
é de 0,001/ano. Dois eventos devem ocorrer para que a pressão anormal se propague: aumento de pressão
e falha do operador ou falha do equipamento. A associação entre os eventos está ilustrada na gura.
4.5. ÁRVORES DE FALHAS E EVENTOS 157
Assumindo que os eventos na porta OR são mutuamente exclusivos, as probabilidades ilustradas na Figura
4-20 são obtidas. A probabilidade de se observar um evento de pressão anormal neste vaso é de P [P A] = 3, 3
10¡7 /ano.
A probabilidade de ocorrer a ruptura do vaso, dado um cenário de pressão anormal, poderia ser calculada
como P [F jP A] = P [gvaso (X) · 0], sendo pi a pressão anormal. A probabilidade incondicional é dada por:
pf = P [F jP A]P [P A].
Agora, consideremos que uma ruptura ocorreu, devido a uma sobrepressão (ou devido a qualquer outra
razão). Quais as possíveis consequências deste acidente de origem estrutural? Ao construir a árvore de
eventos, consideramos que centenas de vasos de pressão semelhantes fazem parte deste processo industri-
al. Alguns processam substâncias tóxicas, outros não. Alguns estão dotados de barreiras de contenção
para vazamento de líquidos. Alguns estão instalados em partes da planta onde há mais, ou menos trabal-
hadores por perto. A maior parte das rupturas leva a vazamentos; outras ocorrem de forma explosiva, com
propagação de gases. A Figura 4-21 é autoexplicativa: ela ilustra a rami cação dos eventos e mostra as
probabilidades associadas a cada rami cação. A Tabela (4.4) lista todas as possíveis consequências, e os
custos estimados associados a cada cenário de consequências. A tabela também mostra as probabilidades
associadas a cada rami cação: quando não há rami cação, a probabilidade é unitária. Na penúltima coluna
é mostrada a probabilidade de cada cenário, obtida multiplicando as probabilidades dos eventos ao longo
de cada caminho. Observe que a soma destas probabilidades é um! A última coluna da Tabela (4.4) mostra
o produto do custo de falha pela probabilidade de ocorrência do cenário: observe que os maiores termos de
custo esperado de falha correspondem aos cenários de consequências C3 e C7 .
158 CONFIABILIDADE DE SISTEMAS
Tabela 4.4: Consequências de falha de vaso de pressão em processo industrial (dados hipotéticos).
Consequências Custo p1 p2 p3 p4 P [Ci ] cef
C1 Graves danos ambientais e pessoais 130 0,1 1 0,2 0,4 0,008 1,040
C2 Graves danos ambientais 90 0,1 1 0,2 0,6 0,012 1,080
C3 Graves danos materiais e pessoais 70 0,1 1 0,8 0,5 0,040 2,800
C4 Graves danos materiais 30 0,1 1 0,8 0,5 0,040 1,200
C5 Danos ambientais e pessoais 40 0,9 0,4 0,3 0,3 0,0324 1,296
C6 Danos ambientais 20 0,9 0,4 0,3 0,7 0,0756 1,512
C7 Danos materiais 10 0,9 0,4 0,7 1 0,252 2,520
C8 Danos materiais localizados 3 0,9 0,6 0,7 1 0,378 1,134
C9 Perda de produção 1 0,9 0,6 0,3 1 0,162 0,162
Soma: 1,0 12,744
4.5. ÁRVORES DE FALHAS E EVENTOS 159
Simulação é uma forma de experimentação numérica. Segundo Rubinstein (1981) ou Rubinstein & Kroese
(2008):
Simulação é uma técnica numérica para realizar experimentos em computador, com base em mo-
delos lógicos e matemáticos, de modo a descrever o comportamento de sistemas complexos.
Simulação de Monte Carlo é o nome dado a simulação que envolve a utilização de números aleatórios. O
nome é uma referência à cidade de Monte Carlo, no principado de Mônaco, famosa por seus cassinos.
A simulação numérica permite a solução de problemas complexos em inúmeras áreas. Aplicações vão da
engenharia às nanças, passando pela administração, matemática, física, medicina, biologia, astro-física, neuro-
ciências, etc. Na simulação, não há limites para a complexidade do modelo: se o modelo pode ser resolvido,
pode ser utilizado em simulação. O único fator limitante é a capacidade computacional.
Em engenharia de estruturas, a simulação de Monte Carlo ataca tão bem problemas lineares como não-
lineares, estáticos ou dinâmicos. Novamente, a capacidade computacional, ou o chamado custo de processa-
mento, é o único fator limitante. Em con abilidade estrutural, a simulação resolve, com a mesma facilidade,
problemas envolvendo uma única equação de estado limite, ou várias equações com associação em série, em
paralelo ou mista (sistemas). A solução de problemas de con abilidade dependente do tempo se torna (quase)
tão simples como a de problemas independentes do tempo.
Em engenharia, simulação (numérica) é o nome dado a toda técnica (numérica) que permite resolver em
computador, de forma aproximada e através de alguma técnica de discretização do domínio, equações diferenciais
e integrais. Por envolver soluções repetitivas, a simulação de Monte Carlo é própria para solução em computador.
A solução da parte mecânica do problema pode ser através de algoritmos numéricos (elementos nitos, de
contorno, diferenças nitas, etc.), ou de equações analíticas. Neste texto, utilizamos a palavra simulação
como abreviação de Simulação de Monte Carlo; utilizamos também a sigla SMC.
Do ponto de vista da con abilidade estrutural, a simulação pode ser entendida como uma forma de realizar
numericamente um experimento que não é realizável na prática. Este experimento consiste em testar a estru-
tura para todas as combinações possíveis das incertezas em resistências e ações, representadas como variáveis
aleatórias ou processos estocásticos. Tal experimento não é realizável na prática porque:
1. o custo de construção de estruturas é muito elevado para se construir múltiplos protótipos para teste, seja
em escala real ou reduzida;
2. as possibilidades de uso de modelos em escala são limitadas;
3. a probabilidade de falha de sistemas estruturais é usualmente muito pequena, o que exigiria um número
muito grande de protótipos para permitir a observação de falhas.
162 SIMULAÇÃO DE MONTE CARLO
Nas décadas de 70 e 80 foram feitos muitos avanços em teoria de con abilidade estrutural. Na época, devido à
incipiente mas limitada capacidade dos computadores, a grande ênfase esteve em desenvolver métodos analíticos
como o FORM, SORM e limites para a probabilidade de falha de sistemas. Na época, a simulação de Monte
Carlo era tida como uma forma de veri car a solução dos métodos analíticos, ou como um último recurso, quando
os métodos analíticos falhavam. Com o aumento recente e explosivo na capacidade dos computadores, e com
a possibilidade de processamento em paralelo, as técnicas de simulação de Monte Carlo tem conquistado cada
vez mais espaço. Contam a favor do método a facilidade de implementação, a generalidade em atacar diferentes
problemas, e a robustez das soluções. Técnicas de amostragem inteligente tem sido desenvolvidas para reduzir
o número necessário de amostras, viabilizando a solução de problemas numéricos com grande número de graus
de liberdade e pequenas probabilidades de falha.
Com frequência, métodos de simulação são chamados de métodos exatos: a) em teoria, o resultado da
simulação tende ao resultado exato, quando o número de amostras tende ao in nito; b) as técnicas de simulação
evitam certas aproximações empregadas nos métodos analíticos. No entanto, a concepção de exato se limita
aos dois fatores acima. Na realidade, métodos de simulação estão sujeitos a erros de modelo, a aproximações
algorítmicas na geração de números aleatórios, e outros. Os resultados dependem fortemente da qualidade dos
números aleatórios utilizados: a geração destes números é parte crítica do processo.
5.1 FORMULAÇÃO
A probabilidade de falha de um elemento ou de um sistema estrutural envolve uma integral da função de
densidade de probabilidade conjunta fX (x) sobre o domínio de falha f :
Z
pf = fX (x)dx. (5.1)
f
Como vimos, o domínio de falha f pode ser dado por uma única equação de estado limite ou por qualquer
combinação de estados limites em série, em paralelo ou mista (Eq. 4.4):
I[x] = 1 se x 2 f (falha),
I[x] = 0 se x 2
/ f (sobrevivência), (5.3)
Cada avaliação da função indicadora implica em uma avaliação da(s) equação(ões) de estado limite do
problema. Por de nição (Eq. A.13), esta expressão representa o valor esperado da função indicadora I[X]. Este
valor esperado pode ser estimado, com base em uma amostra de tamanho nito, através de (Eq. A.17):
5.1. FORMULAÇÃO 163
nS
1 X n
pf ¼ pbf = I[xk ] = f , (5.5)
nS k=1 nS
onde o chapéu (b) indica uma estimativa, nf é o número de pontos no domínio de falha e nS é o número
de amostras (sub-índice ()S do inglês samples). A Eq. (5.5) representa um estimador não-tendencioso da
probabilidade de falha, uma vez que pbf ! pf com nS ! 1.
O estimador na Eq. (5.5) está baseado em uma amostra de tamanho nito, e portanto está sujeito a uma
incerteza estatística, que corresponde à variância do estimador pbf . Utilizando a Eq. (A.98), temos que:
" # "n #
1 X
nS X 1 X
S nS
1
V ar[b
pf ] = V ar I[xk ] = 2 V ar I[xk ] = 2 (I[xk ] ¡ pbf )2 . (5.6)
nS nS nS
k=1 k=1 k=1
"n #
1 X S
1 X
nS
V ar[b
pf ] = V ar I[xk ] = V ar [I[xk ]]
n2S n2S
k=1 k=1
nS
1 X 1
= 2 V ar [I[X]] = V ar [I[X]]
nS nS
k=1
1 ¡ ¢
= E[I[X]2 ] ¡ E[I[X]]2
nS
pf ¡ p2f pf (1 ¡ pf )
= = . (5.7)
nS nS
A partir da Eq. (5.8) observamos que a avaliação de uma probabilidade de falha da ordem de 10¡p com
δ pbf ¼ 0, 1 = 10¡1 , requer aproximadamente 10p+2 amostras. Para avaliar uma probabilidade de falha com
um precisão de εpf = (b pf ¡ pf )/pf = 0, 1, e um intervalo de con ança de 95%, o número mínimo de amostras
é 4 £ 10p+2 . Para probabilidades de falha típicas em con abilidade estrutural (da ordem de 10¡3 a 10¡6 ), o
número de amostras pode se tornar proibitivo, quando cada avaliação da função indicadora implica na resolução
de modelo(s) numérico(s) com muitos graus de liberdade.
Em outras palavras, o número de amostras necessárias para se atingir alguns poucos pontos no domínio de
falha torna-se muito grande, quando a probabilidade de falha é pequena. Poucos pontos no domínio de falha
levam a uma grande variância dos resultados. Para endereçar este problema e reduzir o número necessário de
simulações, utilizamos técnicas de redução de variância, estudadas na Seção (5.3). O método de Monte Carlo
apresentado nesta seção é conhecido como método de Monte Carlo Simples, Direto, Bruto ou Cru, por não
164 SIMULAÇÃO DE MONTE CARLO
Figura 5-1: Grá co de convergência da pf e intervalo de con ança (I.C.) para SMC simples.
onde o parâmetro k está relacionado com o nível de con ança desejado, segundo uma distribuição normal. A
Eq. (5.9) presume uma distribuição normal dos dados, o que sempre deve ser veri cado. O emprego de técnicas
especializadas de amostragem, como aquelas baseadas em cadeias de Markov (MCMC), tem potencial de gerar
dados fortemente não-Gaussianos.
Uma forma prática de veri car se o número de amostras empregados é su ciente para resolver determinado
problema com precisão é observar grá cos de convergência de pbf e dos intervalos (Eq. 5.9), em função do
número de amostras (nS ). A Figura 5-1 ilustra um típico grá co de convergência, obtido na solução via SMC
do problema pf = ©(¡β), com β = 2 (amostras obtidas a partir de variável normal padrão). O comportamento
observado na Figura 5-1 é típico: observamos oscilação da média (e da variância), que ocorre por inuência dos
números aleatórios, e que diminui à medida que nS aumenta. O intervalo de con ança se torna mais estreito
com aumento de nS , em função da redução da variância, mas depois se estabiliza. O número de amostras deve
ser su ciente para se observar convergência na média, com intervalo de con ança aceitável.
O resultado direto de simulações de Monte Carlo são probabilidades de falha. No entanto, tal qual zemos
para o SORM (Eq. 3.80) ou para sistemas (Eq. 4.13), podemos determinar um índice de con abilidade
equivalente para SMC:
Figura 5-2: Grá co de convergência em β e intervalo de con ança (I.C.) para SMC simples.
1. gerar nS amostras xk = fx1 , x2 , ...xn gtk a partir da função conjunta de densidades fX (x);
2. avaliar a função indicadora I[xk ] de falhas para cada amostra;
3. estimar média e variância da probabilidade de falha através das Eqs. (5.5) e (5.6).
Este procedimento pode ser visualizado na Figura 5-3. Ele pode ser aplicado para qualquer distribuição
estatística conhecida, uma vez que, por de nição, a função de distribuição cumulativa de probabilidades aumenta
monotonicamente entre 0 e 1.
O procedimento acima (Eq. 5.11) é geral, mas não é adequado para distribuições normal e log-normal,
uma vez que não existe expressão analítica exata para a função ©(x) (ver Eq. A.41 e Apêndice F). Amostras
de variáveis aleatórias com distribuição normal ou log-normal podem ser obtidas a partir de um algoritmo
especí co. Um par de amostras independentes y1 e y2 de uma variável normal padrão é obtido a partir de
um par de amostras independentes u1 e u2 , uniformemente distribuídas entre 0 e 1, a partir do algoritmo de
Box-Miller:
p
y1 = ¡2 ln(u1 ) cos(2π u2 ),
p
y2 = ¡2 ln(u1 ) sin(2π u2 ). (5.12)
xi = yi σ + µ. (5.13)
Utilizando o mesmo algoritmo, amostras de uma variável log-normal X » LN (λ, ξ) são obtidas de:
Os dois algoritmos (Eqs. 5.11 e 5.12) estão baseados em amostras de números aleatórios ui com distribuição
uniforme entre 0 e 1. Na próxima seção, veri camos como estes números são obtidos através de algoritmos
recursivos. A geração de vetores de números aleatórios com função conjunta de densidade de probabilidades
fX (x) é descrita na Seção 5.2.4.
· ¸
a zj + c a zj + c
uj = ¡ int . (5.15)
m m
Nesta expressão, int[ ] representa a parte inteira, fm, a, cg são constantes que caracterizam o gerador e z0
(primeiro valor da sequência zj ) é a semente do gerador. É fácil perceber que a Eq. (5.15) resulta em números
distribuídos entre 0 e 1. O gerador congruencial funciona a partir de uma sequência de grandes números zj ,
obtida a partir de: · ¸
a zj + c
zj+1 = uj m = a zj + c ¡ m int . (5.16)
m
A sequência de números gerados pelas Eqs. (5.15 e 5.16) é determinística e reproduzível; portanto, a
sequência gerada é dita pseudo-aleatória. O fato da sequência de números pseudo-aleatórios ser reproduzível é
conveniente, quando se deseja comparar ou reproduzir resultados obtidos a partir de simulação.
A qualidade de um gerador linear congruencial depende fortemente das constantes fm, a, cg. Todo gerador
congruencial é cíclico, e o período do ciclo é sempre menor do que m. Isto signi ca que um grande valor m
deve ser utilizado. Além disto, o coe ciente de correlação entre dois números consecutivos é inversamente
proporcional às constantes m e a; portanto, estas duas constantes devem ser grandes. A semente z0 deve ser um
número grande, inteiro e ímpar. Infelizmente, estes conjunto de especi cações não é su cientes para garantir
boa qualidade de um gerador congruencial, conforme veremos.
j
FU (uj ) = P [fU < uj g] ¼ ¢
nS
Os pontos (uj , FU (uj )) assim obtidos são plotados em um grá co, e devem resultar em uma linha reta
entre os pontos (0,0) e (nS ,1), correspondente à função acumulada de distribuição de probabilidades da variável
aleatória uniforme U . A Figura 5-4 ilustra resultados deste teste de uniformidade, para conjuntos de 103 e 104
amostras, obtidas com o gerador linear congruencial GLC = fm, a, cg = f231 ¡ 1, 65539, 0g. Este gerador foi
utilizado nos computadores IBM System 360, nos anos 60, e era conhecido como gerador RANDU. A gura
mostra que os números gerados tem, aparentemente, uma distribuição uniforme.
O teste de uniformidade ilustrado na Figura 5-4 não é muito robusto. Um teste mais robusto é o chamado
método de partição do hiper-cubo unitário. Em uma versão plana deste teste, os pontos amostrados são
plotados em um grá co bi-dimensional ([0,1]2 ); cada ponto neste grá co é uma dupla (uj , uj+1 ). O espaço
[0,1]2 é dividido em partes iguais, formando quadras. Se os números amostrados tem distribuição uniforme,
então um mesmo número de pontos deveria ser observado em cada quadra. Diferentes testes estatísticos podem
ser utilizados para veri car quão uniforme é esta distribuição em quadras. Alternativamente, uma veri cação
visual pode ser feita. Nesta, veri camos a uniformidade da distribuição dos números no espaço, e a ausência de
tendenciosidades na geração das amostras. A Figura 5-5 ilustra resultados deste teste de uniformidade para o
gerador RANDU, para uma sequência com 104 amostras. À primeira vista, esta gura sugere uma uniformidade
dos números gerados; no entanto, uma observação mais atenta mostra pequenos buracos e sutís concentrações
168 SIMULAÇÃO DE MONTE CARLO
Figura 5-4: Teste de uniformidade do gerador RANDU: GLC = fm, a, cg = f231 ¡ 1, 65539, 0g, nS = 103
(esquerda), nS = 104 (direita), z0 = 111111.
de pontos.
Um teste de uniformidade ainda mais robusto é o método de partição do hiper-cubo unitário em sua versão
3D. Neste teste, pontos (uj , uj+1 , uj+2 ) são plotados em um grá co tri-dimensional (cubo [0,1]3 ). Testes estatís-
ticos podem ser utilizados para veri car a uniformidade da distribuição dos pontos em sub-cubos deste espaço,
ou uma veri cação visual pode ser feita. A Figura 5-6 ilustra este teste de uniformidade para o gerador RANDU.
A perspectiva à esquerda, nesta gura, sugere (mais uma vez) uniformidade das amostras geradas. No entanto,
a perspectiva à direita (que representa apenas outro ponto de vista do conjunto de pontos à esquerda) revela
uma tendenciosidade do gerador RANDU. Percebemos a existência de planos preferenciais de amostragem. Esta
tendência revela uma falha grave do gerador RANDU, que apenas foi descoberta muitos anos depois de sua
introdução pela IBM.
Um gerador linear congruencial aparentemente melhor é utilizado no programa StRAnD (Beck, 2007):
GLC = fm, a, cg = f231 ¡ 1, 41358, 0g. A Figura 5-7 ilustra o teste de partição do hiper-cubo unitário,
para este gerador, no espaço [0,1]3 . Não se percebe, nesta gura, quaisquer tendenciosidades do gerador. Out-
ro gerador que passa nestes testes visuais é o gerador utilizado no programa ISPUD (Borgund et al., 1986):
GLC = fm, a, cg = f231 ¡ 1, 16807, 0g.
Figura 5-6: Teste de uniformidade do gerador RANDU em [0,1]3 , nS = 104 , z0 = 111111, em dois pontos de
vista.
170 SIMULAÇÃO DE MONTE CARLO
Figura 5-7: Teste de uniformidade do gerador do programa StRAnD em [0,1]3 , nS = 104 , z0 = 111111, em dois
pontos de vista.
Se as variáveis aleatórias do problema são independentes, então a função conjunta de densidade de probabilidades
é obtida conforme Eq. (A.60):
n
Y
fX (x) = fXi (xi ), (5.17)
i=1
sendo fXi (xi ) a função de densidade de probabilidades marginal da variável Xi . Isto signi ca que os números
aleatórios podem ser gerados de forma independente dos demais, utilizando as Eqs. (5.11), (5.13) ou (5.14).
A existência de correlação entre as variáveis aleatórias do problema deve ser imposta ao gerar amostras do
vetor xk = fx1 , x2 , ...xn gtk . Na simulação de Monte Carlo, a correlação é tratada de maneira inversa ao que
ocorre na solução via FOSM ou FORM. Na solução via FORM, a correlação entre as variáveis é eliminada ao
realizarmos a transformação para o espaço normal padrão. Na solução via simulação, a correlação é imposta a
pontos amostrados no espaço normal padrão, como segue.
Modelo de Nataf O modelo de Nataf pode ser utilizado para gerar amostras de variáveis aleatórias cor-
relacionadas. Conforme vimos na Seção 3.3, o modelo de Nataf consiste em construir uma aproximação para
a função conjunta de densidade de probabilidades fX (x), a partir de uma função de densidade normal padrão
multi-variada φn (z, RZ ) (Eq. 3.55). Utilizando este modelo, a correlação entre as variáveis X pode ser imposta
em uma amostra X = x a partir de uma amostra z envolvendo variáveis normais padrão correlacionadas. Esta
correlação, por sua vez, pode ser imposta em um vetor de variáveis normais padrão y, sem correlação, utilizando
as matrizes de transformação da Seção 3.3.
Inicialmente, obtemos uma amostra yk = fy1 , y2 , ..., yn gtk de um vetor formado por números aleatórios
5.3. TÉCNICAS DE AMOSTRAGEM INTELIGENTE 171
normais padrão independentes, conforme a Eq. (5.12). Esta amostra é transformada para o espaço Z através
de:
zk = fzi gti=1,...,n = Jzy yk , (5.18)
sendo Jzy a matriz Jacobiana de transformação de Y ! Z. A seguir, determinamos o vetor de probabilidades
acumuladas desta amostra (vetor uk ), fazendo:
Note que a matriz de transformação Jzy é a mesma utilizada em FORM, obtida pela decomposição ortogonal
(Eq. 3.62) ou de Cholesky (Eq. 3.67) da matriz de correlação equivalente RZ , Eq. (3.57).
Dois estimadores não tendenciosos da probabilidade de falha, ZA e ZB , podem ser combinados de forma a
produzir um terceiro estimador ZC :
1
ZC = (ZA + ZB ) . (5.20)
2
ZC também será um estimador não tendencioso, pois:
1 1
E[ZC ] = (E[ZA ] + E[ZB ]) = (ZA + ZB ) . (5.21)
2 2
A variância de ZC , no entanto, é:
1
V ar[ZC ] = (V ar[ZA ] + V ar[ZB ] + 2Cov[(ZA , ZB )]) . (5.22)
4
Se os estimadores ZA e ZB forem independentes (e.g., baseados em amostras independentes), o último termo
da Eq. (5.22) se anula. Se os estimadores tiverem correlação negativa, o último termo é menor que zero, e a
variância de ZC resulta menor do que a variância combinada de ZA e ZB . Logo, a variância de ZC , e portanto
172 SIMULAÇÃO DE MONTE CARLO
a incerteza estatística da simulação, pode ser reduzida através da utilização de dois estimadores com correlação
negativa.
A correlação negativa é obtida através de variáveis antitéticas, como segue. Se uma amostra xk é obtida
a partir de uma amostra uk (com distribuição uniforme entre 0 e 1), então a próxima amostra xk+1 é obtida
a partir de (1¡ uk ). Assim, os estimadores ZA e ZB são baseados em nS /2 amostras (alternadas), e resultam
negativamente correlacionados.
Esta técnica de redução da variância é muito fácil de implementar, mas as melhorias são modestas. Em
função disto, as variáveis antitéticas são geralmente combinadas com outras técnicas de redução da variância.
Na amostragem por hiper-cubo latino (Latin Hiper-cube Sampling ou LHS), o domínio de cada variavel aleatória
do problema é dividido em faixas equi-prováveis (Helton & Davis, 2003; Olsson et al., 2003; Helton et al., 2005).
Ao realizar a simulação, cada faixa é amostrada uma única vez, resultando numa distribuição esparsa dos
pontos no domínio (Figura 5-8). Esta técnica é particularmente importante para obter uma cobertura esparsa
e homogênea em problemas multi-dimensionais.
Seja n o número de variáveis aleatórias do problema e nS o número de pontos da amostra. O espaço de
amostragem torna-se n-dimensional. Uma matriz P de dimensões (nS £ n) é gerada, sendo cada uma das n
colunas uma permutação aleatória de 1, . . . , nS . Outra matriz R é gerada (dimensões nS £n), cujos componentes
são números aleatoriamente distribuídos entre (0, 1). A partir destas matrizes, obtemos a matriz S (Olsson et
al., 2003):
1
S = [ski ]nS £n = (P ¡ R) . (5.23)
nS
Figura 5-9: Comparação de histogramas obtidos através de amostragem simples, variáveis antitéticas e
amostragem por hiper-cubo latino (LHS).
174 SIMULAÇÃO DE MONTE CARLO
P
Quando a função de amostragem desloca os pontos para o domínio de falha, o resultado do somatório I[xk ]
será maior do que o somatório original, utilizando fX (x) como função de amostragem. No entanto, comparando
as Eqs. (5.26) e (5.5), veri camos que cada ponto amostrado esta associado a um peso de amostragem wk << 1:
fX (xk )
wk = , (5.27)
hX (xk )
Uma estratégia muito e ciente é centrar a função de amostragem no ponto de projeto (Borgund & Bucher,
1986). Esta estratégia desloca os pontos amostrados para o domínio de falhas, conforme a Figura 5-10. Esta
vem a ser uma forma de melhorar a qualidade da simulação através do uso de informação conhecida a priori: as
coordenadas do ponto de projeto. O ponto de projeto é encontrado através das técnicas descritas no Capítulo
3. Obviamente, esta técnica de amostragem não pode ser empregada se houver problemas de convergência na
busca pelo ponto de projeto.
Utilizando amostragem por importância no ponto de projeto, o número nS de amostras necessárias torna-se
praticamente independente da ordem de grandeza da probabilidade de falha procurada. Isto ocorre porque
aproximadamente metade das amostras cairá dentro, e metade fora, do domínio de falha.
A Figura 5-11 mostra um grá co de convergência para a simulação de Monte Carlo com amostragem por
importância utilizando o ponto de projeto, para o problema de avaliar por SMC: pf = ©(¡β) com β =
2. A função de amostragem utilizada é a função φ(x ¡ 2). A gura compara o resultado com o grá co de
convergência obtido para amostragem simples (Figura 5-2). Observamos que a convergência dos resultados
utilizando amostragem por importância é muito mais rápida (menor nS ) e que o intervalo de con ança é muito
menor, para um mesmo número de amostras nS .
Para múltiplos modos de falha, podemos construir funções de amostragem multi-modais, conforme ilustrado na
Figura (5-12). Para nLS equações de estado limite, uma função de amostragem multi-modal é obtida como:
n
X LS
sendo pj o peso de amostragem associado ao j-ésimo modo de falha. Cada componente hXj da função de
amostragem é obtido transladando a função original fX (x), de forma que seu ponto médio coincida com o
respectivo ponto de projeto. Os pesos pj são determinados em função da importância relativa de cada modo de
falha. Para modos de falha em série, estes pesos são calculados em termos da estimativa de primeira ordem da
probabilidade de falha:
©(¡βj )
pj = PnLS . (5.30)
j=1 ©(¡β j )
176 SIMULAÇÃO DE MONTE CARLO
Figura 5-11: Grá co de convergência em β e intervalo de con ança (I.C.) para SMC simples e com amostragem
por importância utilizando o ponto de projeto.
Assim, a amostragem se concentra nos pontos de projeto mais importantes. Podemos também estabelecer
um limite inferior para pj (e.g., pj > 0, 1), abaixo do qual um ponto de projeto é desconsiderado na construção
da função de amostragem.
O número total de amostras nS é dividido de forma proporcional aos pesos pj . Cada conjunto de pontos
é amostrado segundo a componente correspondente da função de amostragem, hXj . A função indicadora é
avaliada em termos de todos os modos de falha, independente da componente hjX utilizada na geração de cada
amostra. Os pesos de amostragem para cada ponto amostrado são determinados através das Eqs. (5.27) e
(5.29), e as estimativas da média e variância da probabilidade de falha são obtidas das Eqs. (5.26) e (??).
Exemplo 11 Problema escalar, pf = © [¡β] = © [¡6], solução por amostragem por importância utilizando
ponto de projeto:
com β = 6. Para esta pf , e utilizando amostragem simples, seriam necessárias em torno de 1011 amostras
para obter um coe ciente de variação de 10% (conforme Eq. 5.8), o que é totalmente inviável. O problema
pode ser resolvido de forma e ciente utilizando uma função de amostragem centrada no ponto de projeto,
conforme ilustrado na Figura 5-13. O ponto de projeto é x¤ = xcrit = 0, e portanto a função de amostragem
é simplesmente hX (x) = φ[x]. A partir de 10 números aleatórios entre 0 e 1, apresentados nas primeiras
duas colunas na Tabela 5.1, e da Eq. (5.12), obtemos os valores xk na terceira coluna. A quarta coluna
é obtida de fX (x) = φ[(x ¡ 6)/1]. A função de amostragem (quinta coluna) é hX (x) = φ[x]. Os pesos de
5.3. TÉCNICAS DE AMOSTRAGEM INTELIGENTE 177
amostragem na sexta coluna são wk = fX (xk )/hX (xk ). A função indicadora é I[xk ] = 1 para xk 6 xcrit = 0.
Tomando a média da última coluna, a resposta nal é obtida como pbf ¼ 9, 4078 10¡10 , o que corresponde a
um erro de apenas 5% em relação à solução exata. Devido ao pequeno número de amostras, esta solução é
fortemente dependente dos números aleatórios utilizados (colunas 1 e 2 na tabela). A solução apresentada
na Tabela 5.1 foi obtida no software Mathematica, utilizando z0 = 111117 como semente de geração de
números aleatórios. A variância da estimativa é enorme; para intervalo de con ança de 96% (k = 2 na Eq.
5.9) obtemos:
(0 · pf · 2, 81 10¡9 ) e (5, 83 · β · +1). (5.31)
Seja H o vetor de variáveis aleatórias cuja função de densidade conjunta corresponde à função de amostragem
hX (x). Relaxando a condição (5.32), e aplicando-a apenas aos dois primeiros momentos de H, temos:
E[H] = E[XjX 2 f ],
Cov[H, Ht ] = Cov[(X, Xt )jX 2 f ]. (5.33)
A partir de amostras iniciais, calculamos E[H] e Cov[H, Ht ]; estes valores são utilizados para construir
a nova função de amostragem. Se a probabilidade de falha for muito pequena, um número muito grande de
amostras pode ser necessário para se obter os primeiros pontos no domínio de falha. Neste caso, a amostragem
adaptativa deve se combinada com alguma outra técnica de amostragem inteligente; por exemplo, amostragem
por importância utilizando pontos de projeto.
β
= a + bf c , (5.35)
f
sendo a, b e c constantes a determinar por regressão não-linear, utilizando os pontos (f, β/f ) como suporte.
Encontradas as constantes a, b e c, o índice de con abilidade do problema original é obtido fazendo f = 1, ou
β = a + b.
Parâmetros da amostragem assintótica são o número de pontos de suporte e os valores de f considerados.
O número de amostras deve ser su ciente para que uma boa estimativa de β nos pontos de suporte seja obtida.
Em geral, o comportamento assintótico descrito na Eq. (5.35) é observado para distribuições com cauda, mas
pode não ocorrer para distribuições com suporte compacto ou limitadas.
Solução: Uma solução utilizando pequeno número de amostras é obtida com três pontos de suporte
fm 2 f0, 1; 0, 2; 0, 4g, o que corresponde aos desvios-padrão de amostragem σ m 2 f10; 5; 2, 5g. O número
de amostras deve ser tal que se obtenha pontos no domínio de falha para todos os desvios-padrão σm . A
solução a seguir foi desenvolvida no software Mathematica, utilizando 20 amostras, e z0 = 11111113 como
semente de geração dos números aleatórios. Os valores de yk (Eq. 5.12) não são apresentados; mas os
valores resultantes (xk = yk σ m + 6), m = 1, 2, 3; k = 1, ..., 20; são mostrados na Tabela 5.2. Para m = 1
180 SIMULAÇÃO DE MONTE CARLO
(primeira coluna na tabela), temos oito pontos no domínio de falha, logo pf ¼ 8/20 e β ¼ 0, 25. Para
m = 2 (segunda coluna), temos pf ¼ 4/20 e β ¼ 0, 84; para m = 3 (terceira coluna), temos pf ¼ 1/20
e β ¼ 1, 64. Uma regressão utilizando os pontos (f, β/f ) como suporte, em termos das constantes da Eq.
(5.35), resultou em a = ¡467, 86; b = 473, 31; e c = 0, 0024; dos quais obtemos β(f = 1) = a + b = 5, 45. A
Figura 5-14 ilustra os pontos de suporte e a Eq. (5.35), com base nestes parâmetros. O erro para a solução
exata está em torno de 9%. Para muitas sementes testadas, não se pôde obter uma solução com apenas 20
amostras; em geral, um número bem maior de amostras é necessário. Podemos perceber, intuitivamente,
que os pontos de suporte variam muito com o número de amostras, quando este é pequeno.
sendo µM = E[g(x)] ¼ g(¹x ). Para λ = 0 a margem de segurança tende a zero, e portanto pf ! 0, 5. Para λ = 1
recuperamos o problema original. Portanto, utilizando λ << 1 e um número reduzido de amostras, obtemos
pontos de suporte (λ, pf (λ)). Segundo Naess et al. (2009), o comportamento assintótico da probabilidade de
falha com λ ! 1 é dado por:
pf (λ) ¼ q exp[¡a(λ ¡ b)c ]. (5.37)
Uma grande vantagem da amostragem melhorada, sobre a amostragem assintótica, é que um mesmo conjunto
5.3. TÉCNICAS DE AMOSTRAGEM INTELIGENTE 181
de amostras pode ser utilizado para avaliar pf (λ), ou seja, um grande número de pontos de suporte pode ser
utilizado, sem penalizar o custo computacional.
Para resolver problemas envolvendo sistemas, a solução é semelhante. Para cada modo de falha Mj = gj (x),
j = 1, ..., nLS , um conjunto de funções paramétricas Mj (λ, x) é obtido:
Solução: Uma solução utilizando pequeno número de amostras é obtida com quatro pontos de suporte
λm 2 f0, 1; 0, 2; 0, 3; 0, 4g. O número de amostras deve ser tal que se obtenha pontos no domínio de falha
para todos os valores λm . A solução a seguir foi desenvolvida no software Mathematica, utilizando 20
amostras, e z0 = 11111113 como semente de geração dos números aleatórios. Os valores de yk (Eq. 5.12)
não são apresentados; mas os valores resultantes xk , k = 1, ..., 20; são mostrados na primeira coluna da
Tabela 5.3. A função indicadora é avaliada a partir da Eq. (5.36), com M (λm , xk ) = xk ¡ µM (1 ¡ λm ) =
xk ¡ 6(1 ¡ λm ), resultando nas colunas 2 a 5 da Tabela 5.3, como o leitor pode veri car. Para m = 1
(segunda coluna na tabela), temos oito pontos no domínio de falha, logo pf ¼ 8/20 = 0, 4. Para m = 2
(terceira coluna), temos pf ¼ 4/20 = 0, 2; para m = 3 (quarta coluna), temos pf ¼ 2/20 = 0, 1; e nalmente
para m = 4 (quinta coluna), temos pf ¼ 1/20 = 0, 05. Uma regressão utilizando os pontos (λ, pf ) como
182 SIMULAÇÃO DE MONTE CARLO
suporte, em termos das constantes da Eq. (5.37), resultou em q = 0, 852; a = 6, 931; b = ¡0, 0091; e c = 1;
dos quais obtemos pf (λ = 1) ¼ 7, 81 10¡4 e β ¼ 3, 16. A Figura 5-15 ilustra os pontos de suporte e a
Eq. (5.37), com base nestes parâmetros. O erro em termos de β é da ordem de 47%, em termos de pf é
muito maior! O resultado mostra que o número de amostras é insu ciente. Para muitas sementes testadas,
não se pôde obter uma solução com apenas 20 amostras; em geral, um número bem maior de amostras é
necessário. Novamente, percebemos que os pontos de suporte variam muito com o número de amostras,
quando este é pequeno.
A resolução do mesmo problema com nS = 1000 amostras e cinco pontos de suporte (λm 2 f0, 1; 0, 2;
0, 3; 0, 4; 0, 5g) resultou em β ¼ 5, 04; com erro de 16%, conforme ilustrado na Figura 5-16.
Tabela 5.3: Números aleatórios xk e função indicadora das amostras, amostragem melhorada.
xk λ = 0, 1 λ = 0, 2 λ = 0, 3 λ = 0, 4
6,860 0 0 0 0
3,076 1 1 1 1
5,295 1 0 0 0
5,750 0 0 0 0
5,606 0 0 0 0
4,561 1 1 0 0
4,076 1 1 1 0
6,452 0 0 0 0
4,981 1 0 0 0
6,933 0 0 0 0
5,882 0 0 0 0
6,506 0 0 0 0
7,661 0 0 0 0
6,730 0 0 0 0
5,318 1 0 0 0
4,864 1 0 0 0
5,889 0 0 0 0
4,534 1 1 0 0
6,233 0 0 0 0
6,175 0 0 0 0
Seja uma sequência decrescente de eventos Ei tal que E1 ¾ E2 ¾ ... ¾ Em = E, de forma que:
Figura 5-15: Problema escalar pf = © [¡6], solução via amostragem melhorada com nS = 20.
Figura 5-16: Problema escalar pf = © [¡6], solução via amostragem melhorada com nS = 1000.
184 SIMULAÇÃO DE MONTE CARLO
pf = P [E] = P [\m m
i=1 Ei ] = P [E1 ]¦i=2 P [Ei jEi¡1 ]. (5.42)
Para obter o primeiro termo, P [E1 ], utilizamos amostragem simples ou LHS. As probabilidades condicionais,
P [Ei jEi¡1 ], podem ser obtidas usando simulação por cadeias de Markov e o algoritmo de Metropolis-Hastings
(Au e Beck, 2001; Au et al., 2007).
Na solução de problemas de con abilidade estrutural, o evento falha é dado por E = fg(x) 6 0g. Os eventos
intermediários são obtidos de:
Ei = fg(x) 6 bi g. (5.43)
A constante bi , para cada evento intermediário, é determinada de forma que a probabilidade associada a cada
evento intermediário tenha um valor especi cado p0 : P [Ei jEi¡1 ] = p0 . A implementação não é trivial; detalhes
podem ser consultados em (Au e Beck, 2001; Au et al., 2007; Santos, 2014).
A técnica de amostragem por sub-conjunto também tem sido utilizada com e ciência para resolver problemas
de otimização na presença de incertezas (Taanidis & Beck, 2008, 2009).
Estas equações podem (devem) ser utilizadas para comparar a e ciência de técnicas de simulação baseadas no
método de Monte Carlo.
5.4. META-MODELOS 185
5.4 META-MODELOS
As técnicas de amostragem inteligente são capazes de reduzir drásticamente o número de simulações necessárias
no método de Monte Carlo. No entanto, mesmo utilizando estas técnicas, ainda é necessário avaliar a equação
de estado limite centenas ou milhares de vezes. Portanto, a solução via simulação de Monte Carlo ainda pode
ser inviável para resolver, diretamente, problemas com equações de estado limites numéricas envolvendo grande
número de graus de liberdade; resposta dinâmica; resposta não-linear; problemas de otimização na presença de
incertezas. Para resolver este tipo de problema, podemos utilizar os chamados meta-modelos.
O nome meta-modelo (meta-model ou surrogate model ) se aplica a uma representação mais simples (analíti-
ca) usada para aproximar a resposta de um modelo computacional (numérico) de alta delidade. Meta-modelos
servem para representar, de forma aproximada, o comportamento ou a resposta do modelo computacional M,
tal que:
f
ye = M(x) ¼ M(x).
Uma forma sistemática e pré-de nida de selecionar os pontos de suporte é conhecida como plano de exper-
iência ou DOE: Design of Experients (Montgomery, 2012; Myers et al., 2016). Para que o meta-modelo seja
e ciente, a resposta de alta delidade deve ser avaliada no menor número possível de pontos. No entanto, existe
um compromisso entre a e ciência do modelo e a precisão da aproximação; em geral, quanto maior o número
de pontos de suporte, maior a precisão. Alguns planos de experiência típicos são apresentados na Figura 5-17.
Em geral, planos de experiência são utilizados em aproximações locais, sendo o erro da aproximação menor na
região em torno da qual o plano está centrado.
Para a construção de aproximações globais, outras técnicas são utilizadas. Em particular, em problemas de
grandes dimensões, a amostragem por hipercubo latino (LHS) pode ser utilizada para determinar pontos de
186 SIMULAÇÃO DE MONTE CARLO
sendo A1£nc = fa0 , ai , aii , aij gt um vetor que reúne os coe cientes a determinar, com índices (i, j) variando de
acordo com a Eq. (5.44). Estes coe cientes correspondem aos termos constante, lineares, quadráticos e cruzados,
respectivamente. Nesta equação, n corresponde à dimensão do problema (número de variáveis aleatórias) e nc
corresponde ao número de coe cientes a determinar.
Os coe cientes A são determinados através do método dos mínimos quadrados, minimizando a seguinte
função erro:
nsup
X 2
erro[A] = (g(xsup g(xsup
k )¡e k )) . (5.45)
k=1
sendo Qnc £nc a matriz cujas linhas são formadas pelos vetores V(xsup k ) e B o vetor de componentes
sup t
B1£nc = fg(xk )gk=1,...,nsup . Para resolver a Eq. (5.46), é necessário que:
1. o número de pontos nsup seja maior ou igual ao número de coe cientes nc a determinar;
2. os pontos de suporte sejam escolhidos de maneira consistente, i.e., de forma a resultar em um sistema de
equações independentes, o que torna Qt Q inversível.
As aplicações à con abilidade estrutural diferem em termos da expressão polinomial utilizada (Eq. 5.44 com
ou sem termos cruzados) e em termos da lógica de seleção dos pontos de suporte (plano de experiência).
Nesta seção, apresentamos um breve histórico do emprego de superfícies de resposta na solução de problemas de
con abilidade estrutural. Superfícies de resposta polinomiais são aproximações locais, com boa precisão apenas
em uma vizinhança dos pontos de suporte. Em problemas de con abilidade estrutural, uma boa aproximação
deve ser obtida junto ao ponto mais provável de falha, ou ponto de projeto.
Bucher e Borgund (1990) sugeriram o emprego de uma superfície quadrática sem termos cruzados, e intro-
duziram um esquema simples onde o ponto central é localizado próximo ao ponto de projeto:
xi = µi § ki σi , (5.47)
experiência também foram propostos por outros autores (Kim & Na, 1997; Zheng & Das, 2000). O objetivo
destes esquemas é aumentar a e ciência das soluções adaptativas.
Guan e Melchers (2001) endereçaram a questão da localização dos pontos do plano experimental do ponto de
vista da precisão. Os autores mostraram que a localização dos pontos do plano de experiência afeta diretamente
as probabilidade de falha calculadas. Mais preocupante é o fato, mostrado pelos autores, que pequenas mudanças
no ki podem levar a grande instabilidade nas probabilidades calculadas. Estas instabilidades se originam na
transformação necessária para resolver problemas envolvendo variáveis não-Gaussianas correlacionadas, e no
fato desta transformação ser válida em apenas um ponto do domínio (o ponto de projeto, ao nal do processo
iterativo). Em nossa interpretação dos resultados de Guan e Melchers (2001), a dependência das probabilidades
de falha calculadas com a localização dos pontos do plano de experiência pode ser minimizada, se não eliminada,
ao colocar o ponto central sobre o ponto de projeto, e ao se utilizar valores mais moderados para o fator ki
(digamos, 0, 1 · ki · 0, 5). Considerando os resultados apresentados por Guan e Melchers (2001), concluimos
que um esquema adaptativo, tal como proposto por Rajashekhar e Ellingwood (1993), é necessário para a
solução precisa de problemas de con abilidade estrutural utilizando superfícies de resposta polinomiais.
A necessidade de uma construção adaptativa e iterativa das superfícies de resposta, no entanto, compromete
a e ciência do método, conforme mostrado por Leonel et al. (2011). Os autores comparam diversos esquemas
de construção adaptativa das superfícies de resposta com o chamado método de acoplamento direto (direct
coupling). O método de acoplamento direto (Sudret & Der Kiureghian, 2000) consiste na busca pelo ponto de
projeto utilizando diretamente a resposta numérica para avaliar a função de estado limite e os seus gradientes.
Utilizando como exemplo problemas de mecânica da fratura, Leonel et al. (2011) mostram que o acoplamento
direto é muito mais e ciente do que a solução empregando superfícies de resposta adaptativas. Os autores
mostram ainda que, uma vez encontrado(s) o(s) ponto(s) de projeto, podemos construir superfícies de resposta
de nitivas em torno destes, a um custo computacional que é uma fração do custo computacional para construir
superfícies de resposta adaptativas.
Nesta seção consideramos diferentes estrategias de solução de problemas de con abilidade estrutural utilizando
superfícies de resposta. Um estudo comparativo de diferentes estratégias adaptativas de construção de superfícies
de resposta é apresentado em Leonel et al. (2011).
Superfícies construídas em torno do ponto médio A princípio, superfícies de resposta podem ser con-
struídas em torno do ponto médio, mesmo que este não pertença à equação de estado limite. No entanto, deve-se
levar em conta que o erro na aproximação da equação de estado limite original pela expressão polinômica (Eq.
5.45) será mínimo nas vizinhanças do ponto médio, mas será grande na região importante do domínio de falha,
que é a região em torno do ponto de projeto. Isto signi ca que os erros na avaliação de probabilidades de falha
serão grandes, independentemente do método de solução empregado (FORM, SORM ou simulação de Monte
Carlo).
Outra estratégia que pode resultar em grandes erros é a utilização de uma única superfície de resposta para
representar um domínio de falhas composto por diversos modos de falha (em série, paralelo ou combinações).
Neste caso, a composição dos modos de falha pode dar origem a cantos vivos, que di cilmente são representados
pela superfície de resposta.
Superfícies adaptativas para busca de pontos de projeto Superfícies de resposta podem ser construídas
de forma adaptativa a m de se encontrar os pontos de projeto. Ao considerar esta estratégia, devemos levar
em conta que a construção de uma superfície quadrática completa (conforme Eq. 5.44) exige um mínimo de
nsup ¸ (n2 + n + 1) pontos. Desprezando os termos cruzados, nsup ¸ (2n + 1) pontos se fazem necessários. Em
contrapartida, a avaliação do gradiente da equação de estado limite rg(x), por diferenças nitas uni-laterais,
requer apenas nsup = (n + 1) pontos. Isto signi ca que, na busca pelo ponto de projeto, é mais barato calcular o
5.4. META-MODELOS 189
gradiente e determinar o próximo ponto diretamente, por acoplamento direto, do que construir uma superfície
de resposta.
Superfícies construídas em torno dos pontos de projeto Uma estratégia interessante é a construção
de uma superfície de resposta centrada em cada ponto de projeto. Nesta estratégia, uma superfície de resposta
é utilizada para cada equação de estado limite que compõe o domínio de falha. O erro de aproximação pelas
superfícies de resposta é minimizado em relação à região importante de cada parcela do domínio de falhas.
Esta estratégia pode ser associada com a simulação de Monte Carlo com amostragem por importância nos
pontos de projeto. Utilizando superfícies de resposta quadráticas com termos cruzados, esta solução tem o
mesmo custo de uma solução via SORM para cada modo de falha. No entanto, permite uma avaliação muito
mais precisa das probabilidades para domínios de falhas compostos, sejam eles em série, paralelo ou misto, em
comparação com os limites bi-modais linearizados (Seção 4.3). Esta solução é empregada no software StRAnD
(Apêndice G).
Redes neurais arti ciais ou Arti cial Neural Networks (ANN) são modelos computacionais construídos com
base em uma analogia simpli cada do comportamento do cérebro humano (Hecht-Nielsen, 1989). A informação
é processada por pequenas unidades de processamento (os neurônios), que se comunicam através de conexões
balanceadas (sinapses).
A construção de redes neurais envolve especi cação do número de camadas de neurônios, bem como do
número e tipo de neurônio em cada camada. Dado um conjunto de dados de entrada e saída, a rede é treinada:
o peso de cada conexão entre neurônios é ajustado de forma a que a rede represente, da melhor maneira possível,
o conjunto de dados de saída. Cada iteração neste processo de treinamento é chamado de época. Portanto, a
partir de um treinamento inicial, os pesos de cada sinapse são armazenados e a rede se torna capaz de prever a
resposta para outros pontos de entrada, não presentes no conjunto de treinamento.
É comum separar o conjunto de dados de entrada e saída em dois grupos: grupo de treinamento e de
validação. O processo de validação consiste em veri car o erro da rede utilizando os pontos de validação, i.e.,
computando a resposta da rede para pontos que não foram utilizados no treinamento, e comparando com a
resposta correta. A validação é feita entre épocas, de forma a interromper o processo de treinamento se o
erro aumentar devido ao chamado over tting. Separar os dados em um conjunto de treinamento e outro de
validação reduz a quantidade de informação disponível para treinar a rede, mas ajuda a evitar problemas de
over tting. É comum utilizar 10% do conjunto de dados para validação, sempre escolhidos de forma aleatória.
Alternativamente, o treinamento da rede pode ser feito de forma iterativa, durante a solução do problema.
Dois tipos de ANN são descritos brevemente nesta seção: Multi-layer Perceptron ou MLP (Hertz et al., 1991)
e Radial Basis Function ou RBF (Wang et al., 2004; Beale et al., 2011). Em geral, redes MLP são melhores
para representar a resposta global do modelo, enquanto redes RBF geram melhores aproximações locais. O
190 SIMULAÇÃO DE MONTE CARLO
objetivo desta seção é dar uma noção ao leitor do que são redes neurais arti ciais. Maiores detalhes podem ser
obtidos em Haykin (1996, 1999).
Redes neurais arti ciais tipo Multi-Layer Perceptron são redes construídas com uma camada de
entrada (um neurônio para cada parâmetro de entrada), uma camada de saída (um neurônio para cada parâmetro
de saída) e um número arbitrário de camadas intermediárias (ocultas). Redes MLP são do tipo feed-forward,
o que signi ca que a comunicação entre neurônios só ocorre no sentido da entrada para a saída, e nunca
ao contrário. Já foi provado (Hornik et al., 1990) que redes neurais feed-forward com apenas uma camada
intermediária são capazes de representar qualquer função e suas derivadas, através de uma escolha apropriada
de funções de ativação e do número de neurônios em cada camada intermediária. Na representação que segue,
apenas uma camada intermediária é considerada.
O tipo de neurônio em cada camada é de nido pelas funções de ativação utilizadas. No exemplo aqui descrito,
funções de ativação lineares são utilizadas para os neurônios de entrada e saída, e funções tangente-sigmóide
são utilizadas para a camada intermediária. Em redes feed-forward, os dados são transmitidos da camada de
entrada para a camada de saída. Os dados são inicialmente processados pelos neurônios da camada de entrada.
Cada neurônio da camada de entrada recebe um elemento do vetor de entrada e transmite um impulso para
cada neurônio da próxima camada. Como as funções de ativação da camada de entrada são lineares, os dados de
entrada são simplesmente repassados para os neurônios da camada intermediária. Nesta passagem, cada valor é
multiplicado por um peso, que caracteriza a conexão entre os neurônios de diferentes camadas. Portanto, uma
soma ponderada de valores é repassada aos neurônios da camada intermediária. Um fator de bias é adicionado
à soma ponderada, o que permite que um neurônio seja ativado mesmo quando um valor nulo é passado para
ele. O valor resultante é processado pela função de ativação dos neurônios da camada intermediária, resultando
em um valor entre ¡1 e +1 (caso da função tangente-sigmóide), que é repassado aos neurônios da camada de
saída. Os neurônios da camada de saída adicionam o seu próprio valor de bias à soma ponderada recebida, e
entregam na saída um valor processado para cada conjunto de dados de entrada (x) recebido pela rede. Os
pesos que caracterizam a conexão entre os neurônios e os fatores de bias são determinados no treinamento da
rede.
(k) (k)
Seja wji o peso entre o neurônio i da camada k e o neurônio j da camada k ¡ 1, θ i o fator de bias do
neurônio i da camada k, e xsup um vetor de dados de entrada. Neste caso, a saída de uma rede MLP de três
camadas com nk neurônios na k-ésima camada é:
(3)
Xn2 ³ (3) ³
(2)
Xn1 ³ (2) sup ´´´
ye = θ1 + wi1 tansig θi + wji xj , (5.48)
i=1 j=1
Redes neurais do tipo Radial Basis Function (RBF) sempre são compostas por três camadas de
neurônios (Poggio & Girosi, 1990): camada de entrada, intermediária e de saída. Redes RBF também são
do tipo feed-forward: a informação é transmitida dos neurônios da camada de entrada para os neurônios das
camadas seguintes, até a saída. Nas redes RBF, as funções de ativação dos neurônios da camada intermediária
são do tipo base radial, enquanto as funções das demais camadas são lineares. A função de ativação Gaussiana
é adotada com frequência na literatura. O número de neurônios das camadas de entrada e saída corresponde às
dimensões dos vetores de entrada e saída, respectivamente. O número de neurônios da camada intermediária é
arbitrário.
(3)
Seja wi1 o peso entre o neurônio 1 da camada 3 e o neurônio i da camada 2, cci e σi o valor central e o
desvio-padrão do i-ésimo neurônio da camada intermediária e xsup um vetor de dados de entrada. Neste caso,
a saída de uma rede tipo RBF com nk neurônios na k-ésima camada é:
(3)
Xn2 µ (3) µ
1 Xn1 ¡ sup ¢2
¶¶
ye = θ 1 + wi1 exp ¡ 2 xj ¡ cci , (5.49)
i=1 σi j=1
(3) (3)
sendo cci , σi , os pesos wi1 e bias θ 1 parâmetros da rede, a ser determinados durante o treinamento.
5.4. META-MODELOS 191
Expansões em polinômios de caos ou Polinomial Chaos Expansions (PCE) tem sido utilizadas desde os anos
90 na formulação do chamado método dos elementos nitos estocástico ou Stochastic Finite Element Method
(SFEM). A partir dos anos 2000, PCEs passaram a ser vistas também como uma técnica de meta-modelagem.
Revisões da literatura são apresentadas em Panayirci e Schuëller (2011) e Sudret (2012).
Ao utilizar a PCE, a resposta do modelo de alta delidade é considerada como uma variável aleatória Ye ,
pertencente ao espaço das variáveis aleatórias de variância nita, e que pode ser representada por uma base
deste espaço:
X1
Ye = aα ªα (X), (5.50)
α=1
sendo aα coe cientes a determinar, e ªα (X) funções polinomiais multi-variadas, ortonormais com respeito às
densidades fX (x), tais que:
E[ªi (X)ªj (X)] = δ ij ,
sendo δ ij = 1 para i = j e 0 caso contrário. Um conjunto X de variáveis aleatórias independentes pode ser
representado a partir de um vetor de variáveis normais padrão » = fξ 1 , ξ 2 , ..., ξ m gt . Polinômios de Hermite,
por exemplo, formam uma base ortonormal com respeito às variáveis normais padrão.
Para ns práticos, a base na Eq. (5.50) precisa ser truncada, e apenas polinômios de grau p ou menor são
utilizados. A representatividade da expansão PCE depende diretamente de p: para p pequeno, a representativi-
dade é limitada; para p grande, o custo computacional aumenta e pode ocorrer over tting. A base da expansão
PCE é obtida da tensorização das expansões uni-variadas das m variáveis que compõe o vetor X. Quando o
truncamento da série (Eq. 5.50) é feito com base no grau multi-índice máximo, o número P de funções da base
é dado por:
(m + p)!
P = .
m!p!
Um algoritmo prático para construção da base multi-variada é apresentado em Sudret et al. (2006). Os
coe cientes aα podem ser obtidos de forma não-intrusiva, por mínimos quadrados. O número de pontos de
suporte nsup deve ser pelo menos igual a P . Sendo A1£P = fai gti=1,...,P o vetor de coe cientes a determinar, a
t
matriz de dados ªnsup £P = [ªj (xksup )]k=1,...,nsup ,j=1,...,P , e B = fM(xsup
k )gk=1,...,nsup , os coe cientes são obtidos
como:
Como as funções da base são linearmente independentes, a matriz ª deve ser inversível. No entanto, devido
a forma aleatória de escolha dos pontos de suporte (por exemplo, LHS), ª pode se tornar não-inversível. Nestes
casos, pode ser necessário utilizar técnicas de regularização de matrizes, pseudo-inversas, ou simplesmente mudar
o DOE. Uma vez que os coe cientes sejam determinados, a expansão em polinômios de caos (Eq. 5.50) pode
ser utilizada como meta-modelo.
A técnica conhecida como krigagem (do inglês kriging) consiste em obter uma aproximação para o modelo
de alta delidade assumindo suas respostas, em diferentes pontos de suporte, como realizações de um campo
estocástico. Esta técnica se originou em estudos de geologia, nos anos 60, e apenas recentemente passou a ser
utilizada em con abilidade estrutural.
192 SIMULAÇÃO DE MONTE CARLO
sendo f (x)t A a resposta média (determinística) e o termo Z(x) um campo estocástico homogêneo e Gaussiano,
com média nula e variância constante σ2Z . O conjunto f (x)1£nc forma uma base de, por exemplo, funções
polinomiais (Eq. 5.44), e A1£nc é um vetor de coe cientes a determinar. Considerando a correlação entre as
respostas em diferentes pontos de suporte, o vetor de coe cientes é encontrado por mínimos quadrados:
sendo di = (xi )j ¡ (xi )k a distância entre os pontos de suporte na direção i. A função de auto-correlação do
processo Z(x) ca:
Cov[Z(xj ), Z(xk )] = σ2Z Rjk (xj ¡ xk , µ).
Com estas preliminares, a variância do campo estocástico é obtida como:
1
σ2Z = (B ¡ FA)t R¡1 (B ¡ FA).
nsup
sendo r(x)1£nsup = fRk (x ¡ xk , µ)gtk=1,...,nsup um vetor contendo a correlação entre a resposta do modelo no
ponto x e as respostas em todos os pontos de suporte do modelo.
Uma grande vantagem da krigagem, sobre outras técnicas globais, é o conhecimento da variância, ou da
incerteza de previsão do modelo, em qualquer ponto do domínio; o que tem implicações óbvias sobre a possibil-
idade de realizar construções adaptativas. Outra característica da krigagem é que o modelo fornece a resposta
exata nos pontos de suporte.
Na literatura, não há muitos trabalhos que apresentem comparações desinteressadas entre as diversas técnicas de
meta-modelagem. Usualmente, autores tratam de defender uma técnica proposta, em comparação com técnicas
existentes. Uma comparação entre técnicas de meta-modelagem globais, aplicadas a problemas de con abilidade
estrutural, é apresentada em (Kroetz, 2015; Kroetz et al., 2017). Os autores abordam diversas funções de estado
limite analíticas, bem como alguns problemas envolvendo equações numéricas. No estudo veri ca-se que as três
5.4. META-MODELOS 193
técnicas descritas neste texto resultam em meta-modelos precisos, desde que se utilize um número su ciente de
pontos de suporte. Para um número pequeno (mínimo) de pontos de suporte, a precisão dos modelos torna-
se extremamente sensível ao número de pontos de suporte. Nas conclusões do estudo, os autores destacam o
desempenho muito bom da krigagem, tanto em termos de precisão como de e ciência.
194 SIMULAÇÃO DE MONTE CARLO
Capítulo 6
CONFIABILIDADE DEPENDENTE
DO TEMPO
Neste capítulo estudamos problemas de con abilidade estrutural dependente do tempo, através de sucessivos
níveis de simpli cação e generalização. Inicialmente, estudamos o modelo de falha à primeira sobrecarga para um
processo (ação) escalar e barreira (resistência) determinística (Seção 6.1). Na Seção 6.2, o problema é formulado
em termos da multi-dimensionalidade das variáveis aleatórias de resistência. A solução de discretização e
integração no tempo, própria para problemas escalares (uma ação) e estacionários (sem variação da resistência
ao longo do tempo) é abordada na Seção 6.3. Um exemplo numérico e resultados especializados são apresentados
na Seção 6.5. O caso geral envolvendo várias ações (processo estocástico multi-dimensional) é considerado na
Seção 6.6. Finalmente, soluções simpli cadas para a solução de problemas de combinação de ações são estudadas
na Seção 6.7.
6.1.1 Formulação
O problema de con abilidade estrutural dependente do tempo consiste na avaliação da probabilidade de que
um processo estocástico S(t) (ação) exceda a resistência R(t) da estrutura (Figura 6-1), à qualquer instante
durante o período de vida útil da mesma:
· ¸
pf (tD ) = P min g(R, S, t) · 0 , (6.1)
0·t·tD
g(R, S, t) = 0
Tipicamente, tanto as ações como resistência são multi-dimensionais. No projeto de um prédio ou ponte
convencional, as ações variáveis são muitas: ação acidental, vento, terremotos, neve, etc. No entanto, a solução
196 CONFIABILIDADE DEPENDENTE DO TEMPO
r, s
f R ( r , t0 )
r (t ) realização de R(t )
f S ( s, t ) s(t ) realização de S (t )
Figura 6-1: Problema de con abilidade estrutural típico envolvendo carregamento estocástico e variação da
resistência no tempo.
explícita do problema de con abilidade dependente do tempo sob carregamentos multi-dimensionais é extrema-
mente complexa, como veremos na Seção 6.6. Portanto, abordamos primeiramente problemas escalares nas
ações, e suas soluções. O problema escalar envolve uma única ação S(t) e, inicialmente, uma resistência deter-
minística r(t). Estas soluções são generalizadas para resistência aleatória e multi-dimensional na Seção 6.2.
Tipicamente, tanto ações como a resistência da estrutura são funções do tempo. No entanto, conforme
ilustrado na Figura 6-1, ações variam de forma rápida com o tempo, enquanto a resistência varia de forma
lenta e gradual. Ações variáveis típicas e suas escalas de utuação são: ação acidental (meses ou anos), vento
(excitação dinâmica por variação instantânea, sobreposta ao máximo anual ou de 50 anos), terremotos (variação
de anos entre ocorrências, excitação dinâmica por variação instantânea na ocorrência), neve (meses ou anos),
etc. Já a variação da resistência ocorre de forma gradual, através de processos de degradação como corrosão,
desgaste, uência e fadiga. Também pode ocorrer aumento gradual da resistência ao longo do tempo, como
por exemplo no processo de cura do concreto. Desta forma, ações variáveis são representadas como processos
estocásticos, e a resistência é representada por meio de variaveis aleatórias, eventualmente resultando em um
processo estocástico parametrizado (Seção 6.2.1). Esta distinção é necessária para a solução de problemas de
con abilidade dependente do tempo.
dade de que o número de sobrecargas N + (r, tD ) no período seja igual a zero. Usando a Eq. (A.34), temos:
pf (r, tD ) = 1 ¡ R(r, tD )
Z tD
= 1 ¡ exp[¡ η(r, t)dt]. (6.4)
0
Uma limitação deste resultado é o fato que, para que ocorra uma primeira sobrecarga (passagem de barreira
de baixo para cima) durante o intervalo (0, tD ), é necessário que o processo estocástico esteja abaixo do nível
r no instante inicial t = 0. Tal condição não está reetida na Eq. (6.3), mas pode ser imposta facilmente
escrevendo:
Importante observar que η(r, t), agora, é uma taxa (condicional) de chegadas de sobrecargas, ou a taxa de
chegada (média sobre o envelope) da primeira sobrecarga. Esta taxa será determinada oportunamente. Na
Equação (6.5), o termo P [fS(0) < rg] = R0 (r) corresponde à probabilidade de que o processo estocástico S(t)
esteja abaixo do nível r no instante inicial t = 0. O complemento desta probabilidade é a chamada probabilidade
de falha inicial:
pf0 (r) = 1 ¡ R0 (r). (6.6)
A avaliação de pf0 (r) é um problema que envolve apenas variáveis aleatórias, e pode ser resolvido utilizando
os métodos de con abilidade independentes do tempo estudados no Capítulo 3.
Utilizando as Equações (6.4) a (6.6), a probabilidade de falha ca:
pf (r, tD ) = 1 ¡ R(r, tD )
· Z tD ¸
= 1 ¡ R0 (r) exp ¡ η(r, t)dt
0
µ · Z tD ¸¶
= pf0 (r) + (1 ¡ pf0 (r)) 1 ¡ exp ¡ η(r, t)dt . (6.7)
0
A Equação (6.7) expressa a probabilidade de falha para uma vida tD como a soma de uma probabilidade
de falha inicial (pf0 (r) para t = 0) mais a probabilidade de falha devido à uma sobrecarga, dado que a falha
não tenha ocorrido no instante inicial. Só existe diferença signi cativa entre as Eqs. (6.7) e (6.4) quando a
probabilidade de falha inicial é relevante.
Em um processo de Poisson homogêneo, a taxa η(r, t) = η(r) é constante, e não existe distinção entre o
tempo entre sobrecargas e o tempo até a primeira sobrecarga: ambos são descritos pela mesma distribuição
exponencial. No entanto, a condição imposta na Equação (6.5) torna este processo não homogêneo, e faz com
que a taxa η(r, t) seja função do tempo, mesmo para uma barreira estacionária, como veremos na Seção 6.5.3.
198 CONFIABILIDADE DEPENDENTE DO TEMPO
uma vez que uma sobrecarga corresponde a uma passagem da barreira r de baixo para cima. Com a aproximação
de Poisson, a probabilidade de falha à primeira sobrecarga ca:
µ · Z tD ¸¶
+
pf (r, tD ) = pf0 (r) + (1 ¡ pf0 (r)) 1 ¡ exp ¡ υ (r, t)dt . (6.9)
0
A taxa de passagens pela barreira, υ + (r, t), é uma entidade matemática, que pode ser avaliada analiticamente
para alguns processos estocásticos, conforme Apêndice B.3.2. Esta taxa, no entanto, não reete as condições que
levaram à obtenção da Eq. (6.7). Ainda assim, a aproximação de Poisson, expressa na Equação (6.8), se justi ca
quando o nível da barreira r é elevado, e quando as passagens de barreira são eventos raros. Podemos mostrar
(Cramer & Leadbetter, 1967) que a aproximação de Poisson é assintoticamente exata a medida que r ! 1.
Na prática, isto signi ca que a aproximação de Poisson é adequada para estruturas com baixa probabilidade de
falha.
A aproximação de Poisson não é apropriada para processos de banda estreita, uma vez que as passagens
de barreira tendem a acontecer em bloco. A aproximação de Poisson aqui apresentada pode ser melhorada
através da determinação de taxas que reitam melhor as condições impostas pela Equação (6.7). Estas melhorias
são consideradas na Seção 6.5.3.
Quando o processo estocástico é estacionário e o nível da barreira é invariante no tempo (problema esta-
cionário, sem degradação da resistência), a taxa de passagens pela barreira υ + (r, t) = υ + (r) é constante e a
Equação (6.9) ca:
¡ £ ¤¢
pf (r, tD ) = pf0 (r) + (1 ¡ pf0 (r)) 1 ¡ exp ¡υ + (r)tD . (6.10)
Quanto υ + (r)tD << 1, temos que 1 ¡ exp [¡υ + (r)tD ] ¼ υ + (r)tD ; logo, podemos escrever:
A probabilidade de falha para uma vida de projeto tD pode ser avaliada como:
Comparando este resultado com a Eq. (6.9), percebemos que a Eq. (6.14) não reete a condição inicial, uma
vez que esta condição já está implícita na de nição da taxa h(t), como veremos. O valor esperado do tempo até
a falha (primeira sobrecarga) é:
1
E[T (t)] = ,
h(t)
o que mostra que a função h(t) corresponde à taxa de chegada da primeira sobrecarga para um nível de barreira
r, h(t) ¼ υ + (r, t).
fT (t) fT (t)
h(t) = = . (6.15)
1 ¡ FT (t) R(t)
Nesta expressão ca evidente que, quando FT (t) é muito pequeno (situação em que a pf também é pequena),
as funções fT (t) e h(t) são equivalentes. O conhecimento de uma entre h(t), fT (t) e FT (t) é su ciente para
determinar as outras duas.
1 A variável aleatória tempo até a falha pode seguir outras distribuições estatísticas, como mostrado no Capítulo 10 de Dorf
sendo R um vetor de variáveis aleatórias de resistência, f( ) uma função de resistência, A uma taxa de degradação
da resistência (adimensional), tD a vida de projeto e α um coe ciente que determina a forma como a resistência
varia ao longo do tempo. A função de resistência f ( ) descreve a resistência de um elemento estrutural, ou
da estrutura como um todo, em termos das resistências dos diversos materiais constituintes, das dimensões,
etc. O vetor R, que agrupa estas mesmas variáveis, descreve a resistência inicial, para t = 0. A taxa de
degradação da resistência, A, juntamente com o coe ciente α, determinam a forma como a resistência varia
com o tempo. Mesmo que A e α sejam variáveis aleatórias, a variação da resistência no tempo ocorre de
forma parametrizada. Para A e α aleatórios ou determinísticos, a resistência R(t) é um processo estocástico
parametrizado, cujos momentos mudam de forma conhecida ao longo do tempo. Este modelo de resistência,
como processo estocástico parametrizado, é útil para solucionar problemas de con abilidade dependente do
tempo.
Em geral, a separação da resistência em f(R) e em uma função do tempo (1 ¡ A(t/tD )α ) não é necessária:
basta que a equação de estado limite do problema seja escrita em função de todas as demais variáveis:
g(R, S, A, α, t) = 0. Um caso particular importante, abordado na Seção 6.2, corresponde a uma resistência
escalar:
R(t) = R(1 ¡ a(t/tD )α ). (6.17)
Outro caso particular importante, já abordado na Seção 6.1.2, é de uma resistência escalar e determinística:
Neste modelo a taxa de variação da resistência muda ao longo do tempo; a resistência R(t) passa a ser um
processo estocástico convencional, e as soluções apresentadas neste capítulo não se aplicam. Torna-se necessário
determinar, através do uso de ferramentas apropriadas, a maneira como as distribuições de probabilidade de R(t)
mudam ao longo do tempo. Em geral, isto signi ca resolver um problema de equações diferenciais estocásticas,
o que está fora do escopo deste texto. O resultado, no entanto, é uma função de densidade de probabilidades
que varia com o tempo, chamada de função de densidade de probabilidades transitória ou transition probability
density, fR (r, t).
6.2. VARIÁVEIS ALEATÓRIAS DE RESISTÊNCIA 201
Exemplos de variação estocástica de resistência estrutural são taxas de corrosão ou de propagação de trincas
que mudam, a medida que avançam sobre o material. O problema de propagação estocástica de trincas é
abordado em Beck & Melchers (2004b). Um modelo estocástico para taxa de corrosão em metais é discutido
em Bazán & Beck (2013). A con abilidade de estruturas que sofrem deterioração também é endereçada em
Sarveswaran & Roberts (1999).
Em geral, mesmo quando a variação da resistência ocorre de forma estocástica, a variação é lenta em
comparação com a velocidade de variação das ações. Isto signi ca que, em muitos casos, é possível aproximar
um processo estocástico como o da Eq. (6.19) por um processo parametrizado, como na Eq. (6.16).
A probabilidade de falha incondicional é obtida através do teorema da probabilidade total (Eqs. A.6 ou
A.58):
Esta integral é muito semelhante à integral que caracteriza o problema de con abilidade independente do
tempo (Equação 2.41). Ela pode ser avaliada, a princípio, por simulação de Monte Carlo. No entanto, é
importante observar que cada ponto de integração da Equação (6.21) representa uma solução do modelo de
falha a primeira sobrecarga, para uma barreira condicional. Quando a dimensão do vetor R é grande, ou
quando o problema envolve mais de um processo estocástico de carregamento (ação), a integração direta da Eq.
(6.21) se torna proibitiva. Além disto, esta solução é especí ca para um tempo t, e precisa ser repetida para
se determinar a probabilidade de falha ao longo da vida da estrutura. Por isto, esquemas alternativos para a
integração da Eq. (6.21) foram desenvolvidos.
Figura 6-2: Problema de con abilidade estrutural com variação paramétrica da resistência.
O valor rn+1 = 0 representa o limite entre falha e sobrevivência da estrutura, de forma que uma equação de
estado limite aumentada pode ser escrita apenas em função de variáveis aleatórias:
Note que a variável aleatória Rn+1 dependente da realização R = r, e portanto depende do vetor R. Isto
signi ca que a equação aumentada g(R, Rn+1 ) depende explicitamente de Rn+1 e implicitamente de R.
Com estas preliminares, a Equação (6.21) pode ser reescrita como:
Z · ¸
pf (tD ) = P min g(r, S, t) · 0 fR (r)dr
0·t·tD
ZR
= P [fRn+1 · 0g] fR (r)dr
ZR
= fRn+1 (rn+1 j r)fR (r)dr, (6.25)
g(r,rn+1 )·0
sendo fRn+1 (rn+1 j r) a função de densidade de probabilidades da variável Rn+1 e fR (r) a função de densidade
de probabilidades conjunta das variáveis aleatórias de resistência. A Equação (6.25) é idêntica à integral de
con abilidade independente do tempo (Equação 2.41), e portanto pode ser resolvida por FORM, SORM ou
SMC. A solução da Eq. (6.25) ao invés da Eq. (6.21) é chamada de integração rápida de probabilidades ou
fast probability integration (Wen & Chen, 1987).
Esta formulação permite a solução de problemas de con abilidade dependente do tempo utilizando técnicas
de con abilidade independente do tempo. No entanto, ela requer conhecimento da função de distribuição
condicional fRn+1 (rn+1 j r). Recorde que o método FORM é baseado em uma transformação do vetor R para
o espaço normal padrão Y, que pode ser escrita como:
Y = Jyr fR ¡ Mneq g.
A transformação de Rn+1 para o espaço normal padrão, utilizando a Eq. (3.49), resulta:
£ ¤
yn+1 = ©¡1 FRn+1 (rn+1 j r) , (6.26)
6.2. VARIÁVEIS ALEATÓRIAS DE RESISTÊNCIA 203
sendo Yn+1 uma variável normal padrão adicional, independente das demais variáveis Y. O valor limite da
variável adicional Yn+1 é obtido para rn+1 = 0:
£ ¤
yn+1 = ©¡1 FRn+1 (0 j r)
= ©¡1 [P [fRn+1 · 0g]]
= ©¡1 [pf (tD j r)] . (6.27)
Portanto, a equação de estado limite aumentada no espaço Y, g(y, yn+1 ) = g(y+ ), deve ser:
Como resultado, temos que a Equação (6.25) pode ser resolvida via FORM sem o conhecimento da dis-
tribuição condicional fRn+1 (rn+1 j r). O problema aumentado é solucionado incluindo a variável Yn+1 , com
distribuição normal padrão e independente de Y, e utilizando como equação de estado limite a Eq. (6.28).
O problema aumentado pode ser resolvido utilizando o algoritmo HLRF (Hasofer & Lind, 1974; Rackwitz
& Fiessler, 1978). Para tanto, precisamos determinar o gradiente da equação de estado limite aumentada em
Y, rg(y+ ). O último termo deste gradiente é:
∂g(y+ )
= 1.
∂yn+1
Os demais termos podem ser calculados a partir da equação:
sendo φ(.) a distribuição de densidade de probabilidade Gaussiana e rpf (tD j r) o gradiente da probabilidade
de falha dependente do tempo (Equação 6.20) em relação às variáveis de resistência. Este gradiente pode ser
avaliado por diferenças nitas.
A avaliação da probabilidade de falha através da Equação (6.25) e do algoritmo HLRF envolve a solução do
modelo de falha à primeira sobrecarga em (n + 1)nit pontos, sendo n o número de variáveis aleatórias e nit o
número de iterações necessárias para convergência do algoritmo HLRF. Ainda que muito menor do que em uma
solução via simulação de Monte Carlo, este número de avaliações pode ser ainda muito grande, especialmente em
problemas multi-dimensionais não-estacionários. A solução também pode apresentar problemas de convergência
devido ao reduzido valor das probabilidades de falha condicionais (Equação 6.20), especialmente quando a
variância de R é grande (Rackwitz, 1993; Marley & Moan, 1994).
Nesta expressão, pf0 (R) é simplesmente a probabilidade de falha inicial, que pode ser calculada por FORM,
incorporando as variáveis aleatórias de resistência. O sub-índice ()EC é para aproximação ensemble crossing.
A taxa υ +
ED (t) que aparece na Eq. (6.30) é uma média, sobre o envelope, da taxa de passagens pela barreira.
Formalmente, pode ser calculada como:
Z
+ +
υ ED (t) = ER [υ (r, t)] = υ + (r, t)fR (r,t)dr. (6.31)
R
Esta taxa pode ser determinada diretamente, ou sem integração explícita, através de qualquer formulação
que inclua as variáveis aleatórias de resistência , como por exemplo a formulação que resulta em um sistema em
paralelo (Eq. B.68). Esta formulação é apresentada para o caso multi-dimensional na Seção 6.6.3.
A alteração da ordem entre a integral sobre R e a integração no tempo ofende a hipótese de Poisson, i.e.,
de que as passagens de barreira ocorrem de forma independente (Pearce & Wen, 1984; Schall et al., 1991).
Esta solução é uma aproximação porque, citando Wen & Chen (1989): A realização da resistência permaneçe
a mesma, ao invés de mudar entre as aplicações de carregamento, como seria de se esperar em um processo
de falha de Poisson. Desta forma, assumir independência entre as ultrapassagens de barreira (hipótese de
Poisson), para uma taxa média sobre o envelope de resistências, que equivale a fazer η(t) ¼ υ+
ED (t) na Equação
(6.7), é uma aproximação conservadora. Por conta disto, o simbolo de desigualdade é utilizado na Eq. (6.30).
Tomar a média, sobre o envelope de resistências, da taxa de passagens pela barreira torna estas passagens
dependentes. Para salientar este fato, o índice ED - para Ensemble e Dependent - é utilizado na Equação
(6.31).
A aproximação da taxa de passagens ou taxa de falhas média sobre o envelope foi estudada exaustivamente
em Beck & Melchers (2004a, 2005) e em Beck (2003, 2008). De acordo com Beck (2003), o erro de aproximação
pode ser de várias ordens de magnitude, e depende da altura da barreira, bem como da relação entre a variância
da barreira e do processo de carregamento. De acordo com Beck (2008), o erro depende ainda do número de
ciclos de carregamento. Estudando versão escalar do problema, envolvendo processos de carregamento contínuos
com distribuição normal S(t) » N (µS , σS ), de banda larga e estreita, e resistências escalares estacionárias com
distribuição normal R » N (µR , σR ), Beck (2003) mostrou que o erro da aproximação pode ser avaliado como:
· ¸ · + ¸
(pf (tD ))EC υ (t) 1 σ2R + σ2S
erroEC = ¡ log10 / ¡ log10 ED +
/ ep = , (6.32)
pf (tD ) υ (t) σS (µR ¡ µS )
sendo ep um parâmetro de erro. Normalizando este parâmetro pelo solicitação, ou seja, fazendo µ = (µR ¡µS )/σS
6.2. VARIÁVEIS ALEATÓRIAS DE RESISTÊNCIA 205
Figura 6-3: Integração para obter a taxa de passagens média sobre o envelope da resistência.
e σ = σR /σS , obtemos:
σ2 + 1
ep = ¢ (6.33)
µ
Este é também o parâmetro de erro para um processo normal padrão S(t) » N (0, 1) cruzando uma barreira
aleatória normal R » N (µ, σ). De acordo com Beck (2008), quando o parâmetro de erro é grande (ep & 1), o erro
da aproximação é maior do que uma ordem de magnitude (10£) após apenas um ou dois ciclos de carregamento
(υ 0 t ¼ 1 a 2). Quando o parâmetro de erro é pequeno (ep . 0, 5), o erro da aproximação é menor do que uma
ordem de magnitude para até em torno de 200 passagens por zero (υ0 t ¼ 200). Estes erros foram determinados
para processos S(t) contínuos de banda estreita e banda larga. No entanto, são utilizados na Seção 6.5.1 para
interpretar resultados obtidos para um processo de carregamentos de pulsos. Os erros acima também foram
obtidos para processo e barreira (resistência) com distribuição normal, mas dão uma ideia da ordem de grandeza
dos erros para distribuições não-normais.
Através de exaustivas simulações de Monte Carlo, Beck (2003) e Beck & Melchers (2005) veri caram que em
muitos problemas de con abilidade dependente do tempo, passagens de barreira ou sobrecargas ocorrem devido
a uma realização de barreira bem abaixo da média, e não devido a um pico de carregamento muito acima da
média. O fenômeno observado foi chamado de falha dominada pela barreira ou barrier failure dominance,
e ocorre quando σR >> σ S , conforme ilustrado na Figura 6-4. Este fenômeno caracteriza problemas para
os quais aproximações baseadas no(s) carregamento(s), como a integração no tempo, a regra de Turkstra e a
point-crossing formula são apropriados.
Problemas práticos de engenharia de estruturas tendem a estar no outro extremo, uma vez que usualmente
σR < σS (Figura 6-5). Para estes problemas, veri camos que sobrecargas ocorrem por uma contribuição
mais balanceada entre picos de carga e baixas realizações da resistência2 . Para estes problemas, aproximações
baseadas na resistência, como a aproximação da taxa média sobre o envelope, tendem a ser mais apropriadas.
Esta a rmação é veri cada no contexto de um exemplo numérico na Seção 6.5.1.
2 Note que não falamos de falha dominada pelo carregamento, mas sim de ausência de falha dominada pela barreira.
206 CONFIABILIDADE DEPENDENTE DO TEMPO
Figura 6-4: Problema de con abilidade com falha dominada pela barreira (σR >> σS ).
Figura 6-5: Problema de con abilidade sem falha dominada pela barreira (σ S > σR ).
6.3. PROBLEMAS ESCALARES ESTACIONÁRIOS 207
Para uma resistência multi-dimensional, função de um vetor de variáveis aleatórias R, esta probabilidade
ca:
pf (tD ) = P [StD ¸ R(R)].
Este problema envolve apenas variáveis aleatórias e pode ser resolvido por FORM, SORM ou SMC (Capítulos
3 e 5).
A integração no tempo é solução exata quando um único processo de carregamento (escalar e estacionário)
atua sobre a estrutura, e quando a resistência não varia com o tempo. Na presença de pequena variação
de resistência, a integração no tempo pode ser utilizada como aproximação (Marley & Moan, 1994). Esta
aproximação é explorada no contexto de um problema numérico na Seção 6.5.1.
Quando mais de um carregamento atua sobre a estrutura (processo estocástico multi-dimensional), é necessário
determinar um carregamento equivalente, conforme Seção 6.7. A integração no tempo pode então ser aplicada
sobre este carregamento equivalente. Alternativamente, uma solução aproximada é construída com base na
regra de Turkstra (Seção 6.7.3).
r, s
f R (r )
r (t ) r realização de R
f S ( s, t ) s (t ) realização de S (t )
r, s
f R (r )
r ( t ) r realização de R
s (t ) realização de S (t )
f S ( s, t )
Figura 6-7: Problema de con abilidade dependente do tempo com blocos discretos de carregamento.
6.3. PROBLEMAS ESCALARES ESTACIONÁRIOS 209
Considere que a vida de projeto da estrutura é discretizada em um número conhecido de segmentos ou blocos
de carregamento, nb . Seja td = tnDb a duração de um bloco de carga. Para que a estrutura sobreviva a nb blocos
de carga, é necessário que o máximo carregamento em cada bloco seja menor do que a resistência da mesma:
sendo pf e a probabilidade de falha elementar, para um segmento ou bloco de carga, calculada a partir da
Equação (6.35), com tD substituído por td . Observe que a Equação (6.36) assume independência entre os
eventos de falha elementar; logo, trata-se de uma aproximação baseada na resistência. Expandindo a Equação
(6.36) em série e mantendo apenas o termo de primeira ordem, obtemos:
p2fe
(1 ¡ pf e )nb ¼ 1 ¡ nb pfe + nb (nb ¡ 1) + ...,
2
e portanto:
pf (tD ) = 1 ¡ pS (tD )
¼ nb pf e . (6.37)
A Equação (6.37) fornece a probabilidade de falha para uma vida de projeto tD dividida em nb blocos de
carga, assumindo independência entre os eventos falha em cada bloco. A desconsideração dos termos de segunda
ordem na expansão é válida quando nb pf e << 1. Em particular, isto ocorre quando a probabilidade de falha
elementar pfe é pequena, i.e., o nível de resistência é elevado. Isto implica que a Eq. (6.37) é mais precisa
quando σS > σR . Comparando a Eq. (6.37) com (6.30) e (6.12), veri camos que neste resultado está implícita
a aproximação da resistência média sobre o envelope (Seção 6.2.5).
Considere agora a discretização da vida da estrutura em um número aleatório de eventos como tempestades,
terremotos ou carregamentos acidentais. O número exato de aplicações de carga durante o evento elementar não
precisa ser conhecido, desde que a distribuição do máximo carregamento seja utilizada no cálculo da probabili-
dade de falha elementar (pf e ). No entanto, o número de eventos (tempestades, etc.) que ocorrem durante a vida
útil da estrutura precisa ser conhecido para se determinar a probabilidade de falha. Seja pk (tD ) a probabilidade
de termos exatamente k eventos durante o período (0, tD ). A probabilidade de falha para esta vida será (veja
Equação A.6):
1
X
pf (tD ) = pk (tD )pfe . (6.38)
k=1
Observe que na Equação (6.38) todos os números possíveis de eventos são considerados. É comum representar
a chegada de eventos como tempestades, terremotos ou carregamentos acidentais, como processos de Poisson, o
210 CONFIABILIDADE DEPENDENTE DO TEMPO
Note que nesta expressão o termo υ pfe é a probabilidade de falha média por unidade de tempo, ou taxa de
falhas. Novamente, comparando a Eq. (6.40) com (6.30) e (6.11), veri camos que neste resultado está implícita
a aproximação da resistência média sobre o envelope (Seção 6.2.5).
Eventos elementares de intensidade variável Eventos extremos como tempestades, terremotos, furacões
ou tornados nem sempre tem a mesma intensidade. Em geral, a intensidade destes eventos é dividida em escalas,
e as probabilidades de ocorrência são associadas a cada intensidade. Probabilidades de falha condicionais são
calculadas, condicionais a determinada intensidade.
Em estruturas sujeitas a carga de ondas, por exemplo, o valor máximo do carregamento durante uma
tempestade depende do valor característico de altura de onda, Hk , para a tempestade. Se fHk (h) é a função de
densidade de probabilidades para o valor característico de altura de onda, então a probabilidade de falha para
uma tempestade de duração t é dada por:
Z 1
pf e = pf e (tjHk = h)fHk (h)dh, (6.41)
0
sendo pfe (tjHk = h) a probabilidade de falha condicional, dada uma altura de onda característica de valor h.
Esta probabilidade é calculada considerando o valor máximo do carregamento para uma altura de onda h.
de falha à primeira sobrecarga (Seção 6.1) com o modelo de falha por acúmulo de dano (esta Seção). Tais
carregamentos podem ser independentes do processo de dani cação (corrosão e envelhecimento), ou podem ser
a mesma ação que provoca o acúmulo de dano, caso do processo de fadiga.
Nesta expressão, Dc é o dano crítico, que provoca a falha do componente ou elemento estrutural. A variável S
aparece no termo Dc ou no termo D(R, t), a depender do tipo de processo de dani cação:
g(R, S, t) = N(S) ¡ N (R, t) para fadiga, com N (S) número de ciclos resistente para tensão S;
= Ac (S) ¡ A(R, t) na MF, com Ac tamanho crítico da trinca;
= Kc ¡ K(R, S, t) na MF, com Kc tenacidade a fratura crítica do material;
= σu ¡ σ(A, R, S, t) para corrosão, em termos de tensões;
= B ¡ v(R, t) para vazamento por corrosão, e espessura de parede B.
Em todos os problemas acima, a equação de estado limite depende do tempo; logo, a probabilidade de falha
também. No entanto, como as incertezas são descritas exclusivamente por variáveis aleatórias, a solução envolve
métodos de con abilidade independentes do tempo (FORM, SORM, SMC). Soluções até podem ser plotadas
em termos de pf (t), mas deve estar claro que se trata de um problema de acúmulo de dano.
do tempo pode ser para intervalos xos (e.g., anos) ou para um número aleatório de eventos ou blocos de
carregamento.
Seja υ a taxa de chegada dos eventos (tempestade em plataformas marinhas, terremoto ou tornado em
estrutura), cada ocorrência correspondendo a um bloco de carregamento. A probabilidade de falha elementar,
pf e (t), ou condicional à ocorrência de um bloco de carregamento, é calculada de acordo com a Eq. (6.42),
sendo S o máximo valor do carregamento durante o evento, e D(R, t) o dano acumulado até o nal do bloco de
carregamento, incluindo dano acumulado em eventos anteriores. Como o processo (eventos de tempestade, etc.)
ocorre de maneira contínua ao longo do tempo, a probabilidade de falha elementar é interpretada como uma
taxa de falhas: η(t) = υ pf e (t). A partir do modelo de Poisson, a probabilidade de falha à primeira sobrecarga,
para uma vida de projeto tD , ca:
· Z tD ¸
pf (tD ) ¼ 1 ¡ exp ¡ υ pfe (t)dt ¢ (6.43)
0
Para ações contínuas no tempo, como ações acidentais ou de vento em prédios, ou ação do tráfego em pontes,
uma discretização do tempo em intervalos xos é mais apropriada. Por exemplo, na análise de con abilidade
de um prédio ou ponte, sob ação de processos de corrosão e/ou fadiga, uma discretização anual é apropriada.
Neste caso, o carregamento S deve ser o máximo anual, e o dano acumulado D(R, t) até o nal do ano em
análise. Neste caso, a taxa de ocorrência do evento de carregamento é υ = 1 (um carregamento extremo anual).
Esta solução é explorada na Seção 6.5.1, no contexto de um exemplo numérico.
Comparando a Equação (6.43) com as Eqs. (6.21) e (6.30), é fundamental perceber que este resultado (Eq.
6.43) incorpora a aproximação da taxa de falhas média sobre o envelope. No entanto, em se tratando de um
problema de degradação da resistência, os erros são menores do que em problemas com resistências constantes.
Esta taxa pode ser integrada no tempo para obtenção da probabilidade de falha, conforme Eq. (6.9). Como o
problema é discreto no tempo, a taxa de falhas para o tempo tk é obtida como:
Resistência determinística
sendo o sub-índice ()T I para integração no tempo. Na Figura 6-8 observamos que esta solução é levemente
conservadora, em função da aproximação da resistência pela resistência mínima ao nal do período.
A solução analítica exata é obtida como:
· Z ¸ " k #
tk X
+
pf (tk jr)T V = 1 ¡ exp ¡ υ (r(t))dt = 1 ¡ exp ¡ υ(r(ti ))¢t , (6.44)
0 i=1
sendo sub-índice ()T V para con abilidade dependente do tempo e ¢t = 1 (um ano). A integral pode ser
substituída por um somatório porque a taxa de falhas é assumida constante em cada ano. Na Figura 6-8 esta
solução é comparada com a simulação de Monte Carlo, obtida com 104 amostras (resultado identi cado pela
sigla SMC).
Esta variante do problema é obtida com a = 0 e R » N (µR , σR ) = N (5; 0, 5). As soluções envolvem uma integral
sobre a resistência:
Z Z h i
pf (tk )T I = pf (tk jr)T I fR (r)dr = 1 ¡ © [r(1 ¡ a(tk /tD )) ¡ 1]tk fR (r)dr. (6.45)
R R
Z Z " Ã k
X
!#
pf (tk )T V = pf (tk jr)T V fR (r)dr = 1 ¡ exp ¡ υ + (r(ti ))¢t fR (r)dr. (6.46)
R R i=1
A solução da taxa média sobre o envelope é obtida integrando primeiramente a taxa de falhas sobre R, para
214 CONFIABILIDADE DEPENDENTE DO TEMPO
Figura 6-8: Problema de con abilidade dependente do tempo, barreira (resistência) determinística. Soluções:
£ SMC, ¢ TI, ¡ TV.
sendo sub-índice ()EC para taxa média sobre o envelope (Ensemble Crossing rate). As soluções acima são
avaliadas resolvendo as integrais pela regra do trapézio, e usando fR (r) = φ[(r ¡ µR )/σR ] = φ[(r ¡ 5)/0, 5]. A
Figura 6-9 mostra os resultados para este problema, incluindo a simulação de Monte Carlo (SMC). Observamos
que, como não há variação da resistência no tempo, a solução por integração no tempo é exata para este
problema. A solução da taxa média sobre o envelope, para este problema, também é su cientemente precisa.
Observamos que o parâmetro de erro da solução, para este problema, é ep = 0, 31, o que sugere que o erro é
pequeno (Beck & Melchers, 2005; Beck, 2008). Para ns de comparação, é mostrada também a solução obtida
avaliando a Eq. (6.44) na média da resistência (identi cada por µR ). Veri camos que a incerteza na resistência
é relevante; mas ainda assim a solução da taxa média sobre o envelope é su cientemente precisa.
Esta é uma variante direta do problema anterior, obtida fazendo a = 0, 2, com R » N (µR , σR ) = N (5; 0, 5).
As soluções anteriores (Eqs. 6.46, 6.45 e 6.47) são válidas, lembrando que a resistência é função de a: r(t) =
6.5. EXEMPLO NUMÉRICO E SOLUÇÕES ESPECIALIZADAS 215
Figura 6-9: Con abilidade dependente do tempo, barreira (resistência) aleatória. Soluções: £ SMC, ¢ TI, ¡
TV, ¡¡ EC, ¡ ¢ ¡ µR .
r(1 ¡ a(t/tD )). A Figura 6-10 mostra que a solução de integração no tempo passa a ser levemente conservadora,
em função da consideração da resistência no nal do período. A solução da taxa de falhas média sobre o
envelope continua aceitável, apesar da resistência média nal ter sido reduzida em 20% (parâmetro de erro nal
ep = 0, 42). A solução obtida avaliando a Eq. (6.44) na média da resistência (µR ) e a solução via simulação de
Monte Carlo (SMC) também são ilustradas.
Esta é a variante do problema com maior incerteza por parte da resistência. A taxa de degradação é representada
como variável aleatória: A » N (µA , σA ) = N (0, 2; 0, 2), ou seja, a resistência é reduzida, em média, 20%, mas
com um desvio-padrão também de 20%. A Figura 6-11 mostra a variação ao longo do tempo da resistência média,
assim como das curvas r(µR ¡ σR , µA + σA , t) e rf (µR + σR , µA ¡ σA , t). Apesar da degradação da resistência
ser aleatória, o processo R(t) resultante ainda é um processo parametrizado, ou seja, as soluções anteriores
continuam válidas. Para este problema, no entanto, as integrais sobre a resistência se tornam bi-dimensionais.
216 CONFIABILIDADE DEPENDENTE DO TEMPO
Figura 6-10: Con abilidade dependente do tempo, barreira aleatória com degradação determinística. Soluções:
£ SMC, ¢ TI, ¡ TV, ¡¡ EC, ¡ ¢ ¡ µR .
Z Z
pf (tk )T V = pf (tk jr, a)T V fR (r)fA (a)drda
A R
Z Z " Ã k !#
X
= 1 ¡ exp ¡ υ + (r(ti ))¢t fR (r) fA (a) dr da.
A R i=1
A solução da taxa média sobre o envelope é obtida integrando primeiramente a taxa de falhas sobre R, para
6.5. EXEMPLO NUMÉRICO E SOLUÇÕES ESPECIALIZADAS 217
Figura 6-11: Con abilidade dependente do tempo, barreira aleatória com degradação aleatória. Soluções: £
SMC, ¢ TI, ¡ TV, ¡¡ EC.
As integrais acima são avaliadas pela regra do trapézio, usando fR (r) = φ[(r ¡ µR )/σ R ] = φ[(r ¡ 5)/0, 5] e
fA (a) = φ[(a ¡ µA )/σA ] = φ[(a ¡ 0, 2)/0, 2]. Os resultados estão ilustrados na Figura 6-11. Observamos que
a solução integrada no tempo é conservadora, aproximando as probabilidades para maior. A solução da taxa
média sobre o envelope é precisa em grande parte do intervalo, mas afasta-se da solução exata para o nal do
período, uma vez que a resistência média diminui, mas especialmente porque a variância da resistência aumenta
bastante ao nal do intervalo. O valor nal do parâmetro de erro é ep = 0, 79, o que segundo Beck (2008) sugere
que o erro da aproximação por taxa média pode ser grande.
218 CONFIABILIDADE DEPENDENTE DO TEMPO
Por de nição, a taxa η(r, t) exclui a probabilidade de falha no instante inicial, logo η(r, 0) = 0. Sendo assim, a
taxa η(r, t) é obtida como:
1 ∂pS (r, t)
η(r, t) = ¡
pS (r, t) ∂t
µ ¶
1 pS (r, t + ¢t) ¡ pS (r, t)
= ¡ lim
¢t!0 pS (r, t) ¢t
µ ¶
1 pf (r, t + ¢t) ¡ pf (r, t)
= lim . (6.48)
¢t!0 ¢t 1 ¡ pf (r, t)
Em palavras, escrevemos:
...o limite, com ¢t tendendo a zero, da probabilidade de ocorrência de uma sobrecarga em [t, t + ¢t],
dado que o processo tenha iniciado no domínio de segurança e não tenha ultrapassado o nível r antes
do instante t.
É facil perceber que esta interpretação é consequência direta da formulação do problema de falha à primeira
sobrecarga. A condição 1. imposta na Equação (6.49) é consequência direta da condição imposta na Equação
(6.5). A condição 2. é consequência do fato que, por de nição, a taxa η(r, t) deveria ser a taxa (condicional) de
chegada da primeira sobrecarga.
A primeira destas aproximações leva em conta, de maneira aproximada, a condição inicial fS(0) < rg.
Conforme Seção (B.3.1), o tempo de recorrência entre passagens de barreira sucessivas pode ser decomposto
em dois segmentos, Ta e Tb , que correspondem aos tempos que o processo passa acima e abaixo do nível r,
respectivamente (Figura B-4). Na aproximação de Poisson usual, assumimos que o tempo entre passagens
sucessivas (Ta + Tb ) segue uma distribuição exponencial, de forma que o tempo de recorrência médio é:
1
E[Tr (r)] = E[Ta (r) + Tb (r)] = ¢ (6.50)
υ + (r)
FS (r)
E[Tb (r)] = ¢ (6.51)
υ + (r)
Quando o nível da barreira é baixo, a condição fS(0) < rg faz com que o tempo até a primeira passagem
de barreira seja signi cativamente menor do que o tempo entre passagens sucessivas (Ta + Tb ). Como o tempo
até a primeira passagem de barreira é também um tempo em que o processo está abaixo do nível r, é melhor
aproximar este tempo por Tb e não por (Ta + Tb ). Expressões exatas para Tb são difíceis de determinar. Assumir
que o tempo Tb seja exponencialmente distribuído é conitante com a mesma suposição aplicada ao tempo
Ta + Tb , no entanto podemos fazer isto como aproximação. Com esta aproximação, a taxa η(r, t) ca:
1 υ + (r)
η(r, t) = = ¢ (6.52)
E[Tb (r)] FS (r)
Esta é uma melhoria em relação à aproximação de Poisson (Equação 6.8), que reete a condição inicial.
Observe que a Equação (6.52) tem grande efeito para r pequeno, mas nenhum efeito à medida que FS (r) ! 1
com r ! 1.
Para processos de banda estreita, as ultrapassagens de barreira tendem a ocorrer em bloco. Devido à
variação gradual do envelope de amplitude destes processos, uma ultrapassagem do nível r no instante t1 tem
grande chance de ser seguida por outra ultrapassagem um período adiante (Figura 6-12). Em consequência, a
aproximação de Poisson original se torna excessivamente conservadora.
Cada bloco de ultrapassagens do nível r pelo processo de banda estreita representa apenas uma ultrapassagem
deste nível pelo processo amplitude A(t) (que também é um processo estocástico). Sendo assim, a aproximação
de Poisson (Eq. 6.8) pode ser substituída por (Vanmarcke, 1975):
η(r, t) = υ +
A (r). (6.53)
sendo ζ o parâmetro espectral de nido na Equação (B.33). A Equação (6.53) pode ser ajustada para levar em
conta a condição inicial. Seguindo o raciocínio apresentado anteriormente, obtemos:
υ+
A (r)
η(r, t) = ¢ (6.54)
FA (r)
A Equação (6.54) é apropriada para processos com largura de banda pequena (α ! 1) e níveis baixos de
barreira. Para processos de banda larga e níveis elevados de barreira, no entanto, ultrapassagens de barreira
pelo envelope não correspondem, necessariamente, a ultrapassagens de barreira pelo processo original. Assim,
o número de ultrapassagens de barreira pelo processo amplitude torna-se maior do que o número atual de
ultrapassagens de barreira pelo processo S(t). Como a Equação (6.8) é apropriada para processos de banda
220 CONFIABILIDADE DEPENDENTE DO TEMPO
r, s
ultrapassagens em bloco
r (t ) r realização de R
s (t ) realização de S ( t ) t
Figura 6-12: Passagens de barreira em bloco, característica de processos estocásticos de banda estreita.
larga e níveis elevados de barreira, e a Equação (6.54) é apropriada para processos de banda estreita e níveis
baixos de barreira, é possível fazer uma interpolação entre estes dois resultados. Estimando o número de
ultrapassagens de barreira quali cadas do processo amplitude (isto é, passagens de barreira do envelope que são
realmente seguidas por pelo menos uma passagem de barreira pelo processo S(t)), Vanmarcke (1975) chega a
uma estimativa do número médio de ultrapassagem de barreira pelo processo S(t) a cada passagem de barreira
pelo processo amplitude, para um processo Gaussiano:
+ 1
E[Nqc (r)] = p ¢ (6.55)
1 ¡ exp(¡ζr 2π)
+ υ+ (r) 1
Para processos de banda estreita e níveis baixos de barreira, o produto ζr é pequeno e E[Nqc ]¼ υ+
= p
ζr 2π
¢
A (r)
+
Para processos de banda larga e níveis elevados de barreira, o produto ζr ! 1 e E[Nqc ] ! 1. Assumindo
que as passagens quali cadas de barreira seguem um processo de Poisson, a taxa de passagens quali cadas de
barreira ca:
1 p
η(r, t) = υ + (r) + = υ + (r)(1 ¡ exp(¡ζr 2π)). (6.56)
E[Nqc (r)]
A Equação (6.57), conhecida como correção de Vanmarcke à taxa de passagens por uma barreira, é válida
para processos Gaussianos contínuos de qualquer largura de banda, e não tem limitações em termos do nível da
barreira. Esta equação também pode ser escrita em termos de taxas de passagem de barreira:
υ+ (r)
+
1 ¡ exp[¡ υ+
A
(r) ]
η(r, t) = υ (r) υ+ (r)
¢ (6.58)
1¡ υ+ (0)
Exercício 7 Plotar a razão η(r)/υ + (r) em função de r, para um processo de banda larga e um de banda
6.6. PROBLEMAS MULTI-DIMENSIONAIS NAS AÇÕES 221
estreita. Considerar processo estocástico com distribuição normal-padrão: S(t) » N (µ, σ) = N (0, 1).
Considerar as seguintes funções de densidade espectral de potência:
Banda estreita (limitada): ωA = 2π ¡ 1, ωB = 2π + 1.
Banda larga (exponencial): λ = 1.
A solução de problemas de con abilidade multi-dimensionais nas ações começa com a determinação da taxa
de passagens para fora do domínio de segurança, ou simplesmente taxa de falhas, υ + (r, t). Esta pode ser
avaliada a partir de uma generalização do resultado de Rice (1944), Eq. (B.57), segundo Belyaev (1968). Para
um problema estacionário, temos:
Z
+
υ (r) = E[S_ n j S(t) = s]+ fS (s)ds
g(r)=0
Z Z 1
= s_ n fSS_ (s, s_ n ) ds_ n ds, (6.59)
g(r)=0 0
sendo E[S_ n j S(t) = s]+ fS (s) uma taxa de falhas local, normal à superfície de falha: S_ n = nt S.
_ Em teoria,
a taxa de falhas local pode ser avaliada conforme Seção B.3.2. No entanto, a integração multi-dimensional
sobre a superfície de falha (g(r) = 0) é uma di culdade adicional. Resultados analíticos existem apenas para
processos Gaussianos estacionários e para superfícies de falha de geometria simples (Ditlevsen, 1983; Hagen
& Tvedt, 1991; Hagen, 1992; Melchers & Beck, 2018). A solução se torna ainda mais complexa quando, não
necessariamente nesta ordem:
1. a superfície de falha não é dada de forma analítica, mas numérica (e.g., elementos nitos);
2. a superfície de falha é função de variáveis aleatórias que descrevem a resistência ou parâmetros do sistema;
222 CONFIABILIDADE DEPENDENTE DO TEMPO
Figura 6-13: Problema de con abilidade no espaço das ações, ações discretas.
Figura 6-14: Problema de con abilidade no espaço das ações, ações contínuas.
6.6. PROBLEMAS MULTI-DIMENSIONAIS NAS AÇÕES 223
Conforme o caso escalar, a probabilidade de falha condicional a uma realização R = r é obtida por uma
integração desta taxa no tempo (Eq. 6.20). Pelo teorema da probabilidade total, a probabilidade de falha
é obtida por uma integração multi-dimensional sobre as variáveis de resistência (Eq. 6.21). Juntando os
resultados, e negligenciando a probabilidade de falha inicial pf0 , obtemos a solução geral:
Z ( " Z ÃZ
tD ½Z 1 ¾ ! #)
pf (tD ) ' 1 ¡ exp ¡ s_ n fSS_ (s, s_ n )ds_ n ds dt fR (r)dr. (6.61)
R 0 g(r,t)=0 0
Esta solução corresponde à integrais encadeadas de (1) taxas de falha locais sobre (2) superfície de falha
condicional a r, (3) sobre o tempo e (4) sobre as variáveis de resistência. Com excessão de casos particulares
envolvendo processos Gaussianos e superfícies de falha de geometria simples, a solução da Eq. (6.61) é numérica.
Algumas destas soluções são apresentadas na sequência.
Seja ®(r) o vetor de cossenos diretores do ponto yS¤ encontrado. Um processo Gaussiano uni-dimensional
na direção ® é obtido fazendo V (t) = ®t YS (t). O índice de con abilidade é obtido como β(r) = ®t y¤S .
Considerando uma aproximação linear da superfície de falha, a taxa de falhas é aproximada como (veja Eq.
B.60): µ ¶
+ 1 σ V_ 1 β(r)2
υ (β(r)) ¼ exp ¡ . (6.63)
2π σ V 2 σ 2V
A técnica de integração rápida de probabilidades (Seção 6.2.4) pode ser utilizada para resolver a integral
sobre R. A técnica converte as duas integrais externas na Eq. (6.61) na solução de um problema aumentado,
resolvido via FORM:
¤
Determine: yR + que minimiza: k(yR , yn+1 )k
sujeito a: g(yS , yR , yn+1 ) = 0, (6.64)
224 CONFIABILIDADE DEPENDENTE DO TEMPO
sendo υ +
(vj®) uma taxa de falhas condicional, na direção ®. Esta é uma taxa local no espaço das ações, obtida
para uma razão xa entre as ações, determinada pela direção ®.
1
υ+
(r, t) = lim P [g(r, S, t) > 0 \ (g(r, S, t) + ¢tg(r,
_ S, t)) < 0]. (6.68)
¢t!0 ¢t
6.6. PROBLEMAS MULTI-DIMENSIONAIS NAS AÇÕES 225
A Eq. (6.69) representa a derivada em relação a t da probabilidade de falhas do sistema paralelo entre
colchetes. Esta derivada pode ser aproximada por diferenças nitas, substituindo ¢t por θ:
d
υ+
(r, t) = P [g(r,
_ S, t) < 0 \ (g(r, S, t) + θ g(r,
_ S, t)) < 0]jθ=0 , (6.70)
dθ
d
sendo dθ P [ ]jθ=0 uma medida de sensibilidade. Observe a semelhança entre esta expressão e a Eq. (B.68). A
Figura (6-15) ilustra os eventos constantes na Equação (6.70), em termos das variáveis aleatórias G(t) = g(r, S, t)
_
e G(t) = g(r,
_ S, t). A Equação (6.70) representa um problema de con abilidade independente do tempo,
envolvendo um sistema em paralelo, e pode ser resolvida a partir das seguintes equações de estado limite,
reescritas como g1 e g2 :
g1 (r, S, t) = g(r,
_ S, t),
g2 (r, S, t, θ) = g(r, S, t) + θ g(r,
_ S, t). (6.71)
A experiência do autor mostra que aproximações lineares, como os limites bi-modais estudados na Seção
4.3.1, não são su cientemente sensíveis à rotação da equação de estado limite g2 (θ). Bons resultados foram
obtidos pelo autor utilizando simulação com amostragem por importância.
Esta solução é genérica e de implementação prática. É válida para processos Gaussianos ou não, estacionários
e não-estacionários, e para variáveis de resistência que variam no tempo. Para problemas estacionários, apenas
uma avaliação da Eq. (B.68) é necessária; para problemas não-estacionários, a avaliação deve ser repetida
ao longo do tempo. As soluções são condicionais a uma realização R = r do vetor de variáveis aleatórias de
resistência.
A avaliação de taxa de falhas a partir da solução de um sistema em paralelo, aqui apresentada, foi empregada
por Hagen (1992) em problema escalar, e comparada com soluções asintóticas. Der Kiureghian & Li (1996)
empregaram esta solução em problema de vibrações aleatórias. Vijalapura et al. (2000) na análise de osciladores
histeréticos com parâmetros aleatórios. Der Kiureghian (2000) empregou esta solução para avaliar taxas de falha,
a partir de uma solução em que o processo de carregamento é discretizado em conjunto de variáveis aleatórias.
Em Beck (2008), a solução é empregada na avaliação da probabilidade de falha de pórtico plano sujeito a três
processos estocásticos de carregamento.
Figura 6-15: Avaliação da taxa de falhas em problemas multi-dimensionais, utilizando sistema em paralelo.
υ+ +
E (t) = ER [υ (r, t)]
d
= Pθ [g(R,
_ S, t) < 0 \ g(R, S, t) + θg(R,
_ S, t) < 0]jθ=0 . (6.72)
dθ
Esta é uma versão multi-dimensional da Eq. (6.31), na qual a integração sobre R ocorre de maneira
implícita, através da solução do problema envolvendo equações de estado limite em paralelo. De fato, o custo
computacional da solução da Eq. (6.72) é apenas marginalmente maior do que a solução da Eq. (6.70). No
entanto, conforme observado na Seção 6.2.5, o erro pode alcançar várias ordens de magnitude. As estimativas
de erro apresentadas em Beck (2003, 2008) e em Beck & Melchers (2004a) são estritamente válidas para o caso
escalar. Ainda assim, por hipótese, e em generalização aos resultados destas referências, a solução deve ser
apropriada quando envolver pequeno número de ciclos de carga, e/ou quando σR << σS . Em Beck & Melchers
(2005), a aproximação da taxa média, para a combinação de três processos Gaussianos, é comparada com outras
aproximações baseadas no carregamento, como a integração no tempo e a regra de Turkstra.
Esta equação di cilmente pode ser resolvida de forma analítica. No entanto, uma aproximação conservadora
pode ser obtida integrando por partes e ampliando os limites de integração, conforme segue:
Z 1 Z 1 Z 1
υ+
S (b) = υ +
pc (b) · s_ 1 fS1 S_ 1 (u, s_ 1 )fS2 S_ 2 (b ¡ u, s_ 2 )ds_ 1 ds_ 2 du
¡1 ¡1 0
Z 1Z 1 Z 1
+ s_ 2 fS1 S_ 1 (u, s_ 1 )fS2 S_ 2 (b ¡ u, s_ 2 )ds_ 2 ds_ 1 du. (6.74)
¡1 ¡1 0
sendo υ +
Si (b) a taxa de passagens do processo Si (t) pela barreira b. A função fSi (s) é a função de densidade
do processo Si (t) para um ponto arbitrário no tempo. A Equação (6.75) é conhecida na literatura como point-
crossing formula 3 .
Procedendo de maneira semelhante, podemos obter a taxa de passagens para a soma de 3 processos estocás-
ticos (Larrabee & Cornell, 1981):
Z 1 Z 1 Z 1
υ+
S (b) · υ +
S1 (u)f23 (b ¡ u)du + υ +
S2 (u)f13 (b ¡ u)du + υ+
S3 (u)f12 (b ¡ u)du, (6.76)
¡1 ¡1 ¡1
sendo: Z 1
fij (s) = fSi (u)fSj (s ¡ u)du
¡1
3 Entendemos ser irrelevante traduzir um nome especí co como este para o portugues.
228 CONFIABILIDADE DEPENDENTE DO TEMPO
para todos os processos i, j e para qualquer t. A Equação (6.77) expressa matematicamente a condição necessária
para que a variação em um processo não anule uma ultrapassagem de barreira decorrente de uma variação em
outro processo.
Quando os processos Si (t) são contínuos, as Equações (6.75 e 6.76) podem ser utilizadas como aproximação.
O erro máximo desta aproximação pode ser determinado a partir de uma combinação de processos Gaussianos.
Quando aplicada à soma de dois processos Gaussianos, com taxa de passagens pela barreira dada por (B.63), a
Equação (6.75) resulta:
· ¸
1 σS_ 1 + σ S_ 2 b ¡ µS
υ+
S (b) ·p φ ,
2π σS σS
sendo µS = µS1 + µS2 , σ 2S = σ2S1 + σ 2S2 , como pode ser facilmente veri cado. Comparando esta expressão
diretamente com a Equação (B.63), aplicada ao processo soma com µS , σS , obtemos a razão entre os dois
resultados como:
σ _ + σS_ 2
q S1 ¢ (6.78)
σ2S_ + σ 2S_
1 2
p
Esta expressão resulta em um erro máximo igual a 2 quando σS_ 1 = σS_ 2 . Para outras combinações de duas
p p
ações, o erro é em geral menor do que 2. Para uma combinação de três ações, o erro será menor
p do que 3.
Generalizando, para a combinacão de n ações, o erro máximo da point-crossing formula será n.
As Equações (6.75 e 6.76) podem ser extendidas para combinações de mais de três ações, para combinações
não-lineares e para combinações envolvendo processos não estacionários (Ditlevsen & Madsen, 1983).
Exercício 8 Para a soma de três processos Si (t) com distribuição normal padrão: Si (t) » N (0, 1), S(t) =
S1 (t) + S2 (t) + S3 (t), plotar, em função de r, a razão entre a taxa de passagens pela barreira, obtida a partir
da point-crossing formula (Eq. 6.76), e a taxa exata:
υ+pc (r)
+ .
υ exata (r)
υ+
i (b) = υ i qi (1 ¡ Fi (b))
= υ i qi pi (b), (6.79)
sendo:
6.7. COMBINAÇÃO DE AÇÕES 229
sendo S o vetor de carregamentos, e Si o vetor de carregamentos dada renovação (chegada de pulso) no car-
regamento i. Esta equação é difícil de avaliar na forma em que se apresenta. Uma aproximação desta expressão
para dois pulsos é dada por (Wen, 1977a):
υ+
S (b) ¼ λ1 p1 (b) + λ2 p2 (b) + λ12 p12 (b), (6.81)
sendo λi a taxa de ocorrência do i¡ésimo carregamento somente; λ12 a taxa de coincidência de dois pulsos; e
p12 (b) a probabilidade de exceder a barreira b, dada a coincidência de dois pulsos.
Ultrapassagens de barreira segundo a Equação (6.81) correspondem à: processos 1 e 2 atuando individual-
mente (1o e 2o termos) e ambos processos ativos (3o termo - coincidência de pulsos). A Equação (6.81) pode
ser generalizada para np processos (ações):
np np ¡1
np np ¡2 np ¡1 np
X X X X X X
υ+
S (b) ¼ λi pi (b) + λij pij (b) + λijk pijk (b) + .... (6.82)
i=1 i=1 j=i+1 i=1 j=i+1 k=j+1
A taxa λijk corresponde a coincidêndia de três pulsos. Obviamente, quanto mais esparsos os pulsos (υ i di !
0), menor é esta taxa, e menos termos no somatório (Eq. 6.82) precisam ser considerados.
A determinação da probabilidade de falha condicional pijk (b) envolve apenas variáveis aleatórias, e portanto
pode ser realizada através de métodos de con abilidade independente do tempo, como FORM, SORM ou SMC.
Portanto, a Equação (6.82) pode ser aplicada a problemas bastante complexos. Como a parcela desligada dos
processos está inclusa na taxa de chegada dos pulsos (termos υ i qi ), a determinação da probabilidade condicional
pijk (b) deve ser feita com base na distribuição original da variável clipada, i.e., a distribuição que caracteriza a
parte não nula da intensidade.
Para processos mutualmente independentes, as taxas λ são calculadas como:
Y
λi = υ i qi [pj ¡ υ j qj di ] ,
j6=i
Y
λij = υ i qi υ j qj (di + dj ) [pk ] ,
k6=j6=i
Y
λijk = υ i qi υ j qj υ k qk (di dj + di dk + dj dk ) [pl ] . (6.83)
l6=k6=j6=i
Quando os pulsos são de curta duração (di pequeno), o termo υ j qj di dentro do produtório na primeira linha
da Eq. (6.83) pode ser desconsiderado. Isto já foi feito na segunda e terceira linha, para simpli car as taxas λij
e λijk . Quando os pulsos são esparsos (υ i di ! 0), os termos dos produtórios tendem a 1 e, portanto, podem
230 CONFIABILIDADE DEPENDENTE DO TEMPO
ser ignorados.
A solução expressa na Equação (6.82) aproxima a solução da Eq. (6.80). Esta aproximação é particularmente
boa quando os processos são esparsos. Na prática, a Equação (6.82) forneçe ótimos resultados, mesmo quando
a fração ativa de cada processo é da ordem de 0, 2, para níveis razoavelmente altos da barreira (Larrabee &
Cornell, 1979).
Soluções para pulsos não-retangulares e para dependência entre pulsos são apresentadas por Wen (1977b,
1981, 1990). Soluções para processos dependentes são apresentadas em Wen (1981). Soluções envolvendo com-
binações de processos discretos com processos contínuos são discutidas por Pearce & Wen (1984) e Winterstein
& Cornell (1984).
A regra de Turstra pode ser derivada da combinação de processos de Borges (Turkstra & Madsen, 1980) ou
da point-crossing formula (Larrabee & Cornell, 1979). De maneira informal, a regra de Turkstra a rma que
o valor máximo do processo S(t) pode ser aproximado pela maior combinação entre o valor máximo de um
dos processos componentes (max[Si ]) e o valor de ponto arbitrário (arbitrary point-in-time) Sj (t) dos demais
processos componentes: 2 3
np
np X
max[S] ¼ max 4max[Si ] + Sj 5 . (6.85)
i=1
j=1,j6=i
A regra de Turkstra pode ser utilizada diretamente na solução de problemas de con abilidade envolvendo
mais de um carregamento estocástico. Um conjunto de problemas de con abilidade independente do tempo é
formulado considerando a distribuição de valores extremos de um dos processos, combinado com a distribuição
original (de ponto arbitrário) dos demais processos. Obtemos assim um total de np problemas de con abilidade
independente do tempo, que podem ser resolvidos por FORM ou SORM. Em cada um dos np problemas, a
distribuição de máximos de um dos processos componentes é considerada. As funções de estado limite para os
np problemas de con abilidade independente do tempo são:
0 1
np
X
gi (R, SEi ) = R(R) ¡ @(Si )tD + Sj A = 0, (6.86)
j=1,j6=i
sendo (Si )tD a variável aleatória valor extremo do processo componente i no intervalo [0, tD ] e Sj o valor de
ponto arbitrário do processo componente j. Na Eq. (6.86), SEi representa o vetor de ações aleatórias, cujo
componente i é a distribuição de extremos do processo i, e cujos demais componentes são as distribuições de
ponto arbitrário dos demais processos.
A probabilidade de falha nal é a maior dentre as np probabilidades de falha. A Equação (6.85) é não-
conservadora, de forma que esta solução forneçe um limite inferior da probabilidade de falha real do problema:
"Z #
np
pf (tD ) ¸ max fR (r)fSEi (s)drds . (6.87)
i=1 gi (R,SEi )·0
6.7. COMBINAÇÃO DE AÇÕES 231
Por outro lado, sabemos que a chance de os valores extremos de dois ou mais carregamentos coincidirem
no tempo é muito pequena. Ainda assim, um limite superior da probabilidade de falha pode ser calculado
considerando a coincidência dos extremos de todos os carregamentos:
Z
pf (tD ) << fR (r)fSE (s)drds.
gUB (R,SE )·0
sendo SE o vetor formado por todas as distribuições de valores extremos das ações.
As soluções apresentadas nesta seção assumem que a resistência não muda ao longo do tempo. A nal, a
aplicação da regra de Turkstra a problemas de con abilidade estrutural representa uma variante da técnica de
integração no tempo (Seção 6.3.1), para múltiplos carregamentos. Obviamente, a solução pode ser empregada
como aproximação quando existe degradação da resistência. Para obter uma aproximação conservadora, neste
caso, devemos considerar a resistência ao nal do período de vida útil, ou ao nal do bloco de carregamento,
conforme Seção (6.4).
A combinação de ações variáveis, nas normas técnicas de projeto, deriva diretamente da regra de Turkstra
aqui apresentada. Em geral, os valores nominais destas ações correspondem à moda das distribuições de extremos
das mesmas. Considerando a pequena probabilidade de coincidência dos extremos das ações no tempo, fatores
de combinação de ações são utilizados para reduzir o valor daquelas ações consideradas como secundárias na
combinação. Dada a semelhança entre os problemas de con abilidade aqui apresentados, e a combinação de
ações variáveis em normas, a regra de Turkstra é muito utilizada na calibração, baseada em con abilidade, dos
coe cientes parciais de segurança e dos coe cientes de combinação de ações, conforme Capítulo 7.
A solução exata deste problema pode ser determinada a partir dos momentos do processo soma, S(t), e das
Eqs. (6.21 e B.63). Os autores veri caram que a solução deste problema pela point-crossing formula e pela
regra de Turkstra também pode ser parametrizada em termos do parâmetro p de erro ep , da solução
p taxa média
(Eq. 6.33), desde que normalizada fazendo µ = (µR ¡ µS )/σ S = (µR ¡ 0)/ 3 e σ = σR /σ S = σR / 3. Para uma
soma de processos contínuos, as soluções point-crossing formula e regra de Turkstra são aproximações na parte
das ações, enquanto a solução da taxa média é uma aproximação por parte da resistência. Assim, quando estas
três soluções são parametrizadas em termos do mesmo termo ep , tendências distintas são observadas. Para ep
pequeno, a solução da taxa média é precisa, como comentado na Seção 6.2.5. Já o erro das aproximações point-
crossing formula e regra de Turkstra é maior. No outro lado do espectro, para ep grande, o erro de aproximação
da taxa média explode, enquanto o erro das soluções point-crossing formula e regra de Turkstra tende a zero.
Em termos gerais, esta tendência pode ser esperada para qualquer outra combinação de carregamentos (mais
de três termos, processos não-Gaussianos, outras funções de auto-correlação do processo, etc.).
Resultados especí cos foram obtidos por Beck & Melchers (2005) para a soma de três processos estocásticos
232 CONFIABILIDADE DEPENDENTE DO TEMPO
Gaussianos, com função de auto-correlação Markoviana de primeira ordem, com fator de regularidade α = 0, 4,
e para aproximadamente 260 passagens por zero ou 650 picos de carga. Para este número de picos de carga,
os autores veri caram que a solução da taxa média é mais precisa do que a regra de Turkstra para ep . 1, 1,
mas que o erro das duas aproximações é muito grande para 0, 25 . ep . 4. Para ep & 1, 1, coe cientes de
sensibilidade da solução via FORM utilizando a regra de Turkstra con rmam que o problema é dominado pela
barreira (veja Seção 6.2.5). A comparação de resultados também mostra que a solução da taxa média é mais
precisa
p que a solução point-crossing formula para ep . 0, 27, sendo que o erro máximo da point-crossing formula
( 3 para este problema) é obtido para ep ¼ 0, 22.
A forma como os erros acima mudam para outros números de picos de carga, ou para outras funções de auto-
correlação, processos não-Gaussianos, mais termos na soma, etc., ainda precisa ser investigada. Sabemos que os
erros da aproximação da taxa de falhas média sobre o envelope da resistência variam de forma acentuada com
o número de picos de carga (Beck, 2008), mas o efeito do número de picos de carga nas soluções point-crossing
formula e regra de Turkstra não é conhecido.
Capítulo 7
CONFIABILIDADE E AS NORMAS
DE PROJETO
7.1 INTRODUÇÃO
Normas técnicas de projeto estabelecem requisitos mínimos de segurança, e servem como base legal para a
prática da engenharia de estruturas. Normas técnicas buscam um equilíbrio delicado entre dois objetivos
conitantes: garantir a segurança dos usuários, e da sociedade em geral, e produzir estruturas e cientes, ou
economicamente competitivas. A solução deste conito torna-se mais difícil porque normas devem atender
a toda uma classe de estruturas, e não a uma estrutura em particular1 . Normas estabelecem o nível de risco
aceitável para a sociedade, em geral, mas também inuenciam na competitividade de um país ou região. Normas
excessivamente conservadoras desviam para a construção civil recursos que poderiam ser empregados em outras
áreas, em benefício da mesma sociedade. Em geral, o desenvolvimento das normas de projeto estrutural tem
sido satisfatório: falhas estruturais são raras. No entanto, quando as falhas ocorrem, as consequências são
desastrosas para os usuários, a exposição pública é enorme, e as consequências econômicas e legais são severas,
para o arquiteto, o engenheiro e o proprietário da obra (Ellingwood, 2000).
Para o leitor familiarizado com a teoria de Con abilidade Estrutural, a relação desta com os aspectos de
segurança de normas técnicas deve parecer óbvia e natural. No entanto, esta relação nem sempre existiu. Ao
longo de alguns séculos, a engenharia de estruturas evoluiu de um ofício para uma pro ssão. Durante a maior
parte desta evolução, a questão da segurança foi abordada de forma empírica, ou por processo de tentativa-
e-erro. O processo de aprendizado foi lento, e acompanhado de inúmeras falhas e desastres (Petroski, 1992;
2006; 2012). Cálculos formais da resistência de estruturas surgiram apenas ao nal do século 19, por meio
de Navier e Coulomb. A primeira norma técnica nacional contendo procedimentos objetivos de cálculo foi o
London Building Act de 1844. Já no nal do século 20, avanços importantes nos métodos de cálculo, bem como
a ampla disponibilidade de computadores e de ferramentas de análise numérica, permitiram avanços objetivos
nos procedimentos normativos.
Nas primeiras normas, ações variáveis de projeto eram determinadas com base no máximo valor histórico
observado. No entanto, os períodos de registro eram relativamente curtos, e logo se percebeu que os valores
históricos eram ultrapassados com frequência. O uso de estatísticas para analisar registros de vento, por exemplo,
surgiu apenas nos anos 1930 (Davenport, 1961). Em 1961 a ASCE sugere o uso de valores correspondentes
aos períodos médios de retorno de 50 e 100 anos, valores tidos como conservador e mais conservador,
respectivamente. Em 1972, a norma americana (NBS, 1972) passa a especi car o período médio de retorno de
50 anos como padrão para determinar o valor nominal da ação do vento no projeto de estruturas convencionais.
Mapas de risco para terremotos, com contornos correspondentes à ação com período médio de retorno de 475
anos (10% de probabilidade de ser excedida em 50 anos) surgem nos EUA apenas em 1976.
A teoria de Con abilidade Estrutural surge nos anos 1950-60, mas apenas em 1968-72 são feitos avanços
signi cativos. A Tabela 7.1 apresenta um paralelo histórico entre a evolução da Con abilidade Estrutural e das
normas técnicas de projeto de estruturas.
Normas técnicas anteriores a 1982 (e algumas atuais) utilizam o formato conhecido como tensões admissíveis,
em que a tensão última ou a tensão de escoamento do material é dividida por um coe ciente de segurança global
λG :
σESC
σADM = ¢
λG
A tensão de escoamento corresponde ao valor característico da resistência; ações nominais de projeto são
determinadas com base em período médio de retorno especí cado. Fora isto, um único coe ciente de segurança
λG cria a margem de segurança em projeto. Como veremos, este formato de coe ciente único não fornece
graus de liberdade su cientes para se produzir segurança uniforme, para o espectro de estruturas cobertos por
determinada norma.
Ao longo dos anos, o coe ciente de segurança global foi sendo ajustado, de forma a reetir avanços técnicos
e maior con ança nos procedimentos de cálculo. No projeto de elementos de aço sob tração, por exemplo, em
cem anos este coe ciente foi reduzido de aproximadamente 2, 5, em 1880, para 1, 7.
Com suporte nos desenvolvimentos em Con abilidade Estrutural, em 1978 surge a base técnica para o
que é hoje conhecido como formato dos estados limites, adotado nas principais normas de projeto atuais. A
principal característica deste formato é que um coe ciente parcial de segurança é utilizado para cada uma das
ações, e outro(s) é (são) utilizado(s) para a resistência do elemento, ou para cada material constituinte. Outra
característica notável é que estes coe cientes tem sido calibrados para atingir índices de con abilidade alvo,
de forma uniforme para o espectro de estruturas cobertos por determinada norma. Em paralelo, ocorreu a
formação de um consenso: de que uma única norma de ações deveria servir como norma mãe para as normas
dedicadas a materiais especí cos (concreto, aço, alvenaria, madeiras). As principais normas de estados limites,
e o processo de calibração com base em con abilidade estrutural, são discutidos neste capítulo. Tendências de
desenvolvimentos futuros também são discutidas.
rD ¸ sD .
LRFD (do inglês Load and Resistance Factor Design), em que a equação de projeto é dada de forma fatorizada:
nq
X
φR R(rk ) ¸ γ i Si (qni ). (7.1)
i=1
Nesta equação, R( ) é a função que determina a resistência do elemento estrutural, em função da resistência
característica do(s) material(ais) constituinte(s), φR < 1 é um fator de redução da resistência do elemento, Si ( )
são funções que convertem cada ação em seu efeito, qni é o valor nominal da ação i, γi > 1 é o fator parcial de
segurança na ação i, e nq é o número de ações a serem combinadas.
As normas americanas não trabalham diretamente com a Equação (7.1), mas com um conjunto pré-estabelecido
de combinações de ações, nas quais os coe cientes parciais γ i tem valores distintos. Assim, a solicitação de pro-
jeto é dada pelo maior valor dentre (ASCE/SEI 7-16:2005):
2 3
1, 4Dn
6 1, 2Dn + 1, 6Ln 7
6 7
6 1, 2Dn + 1, 6Sn + (0, 5Ln ou 0, 8Wn ) 7
sD = max 66 7, (7.2)
7
6 1, 2Dn + 1, 3Wn + 0, 5Ln 7
4 1, 2Dn + 1, 5En + (0, 5Ln ou 0, 2Sn ) 5
¡0, 9Dn + (1, 3Wn ou 1, 5En )
onde as letras D, L, S, W , E representam as ações permanente (Dead load ), (sobre-)carga de utilização (Live
load ), de neve (Snow load ), de vento (Wind load) e de terremoto (Earthquake load), respectivamente. Como se
percebe, a ação variável considerada principal na combinação tem coe ciente parcial γ > 1; a ação secundária
tem coe ciente parcial γ < 1. Isto é consequência da regra de Turkstra, discutida nas Seções 2.4.5 e 6.7. A
princípio, todos os coe cientes parciais na Equação (7.2) poderiam ser diferentes, o que resultaria em 17 graus
de liberdade no processo de calibração de normas. Isto é muito apropriado, pois permite atingir índice de
con abilidade alvo de forma mais homogênea, como veremos. Por outro lado, as normas americanas são mais
limitadas no que se refere aos materiais, já que um único coe ciente parcial φR reete a incerteza nas resistências,
mesmo para elementos estruturais compostos de mais de um material.
µ ¶ Ã nq !
rk1 rk2 X
R , , ... ¸S γ i qni . (7.3)
γ R1 γ R2 i=1
Nesta equação, R( ) é a função que determina a resistência do elemento estrutural, em função da resistência
característica do(s) material(ais) constituinte(s), γRi > 1 são fatores de redução da resistência para cada ma-
terial, S( ) é a função que converte uma combinação de ações em seu efeito, qni é o valor nominal da ação i,
γ i > 1 é o fator parcial de segurança na ação i, e nq é o número de ações a serem combinadas.
A Eq. (7.3) dá origem a várias combinações de ações, que precisam ser veri cadas em projeto. O termo de
combinação de ações, a direita, pode ser escrito em termos de ações permanentes (D), ação variável principal
(qnp ) e ações secundárias (qni ):
µ ¶ Ã nq
!
rk1 rk2 X
R , , ... ¸ S γD Dn + γ p qnp + γ i ψi qni , (7.4)
γ R1 γ R2 i=2
7.2. NORMAS DE ESTADOS LIMITES 237
sendo ψi o fator de combinação das ações secundárias, que reduz o valor nominal correspondente ao período de
retorno (50 anos) ao valor de ponto arbitrário da ação.
Para efeitos de comparação com as normas americanas, e considerando apenas as ações permanentes (D),
de utilização (L) e do vento (W ), a solicitação de projeto é dada por:
2 2 33
γ D Dn
6 6 γ D Dn + γ L Ln 77
6 6 77
sD = S 66 max 6 γ D Dn + γ W Wn
6
77 .
77 (7.5)
4 4 γ D Dn + γ L Ln + γ W ψW Wn 55
γ D Dn + γ L ψ L Ln + γ W Wn
Na prática, apenas as duas últimas equações precisam ser consideradas. O formato apresentado na Eq. (7.3)
é também o formato da norma NBR 8800:2008.
portanto, são onze graus de liberdade na calibração, contra apenas cinco (γ D , γ L , γ W , ψL , ψW ) no formato dos
EUROCODES. O estudo de Beck e Souza Jr. (2010) deixa claro que o formato americano permite menor
variabilidade, em relação ao índice de con abilidade alvo, no caso de estruturas feitas de um único material
(metálicas, no caso estudado).
β = β(φR , γ D , γ L , γ W , ψL , ψW , ...)
O problema de con abilidade dito direto consiste em encontrar o índice de con abilidade β de uma estrutura,
projetada por meio de determinado conjunto de coe cientes parciais φ, γ D , γ L , γ W , ..., conforme Exemplo 2 e
exercícios subsequentes (Capítulo 3, pg. 86). O problema inverso consiste em determinar os coe cientes parciais
de segurança que resultam no índice de con abilidade desejado, também chamado de índice de con abilidade
alvo (β T , do inglês Target). Esta é a base do chamado problema de calibração de normas (veja Seção 7.4).
Quando os coe cientes parciais de segurança são determinados com base na teoria de Con abilidade Estru-
tural, e na calibração para atingir índice de con abilidade alvo, o projeto utilizando as Eqs. (7.1) e (7.3) é dito
semi-probabilístico, ou método de nível 1 (veja Tabela 2.11, pg. 76). Os coe cientes parciais de determinada
equação de projeto (nível 1) são determinados a partir de técnicas de con abilidade de nível 2 ou 3. A calibração
com base em nível 2 (FOSM) tem valor apenas didático, uma vez que a maior parte das distribuições envolvidas
não é normal. A calibração com base em métodos de nível 3 (FORM ou SMC) tem a precisão necessária às
aplicações práticas.
Para efeitos de determinação dos coe cientes parciais de segurança, consideremos uma estrutura previamente
dimensionada, e com índice de con abilidade (β) conhecido. Uma vez dimensionada a estrutura, o ponto médio,
as distribuições de probabilidade e o ponto de projeto estão xos e de nidos. A equação de veri cação e os
coe cientes parciais correspondentes podem ser especi cados com base em qualquer ponto sobre a equação de
estado limite, pontos nos quais temos a igualdade entre a resistência e a solicitação. No entanto, é natural
que esta veri cação seja feita no ponto de projeto, ou pelo menos na vizinhança deste. Isto equivale a projetar
a estrutura na con guração limite de maior probabilidade de ocorrência, em concordância com a de nição do
ponto de projeto.
para i = 1, ..., n e sendo n o número de variáveis aleatórias do problema. Utilizando a Equação (3.14), esta
expressão ca:
aos valores característicos das variáveis de resistência e nominais das ações. Para esta análise, convém separar
o vetor X em variáveis de resistência e ações. Utilizando R para resistência e Q para as ações, temos:
Quando aplicados aos valores médios, os coe cientes parciais dão origem a toda a margem de segurança do
dimensionamento. Nesta situação, os coe cientes parciais são determinados a partir de:
φR = (1 ¡ αR β δ R ),
γQ = (1 ¡ αQ β δ Q ). (7.8)
Para variáveis de resistência, o coe ciente αR é positivo, o que resulta em um fator de redução de resistência
φR < 1. Para as ações, o coe ciente αQ é negativo, e portanto γ Q > 1, como esperado.
Nas normas de estados limites, os coe cientes parciais de segurança são aplicados aos valores característicos das
resistências (rk ), e aos valores nominais das ações (qn ):
Observe que as razões que aparecem nesta expressão são os fatores de tendência (bias), usualmente conhecidos
no processo de calibração (veja Tabelas 2.5, 2.6 e 3.1). As Eqs. (7.10) são úteis para uma veri cação rápida dos
fatores parciais, mas têm valor prático limitado, por serem baseadas em análise de segundo momento (FOSM).
Além disto, os cossenos diretores (αR , αQ ) variam bastante para diferentes con gurações estruturais, como pode
ser visto em Beck e Souza Jr. (2010) e Santiago et al. (2020).
Enunciado: Determinar as margens de segurança obtidas em relação às médias, para combinação de ações
D + L, assumindo distribuições normais.
240 CONFIABILIDADE E AS NORMAS DE PROJETO
Solução: Seja a equação de estado limite para combinação de ação permanente (D) e ação variável de
utilização (L), com X = fR, D, Lgt :
g(X) = R ¡ D ¡ L.
Assumindo distribuições normais para R, D e L, com a transformação para o espaço normal padrão, temos:
g(y) = y1 σR + µR ¡ y2 σD ¡ µD ¡ y3 σL ¡ µL .
β σ2
µR ¡ r¤ = αR βT σ R = p 2 T 2R ,
σR + σD + σ2L
β σ2
µD ¡ d¤ = αD β T σ D = ¡ p 2 T 2D ,
σR + σD + σ2L
β σ2
µL ¡ l¤ = αL β T σL = ¡ p 2 T 2L .
σR + σ D + σ 2L
Este resultado mostra que, para β T > 0, o ponto mais provável de falha ou ponto de projeto (r¤ , d¤ , l¤ ) é
tal que r¤ < µR , d¤ > µD e l¤ < µL . Observamos também que a margem de segurança correspondente
a β T é imposta na equação de veri cação através dos coe cientes parciais φR , γ D e γL e das respectivas
parcelas:
βT © 2 2 2 ªt
p σR , σD , σL .
σ2R + σ2D + σ2L
Exemplo 15 Projeto segundo norma (g), determinação de coe cientes parciais em nível 2 (FOSM).
Enunciado: Determinar fφR , γ D , γ L g para projeto de uma viga de aço sob exão uniforme (Exemplo 2,
pg. 86), com Ln /Dn = 1 e β T = 3 especi cados, assumindo distribuições normais.
Solução:
A equação de estado limite para o problema é g(X) = R ¡ D ¡ L. A partir da Eq. (7.11), e utilizando
os dados constantes na Tabela 3.1, pg. 86, temos:
t t
® = fαR ; αD ; αL g = f0, 847; ¡ 0, 206; ¡ 0, 490g .
Compare estes valores com os coe cientes parciais reportados na Tabela 3.1, lembrando que se trata apenas
de um exemplo, e um caso particular de viga em exão. Observe que o peso dado à variável R, para
aumentar o índice de con abilidade de 2,5 para 3,0, reete os coe cientes de sensibilidade encontrados no
Exemplo 3, pg. 91, Eq. (3.29).
Exercício 9 Projeto segundo norma (h), calibração: repita o Exemplo 15, considerando razão de ações
Ln /Dn = 5. Resposta: fφR , γD , γ L g = f0, 76; 1, 07; 1, 49g. Interpretação: o coe ciente γ L aumentou,
reetindo a maior participação da ação variável neste caso. Em consequência, φR diminuiu marginalmente,
reetindo a menor contribuição de R. Veja os coe cientes de sensibilidade obtidos no Exercício 4, pg. 92.
Para uma distribuição lognormal, típica de variáveis de resistência, temos da Eq. (A.42):
ou: µ ¶
µR
φR = exp[¡ αR β δ R ]. (7.13)
rk
Para uma distribuição Gumbel, típica de ações variáveis extremas, e usando a Eq. (A.118), temos:
ln[¡ ln(pi )]
x¤i = ¡ + un
β
p
sendo β = πσ ¡1 6/6 o fator de forma da distribuição de Gumbel. Particularizando para uma ação variável Q,
e lembrando que q ¤ = γ Q Qn , temos:
ln[¡ ln(pi )]
γ Q Qn = ¡ + un .
β
Se o valor nominal da ação variável for igual ao máximo característico da distribuição de extremos, Qn = un e:
ln[¡ ln(pi )]
γQ = ¡ + 1.
un β
p
Usando a Eq. (A.119) e manipulando, obtemos un β = πδ ¡1 6/6 ¡ γ, sendo γ a constante de Euler. Portanto,
lembrando que pi = ©(¡αQ β T ), temos:
Exemplo 16 Projeto segundo norma (i), determinação de coe cientes parciais em nível 3 (FORM).
Enunciado: Utilizando os fatores ® encontrados no Exemplo 15, determinar fφR , γ D , γ L g para projeto de
uma viga de aço sob exão uniforme, com Ln /Dn = 1 e β T = 3 especi cados, considerando distribuições
constantes na Tabela 3.1.
Solução: Apesar de se tratar de uma solução em nível 3 (FORM), observe que não temos os valores
corretos dos cossenos diretores ®. Portanto, podemos apenas melhorar a estimativa dos coe cientes parciais,
utilizando os fatores ® encontrados no Exemplo 15.
Utilizando ® = f0, 847; ¡ 0, 206; ¡ 0, 490gt e os valores da Tabela 3.1, obtemos:
µ ¶
µR
φR = exp[¡ αR β δ R ] = 1, 07 exp[¡0, 847 £ 3 £ 0, 13] = 0, 77;
rk
ln[¡ ln(©(¡αL β T ))] ln[¡ ln(©(¡0, 49 £ 3))]
γL = 1 ¡ ¡1
p =1¡ p = 1, 57.
πδ L 6/6 ¡ γ π4 6/6 ¡ γ
Observe que, mesmo utilizando valores ® aproximados em segundo momento, os coe cientes parciais
encontrados se aproximam daqueles utilizados na norma ASCE 7:2010, em comparação aos valores encon-
trados no Exemplo 15.
O valor γ D = 1, 11 não muda, pois a distribuição é Normal.
7.4. CALIBRAÇÃO DAS NORMAS DE ESTADOS LIMITES 243
Exercício 10 Projeto segundo norma (j), calibração: repita o Exemplo 16, considerando razão de ações
Ln /Dn = 5. Resposta: fφR , γ D , γL g = f0, 80; 1, 07; 1, 82g. Interpretação: o valor γL = 1, 82 passou
bastante do valor γ L = 1, 6 utilizado na norma ASCE 7, possívelmente porque esta norma foi calibrada
para razão Ln /Dn = 3.
As Equações (7.10) e (7.13) são apresentadas no Capítulo C2 da norma ASCE/SEI 7-10:2010 sobre combinação
de ações.
Para o escoamento de um elemento de aço em tração, a norma ASCE 7:2010 considera: αR = 0, 7; µR /Rk =
1, 06 e δ R = 0, 09; o que resulta em um fator parcial φR = 0, 88; ou γ R ¼ 1, 14, utilizando a Eq. (7.13).
Já para a ação variável de utilização, a norma ASCE/SEI 7-10:2010 considera: αL = 0, 8; µL /Ln = 1, 0 e
δ L = 0, 25; quando L é considerada como ação principal na combinação; αL = 0, 4; µL /Ln = 0, 3 e δ L = 0, 6;
quando L é considerada como ação secundária na combinação. Utilizando estes valores, e considerando uma
distribuição Normal, implícita na Eq. (7.10), os coe cientes parciais para ação variável são obtidos como
γ L = 1, 6; quando L é a ação principal; e γ L = 0, 52; quando L é a ação secundária na combinação. Estes
são praticamente os valores preconizados na norma ASCE/SEI 7-10:2010, nas combinações 1, 2D + 1, 6L e
1, 2D + 1, 0W + 0, 5L, quando L0 < 100 kN/m2 .
Como observado anteriormente, os fatores de participação fαR ; αD ; αL gt variam bastante para diferentes
con gurações estruturais, como ilustrado em Beck e Souza Jr. (2010) e Santiago et al. (2020). Portanto,
entendemos que os fatores informados na norma ASCE/SEI 7-10:2010 foram calculados após o procedimento
de calibração, e de forma a resultar nos coe cientes parciais encontrados na calibração. Uma evidência neste
sentido é a observação de que a soma dos cossenos diretores não é unitária, isto é, a soma α2R + α2D + α2L é
diferente da unidade. Tomando L como ação principal, por exemplo, temos: α2R + α2L = 0, 72 + 0, 82 = 1, 13 > 1;
restando nenhum espaço para a participação de α2D .
Utilizando os parâmetros da norma ASCE/SEI 7-10:2010 para L como ação principal, mas com a formulação
apresentada neste texto para a distribuição de Gumbel, Eq. (7.14), e impondo γL = 1.6, obtemos:
Resolvendo para αL , obtemos αL = 0, 51. Este valor está um pouco abaixo daquele observado nos exercícios de
calibração.
as normas brasileiras.
1. De nição do escopo da norma a ser calibrada, o que inclui de nir material construtivo (aço, concreto
armado, concreto protendido, alvenaria, madeira) e tipo de estrutura (prédios, pontes, torres), etc. Com
base no entendimento de que os coe cientes parciais das ações devem ser os mesmos para todos os materiais
construtivos, a calibração das normas de ações deve ocorrer primeiro, englobando os principais materiais.
2. Seleção dos pontos de calibração: toda norma de projeto se aplica a uma classe de estruturas; dentro
desta classe há variações individuais. Portanto, é necessário dividir os principais parâmetros de projeto em
conjuntos de pontos de veri cação. Como exemplo, temos razão entre vão e altura de vigas, razão entre
altura e profundidade de vigas, classes de tensão resistente dos materiais, comprimento de vãos, área de
lajes, taxa de armadura, etc.). Além disto, há que se considerar diferentes elementos estruturais cobertos
na mesma norma: vigas em exão, vigas em cisalhamento, elementos tracionados, pilares sob compressão
centrada e exo-compressão, lajes, etc. Nem sempre estes parâmetros tem inuência na equação de
projeto ou na con abilidade estrutural; portanto, familiaridade com o problema é fundamental. Um
parâmetro menos óbvio, mas que tem grande inuência na con abilidade, e portanto nos coe cientes
parciais de segurança, é a razão entre ações. No projeto de prédios, é importante considerar diferentes
razões entre os valores nominais de ações variáveis e o peso próprio, Ln /Dn e Wn /Dn . Razões maiores
correspondem à estruturas mais leves, ou seja, aquelas em que a participação do peso próprio é menor.
Prédios de concreto armado, por exemplo, apresentam valores típicos na faixa 0, 5 . Ln /Dn . 1, 5; já
prédios em aço apresentam 1 . Ln /Dn . 2. Pontos de calibração para razões entre ações são dados como
Ln /Dn = f1, 2, 3, ...g ou Wn /Dn = f1, 2, 3, ...g. Cada ponto de calibração corresponde a uma con guração
em que o elemento estrutural será projetado, e terá sua con abilidade avaliada.
3. Projeto dos elementos estruturais (correspondentes a cada ponto de calibração) segundo a norma a
ser aposentada. A con abilidade destes elementos servirá como base para determinar o nível de segurança
existente.
4. De nição das equações de estado limite para a análise de con abilidade. Estas equações correspon-
dem às equações normativas, mas devem ser o mais realistas possíveis, i.e., devem evitar as aproximações
conservadoras adotadas nas normas. Exemplos: equação de projeto é analítica, mas calibração é feita
considerando modelo numérico de maior precisão; norma em estudo permite análise linear, mas equação
de estado limite para análise de con abilidade é baseada em resposta não linear.
5. Determinação das propriedades estatísticas das variáveis aleatórias envolvidas. Estatísticas
para variáveis típicas em projeto de estruturas são apresentadas no Capítulo 2, Seções 2.3 e 2.4.
6. Análise de con abilidade em nível 3 (FORM ou SMC) dos elementos estruturais projetados segundo
norma a ser aposentada. Esta análise resulta no índice de con abilidade βijk , para cada um dos pontos
7.4. CALIBRAÇÃO DAS NORMAS DE ESTADOS LIMITES 245
de calibração identi cados no item 2. Estes índices representam a segurança proporcionada pelo projeto
segundo a norma a ser aposentada, e servem como referência para a determinação do índice de con -
abilidade alvo (βT ). Valores típicos obtidos na calibração da norma ANSI A58 podem ser consultados
em grá cos em Ellingwood et al. (1980). Na combinação D + L, por exemplo, Ellingwood et al. (1980)
obtiveram 2, 7 . β . 3 para estruturas de concreto armado, e 2, 5 . β . 3, 5 para estruturas de aço. Para
combinações envolvendo vento (D + L + W ), os autores encontraram 2, 2 . β . 3, 5 para estruturas de
aço. Nas estruturas de aço, os menores valores de β correspondiam às maiores razões de carregamento; o
que pode ser entendido como efeito da ausência de calibração da norma anterior, com formato de tensões
admissíveis. Ellingwood et al. (1980) obtiveram ainda 4 . β . 8 para estruturas de alvenaria e 2 . β . 3
para estruturas em madeira laminada. Importante observar que os índices de con abilidade encontrados
nesta etapa são, até certo ponto, dependentes das distribuições estatísticas adotadas na etapa 5. Este fato
não é crítico na calibração, uma vez que as mesmas distribuições estatísticas são utilizadas ao longo de
todo o processo.
7. Seleção do índice de con abilidade alvo (β T ). Os índices de con abilidade obtidos pelo projeto
segundo a norma a ser aposentada representam um espécie de consenso a respeito do nível de segurança
estrutural, consenso este atingido através de um processo gradual de otimização, ao longo dos anos, das
normas anteriores. Não tendo a mesma fundamentação probabilística das normas em processo de reno-
vação, é natural que as normas antigas revelassem uma variação signi cativa dos índices de con abilidade,
em relação ao alvo. No formato novo, buscamos reduzir esta variação através da especi cação de um βT .
De maneira a respeitar a experiência alcançada ao longo dos anos, é importante que β T seja escolhido de
forma a ser compatível com o nível de segurança da norma anterior. Uma maneira de fazer isto é escolher
β T como uma média ponderada dos índices de con abilidade obtidos na etapa 6. Alguma variação do
índice de con abilidade é admitida, em função de modo/consequência de falhas ou de material estrutural.
Na calibração da norma A58, por exemplo, foram adotados os valores β T = 3 para combinações D + L,
β T = 2, 5 para combinações D + L + W e βT = 1, 75 para combinações envolvendo terremotos. Estes val-
ores correspondem aproximadamente aos índices médios obtidos nas normas anteriores (Ellingwood et al.,
1980). Para combinação de ações envolvendo terremotos, o βT é menor do que nas demais combinações, o
que pode parecer estranho a primeira vista. Ocorre que, apesar das consequências de falhas por terremoto
serem severas, as forças envolvidas são muito grandes, de maneira que projetar estruturas com elevada
con abilidade contra terremotos se torna proibitivamente caro. O índice de con abilidade β T = 1, 75 re-
ete um balanço entre segurança e o custo de construção da estrutura. De fato, é neste balanço de custos
que se pode encontrar o β T mais econômico para cada situação, conforme Seção 8.2.3. Uma alternativa é a
escolha de índices de con abilidade alvo sugeridas pelo JCSS (2001) ou no EUROCODE (EN 1990:2002),
apresentadas na Seção 7.5.2.
8. Observação dos coe cientes de segurança parciais implícitos na norma antiga. Esta etapa
não é essencial, mas ajuda a determinar o formato das equações de veri cação da nova norma. Para
cada um dos pontos de calibração determinados anteriormente, reprojetamos as estruturas de maneira
a se atingir o índice de con abilidade alvo. Já no formato da nova norma, veri camos qual o valor dos
coe cientes parciais de segurança que resultariam na mesma estrutura, com o mesmo βT . O estudo de
Ellingwood et al. (1980) mostra que os coe cientes φR e γ D (redução de resistência e majoração do peso
próprio, respectivamente), são aproximadamente constantes para todas as razões de carregamento (Ln /Dn
e Wn /Dn ). O mesmo já não acontece com os coe cientes γ L e γW , o que implica que para atingir β T de
forma constante, os coe cientes γ L e γ W teriam que mudar com as razões de carregamento. Na prática
isto não é adequado, pois o projeto estrutural se tornaria um processo iterativo. Portanto, no processo
de calibração, buscamos coe cientes parciais que sejam constantes pelo menos para determinada classe de
estruturas e para várias razões entre ações. Estabelecer coe ciente parciais de segurança constantes, no
entanto, implica em que o β T não poderá ser atingido de maneira uniforme.
9. De nição dos coe cientes de segurança parciais da nova norma. A opção por coe cientes parciais
constantes faz com que o βT não possa ser atingido de maneira uniforme para todo o espectro de estruturas
pertencentes ao escopo de determinada norma. Ainda assim, buscamos um conjunto de coe cientes parciais
246 CONFIABILIDADE E AS NORMAS DE PROJETO
de segurança que minimize a diferença entre os βs individuais e o índice alvo βT . Esta última etapa do
processo é detalhada na sequência.
rD ¸ sD
µ ¶
fck fyk
R , , In , An , ... ¸ γ D Dn + γ L Ln + γ W ψW Wn , (7.15)
γc γs
¸ γ D Dn + γ L ψL Ln + γW Wn . (7.16)
Com estas preliminares, as equações de projeto podem ser divididas pela ação permanente nominal, ainda
desconhecida:
rD0 Ln Wn
¸ γD + γ L + γW ψ W
Dn Dn Dn
Ln Wn
¸ γ D + γ L ψL + γW ¢ (7.17)
Dn Dn
7.4. CALIBRAÇÃO DAS NORMAS DE ESTADOS LIMITES 247
O índice de con abilidade β ij será determinado para razões de carregamento pré-determinadas ( (Ln /Dn )i
e (Wn /Dn )j ). Logo, a única incógnita nas Eq. (7.17) é Dn :
rD0
(Dn )ij = ¢ (7.18)
γ D + min[γ L (Ln /Dn )i + γ W ψW (Wn /Dn )j , γ L ψL (Ln /Dn )i + γ W (Wn /Dn )j ]
(Ln )ij = (Dn )ij (Ln /Dn )i ; (Wn )ij = (Dn )ij (Wn /Dn ).
Conhecidos os valores nominais das ações, as funções de distribuição de probabilidades são reconstruídas,
a partir das estatísticas mostradas na Seção 2.4. Os valores característicos das resistências foram de nidos
inicialmente, e as distribuições de probabilidade são reconstruídas a partir dos modelos discutidos na Seção 2.3.
Neste ponto, estamos prontos para a avaliação da con abilidade.
As equações de estado limite do problema de calibração são equivalentes às Eqs. (7.15) e (7.16), com as
seguintes alterações: os valores característicos e nominais são substituídos pelas variáveis aleatórias correspon-
dentes, e os fatores parciais de segurança são todos unitários. Além disto, variáveis erro de modelo E são
incorporadas:
Eventualmente, uma única variável de erro de modelo é utilizada para a soma dos carregamentos. Note que
as equações de estado limite são sempre as mesmas; o que muda com as razões de carregamento são as variáveis
aleatórias, que são dimensionais, e devem ser recalculadas a cada ponto de calibração e a cada iteração.
Alternativamente, as equações podem ser escritas em termos de variáveis aleatórias normalizadas, multipli-
cadas pelos valores característicos ou nominais. Dividindo por Dn , as equações cam em termos das razões de
carregamento:
gL (X) = ER R(fck fc , fyk fy , I, A, ...)/Dn ¡ (ED D + EL L50 (Ln /Dn )i + EW W1 (Wn /Dn )j ),
gW (X) = ER R(fck fc , fyk fy , I, A, ...)/Dn ¡ (ED D + EL Lapt (Ln /Dn )i + EW W50 (Wn /Dn )j ). (7.20)
Nestas equações, as variáveis aleatórias são normalizadas, isto é, já são as variáveis adimensionais apresentadas
nas Seções 2.4 e 2.3. Como as ações variáveis foram convertidas em distribuições de extremos, através da Regra
de Turkstra, o problema é resolvido utilizando técnicas independentes do tempo como o FORM:
ÃZ !
β ijL = ¡©¡1 (pfijL ) = ¡©¡1 fX (x)dx ,
gL (X)·0
ÃZ !
¡1 ¡1
β ijW = ¡© (pfijW ) = ¡© fX (x)dx ,
gW (X)·0
Observe que os índices de con abilidade são função do valor inicial arbitrado para o vetor de coe cientes
parciais de segurança ª0 . Com estas preliminares, e dado ªk , para k = 0, o problema de calibração pode ser
posto como:
sendo D um conjunto de restrições laterais. A função objetivo visa minimizar, para todas as combinações de
carregamento, as variações entre βij e o índice de con abilidade alvo β T :
XX £ ¤2
f (ª) = wij β T ¡ β ij (ª)
i j
XX £ ¤2
= wij β T ¡ β ij (γc , γs , γD , γ L , γ W , ψ L , ψ W ) . (7.22)
i j
Na Eq. (7.22), wij é o peso correspondente a cada razão entre ações, que deve reetir a frequência relativa
de cada razão de carregamento na prática.
Nesta equação, a expressão mink [ ] implica no menor β em q equações de combinação (assumindo que q possa
ser maior que dois). Os valores ς f e ξ h indicam os pesos ou frequências relativas de cada material e de cada
tipologia. Os coe cientes parciais de resistência (γ f h ) também recebem índices, indicando que serão distintos
para cada material e, possivelmente, para cada tipologia. Em se tratando, hipoteticamente, da calibração dos
coe cientes de uma norma de ações, os coe cientes de resistência são mantidos constantes, isto é, não fazem
parte do vetor ª. No entanto, um valor numérico precisa ser arbitrado; por exemplo, o valor sugerido em norma
de material não-calibrada.
Idealmente, o procedimento de calibração deve ser realizado considerando simultaneamente a norma de ações
e as principais normas de materiais. Neste caso, os coe cientes γ fh ótimos são determinados simultaneamente
com os coe cientes parciais das ações.
7.4. CALIBRAÇÃO DAS NORMAS DE ESTADOS LIMITES 249
As combinações dos parâmetros acima correspondem a 13867 con gurações, ou pontos de calibração, para
elementos de concreto, e 17640 con gurações para elementos de aço.
A calibração em Santiago et al. (2020) foi realizada para βT = 3, 0; e em Costa et al. (2022) para βT = 3, 17.
Em ambos os casos, o valor de β T corresponde ao valor médio dos índices de con abilidade obtidos antes da
calibração, isto é, utilizando os fatores parciais da norma NBR6118. Na sequência são reportados apenas os
resultados de Costa et al. (2022), mais atualizados.
As Figuras (7-1) e (7-2) ilustram os resultados obtidos para os elementos de aço e de concreto, respecti-
vamente. Resultados são ilustrados em função da razão entre ação variável de utilização e ação permanente
(Ln /Dn ); logo, a dispersão de índices de con abilidade (β) observada nas guras corresponde às variações dos
demais parâmetros, inclusive das razões Wn /Dn . O principal resultado do processo de calibração, que pode
ser observado nas Figuras (7-1) e (7-2), é a redução na dispersão dos índices de con abilidade obtidos para as
250 CONFIABILIDADE E AS NORMAS DE PROJETO
Figura 7-1: Calibração dos coe cientes parciais da NBR8800, resultados de Santiago et al. (2020) atualizados
com os modelos de ação de utilização de Costa et al. (2022).
diferentes con gurações de projeto. O conjunto de coe cientes parciais resultantes da calibração produz índices
de con abilidade mais uniformes, para as diferentes condições de projeto, mas mantendo o mesmo nível de
con abilidade médio (alvo) resultante dos coe cientes de norma.
Os coe cientes parciais de segurança recomendados nas normas ABNT NBR8800 (2008) e ABNT NBR6118
(2014), bem como aqueles resultantes da calibração para βT = 3, 17, são apresentados na Tabela 7.2. A tabela
apresenta valores arredondados, em relação aos encontrados em Costa et al. (2022), de forma que os coe cientes
parciais das ações sejam os mesmos (e que poderiam estar de nidos na NBR 8681). Em ambos os casos (aço
e concreto), observamos que a maior uniformidade dos índices de con abilidade, ilustrada nas Figuras (7-1) e
(7-2), é obtida ao diminuir o coe ciente parcial da ação permanente (γ D , de 1,4 para 1,2); aumentar o coe ciente
parcial da ação do vento, quando ação principal (γ W , de 1,4 para 1,5), diminuindo os fatores de combinação
das ações secundárias (produtos γ £ ψ). No caso da NBR 6118, ainda é sugerido aumentar o valor de γ L , de 1,4
para 1,5. Para ambas as normas, no caso de ações variáveis nulas (Ln = Wn = 0), os autores sugerem manter
γ D = 1, 4 (Costa et al. 2022).
Tabela 7.2: Coe cientes parciais da NBR8800 e NBR6118 e calibrados (Costa et al. 2022).
Coe ciente parcial NBR 8800 NBR 6118 Calibrado para β T = 3, 17
γc - 1,4 1,40
γs - 1,15 1,15
γ a1 1,10 - 1,10
γ a2 1,35 - 1,40
γD 1,40 1,40 1,20
γL 1,50 1,40 1,50
γW 1,40 1,40 1,50
ψL 0,5/0,7/0,8 0,5/0,7/0,8 0,45
ψW 0,60 0,60 0,35
γ L £ ψ L 0,75/1,05/1,2 0,7/0,98/1,12 0,68
γ W £ ψW 0,84 0,84 0,53
7.5. NORMAS DE PROJETO PROBABILÍSTICAS E ÍNDICES DE CONFIABILIDADE ALVO 251
Figura 7-2: Calibração dos coe cientes parciais da NBR6118, resultados de Santiago et al. (2020) atualizados
com os modelos de ação de utilização de Costa et al. (2022).
1. International Council for Research and Innovation in Building and Construction, com suporte das Nações
Unidas;
2. The European Convention for Constructional Steelwork;
3. The International Federation for Structural Concrete ( b);
252 CONFIABILIDADE E AS NORMAS DE PROJETO
Este grupo de trabalho, chamado de Joint Committee on Structural Safety, publicou em 2001 um documento
intitulado Probabilistic Model Code (JCSS, 2001), em tradução livre: norma probabilística modelo. Esta norma
modelo tem como objetivo principal servir como referência para a formulação (ou revisão) de normas técnicas
de projeto estrutural, com embasamento na teoria de con abilidade estrutural. Além disto, se coloca como
referência para a eventual criação de uma norma de projeto estrutural totalmente probabilística: ao invés de
especi car coe cientes parciais de segurança, a norma probabilística especi caria apenas índices de con abilidade
a serem respeitados. O procedimento de projeto envolveria análises de con abilidade estrutural de forma
explícita. Iniciativas neste sentido tem ocorrido. A norma voluntária ISO 2394 (1998), por exemplo, já estabelece
a equivalência entre o projeto por normas de estados limites e o projeto probabilístico. Em países que aderiram
a esta norma, já é possível realizar projetos estruturais com base em análises de con abilidade. Ao invés de
respeitar fatores parciais de segurança, estes projetos devem demonstrar aderência aos índices de con abilidade
mínimos.
Assim como normas convencionais, normas probabilísticas tem como proposta resolver arbitrariedades que
podem resultar em discrepâncias de projeto. Um elemento fundamental, neste sentido, é remover arbitrariedades
na de nição dos coe cientes de variação, e nas distribuições de probabilidade das principais variáveis aleatórias
envolvidas. O documento do JCSS avança neste sentido, criando uma biblioteca de referência para resistência
de materiais e elementos estruturais, incertezas geométricas, modelos de ações, distribuições de ações, erros de
modelo, etc. Alguns destes dados e modelos foram apresentados e discutidos no Capítulo 2.
A Tabela 7.3 mostra os índices de con abilidade alvo (βT ) sugeridos pelo JCSS (2001), para estados limites
últimos, e período de referência de um ano, em função das classes de con abilidade e das consequências de falha.
A Tabela 7.4 mostra as probabilidades de falha correspondentes. O valor de referência para estruturas típicas
é o valor central (βT = 4, 2). Assumindo independência entre as probabilidades de falha anuais, os índices de
con abilidade correspondentes à vida de 50 anos (β T 50 ) são obtidos como:
£ ¤
β T 50 = ©¡1 (1 ¡ ©[¡β T 1 ])50 ,
sendo£ β T 1 o ¤índice de con abilidade alvo anual. O valor de referência para estruturas típicas é β T 50 =
©¡1 ©[4, 2]50 = 3, 2. Este valor é um pouco maior do que os valores utilizados na calibração das normas
norte-americanas.
Tabela 7.3: Índices de con abilidade alvo para estados limites últimos, referência um ano (JCSS, 2001; EN
1990:2002).
Consequências de falha
Custo relativo da mínimas moderadas elevadas
medida de segurança ρ.2 2.ρ.5 5 . ρ . 10
Alta (A) 3,1 3,3 3,7
Normal (B) 3,7 4,2 4,4
Pequena (C) 4,2 4,4 4,7
Tabela 7.4: Probabilidades de falha correspondentes aos índices de con abilidade alvo, referência um ano (JCSS,
2001; EN 1990:2002).
Custo relativo da Consequências de falha
medida de segurança mínimas moderadas elevadas
Alta (A) 10¡3 5 £ 10¡4 1 £ 10¡4
¡4 ¡5
Normal (B) 10 1 £ 10 5 £ 10¡5
¡5 ¡6
Pequena (C) 10 5 £ 10 1 £ 10¡6
Os atuais EUROCODES também recomendam índices de con abilidade alvo, em carácter informativo (EN
1990:2002, Anexos B e C), mas sem distinção em relação aos custos relativos de medidas de segurança. Os
EUROCODES trabalham com três classes de consequências de falha, consequências mínimas (CC1), conse-
quências moderadas (CC2) e consequências elevadas (CC3), equivalentes as classes do JCSS, mas sem referência
às razões de custo (ρ). As classes de consequência são associadas a três classes de con abilidade: RC1, RC2 e
RC3, respectivamente. Os índices de con abilidade mínimos sugeridos, para estados limites últimos e período
de um ano, são: β T = 4, 2 (RC1), β T = 4, 7 (RC2), e β T = 5, 2 (RC3). De alguma forma, estes valores são
derivados do estudos do JCSS; no entanto, observamos que os valores são signi cativamente maiores do que
aqueles recomendados pelo JCSS (Tabela 7.3). Os índices de con abilidade correspondentes à vida de 50 anos
são: β T = 3, 3 (RC1), βT = 3, 8 (RC2), e βT = 4, 3 (RC3).
Índices de con abilidade alvo para estados limites de serviço irreversíveis também são apresentados pelo
JCSS (2001) e EUROCODES (EN 1990:2002). Os valores coicidem, e estão apresentados na Tabela 7.5.
254 CONFIABILIDADE E AS NORMAS DE PROJETO
Tabela 7.5: Índices de con abilidade alvo para estado limite de serviço irreversível (JCSS, 2001; EN 1990, 2001).
O mesmo documento divide os níveis de desempenho em quatro faixas, em termos do dano a componentes
estruturais e não-estruturais e em termos das consequências aos ocupantes e à funcionalidade da estrutura:
totalmente operacional ; operacional ; ameaça a vida e prevenção ao colapso. Como se observa na Figura 7-3,
a partir dos quatro níveis de ameaça sísmica e das quatro faixas de desempenho é construída uma matriz de
riscos, a partir da qual são de nidos os alvos de desempenho.
A formulação PBE visa endereçar duas grandes limitações das normas de projeto (de estados limites) atuais:
2 y Nocontexto da engenharia estrutural Brasileira, a palavra desempenho cou associada à norma de desempenho NBR
15575:2013. Neste texto, utilizamos o sentido mais amplo, equivalente ao inglês performance.
7.6. PROJETO BASEADO EM DESEMPENHO 255
2. Consideração de apenas dois níveis de desempenho; típicamente, estados limites de serviço e último (de
colapso).
Típicamente, as normas de projeto atuais, excluindo-se a ASCE7-16, consideram dois níveis para as ações
de utilização (de ponto arbitrário no tempo e máxima de 50 anos), dois níveis para as ações do vento (máximo
anual e extremo de 50 anos), e um nível para ações sísmicas (correspondente ao período de retorno de 475 anos).
Estas ações de projeto são combinadas utilizando a regra de Turkstra, como vimos na Seção 7.4. No entanto, as
ações estruturais variáveis são processos estocásticos que podem assumir in nitos valores, com probabilidades
de ocorrência que diminuem à medida que aumenta a intensidade.
Por outro lado, os estados limites de serviço e de colapso correspondem a apenas dois pontos na curva
força £ deslocamento de uma estrutura ou elemento estrutural. A Figura 7-4 mostra que muita coisa pode
acontecer entre os estados limites de serviço (estrutura perfeitamente funcional) e de colapso (ruína completa).
Em particular, existe ganho de resistência após o limite elástico, e potencial para grandes deformações plásticas
antes do colapso total. Diferentes nomes são utilizados para de nir níveis de desempenho intermediários.
Segundo Ghobarah (2001), na região chamada de ameaça a vida a resposta da estrutura é dominada pela
capacidade plástica pós-escoamento, com aumento da resistência. Na região chamada de prevenção ao colapso,
a resposta é dominada pela ductilidade, extremamente relevante na redistribuição de esforços na estrutura, e
na possibilidade de evacuação da mesma. A estes diferentes níveis de resposta podemos associar custos de falha
distintos, tornando mais completo o escopo do projeto de estruturas.
O conceito de engenharia baseada em desempenho endereça as questões acima, em uma abordagem menos
prescritiva do que das normas técnicas atuais. Alternativas de projeto são avaliadas de forma quantitativa,
mediante objetivos bem de nidos de desempenho, e considerando explicitamente as incertezas envolvidas em
todas as etapas, como veremos.
O desenvolvimento de formulações de projeto baseadas em desempenho teve como ponto de referência os
enormes prejuízos materiais decorrentes de dois grandes terremotos ocorridos nos anos 90 (nominalmente, North-
ridge 1994 na Califórnia e Kobe 1995, no Japão). Juntos, estes dois eventos provocaram cerca de 5500 mortes,
e um prejuízo total estimado em 120 bilhões de dólares, além de desabrigar 20 mil e 300 mil pessoas, respecti-
vamente (USGS, 2014). As estruturas submetidas à ação sísmica apresentaram boa resposta com relação aos
256 CONFIABILIDADE E AS NORMAS DE PROJETO
Figura 7-4: Curva de desempenho força x deslocamento de sistema estrutural, segundo Ghobarah (2001).
modos de falha últimos (pequeno número de colapsos), mas os danos estruturais foram extensos, levando a
enormes custos de reparação e de paralização de atividades. Em particular na Califórnia observou-se um grande
número de rupturas frágeis de ligações entre vigas e colunas. Como resultado, a comunidade de engenharia
de estruturas passou a trabalhar em um novo conceito de projeto estrutural, que incorporasse outros níveis de
desempenho, além dos estados limites de serviço e últimos, e que fosse baseado em uma quanti cação probabilís-
tica mais completa das variáveis envolvidas. Este conceito foi se materializando nos anos subsequentes, e hoje
é conhecido como Performance Based Engineering (PBE), ou engenharia baseada em desempenho (Augusti &
Ciampoli, 2008).
Os conceitos e formulações foram inicialmente desenvolvidos na área de sismos, com trabalhos pioneiros
realizado por pesquisadores do Paci c Earthquake Engineering Research Center (PEER). Na área sísmica, fala-
se em Performance-based Earthquake Engineering ou PBEE (SEAOC, 1995 ; ATC 40, 1996; FEMA 273 e 274,
1996; FEMA, 2000, Ghobarah, 2001). No entanto, o conceito se difundiu, e hoje em dia é aplicado na engenharia
de vento (Performance-based Wind Engineering ou PBWE, Ciampoli et al., 2011; Barbato et al., 2013; Beck
et al., 2014; Tessari et al., 2017) e na engenharia de incêndios (Baker et al. 2013; Lange et al. 2014). Na
engenharia sísmica, encontramos especializações para o problema de choque entre prédios (pounding), conforme
Tubaldi et al. (2012) e Bi & Hao (2013). Aplicações são inúmeras, conforme citado na sequencia do capítulo.
A metodologia PBEE para sismos já está incorporada nas normas da ASCE há alguns anos. A metodologia
PBWE foi incorporada a partir da edição de 2010 (ASCE/SEI 7-10:2010).
A metodologia de projeto PBEE foi sistematizada em um documento da Federal Emergency Management
Agency (FEMA, 2012), chamado de FEMA P-58: Seismic Performance Assessment of Buildings. A versão
atual da metodologia pode ser encontrada em (FEMA, 2018a). Um histórico da incorporação do conceito à
prática de projeto é apresentado no Capítulo 1 (Introdução) do documento (FEMA, 2018b). Uma recomendação
prática de projeto, que está diretamente ligada aos danos observados no terremoto de Northridge CA (1994), é
a recomendação de produzir uma zona fraca nas vigas, tipo fusível, para que em caso de terremoto extremo, a
falha ocorra de forma dúctil, por formação de rótula plástica nas vigas, ao invés de rótula plástica nas colunas,
ou ruptura frágil das conexões (FEMA, 2000a).
Os níveis de desempenho considerados nos documentos FEMA (2018) são quatro: operacional (operational),
ocupação imediata (immediate occupancy), ameaça a vida (life safety) e prevensão ao colapso (collapse preven-
tion). O nível de desempenho ocupação imediata corresponde a um nível de dano desprezível ou limitado
a elementos não-estruturais, tal que uma inspeção completa da estrutura não se faz necessária, e a ocupação
7.6. PROJETO BASEADO EM DESEMPENHO 257
da mesma pode ser resumida logo após o evento (sismo). Os mecanismos resistentes verticais e horizontais da
estrutura mantém os mesmos níveis de resistência e rigidez anteriores à ocorrência do abalo sísmico. O nível
de desempenho prevenção ao colapso corresponde a um estado pós-sismo tal que a estrutura está prestes a
experimentar colapso parcial ou total. Dano substancial ocorreu, reduzindo tanto a rigidez como a resistência
dos mecanismos horizontais, produzindo deformações horizontais permanentes e com redução, em menor escala,
da capacidade de carga vertical. No entanto, os mecanismos resistentes verticais devem ser capazes de resistir
às forças gravitacionais. Não há viabilidade técnica nem econômica de reparar a estrutura, e esta não é segura
para ser re-ocupada. Atividade sísmica secundária (aftershocks) podem levar ao colapso total.
A aplicação da metodologia PBEE à estruturas de aço é descrita em FEMA (2000). A aplicação à estruturas
de concreto armado pode ser encontrada em (Haselton et al., 2008; Haselton & Deierlein, 2008; Tabandeh &
Gardoni, 2014; Goulet et al., 2006). Avaliações do desempenho esperado de estruturas projetadas seguindo
as guidelines de PBEE são apresentadas e discutidas em (FEMA, 2018b; Cook et al., 2021). Aplicação da
formulação PBEE para projetar estruturas considerando métricas de sustentabilidade e resiliência é endereçada
em (Mosalam et al., 2018). Software para análise de desempenho de estruturas individuais e de portfolios
também já existem (Haselton Baker Risk Group, 2020).
A interação entre os elementos e variáveis de PBWE está ilustrada na Figura 7-6. A dependência entre os
elementos de análise listados acima pode ser expressa na integral múltipla:
Z Z ZZ
λ(dv, d) = F (dvjdm)f (dmjedp) f(edpjim, sp, ip) f (ipjsp, im) f (sp) h(im)...
...ddm dedp dip dsp dim (7.24)
sendo λ(dv, d) a frequencia anual de ocorrência de eventos fDV = dvg, dado d; F (dvjdm) uma função cumula-
tiva associada às variável de decisão DV; f ( ) uma função de densidade de probabilidades; h(im) = jdH/d imj
uma derivada da função de ameaça, H(im) = P [IM > im]. A função h(im) representa a taxa anual de ocor-
rência de eventos com intensidade im. A integral múltipla representa a intenção de incluir na análise, e na
decisão de projeto, todas as incertezas associadas às variáveis de decisão (DV), de medida de dano (DM), de
resposta estrutural (EDP), de parâmetros de interação (IP), de parâmetros estruturais (SP) e de medidas de
intensidade (IM). A princípio, todos os termos à direita da igualdade podem depender das variáveis de projeto
d. As distribuições condicionais que aparecem na Eq. (7.24) indicam:
F (dvjdm): as perdas dependem do nível de dano;
f(dmjedp): o nível de dano depende da resposta da estrutura;
f(edpjim, sp, ip): a resposta da estrutura depende da intensidade da ação, dos parâmetros estruturais e dos
parâmetros de interação;
f(ipjsp, im): os parâmetros de interação dependem dos parâmetros estruturais e da medida de intensidade
da ação.
As incertezas nas variáveis de decisão, de dano, nos parâmetros estruturais e de interação, e na medida
de intensidade das ações são assumidas como independentes entre si, e em relação aos demais parâmetros.
Esta é uma das maiores conveniências da formulação, pois permite que diferentes grupos de pesquisadores
desenvolvam as diferentes partes da formulação de forma independente. Na literatura, é comum encontrar
abordagens endereçando apenas alguns termos da Eq. (7.24), com veremos.
260 CONFIABILIDADE E AS NORMAS DE PROJETO
A formulação para sismos (PBEE) é muito semelhante à apresentada nesta seção para ventos (PBWE), a
única diferença sendo a inexistência dos parâmetros de interação.
Curvas de fragilidade em termos de parâmetros de engenharia (EDP) são muito estudadas na literatura, com
inúmeras referências, para estruturas de aço, de concreto armado, de alvenaria e de madeira. Um pequeno
exemplo endereçando estruturas de concreto armado: Celik & Ellingwood (2010), Yazdi et al. (2016), Zentner
et al. (2017). As curvas de fragilidade dependem muito das normas técnicas e das técnicas construtivas locais,
variando de uma região geográ ca para outra. Curvas de fragilidade para construções da América Latina são
desenvolvidas por Villar-Vega et al. (2017). Já Pereira et al. (2022) estudam curvas de fragilidade para prédios
típicos de concreto armado da região de Natal, RN, Brasil. Estes prédios não são projetados considerando ação
sísmica, uma vez que a atividade sísmica é baixa, ainda que seja uma das regiões brasileiras com maior atividade
sísmica.
Curvas de fragilidade podem ser obtidas considerando-se valores médios para as propriedades do sistema,
como massa, amortecimento, curva tensão-deformação, capacidade de deformação plástica, etc. No entanto,
é aplamente conhecido que a resposta não-linear de componentes estruturais apresenta níveis de incerteza
maiores do que a resposta linear. Estas incertezas, chamadas de incertezas de sistema (ou incertezas nos
parâmetros estruturais, SP), tem contribuição importante nas curvas de fragilidade, conforme demostrado em
inúmeros trabalhos (Der Kiureghian, 2005; Goulet et al., 2006; Liel et al., 2009; Celarec & Dolek, 2013; Celik
& Ellingwood 2010; Vamvatsikos & Fragiadakis, 2010; Jalayer et al., 2010; Jalayer & Ebrahimian, 2020; Beck
et al., 2022). A consideração das incertezas de sistema na formulação PBE deve levar em conta a formulação
dos problemas de con abilidade dependente do tempo, como veremos na próxima seção.
onde λLS é a taxa de falhas anual, correspondente a cada estado limite; e EDP C é a capacidade resistente da
estrutura, expressa em termos do parâmetro de demanda estrutural. Na Eq. (7.25), o termo entre colchetes
é a capacidade resistente, ou curva de fragilidade, para cada estado limite, expressa em termos da medida de
intensidade da ação (IM C ). Assim, a Eq. (7.25) também pode ser escrita como:
Z
λLS = F (IM C jim)h(im)dim (7.26)
A princípio, a taxa de falhas anual λLS pode ser integrada no tempo, para se obter a probabilidade de falhas
em uma vida de projeto tD :
pf (tD ) = 1 ¡ exp[¡λLS ¢ tD ] (7.27)
No entanto, para que a Eq. (7.27) seja válida, a taxa de falhas não deve incluir variáveis ditas não-ergódicas,
ou seja: variáveis que não variam de forma independente entre uma e outra realização da ação. Variáveis não-
ergódicas incluem as incertezas nos parâmetros estruturais (SP) e nos parâmetros de interação (IP). Como vimos
na Seção 6.2.5, pg. 203, a inclusão destas variáveis ofende a hipótese de independência implícita no modelo
de Poisson. Beck et al. (2022) mostram como variáveis não-ergódicas podem ser incorporadas à solução, sem
ofender o modelo de Poisson. A solução envolve decompor as curvas de fragilidade em um produto de variáveis
log-normais, de forma que a integral sobre a incertezas nos parâmetros estruturais (SP) e nos parâmetros de
interação (IP) possa ser realizada segundo a Eq. (6.21).
A Figura 7-7 ilustra curvas de fragilidade obtidas por Miguel et al. (2022) para os estados limites de serviço,
dano e colapso de torres metálicas de linhas de transmissão, submetidas à ação de terremotos (análise tipo
262 CONFIABILIDADE E AS NORMAS DE PROJETO
Figura 7-7: Curvas de fragilidade para três estados limites, torres metálicas de linhas de transmissão submetidas
à ação de terremotos, baseado em Miguel et al. (2022).
IDA). Os pontos indicados na gura correspondem aos resultados obtidos na análise numérica, para diferentes
realizações da ação sísmica. As curvas contínuas correspondem a um ajuste utilizando funções de probabilidade
lognormais. O uso de funções lognormais para representar curvas de fragilidade é muito comum no contexto
da engenharia baseada em desempenho. Já o uso de distribuições log-normais truncadas evita a extrapolação
para regiões de baixa intensidade sísmica, e se ajustam melhor aos dados observados para número de estruturas
interditadas no terremoto de Northridge (1994, Cook et al., 2021).
curva de ameaça para ocorrência de tornados na região central do Canada, normalizada para período médio de
retorno de 1700 anos, segundo (Hong et al., 2021).
(2010) endereçam o projeto ótimo de sistemas lineares sob ação de excitação dinâmica estocástica estacionária.
Os autores adotam uma abordagem de otimização robusta (veja Seção 8.2.6), utilizando estatísticas de segunda
ordem da resposta estrutural, e minimização da taxa de falhas (modelo de falha à primeira sobrecarga. O objeto
de estudos é um prédio dotado de amortecedores viscosos e submetido à ação sísmica.
Huang et al. (2012), Li & Hu (2014) e Beck et al. (2014) abordam o projeto ótimo de prédios sujeitos
à ação do vento, com foco na rigidez transversal ótima. Huang et al. (2012) endereçam o estado limite de
conforto dos ocupantes, para prédios altos. Li & Hu (2014) formulam problemas de otimização multi-objetivo,
considerando os deslocamentos e acelerações em cada andar, bem como um problema bi-objetivo, abordando
o custo de construção e a probabilidade de falha. Já Beck et al. (2014) consideram a resposta não-linear
histerética da estrutura, e formulam um problema de minimização de custos esperados totais. A solução foca
na diferença entre a rigidez lateral ótima considerando resposta linear e não-linear. Os autores observam que o
modelo não-linear leva a rigidezes ótimas até dez vezes maiores.
Spence & Kareem (2014) realizam uma otimização paramétrica de prédios sujeitos à ação do vento, focando
nas técnicas de solução para desacoplamento dos laços de otimização e de con abilidade. Os autores consideram
como restrições o dano associado aos estados limites de serviço e de integridade estrutural. A técnica de
desacoplamento também é explorada em uma estrutura sujeita a ação sísmica (Spence et al., 2016). Já em
Bobby et al. (2014, 2016) os autores realizam uma otimização topológica para descobrir a distribuição ótima
dos elementos, para a resistência do prédio à ação horizontal do vento. Suksuwan & Spence (2018) abordam a
otimização topológica, baseada em desempenho, de prédios altos sujeitos à ação sísmica e do vento. Os trabalhos
(Bobby et al., 2014, 2016; Suksuwan & Spence, 2018) resultam em con gurações estruturais ótimas de prédios
altos para resistência às forças laterais resultantes das ações sísmicas e do vento.
Capítulo 8
OTIMIZAÇÃO ESTRUTURAL
BASEADA EM CONFIABILIDADE
8.1 INTRODUÇÃO
Projetar estruturas é um processo de busca crítica, entre soluções alternativas, por solução que melhor atenda
determinada função, respeitando requisitos de projeto. Requisitos primários são de natureza técnica, como
resistência, rigidez, equilíbrio, viabilidade construtiva, segurança, etc. Requisitos secundários são associados a
medidas de desempenho, como peso, custo, robustez, risco, etc. Usualmente, muitos requisitos são conitantes,
como resistência £ peso, rigidez £ custos, segurança £ custos. Em particular, aumento na segurança usualmente
envolve aumento de custos; reduções de custos podem comprometer a segurança.
Otimização estrutural é um processo formal de busca pela melhor concepção estrutural, para atender deter-
minada função, respeitando restrições conitantes entre si. Na prática, é muito difícil provar que determinada
solução é de fato a melhor, entre todas as soluções possíveis. Ainda assim, a otimização estrutural resulta
no melhor projeto dentre todas as concepções testadas. Neste capítulo discutimos como incertezas nas ações,
nas resistências e nos modelos de engenharia afetam a busca pelo projeto estrutural ótimo. Especi camente,
mostramos como a probabilidade de falha pode ser utilizada para guiar a busca pela estrutura ótima.
O requisito primário de todo projeto estrutural é evitar falhas! É paradoxal que, para que um sistema
estrutural cumpra determinada função, o projetista deva considerar todos os modos de falha possíveis. Um
projeto aceitável é obtido ao se impor margens de segurança com respeito a todos os modos de falha da
estrutura, conforme ilustrado na Figura 8-1. Logo, evitar falhas é um dos principais desa os do projetista
(Petroski, 1992; 2012).
Inevitavelmente, a resposta de sistemas estruturais é afetada por incertezas. Ações ambientais como sismos,
vento, chuva e neve são processos estocásticos. A resistência dos materiais é aleatória por natureza. Modelos
de ações e seus efeitos, e modelos de resistência são imperfeitos e imprecisos. Conhecimento sobre os fenômenos
envolvidos é incompleto. A consequência de incertezas é a possibilidade de respostas estruturais indesejadas
(falha). Até este ponto, endereçamos o problema de determinar as probabilidades de falha de estruturas e
sistemas estruturais. Neste capítulo, mostramos como probabilidades de falha impactam o projeto de estruturas.
Também abordamos as consequências econômicas de eventuais falhas, e como os custos esperados de falha podem
ser considerados no projeto de estruturas.
Projetos estruturais seguros podem ser obtidos utilizando normas de projeto, que utilizam o conceito de
estados limites, conforme vimos no Capítulo 7. Esta metodologia, chamada de semi-probabilística, utiliza
coe cientes de segurança parciais para criar uma margem de segurança em relação a cada modo potencial de
falha. Estas soluções são conservadoras por natureza, o que é conitante com o conceito de otimização. Quão
266 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE
conservador deve ser um projeto estrutural? Quais as margens de segurança apropriadas? Como endereçar o
potencial conito entre segurança e economia? Estas questões são abordadas neste capítulo.
O texto deste capítulo assume que o leitor tenha alguma familiaridade com a teoria de otimização matemáti-
ca. Problemas de otimização buscam determinar o valor ótimo de um vetor de variáveis de projeto d 2 RnDV ,
que minimiza uma função objetivo f (d), sujeito a restrições de igualdade h(d) = 0, de desigualdade h(d) · 0
e restrições ditas laterais, com relação aos possíveis valores do vetor de projeto: fdmin · d · dmax g. Formal-
mente, um problema de otimização é escrito como:
determine: d¤
que minimiza: f (d)
sujeito a: hi (d) = 0, i = 1, ..., p
gj (d) · 0, j = 1, ..., q
d 2 D ½ RnDV , (8.1)
sendo nDV o número de variáveis de projeto (do inglês Design Variable), p o número de restrições de igualdade,
q o número de restrições de desigualdade e D = fdmin , dmax g. O mesmo problema pode ser escrito de forma
mais compacta como:
Ao leitor que não tenha familiaridade com esta notação, ou com conceitos como condições de otimalidade de
Karush-Kuhn-Tucker (KKT), programação linear e não linear, multiplicadores de Lagrange, etc., recomendamos
consultar literatura especializada (Arora, 2007, 2017; Nocedal & Wright, 2006).
Em geral a solução de problemas de otimização matemática, conforme Eqs. (8.1) e (8.2), é uma tarefa com-
plexa, com excessão de problemas simples envolvendo pequeno número de variáveis de projeto. Normalmente, a
solução envolve algoritmos numéricos iterativos, que podem ser divididos em duas classes principais: métodos de
programação matemática e métodos heurísticos. Os primeiros incluem o método dos gradientes, gradientes con-
jugados, método de Newton, programação quadrática sequencial e simplex. Exemplos de algoritmos heurísticos
8.2. OTIMIZAÇÃO E CONFIABILIDADE: FORMULAÇÃO 267
incluem algoritmos genéticos, métodos de enxame de partículas (PSO), big-bang big crunch, simulated anealing,
e muitos outros. Neste texto abordamos problemas simples que podem ser resolvidos de forma analítica ou
semi-analítica, de forma grá ca ou por programação simples. Para algoritmos especializados, recomendamos
consultar Arora (2007, 2017), Haftka et al. (1990), Nocedal & Wright (2006) e Rao (2009).
Os exercícios propostos para este capítulo, em sua maioria, envolvem programação em computador. Exer-
cícios e problemas são apresentados ao nal do texto, na Seção 8.7.
sendo f i (d) o domínio de falha, si (d) o domínio de sobrevivência, e nLS o número de equações de estado
limite (do ingles Limit State). Cada equação de estado limite descreve um modo de falha da estrutura, em
termos da condição de serviço ou de capacidade última. A probabilidade de falha, para cada modo de falha, é
dada por: Z
pf i (d) = P [X 2 f i ] = fX (x)dx, (8.4)
f i
sendo P [ ] o operador de probabilidade. Probabilidades de falha para modos individuais podem ser determinadas
utilizando técnicas de con abilidade estrutural como FORM e SORM, estudadas no Capítulo 3, ou simulação
de Monte Carlo (Capítulo 5). Probabilidades de falha de sistema podem ser determinadas conforme Capítulos
4 e 5. Probabilidades de falha podem ser multiplicadas por custos de falha, originando os custos esperados de
falha, ou risco, conforme Capítulo 1.
A Figura 8-2 ilustra a relação de causa e feito de incertezas em problemas de projeto estrutural, bem como
o escopo de diferentes formulações de otimização. Observamos na gura que o principal efeito das incertezas
268 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE
Figura 8-2: Efeitos de incertezas em problemas de projeto estrutural e escopo das formulações de otimização
DDO, RBDO e LCRO.
é a probabilidade de falha da estrutura, que leva aos custos esperados de falha (risco). A chamada otimização
estrutural determinística ou determinístic Design Optimization (DDO) atua somente em nível de mecânica das
estruturas, sem abordar diretamente as incertezas ou as probabilidades de falha. Nesta classe se incluem prob-
lemas de otimização com restrições de projeto dadas por normas técnicas (projeto semi-probabilístico). Funções
objetivo típicas envolvem o custo de materiais (volume) ou o custo de manufatura. A chamada otimização
estrutural baseada em con abilidade ou Reliability-Based Design Optimization (RBDO) é aquela em que se
substituem as restrições de projeto determinísticas (ou de norma) por restrições em termos de probabilidades
de falha admissíveis ou con abilidades alvo. Incertezas e seus efeitos são levadas em consideração de forma
explícita. Funções objetivo típicas envolvem o custo de materiais (volume) ou o custo de manufatura. Quando
os custos de falha são incluídos na formulação dos problemas de otimização, temos a chamada otimização de
custos sobre o ciclo de vida ou Life-Cycle Cost and Risk Optimization (LCRO), ou simplesmente otimização de
riscos ou Risk Optimization (RO). Estas formulações são discutidas em detalhes na sequência.
sendo σ a tensão de trabalho, nP C o número de pontos materiais críticos e σADM a tensão admissível, que
pode ser determinada a partir da tensão de escoamento do material, ou da tensão resistente de fadiga para
determinado número de ciclos. Este é o chamado formato das tensões admissíveis, utilizado no projeto de
componentes mecânicos, e também em algumas normas técnicas antigas. Uma forma de projeto mais atual, em
engenharia de estruturas, é o formato dos estados limites, no qual a formulação DDO ca:
sendo nLS o número de equações de estado limite a veri car, Ri ( ) uma função de resistência para cada estado
limite, φR e γ´s coe cientes parciais de segurança para resistência e ações, respectivamente; sub-índice ()n para
valor nominal e D, L e W as ações permanente, acidental e de vento, respectivamente.
A função objetivo f (d) em DDO geralmente se refere ao volume de materiais, ou ao custo de manufatura.
A formulação permite encontrar con gurações que são ótimas do ponto de vista estritamente mecânico. No
entanto, como o efeito de incertezas não é considerado de forma explícita, a segurança da estrutura ótima pode
ser comprometida, em relação à estrutura original.
Considere como exemplo um projeto baseado em norma técnica. Para cada modo de falha há uma equação
de projeto, que corresponde a uma equação de estado limite. No projeto convencional, a resistência do elemento
estrutural é calculada a partir de cada equação de projeto; a resistência nal é a maior dentre todas. A equação
que levou à resistência nal corresponde ao modo de falha dominante, em relação ao qual a margem de segurança
será a mínima especi cada em norma. No entanto, as margens de segurança em relação aos demais modos de
falha terão uma folga adicional, em relação ao mínimo especi cado em norma. Considere agora a solução de um
problema de otimização conforme Eq. (8.6), para a mesma condição de projeto. Se as variáveis de projeto forem
em número su ciente (i.e., se houver graus de liberdade su cientes no problema), então por de nição todos os
modos de falha serão projetados contra o limite. Do ponto de vista de con abilidade de um sistema em série,
ca claro que a con abilidade da estrutura ótima será menor do que a con abilidade da estrura projetada pelo
processo convencional.
Como outro exemplo, considere o projeto ótimo de estruturas hiperestáticas. De um ponto de vista deter-
minístico, é difícil representar o colapso progressivo de elementos hiperestáticos, e quanti car a (probabilidade
de) ocorrência dos diferentes caminhos de falha. Em uma formulação DDO elementar, os elementos hiperestáti-
cos seriam simplesmente eliminados, resultando em estrutura isostática. No entanto, a capacidade excedente de
elementos hiperestáticos é mobilizada, no caso de falha primária de um elemento, resultando em um caminho
alternativo para as cargas. Uma formulação baseada em con abilidade permite calcular as probabilidades de
falhas primarias de cada elemento, bem como as probabilidades de falha condicionais dos elementos restantes,
após uma falha primária, chegando até a perda de equilíbrio da estrutura e à probabilidade de ocorrência de
cada caminho de falha. Logo, a con abilidade estrutural é ferramenta própria para a solução de problemas de
otimização envolvendo estruturas hiperestáticas.
Em geral, observamos que a otimização determinística não é robusta com respeito às incertezas inerentes
a resistência dos materiais, as ações e aos modelos de engenharia. Esta observação levou a outras formulações
para o problema de otimização estrutural sob incertezas, conforme segue.
sendo pfi (d) a probabilidade de falha em relação ao modo de falha ()i , pf T i a probabilidade de falha admissível,
nLS o número de estados limites e D com o mesmo signi cado da Eq. (8.1). A con abilidade alvo, para o modo
de falha ()i , é dada por rT i = (1 ¡ pf T i ). Utilizando o índice de con abilidade β como medida da con abilidade,
a Eq. (8.7) pode ser reescrita como:
Nas Eqs. (8.7 e 8.8), as restrições são escritas em termos de probabilidades de falha individuais para cada
modo de falha. Esta é uma herança direta da migração do formato determinístico (Eqs. 8.5 e 8.6) para o
formato probabilístico. Estas restrições também podem ser substituídas por uma única restrição em termos da
probabilidade de falha do sistema:
sendo RTSY S = (1 ¡ pf TSY S ) a con abilidade alvo do sistema. A con abilidade do sistema (RSY S = 1 ¡ pfSY S )
é função da con abilidade dos componentes (Ri = 1 ¡ pfi , i = 1, ..., nLS ), conforme Capítulo 4. Observe que
a formulação baseada em con abilidade de sistemas (Eq. 8.9) não tem correspondente determinística, pois não
existe métrica determinística equivalente. Problemas de RBDO com restrições em con abilidade de sistema são
mais difíceis de resolver. Estes problemas são abordados na Seção 8.3.8.
Em geral, a função objetivo em problemas de RBDO é a mesma de DDO, i.e., envolve volume de elementos
estruturais ou custos de manufatura. A formulação RBDO permite encontrar a con guração estrutural ótima
em termos mecânicos, sem comprometer a segurança. Claramente, os resultados dependem diretamente das
probabilidades de falha admissíveis utilizadas como restrição. O balanço entre segurança e economia não é
endereçado, porque coe cientes parciais de segurança ou índices de con abilidade alvo são restrições, e não
variáveis de projeto.
As probabilidades de falha na Eq. (8.7) e os índices de con abilidade na Eq. (8.8) podem ser avaliados
utilizando técnicas clássicas como FORM, SORM ou simulação de Monte Carlo, conforme Capítulos 3 e 5. No
entanto, o custo computacional destas soluções deve ser levado em conta, pois as análises de con abilidade são
realizadas dentro do laço de otimização, e assim repetidas centenas a milhares de vezes. Logo, a solução e ciente
de problemas de RBDO requer algoritmos especí cos para reduzir o custo computacional. Estes algoritmos são
abordados nas Seções 8.3 e 8.4.
falhas de serviço, custos de falha incluem custo de reparos e custo de indisponibilidade da estrutura. Para modos
de falha últimos, custos de falha envolvem custos de remoção do elemento ou estrutura que sofreu ruína, custo
de indisponibilidade da estrutura e custos de construção da nova estrutura. Falhas estruturais podem provocar
danos à propriedade de terceiros, que devem ser compensados. Falhas estruturais podem causar danos físicos,
morte ou danos ambientais, que devem ser indenizados. Danos físicos, morte e danos ambientais são assuntos
sensíveis, muito discutidos no contexto dos riscos sociais. Uma discussão técnica e pertinente sobre o valor da
vida humana, em um contexto de tomada de decisões sobre empreendimentos que trazem benefícios a sociedade,
é apresentada por Rackwitz (2002, 2004). Projetistas tem razão ao se sentir melindrados por considerar custos
associados a morte ou a danos ambientais em decisões de projeto. No entanto, deixando questões losó cas
de lado, valores pagos a título de indenização por danos equivalentes no passado podem ser utilizados para
resolver a parte técnica do problema. Ao nal do dia, para encontrar soluções economicamente e cientes para
sistemas estruturais que podem falhar, um custo de falha (cf (d)) deve ser associado a cada modo de falha
possível. Para cada modo de falha, o custo esperado de falha (cef (d)) é obtido multiplicando o custo de falha
pela probabilidade de falha, pf (d):
cef (d) = cf (d)pf (d). (8.10)
Observe que o custo esperado de falha coincide com a de nição de risco (veja Seção 1.4.1). O custo esperado
total, sobre o ciclo de vida de um sistema estrutural, é obtido como:
sendo cfi (d) o custo de falha associado ao modo de falha ()i . A maior parte dos custos na Eq. (8.11) reetem
o conito entre economia e segurança em projeto, conforme ilustrado na Figura 1-19.
O custo de construção, por exemplo, aumenta de forma proporcional aos coe cientes parciais de segurança
utilizados em projeto, e aumenta de acordo com o nível de controle de qualidade utilizado nas diversas etapas
construtivas. Custos de operação aumentam com a quantidade de equipamentos e medidas de segurança, e
com o uso de redundância. Custos de inspeção dependem dos intervalos, qualidade do equipamento e técnica
de inspeção empregada. Custos de manutenção dependem diretamente do tipo de manutenção (preventiva,
preditiva, corretiva, pró-ativa), plano e frequência, e alcance ou extensão. Usualmente, medidas que aumentam
a segurança têm impactos nos custos diretos, mas reduzem custos esperados de falha. Reciprocamente, medidas
de redução de custos podem afetar a segurança, impactando negativamente nos custos esperados de falha.
Portanto, quanti car os custos esperados de falha e incluí-los na função objetivo (Eq. 8.11) permite ao projetista
encontrar o melhor ponto de compromisso entre segurança e economia (Figura 1-19). Este compromisso entre
segurança e economia é típico de sistemas estruturais.
O balanço econômico de projetos estruturais pode ser afetado negativamente pelos custos associados à falhas.
A chamada otimização de custos sobre o ciclo de vida ou Life-Cycle Risk Optimization (LCRO), ou simplesmente
otimização de riscos (Risk Optimization ou RO) é obtida quando tais custos são incorporados à função objetivo:
A Eq. (8.12) não o reete explicitamente, mas coe cientes de segurança ótimos, ou índices de con abilidade
ótimos, são sub-produtos da solução, como observado na Figura 1-19. Em comparação à Eq. (8.7), note que as
restrições de con abilidade de RBDO são incorporadas à função objetivo. Logo, os problemas (8.7) e (8.12) são
formalmente diferentes. Esta diferença nem sempre é reconhecida na literatura, pois com frequência o problema
272 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE
ou
Quando o índice de con abilidade ótimo encontrado como sub-produto da solução da Eq. (8.12) é menor
que um índice alvo β T SY S , a restrição na Eq. (8.14) se torna ativa, e esta restrição controla a solução nal. No
entanto, se a con abilidade ótima é maior que a restrição (β T SY S ), a restrição em (8.14) se torna inativa, e as
formulações (8.12) e (8.14) produzem o mesmo resultado.
O problema de otimização de custos sobre o ciclo de vida é abordado na Seção 8.5.
(1954), Freudenthal (1956), Benjamin (1968), Cornell (1969), Tursktra (1970), Lind (1976) e Moses (1977).
Naquela época, no entanto, o desenvolvimento da teoria de con abilidade estrutural estava em sua infância,
assim como as técnicas de otimização matemática. Computadores eram novidade, e a capacidade computacional
extremamente limitada. Em consequência, os problemas endereçados nas referências acima eram simples e
conceituais.
Nos primeiros artigos sobre o tema, percebemos uma hierarquia na compexidade das variáveis de projeto
consideradas, começando com dimensões de seções transversais, con guração de elementos (layout), seleção de
material e otimização topológica (distribuição de material no interior do domínio). Hilton & Feigen (1960)
apresentam pela primeira vez a formulação RBDO, com restrições de projeto em con abilidade. Outros artigos
(Liu et al., 1976; Rosenblueth, 1976) abordam explicitamente projeto ótimo de estruturas utilizando métricas
de con abilidade. Um primeiro compêndio de técnicas de otimização utilizando con abilidade é apresentado
por Moses (1969). Outro estudo de revisão bibliográ ca mais recente foi apresentado por Frangopol (1985). Um
trabalho relevante em otimização de riscos foi apresentado por Enevoldsen & Sorensen (1994). Utilizando teoria
de decisão clássica, os autores abordam otimização de riscos de components e de sistemas, planejamento ótimo
de inspeções e DOE ótimo. O artigo ainda apresenta medidas de sensibilidade para projeto ótimo utilizando
elementos nitos.
Ao nal dos anos 90, e início deste século, a teoria de con abilidade estrutural amadureceu e passou a chamar
atenção de pesquisadores, então trabalhando no que hoje chamamos de otimização estrutural determinística
(DDO). A limitação do uso de fatores parciais de segurança como restrição de projeto foi logo reconhecida,
e muitos destes pesquisadores passaram a adotar a formulação RBDO, com restrições em con abilidade. A
literatura em RBDO recebeu grande número de contribuições nestes anos; grande parte dos problemas abordados
envolviam componentes mecânicos. Mais recentemente, percebemos interesse crescente na solução de problemas
de otimização de riscos ou de custos sobre o ciclo de vida, tendo como objeto de estudo estruturas civis. Hoje em
dia, a solução dos dois tipos de problemas (RBDO e LCRO) é facilitada por ampla disponibilidade de algoritmos
e recursos computacionais, como veremos neste capitulo.
funcional e colapso.
Como observado acima, em engenharia de estruturas desempenho e/ou e ciência são associados a mínimo
custo. Portanto, maximizar o desempenho é equivalente a minimizar custos:
sendo perf(d, X) para função de desempenho. Note que tanto desempenho como custos podem ser função
do vetor de variáveis aleatórias X; portanto desempenho e custos são variáveis aleatórias dependentes. Uma
formulação de otimização robusta típica é dada por:
ou
sendo stat[ ] alguma estatística de desempenho. Estatísticas comumente utilizadas são (stat[ ]):
Pk [ ]: o percentil k; (a)
E[ ]: o valor esperado; (b)
V ar[ ]: a variância; (c)
αE[ ] + (1 ¡ α)Pk [ ]: um problema multi-objetivo; (d)
αE[ ] + (1 ¡ α)V ar[ ]: problema multi-objetivo usual. (e)
(8.18)
As últimas duas linhas da Eq. (8.18) representam problemas multi-objetivo, onde 0 · α · 1 é uma constante.
Usualmente, problemas de otimização robusta são resolvidos para vários valores de α, o que resulta em uma
frente de Pareto, que mostra pontos de compromisso entre objetivos conitantes. A partir da frente de Pareto,
observamos que não é possível melhorar em relação a um objetivo, sem piorar em relação a outro.
Uma forma particular da Eq. (8.18) resulta em grande semelhança com a formulação de otimização de riscos
(Beck et al., 2015). Considere um problema envolvendo um único modo de falha, e que o custo de falha cf seja
independente do vetor de projeto. Neste caso, a função objetivo do problema LCRO (Eq. 8.12) se torna:
sendo desconsiderados outros custos sobre o ciclo de vida. O problema de otimização não muda quando a função
objetivo é multiplicada pela constante 1/(cf + 1), logo:
cet (d) 1 cf
= cconstru ção (d) + pf (d). (8.20)
cf + 1 cf + 1 cf + 1
Fazendo uma mudança de variáveis, tal que 1/(cf + 1) = α, resulta que cf /(cf + 1) = (1 ¡ α), e obtemos:
Comparando este resultado com a formulação robusta (Eq. 8.18d), veri camos que se o percentil k da função
de desempenho representa a resposta crítica do sistema (aquela que leva a falha, pf (d)), e se o desempenho
médio corresponde ao custo de construção, então os valores de α que produzem a frente de Pareto correspondem
8.2. OTIMIZAÇÃO E CONFIABILIDADE: FORMULAÇÃO 275
aos custos de falha da formulação de otimização de riscos (Beck et al., 2015). Em outras palavras, o custo de
falha corresponde a um dos pontos de compromisso entres os objetivos conitantes da otimização robusta. Esta
observação segue válida caso outros custos sobre o ciclo de vida ou outros modos de falha também estejam
envolvidos. Em geral, no entanto, a formulação na Eq. (8.18) conduz a resultados diferentes.
A otimização robusta é muito utilizada quando não se pode determinar uma resposta crítica que caracteriza
a falha, ou quando os custos de falha não podem ser quanti cados. A formulação é muito utilizada em problemas
de dinâmica estrutural e de controle. Como a otimização robusta não faz uso de probabilidades de falha, esta
formulação não é mais abordada neste texto. Revisões compreensivas sobre o assunto são apresentadas por
Zang et al. (2005), Beyer & Sendho¤ (2007) e Schuëller & Jensen (2009).
sendo © ( ) a distribuição cumulativa normal padrão e β o índice de con abilidade. Três problemas de otimiza-
ção elementares são construídos a partir do problema fundamental: determinístico (DDO), com restrição de
con abilidade (RBDO) e com custos esperados de falha na função objetivo (LCRO).
Problema DDO
sendo a resistência média µR a única variável de projeto e γ ¸ 1 um coe ciente de segurança. Também se
requer que µS > 0, para evitar a solução trivial: µR = µS = 0, para a qual a estrutura desaparece. Utilizando
a nomenclatura formal de otimização (veja Eq. 8.1), o problema é reescrito como:
Este problema tem uma única variável de projeto, uma função objetivo linear e uma restrição de desigualdade
linear. Portanto, o problema é convexo, e é fácil perceber que a solução é obtida para g(µR ) = 0, o que leva a
µ¤R = γµS . No entanto, uma solução formal é apresentada abaixo, a título de ilustração.
Como a Eq. (8.25) representa um problema de otimização com restrições, uma solução formal é obtida
escrevendo a função Lagrangiana, que incorpora a restrição à função objetivo:
∂L(µR , u, s)
= 1 ¡ u¤ = 0, ) u¤ = 1;
∂µR
∂L(µR , u, s)
= 2u¤ s¤ = 0, ) s¤ = 0;
∂s
∂L(µR , u, s)
= γµS ¡ µ¤R + (s¤ )2 = 0, ) µ¤R = γµS . (8.27)
∂u
As primeiras duas linhas na Eq. (8.27) mostram que a restrição esta ativa no ponto ótimo1 . O ponto
µ¤R = γµS , obtido a partir das condições necessárias de KKT, é candidato a ponto de mínimo. Como existe
apenas uma restrição, este ponto é regular; logo, satisfaz as condições necessárias de primeira ordem KKT para
ser ponto de mínimo. Como a função objetivo é linear, também é convexa; como a restrição é linear, o domínio
de projeto é convexo; logo, as condições KKT necessárias também são su cientes! Logo, µ¤R = γµS é o ponto
de mínimo global deste problema. Note que esta solução depende diretamente do coe cience de segurança γ,
utilizado como restrição no problema DDO.
Problema RBDO
O problema RBDO elementar, obtido a partir da Eq. (8.24), pode ser escrito como:
sendo, novamente, a resistência média µR a variável de projeto, e β T o índice de con abilidade alvo. Neste
problema, também se requer que β T ¸ 0, de forma que pf · 0, 5. Utilizando nomenclatura formal de otimização
e a Eq. (8.23), o problema é reescrito como:
As condições necessárias de KKT para que um ponto seja candidato a mínimo da Eq. (8.30) são dadas por:
q
∂L(µR , u, s) u¤
= 1¡ p 2 = 0, ) u¤ = σ 2R + σ2S ;
∂µR σ R + σ2S
∂L(µR , u, s)
= 2u¤ s¤ = 0, ) s¤ = 0;
∂s
q
∂L(µR , u, s) µ¤ ¡ µS
= β T ¡ p R2 + (s¤ )2 = 0, ) µ¤R = µS + β T σ2R + σ2S . (8.31)
∂u σ R + σ2S
1 Se a restrição não estivesse ativa, teríamos u¤ = 0, e a variável de folga s¤ > 0 mediria a distância entre o ponto candidato e a
restrição; veja Arora (2007, 2012) e Nocedal & Wright (2006) para detalhes.
8.2. OTIMIZAÇÃO E CONFIABILIDADE: FORMULAÇÃO 277
Na primeira linha da Eq. (8.31), como σR > 0 e σS > 0, temos que u¤ > 0; logo, a restrição está ativa.
Novamente, a função objetivo é linear e convexa;
p e a restrição é linear; logo, as condições necessárias de KKT
são também su cientes, e µ¤R = µS + β T σ2R + σ2S é o mínimo global para este problema. Observe que este
resultado depende diretamente do índice de con abilidade alvo βT utilizado como restrição no problema.
Problema LCRO
O problema LCRO elementar, derivado da Eq. (8.25), e descartando custos de inspeção, manutenção, etc., (Eq.
8.12), pode ser escrito como:
sendo a resistência média µR a variável de projeto. Neste problema, também se requer que µS > 0, para evitar
a solução trivial µR = µS = 0, para a qual a estrutura desaparece. Observe que na Eq. (8.32) não há restrição
de con abilidade. Assumindo o custo de falha proporcional à µS (cf = kµS ), o problema é reescrito como:
As condições de primeira ordem de KKT para que um ponto seja candidato a mínimo da Eq. (8.34) são
dadas por:
∂L(µR , u, s) ∂© ∂β kµ φ(β¤ )
= 1 + kµS ¡ u¤ = 1 ¡ p S2 ¡ u¤ = 0,
∂µR ∂β µR σ R + σ 2S
kµ φ(β ¤ )
) u¤ = 1 ¡ p S2 ; (8.35)
σ R + σ2S
sendo β¤ candidato a índice de con abilidade ótimo e φ( ) a função de densidade normal padrão. Como não
estamos trabalhando com valores numéricos, não podemos dizer, das condições acima, se a restrição está ativa
ou não. Uma restrição ativa na Eq. (8.33) leva a grandes probabilidades de falha, o que não é usual. Logo,
assumimos que a restrição não esteja ativa, de forma que u¤ = 0 e s¤ > 0. Da Eq. (8.35) obtemos:
v Ãp p !
u
u 2π σ 2 + σ2
β = t¡2 ln
¤ R S
. (8.36)
kµS
A Eq. (8.36) representa o índice de con abilidade ótimo para este problema, para uma restrição inativa.
Observe que este resultado é independente de µ¤R . A Eq. (8.36) também expressa uma condição em relação ao
multiplicador de custos de falha, k, para que o problema tenha solução real:
p p 2
2π σ R + σ2S
k¸ ¢ (8.37)
µS
278 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE
As condições necessárias de primeira ordem de KKT também precisam ser veri cadas para:
∂L(µR , u, s)
= 2u¤ s¤ = 0,
∂s
∂L(µR , u, s) p ¤
= µS ¡ µ¤R + (s¤ )2 = 0, ) s¤ = µR ¡ µS > 0. (8.39)
∂u
As duas linhas na Eq. (8.39) são veri cadas; logo, para restrições inativas, u¤ = 0 e µ¤R > µS .
Para que o ponto candidato na Eq. (8.38) seja mínimo global do problema, precisamos veri car se a função
objetivo é convexa em todo o espaço de projeto, de forma que ∂ 2 /∂(µR )2 > 0, 8µR > µS . Tomando a segunda
derivada da função objetivo em relação a µR , obtemos:
p p 2
∂ 2 (µR + k µS ©(¡β)) k µS β φ(β) 2π σR + σ2S
= > 0, 8µR > µS , o que ocorre se k ¸ . (8.40)
∂(µR )2 (σ2R + σ 2S ) µS
Logo,
p sep a condição na Eq. (8.37) é respeitada, a solução (8.38) é mínimo global do problema. Observe que,
se k = 2π σ2R + σ2S /µS na Eq. (8.37), então a restrição se torna ativa com µ¤R = µS , β ¤ = 0 e s¤ = 0. Nesta
situação particular, também obtemos u¤ = 0. Um problema LCRO elementar, semelhante ao apresentado aqui,
é discutido por Rosenblueth (1976) e Kanda & Ellingwood (1991).
A Figura 8-3 ilustra as soluções dos problemas DDO, RBDO e LCRO elementares formulados nesta seção, para
µS = σR = σS = 1. As linhas contínuas mostram as funções
p pobjetivo de DDO e RBDO (µR ), e de LCRO
(µR + k µS ©(¡β), para k = k0 e para k = 2k0 , com k0 = 2π σ 2R + σ2S /µS ).
As restrições são γ = 2 para DDO, e β T = 2 para RBDO. As linhas pontilhadas verticais indicam as soluções
ótimas para os problemas, que correspondem aos pontos onde as restrições se tornam ativas (linha pontilhada
horizontal para γ = β T = 2).
Para o problem de LCRO com multiplicador de custos k = k0 , observamos que o mínimo é obtido para
restrição ativa, com µR = µS = 1. Para k > k0 , a função objetivo torna-se convexa e o mínimo local passa a se
localizar no interior
p do domínio, com restrição inativa, conforme Eq. (8.38). Para k = 2k0 , a resistência ótima
é µ¤R = 1 + 2 ln(2) ' 2, 6651.
A versão DDO do problema é aquela apresentada em Arora (2017), que pode ser escrita como:
determine : d¤ = fb¤ , h¤ g,
que minimiza: f (d) = bh, (a)
sujeito a : gs (d) = 6µM γ s ¡ µS bh2 · 0, (b)
gτ (d) = 3µV γ τ ¡ 2µτ bh · 0, (c)
h ¡ 2b · 0. (d)
(8.42)
As restrições (b) e (c) acima apresentam duas pequenas diferenças em relação ao problema apresentado por
Arora (2017), ambas utilizadas para facilitar a comparação com a versão RBDO do problema. Primeiramente,
os coe cientes γ s e γ τ são introduzidos, de forma a caracterizar um problema de projeto, mas resultando nas
mesmas tensões admissíveis. Segundo, na forma apresentada acima, as restrições (b) e (c) não são convexas,
como mostrado por Arora (2017). Isto não é apropriado para solução do problema de otimização, mas deve ser
280 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE
balanceado com a vantagem de fazer as equações de estado limite lineares, com respeito às variáveis aleatórias
do problema.
Uma solução passo a passo do problema DDO acima é apresentada por Arora (2017). Esta solução não
é reproduzida aqui, uma vez que é muito semelhante à solução do problema RBDO, a ser apresentada na
sequência. A solução grá ca pode ser observada na Figura 8-4, que mostra curvas de nível da função objetivo
(na verdade, bh/103 ) em função das variáveis de projeto b e h. A gura também mostra as três restrições
relevantes (Eqs. 8.42 b, c e d). Podemos observar que a restrição em tensão de cisalhamento é paralela a função
objetivo; logo, a solução do problema DDO é dada por todos os pontos que acompanham a restrição (c), entre os
pontos A e B. No ponto A, as duas restrições em tensão estão ativas; no ponto B, as restrições em cisalhamento
e na razão de aspecto (h · 2b) estão ativas.
A versão RBDO do problema na Eq. (8.42) é obtida substituindo as restrições determinísticas por restrições
baseadas em con abilidade:
determine: d¤ = fb¤ , h¤ g,
que minimiza : f (d) = bh, (a)
sujeito a : β T ¡ β s (d) · 0, (b)
β T ¡ β τ (d) · 0, (c)
h ¡ 2b · 0, (d)
(8.43)
8.2. OTIMIZAÇÃO E CONFIABILIDADE: FORMULAÇÃO 281
sendo βT = 3 o índice de con abilidade alvo. As equações de estado limite correspondentes são:
gs (d) = Sy bh2 ¡ 6M = 0,
gτ (d) = 2τ y bh ¡ 3V = 0. (8.44)
Observe a semelhança entre estas equações e as restrições do problema determinístico (Eqs. 8.42 b e c). As
equações de estado limite são lineares em variáveis aleatórias normais; logo, a solução exata é dada pelo índice
de con abilidade de Cornell:
E[gs ] bh2 µS ¡ 6µM
β s (d) = p =p ,
V ar[gs ] b2 h4 σ2S + 62 σ 2M
E[gτ ] 2bhµτ ¡ 3µV
β τ (d) = p =p ¢ (8.45)
V ar[gτ ] 4b2 h2 σ2τ + 9σ 2V
Uma solução passo a passo, utilizando o formalismo de programação linear, é apresentada na sequência.
Como os problemas RBDO e DDO são bastante similares, esta solução deriva diretamente da solução apresentada
por Arora (2017). A solução pode ser interpretada a partir da Figura 8-5, que mostra a solução grá ca para o
problema RBDO. Na gura, curvas de nível da função objetivo (bh/103 ) são mostradas, em função das variáveis
de projeto b e h.
A solução formal começa com a função Lagrangian do problema de minimização com restrições, Eq. (8.43):
Nesta equação, ui são os multiplicadores de Lagrange, e si são as variáveis folga. Quando a restrição i está
ativa em um ponto candidato a solução, si = 0 e ui ¸ 0. As condições necessárias de KKT para que um ponto
d¤ = fb¤ , h¤ g seja solução da Eq. (8.43) são:
∂L ∂β s ∂β
= h ¡ u1 ¡ u2 τ ¡ 2u3 = 0, (i)
∂b ∂b ∂b
∂L ∂β s ∂βτ
= b ¡ u1 ¡ u2 + u3 = 0, (j)
∂h ∂h ∂h
∂L
= βT ¡ β s + s21 = 0, (k)
∂u1
∂L
= βT ¡ β τ + s22 = 0, (l)
∂u2
∂L
= h ¡ 2b + s23 = 0, (m)
∂u3
∂L
= u1 s1 = 0, (n)
∂s1
∂L
= u2 s2 = 0, (o)
∂s2
∂L
= u3 s3 = 0. (p)
∂s3
(8.47)
As linhas (i) e (j) na Eq. (8.47) são as condições fundamentais; as linhas (n) até (p) são as condições de
comutação. Encontrar o mínimo global envolve veri car todas as formas possíveis de satisfazer as condições de
comutação, como segue.
Caso 1: todas as restrições estão inativas (u1 = u2 = u3 = 0). A partir das Eqs. (8.47 i e j), obtemos
282 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE
2 De fato, restrições adicionais h > 0 e b > 0 deveriam ter sido introduzidas nas Eqs. (8.42) e (8.43), conforme Arora (2012).
O problema ca formalmente mais correto, mas as soluções desnecessariamente mais complexas, como pode ser visto na referência
original.
3 Esta linha de soluções também aparece no problema DDO, como ilustrado na Figura 8-4.
8.2. OTIMIZAÇÃO E CONFIABILIDADE: FORMULAÇÃO 283
Um problema de otimização de riscos é obtido quando os custos esperados de falha são incorporados à função
objetivo:
determine: d¤ = fb¤ , h¤ g,
bh
que minimiza: f (d) = + cs ©(¡βs ) + cτ ©(¡β τ ), (a)
b0 h0
sujeito a: h ¡ 2b · 0, (b)
¡b · 0, (c)
¡h · 0, (d)
(8.48)
bh
L(d, u, s) = +cs © (¡β s ) +cτ © (¡β τ ) + u1 (h ¡ 2b + s21 ) + u2 (¡b + s22 ) + u3 (¡h + s23 ). (8.49)
b0 h0
As condições de KKT para que um ponto (b¤ ,h¤ ) seja solução da Eq. (8.48) são:
∂L h ∂β ∂β
= ¡ cs φ (¡β S ) S ¡ cτ φ (¡β τ ) τ ¡ 2u1 ¡ u2 = 0, (i)
∂b b0 h0 ∂b ∂b
∂L b ∂β S ∂β τ
= ¡ cs φ (¡β S ) ¡ cτ φ (¡β τ ) + u1 ¡ u3 = 0, (j)
∂h b0 h0 ∂h ∂h
∂L
= h ¡ 2b + s21 = 0, (k)
∂u1
∂L
= ¡b + s22 = 0, (l)
∂u2
∂L
= ¡h + s23 = 0, (m)
∂u3
∂L
= u1 s1 = 0, (n)
∂s1
∂L
= u2 s2 = 0, (o)
∂s2
∂L
= u3 s3 = 0. (p)
∂s3
(8.50)
As linhas (i) e (j) na Eq. (8.50) são as condições fundamentais; as linhas (k) a (p) são as condições
comutativas. Encontrar o mínimo global envolve veri car todas as possibilidades de atender às condições
comutativas, como segue.
Caso 1: todas as restrições estão inativas (u1 = u2 = u3 = 0 ). Resolvendo as Eqs. (8.50 i e j) obtemos
múltiplas soluções aproximadas, com bh ' 86742 mm2 . Estas soluções correspondem ao vale entre as curvas de
nível identi cadas por f (d) = 0, 92 na Figura 8-6. A função objetivo decresce lentamente em direção ao ponto
A, que é a solução do problema, conforme veremos.
Caso 2: apenas a terceira restrição está ativa (u1 = u2 = 0, s3 = 0). Caso 3: apenas a segunda restrição
está ativa (u1 = u3 = 0, s2 = 0). Caso 4: a segunda e terceira restrições estão ativas (u1 = 0, s2 = s3 = 0).
Estes três casos levam à solução trivial O = (b¤ , h¤ ) = (0, 0), que não é de interesse, já que a viga desapareçe.
No entanto, trata-se de uma solução do problema matemático formulado na Eq. (8.48). Resulta que este é um
ponto de mínimo da função objetivo, com f (O) = 6, 00. Observe no canto inferior esquerdo da Figura 8-6 que
a função objetivo não é convexa; curvas de nível identi cadas por f (d) = 6, 21 são mostradas na gura para
expor a concavidade da função objetivo.
Caso 5: somente a primeira restrição está ativa (u2 = u3 = 0, s1 = 0). Resolvendo as Eqs. (8.50 i e j)
com h = 2b, obtemos o ponto A = (bA ; hA ) = (208, 19; 416, 38) , mostrado na Figura 8-6, e u1 = 0. A função
objetivo neste ponto vale f (A) = 0, 916106 < f (O), o que con rma que o ponto O é mínimo local.
Logo, a solução do problema LCRO é dada por (bA ; hA ) = (208, 19; 416, 38) mm.
8.2. OTIMIZAÇÃO E CONFIABILIDADE: FORMULAÇÃO 285
Exercício 11 DDO £ RBDO £ RO: obter as soluções analíticas dos problemas de otimização da Seção
8.2.8 (projeto ótimo de viga 2D), nas versões DDO, RBDO e RO, utilizando coe cientes de segurança γ s = 2
e γτ = 3, índices de con abilidade alvo βsT = 3 e β τ T = 4, e custos de falha cs = 3 e cτ = 7 unidades.
Solução: As soluções DDO e RBDO continuam sendo todos os pontos entre A e B, ao longo da restrição
de cisalhamento. A solução LCRO é única.
Este texto apresentou e discutiu, nos Capítulos 3 e 5, diversos métodos de avaliar o índice de con abilidade
que aparece como restrição probabilística na Eq. (8.51). Uma forma de avaliar este índice, muito popular no
contexto de RBDO, é o método de con abilidade de primeira ordem ou FORM. A grande vantagem do FORM
neste problema é a e ciência e precisão na solução de problemas bem comportados (com equação de estado
limite fracamente não-linear).
De acordo com a Seção 3.3, o método FORM consiste em mapear o problema do espaço original de projeto X
para o espaço normal padrão Y, o que é feito através da transformação y = T(x), e então encontrar o chamado
ponto de projeto y¤ , através da solução do problema de minimização com restrição:
dado d, determine: y¤ ,
que minimiza: β(d) = kyk = (yt y)1/2 ,
sujeito a: g(d, y) = 0. (8.52)
sendo g(d, y) = g(d,T(x)) = 0 a equação de estado limite, mapeada para o espaço normal padrão. O ponto de
projeto y¤ é também o ponto do domínio de falha com maior probabilidade de ocorrência; por isto, também é
chamado de ponto de projeto ou Most Probable Point (MPP). No ponto de projeto y¤ a equação de estado limite
original é aproximada por um hiper-plano, o que resulta na estimativa de primeira ordem da probabilidade de
falha: pfF O (d) ¼ ©(¡β(d)). O problema na Eq. (8.52) deve ser resolvido para cada equação de estado limite
do problema, e para cada valor candidato dk . Como o método FORM envolve a solução de um problema de
otimização, RBDO usando FORM produz laços de otimização aninhados, que impactam no custo computacional
da solução. Várias técnicas foram desenvolvidas para eliminar este encadeamento de soluções, como veremos.
Além disto, como o espaço de projeto deve ser sistematicamente explorado durante a busca pelo ótimo (d¤ ),
resulta que o problema (8.52) também deve ser resolvido para con gurações não-usuais de d, para as quais a
solução pode ser tornar instável, ou mesmo pode ser inexistente. Portanto, necessitamos de formas e cientes e
robustas de resolver o problema na Eq. (8.52).
Uma destas soluções é construída olhando para a distribuição cumulativa de probabilidades da variável
aleatória dependente G = g(d, y), chamada de função de desempenho neste contexto (Tu et al., 1999). Observe
que o problema de con abilidade:
Z
pf (d) = P [g(d, X) · 0] = fX (x)dx ¼ ©(¡β(d)), (8.53)
g(d,X)·0
é resolvido em termos de g(d, X) = 0. No entanto, para muitas con gurações de projeto d a restrição de
con abilidade não estará ativa; logo, a equação de estado limite não reduzirá a zero. Substituindo o zero da
equação de estado limite pelo valor g¤ , obtemos:
Z g¤ Z
¤
FG (g ) = fG (g)dg = fX (x)dx ¼ ©(¡βg ¤ ), (8.54)
¡1 g(d,X)·g ¤
o que é válido para qualquer g = g ¤ . Estas relações podem ser observadas na Figura 8-7.
8.3. SOLUÇÃO DE PROBLEMAS RBDO COM BASE NO FORM 287
Figura 8-7: Função densidade de probabilidades fG (g) e distribuição cumulativa FG (g) da variável aleatória
função de desempenho.
O último termo na Eq. (8.54) envolve uma aproximação de primeira ordem, equivalente ao FORM, para
a probabilidade FG (g) = P [G · g]. A restrição de con abilidade original é recuperada para g = 0, i.e.,
pf (d) = FG (0). O índice de con abilidade generalizado β g , que é função não-crescente de g, é obtido da
igualdade (Madsen et al., 1986):
FG(g) = ©(¡βg ). (8.55)
Esta igualdade pode ser escrita de duas formas alternativas, utilizando transformações inversas:
o que pode ser expresso de duas formas alternativas (Tu et al., 1999):
sendo β(d) o índice de con abilidade convencional, e gT a medida de desempenho alvo (mínimo). O valor de
gT não pode ser determinado a partir da Eq. (8.59b), porque na prática não conhecemos a função FG¡1 ( ).
No entanto, as Eqs. (8.59) e as relações ilustradas na Figura 8-8 mostram que podemos buscar o β(d) que
288 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE
Figura 8-8: Interpretação da restrição de con abilidade e do índice de con abilidade generalizado.
corresponde ao zero da equação de estado limite, e impor que β(d) ¸ β T ; ou podemos buscar pelo menor valor
da função de desempenho g(d), que corresponde a β(d) = β T , e impor que g(d) ¸ 0.
Em resumo, há duas formas de se impor a restrição de con abilidade no problema RBDO (Eq. 8.51). A
forma convencional é chamada de Reliability-Index Approach (RIA):
As diferenças entre RIA e PMA estão ilustradas nas Figuras 8-8 e 8-9. Quando a restrição de con abili-
dade esta ativa, as soluções y¤RIA e yP¤ M A coincidem (Figura 8-9a e ponto restrição ativa na Figura 8-8).
¤
Quando a restrição não está ativa, o ponto yRIA corresponde ao zero da equação de estado limite, para o qual
¤ ¤
β(d) = kyRIA k > β T ; já o ponto yP MA representa o ponto de menor valor da função de desempenho sobre a
hiper-esfera de raio βT = kyP¤ M A k, para o qual g(d, yP¤ M A ) > 0.
Em con abilidade estrutural, o ponto y¤RIA é chamado de ponto de projeto ou Most Probable Point (MPP).
A palavra projeto no contexto deste capítulo é infeliz, uma vez não há relação com o projetar da estrutura. Na
formulação PMA, yP¤ M A é o ponto de mínimo desempenho ou Minimal Performance Point, que também seria
abreviado como MPP. Para evitar ambiguidade, neste texto utilizamos a sigla MiPP para Minimal Performance
Point (y¤P M A ) e MoPP para Most Probable Point (y¤RIA ).
8.3. SOLUÇÃO DE PROBLEMAS RBDO COM BASE NO FORM 289
Na Eq. (8.62), rd é o operador gradiente com respeito às variáveis de projeto, i.e., vetor contendo as derivadas
∂
parciais rd = f ∂d i
g, i = 1, . . . , nDV . Ao nal de cada laço de con abilidade, uma análise de sensibilidade em
relação a d é realizada, de forma a obter rtd β i (dk ).
De forma semelhante, a solução SLP da versão PMA do problema RBDO (Eq. 8.61) é dada por:
jf (dk+1 ) ¡ f(dk )j · εf ,
¯ ¯
¯ dk+1 ¡ dk ¯
¯ ¯
¯ kdk k ¯ · εd ,
¯ ¤ ¯
¯ yk+1 ¡ yk¤ ¯
¯ ¯
¯ ky¤ k ¯ · εy , (8.64)
k
A solução do problema de otimização enunciado na Eq. (8.60) pode ser obtida através da função Lagrangiana
do problema:
L = (yt y)1/2 + λg(d, y). (8.65)
Na Seção 3.2.7 este mesmo problema foi resolvido, e obtivemos como resultado intermediário a expressão:
rg(d, y¤ )
y¤ = ¡β = ¡®β (8.66)
krg(d, y¤ )k
∂
sendo r o operador gradiente, contendo as derivadas parciais em relação a y: r = f ∂y i
g, i = 1, . . . , nRV . A
Eq. (8.66) mostra que o ponto de projeto é ponto de projeção da origem sobre a equação de estado limite. Na
Seção 3.2.8, veri camos que a linearização sucessiva da equação de estado limite, através de expansão em série
de Taylor, e a busca pelo zero da equação linearizada, resulta no algoritmo HLRF, cuja fórmula recursiva pode
ser decomposta em:
¤
A solução iterativa na Eq. (8.67) é calculada a partir de um valor inicial y0 , até a convergência yq+1 ! yRIA .
¤
O valor inicial pode ser a média das variáveis aleatórias, ou o valor yRIA encontrado na iteração anterior.
Obviamente, o algoritmo HLRF é apenas uma opção para resolver a Eq. (8.60); outros algoritmos são
descritos na Seção 3.3, ou em (Zhang & Der Kiureghian, 1997).
A solução do problema de otimização expresso na Eq. (8.61) pode ser obtida a partir da função Lagrangeana:
³ ´
L = g(d, y) + λ (yt y)1/2 ¡ β T . (8.68)
292 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE
∂L
= 0 ) rg(d, y¤ ) + λr(y¤t y¤ )1/2 = 0, (a)
∂y
∂L
= 0 ) (y¤t y¤ )1/2 ¡ βT = 0, (b)
∂λ
(8.69)
sendo λ um multiplicador de Lagrange. A Eq. (8.69b) é satisfeita automaticamente se a busca é feita sobre a
hiper-esfera de raio βT . A Eq. (8.69a) pode ser trabalhada como:
¡1/2
rg(d, y¤ ) + λy¤ (y¤t y¤ ) = 0,
y ¤
= ¡λ¡1 (y¤t y¤ )1/2 rg(d, y¤ ). (8.70)
O ponto y¤ = y¤st na Eq. (8.70) é ponto estacionário. Assumindo que seja também ponto de mínimo, o
índice de con abilidade β é avaliado como:
β = (y¤t ¤ 1/2
st yst ) = (λ¡2 β 2 rt grg)1/2 . (8.71)
rg(d, y¤ )
y¤ = ¡β T = ¡®βT , (8.73)
krg(d, y¤ )k
sendo ® a direção de maior descida da função de estado limite. A Eq. (8.73) não pode ser avaliada diretamente,
pois depende do ponto y¤ a ser determinado. No entanto, um algoritmo recursivo para o PMA é obtido
diretamente a partir desta equação:
rg(d, yq )
yq+1 = ¡βT = ¡®q β T ,
krg(d, yq )k
g(d, yq+1 ) = g(d, ¡®q βT ). (8.74)
A solução iterativa é avaliada a partir de um ponto inicial y0 , até a convergência yq+1 ! y¤P M A . O valor
inicial pode ser a média das variáveis aleatórias, ou o valor y¤P M A encontrado na interação anterior. O algoritmo
nas Eqs. (8.74) é chamado de Advanced Mean Value ou AMV (Tu et al., 1999 ; Youn et al., 2003).
O algoritmo AMV é e ciente em problemas com equação de estado limite convexa (Youn et al., 2003). No
entanto, instabilidade e divergência foram observados em problemas não-convexos. Um algoritmo conjugado
foi proposto, que resultou e ciente para problemas não-convexos mas ine ciente para problemas convexos.
Finalmente, um algoritmo híbrido (Hybrid Mean Value ou HMV) foi proposto por Youn et al. (2003). A
adaptividade do algoritmo HMV é de nida com base na concavidade da equação de estado limite, medida a
partir da terceira interação:
ξ q+1 = (®q+1 ¡ ®q )(®q ¡ ®q¡1 ). (8.75)
Se sign(ξ k+1 ) > 0, a equação de estado limite é convexa com respeito à origem, para o vetor d. Se
sign(ξ k+1 ) · 0, a equação de estado limite é não-convexa em relação à origem. Neste caso, o passo na busca
8.3. SOLUÇÃO DE PROBLEMAS RBDO COM BASE NO FORM 293
Para dk xo, dado valor inicial y0 (por exemplo, y0 = 0), para q = 0, o algoritmo HMV é dado por:
1. Nas três iterações iniciais, calcule a direção de maior descida ®q , determine o próximo ponto pelo algoritmo
AMV: yq+1 = ¡®q βT , avalie β q+1 = kyq+1 k e gk+1 = g(dk , yq+1 ), veri que a convergência, pare se for o
caso; caso contrário, faça q = q + 1 (repetir duas vezes);
2. A partir do terceiro passo (para q = 3), veri que a concavidade da equação de estado limite usando a Eq.
(8.75). Se sign(ξ k+1 ) > 0, use a equação AMV: yq+1 = ¡®q β T . Se sign(ξ k+1 ) · 0, use a expressão para
o algoritmo HMV (Eq. 8.76); avalie ®q+1 , βq+1 = kyq+1 k e gk+1 = g(dk , yq+1 ); veri que a convergência
e pare se for o caso; c.c., faça q = q + 1 ; e repita o passo 2 até a convergência.
A convergência no algoritmo HMV acima pode ser veri cada por estacionariedade da equação de estado
limite, em forma relativa ou absoluta:
jgk+1 ¡ gk j
· εrel ,
kgk k
jgk+1 ¡ gk j · εabs , (8.77)
sendo εrel , e εabs tolerâncias de convergência de nidas pelo usuário. Alguns exemplos numéricos mostrando a
e ciência do algoritmo HMV são explorados em Youn et al. (2003).
Como mostrado no Exemplo 4, a equação de estado limite é transformada para o espaço normal padrão, por
meio de y = T(x):
determine : d¤ ,
que minimiza : d,
¤
sujeito a : β T ¡β(d, yRIA ) · 0, (8.80)
294 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE
sendo o índice de con abilidade β(d) encontrado através da solução do problema (8.60), utilizando o algoritmo
HLRF. O problema de otimização externo é resolvido por meio de programação linear sequencial (SLP). A
função objetivo já é linear; logo, apenas a restrição deve ser linearizada (conforme Eq. 8.62):
∂β(dk )
β T ¡ β(dk ) ¡ (d ¡ dk ) · 0.
∂d
∂β(dk ) ∂β(dk )
ak + bk d · 0, sendo ak = βT ¡ β(dk ) + dk e bk = ¡ ¢
∂d ∂d
sendo u um multiplicador de Lagrange e s uma variável de folga. As condições necessárias KKT para que d¤
seja solução do problema acima são:
∂L 1
= ¡1 + ubk = 0 ) u = , (a)
∂d bk
∂L
= ak + bk d¤ + s2 = 0, (b)
∂u
∂L
= 2us = 0 ) s = 0. (c)
∂s
(8.82)
determine : d¤ ,
que minimiza : d,
sujeito a : ¡ g(d, y¤P M A ) · 0. (8.83)
A restrição de con abilidade (Eq. 8.61) é resolvida utilizando o algoritmo AMV. Novamente, o problema de
otimização externo é resolvido pelo SLP, conforme Eq. (8.63). A função objetivo já é linear; logo, apenas a
restrição deve ser linearizada:
∂g(dk , y¤P M A )
¡g(dk , yP¤ MA ) ¡ (d ¡ dk ) · 0.
∂d
L(d, u, s) = d + u(ak + bk d + s2 ),
é idêntica àquela da solução RIA (Eq. 8.81). Logo, o mesmo resultado é obtido:
ak g(dk , y¤ )
d¤ = dk+1 = ¡ = dk ¡ ∂g(d ,yP¤ M A) ¢ (8.84)
bk k P MA
∂d
Observe que a solução PMA envolve apenas o gradiente da equação de estado limite, que neste problema
pode ser determinado analiticamente:
∂g(d, y)
= 12, 5y1 y2 + 100y2 + 250y1 + 2000.
∂d
As soluções iterativas acima podem ser programadas facilmente, assim como os algoritmos HLRF (Eq. 8.67)
e AMV (Eq. 8.74). O laço externo de otimização pode ser avaliado manualmente, mas a solução iterativa para o
laço interno torna o cálculo longo e cansativo. Resultados obtidos via implementação em Mathematica, usando
como valor inicial d0 = 1, e tolerância f = 10¡4 , são ilustrados na Tabela 8.1. As soluções iterativas do laço
interno foram iniciadas sempre no ponto médio x0 = f40, 50, 1000gt . No entanto, o passo do PMA (Eq. 8.84),
deve ser calculado no ponto yP¤ M A obtido na iteração anterior. Os valores mostrados na Tabela 8.1 são aqueles
obtidos ao nal de cada laço interno.
Na Tabela 8.1 podemos observar o comportamento distinto das soluções RIA e PMA. Na solução RIA,
o zero da equação de estado limite é imposto, de forma que g(y) ¼ 0 ao nal de cada laço interno de
con abilidade. O índice de con abilidade alvo é obtido apenas no último laço externo. Na solução PMA, o
índice de con abilidade é imposto, de forma que β = βT ao nal de cada laço interno de con abilidade. O
zero da equação de estado limite só é obtido no último laço externo. Como a restrição de con abilidade está
ativa ao nal da solução, os pontos MoPP e MiPP coincidem:
nestes dois tipos de variáveis. Assim, enquanto não houve necessidade de distinção, a notação d 2 RnDV e
X 2 RnRV foi utilizada. Quando há necessidade de distinção, a notação apresentada abaixo é utilizada.
Variáveis de projeto deterministas são aquelas sobre as quais não há incerteza associada, como coe cientes
parciais de segurança, intervalo entre manutenções periódicas, ou dimensões de elementos estruturais (quando
as incertezas decorrentes de tolerâncias de fabricação podem ser desprezadas). Variáveis de projeto aleatórias
são aquelas associadas a fontes signi cativas de incertezas, mas cujo valor médio, por exemplo, é determinado
em projeto. Exemplos incluem a resistência de materiais estruturais, e as dimensões de elementos, quando as
incertezas decorrentes de tolerâncias de fabricação não podem ser desprezadas. É fácil perceber que variáveis
aleatórias de projeto possuem uma componente que pertence a d, e outra componente que pertence a X. No
entanto, estas variáveis são operacionalizadas de forma diferente, o que justi ca a nomenclatura abaixo.
Quando necessária a distinção, utilizamos d 2 RnDDV para representar o vetor de variáveis determinísticas
de projeto e ¹ 2 RnRDV para representar o vetor de médias de variáveis de projeto aleatórias, sendo nDDV para
determinístic Design Variables, nRDV para Random Design Variables, de forma que nDDV + nRDV = nDV .
De forma semelhante, utilizamos X 2 RnP RV para variáveis aleatórias e M 2 RnRDV para variáveis aleatórias
de projeto, de forma que nP RV + nRDV = nRV . Observe que ¹ é o vetor de médias de M. Além das médias,
que é o caso usual, o vetor ¹ também pode conter a variância, ou outro momento, de uma variável aleatória
de projeto. A equação de estado limite se torna g (d, M, X) = 0 . Obviamente, variáveis do tipo d ou X não
estão necessariamente presentes, caso em que o problema depende apenas de M(¹).
O algoritmo SORA (Du & Chen, 2004) é uma estratégia de desacoplamento baseada em laços sequênciais de
otimização determinística e con abilidade estrutural. A idéia central do método é substituir a restrição de
con abilidade por restrição determinística, obtida por translação, a partir da análise de con abilidade realizada
no laço anterior. A análise de con abilidade somente é realizada após a convergência do laço de otimização.
O método SORA endereça a solução de problemas RBDO envolvendo variáveis aleatórias de projeto (variáveis
aleatórias M cuja média ¹ deve ser determinada). Acreditamos que o desempenho do SORA seja ótimo para
variáveis deste tipo. No entanto, não há estudos su cientes na literatura para avaliar o desempenho quando
variáveis de projeto determinísticas (d) também estão presentes.
Os valores iniciais dk e ¹k , para a interação de número k, e as restrições determinísticas para o laço
de projeto são obtidas a partir de uma análise de con abilidade baseada no PMA, onde os pontos MiPP
fm¤ik , x¤ik g = T¡1 (yik
¤
) são obtidos a partir da solução de:
sendo que o vetor Y agrupa todas as variáveis aleatórias no espaço normal padrão. Os vetores de translação
8.3. SOLUÇÃO DE PROBLEMAS RBDO COM BASE NO FORM 297
o que conduz a sik = ¹k ¡ m¤ik . Quando todas as variáveis aleatórias do problema são variáveis de projeto (M),
a análise de con abilidade inicial pode ser evitada fazendo m¤i0 = ¹0 e si0 = 0.
A imposição da restrição de con abilidade no SORA, através dos vetores de translação sik é ilustrada na
Figura 8-10, onde para clareza, apenas duas variáveis do tipo M são consideradas. Observamos que, para uma
restrição ativa gi , o ponto ótimo ¹k = (µm1 , µm2 )k está na fronteira da restrição determinística, gi (¹k ) = 0.
Nesta situação, a probabilidade de falha seria aproximadamente 0,5; logo, a restrição determinística deve ser
transladada para cima, de forma que coincida, aproximadamente, com a restrição probabilística. Esta translação
é obtida a partir da Eq. (8.86). Para a restrição transladada ¹k ¡ sik , a área abaixo da PDF condicional na
Figura 8-10 é aproximadamente igual a probabilidade de falha admissível.
O algoritmo SORA pode ser escrito como:
maneira aproximada, é possível observar convergência para pontos que não são pontos de mínimo da função
objetivo, mesmo no sentido local (Liang et al., 2004).
O método Single Loop Approach (SLA) de Liang et al. (2004) elimina o laço interno de con abilidade ao impor
como restrição, a cada interação do laço externo, as condições de otimalidade de primeira ordem de KKT do
laço interno. O problema é posto como:
determine: dk+1 ,
que minimiza: f (d),
sujeito a: gi (dk , xik ) ¸ 0, i = 1, ..., nLS , d 2 D. (8.87)
sendo xik (d) = (¹X )k ¡ (Jxy )ik ®ik (d)β T i uma aproximação linear do ponto MiPP x¤i , na iteração k. O vetor
(¹X )k só precisa ser atualizado se variáveis aleatórias de projeto (tipo M) estiverem presentes4 . O vetor ®i é
o gradiente normalizado da restrição i, e Jxy é a matriz Jacobiana da transformação x =T¡1 (y) = Jxy y + ¹X :
½ ¾
∂xi
Jxy = . (8.88)
∂yj i=1,...,nRV ;j=1,...,nRV .
As Eqs. (8.87) e (8.88) são uma generalização da formulação original em (Liang et al., 2004), pois endereçam
também variáveis não-Gaussianas e correlacionadas. A solução de laço único SLA não encontra o ponto MiPP
de cada restrição a cada iteração. Ao contrário, uma aproximação do ponto MiPP das restrições ativas é obtida
a partir das condições de primeira ordem. Uma suposição implícita no SLA é que a sequência de aproximações
xik convirja para o ponto MiPP correto, ao nal do processo interativo (x¤k ! x¤P M A ).
Se as equações de estado limite forem excessivamente não-lineares no espaço normal padrão, ou se houver
multiplos pontos de projeto, o algoritmo SLA pode não convergir para a solução correta. Estas são limitações
4 Na formulação SLA, separar os vetores d e ¹, e M e X, exigiria também uma separação de y; logo, preferimos trabalhar com
d e X.
8.3. SOLUÇÃO DE PROBLEMAS RBDO COM BASE NO FORM 299
1. Para cada restrição (i), avaliar as matrizes de transformação (Jxy )ik , os gradientes normalizados (®ik ) e
a aproximação do ponto MiPP: xik (dk ) = (¹X )k ¡ (Jxy )ik ®ik (d)β T i ;
2. O ponto dk+1 é avaliado a partir que qualquer algoritmo apropriado;
3. Veri car a convergência, interromper o algoritmo se for o caso; c.c., atualizar o contador (k = k + 1);
4. Veri car se o vetor (¹X )k mudou desde a última iteração; caso positivo, atualizar a matriz de trans-
formação (Jxy )ik . Atualizar yik =T(xi(k¡1) ) = (Jxy )ik (xi(k¡1) ¡ (¹X )k ) e ®ik , calcular xik (dk ) =
(¹X )k ¡ (Jxy )ik ®ik (d)β T i . Esta etapa é essencial para que os vetores (¹X )k e xik estejam consistentes,
mas também aumenta a e ciência do algoritmo. Voltar a etapa 2.
A Programação Aproximada Sequêncial ou Sequential Approximate Programming (SAP) é uma técnica popular
para resolver problemas convencionais de otimização. SAP consiste em decompor o problema original em uma
sequência de sub-problemas mais simples. Os sub-problemas são obtidos a partir de aproximações, geralmente
lineares ou quadráticas, da função objetivo e das restrições. O SAP, aplicado ao problema RBDO, da origem a
uma solução desacoplada de laço único.
Cheng et al. (2006) apresentaram um método SAP baseado no RIA, para resolver problemas de RBDO. O
esquema proposto é baseado em aproximações lineares da função objetivo e da restrição RIA (SLP). Yi et al.
(2008) apresentaram um método SAP alternativo baseado no PMA, que se mostrou mais robusto e e ciente
que o esquema baseado no RIA.
O método SAP-PMA de Yi et al. (2008) pode ser escrito como:
No SAP, a diferença entre variáveis de projeto d e variáveis de projeto aleatórias M é relevante apenas na
avaliação dos gradientes da equação de estado limite. O gradiente rtd gi (dk , yik
¤
) é avaliado como:
¯ n
∂gi ¯¯ ∂gi (dk , y¤ik ) X ∂gi (dk , y¤ik ) ∂yl ¯
= = ´ rty gi (dk , yik
¤
)(r¹ y)¯y=y¤ ,
∂dj ¯dj =µ ∂µ l=1
∂yl ∂µ ik
¯
∂gi ¯¯ ∂gi (dk , y¤ik )
= ¢
∂dj ¯dj =d ∂d
Critérios de convergência para o SAP envolvem estacionariedade da função objetivo, do MiPP e do vetor de
projeto, conforme Eq. (8.64). Alguns exemplos numéricos, explorando o desempenho do SAP versus soluçoes
acopladas RIA e PMA, ou versus SAP-RIA, são apresentados em (Yi et al., 2008; Yi & Cheng, 2008).
um domínio de falha composto, onde Ck é o conjunto de índices contendo componentes do k¡ésimo grupo de
corte (cut set), de forma que sistemas em série, em paralelo e mistos são representados (veja Seção 4.1.3). Seja
pf SY S a probabilidade de falha do sistema e (1 ¡ pfT SY S ) a con abilidade alvo (ou mínima), de forma que:
Z
pfSY S (d) = P [X 2 f (d)] = fX (x)dx. (8.91)
[k \i2Ck gi (d,X)·0
sendo a con abilidade do sistema (RSY S = 1 ¡ pf SY S ) função da con abilidade dos componentes (Ri =
1 ¡ pfi , i = 1, . . . , nLS ). A con abilidade (ótima) de cada componente é sub-produto da solução da Eq. (8.92).
Utilizando o índice de con abilidade generalizado:
sendo a con abilidade do sistema (β SY S ) função da con abilidade dos componentes (βi , i = 1, . . . , nLS ), encon-
trada como sub-produto da solução da Eq. (8.94).
O problema expresso nas Eqs. (8.92) e (8.94) é signi cativamente mais difícil de resolver do que as Eqs.
(8.7) e (8.8); primeiramente, porque envolve a avaliaçao da con abilidade de sistemas; mas mais importante,
porque há in nitas combinações de con abilidade de componentes que levam a mesma con abilidade de sistema.
Mais ainda, derivadas de uniões ou intersecções de eventos (Eq. 8.91) são sensíveis apenas aos modos de falha
8.3. SOLUÇÃO DE PROBLEMAS RBDO COM BASE NO FORM 301
dominantes (Aoues & Chateauneuf, 2008). A sensibilidade com respeito à modos não-dominantes, que cam
escondidos atrás dos modos dominantes, é difícil de avaliar. Isto gera instabilidades na solução do problema
RBDO para sistemas. No entanto, a solução das Eqs. (8.92) ou (8.94) conduz a projetos melhores, pois a
formulação tem menor número de restrições, conduzindo a menores valores de função objetivo. A formulação
para sistemas permite encontrar pontos ótimos de compromisos entre modos de falha que competem entre si,
pois pode ser mais barato (com respeito à redução em f (d)) reduzir a con abilidade de um componente e
compensar em outros, respeitando-se a con abilidade do sistema.
Para implementar soluções baseadas no PMA para o problema RBDO de sistemas, as con abilidades-alvo dos
componentes precisam ser impostas como restrições no problema de otimização. Como estas não são conhecidas,
são incluídas como variáveis de projeto adicionais, dando origem a um problema aumentado:
sendo ¯ ¤T 2 RnLS um vetor de índices de con abilidade alvo para cada modo de falha (βT i ). Esta formulação
deve ser evitada, por levar à problemas com excesso de restrições, ou seja, a soluções não-ótimas (Aoues &
Chateauneuf, 2008). Em geral, se a restrição referente à con abilidade do sistema está ativa no ponto ótimo, as
restrições individuais podem estar inativas, ou seja, os componentes não serão ótimos. Por outro lado, devido
à especi cação redundante, se muitas restrições individuais estiverem ativas, a restrição referente ao sistema
provavelmente estará inativa; sugerindo que o ponto ótimo não foi encontrado.
Quando a formulação RIA é empregada, a con abilidade (ótima) dos componentes βi se torna sub-produto
da solução do problema de otimização. Neste caso, a Eq. (8.92) pode ser empregada diretamente, sendo a
con abilidade do sistema uma função da con abilidade dos componentes:
As primeiras abordagens ao problema de RBDO de sistemas (Feng & Moses, 1986; Enevoldsen & Sørensen,
1993) resolveram problemas simples através de soluções acopladas, onde o laço de con abilidade era resolvido
utilizando diferentes aproximações, dentro do laço de projeto. Tais soluções encadeadas são computacionalmente
custosas; logo, restritas a problemas acadêmicos. Algoritmos especializados foram desenvolvidos apenas mais
recentemente.
Royset et al. (2001) propuseram um método para RBDO de sistemas onde a con abilidade alvo do sistema é
obtida ajustando heuristicamente a con abilidade dos componentes. Ba-abbad et al. (2006) apresentaram uma
extensão do SORA para sistemas, baseada em laços sequências de projeto e de con abilidade, e em extrapolação
linear para o ponto MoPP. Liang et al. (2007) apresentaram uma extensão do método SLA (Liang et al., 2004)
para RBDO de sistemas em série, utilizando limites de segunda ordem (Ditlevsen, 1979). Esta solução é discutida
na sequência. Aoues & Chateauneuf (2008) apresentaram uma técnica para sistemas em série utilizando um laço
interno adicional, para minimizar a diferença entre a con abilidade de componentes e seus alvos, sujeita a uma
restrição na con abilidade do sistema (β SY S (d, ¯ T ) ¸ βT SY S ). Uma limitação do método é que o algoritmo
para atualização das con abilidades alvo não leva em conta a função objetivo. Um esquema de laço único,
endereçando RBDO de sistemas genéricos, foi apresentada por Nguyen et al. (2010), e é discutida na sequência.
Uma revisão ampla da literatura sobre con abilidade de sistemas, com aplicação a otimização, é apresentada
por Song et al. (2021).
Um método de laço único ou Single Loop Aproach (SLA) endereçando RBDO de sistemas em série foi desen-
volvido por Liang et al. (2007). Esta solução foi extendida para sistemas genéricos, como o da Eq. (8.90), por
Nguyen et al. (2010). O método é baseado no PMA, e utiliza as con abilidades alvo dos componentes como
302 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE
sendo ¯ ¤T 2 RnLS o vetor de con abilidade alvo dos componentes. Os vetores xi são atualizados de acordo com
o esquema SLA original (Eq. 8.87): xik (dk ) = (¹X )k ¡ (Jxy )ik ®ik (d)β T i . O esquema original de Liang et al.
(2007) endereça apenas sistemas em série, com a probabilidade de falha do sistema sendo calculada a partir dos
limites bi-modais, conforme Seção 4.3.2:
nLS
X nLS
X
pfSY S = P [[gi (d, X) · 0] ' pfi ¡ max[pfij ]. (8.97)
j<i
i=1 i=2
com ρij = ®i ®j sendo o coe ciente de correlação linearizado entre pares de equações de estado limite. As
mesmas Equações (8.97 e 8.98) são utilizadas para veri car se os índices de con abilidade alvo β T i na Eq.
(8.96) respeitam a con abilidade do sistema, i.e., se uma soluçao candidata é viável.
Se uma das restrições de con abilidade de componente se torna inativa, de forma que pfT i ! 0 e β T i ! 1,
a solução da Eq. (8.96) se torna instável, pois a sensibilidade da restrição a este modo de falha ca muito
pequena. Para contornar este problema, uma estratégia de restrições ativas é proposta por Jiang et al. (2007).
Para um p pequeno, escolhido pelo analista, restrições inativas são identi cadas por pf T i < p , e impõe-se que
pf T i = 0 e βT i = ¡©¡1 (p ). O conjunto de restrições ativa é atualizado a cada interação.
Uma solução de laço único para sistemas genéricos é apresentada por Nguyen et al. (2010). Probabilidades
de falha para sistemas genéricos são avaliadas através da técnica de multiplicação de matrizes ou utilizando a
técnica de programação linear, conforme Seção 4.3.3. O método PMA é utilizado; logo, índices de con abilidade
alvo para cada modo de falha são introduzidos como variáveis de projeto adicionais. O algoritmo de solução é
muito parecido com aquele de Liang et al. (2007).
Amostragem por Hipercubo Latino (LHS), amostragem por importância, amostragem melhorada ou simulação
por subconjuntos.
Utilizar simulação de Monte Carlo para resolver a restrição de con abilidade em RBDO, ou a função ob-
jetivo em LCRO, elimina alguns dos problemas observados na Seção 8.3. Nominalmente, simulação permite
avaliar com precisão probabilidades de falha envolvendo equações de estado limite fortemente não-lineares, ma-
peamentos y = T(x) fortemente não-lineares, e con abilidade de sistemas. No entanto, a simulação introduz
novas di culdades, como instabilidades devido à amostragem aleatória, necessidade de utilizar grande número
de amostras para avaliar pequenas probabilidades de falha, etc. A solução via simulação pode se tornar proibiti-
va quando respostas estruturais são dadas implicitamente por modelos de elementos nitos não lineares, com
muitos graus de liberdade, ou em problemas de dinâmica. Há também problemas de instabilidade, que se orig-
inam na convergência não-monotônica dos resultados da simulação, à medida que o número de amostras, nS ,
aumenta.
Os métodos descritos nesta seção podem ser classi cados como métodos gerais para resolver problemas de
otimização de projeto na presença de incertezas. Na literatura, estes problemas são chamados de problemas de
otimização estocástica, e são encontrados em áreas como nanças, matemática, logística e engenharia. Métodos
de otimização estocástica são descritos em Birge & Louveaux (1997), Kall & Wallace (1994), Ruszczynski &
Shapiro (2003) e Spall (2003).
Problemas de otimização estocástica podem ser resolvidos por métodos heurísticos de ordem zero, que não
requerem informações sobre derivadas, como Algoritmos Genéticos, Otimização por Enxames de Partículas, etc.
No entanto, tais métodos exigem uma grande populaçao de pontos candidatos, o que implica em grande número
de chamadas da função de estado limite. Problemas de otimização estocástica também podem ser resolvidos
por métodos de primeira ordem, que exigem derivadas das probabilidade de falhas com respeito às variáveis de
projeto. A avaliação de derivadas através de simulação representa di culdades adicionais, como veremos neste
texto.
Probabilidades de falha nas restrições de RBDO e na função objetivo de LCRO podem ser avaliadas por
simulação através de probabilidades condicionais:
Z
pf (d) = p(fjd) = p(fjd, x)p(xjd)dx
Z
= If (d, x)p(xjd)dx, (8.99)
sendo f o evento falha, p(xjd)= fX (x) a função de densidade conjunta das variáveis aleatórias do problema,
que se torna função explícita de d quando variáveis de projeto estão presentes. Na Eq. (8.99), If (d, x) é a
função indicadora:
If (d, x) = 1, se x 2 f ,
If (d, x) = 0, se x 2
/ f .
Conforme observado na Seção 5.1, a Eq. (8.99) representa o valor esperado da função indicadora. Uma
estimativa não-tendenciosa é obtida, a partir de uma amostra nita de tamanho nS , como:
ns
1 X
pbf (d, nS ) = If (d, xi ), (8.100)
ns i=1
sendo nS = [x1 , x2 , ..., xnS ] o conjunto de amostras e xi a i¡ésima amostra do vetor de variáveis aleatórias.
O estimador na Eq. (8.100) é dito não-tendencioso quando:
Na prática, um número nito de amostras é utilizado; logo, um erro de amostragem enS (d, nS ) é inevitável,
e apenas uma boa aproximação da pf (d) é obtida para nS su cientemente grande. Logo, um problema de
otimização aproximado é resolvido:
ou
determine: d¤nS ,
nLS
X
que minimiza: cconstru ção (d) + ... + cfi (d)b
pfi (d, nS ),
i=1
sujeito a: d 2 D; (8.102)
A precisão da otimização utilizando simulação pode ser aumentada reduzindo erros enS (d, nS ) de forma
absoluta ou relativa. O erro absoluto é reduzido aumentando o número de amostras, mas isto tem impacto
direto no custo computacional. O erro relativo pode ser reduzido minimizando a variância entre estimativas
pbf (d1 , nS1 ) e pbf (d2 , nS2 ) para alternativas d1 e d2 . A variância entre as estimativas é avaliada como:
Logo, utilizar o mesmo conjunto de números aleatórios (ou a mesma amostra) para avaliar as duas estimativas
(nS1 = nS2 ) introduz correlação positiva entre pbf (d1 , nS1 ) e pbf (d2 , nS2 ), e reduz a variância da diferença,
desde que as alternativas d1 e d2 não sejam muito diferentes. Esta técnica é conhecida na literatura (Kleinmann
et al., 1999) como números aleatórios comuns ou Common Random Numbers (CRN). O desempenho é melhor
quando a técnica é empregada simultaneamente com a função indicadora continua, conforme veremos na próxima
seção.
A Figura 8-11 illustra o comportamento dos erros absoluto e relativo em função do número de amostras
(nS ), utilizando ou não a técnica CRN. Observamos que o emprego da técnica suaviza os valores esperados de
pbf (d, nS ), produzindo maior estabilidade na busca pela solução ótima d¤nS .
Em problemas reais de engenharia, a transição entre estado completamente funcional e completamente em falha
nunca é discreta, como sugerido por equações de estado limite g(d, X) = 0. Como exemplo, o escoamento de
barras de reforço, em estruturas de concreto armado, não ocorre de forma discreta, para um valor exato de
deformação. Para facilitar a análise e o projeto estrutural, convencionamos que existe um limite bem de nido
8.4. TÉCNICAS BASEADAS EM SIMULAÇÃO PARA RBDO E LCRO 305
Figura 8-11: Variância de estimativas pf (d, nS ) em função do número de amostras, nS , e utilizando a técnica
CRN.
de deformações, como εsu = 0, 01, mesmo sabendo que o escoamento ocorre em torno deste valor. Tal limite
arbitrário facilita a solução de problemas de con abilidade via técnicas de transformação (FORM, SORM), mas
resulta em maior instabilidade para soluções baseadas em simulação. Problemas de estabilidade podem ser
reduzidos introduzindo uma pequena perturbação na equação de estado limite, através de uma variável de
média zero e desvio-padrão pequeno, de forma a produzir uma transição contínua entre sobrevivência e falha:
ge(d, X) = g(d, X) + = 0.
A Figura 8-12 compara as funções indicadoras discreta If (d, x) e contínua 1 ¡ F(x), para a escolha comum
» N (0, σ). O desvio padrão σ deve ser pequeno, de forma que a Eq. (8.104) resulte semelhante a Eq. (8.100).
Assim como ocorre no cálculo de derivadas por diferenças nitas, existe uma pequena faixa de valores σ na qual
as soluções são equivalentes.
O uso da função indicadora continua (Eq. 8.104), em combinação com a técnica CRN suaviza a comparação
306 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE
entre alternativas d1 e d2 , tornando a busca pelo ponto ótimo d¤nS mais estável.
Em problemas de otimização estocástica, probabilidades de falha são função explícita de d, pbf (d, nS ). Durante
a busca pelo ponto ótimo d¤nS , probabilidades de falha (e eventualmente, gradientes) devem ser reavaliadas
iterativamente. Em especial, a avaliação dos gradientes:
½ ¾
∂b
pf
rbpf (d, nS ) = ,
∂di i=1,...,nDV
tem enorme impacto computacional, especialmente quando realizada via diferenças nitas, e se as probabilidades
envolvidas forem pequenas. Além disto, a avaliação de gradientes por diferenças nitas está sujeita a ruídos
decorrentes da simulação (veja Figura 8-11). Assim, técnicas especiais são necessárias para o cálculo dos
gradientes das probabilidades de falha, utilizando simulação de Monte Carlo.
Problema de con abilidade aumentado Uma forma de determinar gradientes de pbf , em relação às var-
iáveis de projeto d, a partir de uma única simulação de Monte Carlo (com ns amostras) foi proposta por Au
(2005). A proposta consiste em atribuir uma distribuição de probabilidades instrumental às variáveis de projeto,
ou seja, considerá-las como variáveis aleatórias (d ! D), gerando um problema de con abilidade aumentado.
O suporte das variáveis de projeto é dividido em intervalos, e amostras são obtidas em cada intervalo, utilizando
a técnica de hipercubo latino. O Teorema de Bayes é utilizado para determinar probabilidades condicionais:
p(djf ) +
pbf (d) = p(f jd) = pb , (8.105)
p(d) f
sendo D o espaço amostral instrumental das variáveis de projeto. As probabilidades condicionais p(djf ), na
Eq. (8.105), são avaliadas a partir do mesmo conjunto de amostras, mas usando:
Z
1
p(djf) = + If (d, x)p(xjd)p(d)dx.
pbf
8.4. TÉCNICAS BASEADAS EM SIMULAÇÃO PARA RBDO E LCRO 307
Gradientes da probabilidade de falha via perturbação simultânea Análise estocástica com pertur-
bação simultânea é uma forma e ciente de avaliação de gradientes (Spall, 2003). A técnica é baseada na
observação que uma perturbação simultânea de todas as variáveis de projeto d, no longo prazo, gera a mesma
informação que perturbações de cada variável individualmente. Logo, duas avaliações da pbf são su cientes para
se obtêr o vetor gradiente:
½ ¾ ½ ¾
∂ pbf pbf (dk + ck ¢k , nS ) ¡ pbf (dk ¡ ck ¢k , nS )
rb pf (dk , nS ) = = ,
∂dki i=1,...,nDV 2ck ¢ki
sendo o sub-índice ()k para a k¡ésima iteração, e ¢k 2 RnDV um vetor de variáveis aleatórias independentes
que produzem as perturbações simultâneas, satisfazendo algumas propriedades especiais (Spall, 2003). Um
algoritmo de busca baseado no gradiente é escrito como:
dk+1 = dk ¡ ak rb
pf (dk , nS ).
Gradientes da probabilidade de falha por delta de Dirac Uma forma direta de avaliar gradientes da
probabilidade de falha com respeito a variáveis de projeto foi apresentada por Lacaze et al. (2015). Os autores
mostram que gradientes podem ser aproximados por:
¯ Z ¯
pf ¯¯
∂b ∂g ¯¯
=¡ δ(g(d, X))p(xjd)dx,
∂di ¯d ¯
∂di d,X
sendo δ( ) a função delta de Dirac. Com base em simulação de Monte Carlo simples, os gradientes são estimados
como:
¯ ns ¯
∂ pbf ¯¯ 1 X ∂g ¯¯
¼¡ δ(g(d, nS )). (8.107)
∂di ¯d ns i=1 ∂di ¯d,n
S
Para tornar as equações acima numericamente tratáveis, os autores (Lacaze et al., 2015) propõe cinco
aproximações contínuas para a função delta de Dirac. Uma expressão semelhante a Eq. (8.107) é apresentada
para avaliar gradientes via simulação por sub-conjuntos.
308 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE
Gradientes da probabilidade de falha por diferenças nitas e simulação Uma ótima revisão do tópico
é apresentada por Torii (2020). O autor compara três técnicas para avaliação de gradientes: sensibilidade em
forma fraca, emprego direto de diferenças nitas e a técnica CRN. O autor mostra que o erro quadrático médio
εMS de uma estimativa do rb pf por simulação é composto pelo fator de tendência (bias) e pela variância.
Torii (2020) mostra como estes dois componentes do erro quadrático médio variam com o fator h, utilizado
no cálculo das derivadas por diferenças nitas. Um fator h pequeno deve ser utilizado para reduzir o erro de
tendência (bias). No entanto, ao reduzirmos h aumenta a variância da estimativa; controlar o aumento da
variância implicaria em aumentar o número de amostras. O autor chama este comportamento de maldição
da análise de sensibilidade da probabilidade de falha usando MCS. No mais, Torii (2020) mostra que a forma
fraca e diferenças nitas centrais possuem propriedades semelhantes, e que a técnica CRN produz os melhores
resultados, dentre as estudadas.
Combinando as técnicas descritas na Seção 8.4.1, Taanidis & Beck (2008, 2009) desenvolveram uma solução
para otimização estocástica utilizando simulação por sub-conjuntos (Stochastic Subset Optimization ou SSO).
Trata-se de uma abordagem muito e ciente, baseada em dois estágios: uma busca global é realizada por simu-
lação de subconjuntos, e uma busca local é realizada por perturbação simultânea. A identi cação de subcon-
juntos baseia-se na formulação do problema aumentado, onde variáveis de projeto são assumidas arti cialmente
como variáveis aleatórias. A amostragem por importância também é empregada, para as variáveis aleatórias
identi cadas como mais relevantes. Uma versão não-paramétrica do método tembém é apresentada (Jia &
Taanidis, 2013; Jia et al., 2015). Apesar de muito e ciente, a técnica é limitada a um número pequeno de
variáveis de projeto, devido à di culdade de se identi car os sub-conjuntos em grandes dimensões.
Na Seção 5.3.2 veri camos que as probabilidades de falha na Eq. (8.99) podem ser avaliadas utilizando
amostragem por importância:
Z
pf (d) = If (d, x)p(xjd)dx
Z
If (d, x)p(xjd)
= h(xjd)dx, (8.108)
h(xjd)
a partir de um conjunto de amostras obtidas da função de amostragem h(xjd). A Eq. (8.108) pode ser
I (d,x)p(xjd)
interpretada como o valor esperado, com respeito à função de amostragem, do termo f h(xjd) ¢
Diferentes esquemas de amostragem por importância são obtidos a partir de diferentes funções de amostragem,
conforme descrito na Seção 5.3.2. Uma técnica chamada de amostragem com ponderação média ou Weighted
Average Simulation (WAS) é obtida escolhendo uma função de amostragem h(xjd) com distribuição uniforme,
e com suporte em parte signi cativa do suporte original da variável X. Neste caso, a função de amostragem
h(xjd) se torna uma constante, A(h )¡1 , sendo A(h ) a área do suporte de h(xjd). Amostras de X são
obtidas de maneira uniforme (Rashki et al., 2012), limitadas à região de suporte de h(xjd). Segundo a Eq.
(8.108)), um peso de amostragem é associado a cada amostra xi : wi = p(xi jd) = fX (xi jd). Para ns amostras,
a probabilidade de falha é aproximada por:
ns ns
1 X If (d, xi )p(xi jd) X If (d, xi )p(xi jd)
pbf (d, nS ) = = ¢ (8.109)
ns i=1 h(xi jd) i=1
ns h(xi jd)
8.4. TÉCNICAS BASEADAS EM SIMULAÇÃO PARA RBDO E LCRO 309
Veri camos que, no limite ns ! 1, o termo ns h(xi jd) vem a ser a probabilidade do espaço amostral h , ou
ns h(xi jd) ! 1. Logo, a probabilidade de falha pode ser avaliada como:
Pns
If (d, xi )wi (d)
pbf (d, nS ) = i=1Pns ¢ (8.110)
i=1 wi (d)
Uma interpretação alternativa da Eq. (8.110), em termos de integrais de volume, é apresentada por Xiaopeng
et al. (2014).
A técnica de amostragem com ponderação média é particularmente conveniente em problemas envolvendo
variáveis aleatórias de projeto, isto é, variáveis de projeto ¹ que representam algum momento (média) de
uma variável aleatória M. A formulação acima foi escrita em termos de d e X, mas pode ser interpretada
adequadamente. Entendendo que as variáveis aleatórias M fazem parte do vetor X, observamos que os pontos
amostrais não mudam, já que a função de amostragem é uniforme. Logo, avaliar uma mudança em ¹ implica
apenas reavaliação dos pesos de amostragem na Eq. (8.110) (Rashki et al., 2014). Assim, evitamos o elevado
custo computacional de reavaliar a equação de estado limite. O mesmo não é válido para o caso de variáveis
determinísticas de projeto, d. A formulação acima deixa claro que uma mudança em d requer refazer a simulação,
reavaliando a equação de estado limite em todos os pontos de amostragem. Fica claro, também, que a aplicação
de amostragem com ponderação média na solução de problemas de otimização estrutural envolve a combinação
da técnica com algum algoritmo de busca do ponto ótimo em ¹ e/ou d.
Otimização estrutural utilizando amostragem com ponderação média é particularmente útil em problemas
nos quais diferentes distribuições de probabilidade, fX (x), devem ser testadas; ou quando diferentes valores de
con abilidade-alvo devem ser considerados. Uma aplicação potencial é na solução de problemas de otimização
de riscos. Baseado diretamente na Eq. (8.110), meta-modelos podem ser construídos relacionando pbf (d, nS )
com o vetor de variáveis de projeto.
Em sua versão original, o método de amostragem com ponderação média não é muito e ciente em proble-
mas RBDO envolvendo alvos de con abilidade muito elevados. Uma versão alternativa do método, utilizando
amostragem por importância, foi sugerida por Yuan & Lu (2014); no entanto, a e ciência do método na solução
de problemas de RBDO não foi claramente demostrada.
Uma melhoria signi cativa do método de amostragem com ponderação média, com impactos claros em
otimização, foi proposta por Okasha (2016). Trata-se de uma proposta de ranqueamento (ordenamento por
ordem de importância) dos pontos amostrados. Os pontos xi amostrados são ordenados em ordem decrescente,
de acordo com o peso de amostragem wi (d). A posição r1 é atribuída ao ponto com maior peso amostral wi (d);
rns é a posição do ponto de menor peso amostral. Este ordenamento reete a contribuição de cada amostra na
estimativa da probabilidade de falha, de acordo com a Eq. (8.110). Desta forma, aproximações incrementais da
probabilidade de falha podem ser obtidas como:
Pk
If (d, x )wri (d)
pbf k (d, nS ) = pbfk = i=1Pns ri ¢ (8.111)
i=1 wi (d)
Esta avaliação é interrompida quando determinado critério de convergência é atendido, evitando avaliações
da equação de estado limite além de k. Assumindo que todos os demais pontos estejam localizados no domínio
de falha (If (d, xri ) = 1), obtemos o resto:
Pns
i=k+1 wri (d)
rk = P ns ¢ (8.112)
i=1 wi (d)
Logo, um limite superior para a probabilidade de falha pode ser obtido sem avaliar a equação de estado limite
310 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE
Okasha (2016) mostra que este processo de ranqueamento leva a uma redução signi cativa no número de
avaliações da equação de estado limite. O procedimento de parada, que determina a ordem k para a aproximacão
da probabilidade de falha, Eq. (8.110), é dado por:
pf k )U ¡ pbfk · pf ,
(b (8.114)
Rd (B) = tan(φ)N + cB
gB
= tan(φ) [ρ H ¡ ρw γ(hd + hu )] + cB,
2 c
sendo φ o angulo de atrito, c o coe ciente de coesão e N a força normal.
As forças desestabilizantes são dadas pela diferença de pressão das colunas de água à montante e à jusante:
e ângulo de atrito são os valores reduzidos mencionados pelos autores. Valores maiores são considerados na
Seção 8.6.5, em uma análise de otimização de riscos robusta.
De acordo com os autores (Altarejos-García et al., 2012), níveis de água no local da barragem estão associados
às taxas de retorno anuais listados na Tabela 8.3. À medida que os níveis de água aumentam, as taxas de retorno
anuais reduzem rapidamente, conforme ilustrado na Figura 8-14. Na análise de con abilidade, probabilidades
de falha condicionais são avaliadas para cada nível (na) da coluna de água, pf (Bjna = hu ), utilizando FORM
e as Eqs. (8.116 e 8.117), para B = 46, 42 m. O índice de con abilidade é obtido como:
Probabilidades de falha condicionais para a barragem projetada de forma convencional também são mostradas
na Figura 8-14: podemos observar que, à medida que o nível de água cresce, probabilidades de falha também
crescem, mas de forma aproximadamente linear, em escala logarítmica. A taxa de falhas anual da barragem,
integrada sobre todos os níveis de água, é obtida como:
nna
X
ηf (B) = (ηna )i pf (Bjnai ).
i=1
O integrando desta expressão, ou produto ηna pf (Bjna), também é ilustrado na Figura 8-14: à medida que
o nível de água cresce, probabilidades de falha condicionais aumentam, mas como as taxas de retorno anuais
diminuem, o produto (integrando) ca limitado. A probabilidade de falha da barragem, para uma vida de
projeto tD , ca:
pf (B, tD ) = 1 ¡ exp[¡ηf (B)tD ].
316 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE
Figura 8-14: Taxa de retorno anual (ηna ), probabilidade de falha condicional pf (Bjna) e produto ηna pf (Bjna),
para B = 46, 42 m.
Figura 8-15: Índice de con abilidade para tombamento (β t ), para deslizamento (βd ), e para falha do sistema
em série (β sys ), para B = 46, 42 m.
8.6. EXEMPLO DE APLICAÇÃO: PROJETO DE BARRAGEM DE GRAVIDADE 317
Como o problema RBDO acima contém uma única variável de projeto, a solução pode ser encontrada via busca
exaustiva, ou de forma grá ca. A solução é obtida como B¤ = 56, 6 m, que corresponde aos coe cientes de
segurança λt = 2, 09 e λd = 2, 98, ambos signi cativamente maiores do que os valores recomendados em norma.
Figura 8-16: Custos esperados totais e largura ótima da base B ¤ para LCRO.
falha inferior e superior como cf = 1 e cf = 6 bilhões de dólares, respectivamente. Resultados especí cos obtidos
aqui são válidos para estes valores, mas as conclusões podem ser generalizadas. O projeto baseado em risco da
barragem de gravidade pode ser posto como:
Como o problema acima tem uma única variável de projeto, a solução pode ser obtida por busca exaustiva,
ou de forma grá ca. A Figura 8-16 mostra as funções objetivo para esse problema, junto com os valores ótimos
da base: B¤ = 50, 4 m para cf = 1 bilhão, e B0 = 59, 3 m para cf = 6 bilhões (US$). Estes valores são
signi cativamente mais conservadores do que a solução determinística (B = 46, 42 m). Casualmente, a solução
obtida para o problema RBDO com βT = 3 (B0 = 56, 6) está entre os resultados obtidos para a otimização de
risco. Isto signi ca que a con abilidade ótima para cf = 1 é menor do que o alvo de RBDO (βT = 3), e que a
con abilidade ótima para cf = 6 é maior do que βT = 3.
Na Figura 8-16, o braço esquerdo das curvas função-objetivo é dominado pelo custo esperado de falha, e o
braço direito é dominado pelos custos de sobre-projeto. Como os dois braços aumentam de forma acentuada,
o ponto de mínimo é bem de nido. Este comportamento mostra a importância de se realizar a otimização de
riscos aqui proposta, para este tipo de problema.
A Figura 8-17 compara coe cientes de segurança (λt e λd , esquerda) e custos esperados totais (direita) para
as barragens obtidas via projeto convencional (DDO) e via RBDO e LCRO. Para custos de falha estimados na
faixa inferior (cf = 1 bilhão), coe cientes de segurança ótimos obtidos via LCRO são um pouco maiores do
que aqueles da formulação convencional (de norma), e custos totais são um pouco menores. Já para custos de
falha na faixa superior (cf = 6 bilhões), a solução LCRO resulta em coe cientes de segurança signi cativamente
maiores, e custos de falha signi cativamente menores. Nos dois casos, os resultados mostram que os custos de
sobre-projeto são claramente compensados por redução nos custos esperados de falha. Coe cientes de segurança
obtidos pela formulação RBDO são intermediários aos valores de LCRO, para este exemplo e para β T = 3, e
custos esperados totais são semelhantes.
Comparando as soluções de LCRO para diferentes custos de falha, observamos que a solução para cf = 6
8.6. EXEMPLO DE APLICAÇÃO: PROJETO DE BARRAGEM DE GRAVIDADE 319
Figura 8-17: Coe cientes de segurança (esquerda) e custos esperados totais (direita) obtidos via projeto con-
vencional (DDO), RBDO, e LCRO com cf = 1 bilhão e cf = 6 bilhões (US$).
bilhões é bem mais conservadora (como esperado), com maiores coe cientes de segurança. No entanto, custos
esperados totais para cf = 6 bilhões não são muito maiores do que para cf = 1, o que mostra que custos
esperados de falha são controlados pelos coe cientes de segurança maiores. Os custos totais são maiores para o
caso cf = 6 bilhões apenas em função dos custos de se construir uma barragem mais larga.
Os resultados ilustrados na Figura 8-17 mostram que um projeto de custo esperado total mínimo é obtido
a partir da formulação de otimização de riscos. Claramente, utilizando os coe cientes de segurança obtidos na
otimização de risco, em um projeto convencional, os resultados poderiam ser reproduzidos. No entanto, esta
equivalência não é geral, conforme demostrado em (Beck & Gomes, 2012). No artigo original (Beck, 2013), o
problema de projeto da barragem de gravidade, aqui reproduzido, é resolvido em duas versões, duplicando e
dividindo por dois os níveis de água constantes na Tabela 8.3 e a altura da barragem H. Como as consequências
de falha dependem principalmente do volume do reservatório, e não da altura da barragem, os custos de falha
foram mantidos os mesmos. (US$ 1 e 6 bilhões). Para estas versões proporcionais do problema, resultados
desproporcionais foram obtidos: as razões entre coe cientes de segurança e entre custos esperados totais,
ilustradas na Figura 8-17, mudam de forma não-proporcional.
Para o caso da barragem com H = 184 m, coe cientes de segurança ótimos são muito menores do que aqueles
obtidos para H = 92 m, e mais parecidos com os coe cientes de norma. Para a barragem com H = 46 m, os
coe cientes de segurança ótimos obtidos são muito maiores do que aqueles obtidos para H = 92 m. Para esta
barragem de menor altura, custos esperados totais obtidos via LCRO são muito menores do que aqueles obtidos
via solução convencional. Poderíamos esperar que o projeto da barragem menor fosse o de menor risco, entre
os três casos analisados. No entanto, como os custos de falha foram mantidos constantes, resulta que há uma
vantagem econômica de se projetar a menor barragem com maiores coe cientes de segurança, já que o custo de
sobre-projeto destas é muito menor do que o custo de sobre-projetar a barragem mais alta. Tal conclusão só
pode ser obtida a partir de uma análise de otimização de riscos.
A Figura 8-17 (direita) também mostra resultados obtidos para a formulação de otimização de riscos robusta
(RRO), cujos resultados são descritos a seguir.
A otimização de riscos envolve encontrar o ponto de mínimo custo esperado total, o que inclui custos
esperados de falha. Estes são calculados a partir de probabidades de falha nominais, que reetem o grau de
con ança do analista no desempenho da estrutura. As probabilidades de falha são ditas nominais porque são
avaliadas a partir de modelos mecânicos, matemáticos e probabilísticos que são imperfeitos ou limitados. Logo,
incertezas epistêmicas tem potencial de impactar resultados da otimização de riscos. Neste contexto, o conceito
de otimização robusta é utilizado para obter soluções menos sensíveis às incertezas epistêmicas.
Diferentes tipos de incerteza podem impactar o desempenho de sistemas de engenharia, conforme discutido na
Seção 1.1. Uma distinção importante é entre incertezas intrínsicas e incertezas epistêmicas. Incerteza intrínsica
ou aleatória corresponde a variabilidade natural de processos físicos, e inclui incerteza em ações (ambientais, em
particular), na resistência dos materiais, nas dimensões dos elementos, etc. Incerteza epistêmica está relacionada
com o nível de conhecimento sobre o problema, e inclui incerteza estatística, erros de modelo, e incertezas
fenomenológicas.
A idéia principal da presente construção é separar incertezas que admitem uma representação probabilística,
daquelas que podem ser quanti cadas apenas possibilisticamente. De forma geral, incertezas intrínsicas admitem
uma descrição probabilística, na forma de variáveis aleatórias e processos estocásticos. Alguns tipos de incerteza
epistêmica, como erros de modelo e incerteza estatística, também admitem descrição probabilística. No entanto,
devido à falta de informação, muitas formas de incerteza epistêmica não podem ser representadas de forma
probabilística (Ben-Haim & Elishako¤, 1990; Möller & Beer, 2004; Moens & Vandepitte, 2005; Beer et al.,
2013). Estas incertezas podem ser quanti cadas na forma de intervalos ou de números fuzzy. Nesta seção,
adotamos uma representação na forma de números fuzzy (veja Apêndice H). O problema de otimização de risco
é formulado em termos das incertezas probabilísticas, e tornado robusto mediante o conjunto fuzzy de incertezas
epistêmicas.
Considere que todas as variáveis que admitem quanti cação probabilística são agrupadas no vetor X. Para
estas incertezas, probabilidades de falha nominais são determinadas a partir das Eqs. (8.4) ou (8.91). No
entanto, poderão existir incertezas que apenas admitem representação possibilística, por exemplo através de
variáveis fuzzy. Tais variáveis podem estar presentes nas equações de estado limite (Eqs. 8.3 ou 8.90), ou nos
termos de custos sobre o ciclo de vida (Eq. 8.11). Quando dependem de variáveis fuzzy, probabilidades de
falha nominais se tornam probabilidades fuzzy, e custos esperados totais se tornam custos fuzzy (e
cet (d)). Para
conveniência de notação, o custo fuzzy é representado por ecet (d) = (C, mC ), sendo C um conjunto e mC uma
função de associação, todos funções do vetor de variáveis de projeto d. O suporte de ecet é dado pelo conjunto
C = fzjmC (z) > 0g = fzl · z · zu g. Custos esperados totais podem ser função não-linear da variáveis fuzzy;
logo, o método de otimização na Eq. (H.1) pode ser utilizado para determinar mC (z).
O problema de otimização convencional na Eq. (8.12) é sensível à incerteza fuzzy nos custos esperados totais.
Logo, um custo esperado robusto é introduzido:
Z zu
cR (d) = zc (d)+ mC (z)dz, (8.120)
zl
sendo zc o valor crisp do custo esperado total, função do valor crisp das variáveis de entrada. Com estas
preliminares, o problema de otimização robusta de riscos pode ser posto como (Beck et al., 2012):
A solução d¤ que minimiza a Eq. (8.120) minimiza o valor crisp zc , bem como reduz o suporte de e
cet ; tornando
a solução da Eq. (8.121) menos sensível à incerteza fuzzy, em comparação com a solução da Eq. (8.12). Por
esta razão, esta solução é chamada de Otimização de Riscos Robusta.
A formulação de otimização de riscos robusta, proposta originalmente em (Beck et al., 2012), é aplicada
ao projeto de barragem de gravidade em concreto. De acordo com Altarejos-García et al. (2012), as maiores
fontes de incertezas no projeto de barragens de gravidade são a coesão, o coe ciente de atrito na fundação, e o
8.6. EXEMPLO DE APLICAÇÃO: PROJETO DE BARRAGEM DE GRAVIDADE 321
coe ciente de pressão de poros γ. Em particular, os valores dos coe cientes de variação (C.V.) destas variáveis
não são bem conhecidos. As análises de con abilidade apresentadas até aqui foram realizadas utilizando valores
inferiores (segundo Altarejos-García et al., 2012) destas variáveis (veja Tabela 8.3). Nesta seção, variáveis
fuzzy adimensionais são utilizadas, como multiplicadores, para representar a incerteza nestes valores de C.V.:
e
a = tri(0, 7; 1, 0; 1, 3). Logo, os coe cientes de variação de coesão, ângulo de atrito e pressão de poros, tais como
listados na Tabela 8.3, são reduzidos ou aumentados em até 30%.
Consideramos também a existência de incertezas epistêmicas relacionadas ao custo (futuro) de eventual
falha das barragens. Para representar esta incerteza, variáveis fuzzy adimensionais foram utilizadas: e b =
tri(0, 8; 1, 0; 1, 2), de forma que o custo de falha se torna: eb cf . Os custos de falha nominais são os mesmos
valores considerados anteriormente, reetindo a faixa inferior (cf = 1) e superior (cf = 6 US$ bilhões). Como
o problema é muito simples, não foram consideradas incertezas do tipo fenomenológica.
A formulação de projeto para otimização de riscos robusta é obtida como:
Z zu
determine: BR que minimiza: cR (B) = zc (B) + mC (z, B)dz,
zl
sujeito a: B > 0. (8.122)
A função de associação mC (z, B) foi avaliada de forma aproximada, a partir de sete α¡cortes Cα , para α
uniformemente espaçado em [0, 1]. A função objetivo na Eq. (8.122) foi avaliada numericamente. O problema
de otimização foi resolvido de forma exaustiva: a solução é calculada para vários valores de B (os mesmos
valores necessários para construir a Figura 8-18); a solução ótima é aquela que produz o menor valor da função
objetivo.
A Figura 8-18 ilustra as funções objetivo custo esperado total original (cet ) e robusta (cR ), para cf = 1
(esquerda) e para cf = 6 (direita), em bilhões de dólares. A Figura 8-19 mostra a função de associação dos custos
esperados totais fuzzy correspondentes. Fica claro que os custos robustos são maiores que os custos esperados
totais originais, em função da integral sobre a função de associação (Eq. 8.122). Desta forma, observamos na
Figura 8-18 que a solução ótima para a formulação robusta (BR ) é uma baragem de maior largura do que a
solução original (B0 ). Isto ocorre porque as funções custo crescem mais rapidamente à esquerda, onde custos
esperados totais são dominados por custos esperados de falha. Logo, para tornar custos esperados totais menos
sensíveis às incertezas epistêmicas, como ilustrado na Figura 8-19, é necessário pagar por algum sobre-projeto.
Tal observação vai ao encontro da prática histórica observada em engenharia de estruturas: maiores incertezas
conduzem a maiores margens de segurança em projeto. A pro ssão já descobriu que é mais barato errar por
ser excessivamente conservador, do que pagar por custos de falha. Com a formulação de otimização de riscos
robusta aqui proposta, é possível determinar exatamente quão conservador um projeto estrutural deve ser, de
forma a reetir incertezas conhecidas (intrínsecas), e a se tornar menos sensível às incertezas epistêmicas.
322 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE
Figura 8-18: Funções custo esperado total original e robusta, para cf = 1 (esquerda) e cf = 6 (direita) bilhões
de dólares.
Figura 8-19: Funções de associação dos custos esperados totais fuzzy, original e robusto, para cf = 1 (esquerda)
e cf = 6 (direita) bilhões de dólares.
8.7. EXERCÍCIOS E PROBLEMAS PROPOSTOS 323
8.7.1 Exercícios
Exercício 12 DDO £ RBDO £ RO: programar em computador a solução do Exercício 11, pg. 285.
Exercício 13 RIA £ PMA: programar em computador solução do exemplo apresentado na Seção 8.3.4,
pg. 293 (rótula plástica em viga), nas versões RIA e PMA, utilizando βT = 2, 5. Solução: d¤ = 0, 8818.
Exercício 15 RBDO de sistemas: programar em computador solução SLA do problema P3, consideran-
do uma restrição de con abilidade de sistemas βT SY S = 3.
Exercício 17 Otimização utilizando MCS: programar em computador solução do problema P3, con-
siderando β T SY S = 3, e utilizando a técnica RWA (ranked weighted average simulation). Observe que
soluções baseadas em simulação tendem a apresentar maior variação.
Exercício 18 Otimização de riscos: programar em computador a solução do problema P5, técnica livre.
8.7.2 Problemas
P1 Equação de estado limite não-linear, variáveis de projeto determinísticas (Aoues & Chateauneuf, 2010):
determine : d¤ = fb¤ , h¤ g;
que minimiza : f (d) = b2 + h2 ;
bh
sujeito a : P[ (X2 )2 ¡ X1 · 0] · pfT = ©(¡β T ), 0 · d · 15;
5
sendo : β T = 2, 32; X1 » N (5; 1, 5); X2 » N (3; 0, 9).
P2 Projeto de viga curta, variáveis de projeto aleatórias (Aoues & Chateauneuf, 2010; Lopes & Beck, 2012):
determine : ¹¤ = fb¤ , h¤ g;
que minimiza : f (¹) = bh;
sujeito a : P [g(¹, X) · 0] · pf T = ©(¡βT ), 0, 5 · b/h · 2;
sendo : β T = 3; X = ffy , M1 , M2 , N g;
¹X = f40 103 , 250, 125, 2500g; ±X = f0, 1; 0, 3; 0, 3; 0, 2g;
M = fB, Hg; B » N (b; 0, 05b); H » N (h; 0, 05h);
4M1 4M2 N2
g(M, X) = 1 ¡ 2
¡ 2 ¡ .
B H fy B H fy (B H fy )2
P3 Múltiplas equações de estado limite, variáveis de projeto aleatórias (Liang et al., 2004; Aoues & Chateauneuf,
2010; Lopes & Beck, 2012):
determine: ¹¤ = fb¤ , h¤ g;
que minimiza: f (¹) = b + h;
sujeito a: P [gi (M) · 0] · pf T = ©(¡βT ), i = 1, 2, 3;
0 · b · 10; 0 · h · 10;
sendo: β T = 3;
g1 (M) = B2 H/20 ¡ 1;
g2 (M) = (B + H ¡ 5)2 /30 + (B ¡ H ¡ 12)2 /120 ¡ 1;
g3 (M) = 80/(B 2 + 8H + 5) ¡ 1;
M = fB, Hg; B » N(b; 0, 3); H » N (h; 0, 3).
Soluções:
¹¤ = f3, 44; 3, 29g, f (¹¤ ) = 6, 82, para 3 restrições (β T = 3).
µ¤ = f3, 42; 3, 39g, f (µ¤ ) = 6, 9, para restrição de sistema (β T SY S = 3).
P4 Duas equações de estado limite em série, variáveis de projeto determinísticas, viga engastada (adaptado de
Liang et al., 2007 para SI):
determine: d¤ = fw¤ , t¤ g;
que minimiza: f (d) = w t;
sujeito a: P [[gi (d, X) · 0] · pfT = 1, 35 10¡3 , i = 1, 2; 0 · w; t · 5;
sendo: β T = 2, 78215; d0 = 2, 2535 mm; L = 100 mm;
µ ¶
Y Z
g1 (d, X) = Sy ¡ 0, 6 + ;
w t2 w2 t
sµ ¶ µ ¶2
2
4L3 Y Z
g2 (d, X) = d0 ¡ + ;
E w t 103 t2 w2
X = fSy , Y, Z, Eg;
Y » N (1000; 100) N; Sy » N (40; 2) MPa;
Z » N (500; 100) N; E » N (29; 1, 45) GPa.
Soluções:
d¤ = f2, 620; 3, 601g mm, f (d¤ ) = 9, 436, usando limites uni-modais (pf12 = 0);
8.7. EXERCÍCIOS E PROBLEMAS PROPOSTOS 325
d¤ = f2, 608; 3, 615g mm, f (d¤ ) = 9, 427, usando a média dos limites bi-modais (pf12 6= 0).
P5 Otimização de riscos, projeto de coluna, variáveis de projeto determinísticas (Enevoldsen & Sorensen, 1994).
Uma coluna circular vazada de altura h = 25 m, diâmetro externo d e espessura de parede t deve ser projetada
para suportar uma força de compressão centrada P . O custo unitário de material é cu = 20 103 /m3 , e o custo
de falha é 109 . Os dados das variáveis aleatórias são apresentados na Tabela 8.4.
determine : d¤ = fd¤ , t¤ g;
que minimiza : f (d) = cu h π d t + cf pf ;
sujeito a : β i (d) ¸ βT , i = 1, 2, 3; 1 · d · 3 m; 4 · t · 15 mm;
sendo : β T = 4;
gy (d, X) = fy π d t ¡ P (esmagamento);
glb (d, X) = flb π d t ¡ P (ambagem local);
ggb (d, X) = fgb π d t ¡ P (ambagem global);
X = fP, E, fy , kd , ki g.
A tensão de ambagem local, flb , é dada por (per l formado a frio, soldado, sem alívio de tensões residuais):
p
flb = fy (1, 5 ¡ λb / 2),
com parâmetros: r
1 h fy
γ = 2 λ2e + ki (λe ¡ 0, 2) + 0, 8 e λe = ¢
2λe 0, 35 dπ E
O fator de imperfeições geométricas para ambagem global, ki , é uma variável aleatória (Tabela 8.4).
TEORIA DE PROBABILIDADES:
VARIÁVEIS ALEATÓRIAS
Este capítulo está embasado em Papoulis e Pillai (2001) e Ang & Tang (1975, 1990). Para um aprofundamento
de qualquer dos assuntos, consulte estas referências. Uma boa referência para o assunto, traduzida para o
português, é Montgomery & Runger (1999). Dois textos mais lúdicos sobre teoria de probabilidades e seus
efeitos são apresentados por Weawer (1982) e Mlodinow (2009).
De nição frequentista
nA
P [A] ´ lim ¢ (A.1)
n!1 n
De nição clássica
Sendo NA o número de possíveis resultados favoráveis ao evento A e N o número total de resultados possíveis,
a de nição clássica de probabilidades é dada por:
NA
P [A] ´ ¢ (A.2)
N
Nesta de nição, a probabilidade P [A] é encontrada à priori, antes da primeira realização do experimento.
Para evitar ambiguidade na contagem de NA e N , é necessário que os N eventos sejam equi-prováveis. Em
palavras, a de nição é dada por:
Na de nição acima, equiprováveis signi ca com a mesma probabilidade, o que signi ca que o objeto a
ser de nido faz parte da de nição! Sendo assim, a de nição clássica também tem limitações. Muitas vezes, a
de nição frequentista é utilizada para de nir os eventos equi-prováveis.
Nesta de nição subjetiva, também conhecida como de nição Bayesiana, a probabilidade P [A] está associada
ao grau de con ança do sujeito em relação a ocorrência do evento A. Enquanto a de nição frequentista está
associada à média de fenômenos repetitivos, ou à múltiplas observações de um evento, a de nição subjetiva
aplica-se a uma única ocorrência do evento. Exemplos:
Há 60% de chance de chuva amanhã, durante a competição!. Esta probabilidade é calculada
através de um modelo meteorológico, que leva em consideração a quantidade de nuvens prevista
pelo modelo em uma região geográ ca, nas próximas horas ou dias. Inferir esta probabilidade
para um horário e local especí co é uma extrapolação subjetiva, uma informação que não pode ser
validada pelo modelo.
A probabilidade de falha desta estrutura única é pequena; logo, a estrutura é segura!. Tal pro-
babilidade é calculada com base em modelos físicos e matemáticos, e com base na interpretação
frequentista dos parâmetros observáveis, e na de nição axiomática de probabilidades. No entanto,
não há como validar tal probabilidade de forma experimental. A probabilidade de falha estrutural é
interpretada como grau de con ança no desempenho da estrutura (veja de nição de con abilidade
estrutural na pg. 39).
Probabilidades subjetivas podem ser construídas de várias maneiras: opinião de especialistas, emprego de
modelos diversos, quanti cação de informações subjetivas ou linguísticas, etc. (Ben-Haim & Elishako¤, 1990;
Ayyub & Klir, 2006).
A probabilidade Bayesiana é interpretada como uma expectativa razoável baseada no estado do conhecimen-
to, ou como quanti cação de uma crença pessoal. Pode ser entendida como uma extensão da lógica propositiva,
que permite lidar com hipóteses cujos resultados (falso ou verdadeiro) são sujeitos a incertezas. A avaliação da
probabilidade de uma hipótese é feita em termos de uma probabilidade pré-de nida (prior ), que é atualizada
em uma probabilidade posterior (posteriori), com base em alguma evidência observada.
O termo Bayesiana se refere ao matemático e teólogo Thomas Bayes (1701 - 1761), que propôs a primeira
abordagem matemática de problemas não-triviais em análise estatística de dados. O matemático Pierre-Simon
Laplace (1749 - 1827) popularizou o que hoje conhecemos como probabilidades Bayesianas.
A.1. AXIOMAS DA TEORIA DE PROBABILIDADES 329
De nição axiomática
Cada uma das de nições anteriores tem a sua utilidade na solução de problemas práticos. A Teoria Matemática
de Probabilidades é baseada na seguinte de nição:
A probabilidade associada a um evendo A é um número associado a este evento, que obedece aos
três seguintes postulados:
Operações:
² Existência:
² Igualdade:
² Soma ou união:
² Produto ou intersecção:
A ¢ B, A \ B elementos comuns a A e B.
² Evento complementar:
A.1. AXIOMAS DA TEORIA DE PROBABILIDADES 331
² Diferença:
² Lei de Morgan:
Em qualquer igualdade, podemos trocar somas por produtos, produtos por somas e eventos por seus com-
plementares, que a igualdade ca preservada :
(A [ B) = A \ B,
(A \ B) = A [ B.
332 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS
O espaço amostral é composto de 36 elementos. A probabilidade de que a soma das faces seja igual a 12 é
1
P [soma = 12] = 36 ¢
1) P [A] ¸ 0;
2) P [] = 1;
3) P [A + B] = P [A] + P [B]. (A.4)
P [Ø] = 0,
¹ = 1,
P [A] + P [A]
ou:
¹ · 1.
P [A] = 1 ¡ P [A]
¹ ¸ P [B].
Se B ½ A, então P [A] = P [B] + P [A \ B]
² A de nição frequentista de probabilidades pode ser usada para interpretar as probabilidades de nidas nos
três axiomas. Adotando P [A] ¼ nnA , veri camos que:
1) é verdade;
2) como o espaço amostral ocorre sempre e n = n, resulta que P [] ¼ nn = 1;
3) se A e B são eventos mutuamente exclusivos, então nA+B = nA + nB e P [A + B] ¼ nA+B n
= nnA + nnB ¼
P [A] + P [B].
Para especi car de forma completa e não ambígua um experimento, as probabilidades de todos os eventos
possíveis devem ser conhecidas ou determináveis. Isto pode ser feito atribuindo probabilidades a todos os
eventos elementares, i.e., aqueles formados por um único ponto amostral.
Numero nito ou contável de resultados possíveis: Sejam p1 , p2 , ..., pN números reais tais que p1 +
p2 + ...+ pN = 1, pi ¸ 0 de forma que a probabilidade do evento elementar seja P [fwi g] = pi . Se o evento A é
formado pelos elementos:
então:
P [A] = P [fwk1 g] + P [fwk2 g] + ... + P [fwkM g] = pk1 + pk2 + ... + pkM .
Probabilidades na linha dos reais Um espaço de probabilidades importantes é a reta dos números reais,
ou qualquer fração desta. Os resultados possíveis são números reais. Os eventos, neste caso, são somas e
produtos de intervalos de nidos nesta reta. Considerando como o conjunto dos números reais positivos, as
probabilidades dos mais diversos eventos podem ser determinadas, uma vez conhecida a probabilidade
R 1 do evento
f0 · t · t1 g para qualquer t1 . Se α(t) é uma função integrável no tempo, tal que α(t) ¸ 0 e 0 α(t)dt = 1,
então podemos escrever: Z t1
P [f0 · t · t1 g] = α(t)dt.
0
334 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS
f0 · t · t2 g = f0 · t · t1 g + ft1 < t · t2 g.
Podemos mostrar ainda que a probabilidade do evento elementar P [ft = t1 g] = 0, o que resulta em:
Exemplo 19 Para uma distribuição uniforme no tempo, temos α(t) = cte. Logo, no intervalo {0,T} temos
RT RT
0
α(t)dt = cte 0 dt = 1, e portanto cte = T1 . Se um evento (e.g., uma chamada telefônica ou a emissão
de um elétron) acontece neste intervalo, então:
t1
P [f0 · t · t1 g] = ,
T
t2 ¡ t1
P [ft1 · t · t2 g] = ¢
T
P [A \ B]
P [AjB] = ¢ (A.5)
P [B]
P [A \ B] = 0 ) P [AjB] = 0.
A.1. AXIOMAS DA TEORIA DE PROBABILIDADES 335
Se A ½ B então A \ B = A e:
P [A]
P [AjB] = ¸ P [A].
P [B]
Se B ½ A então A \ B = B e:
P [B]
P [AjB] = = 1.
P [B]
Logo:
nAB
P [AjB] ¼ ¢
nB
Em palavras: desconsiderar todas as realizações em que B não ocorreu equivale a de nir um novo con-
junto de observações do experimento onde o número total de realizações é nB . Logo, as probabilidades
condicionais a B são calculadas em relação ao número total de observações nB .
1
Exemplo 20 Lançamento de um dado: = ff1 , f2 , f3 , f4 , f5 , f6 g, P [fi ] = 6. Qual a probabilidade de
obter uma face 6, sendo que o resultado do lançamento foi par?
3
B = fparg = ff2 , f4 , f6 g, P [B] = ,
6
1
A = ff6 g, A \ B = ff6 g, P [A \ B] = ¢
6
Logo:
P [A \ B] 1 6 1
P [AjB] = P [ff6 jparg] = = ¢ = ¢
P [B] 6 3 3
336 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS
Exemplo 21 Uma caixa contém 3 bolas azuis e 2 bolas brancas. Qual a probabilidade de sacar uma bola
azul e depois uma branca?
Sejam os eventos: A = f1a azulg, B = f2a brancag. A solução bruta é obtida listando todos os resultados
possíveis (20 possibilidades) ao se sacar duas bolas:
Ai \ Aj = 0, i 6= j,
A1 + A2 + ... + AN = .
Este resultado é utilizado extensivamente em con abilidade estrutural; por exemplo, para integrar probabili-
dades de falha condicionais à ocorrência de um terremoto, sobre todas as possíveis intensidades de terremoto.
Da probabilidade condicional, temos que: P [BjA1 ]P [A1 ] = P [A1 \ B], de forma que a Eq. (A.6) também
pode ser escrita como:
P [B] = P [A1 \ B] + P [A2 \ B] + ... + P [AN \ B].
A.1. AXIOMAS DA TEORIA DE PROBABILIDADES 337
Exemplo 22 Quatro caixas possuem bolas brancas e azuis dispostas conforme a tabela:
Caixa # azuis # brancas
1 1900 100
2 300 200
3 900 100
P4 900 100
4000 500
Selecionando uma caixa aleatoriamente, qual a probabilidade de sacarmos uma bola branca?
Seja Ci o evento selecionar a i-ésima caixa, o que equivale a selecionar todas as bolas daquela caixa:
1
P [C1 ] = P [C2 ] = P [C3 ] = P [C4 ] = ,
4
C1 + C2 + C3 + C4 = ,
Ci \ Cj = 0, i 6= j.
Seja B o evento selecionar bola branca. Para cada caixa, temos as seguintes probabilidades condicionais:
100
P [BjC1 ] = = 0, 05;
2000
200
P [BjC2 ] = = 0, 40;
500
100
P [BjC3 ] = = 0, 10;
1000
100
P [BjC4 ] = = 0, 10.
1000
Logo, utilizando o teorema da probabilidade total, temos:
Obs: se todas as bolas estivessem na mesma caixa, a probabilidade de selecionar uma branca seria: P [B] =
500 1
4500 = 9 = 0, 1111111.
P [Ai \ Aj ] = 0, i 6= j,
P [A1 + A2 + ... + AN ] = 1.
P [BjAi ]P [Ai ]
P [Ai jB] = ¢ (A.8)
P [BjA1 ]P [A1 ] + P [BjA2 ]P [A2 ] + ... + P [BjAN ]P [AN ]
Exemplo 23 Quatro caixas com bolas brancas e azuis (cont.): Se a bola selecionada no exemplo anterior
foi branca, qual a probabilidade de que ela tenha sido tirada da caixa 2? P [C2 jB] =?
Sabemos que:
P [B] = 0, 1625; P [BjC2 ] = 0, 4; P [C2 ] = 0, 25;
P [BjC2 ]P [C2 ] 0, 4 0, 25
P [C2 jB] = = = 0, 615.
P [B] 0, 1625
A probabilidade P [C2 jB] calculada acima é a probabilidade à posteriori de haver selecionado a caixa 2,
dada a seleção de uma bola branca.
Utillizando a de nição de probabilidades condicionais (Eq. A.5), concluímos também que para dois eventos
A e B independentes:
P [AjB] = P [A],
P [BjA] = P [B],
3. Se eventos A1 , A2 , ..., AN são independentes, então qualquer destes eventos também é independente de
qualquer evento formado por sub-conjuntos, somas, produtos, ou complementos dos demais eventos.
Se mais de dois eventos forem apenas independentes aos pares, não está garantida a independência entre os
eventos.
A B
(A B) (B C) (A C)
(A B C)
1
b) se P [A \ B] = P [B \ C] = P [A \ C] = P [A \ B \ C] = 125 , temos que P [A \ B \ C] = P [A]P [B]P [C],
no entanto
P [A \ B] 6= P [A]P [B];
P [B \ C] 6= P [B]P [C];
P [A \ C] 6= P [A]P [C].
340 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS
De nição 3 Uma variável aleatória real X(w) é uma função real que atribui a cada ponto amostral w de um
espaço amostral um valor real x, tal que o conjunto fX · xg é um evento para qualquer número real x.
É comum representar uma variável aleatória por uma letra maiúscula, e uma realização desta variável por
uma letra minúscula. Sendo assim, o evento fX = xg pode ser descrito como a variável aleatória X assume
o valor x. O evento fX · xg signi ca: a variável aleatória X assume qualquer valor menor ou igual a x.
Claramente, sendo X uma variável aleatória, a ocorrência deste evento só pode ser determinada em termos de
probabilidades.
O domínio da função variável aleatória X(w) é o espaço amostral . Quando este domínio é formado por
um número nito ou in nito contável de pontos, dizemos que a variável aleatória é do tipo discreta. Quando o
domínio é formado por um número in nito de pontos, temos uma variável contínua.
Em outras palavras, o número FX (x) corresponde à probabilidade de que a variável aleatória X assuma
qualquer valor menor do que x. Esta de nição é válida para variáveis aleatórias discretas ou contínuas.
Exemplo 25 Lançamento de um dado: a variável aleatória X é de nida como X(fi ) = i, i.e., a variável
corresponde ao número inteiro que aparece na face do dado. P [ffi g] = 16 ¢
A.2. VARIÁVEIS ALEATÓRIAS 341
Fx ( x) f x ( x)
1 2 3 4 5 6 x 1 2 3 4 5 6 x
1. FX (¡1) = 0; FX (+1) = 1.
2. FX ( ) é monotonicamente crescente, i.e., FX (x1 ) · FX (x2 ) para qualquer x1 < x2 .
3. FX ( ) é contínua pela direita:
lim FX (x + ε) = FX (x+ ) = FX (x).
ε!0
ε>0
Quando FX (x) é uma função contínua em x, ainda que não diferenciável em alguns pontos, dizemos que a
variável é contínua. O número de pontos onde FX (x) não é diferenciável deve ser contável, de forma que a Eq.
(A.11) seja válida nos pontos onde a derivada dFdx
X (x)
existe. Da Eq. (A.11) e das propriedades da função de
342 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS
P [fx · X · x + ¢xg]
fX (x) = lim ¢ (A.12)
¢x!0 ¢x
Quando a função FX (x) é descontínua, a variável aleatória é do tipo discreta. Chamando de pi o salto da função
FX (x) no ponto xi , temos:
X
P [fX = xi g] = FX (xi ) ¡ FX (x¡
i ) = pi , i = 1, 2, ..., n; pi = 1.
i
Para variáveis aleatórias discretas, a função fX (x) pode ser descrita por pulsos, onde um pulso de intensidade
pi ocorre a cada ponto de descontinuidade xi :
X
fX (x) = pi δ(x ¡ xi ).
i
Se o domínio da variável aleatória é formado por um número nito ou in nito contável de pontos amostrais,
então esta variável é discreta. No entanto, a recíproca não é verdadeira, i.e., existem variáveis aleatórias discretas
cujo domínio é formado por um número in nito de pontos.
sendo fX (x) a função de densidade de probabilidade da variável aleatória X. Note que E[ ] é o operador valor
esperado, enquanto µ é a média da variável aleatória (em geral, uma constante, ou resultado da operação).
Se fX (x) é interpretada como uma função de densidade de massa no eixo x, então µ é o centro de gravidade
desta massa.
Se fX (x) é uma função simétrica, então fX (¡x) = fX (+x) e µ = 0.
Se fX (x) é simétrica em torno de x = a, então fX (a ¡ x) = fX (a + x) e µ = a.
Se a variável X está associada a um evento A de tal forma que:
½
1 se w 2 A
X(w) = ;
0 se w 2
/A
Logo, o valor esperado de X pode ser entendido como a probabilidade de ocorrência do evento A.
É importante observar que os valores assumidos pela variável podem nunca ser iguais à média. Por exemplo,
num lançamento de moedas onde X seja de nido da seguinte forma:
½
1 se cara
X(w) = ;
0 se coroa
Variância
Outra importante quantidade utilizada para descrever variáveis aleatórias é a variância, V ar[X], que mede a
dispersão da variável em torno da média:
Z +1
2
V ar[X] ´ E[(X ¡ µ) ] = (x ¡ µ)2 fX (x)dx = σ2 . (A.14)
¡1
Na expressão acima, a constante σ é chamada de desvio-padrão, que vem a ser a raiz quadrada da variância:
p
σ = V ar[X] ou V ar[X] = σ2 .
Enquanto a média de uma variável aleatória corresponde ao centro de gravidade da função de densidades
fX (x), a variância corresponde ao momento de inércia da massa de probabilidades, e dá uma idéia da concen-
tração desta massa em torno do centro de gravidade.
344 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS
A média ou valor esperado de uma variável aleatória é o momento de primeira ordem desta variável. O momento
de ordem k é, por de nição: Z +1
E[X k ] ´ xk fX (x)dx = µk . (A.15)
¡1
Dentro de certas restrições, o conjunto de momentos de ne de forma única a função de densidades fX (x) de
uma variável aleatória. Os seguintes casos particulares são importantes:
indicam distribuições cuja massa de probabilidades está concentrada a direita da média, caso das distribuições
de mínimos.
O coe ciente de planicidade ou kurtosis:
£ ¤
E (X ¡ µ)4 m4
κ´ =
σ4 σ4
distingue distribuições planas de distribuições com picos acentuados. A referência é a distribuição normal, que
tem κ = 3. Distribuições mais planas do que a normal, como a uniforme, tem κ < 3. Distribuições com picos
mais acentuados do que a normal tem κ > 3; caso das distribuições exponencial, Gumbel, logística e de Laplace.
Desigualdade de Tchebyche¤
Para uma variável aleatória X qualquer, com média µ e desvio-padrão σ, a desigualdade de Tchebyche¤ estab-
elece (Figura A-1):
1
P [jX ¡ µj ¸ c σ] · 2 ,
c
ou seja:
a probabilidade de uma variável aleatória qualquer diferir de sua média por, no mínimo, c desvios-
padrão, é menor ou igual a 1/c2 .
346 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS
Seja uma amostra contendo n observações de uma variável aleatória X com média µ e variância σ2 . A média e
a variância da amostra podem ser determinadas por:
1X
n
x1 + x2 + ... + xn
x
¹ = = xi ; (A.17)
n n i=1
n
¹)2 + (x2 ¡ x
(x1 ¡ x ¹)2 + ... + (xn ¡ x
¹)2 1X
v¹ = = ¹)2 .
(xi ¡ x (A.18)
n n i=1
É importante observar que, para n observações da variável aleatória X, a média e a variância da amostra, x ¹
e v¹, são diferentes da média e da variância de X, µ e σ2 . Os estatísticos falam em média e variância da amostra
e média e variância da população. A população, que para os estatísticos corresponde ao universo ou totalidade
dos xi possíveis, para nós é a variável aleatória X.
Nesta seção, demostramos que x ¹ e v¹ são estimadores de µ e σ 2 . Para isto, é importante notar que a cada nova
realização ou observação da amostra de tamanho n, novos valores x1 , x2 , ..., xn são obtidos, alterando também
os valores de x ¹ e v¹. Sendo assim, é natural assumir que os valores observados xi , assim como a média x ¹ ea
variância v¹, sejam variáveis aleatórias. Mais ainda, como todos os valores xi correspondem a observações da
mesma variável, entendemos que cada variável aleatória Xi tenha a mesma média e variância da variável X
original, i.e.:
E[Xi ] = µ;
E[(Xi ¡ µ)2 ] = σ2Xi = σ2 , i = 1, 2, ..., n.
Logo:
1 2 nσ2 σ2
σ2X¹ = (σ X + σ 2
X + ... + σ 2
X ) = = ¢
n2 1 2 n
n2 n
Neste resultado, observamos que a variância do estimador X ¹ tende a zero com n ! 1.
Utilizando raciocínio similar, podemos mostrar que (Papoulis, 1965, pg. 246):
n¡1 2
E[V¹ ] = σ , (A.19)
n
ou seja, V¹ tal como de nido na Eq. (A.18), é um estimador tendencioso da variância de X, σ2 . Esta tendência
é resultado do fato de que o estimador V¹ computa a distância entre os pontos xi e a média da amostra, x
¹, e não
em relação à media populacional µ. Como a média da amostra é calculada com o mesmo conjunto de pontos xi ,
resulta que a variância em relação a x
¹ é menor do que a variância em relação a µ, e portanto (A.18) sub-estima
a variância, como demonstra a Eq. (A.19).
n
Multiplicando o estimador da variância (Eq. A.18) pelo termo n¡1 , podemos corrigir a tendenciosidade do
A.3. MODELOS ANALÍTICOS DE FENÔMENOS ALEATÓRIOS 347
1 X
n
v¹ = ¹)2 .
(xi ¡ x (A.20)
n ¡ 1 i=1
Uma variável aleatória com domínio formado por um número nito ou in nito contável de pontos amostrais é
do tipo discreto. Seja n o número de pontos amostrais de uma variável discreta X, que assume os valores xi,
i = 1, 2, ..., n tal que:
P [fX = xi g] = pi , i = 1, 2, ..., n;
Xn
pi = 1.
i=1
A função de densidade de probabilidades fX (x) pode ser descrita pela função delta de Dirac (δ(x)), onde
um pulso de intensidade pi ocorre a cada ponto xi :
X
fX (x) = pi δ(x ¡ xi ). (A.22)
i
Na distribuição uniforme discreta, todos os n pontos amostrais que formam o domínio são equiprováveis. Neste
caso, temos:
1
pi = ¢
n
Se X apresenta distribuição uniforme nos inteiros consecutivos entre a e b (escrevemos X » U D(a, b, n)),
para a · b, então:
a+b
µ = ,
2
(b ¡ a + 1)2 ¡ 1
σ2 = ¢
12
Experimento de Bernoulli
A realização de um experimento que possui apenas dois resultados possíveis (dois pontos amostrais) é chamado
de tentativa de Bernoulli. Os resultados possíveis podem ser do tipo sucesso ou falha, cara ou coroa, zero ou um,
preto ou branco, ip ou op, ying ou yang, etc. Em geral, os dois resultados possíveis podem ser a ocorrência
ou não de um evento de interesse. Neste caso, p é a probabilidade de ocorrência do evento de interesse, a cada
realização do experimento, e q = 1 ¡ p é a probabilidade de não-ocorrência.
A grandeza que de ne o evento de interesse pode ser contínua, i.e., pode assumir mais do que dois valores.
Ainda assim, obtemos uma tentativa de Bernoulli ao de nir um valor limite ou crítico para a variável de interesse.
Exemplos:
A repetição independente de um experimento com apenas dois resultados possíveis dá origem a uma sequência
Binomial ou de Bernoulli. Uma sequência de Bernoulli é caracterizada pelas seguintes condições:
A.3. MODELOS ANALÍTICOS DE FENÔMENOS ALEATÓRIOS 349
1. cada realização do experimento possui apenas dois resultados possíveis: ocorrência ou não ocorrência do
evento de interesse;
2. a probabilidade p de ocorrência do evento de interesse permanece constante nas n repetições;
3. as realizações são independentes, i.e., o resultado de uma realização não altera a probabilidade p da
próxima ou de qualquer outra realização.
Exemplo: se as máximas cheias anuais de um rio são independentes, e a probabilidade de exceder determinado
nível permanece constante a cada ano, então a cheia máxima anual ao longo de uma série de anos será uma
sequência de Bernoulli.
Uma sequência mista com n observações de ocorrências (o) ou não ocorrências (o) do evento de interesse é
obtida em n realizações independentes do experimento de Bernoulli. Por exemplo:
s = fo, o, o, o, o, o, o, o, o, o, o, o, og.
Como as tentativas são independentes, a probabilidade de que, em uma determinada sequência w apareçam x
ocorrências e n ¡ x não ocorrências é:
n!
P [fx ocorrências em n realizaçõesg] = pxq n¡x .
x!(n ¡ x)!
Uma variável aleatória X que conta o número x de ocorrências em n realizações deste experimento segue
uma distribuição Binomial com parâmetros n e p (escrevemos X » BN (n, p)). A função de densidade de
probabilidades de X é dada por:
n!
P [fX = xg] = P [fx ocorrências em n realizaçõesg] = px q n¡x . (A.26)
x!(n ¡ x)!
µ = np,
σ2 = npq. (A.28)
Quando mais de um resultado é possivel na realização do evento de Bernoulli, obtemos uma distribuição
multi-nomial.
O experimento descrito na seção anterior, que dá origem à distribuição Binomial, representa sequências com um
número xo de realizações de Bernoulli independentes. A variável aleatória X que conta o número (variável)
de tentativas de Bernoulli até a primeira ocorrência do evento de interesse segue uma distribuição geométrica
com parâmetro p (X » G(p)). A função de densidade de probabilidades de X é dada por:
1
Como q < 1, a série entre parenteses converge para p2 , de forma que:
1
µ= ¢ (A.31)
p
A contagem do número de tentativas até o primeiro sucesso não tem um ponto inicial xo ou determinado.
Como as tentativas são independentes, a contagem do número de tentativas pode iniciar em qualquer tentativa,
sem mudar a distribuição de probabilidades de X. Esta propriedade da distribuição geométrica é chamada de
propriedade da falta de memória.
Em problemas envolvendo tempo (ou espaço), onde tempo (ou espaço) seja descrito de maneira discreta (em
termos de intervalos), o número de intervalos até a primeira ocorrência do evento de interesse é chamado de
tempo até a primeira ocorrência ( rst occurence time). Se o evento de interesse ocorre ao longo destes intervalos
como uma sequência de tentativas independentes de Bernoulli, então o tempo até a primeira ocorrência é uma
variável aleatória descrita por uma distribuição geométrica. Devido à propriedade da falta de memória, este é
também o tempo (aleatório) entre ocorrências sucessivas.
Sendo T o número de intervalos entre ocorrências sucessivas (ou até a primeira ocorrência), o assim chamado
período médio de recorrência ou período médio de retorno (mean recurrence time ou average return period ) é
dado pelo valor esperado (Eq. A.31):
1
E[T ] = µT = ¢
p
A.3. MODELOS ANALÍTICOS DE FENÔMENOS ALEATÓRIOS 351
É importante observar que µT é o tempo médio de retorno do evento de interesse, enquanto que T é o tempo
aleatório (em número de intervalos) entre ocorrências.
A probabilidade de não ocorrência do evento de interesse durante o tempo médio de retorno é:
Para eventos raros (com pequena probabilidade de ocorrência p, ou grande período médio de retorno µT ), a
expansão do binômio em (A.33) resulta em:
Quando uma sequência de Bernoulli ocorre ao longo de um contínuo (tempo ou espaço), com intervalos tendendo
a zero, número de tentativas de Bernoulli tendendo a in nito e probabilidade de ocorrência do evento de interesse
em cada tentativa tendendo a zero, temos um processo chamado de processo de Poisson. Neste processo, o evento
de interesse pode ocorrer a qualquer instante no tempo ou qualquer ponto no espaço, e mais de uma ocorrência
pode acontecer em qualquer intervalo de tempo (ou espaço). A variável aleatória que conta o número de
ocorrências do evento de interesse, em um determinado intervalo, segue uma distribuição de Poisson.
Exemplos de processos de Poisson são:
1. ocorrência de um terremoto a qualquer momento e em qualquer local em uma zona sujeita a abalos
sísmicos;
2. ocorrência de um defeito ao longo de um produto tre lado de aço ou em tecidos;
3. ocorrência de uma trinca ao longo de um cordão de solda;
4. ocorrência de um acidente a qualquer momento em uma estrada.
1. o evento de interesse pode ocorrer aleatoriamente a qualquer instante no tempo e/ou em qualquer ponto
no espaço;
2. a ocorrência do evento em determinado intervalo (de tempo ou espaço) é independente da ocorrência em
qualquer outro intervalo não coincidente;
3. a probabilidade de ocorrência do evento em um pequeno intervalo ¢t é pequena e proporcional a ¢t, pode
ser calculada por υ¢t (onde υ é a taxa média de ocorrências), e a probabilidade de ocorrência de dois ou
mais eventos no pequeno intervalo ¢t é negligível.
352 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS
É fácil perceber que estas premissas são consequência natural da convergência da sequência de Bernoulli em
um processo de Poisson.
Com n ! 1 e p ! 0 em uma sequência de Bernoulli, o número médio de ocorrências em um intervalo
de tempo (0, t) é dado por λ = np, uma constante maior do que zero que caracteriza o processo de Poisson.
Dividindo este número pelo tamanho do intervalo (t), obtemos a taxa média υ de ocorrências (no tempo ou
espaço) do evento de interesse:
λ
υ= ou λ = υt = np.
t
Podemos mostrar (Ang e Tang, 1975, pg. 116) que, no limite com n ! 1, a probabilidade P [fX = xg] na
Eq. (A.26) tende a:
(υt)x
P [fX = xg] = P [fx ocorrências em tg] = exp[¡υt]. (A.34)
x!
Esta vem a ser a função de densidade de probabilidades da variável aleatória X que descreve o número
de ocorrências do evento de interesse no intervalo de tamanho t. A função de distribuição cumulativa de
probabilidades é dada por:
Xx
(υt)k
P [fX · xg] = exp[¡υt]. (A.35)
k!
k=0
µ = υt;
σ2 = υt. (A.36)
A variável aleatória que descreve o tempo entre ocorrências sucessivas em um processo de Poisson segue uma
distribuição exponencial, apresentada na Seção (A.3.2).
Uma variável aleatória com domínio formado por um número in nito e incontável de pontos amostrais é do tipo
contínuo. Seja fX (x) a função de densidades de probabilidades de uma variável aleatória contínua X. A função
de probabilidades acumuladas é: Z x
FX (x) = fX (u)du.
¡1
Distribuição causal
A distribuição causal não é propriamente uma distribuição estatística. Ela é utilizada para representar, na
forma de uma variável aleatória contínua, um valor determinístico. As funções de probabilidade podem ser
escritas como:
fX (x) = δ(x0 ); ¡1 · x · 1;
FX (x) = H(x0 ); ¡1 · x · 1.
A distribuição uniforme descreve eventos que são equiprováveis entre dois limites a e b. As funções de probabi-
lidade são:
1
fX (x) = ; a · x · b;
b¡a
x¡a
FX (x) = ; a · x · b.
b¡a
Os momentos são:
a+b
µ = ;
2
(b ¡ a)2
σ2 = ¢
12
Os parâmetros da distribuição são calculados diretamente dos momentos:
p
a = µ ¡ 3σ;
p
b = µ + 3σ.
A variável aleatória normal é talvez a mais conhecida e a mais utilizada. É também uma das distribuições mais
simples, pois os únicos dois parâmetros são os próprios momentos, média e desvio-padrão.
A função de densidades de probabilidade é:
" µ ¶2 #
1 1 x¡µ
fX (x) = p exp ¡ ; ¡1 · x · 1. (A.37)
σ 2π 2 σ
Z " µ ¶2 #
x
1 1 z¡µ
FX (x) = p exp ¡ dz; ¡1 · x · 1. (A.38)
¡1 σ 2π 2 σ
Infelizmente, esta integral não possui solução analítica. Em geral, ela é resolvida numéricamente, e os
resultados utilizados para construir tabelas de referência (Apêndice E) ou aproximações polinômicas para FX (x)
354 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS
(Apêndice F). Tais resultados são apresentados em termos de uma distribuição normal com média nula e desvio-
padrão unitário, chamada de distribuição normal padrão. Qualquer variável aleatória com distribuição normal
X » N (µ, σ) pode ser transformada em uma variável normal padrão Y , fazendo (Exemplo 30, pg. 370):
X ¡µ
Y = ¢ (A.39)
σ
Uma tabela com valores da função ©(y) é apresentada no Apêndice E. No Apêndice F são apresentadas
aproximações polinômicas para a programação em computador da função ©(y) e sua inversa.
Para a variável aleatória X » N (µ, σ), a distribuição cumulativa de probabilidades FX (x) é determinada a
partir de ©(y): µ ¶
x¡µ
FX (x) = © .
σ
Os limites são utilizados como ltros em controle de qualidade de produção. Para uma con ança de 95,5%,
por exemplo, componentes com dimensões xi < µ ¡ 2σ ou xi > µ + 2σ são descartados. Isto evita que variações
excessivas devidas às tolerâncias dimensionais comprometam o funcionamento de uma máquina ou equipamento
formada por grande número de componentes.
Se uma variável Y tem distribuição normal, então a variável X = exp[Y ] tem distribuição log-normal (X »
LN (λ, ξ)). As funções de probabilidade são:
" µ ¶ #
1 1 ln(x) ¡ λ 2
fX (x) = p exp ¡ , 0 · x · 1;
ξx 2π 2 ξ
· ¸
ln(x) ¡ λ
FX (x) = © , 0 · x · 1. (A.42)
ξ
µ = exp[λ + 0.5ξ 2 ],
q¡ ¢
σ = µ exp[ξ 2 ] ¡ 1 .
A.3. MODELOS ANALÍTICOS DE FENÔMENOS ALEATÓRIOS 355
Figura A-2: Probabilidades associadas aos diferentes intervalos de con ança, distribuição normal.
λ = ln(µ) ¡ 0.5ξ 2 ,
p
ξ = ln (1 + (σ/µ)2 ). (A.43)
Quando um evento ocorre ao longo de um contínuo como o tempo (ou espaço), segundo um processo de Pois-
son, o tempo (aleatório) até a primeira ocorrência (T1 ), e o tempo entre ocorrências (T ), seguem distribuição
exponencial. O evento fT > tg representa nenhuma ocorrência no intervalo de tamanho t. Logo, da Eq. (A.34)
obtemos:
P [fT > tg] = P [fX = 0g] = exp(¡υt).
Sendo assim, a função de distribuição cumulativa de probabilidades de T é dada por:
dFT (t)
fT (t) = = υ exp[¡υt], t ¸ 0. (A.45)
dt
A distribuição exponencial possui um único parâmetro, que é a taxa média (no tempo ou espaço) de ocor-
356 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS
rência de eventos (υ). Quando esta taxa é constante no tempo, os momentos estatísticos são:
1
µT = ,
υ
1
σT = ¢ (A.46)
υ
O processo de Poisson que dá origem à distribuição exponencial (seção anterior) tem seu início no instante t = 0.
Uma situação mais geral é aquela de um processo que inicia no instante t = ε. A variável aleatoria resultante, que
descreve o tempo até a primeira ou entre ocorrências a partir do instante ε, segue uma distribuição exponencial
deslocada. Se X » EXP (υ, ε), então as funções de probabilidade são:
p = P [fX = 0g],
q = P [fX > 0g],
conforme Figura (A-3). As funções de distribuição de probabilidades de X são obtidas a partir das distribuições
de Z:
fX · xgfY · yg = fX · x, Y · yg.
A probabilidade deste evento, que é função de x e y, é a função conjunta de distribuição cumulativa de proba-
bilidades:
FXY (x, y) = P [fX · x, Y · yg]. (A.48)
Neste contexto, e para evidenciar a diferença entre estas funções, as distribuições FX (x) e FY (y) são
chamadas de distribuições marginais de probabilidades. Em geral, a distribuição FXY (x, y) não pode ser deter-
minada a partir das distribuições marginais FX (x) e FY (y). Isto ocorre porque a função FXY (x, y) estabelece
características de comportamento conjunto das variáveis X e Y, que não estão presentes nas funções FX (x) e
FY (y). Por exemplo, a probabilidade descrita na Eq. (A.48) muda se as variáveis X e Y forem dependentes
ou independentes. Ainda assim, podemos fazer algumas observações sobre FXY (x, y), conforme segue. Como
fy · 1g é um evento certo, temos que:
fX · x, Y · 1g = fX · xg,
fX · 1, Y · yg = fY · yg.
Portanto, a seguinte relação entre distribuições conjuntas e marginais pode ser escrita:
FXY (1, 1) = 1,
e, de maneira equivalente:
FXY (¡1, ¡1) = 0.
A.4. DISTRIBUIÇÃO CONJUNTA DE PROBABILIDADES 359
∂ 2 FXY (x, y)
fXY (x, y) =
∂x∂y
é a função conjunta de densidades de probabilidades das variável aleatória X e Y. Por analogia à Eq. (A.12),
podemos escrever:
P [fx · X · x + ¢x, y · Y · y + ¢yg]
fXY (x, y) = lim ,
¢x!0 ¢x¢y
¢y!0
e:
fXY (x, y) ¸ 0 para todo (x, y) 2 R2 .
A função conjunta de densidade de probabilidades para duas variáveis X e Y é ilustrada na Figura (A-4).
fx · X · x + dx, y · Y · y + dyg,
tal que: ZZ
P [f(x, y) 2 Dg] = fXY (x, y)dxdy. (A.50)
D
Esta quantidade também pode ser interpretada como a massa de probabilidades na região D.
Derivando a Eq. (A.51) em relação a x, e a Eq. (A.52) em relação a y, obtemos a relação entre as densidades
360 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS
As funções marginais de densidade de probabilidades para duas variáveis X e Y são ilustradas na Figura
(A-4).
Portanto: Ry Ry
¡1
fXY (x, v)dv fXY (x, v)dv
FY (yjX = x) = = R ¡1
+1 ¢ (A.55)
fX (x) fXY (x, y)dy
¡1
Figura A-4: Função de densidade conjunta e funções marginais de duas variáveis aleatórias.
Este resultado mostra que, para eliminar a condição fX = xg, basta multiplicar pela função fX (x) e integrar
em x.
Combinando agora as Eqs. (A.56) e (A.57), obtemos uma versão contínua do Teorema de Bayes:
A.4.8 Covariância
Quando duas ou mais variáveis estão de nidas no mesmo espaço de probabilidades, é importante descrever como
elas variam conjuntamente. Uma medida linear da dependência entre duas variáveis aleatórias é a covariância,
de nida como:
Cov[X, Y ] ´ E[(X ¡ µX )(Y ¡ µY )]. (A.61)
362 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS
Note ainda que a covariância de uma variável aleatória com ela mesma corresponde à variância desta variável:
Uma medida adimensional da covariância entre duas variáveis aleatórias é dada pelo coe ciente de correlação:
Cov[X, Y ]
ρXY = ¢ (A.63)
σX σ Y
Este coe ciente adimensional varia entre os valores:
¡1 · ρXY · 1.
O valor ρXY = 1 implica correlação positiva e perfeita. O valor ρXY = ¡1 implica correlação negativa e
perfeita.
A Figura (A-5) ilustra diferentes possibilidades de covariância entre variáveis aleatórias, representadas pelo
coe ciente de correlação. Observe que a covariância implica dependência entre duas variáveis aleatórias, mas
covariância nula não implica em independência, conforme ilustrado na gura. Covariância é um caso especial
de dependência linear, sendo outras formas de dependência também possíveis.
Exemplo 26 Seja Y = g(X). Existe uma relação funcional de dependência entre as variáveis X e Y. No
entanto, se a função g(.) for altamente não linear, então a covariância de X e Y é nula!
A soma k + n corresponde à ordem do momento conjunto. Os momentos de segunda ordem µ20 e µ02 corre-
spondem ao segundo momento das variáveis X e Y, respectivamente. O momento de segunda ordem µ11 é de
A.4. DISTRIBUIÇÃO CONJUNTA DE PROBABILIDADES 363
Figura A-5: Exemplos de covariância (dependência linear) entre duas variáveis aleatórias.
364 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS
particular importância: Z Z
+1 +1
µ11 = E[XY ] = xyfXY (x, y)dxdy,
¡1 ¡1
E[XY ] = Cov[X, Y ] + µX µY .
mkn = E[(X ¡ µX )k (Y ¡ µY )n ]
Z +1 Z +1
= (x ¡ µX )k (y ¡ µY )n fXY (x, y)dxdy
¡1 ¡1
Nesta expressão, as variáveis y1 e y2 resultam da transformação de Hasofer-Lind (Eq. A.39), ou seja, para
Xi » N (µ, σ) com distribuição normal, Yi » N (0, 1) tem distribuição normal padrão. A distribuição normal
padrão bi-variada é dada por:
" ¡ ¢#
1 ¡ 12 y12 + y22 ¡ 2ρy1 y2
φ2 (y1 , y2 , ρ) = exp , ¡ 1 · (y1 , y2 ) · +1. (A.64)
2π(1 ¡ ρ2 )1/2 1 ¡ ρ2
Veri ca-se que as distribuições marginais também são normais (Eq. A.37). Este resultado também é válido
A.4. DISTRIBUIÇÃO CONJUNTA DE PROBABILIDADES 365
Como no caso escalar, esta expressão não tem solução analítica. Seus valores podem ser determinados a partir
de resultados existentes (Owen, 1956; Melchers e Beck, 2018, Apêndice C) para a função cumulativa normal
padrão bivariada, usando a Eq. (A.39):
Z y1 Z y2
FX1 X2 (x1 , x2 , ρ) = ©2 (y1 , y2 , ρ) = φ2 (u, v, ρ)dudv, ¡ 1 · (y1 , y2 ) · +1. (A.65)
¡1 ¡1
A.4.11 Problemas em Rn
Até este ponto neste texto, consideramos variáveis aleatórias escalares e distribuições conjuntas de pares de va-
riáveis aleatórias. Problemas de con abilidade estrutural envolvem muitas variáveis aleatórias, as vezes centenas
e até milhares. Portanto, é conveniente formular e resolver estes problemas utilizando vetores e matrizes. Nesta
seção introduzimos a notação utilizada para lidar com problemas envolvendo variáveis aleatórias em Rn .
Um conjunto de variáveis aleatórias fX1 , X2 , ..., Xn g pode ser representado por um vetor X 2 Rn , tal que
X =fX1 , X2 , ..., Xn gt , onde o expoente ( )t indica transposto (vetor-coluna). Neste material, representamos
vetores em negrito, de forma que X representa um vetor de variáveis aleatórias. Uma realização deste vetor
corresponde a uma realização de cada uma das variáveis aleatórias que o compõe, o que é representada pelo
evento fX = xg. A função conjunta de distribuição cumulativa de probabilidades ca:
A matriz de covariâncias CX pode ser decomposta em uma matriz diagonal de desvios padrão D:
2 3
σX1 0 ... 0
h i 6 0 σ X2 ... 0 7
D = V ar[Xi ]1/2 =6
4
7, (A.68)
n£n,i=1,...,n ... ... ... ... 5
0 0 ... σXn
sendo C¡1
X a inversa da matriz de covariância. A função cumulativa normal multi-variada é dada por:
Z x1 Z xn
FX (x, CX ) = P [\ni=1 fXi · xi g] = ... fX (v, CX )dv, ¡ 1 · x · +1.
¡1 ¡1
As funções equivalentes, envolvendo variáveis aleatórias normais-padrão com matriz de correlação RY , são:
· ¸
1
φn (y, RY ) = (2π)¡n/2 det[RY ]¡1/2 exp ¡ yt (R¡1
Y )y , ¡ 1 · y · +1, (A.70)
2
Z y1 Z yn
©n (y, RY ) = ... φn (v, RY )dv, ¡ 1 · y · +1. (A.71)
¡1 ¡1
sendo R¡1
Y a inversa da matriz de correlação. Como os coe cientes de correlação são adimensionais, resulta
A.5. FUNÇÕES DE UMA VARIÁVEL ALEATÓRIA 367
que RY = RX . Alguns resultados analíticos e propriedades da função cumulativa normal padrão bivariada são
dados em (Owen, 1956; Melchers e Beck, 2018, Apêndice C). Se as variáveis Y são independentes (RY = I), a
Eq. (A.70) se reduz a: · ¸
1
φn (y) = (2π)¡n/2 exp ¡ yt y . (A.72)
2
Esta distribuição possui importantes propriedades de simetria e decaimento exponencial em relação à origem,
que são exploradas nas soluções do problema de con abilidade estrutural via métodos de transformação (FOSM
e FORM, Capítulo 3).
x 2 Gy se e somente se g(x) · y.
Logo, para determinar FY (y) para um valor y dado, devemos encontrar o conjunto Gy e a probabilidade do
evento fX 2 Gy g.
y¡b
Exemplo 27 Seja Y = aX + b, a > 0. Neste caso, temos que ax + b · y para x · a , portanto Gy é o
conjunto Gy = (¡1, y¡b
a ). Logo:
µ ¶
y¡b y¡b
FY (y) = P [fY · yg] = P [fX · g] = FX ,
a a
ou: µ ¶
y¡b
FY (y) = FX .
a
dx fX (x)
fY (y) = ¡fX (x) =¡ 0 ¢
dy g (x)
dx fX (x)
fY (y) = fX (x) = 0 ¢ (A.73)
dy jg (x)j
A.5. FUNÇÕES DE UMA VARIÁVEL ALEATÓRIA 369
O resultado acima pode ser generalizado para funções não-monotônicas com número nito de raízes, sendo
necessário para isto resolver a equação Y = g(X) para X. Sejam x1 , x2 , ..., xn raízes reais, tais que y = g(x1 ) =
g(x2 ) = ... = g(xn ) (Figura A-9). Generalizando o resultado expresso na Eq. (A.73), temos:
y¡b
Exemplo 28 Seja Y = g(X) = aX + b, a > 0. Resolvendo para x temos x = a . Com g0 (x) = a, obtemos:
µ ¶
1 y¡b
fY (y) = fX .
a a
Compare este resultado com o resultado do Exemplo (27), e note que poderia ser obtido diretamente
derivando em relação a y.
370 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS
p p
Exemplo 29 Seja Y = g(X) = aX 2 , a > 0. As raízes são: x1 = + ya e x2 = ¡ ya . As derivadas são:
p p
g 0 (x1 ) = 2ax1 = 2 ay e g0 (x2 ) = 2ax2 = ¡2 ay. Para y < 0 não há solução, logo fY (y) = 0 para y < 0.
Portanto, a solução resulta:
· µ r ¶ µ r ¶¸
1 y y
fY (y) = p fX + + fX ¡ para y ¸ 0
2 ay a a
= 0 para y < 0.
Exemplo 30 Transformação de Hasofer e Lind: Seja X uma variável aleatória com distribuição normal e
parâmetros X » N (µ, σ) e distribuição dada pela Eq. (A.37). Para a função Y = g(X) = X¡µ
σ , queremos
determinar a distribuição fY (y).
Resolvendo para x obtemos x = σy + µ e:
dy 1
g 0 (x) = = ¢
dx σ
Utilizando as Eqs. (A.37 e A.73), obtemos:
" µ ¶2 #
fX (x) 1 jσj 1 σy + µ ¡ µ
fY (y) = =p exp ¡
jg0 (x)j 2π σ 2 σ
· 2¸
1 y
= p exp ¡ .
2π 2
Esta é uma distribuição normal com média nula e desvio-padrão unitário, conforme argumentado
na Seção (A.3.2).
Exemplo 31 Relação normal - log-normal: Seja X uma variável aleatória log-normal com parâmetros
X » LN (λ, ξ). Queremos determinar a distribuição de probabilidades de Y = ln[X]. Primeiramente,
obtemos:
x = exp[y],
dx 1
= = exp[y].
dy g 0 (x)
o que representa uma distribuição normal com media λ e desvio-padrão ξ. Deste resultado, resulta também
que:
E[Y ] = E[ln[X]] = λ,
V ar[Y ] = V ar[ln[X]] = ξ 2 .
Quando a função de densidades de probabilidades da variável X é conhecida, podemos usar as Eqs. (A.74
e A.75) para determinar os momentos de g(X). No entanto, este nem sempre é o caso. Muitas vezes queremos
determinar os momentos de g(X), conhecidos apenas os momentos da variável X. Nestas situações, aproximações
para os momentos de g(X) podem ser obtidas. Considere, por exemplo, que a função g(x) seja aproximadamente
constante na vizinhança da média µX . Da Eq. (A.74), obtemos:
Z +1
E[Y ] = E[g(X)] ¼ g(µX ) fX (x)dx = g(µX ). (A.76)
¡1
Esta é uma primeira aproximação para o valor esperado E[g(X)], que pode ser interpretada como: a média da
função é aproximadamente igual à função avaliada na média!. Aproximações de mais alta ordem podem ser
obtidas a partir de uma expansão em série de Taylor da função Y = g(X) em torno do ponto médio µX :
Mantendo apenas o termo de primeira ordem e aplicando o operador valor esperado, obtemos:
Considerando agora mais um termo (o termo de segunda ordem) na expansão (Eq. A.77), e aplicando o operador
valor esperado:
Podemos mostrar que a variância da aproximação de segunda ordem, utilizando a Eq. (A.77), resulta:
à ¯ !2 à ¯ !2
dg(x) ¯¯ V ar[X]2 d2 g(x) ¯¯
V ar[Y ] ¼ V ar[X] ¡
dx ¯µX 4 dx2 ¯µX
¯ Ã ¯ !2
2 ¯
3 dg(x) d g(x) ¯ E[(X ¡ µX )4 d2 g(x) ¯¯
+E[(X ¡ µX ) ] + ] . (A.81)
dx dx2 ¯µX 4 dx2 ¯µX
Antes da observação ser realizada, seu resultado não é conhecido; logo, a equação de previsão pode ser entendida
como uma função da variável aleatória X:
sendo a, b, coe cientes a determinar. O erro de previsão é a diferença entre o valor de fato e a previsão:
Y ¡ Yb = Y ¡ aX ¡ b.
Para que este seja mínimo, a média deve ser nula, e a variância a menor possível. A primeira condição resulta
em estimador não tendencioso:
E[Y ¡ Yb ] = µY ¡ aµX ¡ b = 0,
ou:
b¤ = µY ¡ aµX . (A.84)
O erro quadrático médio, ou variância a posteriori, é:
sendo RXY = E[XY ] a covariância de X e Y . O valor de a que minimiza a variância é encontrado derivando a
Eq. (A.85) em relação a a, e igualando a zero:
d
V ar[Y jX] = ¡2RXY + 2aσ2X = 0.
da
Logo, o valor ótimo de a, ou a¤ , ca:
RXY ρ σY
a¤ = 2 = XY , (A.86)
σX σX
sendo ρXY = σRXXYσY o índice de correlação. Combinando as Eqs. (A.83, A.84 e A.86), obtemos a equação para
o estimador linear ótimo:
(X ¡ µX )
Yb = E[Y jX] = a¤ X + b¤ = µY + ρXY σY .
σX
374 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS
A variância posteriori de Y é:
Quando ρXY = 0, vemos que a variância posteriori de Y , dado X, é igual a variância original de Y , ou seja,
informação sobre ocorrência de X não muda a variância de Y . Quando ρXY ! 1, a variância posteriori de Y é
nula, pois Y se torna perfeitamente conhecido, observado X).
O estimador linear ótimo é elemento chave na análise de regressão.
FZ (z) = P [f(x, y) 2 DZ g]
ZZ
= fXY (x, y)dxdy. (A.87)
DZ
A densidade fZ (z) é obtida derivando a função FZ (z) em relação a z. Para tanto, convém escrever x = g¡1 (z, y).
A Eq. (A.87) ca:
Z 1 Z g¡1 (z,y)
FZ (z) = fXY (x, y)dxdy.
¡1 ¡1
Derivando em relação a z : Z ¯ ¡1 ¯
1 ¯ ∂g ¯
fZ (z) = fXY (g¡1 , y) ¯¯ ¯ dy. (A.88)
¡1 ∂z ¯
Um resultado semelhante pode ser obtido em termos da variável x, integrando primeiro em relação a y. Para
tanto, escrevemos y = g¡1 (x, z). Em procedimento análogo, obtemos:
Z 1 ¯ ¡1 ¯
¯
¡1 ¯ ∂g
¯
fZ (z) = fXY (x, g ) ¯ ¯ dx. (A.89)
∂z ¯
¡1
Alternativamente, podemos determinar fZ (z) encontrando a região ∂DZ no plano xy tal que z · g(x, y) ·
z + dz:
Exemplo 32 Soma de duas variáveis aleatórias contínuas: Seja a soma Z = aX + bY, onde a e b são duas
¡1
constantes. Escrevendo y = g ¡1 (x, z) = z¡ax
b
, obtemos ∂g∂z = 1b . Da Eq. (A.89) resulta:
Z 1
1 z ¡ ax
fZ (z) = fXY (x, )dx.
¡1 b b
Z = X + Y.
376 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS
Estes resultados se aplicam à soma de variáveis aleatórias contínuas discretas, desde que substituída a integral
pelo somatório correspondente.
Teorema 33 Soma de duas variáveis aleatórias independentes: se as variáveis aleatórias X e Y são indepen-
dentes, então a função de densidade de probabilidades da soma Z = X + Y é dada pela convolução:
Z +1 Z +1
fZ (z) = fX (z ¡ y)fY (y)dy = fX (x)fY (z ¡ x)dx. (A.92)
¡1 ¡1
(υt)x
pX (x) = P [fX = xg] = exp[¡υt],
x!
(ηt)y
pY (y) = P [fY = yg] = exp[¡ηt].
y!
Substituindo a integral na Eq. (A.91) por um somatório, a distribuição da soma é obtida como:
X
pZ (z) = pX (x)pY (z ¡ x)
todo x
X (υt)x(ηt)(z¡x)
= exp[¡υt] exp[¡ηt]
todo x
x!(z ¡ x)!
X υ x η(z¡x)
= exp[¡(υ + η)t]tz ¢
x!(z ¡ x)!
to do x
(υ+η)z
O somatório sobre x na expressão acima corresponde à expansão binomial de z! , de forma que:
[(υ + η)t]z
pZ (z) = exp[¡(υ + η)t].
z!
Esta expressão corresponde a uma distribuição de Poisson com parâmetro υ + η. Este resultado pode ser
generalizado no seguinte teorema:
Exemplo 36 Soma (e diferença) de variáveis aleatórias normais independentes: sejam duas variáveis
aleatórias X e Y normais independentes com parâmetros X » N (µX , σX ), Y » N (µY , σY ). A distribuição
da soma Z = X + Y, a partir das Eqs. (A.37) e (A.91), é:
Z 1 " µ ¶2 # " µ ¶2 #
1 1 1 x ¡ µX 1 z ¡ x ¡ µY
fZ (z) = exp ¡ exp ¡ dx
2π σX σ Y ¡1 2 σX 2 σY
" (µ ¶2 µ ¶2 )# Z 1 · ¸
1 1 1 µX z ¡ µY 1¡ ¢
= exp ¡ + exp ¡ ux2 ¡ 2vx dx, (A.93)
2π σX σ Y 2 σX σY ¡1 2
onde:
1 1 µX z ¡ µY
u= + 2 , v= + ¢
σ2X σY σ 2X σ2Y
Fazendo uma substituição de variáveis:
v
w =x¡ ,
u
o termo integral resulta:
Z 1 · ¸ · 2 ¸Z 1 · ¸
1¡ 2 ¢ v 1 2
exp ¡ ux ¡ 2vx dx = exp exp ¡ uw dw
¡1 2 2u ¡1 2
r · 2¸
2π v
= exp .
u 2u
µZ = µX + µY ,
σ2Z = σ2X + σ2Y .
De maneira semelhante, podemos mostrar que a diferença Z = X ¡ Y também tem distribuição normal,
com parâmetros:
µZ = µX ¡ µY ,
σ2Z = σ2X + σ2Y .
Teorema 37 A soma de n variáveis aleatórias normais independentes Xi , com parâmetros Xi » N (µXi , σXi ),
é também uma variável normal:
X n
Z= Xi ,
i=1
378 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS
com parâmetros:
n
X
µZ = µXi ,
i=1
Xn
σ2Z = σ2Xi . (A.94)
i=1
Generalizando ainda mais este resultado, resulta que qualquer função linear de variáveis aleatórias normais
é também uma variável aleatória normal. Os resultados apresentados na Eq. (A.94) são válidos ainda para
qualquer função linear de variáveis aleatórias independentes, independentemente da distribuição, conforme
Teorema do Limite Central.
Este teorema é muitas vezes utilizado para justi car a escolha de uma distribuição Gaussiana para processos
ou variáveis que sejam resultado da soma de grande número de efeitos individuais. Uma consequência do
teorema do limite central refere-se ao produto de diversas variáveis aleatórias:
Teorema 39 O produto de um grande número de variáveis aleatórias, independente da sua distribuição, mas
desde que nenhuma delas seja dominante, tende a uma distribuição log-normal!
O teorema do limite central pode ser demonstrado através de um exemplo simples, envolvendo a soma de
variáveis aleatórias:
evento de interesse, com probabilidade p = 0, 5; e Xi = +1 como sendo o evento default, com probabilidade
q = 1 ¡ p = 0, 5. De acordo com a Eq. (A.26), a probabilidade de observarmos z ocorrências do evento de
interesse, em n repetições, é dada por:
n!
P [fZ = zg] = pz q n¡z .
z!(n ¡ z)!
Estas probabilidades são calculadas na última coluna da Tabela A.1. Observe que esta solução não precisa
ser computada de forma exaustiva; basta veri car quantas ocorrências do evento de interesse correspondem
a cada resultado.
Solução: a solução destes problema deve ser feita em computador, por integração numérica da função
de convolução (Eq. A.92). Conforme ilustrado
p na Figura
p A-12, a soma com dois termos (n = 2) resulta
em uma distribuição triangular entre ¡2/ 2 e ¡2/ 2. Somando mais um termo, o per l da função de
densidade de probabilidades de Y é quadrático. Com dez termos, a distribuição já está bem próxima da
normal.
Alternativamente, como a função fY (y) depende funcionalmente da função de densidade conjunta, podemos
escrever:
Z +1 Z +1
E[Y ] = ... g(x1 , x2 , ..., xn )fX1 X2 ...Xn (x1 , x2 , ..., xn )dx1 dx2 ...dxn . (A.97)
¡1 ¡1
É fácil perceber que a avaliação da Eq. (A.97) não é simples, pois envolve uma integral multi-dimensional,
de uma função conjunta de probabilidades.
V ar[Y ] = E[(Y ¡ µY )2 ]
= E[(aX + b ¡ aµX ¡ b)2 ]
Z +1
2
= a (x ¡ µX )2 fX (x)dx
¡1
= a2 V ar[X]. (A.98)
A.6. FUNÇÕES DE DUAS OU MAIS VARIÁVEIS ALEATÓRIAS 381
Figura A-11: Convergência da soma de variáveis discretas (Exemplo 40) para distribuição normal.
Figura A-12: Convergência da soma de variáveis contínuas (Exercício 20) para distribuição normal.
382 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS
V ar[Y ] = E[(Y ¡ µY )2 ]
= E[(a1 X1 + a2 X2 ¡ a1 µX1 ¡ a2 µX2 )2 ]
= E[(a1 (X1 ¡ µX1 ) + a2 (X2 ¡ µX2 ))2 ]
= E[a21 (X1 ¡ µX1 )2 + 2a1 a2 (X1 ¡ µX1 )(X2 ¡ µX2 ) + a22 (X2 ¡ µX2 )2 ]
= a21 V ar[X1 ] + 2a1 a2 Cov[X1 , X2 ] + a22 V ar[X2 ].
Estes resultados podem ser facilmente extrapolados para uma função linear de um número qualquer de variáveis
aleatórias. Seja:
Xn
Y = ai Xi .
i=1
Quando as variáveis aleatórias são linearmente independentes (Cov[Xi , Xj ] = 0 para i 6= j), este último resultado
se simpli ca para:
n
X n
X
V ar[Y ] = a2i V ar[Xi ] = a2 σ 2Xi .
i=1 i=1
Expandindo a função Y = g(X1 , X2 , ..., Xn ) em série de Taylor em torno do ponto médio de cada uma das
variáveis Xi , obtemos:
1 XX
n n
∂2 g
+ (Xi ¡ µXi )(Xj ¡ µXj ) + .... (A.99)
2 i=1 j=1 ∂Xi ∂Xj
Truncando a série no termo de primeira ordem (segunda linha da Eq. A.99), e utilizando um raciocínio
análogo ao utilizado para demonstrar a Eq. (A.78), obtemos:
o que signi ca que a média da função é aproximadamente igual a função avaliada nas médias. Tomando a
variância da Eq. (A.99), e generalizando a Eq. (A.79), obtemos:
n X
X n
∂g ∂g
V ar[Y ] ¼ Cov[Xi , Xj ] ¢ (A.101)
∂Xi ∂Xj
i=1 j=1
Mantendo os termos de segunda ordem na expansão em série de Taylor (Eq. A.99), obtemos a aproximação de
segunda ordem do valor esperado:
1 XX
n n
∂ 2g
E[Y ] ¼ g(µX1 , µX2 , ..., µXn ) + Cov[Xi , Xj ] ¢
2 ∂Xi ∂Xj
i=1 j=1
A aproximação de segunda ordem da variância é um tanto complicada, pois envolve momentos de terceira
e quarta ordem das variáveis Xi . Por este motivo, em geral utilizamos a aproximação de segunda ordem do
valor esperado, que pode ser facilmente calculado, em conjunto com uma aproximação de primeira ordem da
variância.
384 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS
yn = max[x1 , x2 , x3 , ..., xn ],
y1 = min[x1 , x2 , x3 , ..., xn ]. (A.102)
O conjunto (x1 , x2 , x3 , ..., xn ) é uma amostra de n variáveis aleatórias, identicamente distribuídas e inde-
pendentes, tal que FX1 (x) = FX2 (x) = ... = FXn (x). As variáveis aleatórias Yn e Y1 (valor máximo e mínimo)
são:
Yn = max[X1 , X2 , X3 , ..., Xn ],
Y1 = min[X1 , X2 , X3 , ..., Xn ]. (A.103)
Observamos que se Yn , o maior valor dentre (X1 , X2 , X3 , ..., Xn ), é menor do que um determinado valor y, então
todas as variáveis aleatórias Xi devem ser menores que y. Portanto:
e:
dFYn (y)
fYn (y) =
dy
n¡1
= n [FX (y)] fX (y). (A.105)
As Eqs. (A.104) e (A.105) são as distribuições de probabilidade exatas do valor máximo de uma amostra de
tamanho n tomadas de uma população X. Esta distribuição depende do tamanho n da amostra, bem como da
distribuição original de X. A Figura (A-13) mostra como estas distribuições de extremos variam com o aumento
do número de amostras, para uma variável aleatória original com distribuição X » N (0, 1). A Equação (A.104)
mostra que a distribuição do máximo de uma amostra de tamanho unitário (n = 1) é idêntica à distribuição
original. Assim, o valor esperado do máximo em uma observação é igual ao valor esperado da variável original.
A medida que n aumenta, a distribuição de máximos se desloca para a direita, cando mais íngreme (menor
desvio-padrão).
A distribuição exata para mínimos é obtida de maneira similar. Se Y1 , o menor valor na amostra, é maior
A.7. TEORIA DE VALORES EXTREMOS 385
Figura A-13: Distribuições de valores extremos de um variável normal padrão N (0, 1).
do que um determinado valor y, então todos os valores Xi devem ser maiores que y. Portanto:
e:
fY1 (y) = n [1 ¡ FX (y)]n¡1 fX (y). (A.107)
As Eqs. (A.106) e (A.107) são as distribuições de probabilidade exatas do valor mínimo de uma amostra
de tamanho n, tomadas de uma população X. As observações feitas em relação as Eqs. (A.104) e (A.105) são
válidas também para às Eqs. (A.106) e (A.107), com a diferença que o valor mínimo esperado diminui, à medida
que n aumenta.
n
n n 1 FX ( y )
yn y
³ εn ´
¡1
yn = FX 1¡ . (A.109)
n
A Equação (A.108) é monotonicamente decrescente (Figura A-14), logo:
Esta expressão é válida para qualquer valor ε (εn ) associado a qualquer valor y (yn ) através da Eq. (A.108).
Portanto, deste ponto em diante os índices ()n são abandonados. Agora podemos determinar a função cumulativa
de probabilidades da variável En em função de Yn :
ou:
FYn (y) = 1 ¡ FEn (n(1 ¡ FX (y))).
Derivando em relação a y:
fYn (y) = nfX (y) exp[¡n(1 ¡ FX (y))]. (A.113)
As Equações (A.112) e (A.113) são as chamadas distribuições assintóticas de extremos. Estas distribuições
são exatas no limite com n ! 1. Estas distribuições servem para determinar a distribuição de extremos
correspondente a determinada distribuição original fX (x). O interessante é que, independentemente da forma
exata da distribuição original fX (x), as distribuições assintóticas de extremos convergem para algumas formas
particulares. A forma particular para a qual determinada distribuição de extremos converge depende apenas da
cauda da distribuição original na direção do extremo procurado. Três formas particulares são apresentadas na
Tabela A.2. Esta classi cação é válida tanto para máximos como para mínimos. As três formas apresentadas
não são as únicas possíveis; porém, são as mais comuns.
n(1 ¡ FX (un )) = 1,
ou:
1
FX (un ) = P [fX · un g] = 1 ¡ . (A.114)
n
Logo, un é também o valor de X tal que:
1
P [fX > un g] = .
n
O máximo característico un é o valor mais provável (moda) da distribuição de extremos, fYn (y). Como vimos
na Seção A.3.1, o máximo característico divide a distribuição fYn (y) nos seguintes percentis:
P [fYn · un g] = 0, 37,
P [fYn > un g] = 0, 63.
388 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS
1
P [fX · u1 g] = .
n
O mínimo característico u1 é também a moda de fY1 (y), e divide a distribuição de mínimos nos percentis:
P [fY1 · un g] = 0, 63,
P [fY1 > un g] = 0, 37.
Em geral, os extremos (máximo e mínimo) característicos são parâmetros da distribuição de extremos corre-
spondente, como veremos.
Esta expressão pode ser manipulada para fornecer o período médio de retorno associado à níveis de proba-
bilidade pL especi cados:
1
Rp = (A.116)
1 ¡ (1 ¡ pL )1/L
os valores característicos das ações variáveis, estabelecidos por consenso e indicados em normas
especí cas, correspondem a valores que têm de 25% a 35% de probabilidade de serem ultrapassados
no sentido desfavorável, durante um período de 50 anos.
Fixando a vida em L = 50 anos, os períodos médios de retorno das ações variáveis, segundo a Eq. (A.116),
são Rp = 116, 6 anos, para pL = 0, 35; e Rp = 174, 3 anos, para pL = 0, 25. Estes valores, bem como as Eqs.
(A.115) e (A.116), são válidos para quaisquer distribuições de valores extremos. A relação entre Rp e pL é
ilustrada na Figura (A-15), para L = 50 anos e com base na Eq. (A.115).
Observe que a de nição da norma ABNT NBR 8681:2004 não é atendida pela atual norma ABNT NBR
6123:1988, a qual de ne os ventos de projeto v0 com período médio de retorno de 50 anos.
A.7. TEORIA DE VALORES EXTREMOS 389
Quando a cauda superior da distribuição inicial X apresenta taxa de decrescimento exponencial, a distribuição
dos máximos de X tende assintoticamente a uma distribuição de Gumbel. Distribuições com cauda exponencial
incluem normal, exponencial e gamma.
A distribuição de Gumbel encontra muitas aplicações na engenharia. Ela é muito utilizada para representar
extremos de fenômenos ambientais como cheias de um rio, nível de precipitação, velocidade de vento, carga de
ondas, etc.
São parâmetros da distribuição de Gumbel para máximos:
sendo γ = 0, 577216 a constante de Euler. Conhecidos os momentos, os parâmetros são determinados por:
γ
un = µ¡ ,
β
π 1
β = p ¢ (A.119)
6σ
Quando a cauda inferior da distribuição inicial X apresenta taxa de (de)crescimento exponencial, a distribuição
dos mínimos de X tende assintoticamente a uma distribuição de Gumbel.
A distribuição de Gumbel para mínimos descreve a resistência mecânica de materiais, bem como a tensão
resistente de equipamentos eletrônicos. Em ambos os casos, a justi cativa para o uso da distribuição de Gumbel
para mínimos é a regra da corrente, que sempre rompe no elo mais fraco. Materiais estruturais possuem
imperfeições e defeitos em sua microestrutura, e assim rompem na seção transversal mais fraca. Da mesma
forma, a falha por sobre-tensão de equipamentos eletrônicos sempre aconteçe devido à falha do componente
mais fraco.
Em estudos sobre mortalidade populacional, a distribuição de Gumbel para mínimos é utilizada para des-
crever a distribuição de vida (ou idade no falecimento). Esta aplicação se justi ca com a hipótese de que, entre
todos os indivíduos em uma determinada faixa de idade, a morte leva os indivíduos mais fracos...!
São parâmetros da distribuição de Gumbel para mínimos:
sendo γ = 0, 577216 a constante de Euler. Conhecidos os momentos, os parâmetros são determinados por:
γ
u1 = µ+ ,
β
π 1
β = p ¢
6σ
Figura A-16: Avaliação do vento com período de retorno médio de 140 anos ().
Enunciado: Em determinada localização geográ ca, o vento de projeto é v50 = 40 m/s (na norma ABNT
NBR6123:1988 este vento é chamado de v0 , aqui renomeado para v50 em função do período médio de retorno
de 50 anos). Assumindo que a distribuição de máximos anuais, e a distribuição de extremos de 50 anos,
sejam Gumbel com fator de forma β = 1/4, determine a velocidade de vento com período médio de retorno
de 140 anos.
Solução: A solução envolve determinação da distribuição de máximos anuais, que segue distribuição de
Gumbel. Sabemos que a probabilidade de observar um vento maior do que v50 , ou vento com período médio
1
de retorno de 50 anos, é: P [V > v50 ] = 50 . Adaptando a Eq. (A.118) para a incógnita un = v1 , máximo
característico da distribuição de máximos anuais, obtemos:
(40 ¡ v1 )] 1
FV1 (40) = exp[¡ exp[¡ ]=1¡ .
4 50
Resolvendo para v1 , obtemos: v1 = 24, 39 m/s. Para determinar o vento com período médio de retorno de
140 anos, basta avaliar novamente a Eq. (A.118), com x = v140 :
Quando a cauda superior da distribuição inicial X apresenta taxa de decrescimento polinômica, como:
FX (x) = 1 ¡ a x¡b ,
sendo a e b constantes, a distribuição dos máximos de X tende assintoticamente a uma distribuição de Frechet.
Este é o caso das distribuições de Pareto e Cauchy.
392 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS
Quando a cauda inferior da distribuição inicial X apresenta taxa de crescimento polinômica, como:
FX (x) = 1 ¡ a x¡b
sendo a uma constante, a distribuição dos mínimos de X tende assintoticamente a uma distribuição de Frechet.
São parâmetros da distribuição de Frechet para mínimos:
Quando a cauda superior da distribuição inicial X apresenta decrescimento polinômico mas é limitada, como:
a distribuição dos máximos de X tende assintoticamente a uma distribuição de Weibull. Exemplos deste tipo
de distribuição inicial são as distribuições uniforme, triangular e gamma.
São parâmetros da distribuição de Weibull para máximos:
Observe que com β = 1 esta distribuição se reduz à distribuição exponencial. Para β = 2 temos a distribuição
de Rayleigh. Conhecidos os parâmetros, os momentos são determinados por:
µ ¶
1
µ = ε + (ε ¡ un )¡ 1 + ,
β
· µ ¶ µ ¶¸
2 1
σ2 = (ε ¡ un )2 ¡ 1 + ¡ ¡2 1 + .
β β
Quando a cauda inferior da distribuição inicial X apresenta decrescimento polinômico mas é limitada, como:
Figura A-17: Formas da curva de Weibull fX1 (x) para u1 = 1, em função do fator de forma β.
distribuição tende para a direita. A Figura A-17 ilustra a mudança de forma da distribuição fX1 (x), em função
do fator de forma β, para um mínimo característico constante u1 = 1.
Na Seção 1.3.4 apresentamos a clássica curva da banheira, que descreve a taxa de falhas instantânea de com-
ponentes ou produtos de produção em massa. Nesta seção mostramos como a curva da banheira pode ser
construída a partir da sobreposição de distribuições de Weibull para mínimos. Esta distribuição é apropriada
para esta construção, considerando que em cada fase da curva da banheira os componentes ou produtos mais
fracos são aqueles que falham.
Considere uma distribuição de Weibull para descrever a variável aleatória tempo até a falha, T , em cada
uma das fases da curva da banheira: Tp para falhas prematuras, Tc para falhas por chance e Td para falhas por
desgaste. As funções de densidade e de distribuição cumulativa de probabilidades são dadas pelas Eqs. (A.123)
e (A.124). Os fatores de forma devem ser tais que β p < 1 para falhas prematuras, β c = 1 para falhas por chance
e βd > 1 para falhas por desgaste. Os mínimos característicos u1 para cada fase, bem como os valores βp e β d
de nem a forma da curva. Para cada fase, a taxa de falhas instantânea é obtida a partir da Eq. (1.15). A curva
da banheira é obtida pela soma das taxas de falha de cada fase:
A Figura A-18 ilustra a construção. Para esta curva, em particular, foram utilizados os valores βp = 0, 6 e
β d = 5, u1p = 100, u1c = 5 e u1d = 2.
Apesar de existir relação entre a cauda da distribuição original e a distribuição assintótica de extremos corre-
spondente, não existe uma forma analítica de estabelecer os parâmetros da distribuição de extremos, a partir
dos parâmetros da distribuição original. No entanto, é possivel determinar numericamente a distribuição de
extremos correspondente. Isto pode ser feito com base nos extremos característicos (u1 e un ) e em um ajuste
de parâmetros da distribuição de extremos apropriada.
Determinamos primeiramente os extremos característicos, que são função apenas do número n de variáveis
396 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS
Figura A-18: Construção da curva da banheira (taxa de falhas dependente da idade) a partir da combinação
de três distribuições de Weibull.
da amostra, conforme Seção (A.7.3). Conforme vimos, os extremos característicos são o primeiro parâmetro da
distribuição de extremos. Determinamos um conjunto de pontos da distribuição exata de extremos, utilizando
as Eqs. (A.104) ou (A.105). Escolhemos a distribuição de extremos apropriada, em função do tipo de cauda da
distribuição original. Em seguida, através de um ajuste de curvas (e.g., mínimos quadrados), determinamos o
valor do parâmetro de forma (β) que minimiza a diferença entre a distribuição exata (os pontos calculados) e a
distribuição de extremos procurada.
Apêndice B
TEORIA DE PROBABILIDADES:
PROCESSOS ESTOCÁSTICOS
Este capítulo está baseado principalmente em Elishako¤ (1999), Papoulis e Pillai (2001) e Melchers & Beck
(2018). Para um aprofundamento dos temas, o leitor pode consultar Vanmarcke (1983), Newland (1993),
Nigam & Narayanan (1994) e Lutes & Sarkani (2004).
B.1 DEFINIÇÕES
Note que:
Notação
Note que a dependência com o resultado experimental w é frequentemente omitida. Em concordância com a
notação utilizada para variáveis aleatórias, uma letra minúscula representa uma realização da variável aleatória
ou processo estocástico. Assim, a função x(t) representa uma realização do processo estocástico X(t). O número
real x pode ser entendido como a função x(t) avaliada em t (x(t) = x) ou como uma realização da variável
aleatória X(w) para dado w (x(w) = x).
Exemplo 42 Para um espaço amostral formado pelo conjunto de pontos amostrais = fwi gi=1,...,6
= f1, 2, 3, 4, 5, 6g, as funções:
X1 (w, t) = cos[wt];
X2 (w, t) = cos[t + w];
X3 (w, t) = w cos[t];
representam 3 processos estocásticos distintos. Para cada realização wi , a variação temporal destes processos
é determinística (conhecida com probabilidade um); por isto, estes processos são chamados de processos
estocásticos parametrizados.
X1 (w, t) = cos[wt];
X2 (w, v, t) = cos[wt + v];
X3 (w, v, u, t) = u cos[wt + v];
Exemplo 44 Associando números reais aos pontos amostrais dos experimentos caracterizados no exemplo
anterior, obtemos 3 variáveis aleatórias: W, V e U . É claro que os três processos estocásticos podem ser
B.1. DEFINIÇÕES 399
Neste exemplo, ca claro que podemos entender um processo estocástico como uma função de variáveis
aleatórias.
O evento fX(w, t) · xg consiste em todas as realizações w tais que, no instante t, as funções x(t) não excedem o
valor x. A função F1 (x, t) é chamada de distribuição cumulativa de primeira ordem do processo X(t). A função
densidade de primeira ordem é obtida derivando em relação a x:
∂F1 (x, t)
f1 (x, t) = ¢ (B.2)
∂x
Considere agora dois instantes de tempo t1 e t2 . X(t1 ) e X(t2 ) são duas variáveis aleatórias dependentes de
t1 e t2 . A função conjunta de distribuição cumulativa de probabilidades depende também de t1 e t2 :
Esta é a função de distribuição cumulativa de probabilidades de ordem n do processo X(t). A família de funções:
F1 (x, t);
F2 (x1 , x2 ; t1 , t2 );
...
Fn (x1 , x2 , ..., xn ; t1 , t2 , ..., tn ); (B.5)
400 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS
De nição 7 Um processo estocástico X(t) é formado por uma família de variáveis aleatórias (de dimensão
in nita) ao longo do contínuo t.
Uma boa abordagem de processos estocásticos como famílias de variáveis aleatórias pode ser acompanhada
em Lutes & Sarkani (2004).
Em geral, µ(t) é uma função do tempo. Generalizando este resultado, o momento de ordem k do processo X(t)
é dado por: Z 1
E[X(t)k ] ´ xk f1 (x, t)dx = µk (t). (B.7)
¡1
A função de autocorrelação de um processo X(t) corresponde ao momento conjunto das variáveis aleatórias
X(t1 ) e X(t2 ): Z Z 1 1
E[X(t1 )X(t2 )] ´ x1 x2 f2 (x1 , x2 ; t1 , t2 )dx1 dx2 = RXX (t1 , t2 ). (B.8)
¡1 ¡1
Para processos estocásticos de média nula (µ(t1 ) = µ(t2 ) = 0), as funções de autocorrelação RXX (t1 , t2 ) e de
autocovariância CXX (t1 , t2 ) se confundem.
A variância da variável aleatória X(t) é obtida da função de autocovariância, fazendo t1 = t2 = t:
As funções RXX (t1 , t2 ), CXX (t1 , t2 ) e ρ(t1 , t2 ) de nem a estrutura de correlação do processo estocástico. As
três são chamadas genericamente de funções de correlação.
A função de covariância-cruzada é:
Esta função corresponde à covariância entre as variáveis aleatórias X(t1 ) e Y (t2 ). Podemos ainda de nir uma
função índice de correlação-cruzada:
E[(X(t1 ) ¡ µX (t1 ))(Y (t2 ) ¡ µY (t2 )]
ρXY (t1 , t2 ) ´ ¢
σX (t1 )σ Y (t2 )
Os processos X(t) e Y (t) são ditos independentes quando o conjunto fX(t1 ), X(t2 ), ..., X(tn )g é independente
do conjunto fY (t01 ), Y (t02 ), ..., Y (t0n )g para quaisquer ft1 , t2 , ..., tn g e ft01 , t02 , ..., t0n g. Como vimos na Seção A.4.7,
a independência entre um grande número de variáveis aleatórias é muito difícil de demonstrar. Em geral,
assumimos independência entre processos com base em argumentos lógicos.
B.2.5 Estacionariedade
De nição 8 Um processo X(t) é dito estacionário quando as suas estatísticas não mudam em relação a uma
translação no tempo, i.e., os processos X(t) e X(t + τ) tem as mesmas estatísticas conjuntas para qualquer τ.
f1 (x, t) = f1 (x).
Como consequência, resulta da Equação (B.6) que a média deve ser constante:
Como a igualdade deve ser válida para qualquer ε, resulta que a densidade de segunda ordem é função da
diferença t2 ¡ t1 = τ :
f2 (x1 , x2 ; t1 , t2 ) = f2 (x1 , x2 , τ ), τ = t2 ¡ t1 .
A função f2 (x1 , x2 , τ ) vem a ser a função de densidade conjunta das variáveis aleatórias X(t) e X(t + τ).
Da Equação (B.8), concluímos que a função de autocorrelação depende também de τ :
De maneira semelhante, dizemos que os processos X(t) e Y (t) são conjuntamente estacionários se as estatís-
ticas conjuntas de X(t) e Y (t) são idênticas às estatísticas conjuntas de X(t + ε) e Y (t + ε), para qualquer
ε. Note que os processos podem ser individualmente estacionários, mas não necessariamente conjuntamente
estacionários. Se X(t) e Y (t) são conjuntamente estacionários:
Um processo X(t) é dito fracamente estacionário quando seu valor médio é constante, e a função de autocorre-
lação depende apenas de τ = t2 ¡ t1 :
E[X(t)] = µ = cte.;
E[X(t)X(t + τ )] = RXX (τ); (B.21)
ainda que não atenda à condição mais geral imposta na Equação (B.18).
B.2. PROPRIEDADES DE PROCESSOS ESTOCÁSTICOS 403
Para processos Gaussianos, estacionariedade fraca corresponde à estacionariedade estrita. Para outros
processos, não.
sendo:
Xk (t) = Vk cos(ωk t + ©k ).
Todas as amplitudes aleatórias e angulos de fase são independentes, e os angulos de fase são uniformemente
distribuídos em (0, 2π). Cada função elementar Xk (t) tem média nula e variância:
1
σ2k = E[Xk2 (t)] = E[Vk2 ]E[cos2 (ωk t + ©k )] = E[Vk2 ],
2
sendo E[cos2 (ωk t + ©k )] = E[1/2 + cos(2ωk t + 2©k )/2] = 1/2 o valor esperado em relação a ©k . A variância da
soma de funções independentes é igual a soma das variâncias, de forma que:
K
X K
X 1
σ2§ = σ2k = E[Vk2 ], (B.23)
2
k=¡K k=¡K
o que mostra que a variância corresponde a uma soma de contribuições para cada frequencia ω k . Observe que
σ2§ é a variância do somatório na Eq. (B.22), que possui média nula, e que é diferente da variância σ2X do
processo X(t). A representação espectral é obtida para um processo de média nula (somatório na Eq. B.22), à
qual se soma uma constante, a média µ.
404 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS
sendo S(ω) ou SX (ω) a função de densidade espectral de potência do processo estocástico estacionário X(t). A
função de densidade espectral mostra como a variância do processo está distribuída de acordo com o conteúdo
de frequencias, conforme Eq. (B.24). Como S(ω) está de nido para frequencias negativas e positivas, é chamada
de função two sided . Por de nição, S(ω) é simétrica em relação a origem (par), real e não-negativa.
Com estas preliminares, podemos determinar a função de autocorrelação do processo estacionário X(t), a
partir da representação acima:
K
X
RXX (τ ) = R(τ) = E[X(t)X(t + τ )] = E[X(0)X(τ )] = E[Xk (0)Xk (τ )],
k=¡K
A segunda equação forma o chamado par de Wiener-Khinchine, ou transformada de Fourier, que relaciona
R(τ ) com S(ω). Fazendo τ = 0 na Eq. (B.25), obtemos a variância:
Z 1
σ 2§ = S(ω)dω. (B.26)
¡1
Como R(τ ) = R(¡τ ), resulta da Eq. (B.25) que S(¡ω) = S(ω), ou seja, a função densidade espectral de
potência S(ω) também é par.
B.2. PROPRIEDADES DE PROCESSOS ESTOCÁSTICOS 405
Para manter a generalidade, e permitir a comparação com outras referencias, é apresentada também a versão
formal do par de Wiener-Khinchine:
8 R1
< R(τ ) = ¡1 S(ω)eiωτ dω
R1 (B.27)
: 1 ¡iωτ
S(ω) = 2π ¡1 R(τ )e dτ .
1
O termo 2π pode aparecer na primeira ou na segunda equação, de acordo com a construção adotada. As equações
de Wiener-Khinchine também podem ser escritas em termos da densidade espectral de potência G(ω) = 2S(ω),
escrita para frequencias não-negativas (ω ¸ 0):
8 R1 R1
< R(τ ) = 2 0 S(ω)eiωτ dω = 0 G(ω)eiωτ dω
R1 R1 (B.28)
: 4 2
G(ω) = 2π 0
R(τ)e¡iωτ dτ = π 0
R(τ )e¡iωτ dτ.
As funções de correlação-cruzada (RXY (τ )), e de densidade espectral de potência cruzada (SXY (ω)) de dois
processos X(t) e Y (t), também seguem uma relação de Wiener-Khinchine:
8 R1
< RXY (τ ) = ¡1 SXY (ω)eiωτ dω
R1 (B.29)
: 1 ¡iωτ
SXY (ω) = 2π ¡1
R XY (τ )e dτ .
Nas Figuras (B-1) e (B-2) são apresentadas algumas funções de autocorrelação típicas de processos estocásticos
contínuos e as respectivas densidades espectrais de potência.
São de grande utilidade no trabalho com processos estocásticos os momentos da função densidade espectral de
potência. De nimos o momento de ordem k como:
Z 1
λk ´ jωjk S(ω)dω. (B.30)
¡1
O momento de ordem zero corresponde à variância do processo (Eq. B.26). Por propriedade da transformada de
_
Fourier, a função densidade espectral de potência do processo derivada X(t) é obtida multiplicando a densidade
espectral de potência do processo original por ω 2 (Elishako¤, 1999, pg. 300):
Resulta desta propriedade que os momentos espectrais estão relacionados com o processo X(t) e com suas
_
derivadas, X(t) Ä
e X(t), da seguinte maneira:
λ0 = σ2X ;
λ2 = σ2X_ ;
λ4 = σ2XÄ . (B.31)
406 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS
Figura B-1: Funções de auto-correlação comuns e densidades espectrais de potência correspondentes (ajustadas
para área unitaria, plotadas para comprimento de correlação c = 1).
B.2. PROPRIEDADES DE PROCESSOS ESTOCÁSTICOS 407
Figura B-2: Funções de auto-correlação comuns e densidades espectrais de potência correspondentes (ajustadas
para área unitaria), continuação.
408 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS
Estes parâmetros serão utilizados oportunamente no trabalho com processos estocásticos. Um parâmetro im-
portante, que caracteriza a largura de banda do processo, é o fator de regularidade:
p λ2
α= 1 ¡ ς2 = p ¢
λ0 λ4
O fator de regularidade varia entre 0 e 1. Processos de banda estreita, que tem elevado nível de regularidade,
tem α próximo de um. O ruído branco tem α = 0.
No início desta seção, vimos que um processo estocástico X(t) pode ser representado como uma soma de
senóides, a partir de um conjunto de frequencias ω k ponderadas por uma amplitude Vk , relacionada com a
função densidade espectral de potência (Eq. B.22). A representação exata ocorre apenas no limite, com o
número de termos do somatório tendendo ao in nito (2K = m ! 1). A implementação computacional resulta
em uma aproximação do processo, obtida para m nito e representada por Xm (t).
Para a implementação computacional, precisamos de nir uma frequencia superior de corte (ω UB ), bem como
o número (m) de termos do somatório. A escolha destes dois parâmetros não é independente, pois o truncamento
do conteúdo de frequencias torna o sinal gerado (a amostra xm (t)) periódica; o período do sinal é dado por:
2πm
tp = .
ω UB
Utilizar uma frequencia ω UB muito grande reduz o período da amostra, e um valor muito pequeno reduz
a precisão da aproximação de X(t) por Xm (t). A mesma frequencia superior de corte ω UB é utilizada para
determinar, numericamente, os momentos da função densidade espectral de potência (Eq. B.30). A frequencia
inferior do sinal (ωLB ) é igual a ¡ω UB , para funções espectrais simétricas, e nula1 no caso de densidades de
frequencias não-negativas. Nesta seção, e para implementação computacional, consideramos apenas frequencias
positivas, com densidade de frequencias dada por G(ω), ω ¸ 0. Adotando uma distribuição uniforme de
frequencias no intervalo, temos:
ω ¡ ωLB
¢ω = UB
m
p p
Da Eq. (B.24), temos que Vk = 2S(ωk )¢ω = G(ω k )¢ω. Amostras do processo são obtidas a partir da
Eq. (B.22):
p X m p
Xm (t) = µ + 2 G(ω k )¢ω cos(ωk t + ©k ). (B.34)
k=1
Os angulos de fase são variáveis aleatórias com distribuição uniforme ©k » U (0, 2π).
A representação na Eq. (B.34) é contínua no tempo, mas deve ser discretizada para implementação com-
putacional. Assumindo que amostras do processo serão obtidas no domínio t = (0, tD ), e que o processo será
avaliado em npth pontos, a função cosseno na Eq. (B.34) será avaliada m £ npth vezes, para cada amostra.
Em uma solução via Simulação de Monte Carlo, muitas amostras do processo precisam ser geradas; e o custo
computacional pode crescer rapidamente. A Eq. (B.34) discretizada no tempo ca:
m
p X p tD
Xmn (tn ) = µ + 2 G(ω)¢ω cos(ωk tn + ©k ), tn = (2n ¡ 1)/2, n = 1, ..., npth . (B.35)
n pth
k=1
Por questões de resolução, é necessário que npth > 2m; por exemplo, para evitar que a avaliação discreta
perca picos (máximos locais) do processo.
Uma expressão alternativa para a Eq. (B.34) dispensa as fases aleatórias mas inclui a função seno:
m p
X
Xm (t) = µ + G(ωk )¢ω (Ak cos(ωk t) + Bk sen(ωk t)) . (B.36)
k=1
As variáveis Ak e Bk são independentes, tem distribuição normal padrão e podem ser geradas pelo algoritmo
de Box-Miller (Eq. 5.12). A Eq. (B.34) é ligeiramente mais rápida de avaliar, em função de incluir apenas a
função cosseno.
Existem outras formas alternativas de representação de processos estocásticos, por exemplo utilizando bases
ortogonais. Estas formas são estudadas no contexto dos campos estocásticos, no Apêndice C.
O conceito usual de continuidade de funções se aplica neste caso. No entanto, esta de nição é muito restritiva
para processos estocásticos. Se:
lim [x(w, t + τ ) ¡ x(w, t)] = 0, (B.37)
τ!0
para quase todas as realizações x(w, t), e os pontos amostrais w para os quais a Eq. (B.37) não vale tem
probabilidade nula, dizemos que o processo X(t) é contínuo com probabilidade 1 (almost sure convergence,
Jacod & Protter, 2004). Logo, podemos de nir continuidade em termos de probabilidades: por hipótese, se
apenas 90% dos pontos amostrais w dão origem a funções x(w, t) contínuas, o processo X(w, t) seria contínuo
410 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS
com probabilidade de 90%. Esta interpretação, no entanto, é muito especí ca, pois depende de conhecermos o
espaço amostral de cada processo.
De forma semelhante, mas muito mais geral, podemos de nir continuidade em média quadrática (mean
square ou m.s.). Dizemos que um processo estocástico X(t) é contínuo em média quadrática, em um ponto t,
se: h i
lim E (X(t + τ ) ¡ X(t))2 = 0. (B.38)
τ!0
Observe que a Equação (B.38) é muito semelhante à equação da variância; logo, quando esta variância tende
a zero, X(t + τ ) converge para X(t) de forma quase-certa ou quase-determinística... Este resultado é mais geral,
e implica em convergência na média e em convergência em probabilidade (almost sure convergence).
Sendo RXX (t1 , t2 ) = R(t1 , t2 ) a função de autocorrelação, temos que:
h i £ ¤
E (X(t + τ ) ¡ X(t))2 = E X 2 (t + τ ) ¡ 2X(t + τ )X(t) + X(t)2
= R(t + τ , t + τ ) ¡ 2R(t + τ , t) + R(t, t) (B.39)
Logo, se a função de autocorrelação é contínua na origem, o processo estritamente estacionário é contínuo para
qualquer t.
logo:
· ¸
_ X(t + τ ) ¡ X(t)
E[X(t)] ´ lim E
τ !0 τ
µ (t + τ ) ¡ µX (t)
= lim X
τ !0 τ
dµX (t)
= = µX_ (t); (B.42)
dt
ou seja, a média da derivada de um processo estocástico é a derivada da média. Se X(t) é um processo
estacionário, resulta que µX_ (t) = 0 (Eq. B.19).
_ 2 )], pode ser
A função de correlação cruzada de um processo com sua derivada, RX X_ (t1 , t2 ) = E[X(t1 )X(t
obtida a partir de: · ¸
X(t2 + τ ) ¡ X(t2 ) RXX (t1 , t2 + τ ) ¡ RXX (t1 , t2 )
E X(t1 ) = ;
τ τ
logo, no limite com τ ! 0, temos:
∂RXX (t1 , t2 )
RX X_ (t1 , t2 ) = ¢
∂t2
_ 1 )X(t
_ 2 )] ´ R _ _ (t1 , t2 ) = ∂ 2 RXX (t1 , t2 )
E[X(t XX ¢ (B.43)
∂t1 ∂t2
∂ 2 RXX (τ )
RX_ X_ (τ ) = .
∂τ 2
Um processo estacionário X(t) é diferenciável em média quadrática se a sua função de autocorrelação RXX (τ )
tem derivadas até segunda ordem. Um processo não-estacionário é diferenciável em média quadrática se a
derivada a direita da igualdade, na Eq. (B.43), existe para quaisquer t1 = t2 . Demonstrações em Papoulis e
Pillai (2001).
existe, no sentido de Riemann, para qualquer função da família X(w, t), então Y (w) é uma variável aleatória
real, e pode ser entendida como a área sob a curva X(w, t). Se a integral não existe para todo w, ainda assim
412 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS
A função de distribuiçao cumulativa FY (y) é difícil de determinar, pois representa o limite em média quadráti-
ca de uma soma de variáveis aleatórias (a soma de duas variáveis aleatórias já não é trivial, como vimos na
Seção A.6.2). No entanto, a média e a variância de Y podem ser determinadas, como segue.
O valor esperado de Y é:
"Z #
b
E[Y ] ´ E X(t)dt
a
Z b
= E [X(t)] dt
a
Z b
= µX (t)dt = µY .
a
A variância de Y é:
£ ¤
V ar[Y ] ´ E (Y ¡ µY )2
"Z Z b #
b
= E (X(t1 ) ¡ µX (t1 )) dt1 (X(t2 ) ¡ µX (t2 )) dt2
a a
Z bZ b
= E [(X(t1 ) ¡ µX (t1 )) (X(t2 ) ¡ µX (t2 ))] dt1 dt2
a a
Z bZ b
= CXX (t1 , t2 )dt1 dt2 = σ2Y . (B.45)
a a
Esta última linha resulta da de nição de função de autocovariância (Eq. B.9). Existência da integral dupla na
Eq. (B.45) é condição necessária e su ciente para a existência da integral em média quadrática de X(t), Eq.
(B.44).
É claro que U(w) é uma variável aleatória. Podemos também de nir a função:
Z t
1
R(w, τ ) ´ lim X(w, t + τ )X(w, t)dt. (B.47)
t!1 2t ¡t
B.2. PROPRIEDADES DE PROCESSOS ESTOCÁSTICOS 413
Para cada realização do processo (X(wi , t) = x(t)), U(wi ) = u é uma constante e R(wi , τ ) = r(τ ) é uma função
de τ. Para t su cientemente grande, obtemos as aproximações:
Z
1 t
Ut (w) = X(w, t)dt;
2t ¡t
Z
1 t
Rt (w, τ ) = X(w, t + τ)X(w, t)dt; (B.48)
2t ¡t
que também representam uma variável aleatória e uma função de τ , para cada realização do processo.
As grandezas U(w) e R(w, τ ) são estatísticas temporais do processo estocástico estacionário X(t). É impor-
tante salientar a diferença entre estas e as estatísticas de nidas nas Equações (B.19) e (B.20). As grandezas
E[X(t)] = µ e E[X(t)X(t + τ )] = RXX (τ ) são estatísticas tomadas sobre as diferentes realizações w do processo
estocástico. Estas são chamadas de estatísticas de valor esperado ou ainda estatísticas de envelope, em contraste
às estatísticas temporais nas Eqs. (B.46) e (B.47).
Por de nição, um processo ergódico é necessariamente estacionário. O inverso não é verdadeiro, porque
um processo estacionário não é necessariamente ergódico. Se um processo X(t) é estritamente ergódico, suas
estatísticas podem ser determinadas a partir das estatísticas temporais de uma única realização X(wi , t) = x(t)
do processo.
A ergodicidade estrita implica em que todas as estatísticas temporais do processo sejam idênticas às es-
tatísticas de envelope correspondentes. Esta condição de ergodicidade é rígida, mas pode ser relaxada para os
momentos de interesse.
Ergodicidade na média
Um processo estocástico X(t) é ergódico na média se a média temporal é idêntica à média de envelope:
Z t
1
lim X(w, t)dt = U(w) = E[X(w, t)] = µX .
t!1 2t ¡t
Exemplo 45 Considere o processo estocástico estacionário X(t) = Y, sendo Y uma variável aleatória com
414 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS
U(wi ) = yi ;
E[X(t)] = µY ;
R(wi , τ ) = yi2 ;
E[X(t + τ )X(t)] = E[Y 2 ] = σ2Y ;
e novamente, a estatística temporal difere da estatística de envelope (R(wi , τ ) 6= E[X(t + τ )X(t)]). Logo, o
processo aleatório parametrizado X(t) = Y é exemplo de processo estacionário que não é ergódico.
X ( t ), b
b arreira b ( t ) b
x ( t ) realização de X ( t )
t
Figura B-4: Distinção entre os tempos que um processo passa acima (Ta (r)) e abaixo (Tb (r)) da barreira.
Em ambas expressões, o valor esperado E[ ] é sobre o envelope e o resultado assintoticamente correto com
t ! 1.
A interpretação dos períodos de recorrência está associada a eventos que se repetem ao longo do tempo
com determinada regularidade. No entanto, é importante observar que estas estatísticas são válidas também
para processos estocásticos não estacionários, situação em que tal regularidade muda ao longo do tempo. Sendo
assim, para processos não estacionários as estatísticas de período de retorno são dependentes do tempo. Outra
situação em que a regularidade das ultrapassagens de barreira ao longo do tempo não acontece é o caso de uma
barreira variável com o tempo, b(t). Também neste caso, as estatísticas de período de recorrência existem, ainda
que sejam funções do tempo (e.g., Tr (b, t)).
Outra estatística muito importante é o tempo ou período até a primeira visita do processo X(t) ao nível
416 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS
b, representada por T1 (b). Este período é também uma variável aleatória, muito importante em análise de
con abilidade dependente do tempo.
Nesta expressão, o valor esperado E[ ] é sobre o envelope. Note que esta taxa ou frequência não está associada
com eventos que se repetem ao longo do tempo, mas sim com eventos que se repetem na dimensão estocástica
(envelope). A interpretação de taxa ou frequência está relacionada com a unidade de medida, tempo¡1 .
Na Eq. (B.51), o numerador 2 aparece porque cada período Tr (b, t) está associado com duas passagens de
barreira, uma de cima para baixo e uma de baixo para cima. Muitas vezes, estamos interessados apenas em
passagens de barreira de baixo para cima (up-crossing rate), o que pode ser escrito como:
υ(b, t) 1
υ + (b, t) = = ¢ (B.52)
2 E[Tr (b, t)]
υ(b, t) 1
υ ¡ (b, t) = = ¢ (B.53)
2 E[Tr (b, t)]
Para processos estocásticos estacionários e barreiras constantes no tempo, as taxas de passagens pela barreira
também são constantes no tempo:
1
υ + (b) = υ ¡ (b) = ¢ (B.54)
E[Tr (b)]
A taxa de passagens (de baixo para cima) de um processo X(t) por uma barreira constante b pode ser deter-
minada conforme segue (Melchers & Beck, 2018). Considere o que aconteçe entre os instantes t e t + ¢t, com
¢t ! 0, quando neste intervalo ocorre uma ultrapassagem da barreira. Para que a passagem de barreira ocorra
neste intervalo, é necessário que o processo esteja abaixo do nível b no instante t, e que tenha variação (derivada)
su ciente para ultrapassar a barreira neste intervalo, conforme Figura (B-5):
1 h ³
_
´i
υ + (b, t) = lim P (X(t) < b) \ X(t) + X(t)¢t >b
¢t!0 ¢t
1 h ³
_
´i
= lim P (X(t) < b) \ X(t) > b ¡ X(t)¢t . (B.55)
¢t!0 ¢t
_
Esta condição é representada em termos das variáveis aleatórias X(t) e X(t) na Figura (B-6). Um elemento
de área nesta representação corresponde ao evento fx · X(t) · x + dx, x_ · X(t) _ · x_ + dxg,
_ descrito pela
B.3. ESTATÍSTICAS DE BARREIRA 417
x(t ) b (t ) b
x& t
x( t )
t1 t1 t t
O integrando não depende de t, de forma que basta derivar os limites de integração em relação à t:
∂
b = 0,
∂t
∂
(b ¡ xdt)
_ = ¡x.
_
∂t
Assim, obtemos:
Z 1
+
υ (b, t) = [(0) fX X_ (x, x)
_ ¡ (¡x)f
_ X X_ (b, x)]
_ dx_
Z0 1
= x_ fX X_ (b, x)d
_ x._ (B.57)
0
Esta é a fórmula de Rice (1944) para a taxa de passagens pela barreira υ + (b, t). Utilizando procedimento
análogo, uma expressão semelhante é obtida para υ(b, t):
Z 1
υ(b, t) = jxj
_ fX X_ (b, x)d
_ x._ (B.58)
¡1
Note que esta expressão corresponde ao valor esperado do valor absoluto da derivada jxj
_ , avaliada em x = b.
Para uma barreira que é função do tempo, uma expressão semelhante a Eq. (B.57) é obtida:
Z 1
+
υ (b, t) = _ f _ (b, x)d
(x_ ¡ b) _ x._ (B.59)
XX
b_
418 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS
Figura B-6: Limites de integração da taxa de passagens pela barreira no plano (x, x).
_
Cada passagem de barreira de baixo para cima é seguida por uma passagem de cima para baixo, de forma
que:
1 h¯ ¯i
¯ ¯
υ + (b) = υ ¡ (b) = fX (b)E ¯X_ ¯ .
2
_
Como a diferenciação é uma operação linear, resulta que se X(t) é processo Gaussiano, X(t) é processo
_ = µ _ = 0. Para
Gaussiano também. Para X(t) estacionário, resulta das Equações (B.19) e (B.42) que E[X] X
um desvio-padrão σX_ , obtemos:
Z 1 " µ ¶2 #
h¯ ¯i 1 x_ 1 x_
¯ _¯
E ¯X ¯ = 2 p exp ¡ dx_
0 2π σX_ 2 σX_
" µ ¶2 #¯1
2σX_ 1 x_ ¯
¯
= ¡ p exp ¡ ¯
2π 2 σX_ ¯
0
2σ _
= pX¢
2π
Portanto:
σ_
υ + (b) = p X fX (b)
2π
" µ ¶2 #
1 σX_ 1 b ¡ µX
= exp ¡ . (B.60)
2π σX 2 σX
B.3. ESTATÍSTICAS DE BARREIRA 419
Para b = µX esta equação forneçe a frequência média do processo, ou taxa de passagens pela média:
1 σX_ ω0
υ+
0 = = ¢ (B.61)
2π σX 2π
σ .
Na Equação (B.61), ω0 é a frequência angular média do processo. Isto mostra que o termo σXX
que aparece
na Eq. (B.60) vem a ser a frequência angular média ω0 . Utilizando as Equações (B.31), esta frequência pode
ser calculada como: r
σX. λ2
ω0 = = ¢ (B.62)
σX λ0
Em termos de υ +
0 , a taxa de passagens pela barreira ca:
" µ ¶2 #
+ + 1 b ¡ µX
υ (b) = υ 0 exp ¡ . (B.63)
2 σX
Interpretando este resultado, observamos que a taxa de passagens por uma barreira b é dada pela taxa de
passagens pela média, multiplicada por um termo que é quase a função de densidade de probabilidades do
processo, avaliada em b. A função de densidade fornece a probabilidade de longo prazo de que o processo esteja
numa vizinhança do nível b:
fb ¡ ¢x/2 · X(t) · b + ¢x/2g, ¢x ! 0.
A frequência média υ +0 informa quão rapidamente o processo varia no tempo, e portanto determina com que
frequência o processo visitará o nível b.
Utilizando a Eq. (B.59) e seguindo um procedimento semelhante, obtemos a taxa de passagens por uma
barreira b(t) = a ¡ bt que varia linearmente com o tempo (Cramer & Leadbetter, 1967):
· ¸ · ¸
a ¡ bt ¡ µX b
υ + (a, b, t) = ω0 φ ª ¡ ,
σX ω 0 σX
R
sendo ª[x] = φ[x] ¡ x©[¡x] a integral inde nida ©(x)dx.
Para processos não Gaussianos e/ou não-estacionários, a determinação de υ + (b, t) não é trivial e geralmente
não pode ser obtida analiticamente. Nesta seção, é apresentada uma solução para calcular a taxa de passagens
pela barreira numericamente, para processos contínuos diferenciáveis.
A taxa de passagens de um processso X(t) pela barreira b pode ser determinada por:
1
υ + (b, t) = lim P [X(t) < b \ X(t + ¢t) ¸ b]. (B.64)
¢t!0 ¢t
Em palavras, esta expressão signi ca:
a probabilidade de ocorrer uma ultrapassagem de barreira no intervalo (t, t + ¢t) é igual a proba-
bilidade de que o processo esteja abaixo da barreira no instante t e ultrapasse este nível durante o
intervalo ¢t.
A Equação (B.64) permite compreender o problema, mas não é adequada para ns de avaliação da taxa.
420 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS
1 h ³
_
´i
υ + (b, t) = lim P (X(t) < b) \ X(t) + ¢tX(t) ¸b , (B.66)
¢t!0 ¢t
Esta equação representa uma aproximação em diferenças nitas da derivada da probabilidade de falhas de
um sistema em paralelo (entre colchetes). Isto permite escrever:
d h³ ´ ³ ´i¯
_ _ ¯
υ + (b, t) = Pθ X(t) > 0 \ X(t) + θX(t) ¸b ¯ , (B.68)
dθ θ=0
d
sendo Pθ [ ] a probabilidade associada ao sistema em paralelo e dθ Pθ [¢]jθ=0 a medida de sensibilidade desta
probabilidade. As probabilidades expressas na Equação (B.68) estão representadas na Figura (B-6), bastando
substituir ¢t por θ.
A taxa expressa na Eq. (B.68) pode ser avaliada utilizando as seguintes equações de estado limite:
_
g1 (t) = ¡X(t),
_
g2 (t, θ) = b ¡ X(t) ¡ θX(t).
A experiência do autor mostra que aproximações lineares, como os limites bi-modais estudados na Seção
4.3.1, não são su cientemente sensíveis à rotação da equação de estado limite g2 (t, θ). Bons resultados foram
obtidos pelo autor utilizando simulação com amostragem por importância.
Este resultado mostra que, para um processo estocástico de banda estreita ideal (α = 1), o número de máximos
locais é igual ao número de passagens por zero. Isto signi ca que cada passagem por zero corresponde a um
único máximo local. Já para um processo irregular de banda larga (com α ! 0), o número de máximos locais
é in nitamente maior do que o número de passagens por zero.
A função de densidade de probabilidade de um pico (máximo local) de um processo Gaussiano é dada por
(Madsen et al., 1986):
p µ ¶ µ ¶
x x2 αx
fp (x) = 1 ¡ α2 φ p + αx exp(¡ )© p . (B.70)
1 ¡ α2 2 1 ¡ α2
Esta distribuição é completamente de nida pelo fator de regularidade α, sendo as formas limites uma distribuição
de Rayleigh para α = 1 (somente picos positivos) e uma distribuição normal para α = 0 (mesmo número de
picos positivos e negativos), conforme ilustrado na Figura (B-7).
Utilizando a Equação (B.69), o número de picos (máximos locais) do processo X(t) no intervalo (0, tD ) é
dado por:
υ + tD 1 ω0 tD
np = 0 = ¢
α α 2π
A distribuição de valores extremos do processo Gaussiano no intervalo (0, tD ) é obtida a partir do máximo
em np observações de picos locais. Esta distribuição é obtida integrando a Eq. (B.70) em x e substituindo na
Eq. (B.71): µZ x ¶n p
FXtD (x) = fp (u)du . (B.72)
¡1
422 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS
Note que o número de picos np está de nido pelo tamanho do intervalo tD , e portanto a distribuição de extremos
FXtD (x) está indexada em tD . Utilizando a Eq. (B.71), assumimos independência entre picos do processo, o
que introduz um erro desprezível (Gumbel, 1958).
Uma solução assintótica da Eq. (B.72) é obtida para número de picos np grande, e resulta na dupla
exponencial: " Ã µ ¶ !#
1 x ¡ µX 2
FXtD (x) ' exp ¡n exp ¡ ,
2 σX
sendo n = ω2π
0 tD
= αnp o número esperado de passagens por zero do processo. A Figura (B-8) mostra o
comportamento desta distribuição em função de n.
Figura B-8: Distribuição de valores extremos de um processo Gaussiano N (0, 1), em função do número de ciclos
n.
A probabilidade de falha, ou probabilidade de ultrapassagem de nível (X(t) > b), é dada por:
· ¸
pf (b, tD ) = P max [w(tb , y) > b
0·t·tD
= 1 ¡ (FX (b))n
tD
= 1 ¡ (FX (b)) tb .
1. a probabilidade de que exatamente n eventos ocorrerão num intervalo de tamanho ¢t depende de n e ¢t,
mas não da posição do intervalo ¢t no eixo do tempo (estacionariedade do processo);
2. o número de eventos que ocorrem em dois intervalos não sobrepostos são variáveis aleatórias independentes
(processo sem memória); portanto, para t0 < t1 < t2 < ... < tn , as variáveis aleatórias N(t1 ) ¡ N (t0 ), ...,
N (tn ) ¡ N(tn¡1 ) são independentes;
3. a probabilidade de ocorrência de mais de um evento em um intervalo pequeno de tamanho ¢t é pelo
menos uma ordem de magnitude menor do que ¢t.
Em conjunto, estas hipóteses determinam que, no processo de Poisson, os incrementos são estacionários e
independentes.
Um processo de Poisson com taxa υ constante é dito homogêneo. Uma aproximação do processo de Poisson
é obtida quando υ = υ(t). Neste caso, o processo é dito não-homogêneo e a constante λ = υt passa a ser
Rt
calculada como λ = 0 υ(u)du. Para esta aproximação, a hipótese de estacionariedade deixa de ser válida, i.e.,
os incrementos não são mais estacionários.
424 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS
sendo N (t) um processo de Poisson com intensidade υ, que gera os pontos tk , nos quais o processo sofre uma
renovação de magnitude aleatória Yk . Assumimos as intensidades Yk independentes e identicamente distribuídas.
A função w(t, tk , Yk ) é chamada de função de resposta do processo, pois representa a contribuição linear para a
resposta X(t) no instante t, devido à magnitude Yk atuando no instante tk .
Processos ltrados de Poisson são de nidos pela intensidade υ, que determina o número de renovações N (t),
pela distribuição de probabilidades de Yk , e pela forma da função w(t, tk , Yk ). Duas formas são particularmente
importantes na con abilidade estrutural, por serem apropriadas para representar carregamentos em estruturas:
o processo de pulsos e a onda quadrada de Poisson, estudados a seguir.
Processo de pulsos
Um processo com intensidade constante υ e pulsos retangulares de amplitude Yk e comprimento tb pode ser
descrito pela função de resposta:
sendo Yk uma variável aleatória, independente entre pulsos, e de nida pela função fY (y). Observe que os pulsos
são esparsos quando υtb << 1.
A taxa de passagens pela barreira b e a probabilidade de falha à primeira sobrecarga são dadas no limite
com tb ! 0. A taxa de passagens é dada por:
½ ¾
1
υ + (b) = lim υP [ultrapassagem em ¢t]
¢t!0 ¢t
½ ¾
1
= lim υP [(Y (t) < b) \ (Y (t + ¢t) > b)]
¢t!0 ¢t
sendo υ a taxa de chegada dos pulsos. Observe que a última linha da Eq. (B.73) está baseada na independência
entre a intensidade dos pulsos. Se o nível b é elevado e constante, podemos escrever:
Observe que υ + (b) representa a intensidade do processo de pulsos. A probabilidade de falha para barreira b é
dada por:
O processo de pulsos de Poisson permite a representação de carregamentos eventuais, que são nulos durante
a maior parte do tempo. No entanto, como a duração dos pulsos tb é xa e o tempo de chegada entre pulsos
segue a distribuição exponencial, o processo de pulsos permite a coincidência de pulsos, i.e., a chegada de um
novo pulso enquanto o anterior ainda esta ativo. Esta condição pode ser inadequada para representar certos
tipos de carregamento.
Quando o comprimento tb dos pulsos retangulares é dado pelo intervalo (aleatório) entre a chegada de pulsos
(tb = υ1 ), um processo de onda quadrada de Poisson é obtido. A altura Yk do pulso permanece constante até a
chegada do próximo pulso. Os valores Yk são independentes e identicamente distribuídos. No processo de onda
quadrada temos υtb = 1, o que gera um processo cheio.
Procedendo de maneira análoga ao caso do processo de pulsos, obtemos a taxa υ + (b) idêntica à Eq. (B.73).
A probabilidade de falha à primeira sobrecarga vem a ser:
sendo FY0 (b) = P [Y0 < b]. A intensidade do pulso inicial é independente das demais, por de nição. Da mesma
forma, a distribuição cumulativa do máximo de X(t) é:
Processos nos quais eventos ocorrem ao longo do tempo, de acordo com uma determinada função de proba-
bilidades, são chamados genericamente de processos de Poisson renováveis (renewal processes). Os processos
de pulso e onda quadrada de Poisson são formas particulares deste tipo de processo. É possível generaliza-los
para pulsos com diferentes formatos de onda; no entanto, não existem resultados para a taxa de passagens pela
barreira nestes casos.
p = P [fY = 0g];
q = P [fY > 0g];
Utilizando uma correção para nível baixo de barreira, a Eq. (B.74) se simpli ca para:
TEORIA DE PROBABILIDADES:
CAMPOS ESTOCÁSTICOS
Este capítulo está baseado principalmente em Vanmarcke (1983), Newland (1993), Elishako¤ (1999) e Sudret e
Kiureghian (2000).
C.1 INTRODUÇÃO
Um campo estocástico, do inglês random eld, é um processo estocástico que varia em mais de uma dimensão.
Um processo estocástico é um campo estocástico unidimensional. No Anexo B, o processo estocástico X(t) es-
tava parametrizado em um contínuo t, que podia ser o tempo ou uma coordenada espacial. Campos estocásticos
permitem descrever variáveis aleatórias que variam no tempo e no espaço. Neste material, um campo estocástico
é denotado por X(t), sendo o vetor t 2 Rd , e d o número de parâmetros contínuos ao longo dos quais o campo
varia. O vetor t pode conter coordenadas espaciais: t = flatitude, longitude, profundidadeg, representadas
simpli cadamente por t = fu1 , u2 , u3 g, e coordenadas espaciais combinadas com o tempo: t = fu1 , u2 , u3 , tg. O
campo estocástico se desenvolve em um domínio (espacial e temporal) representado por t .
Campos estocásticos são utilizados para descrever grandezas como:
Um campo estocástico pode ser uni ou multi-variado, a depender da quantidade de variáveis dependentes da
mesma coordenada t. Uma realização de um campo estocástico multi-variado X(t) é um vetor de funções do con-
tínuo em t . No exemplo 4 acima, altura de onda (H), velocidade (Vc ) e direção (αc ) de correntes marítimas po-
dem ser campos dependentes entre si, de forma que X(t) = fH(t), Vc (t), αc(t)g. Geralmente, estes campos tam-
bém dependem da velocidade (Vv ) e direção (αv ) do vento, de forma que: X(t) = fH(t), Vc (t), αc (t), Vv (t), αv (t)g.
430 TEORIA DE PROBABILIDADES: CAMPOS ESTOCÁSTICOS
Em um exemplo de geomecânica, angulo de atrito (αa ) e coesão (c) podem variar de forma dependente ao longo
do domínio espacial e temporal, de forma que X(t) = fαa (t),c(t)g. Neste material, abordamos apenas campos
estocásticos uni-variados multi-dimensionais, o que implica em assumir independência entre as variáveis citadas
acima, quando representadas no mesmo contínuo.
A notação e as de nições introduzidas na Seção B.1 para processos estocásticos são válidas também para
campos estocásticos, bastando trocar o escalar t por t. Assim, X(t) ou X(w, t) é um campo estocástico
univariado multidimensional no contínuo t . Para uma realização w xa, x(w, t) = x(t) é uma função do
contínuo em t ; em um ponto t do contínuo, xo, X(w, t) = X(w) é uma variável aleatória; para w e t xos,
x(w, t) = x é um número real.
A variável aleatória obtida xando um ponto no contínuo (X(w, t) = X(w)) pode assumir valores de forma
contínua ou discreta, dando origem a campos estocásticos contínuos ou discretos, cujos valores são dados de
forma contínua em t. Por exemplo, considere uma pressão de poros crítica, que provoca liquefação do solo: um
campo estocástico discreto pode ser construído para descrever, de forma contínua no espaço t, se a pressão de
poros é inferior ou superior ao valor crítico.
A depender de circunstância ou aplicação, um campo estocástico pode ser chamado de:
1. uma série aleatória, quando observações são feitas em pontos discretos do eixo do tempo (usualmente,
equi-espaçados);
2. um processo lattice, quando observações são feitas seguindo um padrão espacial (exemplo, seguindo as
arestas de um hipercubo);
3. uma função aleatória contínua, quando observações são feitas em todos os pontos ao longo das coordenadas
espaciais fu1 , u2 , u3 g e/ou do tempo t;
4. uma partição aleatória do espaço, quando um campo discreto é observado de forma contínua no espaço
(exemplo da pressão de poros acima);
5. um processo de pontos aleatórios, quando pontos ou pequenos objetos são distribuídos de forma aleatória
no domínio.
geometria do problema. Para t xo, X(w) é uma variável aleatória. Para uma realização w xa, X(t) é uma
realização do campo, ou um elemento do espaço de Hilbert L2 (t ) de funções quadrado-integráveis em t . O
produto interno associado com L2 (t ) é de nido por:
Z
< f, g >L2 (t ) ´ f (t)g(t)dt
t
Espaços de Hibert possuem propriedades convenientes para desenvolver soluções aproximadas de problemas
de valor de contorno, como o método de Galerkin.
Um campo estocástico homogêneo tem simetria de quadrante (quadrant symetry ou q.s.) quando sua função
de autocovariância é simétrica (par) em relação a qualquer componente do vetor de diferenças ¿ :
Simetria de quadrante implica homogeneidade no sentido fraco. Para campos estocásticos q.s., especi car
apenas a parte positiva de C(¿ ) é su ciente. A estrutura de correlação quadrante-simétrica ocorre naturalmente
em aplicações onde o campo estocástico X(t) é de nido em termos de coordenadas principais, usualmente
ortogonais. Quando o campo estocástico é homogêneo mas não quadrante-simétrico, muitas vezes é possível
rotacionar o sistema de eixos de forma a torná-lo q.s.. De forma semelhante, um campo estocástico que é q.s.
e relação a um sistema de eixos não será q.s. em relação a uma rotação deste sistema.
Uma estrutura de correlação isotrópica depende apenas da distância τ = k¿ k = kt2 ¡ t1 k = (τ 21 +τ 22 +...+τ 2d )1/2 .
A função de autocovariância tem simetria radial, o que também implica em simetria de quadrante. Neste caso,
também temos que:
C(¿ ) ´ C(τ 1 , τ 2 , ..., τ d ) = C(τ , 0, ..., 0) = C(τ ) ´ C R (τ ), (C.2)
sendo C R (τ ) uma função de autocorrelação radial sobre a linha (em qualquer direção), que pode ser dada
pelas expressões ilustradas nas Figuras (B-1) e (B-2). Pode-se mostrar (Vanmarcke, 1983) que, para funções de
correlação isotrópicas, ρ(¿ ) ¸ ¡ d1 . Para campos isotrópicos bidimensionais, isto implica ρ(τ 1 , τ 2 ) ¸ ¡ 21 ; para
campos tridimensionais, ρ(τ 1 , τ 2 , τ 3 ) ¸ ¡ 13 .
Escalonando os eixos de uma função de correlação isotrópica, obtemos um campo estocástico com função de
correlação elíptica, função de:
µ ¶2 µ ¶2 µ ¶2
τ1 τ2 τd
¿2 = + + ... + , (C.3)
a1 a2 ad
432 TEORIA DE PROBABILIDADES: CAMPOS ESTOCÁSTICOS
sendo³a1 , ´
a2 , ..., ad fatores de escalonamento. A função de correlação elíptica pode ser tornada isotrópica fazendo
0
τ k = τakk , k = 1, 2, ..., d.
A estrutura de correlação de um campo estocástico X(t) é totalmente separável se C(¿ ) pode ser expressa
como:
C(¿ ) = σ2 ρ(τ 1 )ρ(τ 2 )...ρ(τ d ), (C.4)
sendo ρ(τ k ) a função (índice de) autocorrelação do processo uni-dimensional X(tk ), ao longo de linhas paralelas
ao eixo tk . Normalmente, separabilidade implica simetria de quadrante. Geralmente, as propriedades de
separabilidade e de simetria de quadrante se perdem em uma rotação de eixos.
A função de correlação é dita parcialmente separável quando pode ser expressa como o produto de funções
de correlação de menor dimensão:
Na geologia e meteorologia, por exemplo, é comum a hipótese de correlação separável entre a localização
do ponto (latitude e longitude) e a profundidade ou a altitude. A variação no plano usualmente é dada por
uma função ρ(τ 1 , τ 2 ) isotrópica ou elipsoidal, e a variação na profundidade é dada de forma separável: ρ(τ 3 ).
Quanto o processo envolve variação espacial e temporal, é usual admitir separabilidade entre tempo e espaço:
ρ(τ 1 , τ 2 , τ 3 , τ 4 ) = ρ(τ 1 , τ 2 , τ 3 )ρ(τ 4 ).
Estruturas de correlação bi- e n-dimensionais podem ser obtidas por produtos de funções de autocorrelação
escalares, como aquelas das Figuras (B-1) e (B-2). Este produto deve ser corrijido para resultar em volume
unitário, ou volume igual a variância.
A função de covariância cruzada de dois campos estocásticos homogêneos X(t) e Y (t) é dada por:
CXY (¿ ) ´ Cov[X(t), Y (t + ¿ )]
= E[(X(t) ¡ µX )(Y (t + ¿ ) ¡ µY )]
= RXY (¿ ) ¡ µX µY (C.5)
Para um campo estocástico multi-variado X(t), ou para um vetor de campos estocásticos homogêneos que
variam no mesmo contínuo t, construímos uma matriz C de funções de covariância cruzada, cujos termos tem
a forma da Eq. (C.5).
K1
X K2
X
X(t1 , t2 ) = µ + Xk1 k2 (t1 , t2 ), (C.6)
k1 =¡K1 k2 =¡K2
sendo:
Xk1 k2 (t1 , t2 ) = Vk1 k2 cos(ωk1 t1 + ω k2 t2 + ©k1 k2 ).
C.2. CAMPOS ESTOCÁSTICOS HOMOGÊNEOS 433
Na Eq. (C.6), Vk1 k2 é a amplitude aleatória e ©k1 k2 o angulo de fase aleatório do componente com frequencias
ω ki = §[¢ωi (2ki ¡ 1)/2], (i = 1, 2; e ki = 1, 2, ..., Ki ). Todas as amplitudes aleatórias e angulos de fase são
mutualmente independentes, e os angulos de fase são uniformemente distribuídos em (0, 2π).
A variância do processo de média nula no somatório (Eq. C.6) é a soma das variâncias de todos os compo-
nentes:
XK1 XK2
1
σ2§ = E[Vk21 k2 ], (C.7)
2
k1 =¡K1 k2 =¡K2
2
sendo 1/2 o valor esperado de cos (©k1 k2 ).
A função de massa espectral bi-dimensional S(ω k1 , ωk1 ) é dada por:
1
S(ω k1 , ωk2 )¢ω1 ¢ω 2 = E[Vk21 k2 ]. (C.8)
2
No limite com ¢ωi ! 0 e Ki ! 1, (i = 1, 2), a integral sobre todas as frequencias resulta igual à variância:
" K # Z
X1 K2
X +1 Z +1
2
σ§ = lim S(ωk1 , ω k2 )¢ω 1 ¢ω2 = S(ω1 , ω2 )dω1 dω 2 . (C.9)
¢ω i !0 ¡1 ¡1
Ki !1 k1 =¡K1 k2 =¡K2
que relaciona as funções bi-dimensionais R(τ 1 , τ 2 ) e S(ω1 , ω 2 ). Fazendo τ 1 = τ 2 = 0 na Eq. (C.11), obtemos a
variância do termo somatório, relacionada à variância do campo X(t):
Z 1 Z 1
2
σ§ = S(ω1 , ω 2 )dω1 dω2 . (C.12)
¡1 ¡1
434 TEORIA DE PROBABILIDADES: CAMPOS ESTOCÁSTICOS
Caso quadrante-simétrico
sendo G(ω 1 , ω2 ) a função de densidade espectral escrita apenas para frequencias não-negativas:
Se o campo estocástico é homogêneo, então X(t1 , tf2 ixo ) é estacionário. Em função da homogeneidade, as
estatísticas do processo X 1 (t1 ) não dependem de tf2 ixo . A variância σ2§ pode ser expressa pela Eq. (C.9), ou
em termos da função de densidade espectral uni-dimensional S(ω1 ):
Z 1 Z 1 Z 1
σ2§ = S(ω1 , ω 2 )dω1 dω 2 = S(ω1 )dω1 . (C.16)
¡1 ¡1 ¡1
Esta expressão implica em que a densidade espectral marginal S(ω1 ) pode ser determinada a partir da
densidade bi-dimensional S(ω1 , ω2 ) por integração sobre ω 2 :
Z 1
S(ω1 ) = S(ω 1 , ω2 )dω 2 (C.17)
¡1
Da mesma forma, a densidade marginal S(ω2 ) pode ser determinada por integração sobre ω1 :
Z 1
S(ω2 ) = S(ω 1 , ω2 )dω 1 (C.18)
¡1
Observe a semelhança entre estas expressões e as Eqs. (A.53) e (A.54), que mostram que S(ω1 ) e S(ω1 , ω2 )
se comportam como densidades marginais e conjuntas. De fato, esta analogia pode ser operacionalizada a partir
de funções de densidade de área/volume unitários (Vanmarke, 1983):
0 S(ω1 , ω2 ) 0 S(ωi )
S (ω1 , ω 2 ) = ; S (ωi ) = , i = 1, 2.
σ2§ σ2§
K
X
X(t) = µ + Xk (t), (C.19)
k=¡K
sendo:
Xk (t) = Vk cos(!k t + ©k ).
que relaciona as funções multi-dimensionais R(¿ ) e S(!). Fazendo ¿ = 0 na Eq. (C.23), obtemos a variância
conforme Eq. (C.21).
436 TEORIA DE PROBABILIDADES: CAMPOS ESTOCÁSTICOS
1. Discretização nodal, que resulta em um vetor de variáveis aleatórias  = fχi gm i=1 , sendo as variáveis
χi valores do campo X(t) em pontos ti selecionados, ou médias locais em uma vizinhança destes, e as
funções F () triviais; a discretização do campo é feita a partir de uma malha de nós e elementos;
2. Expansões em séries, onde o campo é representado de forma exata como uma série envolvendo variáveis
aleatórias  e funções espaciais determinísticas; a aproximação é obtida truncando a série em m termos.
As técnicas de discretização nodais ainda podem ser divididas em pontuais, onde as variáveis aleatórias χi
representam valores do campo X(t) em pontos ti selecionados: χi = X(ti ); discretização em média
R local, onde
as variáveis χi representam integrais ponderadas do campo X(t) em um domínio local: χi = e X(t)w(t)d;
e técnicas de interpolação nodal, que utilizam as anteriores em combinação com funções de interpolação. As
técnicas de discretização nodais são estudadas nesta seção. A representação em séries é abordada na próxima
seção. A representação em séries espectrais foi apresentada nas Seções (B.2.7 e C.2.2).
sendo e o domínio do e-ésimo elemento, e Ne o número de elementos da malha. Em geral, a malha utilizada
para discretização dos campos é menos re nada do que a malha de nitos. Neste material, e refere-se a malha
utilizada para discretização dos campos estocásticos.
O tamanho da malha é referenciado por l, sendo l o comprimento de elemento linear, ou a largura (lado)
de elemento quadrado no plano. A escolha do tamanho da malha l está relacionada com o comprimento de
correlação 1/c do campo, como veremos.
C.3. REPRESENTAÇÃO NODAL DE CAMPOS CONTÍNUOS 437
O campo ca representado pelo vetor  =fX(tc1 ), X(tc2 ), ..., X(tcNe )gt . O vetor de médias ¹χ e a matriz de
autocovariância Cχχ são calculados a partir da média, variância e coe cientes de auto-correlação do campo X(t)
avaliados no centróide de cada elemento. Cada realização de Xm (t) é constante por partes, com descontinuidades
nas fronteiras dos elementos. A dimensão do campo discretizado pela técnica MP é m = Ne . A técnica MP
tende a sobre-estimar a variabilidade do campo dentro de cada elemento.
sendo q o número de nós da malha, ti as coordenadas nodais do i-ésimo nó, e Ni (t) funções de interpolação
polinomiais associadas aos elementos. O campo aproximado ca: Â =fX(t1 ), X(t2 ), ..., X(tq )gt , sendo fti gqi=1
o conjunto de coordenadas nodais da malha.
O vetor de médias ¹χ e a matriz de autocovariância Cχχ são calculados como:
q
X
¹χ = E[Xm (t)] = Ni (t)µ(ti ),
i=1
q q
X X
Cχχ = Cov[Xm (t), Xm (t0 )] = Ni (t)Nj (t0 )Cov[X(ti ), X(tj )].
i=1 j=1
Cada realização Xm (t) é função contínua sobre t , o que representa uma vantagem sobre a técnica MP. No
entanto, devido a interpolação, a distribuição marginal de probabilidades de Xm (t) não é plenamente consistente
com a distribuição de X(t). A dimensão do campo discretizado pela técnica SF é m = q.
sendo m o número de pontos nodais envolvidos na aproximação. As funções a(t) e bi (t) são determinadas
minimizando, em cada ponto t do domínio, a variância do erro V ar[X(t) ¡ Xm (t)], sujeito a Xm (t) ser um
438 TEORIA DE PROBABILIDADES: CAMPOS ESTOCÁSTICOS
A minimização é resolvida termo-a-termo para bi (t). Derivando (C.28) em relação a bi (t) e igualando a zero,
temos:
m
X
¡Cov[X(t), χi ] + bj (t)Cov[χi , χj ] = 0, _ i = 1, ..., m. (C.29)
j=1
Em forma matricial:
¡CX(t)χ + Cχχ b(t) = 0.
A partir desta expressão, percebemos que OLE é uma versão especial da técnica SF onde, a parte da média,
as funções de interpolação são:
¡ ¢ m
X ¡ ¡1 ¢
NiOLE (t) ´ C¡1
χχ CX(t)χ i = Cχχ ij σ(t)σ(tj )ρ(t, tj ). (C.31)
j=1
o que mostra que a variância do erro é igual a diferença entre as variâncias. Como a variância do erro é sempre
positiva, resulta que na técnica OLE a aproximação Xm (t) sub-estima a variância do campo original.
Pode-se mostrar que Cov[Xm (t), X(t) ¡ Xm (t)] = 0, ou seja, minimizar a variância do erro é equivalente
a eliminar a correlação entre o erro e o campo aproximado. No espaço das variáveis aleatórias L2 (, F, P ),
Xm (t) é uma projeção de X(t) no hiperplano mapeado pelos pontos fχi g (Neveu, 1992; apud Sudret & Der
Kiureghian, 2000).
A técnica OLE é basicamente uma aproximação SF em que as funções de interpolação são funções ótimas
C.3. REPRESENTAÇÃO NODAL DE CAMPOS CONTÍNUOS 439
onde w representa o espaço amostral. As funções peso v(t) correspondentes às técnicas MP, SA, SF e OLE
estão apresentadas na Tabela C.1. Nesta tabela, δ() é a função delta de Dirac, e 1e é a função característica
do elemento e: ½
1 se t 2 e
1e = .
0 caso contrário
Através das variáveis aleatórias da Eq. (C.33), e das funções de interpolação apresentadas na Tabela C.1, o
440 TEORIA DE PROBABILIDADES: CAMPOS ESTOCÁSTICOS
Esta expressão pode ser interpretada como uma expansão de cada realização do campo aproximado Xm (wf ixo , t) 2
L2 (t ) em uma base de funções fϕi (t)gmi=1 , com as realizações χi (wfixo ) sendo as coordenadas. Esta interpre-
tação revela que as bases utilizadas até agora não são ótimas (no caso de MP, SA e SF, as bases tem suporte
compacto no domínio de cada elemento).
Os métodos de discretização apresentados na próxima seção buscam expandir cada realização do campo
original X(wf ixo , , t) 2 L2 (t ) sobre uma base completa de funções determinísticas. A discretização ocorre ao
truncar a série em um número nito (m) de termos.
sendo λi autovalores da função de autocorrelação, e ϕi (t) suas autofunções. Autovalores e autofunções são
obtidos a partir da solução de uma equação integral de Fredholm:
Z
R(t, t0 )ϕi (t0 )dt0 = λi ϕi (t). (C.35)
t
Como o integrando R(t, t0 ) é limitado, simétrico e positivo-de nido, o conjunto fϕi g forma uma base ortog-
onal completa em L2 (t ), e os autovalores λi são reais, positivos, enumeráveis e tem no zero o único ponto de
acumulação.
Utilizando as autofunções ϕi como uma base ortogonal, o campo X(t) pode ser expresso como:
1 p
X
X(w, t) = µ(t) + λi ξ i (w)ϕi (t), (C.36)
i=0
sendo fξ i (w)g1
i=1 as coordenadas de cada realização do campo em relação às funções determinísticas ϕi (t).
Para o conjunto de realizações do campo, fξ i g se tornam um conjunto de variáveis aleatórias. A Eq. (C.36)
representa uma separação entre as partes espacial e aleatória do campo X(w, t).
Utilizando a série ortogonal na Eq. (C.36) para calcular E[X(t)X(t0 )], e igualando a R(t, t0 ), veri camos
(Ghanem & Spanos, 1991) que E[ξ i ξ j ] = δ ij , o que mostra que fξ i (w)g1
i=1 é um conjunto orto-normal de
variáveis aleatórias, com respeito ao produto interno hX, Y i = E[XY ].
A versão truncada, ou discreta, da série ortogonal na Eq. (C.36) é obtida ordenando λi e ϕi (t) em ordem
decrescente e limitando em m: m p
X
Xm (w, t) = µ(t) + λi ξ i (w)ϕi (t). (C.37)
i=0
C.4. REPRESENTAÇÃO DE CAMPOS CONTÍNUOS EM SÉRIES 441
A base ortogonal de autofunções de R(t, t0 ) é ótima no sentido de que o erro quadrático médio, quando
integrado sobre t e ao truncar a série em m, é mínimo. Quando o campo X(w, t) é normal, o conjunto fξ i g é
formado por variáveis normais-padrão independentes.
Infelizmente, para poucas funções de autocorrelação R(τ ) o problema na Eq. (C.35) pode ser resolvido analíti-
camente. Uma solução numérica utilizando formulação de elementos nitos é apresentada por Ghanem e
Spanos (1991) e por Sudret e Kiureghian (2000). Uma excessão é a função de autocorrelação exponencial
R(τ ) = R(t2 ¡ t1 ) = e¡cjτj = e¡cjt2 ¡t1 j . Fixando o domínio t = [¡a, a], os autovalores e autofunções são
encontrados resolvendo uma integral de Fredholm:
Z a
e¡cjt2 ¡t1 j ϕ(t2 )dt2 = λϕ(t1 ). (C.38)
¡a
Para n ¸ 2 par, ω n é obtido como raíz de ω + c tan(ωa) = 0, na região [(n ¡ 1/2)π/a, nπ/a]. Os autovalores
e autofunções correspondentes são:
2c
λn = ;
(ωn )2 + c2
sen(ωn t)
ϕn (t) = q . (C.40)
a ¡ sen(2ω
2ω n
n a)
Autovalores são ordenados em ordem decrescente, com referência ao índice n, e o processo X(w, t) é representado
utilizando os m maiores autovalores, e correspondentes autofunções:
m p
X
Xm (w, t) = µ(t) + λi ξ i (w)ϕi (t). (C.41)
i=0
Inspeção da integral de Fredholm (Eq. C.38) revela que a qualidade da expansão KL depende da relação
entre o tamanho do domínio (t = [¡a, a]) e o comprimento de correlação 1/c, assim como do número de termos
(m).
Um tamanho a pequeno em relação a 1/c implica em processo fortemente correlacionado no domínio t =
[¡a, a]; logo, um pequeno número de variáveis aleatórias (e de termos m) é su ciente para uma boa representação.
Quanto mais rapidamente a função de autocorrelação for a zero, tanto mais larga é a função de densidade
espectral, e mais termos m se tornam necessários para uma boa aproximação. Para m xo, a precisão é reduzida
à medida que a se torna maior que 1/c.
442 TEORIA DE PROBABILIDADES: CAMPOS ESTOCÁSTICOS
Domínios não-simétricos
Quando o domínio não é simétrico, como t = [tmin , tmax ], um parâmetro de translação é utilizado:
tmin + tmax
tm ed = ,
2
de forma que a integral de Fredholm pode ser resolvida no domínio:
0 tmax ¡ tmin tmax ¡ tmin
t = t ¡ tmed = [¡ , ].
2 2
A função ϕi (t) na Eq. (C.41) passa a ser avaliada em ϕi (t ¡ tm ed ).
De acordo com Ghanem e Spanos (1991), a solução para a integral de Fredholm bidimensional, com função de
autocorrelação exponencial, pode ser obtida pelo produto das soluções uni-dimensionais:
λn = λ1D 1D
n1 λn2 ,
ϕn (t) ´ ϕn (t1 , t2 ) = ϕn1 (t1 )ϕn2 (t2 ),
onde o super-índice 1D se refere às soluções inidimensionais (Eqs. C.39 e C.40). Obviamente, esta solução implica
em assumir espectro separável (Seção C.2.1). Na implementação, após as multiplicações, os autovalores λn são
ordenados em ordem decrescente, de forma a obtermos uma expansão utilizando os m maiores autovalores, e
correspondentes autofunções.
Cada realização do campo X(w, t) é uma função em L2 (t ), que pode ser escrita em termos de uma expansão
das funções ortogonais fhi (t)g1
i=1 . Considerando todas as possíveis realizações, os coe cientes da expansão se
tornam variáveis aleatórias. Logo:
1
X
X(w, t) = µ(t) + χi (w)hi (t), (C.42)
i=0
sendo χi (w) variáveis aleatórias de média nula. Na prática, a série é truncada em m, de forma que obtemos
uma base incompleta fhi (t)gm m
i=1 , o vetor  = fχi (w)gi=1 e a aproximação:
m
X
Xm (w, t) = µ(t) + χi (w)hi (t).
i=0
C.4. REPRESENTAÇÃO DE CAMPOS CONTÍNUOS EM SÉRIES 443
A discretização dos campos Gaussianos utilizando OSE envolve o conjunto de variáveis aleatórias  =fχi (w)gm
i=1
correlacionadas. Através da decomposição espectral da matriz de covariâncias Cχχ , podemos transformar o vetor
 em um conjunto de variáveis aleatórias normais independentes:
sendo ¤ a matriz diagonal de autovalores λn de Cχχ , e A a matriz de autovetores. O vetor  pode ser obtido
de » por:
 = A¤¡1/2 ». (C.46)
Sejam fAki gm
i=1 as coordenadas do k-ésimo autovetor. Da Eq. (C.46), cada componente χi de  é obtido
como: m
X p
χi (w) = Aki λk ξ k (w).
k=1
Introduzindo a notação:
m
X
ϕk (t) = Aki hi (t),
i=1
Comparando esta equação com Eq. (C.37), veri camos que se trata de uma aproximação da expansão de
Karhunem-Loéve. De fato, as expansões são estritamente equivalentes quando as autofunções ϕk (t) da função
de autocorrelação RXX são aproximadas utilizando o conjunto de funções ortogonais fhi (t)g1
i=1 .
444 TEORIA DE PROBABILIDADES: CAMPOS ESTOCÁSTICOS
sendo fξ i (w)gN
i=1variáveis aleatórias normais padrão independentes, e (λi , Ái ) autovalores e autovetores da
matriz de covariância, tal que:
Cχχ Ái = λi Ái (C.49)
Utilizando a Eq. (C.48) na expansão (C.24), e resolvendo o problema OLE conforme Seção (C.3.5), obtemos:
XN
ξ k (w) t
XN (w, t) = µX + p Ái CX(t)χ .
k=1
λk
Como na expansão de Karhunen-Loéve, a série pode ser truncada em m termos, com autovalores λi
ordenados em ordem decrescente.
A variância do erro para EOLE é obtida como:
Xm
1 ¡ t ¢2
V ar[X(t) ¡ Xm (t)] = σ2 (t) ¡ Ái CX(t)χ .
λk
k=1
Como nas expansões OLE e KL, o segundo termo é igual a variânica de Xm (t); logo, a expansão EOLE
também sub-representa a variância verdadeira. O erro de variância é reduzido monotonicamente a medida que
m ! N , se reduzindo a zero para m = N . Isto permite de nir o número de termos m a partir de uma
tolerância especi cada para o erro da variância.
Conforme observado por Li e Der Kiureghian (1993), EOLE é mais e ciente com uma malha na e expansão
de baixa ordem, do que com uma malha grosseira e expansão de alta ordem.
sendo x1 = XG (w, t), x2 = XG(w, t + τ ). Se as distribuições alvo forem incompatíveis segundo Eq. (C.51),
então não é possível respeitar simultâneamente as densidades de probabilidade e espectral.
446 TEORIA DE PROBABILIDADES: CAMPOS ESTOCÁSTICOS
Apêndice D
SUMÁRIO DE DISTRIBUIÇÕES
CONTÍNUAS
TABELA DA DISTRIBUIÇÃO
NORMAL PADRÃO
Rβ £ ¤ R ¡β £ ¤
Valores tabelados da função: pf = ©(¡β) = 1¡©(β) = 1¡ p1 exp ¡z 2 /2 dz = ¡1 p1 exp ¡z 2 /2 dz.
¡1 2π 2π
Figura E-1:
451
Figura E-2:
452 TABELA DA DISTRIBUIÇÃO NORMAL PADRÃO
Figura E-3:
Apêndice F
PROGRAMAÇÃO DA FUNÇÃO
NORMAL PADRÃO ACUMULADA
No entanto, existem expressões analíticas para aproximá-la. Estas expressões são particularmente importantes
na programação da função ©[ ].
Uma expressão analítica é:
· 2¸
z y
©[y] = 1 ¡ p exp ¡ , 0 · y · 1;
2π 2
· 2¸
z y
©[y] = p exp ¡ , ¡ 1 · y · 0; (F.1)
2π 2
sendo:
Para 0, 5 · u · 1, 0 utilizamos:
s · ¸
1
z = ln ;
(1 ¡ u)2
p1 + z(p2 + z(p3 + z(p4 + z(p5 ))))
y = +z + .
q1 + z(q2 + z(q3 + z(q4 + z(q5 ))))
SOFTWARES DE
CONFIABILIDADE ESTRUTURAL
O amadurecimento da Teoria de Con abilidade Estrutural, nos anos 80 e 90, resultou em um número signi-
cativo de softwares de con abilidade estrutural. Uma característica importante de todos estes softwares é a
capacidade de se comunicarem, ou de serem integrados, a softwares comerciais de análise numérica, em par-
ticular elementos nitos (EF). Tais softwares (EF) evoluíram muito nos últimos anos, incorporando diversos
recursos de análise não-linear e de processamento paralelo. Idealmente, análises de con abilidade devem ser
realizadas utilizando estes recursos. Alguns softwares de con abilidade possuem pacotes de EF próprios, mais
limitados, mas possivelmente mais rápidos, devido à maior integração. A maior parte permite integração a
softwares de EF comerciais, em particular, aos softwares ANSYS, ABAQUS e MSC Nastran.
A integração entre softwares de con abilidade estrutural e softwares de elementos nitos é feita de forma
não-intrusiva, conforme ilustrado na Figura G-1, e descrito por Wu et al. (1990) e Beck & da Rosa (2006). Na
forma não-intrusiva, o modelo numérico é resolvido como se fosse uma caixa-preta: o software de con abilidade
informa em que pontos do domínio (das variáveis aleatórias) a análise deve ser realizada, e recebe uma resposta
determinística em cada ponto. Estes pontos podem ser parte da busca interativa pelo ponto de projeto
(FORM), podem ser uma amostra em simulação de Monte Carlo, ou podem ser um ponto de suporte para
construção de um meta-modelo. Em contraste, formulações conhecidas como elementos nitos estocásticos
(Der Kiureghian & Ke, 1988; Ghanem & Spanos, 1991; Sudret & Der Kiureghian, 2000; Stefanou, 2009) são
intrusivas: soluções são construídas considerando que os coe cientes de equações diferenciais e integrais são
variáveis aleatórias ou processos estocásticos.
Atualmente, softwares completos de con abilidade estrutural apresentam recursos como:
1. Análise de con abilidade independente do tempo: FORM, SORM, e várias técnicas de simulação de Monte
Carlo;
2. Análise de con abilidade dependente do tempo, envolvendo processos estocásticos discretos e contínuos,
e modelos de degradação da resistência ao longo do tempo;
3. Cálculo de gradientes da equação de estado limite por diferenças nitas ou por diferenciação direta (DDM);
4. Análise de sensibilidade local e global;
5. Con abilidade de sistemas: associação em série, paralelo e mista, identi cação dos minimal cut sets;
6. Construção de meta-modelos (ANN, PCE, Suport Vector Machine, Krigagem, etc.);
7. Solução de problemas de otimização tipo RBDO e de custos sobre o ciclo de vida (LCRO).
456 SOFTWARES DE CONFIABILIDADE ESTRUTURAL
MÓDULO DE CONFIABILIDADE
MÓDULO MECÂNICO
Definição do valor dos parâmetros
de projeto (ponto X = x) onde a
equação de estado limite (resposta Determina a resposta da
mecânica) deve ser avaliada estrutura:
• esforços;
• deslocamentos;
Avaliação da equação de estado • tensões;
limite:
g (x ) ? • deformações;
sim
Mais pontos necessários?
não
Figura G-1: Acoplamento não-intrusivo entre softwares de con abilidade e de elementos nitos.
Na Tabela G.1 é apresentado um resumo dos softwares de con abilidade estrutural existentes. Nesta tabela,
a letra (A) identi ca softwares essencialmente acadêmicos, de código aberto e desenvolvidos por multiplos
usuários. As letras (AC) identi cam softwares que possuem estrutura comercial e de suporte técnico, mas ainda
umbilicalmente ligados a instituições de pesquisa. A letra (C) identi ca software comercial. A título de exemplo,
uma licença anual do software STRUREL, não-acadêmica, é comercializada entre 3 e 4,8 mil Euros, a depender
de opcionais. Uma licença anual do software NESSUS custa 5 mil dólares. As principais características dos
softwares são descritas na Tabela G.2.
Uma descrição detalhada dos softwares listados na Tabela G.1 foi apresentada em número especial da revista
Structural Safety (Pellissetti & Schuëller, 2006). Em contraste com a Tabela G.1, neste número especial o
software ANSYS é apresentado como um software de con abilidade estrutural (Reh et al., 2006). As versões
atuais do ANSYS Workbench incluem recursos para simulação de Monte Carlo bruta, análise de sensibilidade e
otimização estrutural. No entanto, o software não incorpora soluções dedicadas ao problema de con abilidade
estrutural, como FORM, SORM, técnicas de amostragem para problemas com pequena probabilidade de falha,
ou con abilidade de sistemas. A edição especial inclui softwares não-listados na Tabela G.1: PROBAN (Tvedt,
457
2006), UNIPASS (Lin &, Khalessi, 2006) e ProFES (Wu et al., 2016), que aparentemente foram descontinuados
(falta de informações atualizadas na internet). A compilação de Pellissetti & Schuëller (2006) não inclui o
software acadêmico UQLab, lançado recentemente.
Uma versão livre mas limitada do software StRAnD é disponibilizada no site do Departamento de Engenha-
ria de Estruturas, Universidade de São Paulo, juntamente com um manual do programa. A entrada e saída de
dados do StRAnD é feita via arquivos de texto, mas uma interface grá ca está sendo desenvolvida. Duas versões
do software são disponibilizadas no site: executável (.exe) e projeto do Visual Studio (.sln). A versão executável
é mais lenta, pois utiliza um interpretador simbólico para ler as equações de estado limite de um arquivo texto.
O projeto do Visual Studio permite ao usuário programar as equações de estado limite em FORTRAN, compilar
e linkar, criando um arquivo executável para a solução do problema do usuário. Esta versão também permite
acesso ao módulo StRAnD_FEM, e o acomplamento com programas de elementos nitos externos (ANSYS,
ABAQUS). Acesse: http://www.set.eesc.usp.br/softwares_depto/StRAnD/ para maiores informações.
458 SOFTWARES DE CONFIABILIDADE ESTRUTURAL
Apêndice H
REPRESENTAÇÃO
POSSIBILÍSTICA DE INCERTEZAS
Neste texto abordamos incertezas que podem ser descritas, ou quanti cadas, através de uma abordagem pro-
babilista. Esta abordagem assume que há observações ou dados su cientes de determinada variável, para se
determinar as probabilidades de ocorrência de eventos, e construir as curvas de distribuição de probabilidades.
No entanto, este nem sempre é o caso. Em projetos de engenharia, em geral, podem existir variáveis em relação
às quais pouca ou nenhuma informação é conhecida. Em geral, estas incertezas estão na classe das incertezas
epistêmicas, aquelas relacionadas a falta de informação ou conhecimento. Frequentemente, surgem a partir da
interpretação de informações linguísticas, imprecisas. Por exemplo, o nível de controle de um processo pode
ser classi cado como baixo, médio ou alto. Independente da falta de informação, a análise de determinado
problema pode depender da quanti cação destas incertezas.
Existem diferentes formas de quanti car incertezas, amplamente descritas na literature (Ben-Haim & El-
ishako¤, 1990; Möller & Beer, 2004; Moens & Vandepitte, 2005; Beer et al., 2013). Neste texto nos limitamos a
introduzir o leitor ao tema, e a descrever variáveis fuzzy, que são empregadas em uma formulação de otimização
de risco robusta, na Sessão 8.6.5. Uma descrição breve de variáveis fuzzy é apresentada nesta seção, apenas
para ilustrar o conceito. O tema é discutido em profundidade em referências como (Ben-Haim & Elishako¤,
1990; Möller & Beer, 2004; Ayyub & Klir, 2006).
Dentre as formas não-probabilistas de quanti cação de incertezas, existe a representação por intervalos
(Moens & Vandepitte, 2007; Moens & Hanss, 2011; Verhaeghe et al., 2013) e por números fuzzy (De Gersem
et al., 2007; Farkas et al., 2008, 2010; Hanss & Turrin, 2010). Em contraste à descrição probabilista, estas são
chamadas de representações possibilistas de incertezas. Existem também formas combinadas de representação
possibilista/probabilista, como as probabilidades (ou aleatoriedades) fuzzy (Möller et al., 2003; Möller & Beer,
2004) ou probabilidades imprecisas (Moens & Vandepitte, 2005; Möller & Beer, 2008; Beer et al., 2013).
Um conjunto fuzzy é um par Ae = (A, mA ), sendo A um conjunto e mA : A ! [0, 1] uma função de associação
ou membership function. Para cada valor x 2 A, mA (x) de ne o grau de associação de x. Se mA (x) = 0, x
não é membro do conjunto fuzzy; se 0 < mA (x) · 1, x é membro do conjunto. Um conjunto clássico, ou crisp,
em teoria de probabilidades, pode ser visto como um conjunto cuja função de associação admite apenas dois
valores: mA (x) = 1, se x 2 A; mA (x) = 0 caso contrário. Em conjuntos fuzzy, o valor da função de associação
mA (x), que varia de forma continua entre 0 e 1, serve para criar sub-conjuntos de A, com base no grau de
con ança do analista com relação à variável x. O assim chamado corte¡α ou α¡cut Aα de A e é um conjunto
Aα ½ A, obtido a partir da regra mA (x) ¸ α 2 (0, 1]:
e
Figura H-1: Número fuzzy triangular =tri(xl , xc , xu ), e sub-conjunto Aα de A.
Um número fuzzy é um conjunto fuzzy normalizado e convexo A e µ R, cuja função de associação é contínua,
ou contínua por partes, e que assume o valor mA (x) = 1 em apenas um ponto xc (Möller & Beer, 2004). O ponto
x no qual mA (x) = 1 é chamado de valor crisp do número fuzzy. Um número fuzzy com função de associação
linear entre mA = 0 e mA = 1, ou número fuzzy triangular, pode ser representado pela terna e a =tri(xl , xc , xu ),
sendo xl e xu os limites inferios e superior do suporte de x, e xc o valor crisp do número fuzzy . A função de
associação triangular é obtida como:
· ¸
xc ¡ x x ¡ xc
mA (x) = min max[0, 1 ¡ ], max[0, 1 ¡ ] .
xc ¡ xl xu ¡ xc
A Figura H-1 ilustra um número fuzzy e a com função de associação triangular, bem como os α¡cuts Aα de
e Observa-se que o número fuzzy triangular é convexo; logo, os sub-conjuntos Aα obtidos de cada α¡cut estão
A.
contidos no sub-conjunto anterior, para α crescente.
Se f (x) é uma função real de números fuzzy e a1 , e
a = fe a2 , ..., e
an g, então z = f (e
a) também é um número fuzzy,
e O princípio da extensão é utilizado para de nir o conjunto fuzzy
que pode ser descrito a partir do conjunto B.
e (Möller & Beer, 2004):
B
sendo B um novo conjunto, e com £ representando produto Cartesiano. A função de associação mB (z) é obtida
como: ½
supz=f(x) min [mA1 (x1 ), mA2 (x2 ), ..., mAn (xn )] se 9z = f (x)
mB (z) = . (H.1)
0 caso contrário.
Para determinar esta função, in nitas combinações devem ser mapeadas. Em geral, o mapeamento de
conjuntos em B ~ não é injectivo (um para um). Se Z µ R, então a imagem fuzzy de B e pode ser aproximada
discretizando-a em α¡cuts Bα (Hurtado et al., 2012). Neste caso, o intervalo [0, 1] é discretizado em m pontos
0 = α1 < α2 < ¢ ¢ ¢ < αm · 1, e a imagem de B e é avaliada para cada α¡cut. Se o sub-conjunto é convexo e
f ( ) é continua, então Bα = f (Aα ) pode ser avaliado como [minx2Aα f (x), maxx2Aα f(x)]. Este resultado pode
ser avaliado através de otimização, e é apropriado quando a função f ( ) é não-linear nas variáveis de entrada.
Este método é empregado na Seção 8.6 para resolver um problema de otimização robusta de uma barragem de
gravidade.
REFERÊNCIAS BIBLIOGRÁFICAS 461
ABNT NBR 6120:1980. Cargas para o cálculo de estruturas de edi cações, Associação Brasileira de Normas Técnicas,
Rio de Janeiro, RJ.
ABNT NBR 6120:2019. Ações para o cálculo de estruturas de edi cações, Associação Brasileira de Normas Técnicas,
Rio de Janeiro, RJ.
ABNT NBR 6123:1988. Forças devidas ao vento em edi cações, Associação Brasileira de Normas Técnicas, Rio de
Janeiro, RJ.
ABNT NBR 8681:2003. Ações e Segurança nas estruturas: procedimentos, Associação Brasileira de Normas Técnicas,
Rio de Janeiro, RJ.
ABNT NBR 8800:2008. Projeto de estruturas de aço e de estruturas mistas de aço e concreto de edifícios, Associação
Brasileira de Normas Técnicas, Rio de Janeiro, RJ.
ABNT NBR 15421:2006: Projeto de Estruturas Resistentes a Sismos Procedimento, Associação Brasileira de Normas
Técnicas, Rio de Janeiro, RJ.
Agarwal H, Mozumder CK, Renaud JE, Watson LT, 2007: An inverse-measure-based unilevel architecture for reliability-
based design. Structural and Multidisciplinary Optimization 33:217227.
Agarwal H, Renaud J, Lee J and Watson L, 2004: A Unilevel Method for Reliability Based Design Optimization,
45th AIAA/ASME/ASCE/AHS/ASC Structures, Structural Dynamics and Materials Conference, Palm Springs, CA,
1922.
Alpsten GA, 1972: Variations in mechanical and cross-sectional properties of steel, Proc. Int. Conf. on Planning and
Design of Tall Buildings, Vol. 1b, Lehigh University, Bethlehem, 775-805.
Ang A H-S, Lee J-C, 2001: Cost optimal design of R/C buildings, Reliability Engineering and System Safety 73,
233238.
Ang A H-S, Tang WH, 1975: Probability Concepts in Engineering Planning and Design, Volume I: Basic Principles;
John Wiley & Sons.
Ang A H-S, Tang WH, 1990: Probability Concepts in Engineering Planning and Design, Volume II: Decision, Risk and
Reliability; John Wiley & Sons.
Ang A H-S, Tang WH, 2007: Probability Concepts in Engineering: Emphasis on Applications to Civil and Environ-
mental Engineering, 2nd Edition, John Wiley & Sons.
Ang GS; Ang H-S, 1994: Adaptive Kernel Method for Evaluating Structural System Reliability, 6th International
Conference on Structural Safety and Reliability.
ANSI/AISC 360:2005 Speci cation for Structural Steel Buildings. American Institute of Steel Construction, Chicago,
Illinois.
462 REFERÊNCIAS BIBLIOGRÁFICAS
Aoki N, 2005: Segurança e con abilidade de fundações profundas, Anais do Congresso de pontes e estruturas, Rio de
Janeiro, ABPE - Associação Brasileira de Pontes e Estruturas.
Aoues Y, Chateauneuf A, 2008: Reliability-based optimization of structural systems by adaptive target safety Appli-
cation to RC frames, Structural Safety 30, 144161.
Aoues Y, Chateauneuf A, 2010: Benchmark study of numerical methods for reliability-based design optimization.
Structural and Multidisciplinary Optimization, 41:277294.
Arora JS (editor), 2007: Optimization of Structural and Mechanical Systems, World Scienti c Publishing.
ASCE/SEI 7-05:2005: Minimum design loads and associated criteria for buildings and other structures. American
Society of Civil Engineering.
ASCE/SEI 7-10:2010: Minimum design loads and associated criteria for buildings and other structures. American
Society of Civil Engineering.
ASCE/SEI 7-16:2016: Minimum design loads and associated criteria for buildings and other structures. American
Society of Civil Engineering.
ASCE 41:2017 Seismic Evaluation and Retro t of Existing Buildings, American Society of Civil Engineering.
ATC (Applied Technology Council) 40, 1996: Seismic evaluation and retro t of existing concrete buildings. Redwood
City, CA.
Au SK, 2005: Reliability-based design sensitivity by e¢cient simulation. Computers & Structures 83, 10481061.
Au SK, Beck JL, 2001: Estimation of small failure probabilities in high dimensions by subset simulation, Probabilistic
Engineering Mechanics 16, 263-277.
Au SK, Ching J, Beck JL, 2007: Application of subset simulation methods to reliability benchmark problems, Structural
Safety 29, 183-193.
Augusti G, Ciampoli M, 2008: Performance-Based Design in risk assessment and reduction, Probabilistic Engineering
Mechanics 23, 496-508.
Ayyub BM, Klir GJ, 2006: Uncertainty modeling and analysis in engineering and the sciences, Chapman and Hall/CRC,
Boca Raton.
Ba-abbad M, Nikolaidis E, Kapania R, 2006: A New Approach for System Reliability-Based Design Optimization,
AIAA J. 44(5),10871096.
Baker G, Wade C, Spearpoint M, Fleischmann C, 2013: Developing Probabilistic Design Fires for Performance-based
Fire Safety Engineering, Procedia Engineering 62, 639-647.
Baker MJ, 1969: Variations in the mechanical properties of structural steels, Final report: Symposium on Concepts of
Safety of Structures and Methods of Design, IABSE, London, 165-174.
Baker MJ, 1972: Variability in the Strength of Structural Steels - A Study in Material Variability; Part 1: Material
Variability, CIRIA Technical Note 44.
Barbato M, Petrini F, Unnikrishnan VU, Ciampoli M, 2013: Performance-Based Hurricane Engineering (PBHE) frame-
work, Structural Safety 45, 24-35.
de Barros VP, Beck AT, Bittencourt TN, 2021: Shear failure in reinforced concrete members without transverse
reinforcement: analysis of model error of NBR6118:2014, IBRACON Structures and Materials Journal 14 (1), e14112,
https://doi.org/10.1590/S1983-41952021000100012
REFERÊNCIAS BIBLIOGRÁFICAS 463
Batts MB, Russell LR, Simiu B, 1980: Hurricane wind speed in the United States, J. Structural Div. ASCE 106,
20012016.
Bazán FAV, Beck AT, 2013: Stochastic process corrosion growth models for pipeline reliability, Corrosion Science 74,
5058.
Bazan FAV, Beck AT, 2016: Optimal design of buried pipelines considering failure by mechanical damage. Structure &
Infrastructure Engineering 12, 1-10.
Beale MH, Hagan MT, Demuth HB, 2011: Neural Network Toolbox: Users Guide. Matlab, The Mathworks Inc.
Beck AT, 2003: Reliability Analysis of Degrading Uncertain Structures - with Applications to Fatigue and Fracture
Under Random Loading, Ph. D. Thesis, Dept. of Civil and Environmental Engineering, University of Newcastle, Aus-
tralia.
Beck AT, 2007: Computer-aided teaching of structural reliability, Metodos Numéricos e Computacionais em Engenharia,
Porto.
Beck AT, 2008: The Random Barrier-crossing Problem, Probabilistic Engineering Mechanics 23, 134-145.
Beck AT, 2013: Structural Optimization under Uncertainties: Understanding the Role of Expected Consequences of
Failure. Chapter 5 in: Soft Computing Methods for Civil and Structural Engineering. Tsompanakis Y, Topping BHV
Eds. Saxe-Coburg Publications.
Beck AT, 2020: Optimal Design of Hyperstatic Redundant Structural Systems: fundamentals, Engineering Structures
219, 110542. https://doi.org/10.1016/j.engstruct.2020.110542
Beck AT, Correa MRS, 2013: New Design Chart for Basic Wind Speeds in Brazil. Latin American Journal of Solids
and Structures 10, 707-723.
Beck AT, da Rosa E, 2006: Structural Reliability Analysis Using Deterministic Finite Element Programs, Latin Amer-
ican Journal of Solids and Structures 3, 197-222.
Beck AT, Dória AS, 2008: Reliability analysis of I-section steel columns designed according to new Brazilian building
codes. Journal of the Brazilian Society of Mechanical Sciences and Engineering 30, 152-159.
Beck AT, Gomes WJS, 2012: A comparison of deterministic, reliability-based and risk-based structural optimization
under uncertainty, Probabilistic Engineering Mechanics 28, 18-29.
Beck AT, Melchers RE, 2004a: On the Ensemble Upcrossing Rate Approach to Time Variant Reliability Analysis of
Uncertain Structures, Probabilistic Engineering Mechanics 19, 9-19.
Beck AT, Melchers RE, 2004b: Overload Failure of Structural Components under Random Crack Propagation and
Loading - a Random Process Approach -, Structural Safety 26, 471-488.
Beck AT, Melchers RE, 2005: Barrier Failure Dominance in Time Variant Reliability Analysis, Probabilistic Engineering
Mechanics 20, 79-85.
Beck AT, Silva Jr. CRA, 2016: Strategies for Finding the Design Point under Bounded Random Variables. Structural
Safety 58, 79-93.
Beck AT, Souza Jr. AC, 2010: A rst attempt towards reliability-based calibration of Brazilian structural design codes.
Journal of the Brazilian Society of Mechanical Sciences and Engineering 32, 119-127.
Beck AT, Verzenhassi CC, 2008: Risk Optimization of a Steel Frame Communications Tower Subject to Tornado Winds,
Latin American Journal of Solids and Structures 5, 187-203.
Beck AT, Oliveira WLA, DeNardim S, ElDebs ALHC, 2009: Reliability-based evaluation of design code provisions for
circular concrete- lled steel columns, Engineering Structures 31, 2299-2308.
464 REFERÊNCIAS BIBLIOGRÁFICAS
Beck AT, Gomes WJS, Bazán FAV, 2012: On the Robustness of Structural Risk Optimization with Respect to Epistemic
Uncertainties. Int. Journal for Uncertainty Quanti cation 2, 1-20.
Beck AT, Kougioumtzoglou IA, Santos KRM, 2014: Optimal performance-based design of non-linear sto-
chastic dynamical RC structures subject to stationary wind excitation, Engineering Structures 78, 145-153.
https://doi.org/10.1016/j.engstruct.2014.07.047
Beck AT, Gomes WJS, Lopez RH, Miguel LFF, 2015: A comparison between robust and risk-based optimization under
uncertainty, Structural and Multidisciplinary Optimization 52, 479-492.
Beck AT, Tessari RK, Kroetz HM, 2019: System reliability-based design optimization and risk-based op-
timization: a benchmark example considering progressive collapse. Engineering Optimization 51, 1000-1012.
https://doi.org/10.1080/0305215X.2018.1502760
Beck AT, Cecilio DL, Gomes WJ, Tessari RK, Jacinto CMC, 2020a: Empirical Random Kick Model and Casing
Reliability, Journal of Petroleum Science and Engineering 35 (4), 644-654. https://doi.org/10.2118/201200-pa
Beck AT, Ribeiro LR, Valdebenito M, 2020b: Risk-based cost-bene t analysis of frame structures
considering progressive collapse under column removal scenarios. Engineering Structures 225, 111295,
https://doi.org/10.1016/j.engstruct.2020.111295
Beck AT, Bosse RM, Rodrigues ID, 2022: On the Ergodicity Assumption in Performance-Based Engineering. Structural
Safety (under review).
Bedford T, Cooke R, 2001: Probabilistic Risk Analysis: Foundations and Methods, Cambridge University Press.
Beer M, Ferson S, Kreinovich V, 2013: Imprecise probabilities in engineering analyses, Mechanical Systems & Signal
Processing 37, 4-29.
Belyaev YK, 1968: On the Number of Exits Across the Boundary of a Region by a Vector Stochastic Process, Theory
Prob. Appl. 13, 320-324.
Ben-Haim Y, Elishako¤ I, 1990: Convex models of uncertainty in applied mechanics, Elsevier Amsterdam.
Benjamin JR, 1968: Probabilistic Structural Analysis and Design, Journal of the Structural Division (ASCE) 94,
1665-1679.
Benjamin JR, Cornell CA, 1970: Probability, Statistics and Decision for Civil Engineers, McGraw-Hill Book Company,
New York.
Beyer HG, Sendho¤ B, 2007: Robust optimization - A comprehensive survey, Computer Methods in Applied Mechanics
and Engineering 196, 3190-3218.
Billah YK, Scanlan RH, 1991: Ressonance, Tacoma Narrows Bridge Failure, and Undergraduate Physics Textbooks,
American Journal of Physics 59, 118-124.
Bjerager P, 1988: Probability Integration by Directional Simulation, Journal of Engineering Mechanics 114, 1285-1301.
Bobby S, Spence SMJ, Bernardini E, Kareem A, 2014: Performance-Based Topology Optimization for Wind-Excited
Tall Buildings: A Framework. Engineering Structures 74: 24255. https://doi.org/10.1016/j.engstruct.2014.05.043.
Bobby S, Spence SMJ, Kareem A, 2016: Data-Driven Performance-Based Topology Optimization of Un-
certain Wind-Excited Tall Buildings. Structural and Multidisciplinary Optimization 54 (6): 13791402.
https://doi.org/10.1007/s00158-016-1474-6.
REFERÊNCIAS BIBLIOGRÁFICAS 465
Bolandim E, Beck AT, Malite M, 2013: Bolted Connections in Cold-Formed Steel: Reliability Analysis for Rupture in
Net Section. ASCE J. Struct. Eng. 139, Special Issue: Cold-Formed Steel Structures, 748-756.
Borgund U, Bucher CG, 1986: Importance Sampling Procedure Using Design Point - ISPUD Users Manual, Institute
für Mechanik, Universität Innsbruck, Innsbruck.
Borgund U, Ouypornprasert W, Prenninger PHW, 1986: Advanced Simulation Methods for the Estimation of Systems
Reliability, Internal Working Report 19, Institute für Mechanik, Universität Innsbruck, Innsbruck.
Box GEP, Hunter W, Hunter S, 2005: Statistics for Experimenters: Design, Innovation, and Discovery, 2nd edition,
Wiley.
Breitung K, 1984: Asymptotic Approximations for Multinormal Integrals, J. Eng. Mech. ASCE 110, 357-366.
Bucher CG, 1988: Adaptive Sampling - An Interative Fast Monte Carlo Procedure, Structural Safety 5, 119-126.
Bucher CG, 2009: Asymptotic sampling for high-dimensional reliability analysis, Probabilistic Engineering Mechanics
24, 504-510.
Bucher CG, Bourgund U, 1990: A Fast and E¢cient Response Surface Approach for Structural Reliability Problems,
Structural Safety 7, 56-66.
Candido DH, 2012: Tornados e trombas dágua no Brasil: desenvolvimento de um modelo e proposta de escala de
avaliação de danos, Tese de Doutorado, Instituto de Geociências, Unicamp.
Celik OC, Ellingwood BR, 2010: Seismic Fragilities for Non-Ductile Reinforced Concrete Frames - Role of Aleatoric
and Epistemic Uncertainties. Structural Safety 32(1): 112. https://doi.org/10.1016/j.strusafe.2009.04.003.
CETESB, 2011: Norma CETESB P4.261: Risco de acidente de origem tecnológica - Método para decisão e termos de
referência, Segunda Edição.
Chaves IA, Beck AT, Malite M, 2010: Reliability-based Evaluation of Design Guidelines for Cold-Formed Steel-Concrete
Composite Beams, Journal of the Brazilian Society of Mechanical Sciences and Eng. 32, 442-449.
Chen Z, Qiu H, Gao L, Su L, Li P, 2013: An adaptive decoupling approach for reliability-based design optimization,
Computers & Structures 117, 5866.
Cheng G, Xu L, Jiang L, 2006: A sequential approximate programming strategy for reliability-based structural opti-
mization, Computers & Structures 84, 13531367.
Cheung AB, Beck AT, Nobrega PGB, Stucchi FB, Santos SHC, 2022: Ações e Segurança, Capítulo B04 em Estruturas
de Concreto Armado - Vol. 1, Kimura AE, Parsekian GA, Almeida LC, Santos SHC, Bittencourt TN (eds.), Instituto
Brasileiro do Concreto (IBRACON), São Paulo, SP, ISBN 978-65-89675-05-1.
Ciampoli M, Petrini F, Augusti G, 2011: Performance-Based Wind Engineering: Towards a general procedure, Struc-
tural Safety 33, 367-378.
Conselho Nacional de Educação, 2001: Parecer CNE/CES no 1.362/2001, aprovado em 12 de dezembro de 2001,
disponível em: http://portal.mec.gov.br/cne/arquivos/pdf/CES1362.pdf
Cook, Dustin T, Liel AB, DeBock DJ, Haselton CB, 2021. Benchmarking FEMA P-58 Repair Costs and Unsafe Placards
for the Northridge Earthquake: Implications for Performance-Based Earthquake Engineering. International Journal of
Disaster Risk Reduction 56, 102117. https://doi.org/10.1016/j.ijdrr.2021.102117.
Corelhano G, Correa MRS, Beck AT, 2012: Con abilidade de edifícios no estado limite de serviço para deslocamentos
horizontais máximos, IBRACON Structures and Materials Journal 5, 84-103.
466 REFERÊNCIAS BIBLIOGRÁFICAS
Cornell CA, 1967: Bounds on the reliability of structural systems. J Struct Div, ASCE, 93, 171200.
Cornell CA, 1969a: Bayesian Statistical Decision Theory and Reliability-Based Design, Proceedings of the Int. Confer-
ence on Structural Safety and Reliability, Washington DC, 47-66.
Cornell CA, 1969b: A probability-based structural code. Journal of the American Concrete Institute 66(12), 974985.
Costa LGL, Santiago WC, Beck AT, 2022: Probabilistic models for live loads in buildings: critical review, comparison
to Brazilian design standards, and calibration of partial safety factors, IBRACON Structures and Materials Journal, to
appear (accepted paper).
Costa LGL, 2023: Modelos Probabilísticos para Ações Variáveis Brasileiras, Dissertação de Mestrado, Escola de Enge-
nharia de São Carlos, Universidade de São Paulo.
Cox RT 1946: Probability, Frequency and Reasonable Expectation, American Journal of Physics 14, 110.
Cramér H, Leadbetter MR, 1967: Stationary and related stochastic processes: sample functions properties and their
applications, John Wiley & Sons (Dover edition, 2004).
Dantas JPR, Barbosa RL, Stucchi FR, Klein Jr. O, 201?: Análise técnico-experimental de pilares curtos de concreto
de alta resistência, submetidos à compressão centrada, de acordo com as normas brasileiras, to appear in: Revista
IBRACON de Estruturas e Materiais.
Davenport AG, 1961: The application of statistical concepts to the wind loading of structures, Proc. Inst. Civil Engrs.
19, 449472.
Davenport AG, 1967: Gust loading factors, J. Structural Div. ASCE 93, 1134.
Davenport AG, 1987: Proposed new international (ISO) wind load standard. High winds and building codes, Proc.
WERC/NSFWind Engineering Symposium, Kansas City, MI, 373388.
De Gersem H, Moens D, Desmet W, Vandepitte D, 2007: Interval and fuzzy dynamic analysis of nite element models
with superelements, Computers & Structures 85, 304-319.
Der Kiureghian A, 2000: The Geometry of Random Vibrations and Solutions by FORM and SORM, Probabilistic
Engineering Mechanics 15, 81-90.
Der Kiureghian A, Dakessian T, 1998: Multiple design points in rst and second-order reliability, Structural Safety 20,
3749.
Der Kiureghian A, Ditlevsen O, 2009: Aleatory or epistemic? Does it matter?, Structural Safety 31, 105-112.
Der Kiureghian A, Ke J-B, 1988: The stochastic nite element method in structural reliability, Probabilistic Engineering
Mechanics 3, 83-91.
Der Kiureghian A, Li CC, 1996: Non-linear Random Vibration Analysis Through Optimization. Proceedings of the
7th IFIP WG 7.5 Working Conference on Reliability and Optimization of structural systems, Frangopol D, Corotis R,
Rackwitz R (Eds.), Pergamon Press, UK, 197-206.
Der Kiureghian A, Liu PL, 1986a: Structural reliability under incomplete probabilistic information. Journal of Engi-
neering Mechanics ASCE 112, 85-104.
Der Kiureghian A, Liu PL, 1986b: Multivariate distribution models with prescribed marginals and covariances, Prob-
abilistic Engineering Mechanics 1, 105-112.
REFERÊNCIAS BIBLIOGRÁFICAS 467
Der Kiureghian A, Lin H-Z, Hwang S-J, 1987: Second Order Reliability Approximations, Journal of Engineering
Mechanics ASCE 113, 1208-1225.
Der Kiureghian A, Haukaas T, Fujimura K, 2006: Structural reliability software at the University of California, Berkeley,
Structural Safety 28, 44-67.
Dhillon BS, 1986: Human Reliability: With Human Factors, Pergamon Press.
Dhillon BS, 1999: Design Reliability: Fundamentals and Applications, CRC Press.
Dhillon BS, 2009: Human Reliability, Error, and Human Factors in Engineering Maintenance: with Reference to
Aviation and Power Generation, 1st Edition, CRC Press.
Ditlevsen O, 1979: Narrow reliability bounds of structural systems. J. Struct. Mech. 7, 45372.
Ditlevsen O, 1981: Principle of Normal Tail Aproximation, Journal of Engineering Mechanics ASCE 107, 1191-1208.
Ditlevsen O, 1983: Gaussian Outcrossings from Safe Convex Polyhedrons, Journal of Engineering Mechanics ASCE
109, 127-148.
Ditlevsen O, 1986: Duration of Gaussian Process Visit to a Critical Set, Probabilistic Engineering Mechanics 1, 82-93.
Ditlevsen O, Madsen HO, 1983: Transient Load Modeling: Cliped Normal Processes, Journal of Engineering Mechanics
ASCE 109, 495-515.
Ditlevsen O, Madsen HO, 1996: Structural Reliability Methods, John Wiley & Sons, Chichester, England.
Ditlevsen O, Madsen HO, 2005: Structural Reliability Methods, 2nd Ed., disponivel online em:
http://orbit.dtu.dk/en/publications/structural-reliability-methods(4308ecd9-acab-433e-a0eb-fe09f8dfd277).html.
DoD (Department of Defense), 2013: Design of buildings to resist progressive collapse. UFC 402303, Washington,
DC.
Dorf RC (Editor), 2000: The Electrical Engineering Handbook, CRC Press LLC, Boca Raton.
Du X, Chen W, 2004: Sequential Optimization and Reliability Assessment method for E¢cient Probabilistic Design.
ASME J. Mech. Des., 126, 225233.
Ekstrand ER, 2000: Estimating economic consequences from dam failure in the safety of dams program, U.S. Depart-
ment of the Interior, Bureau of Reclamation.
Elishako¤ I, 1999: Probabilistic Theory of Structures, 2nd. Ed., Dover Publications Inc., Mineola, NY.
Ellingwood B, 1994: Probability-based codi ed design: past accomplishments and future challenges, Structural Safety
13, 159-176.
Ellingwood B, 1999: A comparison of general design and load requirements in building codes in Canada, Mexico, and
the United States, Engineering Journal, American Institute of Steel Construction 36, 67-81.
Ellingwood B, 2000: LRFD: implementing structural reliability in professional practice, Engineering Structures 22,
106-115.
Ellingwood B, 2006: Mitigating risk from abnormal loads and progressive collapse. J. Perform. Constr. Facil. 20(4):
315323. doi.org/10.1061/(ASCE)0887-3828(2006)20:4(315).
Ellingwood B, 2007: Strategies for mitigating risk to buildings from abnormal load events. Int. J. Risk Assess. Manage.
7 (6): 828845. doi.org/10.1504/IJRAM.2007.014662.
Ellingwood B, Dusenberry D, 2005: Building design for abnormal loads and progressive collapse. Comput.-Aided Civ.
Infrastruct. Eng. 20 (3): 194205. doi.org/10.1111/j.1467-8667.2005.00387.x.
468 REFERÊNCIAS BIBLIOGRÁFICAS
Ellingwood B, Galambos TV, 1982: Probability-based criteria for structural design, Structural Safety 1, 15-26.
Ellingwood B, Galambos TV, MacGregor JG, Cornell CA, 1980: Development of a Probability Based Load Criterion
for American National Standard A58. Us National Bureau of Standard Special Publication 577, Washington DC.
Ellingwood B, Corotis RB, Boland J, Jones NP, 1993: Assessing cost of dam failure, Journal of Water Resources
Planning and Management 119, 64-82.
EN 1990:2002. Eurocode: Basis of structural design, European Committee for Standardization, Brussels.
Enevoldsen I, Sørensen JD, 1993: Reliability-based optimization of series system of parallel systems. J. Struct. Eng.
119, 10691084.
Enevoldsen I, Sørensen JD, 1994: Reliability-based optimization in structural engineering, Structural Safety 15, 169-
196.
Enevoldsen I, Faber MH, Sørensen JD, 1994: Adaptative response surface techniques in reliability estimation. In:
Schueller GI, Shinozuka M, Yao I (ed.): Structural safety and reliability, 1257-1264.
Engelund S, Rackwitz R, 1993: A benchmark study on importance sampling techniques in structural reliability, Struc-
tural Safety 12, 255-276.
Faber MH, 2006: Risk and Safety in Civil, Surveying and Environmental Engineering, Lecture Notes, Swiss Federal
Institute of Technology.
Faravelli L, 1989: A Response Surface Approach for Reliability Analysis, J. Eng. Mechanics ASCE 115, 2763-2781.
Farkas L, Moens D, Vandepitte D, Desmet W, 2008: Application of fuzzy numerical techniques for product performance
analysis in the conceptual and preliminary design stage, Computers & Structures 86, 1061-1079.
Farkas L, Moens D, Vandepitte D, Desmet W, 2010: Fuzzy nite element analysis based on reanalysis technique,
Structural Safety 32, 442-448.
Felipe TRC, Haach VG, Beck AT, 2018: Systematic Reliability-Based Approach to Progressive Collapse, ASCE-
ASME Journal of Risk and Uncertainty in Engineering Systems, Part A: Civil Engineering, v.4, 04018039. DOI:
10.1061/AJRUA6.0000990
FEMA (Federal Emergency Management Agency) 273, 1996: NEHRP guidelines for the seismic rehabilitation of build-
ings; FEMA 274, Commentary. Washington, DC.
FEMA, 2000a: Recommended Seimic Design Criteria for New Steel Moment-Frame Buildings. Vol. 350.
FEMA, 2000b: Recommended Seismic Evaluation and Upgrade Criteria for Existing Welded Steel Moment-Frame
Buildings. Vol. 351.
FEMA, 2012: FEMA P-58: Seismic Performance Assessment of Buildings, Volume 1 Methodology, Volume 2
Implementation Guide.
FEMA, 2018b: Seismic Performance Assessment of Buildings, Volume 5 - Expected Seismic Performance of
Code-Conforming Buildings. Fema P-58-5. Vol. 5. https://www.atcouncil.org/docman/fema/249-fema-p-58-5-seismic-
performance-assessment-of-buildings-volume-5-expected-seismic-performance-of-code-conforming-buildings/ le
REFERÊNCIAS BIBLIOGRÁFICAS 469
Feng YS, Moses F, 1986: A method of structural optimization based on structural system reliability, J. Struct. Mech.
14, 43753.
Ferreira JR, 2017: Reliability of Short Circular RC Columns Con ned by FRP, Tese de Doutorado, Programa de
Pós-Graduação em Engenharia de Estruturas, Universidade Federal de Minas Gerais.
Ferry-Borges J, 1954: O Dimensionamento de Estruturas, Publication 54, Ministry of Public Works, National Labora-
tory of Civil Engineering, Lisbon, Portugal.
Fiessler B, Neumann HJ, Rackwitz R, 1979: Quadratic limit states in structural reliability, J. Eng. Mech. ASCE 105,
661-679.
Fiondella L, Xing L, 2015: Discrete and continuous reliability models for systems with identically distributed correlated
components, Reliability Engineering & System Safety 133, 1-10.
Frangopol DM, 1985: Structural optimization using reliability concepts, Journal of Structural Engineering 111, 2288
2301.
Freudenthal AM, 1956: Safety and the probability of structural failure. ASCE Transactions 121, 13371397.
Freudenthal AM, Garrelts JM, Shinozuka M, 1964: The analysis of structural Safety, Journal of Structural Division
ASCE 92, 267325.
Fusco PB, 1981: Estruturas de Concreto. Solicitações Normais, Estado Limite Último, Teoria e Aplicações, Editora
Guanabara 2, Rio de Janeiro.
Galambos TV, Ravindra MK, 1978: Properties of Steel for Use in LRFD, ASCE J. Str. Div. 104, 14591468.
Gang L, Hu H, 2014: Risk Design Optimization Using Many-Objective Evolutionary Algorithm with
Application to Performance-Based Wind Engineering of Tall Buildings. Structural Safety 48: 114.
https://doi.org/10.1016/j.strusafe.2014.01.002.
Gayton N, Bourinet JM, Lemaire M, 2003: CQ2RS: a new statistical approach to the response surface method for
reliability analysis, Structural Safety 25, 99-121.
Gayton N, Mohamed A, Sorensen JD, Pendola M, Lemaire M, 2004: Calibration methods for reliability-based design
codes, Structural Safety 26, 91-121.
Ghanem RG, Spanos PD, 1991: Stochastic Finite Elements: a Spectral Approach, Revised Edition, DOVER, NY.
Ghobarah A., 2001: Performance-based design in earthquake engineering: state of development. Engineering Structures
23, 878884.
Gollwitzer S, Kirchgaßner B, Fischer R, Rackwitz R, 2006: PERMAS-RA/STRUREL system of programs for proba-
bilistic reliability analysis, Structural Safety 28, 108-129.
Golub GH, Van Loan CF, 2012: Matrix Computations. Fourth Ed., Johns Hopkins Studies in Mathematical Sciences.
The Johns Hopkins University.
Gomes HM, Awruch AM, 2004: Comparison of response surface and neural network with other methods of structural
reliability analysis, Structural Safety 26, 49-67.
Gomes L, Vickery BJ, 1976: Tropical cyclone gust speeds along the northern Australian coast, Civ. Engg. Trans. Inst.
Engrs. Aust. CE18(2), 4048.
Gomes WJS, Beck AT, 2013. Global structural optimization considering expected consequences of failure and using
ANN surrogates, Computers & Structures 126, 56-68.
470 REFERÊNCIAS BIBLIOGRÁFICAS
Gomes WJS, Beck AT, 2014a: Optimal Inspection and Design of Onshore Pipelines Under External Corrosion Process,
Structural Safety 47, 48-58.
Gomes WJS, Beck AT, 2014b: Optimal Inspection Planning and Repair Under Random Crack Propagation, Engineering
Structures 69, 285-296.
Gomes WJS, Beck AT, 2016: The Design Space Root Finding method for e¢cient risk optimization by simulation,
Probabilistic Engineering Mechanics 44, 99 - 110.
Gomes WJS, Beck AT, 2021: A conservatism index based on structural reliability and model errors, Reliability Engi-
neering and System Safety 209, 107456, https://doi.org/10.1016/j.ress.2021.107456
Gomes WJS, Beck AT, Haukaas T, 2013: Optimal Inspection Planning for Onshore Pipelines Subject to External
Corrosion, Reliability Engineering & Systems Safety 118, 18-27.
Goulet C, Haselton CB, Mitrani-Reiser J, Stewart JP, Taciroglu E, Deierlein GG, 2006: Evaluation of the Seismic Per-
formance of a Code-Conforming Reinforced-Concrete Frame Building - Part I: Ground Motion Selection and Structural
Collapse Simulation. 8th US National Conference on Earthquake Engineering 2006 8 (January): 458998.
Goulet CA, Haselton CB, Mitrani-Reiser J, Beck JL, Deierlein GG, Porter KA, Stewart JP, 2007: Evaluation of the
seismic performance of a code-conforming reinforced-concrete frame building - from seismic hazard to collapse safety
and economic losses, Earthquake Engng Struct. Dyn. 36, 19731997.
Grigoriu M, 1984: Simulation of stationary non-Gaussian translation processes. J. Eng. Mech. (ASCE) 124, 121126.
GSA (General Services Administration), 2013: Alternate path analysis and design guidelines for progressive collapse
resistance. Washington, DC.
Guan XL, Melchers RE, 2001: E¤ect of response surface parameter variation on structural reliability estimates, Struc-
tural Safety 23, 429-444.
Gulvanessian H, Holicky M, 2005: Eurocodes: using reliability analysis to combine action e¤ects, Structures & Buildings
158, Issue SB4, 243-252.
Gumbel EJ, 1958: Statistics of Extremes, Dover Edition (2004), Dover Publications Inc. NY.
Haftka RT, Gürdal Z, Kamat MP, 1990: Elements of Structural Optimization, 2nd Ed., Springer.
Hagen O, 1992: Threshold Up-crossing by Second Order Methods, Probabilistic Engineering Mechanics 7, 235-241.
Hagen O, Tvedt L, 1991: Vector Process Out-Crossing as a Parallel System Sensitivity Measure, J. Eng. Mech. ASCE
117, 2201-2220.
Hanss M, Turrin S, 2010: A fuzzy-based approach to comprehensive modeling and analysis of systems with epistemic
uncertainties, Structural Safety 32, 433-441.
Haselton Baker Risk Group 2020: Seismic Performance Prediction Program (SP3). Acesso online em Set. 2021:
www.hbrisk.com.
Haselton CB, Deierlein GG, 2008: Assessing Seismic Collapse Safety of Modern Reinforced Concrete Moment-Frame
Buildings. PEER. Vol. 137. http://myweb.csuchico.edu/~chaselton/Website_Files/Publications/Pub_Dissertation_PEERReport_Haselto
Haselton CB, Goulet CA, Mitrani-reiser J, Beck JL, Deierlein GG, Porter KA, Stewart JP, 2008: An Assessment
to Benchmark the Seismic Performance of a Code-Conforming Reinforced Concrete Moment-Frame Building. PEER
Report 2007/12.
Hasofer AM, Lind NC, 1974: Exact and Invariant Second Moment Code Format, J. Eng. Mech. ASCE 100, 111-121.
Haykin S, 1996: Adaptive Filter Theory, 3rd Ed., Prentice Hall, Upper Saddle River, New Jersey.
REFERÊNCIAS BIBLIOGRÁFICAS 471
Haykin S, 1999: Neural Networks, 2nd Ed., Prentice Hall, Upper Saddle River, New Jersey.
He XHC, Yuan XX, Yi WJ, 2019: A non-iterative progressive collapse design method for RC structures based on virtual
thermal pushdown analysis. Engineering Structures 189: 484-496.
Helton JC, Davis FJ, 2003: Latin hypercube sampling and the propagation of uncertainty in analyses of complex
systems, Reliability Engineering & System Safety 81, 23-69.
Helton JC, Davis FJ, Johnson JD, 2005: A comparison of uncertainty and sensitivity analysis results obtained with
random and Latin hypercube sampling, Reliability Engineering & System Safety 89, 305-330.
Hertz J, Jrogh A, Palmer RG, 1991: Introduction to the theory of Neural Computation, Addison-Wesley Publishing
Company.
Hilton HH, Feigen M, 1960: Minimum Weight Analysis Based on Structural Reliability, Journal of the Aerospace
Sciences 27, 641-653.
Holicky M, 2008: Reliability-based analysis of codi ed design allowing for production quality, Proc. 4th International
ASRANet Colloquium, Athens.
Holmes JD, 2007: Wind Loading on Structures, 2nd Edition, Taylor & Francis, Abingdon.
Hong HP, Huang Q, Jiang WJ, Tang Q, Jarrett P, 2021: Tornado Wind Hazard Mapping and Equivalent Tornado
Design Wind Pro le for Canada. Structural Safety 91: 102078. https://doi.org/10.1016/j.strusafe.2021.102078.
Horn RA, Johnson CR, 1990: Matrix Analysis, Cambridge University Press, UK.
Hornik K, Stinchcombe M, White H, 1990: Universal approximation of an unknown mapping and its derivatives using
multilayer feedforward networks. Neural Networks 3, 551-560.
Hurtado JE, Alvarez DA, Ramírez J, 2012: Fuzzy structural analysis based on fundamental reliability concepts, Com-
puters & Structures 112-113, 183192.
Iman RL, Canover WJ, 1980: Small Sample Sensitivity Analisys Techniques for Computer Models with an Application
to Risk Assesment, Communications in Statistics, Theory and Methods.
ISO 2394:1998. General principles on reliability for structures, International Standards Association.
Jaynes ET, 1986: Bayesian Methods: General Background, em Maximum-Entropy and Bayesian Methods in Applied
Statistics, Justice JH (ed.), Cambridge Univ. Press.
JCSS, 2001: Probabilistic Model Code, Joint Committee on Structural Safety, disponível on-line em:
http://www.jcss.byg.dtu.dk/Publications/Probabilistic_Model_Code (acessado em 27.07.2017).
Jensen HA, 2006: Structural optimization of non-linear systems under stochastic excitation, Probabilistic Engineering
Mechanics 21, 397409.
Jensen HA, Valdebenito MA, Schuëller GI, 2008: An e¢cient reliability-based optimization scheme for uncertain linear
systems subject to general Gaussian excitation, Computer Methods in Applied Mechanics and Engineering 198, 7287.
Jensen HA, Valdebenito MA, Schuëller GI, Kusanovic DS, 2009: Reliability-based optimization of stochastic systems
using line search, Computer Methods in Applied Mechanics and Engineering 198, 39153924.
472 REFERÊNCIAS BIBLIOGRÁFICAS
Jensen HA, Mayorga F, Valdebenito MA, 2015: Reliability sensitivity estimation of nonlinear structural systems under
stochastic excitation: A simulation-based approach, Computer Methods in Applied Mechanics and Engineering 289,
123.
Jia G, Taanidis AA, 2013: Non-parametric stochastic subset optimization for optimal-reliability design problems,
Computers & Structures 126, 8699.
Jia G, Taanidis AA, Beck JL, 2015: Non-parametric stochastic subset optimization for design problems with reliability
constraints, Structural & Multidisciplinary Optimization 52, 1185-1204.
Joanni A, Rackwitz R, 2008: Costbene t optimization for maintained structures by a renewal model, Reliability
Engineering & System Safety 93, 489499.
Johnson AI, 1953: Strength, Safety and Economical Dimensions of Structures, Division of Building Statistics and
Structural Engineering Bulletin 12, Royal Institute of Technology, Stockholm, Sweden.
Johnson AI, 1971: Strength, safety and economical dimensions of structures, 2nd ed., Nat. Swedish Building Research
Inst..
Kall P, Wallace SW, 1994: Stochastic programming, John Wiley & Sons.
Kanda J, Ellingwood B, 1991: Formulation of load factors based on optimum reliability, Structural Safety 9, 197-210.
Karamchandani A, Bjerager B, Cornell CA, 1989: Adaptive Importance Sampling, Proc. 5th International Conference
on Structural Safety and Reliability, 855-862.
Kim SH, Na SW, 1997: Response surface method using vector projected sampling points, Structural Safety 19, 3-19.
Kleinmann NL, Spall JC, Naiman DC, 1999: Simulation-based optimization with stochastic approximation using com-
mon random numbers. Management Science 45, 15701578.
Kogut GF, Chou KC, 2004: Partial resistance factor design on steel-concrete beam columns, Engineering Structures
26, 857-866.
Kroetz HM, 2015: Meta-Modelagem em Con abilidade Estrutural, Dissertação de Mestrado, Programa de Pós-
graduação em Engenharia de Estruturas, EESC, Universidade de São Paulo.
Kroetz HM, Tessari RK, Beck AT, 2017: Performance of global metamodeling techniques in solution of structural
reliability problems, Advances in Engineering Software 114, 394404.
Kroetz HM, Do NA, Dias D, Beck AT, 2018: Reliability of tunnel lining design using the Hyperstatic Reaction Method.
Tunnelling and Underground Space Technology 77, 59-67.
Kroetz HM, Moustapha M, Beck AT, Sudret B, 2020: A Two-Level Kriging-Based Approach with Active Learning for
Solving Time-Variant Risk Optimization Problems, Reliability Engineering & System Safety 103, 107033.
Kuschel N, Rackwitz R, 2000: Optimal design under time-variant reliability constraints. Structural Safety 22, 113127.
Lacaze S, Brevault L, Missoum S, Balesdent M, 2015: Probability of failure sensitivity with respect to decision variables,
Structural & Multidisciplinary Optimization 52, 375381.
Lange D, Devaney S, Usmani A, 2014: An application of the PEER performance based earthquake engineering frame-
work to structures in re, Engineering Structures 66, 100-115.
Larrabee RD, Cornell CA, 1979: Up-crossing Rate Solution for Load Combinations, Journal of the Structural Division
ASCE 105, 125-132.
REFERÊNCIAS BIBLIOGRÁFICAS 473
Larrabee RD, Cornell CA, 1981: Combination of Various Load Processes, Journal of the Structural Division ASCE
107, 223-239.
Lawrence MA, 1987: Basis random variables in nite element analysis, Journal for Numerical Methods in Engineering
24, 1849-1863.
Lebrun R, Dutfoy A, 2009a: A generalization of the Nataf transformation to distributions with elliptical copula,
Probabilistic Engineering Mechanics 24, 172-178.
Lebrun R, Dutfoy A, 2009b: An innovating analysis of the Nataf transformation from the copula viewpoint, Probabilistic
Engineering Mechanics 24, 312-320.
Lebrun R, Dutfoy A, 2009c: Do Rosenblatt and Nataf isoprobabilistic transformations really di¤er?, Probabilistic
Engineering Mechanics 24, 577-584.
Lee J, Yang S, Ruy W, 2002: A comparative study on reliability index and target performance based probabilistic
structural design optimization. Computer & Structures 257, 269-80.
Lehmer DH, 1949: Mathematical methods in large-scale computing units, Proc. 2nd Symposium on large scale digital
calculating machinery, Cambridge MA, 141-146.
Lemieux C, 2009: Monte Carlo and Quasi-Monte Carlo Sampling. Springer Series in Statistics. Springer, Dordrecht.
LEcuyer P, 1994: E¢ciency improvement via variance reduction, Proceedings of the 1994 Winter Simulation Confer-
ence, J. D. Tew et al., ed., Piscataway, NJ, IEEE Press, 122132.
Leonel ED, Beck AT, Venturini WS, 2011: On the Performance of Response Surface and Direct Coupling Approaches
in Solution of Random Crack Propagation Problems, Structural Safety 33, 261-274.
Li C-C, Der Kiureghian A, 1993: Optimal discretization of random elds, J. Eng. Mech. 119, 1136-1154.
Liang J, Mourelatos ZP, Tu J, 2004: A single-loop method for reliability-based design optimization. In: Proceedings of
ASME design engineering technical conferences, paper N?DETC2004/DAC-57255.
Liang J, Mourelatos ZP, Nikolaidis E, 2007: A single-loop approach for system reliability-based design optimization, J.
Mech. Des. 129, 12151224.
Lima EL, 2014: Álgebra Linear, Oitava Edição, Coleção Matemática Universitária, IMPA.
Lin H-Z, Khalessi MR, 2006: General outlook of UNIPASS V5.0: A general-purpose probabilistic software system,
Structural Safety 28, 196216.
Lind NC, 1976: Approximate analysis and economics of structures, J. Struct. Div., 102, 1177-1196.
Liu PL, Der Kiureghian A, 1986: Optimization algorithms for structural reliability analysis. Report UCB/SESM 86/09,
Department of Civil and Environmental Engineering, University of California, Berkeley.
Liu PL, Der Kiureghian A, 1991: Optimization algorithms for structural reliability, Structural Safety 9, 161-177.
Liu SC, Neghabat F, Dougherty MR, 1976: Optimal aseismic design of building and equipment, Engrg. Mech. ASCE
102, 395414.
Liu VW, Moses FA, 1994: A sequential response surface method and its application in the reliability analysis of aircraft
structural systems, Structural Safety 16, 39-46.
Liu W-K, Belytschko T, Mani A, 1986a: Probabilistic nite elements for nonlinear structural dynamics, Comp. Meth.
App. Mech. Eng. 56, 61-86.
474 REFERÊNCIAS BIBLIOGRÁFICAS
Liu W-K, Belytschko T, Mani A, 1986b: Random eld nite elements, Int. J. Num. Meth. Eng. 23, 10, 1831-1845.
Lopez RH, Beck AT, 2012: Reliability-based design optimization strategies based on FORM: a review. Journal of the
Brazilian Society of Mechanical Sciences and Engineering 34, 506-514.
Lopez RH, Beck AT, 2013: Optimization Under Uncertainties, Chapter 8 In: Pablo Andrés Muñoz-Rojas. (Org.).
Advanced Structured Materials, 1st ed., Alemanha: Springer International Publishing, 117-141.
Luenberger D, 2003: Linear and Nonlinear Programming. 2nd Ed., Kluver Academic Publishers, Holanda.
Lutes L, Sarkani S, 2004: Random Vibrations - Analysis of Structural and Mechanical Systems, Elsevier.
Madsen HO, 1986: Fast Probability Integration for Time Variant Reliability, A.S. Veritas Report.
Madsen HO, Tvedt L, 1990: Methods for Time-Dependent Reliability and Sensitivity Analysis, Journal of Engineering
Mechanics 116, 2118-2135.
Madsen HO, Krenk S, Lind NC, 1986: Methods of Structural Safety, Prentice Hall Inc., Englewood Cli¤s, NJ.
Maes MA, Breitung K, Dupuis DJ, 1993: Asymptotic importance sampling, Structural Safety 12, 167-186.
Marelli S, Sudret B, 2014: UQLab: A framework for uncertainty quanti cation in Matlab, Proc. 2nd Int. Conf. on
Vulnerability, Risk Analysis and Management (ICVRAM2014), Liverpool, UK, 2554-2563.
Marley MJ, Moan T, 1994: Approximate Time Variant Analysis for Fatigue, Structural Safety and Reliability, Schueller,
Shinozuka, Yao (eds.).
Matias DL, Andrade SS, Silva DM, dos Santos TD, Vieira Jr. LCM, Beck AT, 2017: Changing Wind Speed Scenarios and
Consequences to Structural Design, Proceedings of the XXXVIII Iberian Latin-American Congress on Computational
Methods in Engineering, Faria PO, Lopez RH, Miguel LFF, Gomes WJS, Noronha M (Editores), ABMEC, Florianópolis,
SC.
McLeod RW, 2015: Designing for Human Reliability: Human Factors Engineering in the Oil, Gas, and Process Indus-
tries; Gulf Professional Publishing.
Melchers RE, 1992: Load-Space Formulation for Time-Dependent Structural Reliability, J. Engineering Mechanics 118,
853-870.
Melchers RE, 1994: Structural System Reliability Assessment using Directional Simulation, Structural Safety 16, 2339.
Melchers RE, Beck AT, 2018: Structural Reliability Analysis and Prediction. 3rd Edition, Wiley.
Miguel LFF, Alminhana F, Beck AT, 2022: Performance Based Assessment of Transmission Lines to Seismic Events.
Engineering Structures (to appear, accepted paper).
Miranda E, Aslani H, 2003: Probabilistic Response Assessment for Building-Speci c Loss Estimation, PEER Report
2003/03, University of California, CA.
Mirza SA, McGregor JG, 1979b: Variability of mechanical properties of reinforcing bars, J. Struc. Division ASCE 105,
921-937.
Mitrani-Reiser J, Haselton C, Goulet C, Porter K, Beck J, Deierlein G, 2006: Evaluation of the Seismic Performance
of a Code-Conforming Reinforced-Concrete Frame Building - Part II: Loss Estimation. 8th US National Conference on
Earthquake Engineering 2006 8 (December 2014): 45994608.
Mlodinow L, 2009: The Drunkard´s Walk: How Randomness Rules our Lives, Vintage Books.
REFERÊNCIAS BIBLIOGRÁFICAS 475
Modarres M, Kaminskiy MP, Krivtsov V, 2017: Reliability Engineering and Risk Analysis: A Practical Guide, 3rd
Edition, CRC Press.
Moens D, Hanss M, 2011: Non-probabilistic nite element analysis for parametric uncertainty treatment in applied
mechanics: Recent advances, Finite Elements in Analysis and Design 47, 4-16.
Moens D, Vandepitte D, 2005: A survey of non-probabilistic uncertainty treatment in nite element analysis, Computer
Methods in Applied Mechanics and Engineering 194, 1527-1555.
Moens D, Vandepitte D, 2007: Interval sensitivity theory and its application to frequency response envelope analysis
of uncertain structures, Computer Methods in Applied Mechanics and Engineering 196, 2486-2496
Möller B, Beer M, 2004: Fuzzy Randomness Uncertainty in Civil Engineering and Computational Mechanics, Springer,
Berlin Heidelberg New York.
Möller B, Beer M, 2008: Engineering computation under uncertainty Capabilities of non-traditional models, Com-
puters & Structures 86, 10241041.
Möller B, Graf W, Beer M, 2003: Safety assessment of structures in view of fuzzy randomness, Computers & Structures
81, 1567-1582.
Möller O, Foschi RO, Quiroz LM, Rubinstein M, 2009: Structural Optimization for Performance-Based
Design in Earthquake Engineering: Applications of Neural Networks. Structural Safety 31 (6): 49099.
https://doi.org/10.1016/j.strusafe.2009.06.007.
Montgomery DC, 2012: Design and analysis of experiments. 8th Edition, Wiley, NY.
Montgomery DC, Runger GC, 1999: Estatística Aplicada e Probabilidade para Engenheiros, LTC Editora.
Mosalam KM, Alibrandi U, Lee H, Armengou J, 2018: Performance-Based Engineering and Multi-
Criteria Decision Analysis for Sustainable and Resilient Building Design. Structural Safety 74: 113.
https://doi.org/10.1016/j.strusafe.2018.03.005
Moses F, 1969: Approaches to Structural Reliability and Optimization, in: An Introduction to Structural Optimization,
Conn MZ (ed.), Solid Mechanics Division, University of Waterloo, Study No. 1, 81-120.
Moses F, 1977: Structural system reliability and optimization, Computers & Structures 7, 283-290.
Mosquera ZSZ, Tsuha CHC, Beck AT, 2015: Serviceability Performance Evaluation of Helical Piles under Uplift Load-
ing. Journal of Performance of Constructed Facilities 29, 04015070.
Myers RH, Montgomery DC, Anderson-Cook CM: 2016: Response surface methodology: Process and Product Opti-
mization Using Designed Experiments, 4th Edition, John Wiley & Sons.
Naess A, Leira BJ, Batsevych O, 2009: System reliability analysis by enhanced Monte Carlo simulation, Structural
Safety 31, 349-355.
Naess A, Leira BJ, Batsevych O, 2012: Reliability analysis of large structural systems, Probabilistic Engineering
Mechanics 28, 164-168.
Napa-Garcia G, Beck AT, Celestino TB, 2017: Reliability analyses of underground openings with the point estimate
method, Tunnelling and Underground Space Technology 64, 154-163.
Napa-Garcia G, Beck AT, Celestino TB, 2018: Risk analysis of fractured rock mass underground structures, Georisk:
Assessment and Management of Risk for Engineered Systems and Geohazards 12, 123-134.
Napa-Garcia G, Santos RA, Beck AT, Celestino TB, 2018: Improvement of analytical factor of safety estimation of
falling failure mode in roof wedge stability, International Journal of Rock Mechanics and Mining Sciences 103, 116-122.
476 REFERÊNCIAS BIBLIOGRÁFICAS
Nataf A, 1962: Determination des Distributions dont les Marges sont Donnees, Comptes Rendus de lAcademie des
Sciences 225, 42-43.
National Research Council of Canada, 1977: Canadian construction safety code, 1977. Ottawa: National Research
Council.
NBS, 1972: National Bureau of Standards, Building code requirements for minimum design loads in buildings and other
structures (atualmente, ASCE/SEI 7-16:2016).
Newland DE, 1993: An Introduction to Random Vibrations, Spectral & Wavelet Analysis, 3rd Edition, Dover Civil and
Mechanical Engineering.
Nguyen TH, Song J, Paulino GH, 2010: Single-Loop System Reliability-Based Design Optimization Using Matrix-Based
System Reliability Method: Theory and Applications, Journal of Mechanical Design 132, 011005-1-11.
Nigam NC, Narayanan S, 1994: Applications of Random Vibrations, Springer-Verlag, New York.
Nikolos IK, 2011: Surrogate Modeling in Evolutionary Based Engineering Design Optimization, in: Tsompanakis Y,
Topping BHV (eds.): Soft Computing Methods for Civil and Structural Engineering, Saxe-Coburg Publications.
Nowak AS, Szerszen MM, 2003a: Calibration of Design Code for Buildings (ACI 318): Part 1Statistical Models for
Resistance, ACI Structural Journal 100, 377-382.
Nowak AS, Szerszen MM, 2003b: Calibration of Design Code for Buildings (ACI 318): Part 2Reliability Analysis
and Resistance Factors, ACI Structural Journal 100, 383-391.
Okasha NM, 2016: An improved weighted average simulation approach for solving reliability-based analysis and design
optimization problems, Structural Safety 60, 4755.
Okasha NM, Frangopol DM, 2009: Lifetime-oriented multi-objective optimization of structural maintenance considering
system reliability, redundancy and life-cycle cost using GA, Structural Safety 31, 460474.
Oliveira WLA, Beck AT, Debs ALHC, 2008: Safety evaluation of circular concrete- lled steel columns designed according
to Brazilian building code NBR 8800:2008. IBRACON Structures and Materials Journal 1, 212-236.
Olsson A, Sandberg G, Dahlblom O, 2003: On Latin hypercube sampling for structural reliability analysis, Structural
Safety 25, 47-68.
Owen DB, 1956: Tables for computing bivariate normal probabilities, Ann. Math. Stat. 27, 10751090.
Padaratz IJ, 1977: Velocidade Básica do Vento no Brasil, Dissertação de Mestrado, Curso de Pós-Graduação em
Engenharia Civil, Universidade Federal do Rio Grande do Sul.
Panayirci HM, Schuëller GI, 2011: On the capabilities of the polynomial chaos expansion method within SFE analysis
an overview. Arch. Comput. Methods Eng. 18, 4355.
Papoulis A, Pillai SU, 2001: Probability, Random Variables and Stochastic Processes, 4th Edition, McGraw-Hill Edu-
cation.
Pearce HT, Wen YK, 1984: Stochastic Combination of Load E¤ects, Journal of Structural Engineering 110, 1613-1629.
Pellissetti MF, Schuëller GI, 2006: On general purpose software in structural reliability - An overview, Structural Safety
28, 3-16.
Pereia MF, Beck AT, Debs, ALHC, 2017: Reliability of partially encased steel-concrete composite columns under
eccentric loading, IBRACON Structures and Materials Journal 10, 298-316.
REFERÊNCIAS BIBLIOGRÁFICAS 477
Petersen MD, et al., 2018: Seismic hazard, risk, and design for South America, Bulletin of the Seismological Society of
America 108, no. 2, 781800. https://doi.org/10.1785/0120170002
Petroski H, 1992: To Engineer Is Human: The Role of Failure in Successful Design, 1st Edition, Vintage Books.
Petroski H, 2006: Success through Failure: the paradox of design, Princeton University Press, UK.
Pier J-C, Cornell CA, 1973: Spatial and temporal variability of live loads, J. Structural Div. ASCE 99, 903922.
Poggio T, Girosi F, 1990: Networks for Approximation and Learning. Reprinted from Proceedings of the IEEE 78,
1481-1497.
Praxedes C, 2020: Robustness-Based Optimal Progressive Collapse Design of RC Frame Structures, Ph.D. Thesis,
Ryerson University, Toronto, Ontario, Canada.
Praxedes C, Yuan X-X, 2021: Robustness-oriented optimal design for reinforced concrete frames considering the large
uncertainty of progressive collapse threats, Structural Safety, under review.
PUC-Rio, 2007: Cooperação PUC-Rio/Eletronuclear. Relatório 001/4: Estudo para ampliação dos conhecimentos sobre
a ocorrência de ventos extremos e tornados para a região sudeste do brasil.
Rackwitz R, 1985: Reliability of Systems Under Reneval Pulse Loading, J. of Engineering Mechanics ASCE 111,
1175-1184.
Rackwitz R, 1993: On the Combination of Non-stationary Rectangular Wave Reneval Processes, Structural Safety 13,
21-28.
Rackwitz R, 2001: Optimizing systematically renewed structures, Reliability Engineering and System Safety 73, 269
279.
Rackwitz R, 2002: Optimization and risk acceptability based on the Life Quality Index, Structural Safety 24, 297-331.
Rackwitz R, 2004: Life quality index revisited, Structural Safety 26, 443451.
Rackwitz R, Fiessler B, 1978: Structural Reliability Under Combined Load Sequences, Computers & Structures 9,
489-494.
Rackwitz R, Joanni A, 2009: Risk acceptance and maintenance optimization of aging civil engineering infrastructures,
Structural Safety 31, 251259.
Rajashekhar MR, Ellingwood BR, 1993: New look at the response surface approach for reliability analysis. Structural
Safety 12, 205-220.
Rao NRN, Lohrman M, Tall L, 1966: The e¤ect of strain rate on the yield stress of structural steels, ASTM J. Mater.
1, 241262.
Rao SS, 2009: Engineering Optimization: Theory and Practice, 4th Edition, Wiley.
Rashki M, Miri M, Moghaddam MA, 2012: A new e¢cient simulation method to approximate the probability of failure
and most probable point, Structural Safety 2012, 2229.
478 REFERÊNCIAS BIBLIOGRÁFICAS
Rashki M, Miri M, Moghaddam MA, 2014a: A simulation-based method for reliability based design optimization
problems with highly nonlinear constraints, Autom. Constr. 47, 2436.
Rashki M, Miri M, Moghaddam MA. 2014b: Closure to A new e¢cient simulation method to approximate the
probability of failure and most probable point, Structural Safety 46, 1516.
Reh S, Beley J-D, Mukherjee S, Khor EH, 2006: Probabilistic nite element analysis using ANSYS, Structural Safety
28, 17-43.
Ribeiro AB, 2012: Projeto Semi-Probabilístico de Vigas de Concreto Armado com Modo de Falha por Cisalhamento,
Tese de Doutorado, Programa de Pós-Graduação em Engenharia de Estruturas, Universidade Federal de Minas Gerais.
Ribeiro AB, Calixto JMF, Diniz SMC, 2016: Assessment of epistemic uncertainties in the shear strength of slender
reinforced concrete beams, Engineering Structures 116, 140147.
Rice SO, 1944: Mathematical Analysis of Random Noise, Bell System Technical Journal, Vols. 23 and 24. Re-published
in Selected Papers on Noise and Stochastic Processes, edited by N. Wax (1954), Dover Publications Inc, New York.
Riera JD, Rocha MM, 1998: Load de nition for wind design and reliability assessments: extreme wind climate, In:
Rieira, Davenport (eds.), Wind e¤ects on Buildings and Structures, Balkema, Rotterdam.
Rosenblatt M, 1952: Remarks on a multivariate transformation, Ann. Math. Stat. 23, 470-472.
Rosenblueth E, 1976a: Optimum design for infrequent disturbances, J. Struct. Div. ASCE 102, 18071825.
Rosenblueth E, 1976b: Towards optimum design through building codes, J. Struct. Div. ASCE, 102, 591607.
Rosenbleuth E, Esteva L, 1972: Reliability bases for some mexican codes, ACI Publication 31, 1-41.
Royset JO, Polak E, 2004: Reliability-based optimal design using sample average approximations, Probabilistic Engi-
neering Mechanics 19, 331343.
Royset JO, Der Kiureghian A, Polak E, 2001: Reliability-Based Optimal Design of Series Structural Systems, J. Eng.
Mech. 127, 607614.
Rubinstein RY, 1981: Simulation and the Monte Carlo Method, John Wiley & Sons.
Rubinstein R, Kroese D, 2008: Simulation and the Monte Carlo method. Wiley Series in Probability and Statistics,
Wiley.
Ruggeri G, 2004: Working Group on Sliding Safety of Existing Gravity Dams - Final Report, ICOLD European Club.
Sagrilo LVS, Lima ECP, 2010: Con abilidade Estrutural: Métodos Analíticos FORM/SORM, Notas de aula, Programa
de Engenharia Civil,COPPE/UFRJ.
San Martins DA, 2014: Con abilidade de vigas pré-tracionadas de concreto protendido, Dissertação de Mestrado,
Programa de Pós-Graduação em Engenharia Civil, UFRGS, Porto Alegre.
Santiago WC, 2011: Estudo da (não-) conformidade de concretos produzidos no Brasil e sua inuência na con abilidade
estrutural, Dissertação de Mestrado, Programa de Pós-Graduação em Engenharia de Estruturas, EESC, Universidade
de São Paulo.
Santiago WC, 2017: Calibração Baseada em Con abilidade dos Coe cientes Parciais de Segurança de Normas Brasileiras
de Projeto Estrutural, Quali cação ao Doutorado, Programa de Pós-Graduação em Engenharia de Estruturas, EESC,
Universidade de São Paulo.
REFERÊNCIAS BIBLIOGRÁFICAS 479
Santiago WC, Beck AT, 2011: A Study of Brazilian Concrete Strength (Non-)Compliance and its E¤ects on Reliability
of Short Columns, IBRACON Structures and Materials Journal 4, 663-690.
Santiago WC, Beck AT, 2017: A new study of Brazilian concrete strength conformance, IBRACON Structures and
Materials Journal 10, 906923.
Santiago WC, Kroetz HM, Santos SHC, Stucchi FR, Beck AT, 2020: Reliability-based calibration of main Brazilian
structural design codes, Latin American Journal of Solids and Structures 17, 2245.
Santos DM, Stucchi FR, Beck AT, 2014: Con abilidade de vigas projetadas de acordo com as normas brasileiras,
IBRACON Structures and Materials Journal 7, 723-746.
Santos DM, Stucchi FR, Beck AT, 2015: Discussion of: Concrete structures. Contribution to the safety assessment of
existing structures, IBRACON Structures and Materials Journal 8, 744-748.
Santos ES, 2012: Avaliação estatística do erro de modelos de resistência para elementos lineares de concreto armado da
ABNT NBR 6118:2007, Dissertação de Mestrado, Programa de Pós-graduação em Engenharia de Estruturas, EESC,
Universidade de São Paulo.
Santos KR, 2014: Técnicas de amostragem inteligente em simulação de Monte Carlo, Dissertação de Mestrado, Programa
de Pós-graduação em Engenharia de Estruturas, EESC, Universidade de São Paulo.
Santos KR, Beck AT, 2015: A benchmark study on intelligent sampling techniques in Monte Carlo Simulation, Latin
American Journal of Solids and Structures 12, 624-648.
Santos R, Matioli LC, Beck AT, 2012: New Optimization Algorithms for Structural Reliability. Computer Modeling in
Engineering & Sciences 83,23-55.
Santos SHC, Stucchi FR, 2007: Reliability Based Comparison Between ACI 318-05 and NBR 6118, IBRACON Struc-
tural Journal 3, 230-239.
Sarveswaran V, Roberts MB, 1999: Reliability Analysis of Deteriorating Structures - The Experience and Needs of
Practicing Engineers, Structural Safety 21, 357-372.
Schall G, Faber MH Rackwitz R, 1991: On the Ergocity Assumption for Sea States in the Reliability Estimation of
O¤shore Structures, J. O¤shore Mechanics and Artic Engineering ASME 113, 241-246.
Schuëller GI, Jensen HA, 2009: Computational methods in optimization considering uncertainties an overview, Com-
puter Methods in Applied Mechanics and Engineering 198, 2-13.
Schuëller GI, Pradlwarter HJ, 2006: Computational stochastic structural analysis (COSSAN) a software tool, Struc-
tural Safety 28, 68-82.
Schuëller GI, Stix R, 1987: A Critical Apraisal on Methods to Determine Structural Reliability, Structural Safety 4,
293-309.
SEAOC (Structural Engineers Association of California), 1995: Vision 2000: Performance based seismic engineering of
buildings, Vols. I and II: Conceptual framework. Sacramento, CA.
Shi Y, Stewart MG, 2015: Spatial reliability analysis of explosive blast load damage to reinforced concrete columns.
Structural Safety 53:1325.
Sichani MT, Nielsen SRK, Bucher C, 2011a: Applications of asymptotic sampling on high dimensional structural
dynamic problems, Structural Safety 33, 305-316.
Sichani MT, Nielsen SRK, Bucher C, 2011b: E¢cient estimation of rst passage probability of high-dimensional non-
linear systems, Prob. Eng. Mech. 26, 539-549.
480 REFERÊNCIAS BIBLIOGRÁFICAS
Sichani MT, Nielsen SRK, Bucher C, 2014: Closure to Applications of asymptotic sampling on high dimensional
structural dynamic problems, Structural Safety 46, 11-12.
Silva JL, ElDebs MK, Beck AT, 2008: Reliability Evaluation of Reinforced Concrete Pipes in Crack Opening Limit
State. IBRACON Structures and Materials Journal 1, 314 - 330.
Silva Jr. CRA, Beck AT, 2010: Bending of stochastic Kirchho¤ plates on Winkler foundations via the Galerkin method
and the Askey-Wiener scheme. Probabilistic Engineering Mechanics 25, 172 - 182.
Silva Jr. CRA, Beck AT, 2011: Chaos-Galerkin Solution of Stochastic Timoshenko Bending Problems. Computers &
Structures 89, 599 - 611.
Silva Jr. CRA, Beck AT, Rosa E, 2009: Solution of the Stochastic Beam Bending Problem by Galerkin Method and
the Askey-Wiener Scheme. Latin American Journal of Solids and Structures 6, 51 - 72.
Silva Jr. CRA, Azikri H, Mantovani G, Beck AT, 2010: Galerkin Solution of Stochastic Beam Bending on Winkler
Foundations. Computer Modeling in Engineering & Sciences 67, 119 - 149.
Soares RC, Mohamed A, Venturini WS, Lemaire M, 2002: Reliability analysis of non-linear reinforced concrete frames
using the response surface method, Reliability Engineering and System Safety 75, 1-16.
Song J, Der Kiureghian A, 2003: Bounds on System Reliability by Linear Programming, J. Eng. Mech. 129, 627636.
Song J, Kang W-H, 2009: System Reliability and Sensitivity Under Statistical Dependence by Matrix-Based System
Reliability Method, Structural Safety 31, 148156.
Song J, Kang W-H, Lee Y-J, Chun J, 2021: Structural System Reliability: Overview of Theories and Applications to
Optimization, ASCE-ASME J. Risk Uncertainty Eng. Syst., Part A: Civ. Eng., 7(2): 03121001.
Soong TT, Grigoriu M, 1993: Random Vibration of Mechanical and Structural Systems, Prentice Hall, Englewood
Cli¤s, NJ.
Sørensen JD, 2002: Calibration of Partial Safety Factors in Danish Structural Codes, JCSS Workshop on Reliability
Based Code Calibration, ETH Zurich, March 21-22.
Sorensen JD, Kroon IB, Faber MH, 1994: Optimal reliability-based code calibration, Structural Safety 15, 197-208.
Souza Junior AC, 2009: Aplicação de Con abilidade na Calibração de Coe cientes Parciais de Segurança de Normas
Brasileiras de Projeto Estrutural, Dissertação de Mestrado, Programa de Pós-graduação em Engenharia de Estruturas,
EESC, Universidade de São Paulo.
Spall JC, 2003: Introduction to Stochastic Search and Optimization, Wiley Interscience, New York.
Spence SMJ, Kareem A, 2014: Performance-Based Design and Optimization of Uncertain Wind-Excited Dynamic
Building Systems. Engineering Structures 78: 13344. https://doi.org/10.1016/j.engstruct.2014.07.026.
Spence SMJ, Gio¤rè M, Kareem A, 2016: An E¢cient Framework for the Reliability-Based Design Opti-
mization of Large-Scale Uncertain and Stochastic Linear Systems. Prob. Engineering Mechanics 44: 17482.
https://doi.org/10.1016/j.probengmech.2015.09.014.
Stefanou G, 2009: The stochastic nite element method: Past, present and future, Computer Methods in Applied
Mechanics and Engineering 198, 1031-1051.
Stewart MG, 2017: Risk of Progressive Collapse of Buildings from Terrorist Attacks: Are the Bene ts of Protection
Worth the Cost?, J. Perform. Constr. Facil. 31(2), 04016093.
Stewart M, Melchers RE, 1998: Probabilistic Risk Assessment of Engineering Systems, Springer.
REFERÊNCIAS BIBLIOGRÁFICAS 481
Streicher H, Joanni A, Rackwitz R, 2008: Cost-bene t optimization and risk acceptability for existing, aging but
maintained structures, Structural Safety 30, 375393.
Sudret B, 2012: Metamodels for structural reliability and uncertainty quanti cations. Phoon KK, Beer M, Quek ST,
Pang SD (eds.), 5th Asian-Paci c symposium on structural reliability and its applications, 5376.
Sudret B, Der Kiureghian A., 2000: Stochastic Finite Element Methods and Reliability: A state-of-the-art Report.
Research report No. UCB/SEMM-2000/08, Dep. of Civil & Env. Eng., University of California, Berkeley.
Sudret B, Berveiller M, Lemaire M, 2006: A stochastic nite element procedure for moment and reliability analysis,
Eur. J. Comput. Mech. 15, 82566.
Suksuwan A, Spence SMJ, 2018: Performance-Based Multi-Hazard Topology Optimization of Wind and Seismically Ex-
cited Structural Systems. Engineering Structures 172 (May): 57388. https://doi.org/10.1016/j.engstruct.2018.06.039.
Tabandeh A, Gardoni P, 2014: Probabilistic Capacity Models and Fragility Estimates for RC Columns Retro tted with
FRP Composites. Engineering Structures 74: 1322. https://doi.org/10.1016/j.engstruct.2014.05.005.
Taanidis AA, Beck JL, 2008a: Stochastic subset optimization for optimal reliability problems, Probabilistic Engineering
Mechanics 23, 324338.
Taanidis AA, Beck JL, 2008b: An e¢cient framework for optimal robust stochastic system design using stochastic
simulation, Computer Methods in Applied Mechanics and Engineering 198, 88101.
Taanidis AA, Beck JL, 2009: Stochastic Subset Optimization for reliability optimization and sensitivity analysis in
system design, Computers & Structures 87, 318331.
Taanidis A, Scruggs JT, 2010: Performance Measures and Optimal Design of Linear Structural Systems under Sto-
chastic Stationary Excitation. Structural Safety 32 (5): 30515. https://doi.org/10.1016/j.strusafe.2010.03.010.
Tessari RK, Kroetz HM, Beck AT, 2017: Performance-based design of steel towers subject to wind action, Engineering
Structures 143, 549-557.
Thacker BH, Riha DS, Fitch SHK, Huyse LJ, Pleming JB, 2006: Probabilistic engineering analysis using the NESSUS
software, Structural Safety 28, 83-107.
Thoft-Christensen P, Baker MJ, 1982: Structural Reliability Theory and its Applications, Springer-Verlag, Berlin,
Heidelberg, New York.
Thöns S, Stewart MG, 2019: On decision optimality of terrorism risk mitigation measures for iconic bridges, Reliability
Eng. & System Safety 188, 574583.
Thöns S, Stewart MG, 2020: On the cost-e¢ciency, signi cance and e¤ectiveness of terrorism risk reduction strategies
for buildings. Structural Safety, 85.
Torii AJ, 2020: On sampling-based schemes for probability of failure sensitivity analysis, Prob. Eng. Mechanics 62,
103099. https://doi.org/10.1016/j.probengmech.2020.103099
Torii AJ, Lopez RH, Miguel LFF, Silva RG, 2017: Collapse and allowable displacements in the context of reliability
analysis of nonlinear structures, J Braz. Soc. Mech. Sci. Eng. (2017) 39:10451051, 10.1007/s40430-016-0571-1
Torii AJ, Lopez RH, Beck AT, Miguel LFF, 2019: A performance measure approach for risk optimization, Structural
and Multidisciplinary Optimization 60, 927-947. https://doi.org/10.1007/s00158-019-02243-5
Torng TY, Yang RJ. An advanced reliability based optimization method for robust structural system design. Proc. 34th
AIAA/ASME/ASCE/AHS/ASC Structures, Structural Dynamics,and Material Conference, AIAA-93-1443-CP, 1993.
482 REFERÊNCIAS BIBLIOGRÁFICAS
Tu J, Choi KK, Park YH, 1999: A new study on reliability-based design optimization, Journal of Mechanical Design
121, 55764.
Turkstra CJ, 1970: Theory of Structural Design Decisions, Study No. 2, Solid Mechanics Division, University of
Waterloo, Waterloo, Ontario.
Turkstra CJ, Madsen HO, 1980: Load Combinations in Codi ed Structural Design, J. Structural Division ASCE 116,
2527-2543.
Tvedt L, 1990: Distributions of quadratic forms in normal space - application to structural reliability, J. Eng. Mech.
ASCE 116, 1183-1197.
USGS, 2014: Signi cant earthquakes archives. Earthquake hazards program. Disponível online em:
http://earthquake.usgs.gov/earthquakes/eqarchives/signi cant/.
Valdebenito MA, Schuëller GI, 2011: E¢cient strategies for reliability-based optimization involving non-linear, dynam-
ical structures, Computers & Structures 89, 17971811.
Vallis MB, 2019: Brazilian Extreme Wind Climate, Tese de Doutorado, Universidade Federal do Rio Grande do Sul,
RS.
Vamvatsikos D, Cornell CA, 2002: Incremental dynamic analysis. Earthquake Engineering and Structural Dynamics
31(3), 491514.
Vamvatsikos D, Fragiadakis M, 2010: Incremental Dynamic Analysis for Estimating Seismic Performance Sensitivity
and Uncertainty. Earthquake Engineering and Structural Dynamics 39 (2): 14163. https://doi.org/10.1002/eqe.935.
Vanmarcke EH, 1975: On the Distribution of the First Passage Time for Normal Stationary Processes, Journal of
Applied Mechanics ASME 42, 215-220.
Vanmarcke EH, 1983: Random Fields, Analysis and Synthesis, MIT Press, Cambridge, Massachusetts.
Vanmarcke EH, Grigoriu M, 1983: Stochastic nite element analysis of simple beams, J. Eng. Mech. ASCE 109, 1203-
1214.
Verhaeghe W, Desmet W, Vandepitte D, Moens D, 2013: Interval elds to represent uncertainty on the output side of
a static FE analysis, Computer Methods in Applied Mechanics and Engineering 260, 50-62.
Verzenhassi CC, 2008: Otimização de Risco Baseada em Con abilidade, Dissertação de Mestrado, Engenharia de
Estruturas, EESC, Universidade de São Paulo.
Vieira HL, Fontes JVC, Beck AT, Silva MM, 2019a: Reliable and Failure-Free Workspaces for Motion Planning Algo-
rithms, Journal of Computational and Nonlinear Dynamics 14, 021005-1-021005-9. doi.org/10.1115/1.4042015
Vieira HL, Wajnberg E, Beck AT, Silva MM, 2019b: Reliable Motion Planning for Parallel Manipulators, Mechanism
and Machine Theory 140, 553-566. doi.org/10.1016/j.mechmachtheory.2019.06.022
Vijalapura P, Conte J, Meghella M, 2000: Time-Variant Reliability Analysis of Hysteretics SDOF Systems With
Uncertain Parameters and Subjected to Stochastic Loading, ICASP8, Melchers, Stewart (eds.), Balkema, 827-834.
Vinnem JE, 2007: O¤shore Risk Assessment: Principles, Modelling and Applications of QRA Studies, Springer Series
in Reliability Engineering, 2nd Edition.
REFERÊNCIAS BIBLIOGRÁFICAS 483
Vogel RM, 1999: Stochastic and deterministic world views, Editorial: Journal of Water Resources Planning and Man-
agement 125, 311-313.
Vrouwenvelder ACWM, 2002: Developments towards full probabilistic design codes, Structural Safety 24, 417-432.
Wang L, Liu B, Wan C, 2004. A novel RBF neural network with fast training and accurate generalization. In Proceedings
of the First international conference on Computational and Information Science (CIS04), Zhang J, He J-H, Fu Y (Eds.),
Springer-Verlag, Berlin, Heidelberg, 166-171.
Weawer W, 1982: Lady Luck: The Theory of Probability, Dover Books on Mathematics.
Wen YK, 1977a: Statistical Combination of Extreme Loads, J. Structural Division ASCE 103, 1079-1093.
Wen YK, 1977b: Probability of Extreme Load Combination, J. Structural Division ASCE 104, 1675-1676.
Wen YK, 1981: A Clustering Model for Correlated Load Processes, J. Structural Division ASCE 107, 965-983.
Wen YK, 1990: Structural Load Modeling and Combination for Performance and Reliability Evaluation, Elsevier,
Amsterdam.
Wen YK, 2001: Reliability and Performance-Based Design. Structural Safety 23 (4): 40728.
https://doi.org/10.1016/S0167-4730(02)00011-5.
Wen YK, Chen HC, 1987: On Fast Integration for Time-variant Structural Reliability, Probabilistic Engineering Me-
chanics 2, 156-162.
Wen YK, Chen HC, 1989: System Reliability under Time-Varying Loads: I, J. Eng. Mech. ASCE 115, 808-823.
Wen YK, Kang YJ, 2001: Minimum building life-cycle cost design criteria II: Applications. Journal of Structural
Engineering ASCE 127, 338346.
Whitman RV, 1984: Evaluating calculated risk in geotechnical engineering, Journal of Geotechnical Engineering ASCE
110, 145-188.
Williams MS, Sexsmith RG 1995: Seismic damage indices for concrete structures: A state-of-the-art review. Earthquake
Spectra 11(2), 31949.
Winterstein SR, Cornell CA, 1984: Load Combinations and Clustering E¤ects, J. Structural Division ASCE 110,
2690-2708.
Wu YT, Millwater HR, Cruse TA, 1990: Advanced probabilistic structural analysis method for implicit performance
functions, AIAA Journal 28, 1663-1669
Wu YT, Shin Y, Sues RH, Cesare MA, 2001: Safety-factor based approach for probability-based design optimization,
Proceedings of the 42nd AIAA SDM Conference, Seattle.
Wu YT, Shin Y, Sues RH, Cesare MA, 2016: Probabilistic function evaluation system (ProFES) for reliability-based
design, Structural Safety 28, 164195.
Xiaopeng L, Zhenzhou L, Xin X, 2014: Discussion of paper: A new e¢cient simulation method to approximate the
probability of failure and most probable point: Rashki M, Miri M, Moghaddam MA, Structural Safety 39 (2012),
2229, Structural Safety 46, 1314.
Yang RJ, Gu L, 2004: Experience with approximate reliability based optimization methods, Structural & Multidisci-
plinary Optimization 26, 152159.
Yang RJ, Chuang C, Gu L, Li G, 2005: Experience with approximate reliability based optimization methods II: an
exhaust system problem. Structural Multidisciplinary Optimization 29, 488497.
484 REFERÊNCIAS BIBLIOGRÁFICAS
Yi P, Cheng GD, 2008: Further study on e¢ciency of sequential approximate programming strategy for probabilistic
structural design optimization, Structural & Multidisciplinary Optimization 35, 509522.
Yi P, Cheng GD, Jiang L, 2008: A Sequential approximate programming strategy for performance measure based
probabilistic structural design optimization, Structural Safety 30, 91109.
Youn BD, Choi KK, 2004: An investigation of nonlinearity of reliability-based design optimization approaches, Journal
of Mechanical Design 126, 40311.
Youn BD, Choi KK, Park YH, 2003: Hybrid analysis method for reliability-based design optimisation. Journal of
Mechanical Design 125, 22132.
Yuan X, Lu Z, 2014: E¢cient approach for reliability-based optimization based on weighted importance sampling
approach, Rel. Eng. & System Safety 132, 107114.
Zang C, Friswell MI, Mottershead JE, 2005: A review of robust optimal design and its application in dynamics.
Computers & Structures 83, 315326.
Zhang J, Ellingwood B, 1994: Orthogonal Series Expansions of Random Fields in Reliability Analysis, J. Eng. Mech.
(ASCE) 120(12), 2660-2677.
Zhang Y, 1993: High-order reliability bounds for series systems and application to structural systems, Computers &
Structures 46, 381386.
Zhang Y, Der Kiureghian A, 1997: Finite element reliability methods for inelastic structures, Report UCB/SEMM -
97/05, Dep. of Civil and Environmental Engineering, University of California, Berkeley.
Zheng Y, Das PK, 2000: Improved response surface method and its application to sti¤ened plate reliability analysis,
Engineering Structures 22, 544-551.