Você está na página 1de 510

UNIVERSIDADE DE SÃO PAULO

ESCOLA DE ENGENHARIA DE SÃO CARLOS


DEPARTAMENTO DE ENGENHARIA DE ESTRUTURAS

CONFIABILIDADE E SEGURANÇA
DAS ESTRUTURAS

Prof. André T. Beck, Ph.D.

Versão revisada e ampliada, 10/03/2023.

Favor citar como:


Beck AT, 2019: Confiabilidade e Segurança das Estruturas. Elsevier, ISBN 978-85-352-8895-7.
Sumário

1 INTRODUÇÃO A CONFIABILIDADE 1
1.1 CLASSIFICAÇÃO DE INCERTEZAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Incerteza intrínsica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Incerteza epistêmica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.3 Erro humano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.4 Precisão £ acurácia, erro aleatório £ erro sistemático . . . . . . . . . . . . . . . . . . . . 6
1.2 ELEMENTOS DE CONFIABILIDADE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1 Con abilidade: de nição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.2 Problema fundamental de con abilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 FALHAS QUE OCORREM AO LONGO DO TEMPO . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.1 Processos estocásticos e eventos extremos . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.2 Taxa de falhas constante e tempo entre falhas . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.3 Valor nominal de ações variáveis e distribuição de valores extremos . . . . . . . . . . . . . 15
1.3.4 Taxa de falhas dependente da idade ou taxa de falhas instantânea . . . . . . . . . . . . . 18
1.4 RISCOS: PROBABILIDADES E CONSEQUÊNCIAS . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4.1 Risco: de nição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4.2 Classi cação e exemplos de riscos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.4.3 Critérios de aceitabilidade para risco social . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.4.4 Análise qualitativa: matriz de risco . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4.5 Gestão de riscos tecnológicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.4.6 Custo esperado de falhas de sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

2 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL 35


2.1 REQUISITOS DE PROJETO E ESTADOS LIMITES . . . . . . . . . . . . . . . . . . . . . . . . 35

1
2.1.1 Requisitos de projeto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.1.2 Estados limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.1.3 Equações de estado limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.1.4 Probabilidade de falha: medida da propensão à violação de estados limites . . . . . . . . 38
2.2 CONFIABILIDADE DAS ESTRUTURAS: DEFINIÇÃO E INTERPRETAÇÃO . . . . . . . . . 39
2.3 MODELOS DE RESISTÊNCIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.3.1 A resistência característica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.3.2 Concreto armado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.3.3 Aço estrutural laminado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.3.4 Outros materiais e propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.3.5 Incertezas de modelo da resistência de elementos estruturais . . . . . . . . . . . . . . . . . 48
2.3.6 Degradação da resistência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.4 MODELOS DE AÇÕES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.4.1 Vida de projeto e valor nominal de ações variáveis . . . . . . . . . . . . . . . . . . . . . . 56
2.4.2 Ação permanente em lajes (prédios) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.4.3 Ação variável de utilização em lajes (prédios) . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.4.4 Ação do vento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.4.5 Introdução ao problema de combinação de ações . . . . . . . . . . . . . . . . . . . . . . . 65
2.4.6 Interação e dependência entre ações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.4.7 Incertezas de modelo de ações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.5 PROJETO UTILIZANDO COEFICIENTES DE SEGURANÇA . . . . . . . . . . . . . . . . . . 69
2.6 FORMULAÇÃO DOS PROBLEMAS DE CONFIABILIDADE ESTRUTURAL . . . . . . . . . . 73
2.6.1 Problema de con abilidade dependente do tempo . . . . . . . . . . . . . . . . . . . . . . . 73
2.6.2 Problema de con abilidade estrutural típico . . . . . . . . . . . . . . . . . . . . . . . . . . 73
2.6.3 Problema de con abilidade estrutural independente do tempo . . . . . . . . . . . . . . . . 75
2.6.4 Problemas estáticos, quasi-estáticos e dinâmicos em con abilidade estrutural . . . . . . . 77
2.6.5 Nível da análise: elemento, ponto material ou global . . . . . . . . . . . . . . . . . . . . . 77

3 MÉTODOS DE TRANSFORMAÇÃO 79
3.1 INTRODUÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.2 MÉTODO DE PRIMEIRA ORDEM E SEGUNDO MOMENTO (FOSM) . . . . . . . . . . . . . 80
3.2.1 A transformação de Hasofer e Lind . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
3.2.2 Interpretação geométrica do índice de con abilidade . . . . . . . . . . . . . . . . . . . . . 80
3.2.3 O ponto de projeto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.2.4 Projeção da origem, vetor ® e cossenos diretores . . . . . . . . . . . . . . . . . . . . . . . 84
3.2.5 Generalização para problemas em Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.2.6 Equação de estado limite linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.2.7 Equação de estado limite não-linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.2.8 Solução numérica do problema de otimização . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.2.9 Transformação de Hasofer-Lind matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3.2.10 Algoritmo FOSM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.2.11 Variáveis aleatórias correlacionadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.3 MÉTODO DE CONFIABILIDADE DE PRIMEIRA ORDEM (FORM) . . . . . . . . . . . . . . 102
3.3.1 Distribuição conjunta de probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3.3.2 A transformação de Rosenblatt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.3.3 Transformação composta utilizando o modelo de Nataf . . . . . . . . . . . . . . . . . . . . 103
3.3.4 Transformação direta reversível . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
3.3.5 Comparação entre as transformações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
3.3.6 Algoritmo FORM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
3.4 MÉTODO DE CONFIABILIDADE DE SEGUNDA ORDEM (SORM) . . . . . . . . . . . . . . . 115
3.4.1 Aproximação parabólica baseada em curvaturas . . . . . . . . . . . . . . . . . . . . . . . . 115
3.4.2 Aproximação parabólica baseada em pontos . . . . . . . . . . . . . . . . . . . . . . . . . . 117
3.4.3 Índice de con abilidade equivalente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
3.5 CONCLUSÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

4 CONFIABILIDADE DE SISTEMAS 121


4.1 IDEALIZAÇÃO DE SISTEMAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
4.1.1 Componentes associados em série . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
4.1.2 Componentes associados em paralelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
4.1.3 Associação mista de componentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
4.1.4 Dependência entre eventos: interpretação . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
4.1.5 Modelo generalizado k-bons-em-n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
4.1.6 Dependência linear (correlação) entre falhas: sistemas com componentes idênticos . . . . 128
4.1.7 Probabilidade de falha de sistemas descritos por estados limites . . . . . . . . . . . . . . . 129
4.2 IDEALIZAÇÃO DE SISTEMAS ESTRUTURAIS . . . . . . . . . . . . . . . . . . . . . . . . . . 129
4.2.1 Modelos de resistência de material . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
4.2.2 Estruturas isostáticas: sistemas em série . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
4.2.3 Estruturas hiperestáticas: sistemas em paralelo . . . . . . . . . . . . . . . . . . . . . . . . 131
4.3 MÚLTIPLOS MODOS DE FALHA (SISTEMA EM SÉRIE) . . . . . . . . . . . . . . . . . . . . . 136
4.3.1 Limites para a probabilidade de falha de sistemas em série . . . . . . . . . . . . . . . . . . 137
4.3.2 Aproximação de primeira ordem para múltiplos modos de falha . . . . . . . . . . . . . . . 139
4.3.3 Con abilidade de sistemas por operações matriciais e programação linear . . . . . . . . . 146
4.4 SISTEMAS REDUNDANTES E COLAPSO PROGRESSIVO . . . . . . . . . . . . . . . . . . . . 148
4.4.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
4.4.2 Formulação elementar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
4.4.3 Análise de custo-benefício do projeto para caminho de carga alternativo . . . . . . . . . . 151
4.5 ÁRVORES DE FALHAS E EVENTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
4.5.1 Árvore de falhas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
4.5.2 Árvores de eventos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
4.5.3 Exemplo de árvores de falhas e de eventos: ruptura de vaso de pressão . . . . . . . . . . . 156

5 SIMULAÇÃO DE MONTE CARLO 161


5.1 FORMULAÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
5.2 GERAÇÃO DE AMOSTRAS DE VARIÁVEIS ALEATÓRIAS . . . . . . . . . . . . . . . . . . . 165
5.2.1 Geração de amostras de uma variável aleatória . . . . . . . . . . . . . . . . . . . . . . . . 165
5.2.2 Geração de números aleatórios com distribuição uniforme . . . . . . . . . . . . . . . . . . 166
5.2.3 Teste de geradores lineares congruenciais . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
5.2.4 Geração de amostras a partir da distribuição conjunta de probabilidades . . . . . . . . . . 168
5.3 TÉCNICAS DE AMOSTRAGEM INTELIGENTE . . . . . . . . . . . . . . . . . . . . . . . . . . 171
5.3.1 Geração das amostras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
5.3.2 Amostragem por importância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
5.3.3 Amostragem por importância utilizando pontos de projeto . . . . . . . . . . . . . . . . . . 175
5.3.4 Amostragem por importância adaptativa . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
5.3.5 Amostragem assintótica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
5.3.6 Amostragem melhorada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
5.3.7 Amostragem por sub-conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
5.3.8 Comparação entre técnicas de amostragem inteligente . . . . . . . . . . . . . . . . . . . . 184
5.3.9 E ciência de estimadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
5.4 META-MODELOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
5.4.1 Construção de meta-modelos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
5.4.2 Superfícies de resposta polinomiais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
5.4.3 Técnicas globais de meta-modelagem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189

6 CONFIABILIDADE DEPENDENTE DO TEMPO 195


6.1 FALHA À PRIMEIRA SOBRECARGA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
6.1.1 Formulação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
6.1.2 Falha à primeira sobrecarga . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
6.1.3 Aproximação de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
6.1.4 Expressões aproximadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
6.1.5 Tempo até a falha (primeira sobrecarga) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
6.1.6 Taxa instantânea de falhas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
6.2 VARIÁVEIS ALEATÓRIAS DE RESISTÊNCIA . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
6.2.1 Resistência como processo estocástico parametrizado . . . . . . . . . . . . . . . . . . . . . 200
6.2.2 Resistência como processo estocástico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
6.2.3 Teorema da probabilidade total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
6.2.4 Integração rápida de probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
6.2.5 Aproximação da taxa de falhas média sobre o envelope da resistência . . . . . . . . . . . . 203
6.3 PROBLEMAS ESCALARES ESTACIONÁRIOS . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
6.3.1 Integração no tempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
6.3.2 Discretização no tempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
6.4 MODELO DE FALHA POR ACÚMULO DE DANO . . . . . . . . . . . . . . . . . . . . . . . . . 210
6.4.1 Acúmulo de dano com carregamento por variável aleatória . . . . . . . . . . . . . . . . . . 211
6.4.2 Acúmulo de dano sob ações estocásticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
6.5 EXEMPLO NUMÉRICO E SOLUÇÕES ESPECIALIZADAS . . . . . . . . . . . . . . . . . . . . 212
6.5.1 Comparação entre soluções (exemplo numérico) . . . . . . . . . . . . . . . . . . . . . . . . 212
6.5.2 Taxa condicional de chegada da primeira sobrecarga . . . . . . . . . . . . . . . . . . . . . 218
6.5.3 Melhorias da aproximação de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
6.6 PROBLEMAS MULTI-DIMENSIONAIS NAS AÇÕES . . . . . . . . . . . . . . . . . . . . . . . . 221
6.6.1 Soluções FORM encadeadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
6.6.2 Simulação direcional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
6.6.3 Taxa de falhas de processos contínuos diferenciáveis como sistema em paralelo . . . . . . 224
6.6.4 Taxa de falhas média sobre o envelope da resistência como sistema em paralelo . . . . . . 225
6.7 COMBINAÇÃO DE AÇÕES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
6.7.1 Caso geral (point-crossing formula) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
6.7.2 Combinação de ações discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
6.7.3 Regra de Turkstra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
6.7.4 Comparação entre soluções . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231

7 CONFIABILIDADE E AS NORMAS DE PROJETO 233


7.1 INTRODUÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
7.2 NORMAS DE ESTADOS LIMITES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
7.2.1 Normas americanas (formato LRFD) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
7.2.2 EUROCODES e normas brasileiras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
7.2.3 Comparação entre as normas americanas e EUROCODES . . . . . . . . . . . . . . . . . . 237
7.2.4 Outras normas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
7.3 DETERMINAÇÃO DOS COEFICIENTES PARCIAIS DE SEGURANÇA . . . . . . . . . . . . . 238
7.3.1 Determinação a partir de análise em nível 2 (FOSM) . . . . . . . . . . . . . . . . . . . . . 238
7.3.2 Determinação a partir de análise em nível 3 (FORM ou SMC) . . . . . . . . . . . . . . . 241
7.4 CALIBRAÇÃO DAS NORMAS DE ESTADOS LIMITES . . . . . . . . . . . . . . . . . . . . . . 243
7.4.1 Procedimento de calibração . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
7.4.2 Procedimento reverso de projeto na calibração . . . . . . . . . . . . . . . . . . . . . . . . 246
7.4.3 Calibração de norma de ações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
7.4.4 Calibração baseada em con abilidade das normas brasileiras . . . . . . . . . . . . . . . . . 249
7.5 NORMAS DE PROJETO PROBABILÍSTICAS E ÍNDICES DE CONFIABILIDADE ALVO . . 251
7.5.1 Normas de projeto probabilísticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
7.5.2 Índices de con abilidade alvo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
7.6 PROJETO BASEADO EM DESEMPENHO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
7.6.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
7.6.2 Norma de ações e segurança ASCE 7-16:2016 . . . . . . . . . . . . . . . . . . . . . . . . . 257
7.6.3 Formulação PBE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
7.6.4 Análise de perdas e danos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
7.6.5 Curvas de fragilidade para EDP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
7.6.6 Curvas de fragilidade para estados limites . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
7.6.7 Curvas de ameaça típicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
7.6.8 Exemplo numérico (toy problem) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
7.6.9 Otimização estrutural considerando a formulação PBE . . . . . . . . . . . . . . . . . . . . 263

8 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE 265


8.1 INTRODUÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
8.2 OTIMIZAÇÃO E CONFIABILIDADE: FORMULAÇÃO . . . . . . . . . . . . . . . . . . . . . . 267
8.2.1 Otimização estrutural determinística . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268
8.2.2 Otimização estrutural baseada em con abilidade . . . . . . . . . . . . . . . . . . . . . . . 269
8.2.3 Otimização de custos sobre o ciclo de vida . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
8.2.4 Comparação entre as formulações DDO, RBDO e LCRO . . . . . . . . . . . . . . . . . . . 272
8.2.5 Perspectiva histórica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
8.2.6 Otimização robusta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273
8.2.7 Exemplos elementares de DDO, RBDO e LCRO . . . . . . . . . . . . . . . . . . . . . . . 275
8.2.8 Exemplo prático: projeto de viga retangular 2D . . . . . . . . . . . . . . . . . . . . . . . . 278
8.3 SOLUÇÃO DE PROBLEMAS RBDO COM BASE NO FORM . . . . . . . . . . . . . . . . . . . 286
8.3.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
8.3.2 RIA versus PMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
8.3.3 Formulação clássica acoplada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290
8.3.4 Exemplo de RBDO utilizando RIA e PMA . . . . . . . . . . . . . . . . . . . . . . . . . . 293
8.3.5 Distinção de notação entre variáveis de projeto e variáveis aleatórias de projeto . . . . . . 295
8.3.6 Soluções desacopladas com laços em série . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
8.3.7 Soluções desacopladas de laço único . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
8.3.8 Técnicas de RBDO para con abilidade de sistemas . . . . . . . . . . . . . . . . . . . . . . 300
8.4 TÉCNICAS BASEADAS EM SIMULAÇÃO PARA RBDO E LCRO . . . . . . . . . . . . . . . . 302
8.4.1 Técnicas genéricas para otimização estocástica utilizando simulação . . . . . . . . . . . . 304
8.4.2 Técnicas especializadas para otimização estocástica utilizando simulação . . . . . . . . . . 308
8.5 OTIMIZAÇÃO DE CUSTOS SOBRE O CICLO DE VIDA . . . . . . . . . . . . . . . . . . . . . 311
8.5.1 Projeto ótimo sob carregamentos estocásticos . . . . . . . . . . . . . . . . . . . . . . . . . 311
8.5.2 Projeto ótimo considerando inspeções e manutenção . . . . . . . . . . . . . . . . . . . . . 312
8.6 EXEMPLO DE APLICAÇÃO: PROJETO DE BARRAGEM DE GRAVIDADE . . . . . . . . . 312
8.6.1 Descrição do problema e projeto determinístico . . . . . . . . . . . . . . . . . . . . . . . . 312
8.6.2 Con abilidade da barragem projetada de forma convencional . . . . . . . . . . . . . . . . 314
8.6.3 Projeto da barragem com restrição em con abilidade (RBDO) . . . . . . . . . . . . . . . 317
8.6.4 Projeto da barragem via otimização de riscos (LCRO) . . . . . . . . . . . . . . . . . . . . 317
8.6.5 Otimização de riscos robusta com incerteza fuzzy . . . . . . . . . . . . . . . . . . . . . . . 319
8.7 EXERCÍCIOS E PROBLEMAS PROPOSTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323
8.7.1 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323
8.7.2 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323

APÊNDICES 327

A TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS 327


A.1 AXIOMAS DA TEORIA DE PROBABILIDADES . . . . . . . . . . . . . . . . . . . . . . . . . . 327
A.1.1 De nições de probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327
A.1.2 Teoria de conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329
A.1.3 Espaço de probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332
A.1.4 Probabilidades condicionais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334
A.1.5 Teorema da probabilidade total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 336
A.1.6 Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 337
A.1.7 Independência de eventos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
A.2 VARIÁVEIS ALEATÓRIAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
A.2.1 De nição de variável aleatória . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
A.2.2 Função de distribuição acumulada de probabilidades . . . . . . . . . . . . . . . . . . . . . 340
A.2.3 Função de densidade de probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341
A.2.4 Valor esperado e momentos de uma variável aleatória . . . . . . . . . . . . . . . . . . . . 342
A.3 MODELOS ANALÍTICOS DE FENÔMENOS ALEATÓRIOS . . . . . . . . . . . . . . . . . . . 347
A.3.1 Variáveis aleatórias discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347
A.3.2 Variáveis aleatórias contínuas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352
A.3.3 Variáveis aleatórias do tipo misto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357
A.4 DISTRIBUIÇÃO CONJUNTA DE PROBABILIDADES . . . . . . . . . . . . . . . . . . . . . . . 358
A.4.1 Função conjunta de distribuição cumulativa de probabilidades . . . . . . . . . . . . . . . . 358
A.4.2 Função conjunta de densidades de probabilidades . . . . . . . . . . . . . . . . . . . . . . . 359
A.4.3 Conteúdo de probabilidade para um domínio D qualquer . . . . . . . . . . . . . . . . . . 359
A.4.4 Funções marginais de probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359
A.4.5 Funções condicionais de probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 360
A.4.6 Teorema da probabilidade total (versão contínua) . . . . . . . . . . . . . . . . . . . . . . . 360
A.4.7 Variáveis aleatórias independentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
A.4.8 Covariância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
A.4.9 Momentos conjuntos de ordem arbitrária de duas variáveis aleatórias . . . . . . . . . . . . 362
A.4.10 Distribuição normal bi-variada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364
A.4.11 Problemas em Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365
A.4.12 Distribuição normal multi-variada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366
A.5 FUNÇÕES DE UMA VARIÁVEL ALEATÓRIA . . . . . . . . . . . . . . . . . . . . . . . . . . . 367
A.5.1 Conceito de função de uma variável aleatória . . . . . . . . . . . . . . . . . . . . . . . . . 367
A.5.2 Determinação da função de distribuição de Y = g(X) . . . . . . . . . . . . . . . . . . . . 368
A.5.3 Momentos de uma função de uma variável aleatória . . . . . . . . . . . . . . . . . . . . . 371
A.5.4 Estimador linear ótimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372
A.6 FUNÇÕES DE DUAS OU MAIS VARIÁVEIS ALEATÓRIAS . . . . . . . . . . . . . . . . . . . 374
A.6.1 Determinação da função de distribuição . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374
A.6.2 Soma de duas variáveis aleatórias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375
A.6.3 Teorema do Limite Central . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378
A.6.4 Momentos de funções de muitas variáveis aleatórias . . . . . . . . . . . . . . . . . . . . . 380
A.6.5 Aproximação dos momentos de funções de muitas variáveis aleatórias . . . . . . . . . . . 383
A.7 TEORIA DE VALORES EXTREMOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384
A.7.1 Distribuições exatas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384
A.7.2 Distribuições assintóticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385
A.7.3 Extremos característicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 387
A.7.4 Probabilidade de ocorrência de máximos característicos ao longo da vida L . . . . . . . . 388
A.7.5 Distribuições estatísticas de extremos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 389

B TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS 397


B.1 DEFINIÇÕES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397
B.1.1 Processo estocástico como família de funções . . . . . . . . . . . . . . . . . . . . . . . . . 397
B.1.2 Funções de distribuição de probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . 399
B.1.3 Processo estocástico como família de variáveis aleatórias . . . . . . . . . . . . . . . . . . . 399
B.2 PROPRIEDADES DE PROCESSOS ESTOCÁSTICOS . . . . . . . . . . . . . . . . . . . . . . . 400
B.2.1 Momentos de um processo estocástico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400
B.2.2 Momentos de dois processos estocásticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 401
B.2.3 Ortogonalidade e independência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 401
B.2.4 Processo Gaussiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 401
B.2.5 Estacionariedade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402
B.2.6 Propriedades da função de autocorrelação . . . . . . . . . . . . . . . . . . . . . . . . . . . 403
B.2.7 Representação espectral de processos estocásticos estacionários . . . . . . . . . . . . . . . 403
B.2.8 Continuidade de processos estocásticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 409
B.2.9 Diferenciabilidade de processos estocásticos . . . . . . . . . . . . . . . . . . . . . . . . . . 410
B.2.10 Integrais de processos estocásticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 411
B.2.11 Estatísticas temporais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412
B.2.12 Processos ergódicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413
B.3 ESTATÍSTICAS DE BARREIRA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 414
B.3.1 Período médio de recorrência ou tempo médio de retorno . . . . . . . . . . . . . . . . . . 414
B.3.2 Taxa de passagens pela barreira . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 416
B.4 TEORIA DE VALORES EXTREMOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 420
B.4.1 Extremos de um processo em um intervalo xo . . . . . . . . . . . . . . . . . . . . . . . . 420
B.4.2 Distribuição de picos (máximos locais) de processo Gaussiano estacionário . . . . . . . . . 421
B.4.3 Distribuição de extremos de um processo Gaussiano estacionário . . . . . . . . . . . . . . 421
B.5 PROCESSOS DISCRETOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422
B.5.1 Processo de Borges . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422
B.5.2 Processo de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423
B.5.3 Processo de Poisson ltrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424
B.5.4 Processos de Poisson mistos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425

C TEORIA DE PROBABILIDADES: CAMPOS ESTOCÁSTICOS 429


C.1 INTRODUÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429
C.1.1 Espaços de probabilidades e espaços de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . 430
C.2 CAMPOS ESTOCÁSTICOS HOMOGÊNEOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 431
C.2.1 Estrutura de correlação de campos estocásticos homogêneos . . . . . . . . . . . . . . . . . 431
C.2.2 Representação espectral de campos estocásticos homogêneos no plano . . . . . . . . . . . 432
C.2.3 Representação espectral de campos estocásticos homogêneos multi-dimensionais . . . . . . 434
C.3 REPRESENTAÇÃO NODAL DE CAMPOS CONTÍNUOS . . . . . . . . . . . . . . . . . . . . . 436
C.3.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 436
C.3.2 Malha de discretização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 436
C.3.3 Técnica do ponto central . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 437
C.3.4 Técnica das funções de interpolação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 437
C.3.5 Estimador linear ótimo (OLE) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 437
C.3.6 Discretização em média espacial local . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439
C.3.7 Comparação entre as técnicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439
C.4 REPRESENTAÇÃO DE CAMPOS CONTÍNUOS EM SÉRIES . . . . . . . . . . . . . . . . . . . 440
C.4.1 Expansão de Karhunen-Loéve . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 440
C.4.2 Expansão em séries ortogonais (OSE) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 442
C.4.3 Expansão linear ótima (EOLE) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 444
C.4.4 Comparação entre as técnicas KL, OSE e EOLE . . . . . . . . . . . . . . . . . . . . . . . 444
C.4.5 Expansão de campos não-Gaussianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 445

D SUMÁRIO DE DISTRIBUIÇÕES CONTÍNUAS 447

E TABELA DA DISTRIBUIÇÃO NORMAL PADRÃO 449

F PROGRAMAÇÃO DA FUNÇÃO NORMAL PADRÃO ACUMULADA 453


F.1 Avaliação numérica da função u = ©[y] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 453
F.2 Avaliação numérica da função inversa y = ©¡1 [u]: . . . . . . . . . . . . . . . . . . . . . . . . . . 454
F.3 Veri cação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 454
F.4 Relação com a função erro (erf) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 454

G SOFTWARES DE CONFIABILIDADE ESTRUTURAL 455

H REPRESENTAÇÃO POSSIBILÍSTICA DE INCERTEZAS 459

REFERÊNCIAS BIBLIOGRÁFICAS 460


Lista de Abreviaturas

BFD Falha dominada pela barreira (Barrier Failure Dominance)


CDF Função de distribuição cumulativa de probabilidades
(Cumulative Distribution Function)
c.v. Coe ciente de variação
DDO Otimização deterministica (Deterministic Design Optimization)
EF Elementos Finitos
FORM Método de con abilidade de primeira ordem (First Order Reliability Method )
FOSM Método de con abilidade de segundo momento (First Order Second Moment)
FPI Integração rápida de probabilidades (Fast Probability Integration)
HLRF Algoritmo de otimização de Hasofer, Lind, Rackwitz e Fiessler
IS Amostragem por importância (Importance Sampling)
KS Teste de Kolmogorov-Smirno¤
LCRO Otimização de custos e riscos sobre o ciclo de vida
(Life-cycle Cost and Risk Optimization)
PDF Função de densidade de probabilidades (Probability Density Function)
PMA Performance Measure Approach
RBDO Otimização baseada em con abilidade (Reliability-Based Design Optimization)
RIA Reliability-Index Approach
RO Otimização de riscos (Risk-based Design Optimization)
SMC Simulação de Monte Carlo
SORM Método de con abilidade de segunda ordem (Second Order Reliability Method )

i
ii
Lista de Símbolos

Variáveis aleatórias e processos estocásticos:


E[ ] operador valor esperado
P[ ] operador de probabilidades
V ar[ ] operador variância
Cov[ ] operador covariância

w ponto amostral
X(w) ou X variável aleatória
x realização da variável aleatória X
µX média de X
σX desvio-padrão de X
σ2X variância de X
fX (x) função densidade de probabilidades de X
FX (x) função de distribuição cumulativa de probabilidades de X

φ(x) função densidade de probabilidades normal padrão


©(x) função de distribuição cumulativa normal padrão
N (µ, σ) distribuição normal com parâmetros µ e σ
LN (µ, σ) distribuição log-normal com momentos µ e σ
X » N (µ, σ) variável aleatória X tem distribuição normal com parâmetros µ e σ

X(w) ou X vetor de variáveis aleatórias


x realização do vetor X
¹ vetor de médias
D matriz diagonal de desvios-padrão
fX (x) função densidade de probabilidades conjunta de X
FX (x) função de distribuição cumulativa de probabilidades conjunta de X
cov matriz de covariância
R matriz de correlação

X(w, t) ou X(t) processo estocástico


x(t) realização do processo estocástico X(t)
RXX (t) função de auto-correlação do processo X(t)
λX comprimento de correlação do processo
α fator de regularidade do processo
S(ω) função densidade espectral de potência

iii
Con abilidade independente do tempo:
R con abilidade
pf probabilidade de falha
pfF O estimativa de primeira ordem da probabilidade de falha
pfSO estimativa de segunda ordem da probabilidade de falha
pfSY S probabilidade de falha de sistema

R resistência ou capacidade
S solicitação ou demanda
g(x) equação de estado limite
­f domínio de falha
­s domínio de sobrevivência
X espaço original de projeto (dimensões físicas)
Y espaço normal padrão (adimensional)
y = T(x) transformação para o espaço normal padrão
Jyx matriz Jacobiana da transformação y = T(x)
Jxy matriz Jacobiana da transformação inversa x = T¡1 (y)
x¤ ponto de projeto no espaço X
y¤ ponto de projeto no espaço Y
β índice de con abilidade
®2 coe cientes de sensibilidade
rg(y) vetor gradiente (derivadas de primeira ordem)
H(y) matriz Hessiana (derivadas de segunda ordem)
n número de variáveis aleatórias
nLS número de equações de estado limite
nit número de iterações para convergência
nS número de amostras em Simulação de Monte Carlo
M (x) modelo de alta delidade
f(x)
M meta-modelo ou surrogate model
xsup ponto de suporte para construção de meta-modelo

Con abilidade dependente do tempo:


R(t) con abilidade dependente do tempo (período (0, t))
pf (t) probabilidade de falha para período (0, t)
pS (t) probabilidade de sobrevivência para período (0, t)
pf0 probabilidade de falha inicial (t0 = 0)
pf (tjr) probabilidade de falha condicional ao evento fR = rg
υ+
X (r, t) taxa com a qual o processo X(t) ultrapassa a barreira r(t)
υ+
A (r, t) taxa com a qual o processo amplitude A(t) ultrapassa a barreira r(t)
υ+
­ (r, t) taxa de entradas no domínio de falha ­(r, t)

iv
Equações de projeto:
rk valor característico da resistência do material
sn valor nominal de uma ação
R() função resistência de elemento estrutural ou da estrutura
S() função que converte uma ação em seus efeitos
Rn (= R(rk )) valor nominal da resistência de elemento ou da estrutura
D ação permanente (gravitacional)
Q ação variável genérica
L ação variável de utilização
W ação variável provocada pelo vento
γR fator parcial aplicado à resistência do material
φ fator parcial aplicado à resistência do elemento estrutural
γS fator parcial aplicado às ações, ou aos seus efeitos
λ0 fator de segurança central
λG fator de segurança global

Otimização:
βT índice de con abilidade alvo
pf T probabilidade de falha admissível (máxima)
cf custo de falha
cef custo esperado de falha
cet custo esperado total

D conjunto admissível para variáveis de projeto


d variáveis de projeto ou variáveis determinísticas de projeto
M variáveis aleatórias de projeto
¹ vetor de parâmetros das variáveis aleatórias de
projeto a determinar (usualmente, as médias)
nRV Número de variáveis aleatórias
¤
yRIA ponto de projeto na formulação RIA
¤
yP M A ponto de mínimo desempenho (formulação PMA)

L( ) Função Lagrangeana
u Multiplicador de Lagrange
s Variável de folga (slack variable)

v
vi
PREFÁCIO

O Médico, o Advogado e o Engenheiro são pro ssionais liberais.

O objeto de trabalho do Médico é a saúde, cujo proprietário é o paciente. O objeto de trabalho do


Advogado é o direito, cujo detentor é o cliente. O objeto de trabalho do Engenheiro é a infra-estrutura
(mecânica, civil, elétrica e química) que fornece ou produz conforto e bem estar material ao ser humano. Os
proprietários desta infra-estrutura são indivíduos, empresários, empresas, seus acionistas ou governantes (como
representantes da população).

É obrigação do Médico informar ao paciente sobre os riscos associados às diferentes alternativas de trata-
mento. Cabe ao paciente decidir sobre estes riscos: cirurgia com maior taxa de sucesso mas risco de morte;
medicação com seus efeitos colaterais; homeopatia; nenhum tratamento; etc.

É dever do Advogado informar ao cliente sobre os riscos relacionados à estratégias alternativas de acusação
ou defesa. Cabe ao cliente, ciente destes riscos, decidir sobre a estratégia a ser adotada, e aceitar as conseqüências
desta escolha para sua causa: pleitear inocência sob risco de maior pena; admitir a culpa e reduzir a pena; alegar
loucura e terminar em um hospício, etc.

Por analogia, é obrigação do Engenheiro informar ao proprietário da obra sobre os riscos associados às
diferentes alternativas de concepção e execução. Cabe ao proprietário a decisão sobre qual alternativa adotar:
maior gasto inicial, com redução de custos esperados no ciclo de vida; economizar na obra e pagar por custos
futuros de falhas e de acidentes, etc.

Prof. Nelson Aoki, outubro de 2011.

Concordar com esta analogia implica em uma mudança de paradigma por parte dos pro ssionais de enge-
nharia. Seja esta uma motivação ao estudo de Con abilidade e Segurança das Estruturas.

O autor.

vii
UMA MUDANÇA DE PARADIGMA
A provocação apresentada, de forma brilhante, pelo Prof. Nelson Aoki, implica em uma mudança de paradig-
ma por parte da pro ssão de engenharia. A atual formação do engenheiro privilegia uma visão determinista
e cartesiana da pro ssão. Esta formação está baseada em três grandes pilares do conhecimento: a lógica de
Aristóteles, a mecânica Newtoniana e a geometria de Descartes. Estes três ramos fundamentais da ciência abor-
dam problemas abstratos, com geometria dada, com condições iniciais e de contorno perfeitamente conhecidas,
e cujas equações diferenciais ou constitutivas representam, de forma exata, o problema abstrato a ser resolvido.
Para estes problemas abstratos, a lógica, a mecânica e a geometria fornecem soluções exatas.
No entanto, na abstração necessária para trazer problemas do mundo real para o arcabouço da lógica, da
mecânica e da geometria, perdemos informação e fazemos simpli cações. Com o passar dos anos e com a
evolução da técnica, simpli cações antes aceitas passam a ser inadmissíveis. A informatização da pro ssão,
por exemplo, trouxe a engenharia assistida por computador ou CAE (Computer Aided Engineering) e o projeto
assistido por computador ou CAD (Computer Aided Design), que praticamente eliminaram incertezas referentes
à representação da geometria de componentes mecânicos e de estruturas. Técnicas de manufatura avançada ou
CAM (Computer Aided Manufacturing) permitem reduzir incertezas na fabrição de componentes mecânicos e
de elementos estruturais. Métodos numéricos como elementos nitos, métodos sem malha, elementos de con-
torno, elementos discretos, diferenças nitas, etc., permitem resolver, de forma praticamente exata, as equações
diferenciais e integrais da versão abstrata dos problemas de engenharia.
A formação atual em engenharia, baseada na lógica de Aristóteles, na mecânica Newtoniana e na geometria
de Descartes, contribui para uma compreensão determinista da pro ssão. Já a prática, cada vez mais baseada
em computador, gera uma falsa sensação de precisão, que não corresponde exatamente à realidade dos prob-
lemas com os quais a pro ssão lida. Na realidade, as ações ou demandas às quais componentes mecânicos e
estruturas estão submetidos são típicamente aleatórios. Ações estruturais de origem ambiental, como sismos,
ondas, ventos, correntes, precipitação, neve, etc., são processos intrinsicamente aleatórios. Ações acidentais
decorrentes de impactos, acidentes, ou mesmo da mera ocupação das estruturas por diferentes usuários são, em
última análise, imprevisíveis. A resistência de materiais estruturais ou de componentes mecânicos ou elétricos
é intrinsicamente aleatória. De forma desconcertante para a pro ssão, os modelos de cálculo são limitados
e imprecisos; fornecendo, na melhor das hipóteses, valores aproximados para a resistência de componentes e
para as solicitações sobre os mesmos. A estas incertezas intrínsicas, somam-se incertezas decorrentes da falta
de informações, da ambiguidade, da incapacidade de prever condições futuras de uso de um componente ou
estrutura. Tais incertezas tem impacto no desempenho de sistemas de engenharia, e sua existência não pode ser
ignorada. Este texto é uma iniciativa no sentido de quanti car incertezas e prever o comportamento de sistemas
na presença destas.
A visão cartesiana da engenharia não é “privilégio” de estudantes recém-formados: ela é levada para a
pro ssão, e perpetuada por pro ssionais e professores que tiveram a mesma formação. Também não é exclu-
sividade do Brasil, pois no mundo todo se escutam críticas sobre a forma determinista como se ensina e se
aprende a engenharia (Vogel, 1999). No Brasil, as recém-aprovadas Diretrizes Curriculares Nacionais dos Cur-
sos de Engenharia (Conselho Nacional de Educação, 2001) não incluem, no curriculum mínimo, uma disciplina
de Probabilidade e Estatística. Ainda assim, os melhores cursos de engenharia do Brasil possuem pelo menos
uma disciplina de Probabilidade e Estatística. Nas universidades públicas brasileiras, é comum que esta única
disciplina seja ministrada pelos Departamentos de Matemática e Estatística. Desta forma, conseguimos ensinar
os princípios teóricos fundamentais, mas não se consegue fazer a necessária ligação com a prática ou com os
problemas da pro ssão. Em geral, estudantes completam a disciplina sem entender a razão da mesma constar
nos currículos dos cursos. Com grande frequência, estudantes chegam a desenvolver aversão ao tema, conforme
experiência do autor.
Como professor da disciplina Con abilidade Estrutural, do Programa de Pós-Graduação em Engenharia
Civil (Estruturas) da USP, recebo como alunos engenheiros formados nas melhores universidades do país (prin-
cipalmente civis), que aceitam a natureza aleatória da resistência dos materiais ou das ações ambientais mas
que, na melhor das hipóteses, tem uma compreensão limitada do que é a resistência característica do concreto

viii
Figura 0-1: Resposta de um sistema de engenharia sujeito a incertezas.

ou o vento nominal de projeto. Sem compreender a natureza aleatória destes processos, estes engenheiros se
agarram ao porto seguro das normas de projeto. Através destas normas, e de uma sucessão de aproximações
conservadoras, a pro ssão vai sendo praticada de forma determinista, ignorando o impacto das incertezas no
desempenho dos sistemas que projeta, constrói e opera.
Incertezas são inerentes a qualquer sistema de engenharia. A Figura 0-1 ilustra, de forma conceitual, a
relação de causa e efeito das incertezas em sistemas de engenharia. Quando existe incerteza nos parâmetros
de entrada de um sistema, esta se propaga para a resposta. Portanto, a resposta de sistemas de engenharia
também é afetada pelas incertezas, e não há como garantir, de forma determinista, que a resposta do sistema
será sempre a resposta desejada. Portanto, uma consequência importante das incertezas é a existência de uma
possibilidade do sistema não responder conforme o esperado. Quando esta possibilidade é medida em termos
de probabilidades, falamos em probabilidade de falha. O produto da probabilidade de falha pela consequência,
ou custo de falha, dá origem ao risco, que é uma das principais consequências das incertezas. Para viabilizar a
construção e operação de sistemas de engenharia, os riscos devem ser compreendidos, controlados, comunicados e
distribuídos de forma equânime entre os diferentes envolvidos: proprietários, projetistas, construtores, usuários,
reguladores e terceiros (o público em geral).

COMO ACOMPANHAR ESTE TEXTO


Este texto surge das notas de aula das disciplinas “Con abilidade Estrutural” e “Con abilidade Estrutural
Avançada”, do Programa de Pós-Graduação em Engenharia Civil (Estruturas), da Escola de Engenharia de São

ix
Carlos (EESC), Universidade de São Paulo. O texto re‡ete a experiência do autor, adquirida em treze anos
ministrando as disciplinas acima, para um total de cento e cinquenta alunos. O texto re‡ete a experiência do
autor como orientador de trinta e sete alunos de iniciação cientí ca, mestrado e doutorado. Este texto condensa
20 anos de pesquisa em con abilidade estrutural e temas correlatos, que resultaram na publicação de quase
oitenta artigos cientí cos. Dentre estas, as publicações de caracter teórico são citadas ao longo do texto, quando
conveniente, e servem para aprofundar os temas abordados. Alguns destes artigos são discutidos em aula, após
a leitura pelos estudantes. O texto não aprofunda em aplicações especí cas, mas re‡ete a experiência do autor
na aplicação dos conceitos a estruturas metálicas (Beck & Dória, 2008; Chaves et al., 2010; Bolandim et al.,
2013); estruturas de concreto armado (Silva et al., 2008; Corelhano et al, 2012; Santos et al., 2014, 2015; de
Barros et al. 2021); vigas protendidas (de Lyra et al., 2020), estruturas mistas aço-concreto (Oliveira et al.
2008; Beck et al. 2009; Pereia et al. 2017); estruturas geotécnicas como estacas (Mosquera et al. 2015), túneis
(Napa-Garcia et al. 2017, 2018; Kroetz et al. 2018) taludes (Santos et al. 2018) e barragens (Pires et al. 2019;
Siacara et al. 2020), manipuladores robóticos (Vieira et al. 2020), dutovias (Gomes et al., 2013; Gomes & Beck,
2014; Bazán & Beck, 2016), poços de petróleo (Beck et al. 2020a) e conexões de tubulares (Uribe et al. 2019,
2020). Alguns destes artigos são resultado do trabalho de avaliação da disciplina “Con abilidade Estrutural”
da EESC.
Este texto presume conhecimentos fundamentais sobre Mecânica dos Sólidos, Cálculo e Teoria de Probabil-
idades e Estatística, disciplinas comuns aos bons cursos de Engenharia. Algum conhecimento sobre Teoria das
Estruturas e Otimização Matemática são desejáveis, mas não necessários para acompanhar o texto.
Como texto didático, houve a preocupação em fornecer ao leitor todo o embasamento teórico necessário para
compreender os conceitos, em especial aqueles da Teoria de Probabilidades e Estatística, onde o autor entende
que estejam as maiores carências de formação. Os conceitos da Teoria de Probabilidades são apresentados
apenas na medida do considerado necessário para a compreensão dos conceitos e problemas fundamentais de
Con abilidade das Estruturas. Ainda assim, esta parte do texto pode ser considerada “pesada” por alguns
leitores.
Há duas formas sugeridas de acompanhar este texto. A forma sequencial, que segue a disposição dos
capítulos, é sugerida ao leitor interessado nos conceitos, problemas e soluções fundamentais de Con abilidade
das Estruturas, que esteja disposto a aceitar os resultados sem demonstração, e a postergar a compreensão
de alguns tópicos para uma segunda leitura. Este leitor pode seguir as referências cruzadas para a Teoria de
Probabilidades, apresentada nos Apêndices A e B, sempre que julgar conveniente. Este leitor, tipicamente, seria
engenheiro praticante, ou projetista de estruturas.
A forma não-sequencial é sugerida aos estudantes de graduação e pós-graduação, interessados em formação
mais profunda no tema. A estes leitores é sugerido começar pelo Apêndice A, antes do Capítulo 1. A sequência
de leitura sugerida segue com os Capítulos 2 a 5. Esta parte do texto trata dos problemas e soluções que
envolvem Variáveis Aleatórias. Na sequência, recomendamos a leitura do Apêndice B, que trata da Teoria
de Processos Estocásticos, antes do Capítulo 6. Alternativamente, o leitor pode seguir com os Capítulos 7
e 8. O curso “Con abilidade Estrutural” da EESC vai até o Capítulo 5, incluindo o Apêndice A. O curso
“Con abilidade Estrutural Avançada” segue com Apêndice B e Capítulos 6 até 8.
Como acompanhamento para um curso de graduação, sugerimos os Capítulos 1 e 2, juntamente com tópicos
selecionados do Apêndice A e dos Capítulos 3, 4 e 5.
Abordagens alternativas dos vários temas tratados neste livro podem ser encontradas em Benjamin & Cornell
(1970), Ang & Tang (1975, 1990), Thoft-Christensen & Baker (1982), Madsen et al. (1986), Ditlevsen & Madsen
(1996, 2005), Ang & Tang (2007), Sagrilo e Lima (2010), Melchers & Beck (2018).

AGRADECIMENTOS
Finalizar este texto é uma enorme satisfação pessoal! A meta de escrevê-lo foi traçada há quase duas décadas,
e completá-lo representa o encerramento de um ciclo. Reconheço no texto traços da dissertação de mestrado,
defendida em 1999 na saudosa Ilha de Santa Catarina, e fragmentos de minha tese de doutorado, esboçados
em Newcastle, Australia, entre os anos 2000 e 2003. O restante do texto foi redigido para servir de suporte as
disciplinas de pós-graduação já citadas.
A redação deste texto só foi possível graças a inspiração e motivação de alguns ilustres pro ssionais que
in‡uenciaram meu pensar, e guiaram minha trajetória acadêmica e cientí ca. Pelo exemplo e pela motivação,
agradeço aos mestres:
Prof. Julius Sporket, Colégio Sinodal, São Leopoldo, RS.
Prof. Rogério “Rato” Marczak, UFRGS, Porto Alegre, RS.
Prof. Edson da Rosa, UFSC, Florianópolis, SC.
Prof. Robert E. Melchers, University of Newcastle, Australia.
Ao longo dos anos, este texto foi aprimorado a partir do feedback de uma centena e meia de alunos que
passaram por minhas disciplinas de pós-graduação. Agradeço a estes alunos pela paciência e por inúmeras
sugestões. Em especial, agradeço aos alunos, orientandos e colegas que, como parte de seu trabalho de pesquisa,
desenvolveram material que foi em menor ou maior grau, direta ou indiretamente incorporado ao texto: Camila
C. Verzenhassi, Ketson R. M. dos Santos, Felipe A. V. Bazán, Jano A. Coelho, Wellison J. S. Gomes, Gian F.
Napa-Garcia, Wagner C. Santiago, Henrique M. Kroetz, Rodolfo K. Tessari, Gustavo A. da Silva, Luis Gustavo
L. Costa, Rafael H. Lopez, Leandro F. F. Miguel, Cláudio A. da Silva Jr. e Mauro de Vasconcellos Real. Em
especial, agradeço ao Túlio R. C. Felipe pela atenta e detalhada revisão técnica da versão nal do texto da
primeira edição.

DEDICATÓRIA
Dedicado à Sandra, Bruna e Gabito. A família é a fortaleza do homen.
Capítulo 1

INTRODUÇÃO A
CONFIABILIDADE

1.1 CLASSIFICAÇÃO DE INCERTEZAS


As incertezas presentes em problemas de engenharia podem ser classi cadas em aleatória ou intrínsica, epistêmi-
ca e erro humano. Incerteza epistêmica é aquela relacionada ao nosso conhecimento sobre as variáveis e processos
envolvidos, bem como ao problema em questão. Por de nição, incerteza epistêmica pode ser reduzida e, em
teoria, eliminada, através da coleta de mais informações sobre os processos envolvidos, ou através de melhor
conhecimento do problema. Incerteza aleatória ou intrínsica é, por de nição, aquela que faz parte da natureza
dos processos envolvidos; pode ser reduzida mas não pode ser eliminada. Já o erro humano, que tem papel
fundamental na con abilidade dos sistemas, não admite a separação entre intrínsico ou epistêmico. Em últi-
ma análise, erros humano são inevitáveis (carácter intrínsico), mas podem ser reduzidos através de motivação,
quali cação e treinamento (carácter epistêmico).
Incertezas intrínsicas também são ditas objetivas e previsíveis. Incertezas epistêmicas tendem a ser sub-
jetivas, alguns tipos sendo imprevisíveis. Incertezas intrínsicas estão relacionadas a variáveis e fenômenos
observáveis; tais observações, em geral, permitem a quanti cação das incertezas intrínsicas em termos de prob-
abilidades. Em contrapartida, apenas alguns tipos de incertezas epistêmicas são observáveis e podem receber
um tratamento estatístico. As demais podem ser tratadas em abordagem dita possibilística, em termos de
intervalos, conjuntos e variáveis fuzzy, etc. Neste texto, abordamos o tratamento de incertezas objetivas, que
admitem quanti cação probabilística. Para completitude, no Apêndice H apresentamos uma breve introdução
à quanti cação subjetiva, ou possibilística, de incertezas.
Incertezas intrínsicas são, em geral, “bem comportadas”, ou “Gaussianas”; já incertezas epistêmicas podem
ser mais “selvagens”, representadas por funções de potência, ou os chamados black swans, nas palavras de
Nassim Taleb (2010). Incertezas intrínsicas são “known unknowns”, e as epistêmicas são “unkown unkowns”,
conforme Donald Rumsfeld (2011).

1.1.1 Incerteza intrínsica


Incerteza física

A incerteza física corresponde à aleatoriedade natural dos fenômenos físicos, químicos, biológicos, atmosféricos
que nos rodeiam, e que afetam o comportamento de sistemas de engenharia. Exemplos de processos com
incerteza física são:
2 INTRODUÇÃO A CONFIABILIDADE

1. ‡utuação temporal de ações ambientais como vento, ondas, neve, chuva...


2. ocorrência e intensidade de fenômenos ambientais como tempestades, tornados, ciclones, secas, furacões,...
3. ações decorrentes de terremotos;
4. variação na resistência de materiais estruturais (dentro de um mesmo lote, entre lotes, entre diferentes
fabricantes, etc.);
5. tolerância dimensional de fabricação de componentes mecânicos e elementos estruturais;
6. variação na durabilidade (ou vida útil) de componentes mecânicos ou eletrônicos idênticos;
7. ‡utuações de corrente elétrica.

A incerteza física pode ser reduzida através da coleta de mais informações sobre os fenômenos envolvidos,
mas não pode ser eliminada. A incerteza nas dimensões de elementos estruturais ou na resistência de materiais
pode ser diminuída, através de melhorias em controle de qualidade e de produção, mas também não pode ser
eliminada. Incertezas físicas podem ser quanti cadas em termos de probabilidades, e representadas através de
variáveis aleatórias, processos estocásticos e campos estocásticos.

Incerteza de previsão

Este tipo de incerteza se refere à previsão de condições futuras de um processo ou sistema. Muitas vezes, a
informação disponível sobre determinado processo é limitada a um curto período, mas deve ser extrapolada
para o período de vida útil da estrutura. Extremos de fenômenos ambientais são exemplos típicos.
Durante as fases de projeto e de construção de uma obra, existem grandes incertezas em relação à resistência
dos materiais estruturais e em relação aos carregamentos que realmente atuarão na estrutura durante sua vida
útil. Obviamente, à medida que estas informações vão sendo coletadas, este tipo de incerteza pode ser reduzida.
No entanto, projetos estruturais são feitos antes da execução e da utilização da estrutura; logo, incertezas de
previsão devem ser levadas em conta no projeto. A evolução de incertezas ao longo do processo de construção
de uma estrutura, e sua conversão de epistêmica para intrínsica, são discutidas em um belo artigo de Der
Kiureghian e Ditlevsen (2009).

1.1.2 Incerteza epistêmica


Incerteza estatística

A determinação com base em amostras da curva de distribuição de probabilidades de uma variável aleatória ou
de seus parâmetros e momentos está sujeita à chamada incerteza estatística. Quando a média, por exemplo,
de uma variável é determinada a partir de uma amostra, a variância do resultado corresponde a uma incerteza
estatística nesta média. Se o número de amostras é pequeno, não pode ser aumentado e a variável é de grande
importância para o problema, então a própria média da distribuição pode ser representada como uma variável
aleatória. Isto vale também para qualquer outro momento ou parâmetro de distribuição.
Quando inferimos um modelo de distribuição para uma variável aleatória com base em um histograma (e.g.:
“tal variável segue uma distribuição normal!”), o fazemos através de um teste de hipótese, que revela que tal
a rmação só é verdadeira com determinado nível de probabilidade. Isto tambem dá origem a uma incerteza
estatística.
A incerteza de medição, que tem sua origem na imperfeição ou na faixa de erro do instrumento de medição
utilizado, também pode ser classi cada como uma incerteza estatística. A incerteza de medição pode ser
incorporada na incerteza da variável medida.
1.1. CLASSIFICAÇÃO DE INCERTEZAS 3

Incerteza de decisão

A incerteza de decisão está relacionada com a de nição sobre se determinado evento ocorreu ou não. O conceito
de estados limites, por exemplo, implica em escrever uma equação de estado limite que estabelece uma fronteira
discreta, tipo on/o¤, entre os estados de sobrevivência e de falha. No entanto, a realidade de engenharia
de estruturas mostra que, muitas vezes, esta transição é gradual, ou ocorre em uma determinada faixa de
parâmetros. Como exemplos, temos as deformações limites para os estádios do concreto, e falhas de serviço do
concreto com base em abertura de ssuras. Outras vezes, falhas estruturais são de nidas de maneira indireta.
Na análise sísmica, por exemplo, estados limites de ssuração e de danos em alvenarias de fechamento, e até
de colapso, são de nidos em termos de deslocamentos relativos entre pavimentos (interstory drift). A de nição
indireta de modos de falha contribui para a incerteza quanto à ocorrência ou não da falha.

Incerteza de modelo

Incertezas de modelo tem sua origem na representação do comportamento estrutural através de modelos simpli-
cados. Quando determinamos a resistência de um elemento de concreto armado em função das resistências do
aço, do concreto, e das dimensões do elemento, introduzimos um erro de modelo. A incerteza de modelo pode
ser representada através de uma variável aleatória, e sua distribuição de probabilidades pode ser determinada,
por exemplo, realizando comparações entre ensaios experimentais e a resistência determinada via modelo. A
incerteza de modelos usuais em engenharia de estruturas é discutida na Seção 2.3.5.

Incerteza fenomenológica

A incerteza fenomenológica se refere ao conhecimento incompleto dos fenômenos envolvidos na sobrevivência de


uma estrutura. Em particular, se manifesta quando falhas estruturais ocorrem devido a fenômeno ou modo de
falha não imaginados pelo projetista. Estruturas que desa am o estado da arte são particularmente vulneráveis
a este tipo de incerteza. A incerteza fenomenológica guarda grande semelhança com os “unkown unkowns” de
Rumsfeld (2011) e com os cisnes negros de Taleb (2010).
A história da Engenharia de Estruturas está repleta de exemplos que ilustram o que entendemos por incerteza
fenomenológica (Petroski, 1992, 2006, 2012). Um grande exemplo é a falha por fadiga de metais. Este problema
surgiu na popularização do uso do ferro como material estrutural, durante a revolução industrial (circa, 1760-
1840). A experiência acumulada até então envolvia basicamente o uso de pedra e madeira. O arco romano,
utilizado desde os primórdios da civilização moderna para construir viadutos e catedrais, funciona basicamente
em compressão. Já a madeira está sujeita a diversos processos naturais de envelhecimento, o que provavelmente
prejudicou a identi cação de processos de fadiga, tal como conhecemos hoje.
Entre tantas inovações, a revolução industrial trouxe o uso generalizado dos ferros fundido e forjado na
fabricação de máquinas e equipamentos, bem como em grandes estruturas (prédios, grandes vãos, pontes, etc.).
Em particular, o ferro passou a ser utilizado em larga escala na fabricação de trens e de uma efervescente malha
ferroviária (trilhos, pontes, etc.). A combinação de tensões de tração com cargas dinâmicas se revelou desastrosa
para rodas, eixos, trilhos e pontes ferroviárias construídos em ferro. Acidentes eram frequentes e dramáticos,
muitos deles de grandes proporções. Entre inúmeros acidentes, um dos mais dramáticos foi o descarrilamento
ocorrido na França, em 1842, durante as comemorações do aniversário do Rei Louis Philippe, e que vitimou
fatalmente 56 pessoas. A causa do acidente foi a ruptura frágil do eixo da locomotiva principal.
A falha por ruptura frágil da ponte ferroviária sobre o rio Dee em Chester, Inglaterra (1847) foi atribuída,
muitos anos após o colapso, a trincas de fadiga originadas em um detalhe ornamental das vigas de ferro fundido.
O fenômeno de fadiga já era conhecido, mas os mecanismos de nucleação e propagação eram desconhecidos.
O primeiro uso do termo fadiga, para caracterizar a degradação da resistência de estruturas, é atribuído ao
engenheiro frances Jean-Victor Poncelet, em torno de 1839, mas de acordo com artigo publicado apenas em
1854. Em 1843 o engenheiro civil escocês William Rankine reconheceu que mudanças abruptas de geometria
contribuíam para a quebra de eixos ferroviários, em um primeiro passo em direção à compreensão do fenômeno.
4 INTRODUÇÃO A CONFIABILIDADE

Os efeitos de degradação da resistência de metais sob cargas dinâmicas passaram a ser amplamente conhecidos
apenas em meados do século 19. Engenheiros que construíram carreiras antes disto não estavam preparados
para lidar com o fenômeno.
Já em 1879, quando a Tay Bridge colapsou após menos de dois anos em serviço, o fenômeno da fadiga era
amplamente conhecido. A falha por fadiga das luvas, que acomodavam as transversinas das colunas da ponte,
deve ser classi cada como uma falha de projeto e de manutenção. No entanto, o ponto na linha do tempo a
partir do qual determinado fenômeno pode ser considerado como amplamente e/ou completamente conhecido
é discutível! Em particular porque falhas por fadiga continuaram, e continuam, ocorrendo; ainda que, às vezes,
de forma sorrateiramente distinta! Durante a segunda guerra mundial, mais de 200 navios Liberty sofreram
severas rupturas frágeis, incluindo a ruptura completa do casco em alguns casos. O SS John Gaines foi um
destes: afundou em novembro de 1943, em função de ruptura do casco. A causa é hoje completamente conhecida:
a fragilização do material, ou transição ductil-frágil, em função da redução da temperatura! Já o colapso da
ponte Silver Bridge em West Virginia, em 1967, foi atribuído a um “novo” tipo de fadiga: a fadiga induzida por
corrosão. A comissão encarregada de investigar as causas do acidente inocentou os projetistas porque, na época
da construção (circa 1920), os fenômenos de fadiga induzida por corrosão, e corrosão sob tensão, não eram
conhecidos. Contribuíram para a falha da cadeia de sustentação da ponte o fato de a trinca ter se originado em
um detalhe (barra de olhal) de difícil inspeção, ou seja, de “impossível” detecção com a tecnologia existente na
época. Também foi determinante para o colapso o fato da cadeia de sustentação ser formada por apenas duas
barras em paralelo1 .
As razões pelas quais as lições de 1842 e 1847, e tantas outras, não foram incorporadas ao projeto das
aeronaves de Havilland Comet, são uma grande incógnita. Quando começaram a despencar dos céus, em 1953
e 1954, as hipóteses foram de descargas elétricas (raios) até erros de piloto. Um engenheiro suspeitou de fadiga,
e com alguma insistência conseguiu que um teste de pressurização completo da fuselagem fosse realizado. Um
detalhe particular se mostrou altamente relevante: os testes foram realizados com água, e não com ar! Fossem
realizados com ar, a despressurização explosiva teria espalhado pedaços da fuselagem para todos os lados,
como nas falhas em serviço, di cultando a identi cação da origem exata do problema. A despressurização
controlada devido ao vazamento da agua interrompeu a propagação das trincas de fadiga, permitindo identi car
precisamente sua origem, nos cantos vivos das janelas quadradas... A concentração de tensões nos cantos
vivos das janelas dos Comets foi a mesma que causou o colapso da ponte sobre o Dee (1847), e identi cada
por Rankine em 1843! A compreensão completa do fenômeno resultou em janelas arredondadas, nas gerações
seguintes dos Comets. Ao longo dos anos, a compreensão do fenômeno também resultou nas melhorias de
projeto que permitiram falhas seguras (não-catastró cas) dos Boeings da Aloha (1988) e da Southwest Airlines
(2011). É a con rmação de teorias sobre as causas de falha que permitem que desastres se tornem lições, e que
o conhecimento seja incorporado a novos projetos (Petroski, 2012).

Outro exemplo clássico de incerteza fenomenológica foi o colapso espetacular, captado em video, da ponte
Tacoma Narrows (EUA), em 1940. Quando começou a ser projetada, em 1929, e com vão suspenso de 853
metros, esta ponte representava um avanço de apenas 16% em relação ao maior vão suspenso existente na data
(ponte Ambassador, entre Detroit e Windsor, com 560 metros de vão livre). Outros projetos mais arrojados
já estavam em fase de conclusão ou de construção: a ponte George Washington, inaugurada em 1931 com vão
livre de 1067 metros (90% maior que Ambassador); e a icônica ponte Golden Gate, inaugurada em 1937, com
vão livre de 1280 metros (avanço de 20% em relação a George Washington). O que tornava a Tacoma Narrows
única era a esbeltez de seu tabuleiro: ao invés de uma treliça aberta, como de suas irmãs, a Tacoma Narrows
possuia tabuleiro em viga de aço, formado por chapas soldadas. Por acomodar apenas duas vias de rodagem, o
tabuleiro também era muito estreito, em relação ao vão; e extremamente leve, com apenas 8,93 ton/m, contra
cerca de 47 ton/m das irmãs George Washington e Golden Gate. A razão de aspecto vão/profundidade usual
para tabuleiros suspensos, na época, era de 150; a ponte Tacoma chegou a 853/2, 44 = 350! Esta era a mesma

1 A ponte Hercílio Luz, em Florianópolis, é da mesma época e método construtivo, mas utiliza quatro barras em paralelo. A

ponte foi interditada em 1982, em função da descoberta de uma trinca com 5 cm de comprimento, em uma barra de olhal junto ao
pilar sul.
1.1. CLASSIFICAÇÃO DE INCERTEZAS 5

razão de aspecto do tabuleiro da ponte George Washington, que pesava cinco vezes mais. Já a razão de aspecto
vão/largura chegou a 853/11, 8 = 72; contra 33 da George Washington e 45 da Golden Gate. O tabuleiro da
Tacoma Narrows era extremamente ‡exível, característica que lhe rendeu o apelido de “Galloping Gertie”, nos
poucos meses em que operou. O deslocamento horizontal, calculado para um vento extremo de 145 km/h (40,2
m/s), chegou a 6,1 metros no centro do vão; valor considerado aceitável pelos projetistas.
A enorme esbeltez do tabuleiro, que resultou em uma ponte de aspecto elegante e moderno, não era um
problema estrutural, segundo os projetistas. No entanto, as consequências desta esbeltez extraordinária não
foram bem apreciadas, como se veri cou! A Tacoma Narrows entrou em território desconhecido, em
termos da esbeltez de um tabuleiro suspenso!
Em 7 de novembro de 1940, apenas quatro meses depois de inaugurada, e sob ação de um vento de apenas
67,7 km/h (menos da metade do vento extremo de projeto), o tabuleiro começou a oscilar de forma acentuada,
primeiro em movimentos verticais, depois em movimento torcional em torno do eixo longitudinal. Aparente-
mente, tal mudança de movimento foi provocada pelo surgimento de folga em um dos cabos de sustentação,
próximo ao centro do vão; o que provocou uma assimetria nas forças de suporte do tabuleiro. O movimento
torcional aumentou em amplitude, até provocar o completo colapso do tabuleiro. Confrontados com a falha
vergonhosa, os projetistas não souberam explicar o ocorrido! O caso tornou-se objeto de debate por algumas
décadas, dividindo engenheiros e físicos (Petroski, 2012). Em inúmeros estudos e publicações que se seguiram ao
desastre, o mesmo foi atribuído a um simples problema de ressonância. Estava claro se tratar de um problema
de vibrações forçadas provocadas pelo movimento aleatório e turbulento do vento, ou de excitação aerodinâmi-
ca, mas o mecanismo exato que provocou as oscilações não foi completamente compreendido ou explicado até
1991 (Billah & Scanlan, 1991). Segundo os autores, o que ocorreu foi um fenômeno de excitação ou palpitação
(‡utter) devido à formação de vórtices complexos (Von Kármán). Estes vórtices se formaram na esteira de
escoamento, provocados pelo movimento torcional do tabuleiro. Como tinham a mesma frequência da vibração
torcional, estes vórtices retro-alimentaram o processo, levando a oscilações crescentes, e ultimamente ao colapso
do tabuleiro.
Detalhes técnicos a parte, este é um exemplo de incerteza fenomenológica porque, na época, efeitos de
excitação dinâmica provocados pelo vento, e efeitos de interação ‡uido-estrutura, não eram considerados no
projeto de pontes! Por este motivo, os projetistas foram inocentados de imperícia ou erro grave pela comissão
que investigou as causas do acidente.

Outro exemplo mais recente de incerteza fenomenológica provocando o colapso de uma grande estrutura
foi a queda dos prédios do World Trade Center, nos ataques terroristas de 11 de setembro de 2001. As torres
gêmeas haviam sido projetadas para resistir ao impacto de pequenas aeronaves (monomotores, helicópteros,
etc.), e de fato resistiram ao impacto de enormes aviões comerciais. As torres também haviam sido projetadas
para resistir às temperaturas e duração de incêndios típicos de escritório, tendo como combustível divisórias,
móveis, papéis, etc. A falha estrutural das torres pode ser atribuída ao incêndio de proporções inimagináveis
(aos projetistas), alimentado por milhares de litros de querosene de aviação. O aumento de temperatura e a
duração do incêndio foram signi cativamente maiores do que no incêndio “de projeto”, o que eventualmente
levou à ruptura da ligação metálica entre as lajes de concreto e a estrutura metálica externa. Sem o suporte
lateral fornecido por estas ligações, as colunas metálicas aquecidas falharam por instabilidade, provocando o
colapso progressivo dos andares inferiores.
Devido ao seu carácter inimaginável, não há formas convencionais de incluir incertezas fenomenológicas em
análise. A manifestação de incertezas fenomenológicas é geralmente um fenômeno de grande impacto, tanto
em termos do desastre em si, como em termos da obviedade do fenômeno, quando analisado pós-factum. O
fenômeno tem forte semelhança com o conhecido efeito cisne negro ou black swan (Taleb, 2010).

1.1.3 Erro humano


A história dos grandes desastres estruturais também está repleta de exemplos de falhas humanas (Petroski, 2012).
Estas incluem erros de projeto (passarela suspensa do hotel Hyatt Regency, 1981; viaduto de Belo Horizonte,
6 INTRODUÇÃO A CONFIABILIDADE

2014), erros na veri cação de projetos, erros de execução ou construção (plataforma Alexander Kielland, 1980),
problemas de operação (inúmeros acidentes com guindastes-torre em construção civil; sonda Deepwater Horizon,
2010), problemas de inspeção e manutenção (plataforma P-36, 2001), e desastres provocados por falhas no alto
gerenciamento das instituições (Challenger Space Shuttle, 1986; Columbia Space Shuttle, 2003; sonda Deepwater
Horizon, 2010).
A ação direta ou indireta do homem, que por imprudência, imperícia ou negligência afeta de maneira in-
desejável o desempenho ou a segurança de sistemas de engenharia, é chamada de erro humano. Em geral, a
falha humana é apenas um dos elementos na sequência de eventos que levam à ocorrência de grandes acidentes.
Erros humanos possuem um carácter de imprevisibilidade, e são difíceis de representar através de modelos. No
entanto, existem estatísticas conhecidas da taxas de falha de humanos na realização de tarefas repetitivas e
especí cas. É amplamente reconhecido que erros humanos podem ser reduzidos através de atividades motiva-
cionais, treinamento e educação. Literatura especí ca pode ser consultada para maiores informações (Dhillon,
1986, 2009; Kirwan, 1994; Stewart & Melchers, 1998; McLeod, 2015).

1.1.4 Precisão £ acurácia, erro aleatório £ erro sistemático


Ao classi car tipos de incerteza, convém fazer a distinção entre precisão e acurácia. A distinção é relevante na
área de metrologia, mas também para avaliar modelos de cálculo de engenharia. Uma representação grá ca é
apresentada na Figura 1-1.
A precisão (precision em inglês) corresponde ao erro aleatório, ou à dispersão das medidas em torno de sua
média. A acurácia ou exatidão (accuracy em inglês) corresponde ao erro sistemático, ou viés do instrumento
de medição. Quanto menor o viés ou erro sistemático, mas próxima a média das medidas estará da grandeza
verdadeira. Um bom equipamento de medida deve ter precisão e acurácia. Um bom modelo de engenharia deve
ter pequenos erros sistemático e aleatório.

1.2 ELEMENTOS DE CONFIABILIDADE

1.2.1 Con abilidade: de nição


A con abilidade de um produto, componente, ou sistema de engenharia pode ser de nida como:

“Con abilidade (R) de um sistema é a probabilidade de que este sistema não falhe, dentro de uma
vida de projeto especi cada, respeitadas as condições de operação e de projeto do mesmo”.

Em termos gerais, con abilidade é o complemento da probabilidade de falha:

“Probabilidade de falha (pf ) é a probabilidade do sistema falhar, não atendendo às especi cações de
projeto, dentro de uma vida de projeto especi cada, mesmo respeitadas as condições de operação e
de projeto do sistema”.

Há diversos elementos nas de nições acima. A con abilidade não pode ser garantida inde nidamente. A
con abilidade não pode ser garantida independentemente das condições de utilização do produto ou sistema.
A con abilidade é garantida a partir de modelos, cálculos e testes realizados para a chamada vida de projeto,
1.2. ELEMENTOS DE CONFIABILIDADE 7

Figura 1-1: Distinção entre precisão e acurácia, erro aleatório e erro sistemático.

e considerando determinadas condições de utilização, ou condições de projeto. Se o sistema é utilizado em


condições mais severas do que aquelas consideradas em projeto ou em testes, não terá a con abilidade desejada.
Por exemplo, se um veículo convencional é utilizado em condições “o¤-road”, a durabilidade e con abilidade não
serão aquelas planejadas em projeto. Alguns sistemas de engenharia são especialmente sensíveis às condições
de projeto. Uma aeronave comercial difícilmente sobreviverá ao ser submetida ao espectro de carregamentos
de um caça militar. Um veículo de Fórmula 1 não sobrevive aos buracos e irregularidades de piso de ruas ou
estradas convencionais.
A vida útil de um componente ou sistema pode ser muito maior do que a vida de projeto. A vida de projeto é
aquela para a qual a con abilidade é, inicialmente, calculada. Em função do envelhecimento (corrosão, desgaste,
fadiga, etc), quando a vida útil do sistema ultrapassa a vida de projeto, a con abilidade do mesmo é, em geral,
reduzida. Por outro lado, como o sistema já foi “testado” durante a vida de projeto, é até possível que sua
con abilidade seja maior do que aquela de projeto2 . Alguns sistemas podem ser utilizados inde nidamente,
ainda que sob condições de con abilidade desconhecidas. Em geral, ao se aproximar o nal da vida de projeto,
convém avaliar a condição do sistema. Esta avaliação, juntamente com eventuais operações de inspeção e
manutenção, podem garantir a con abilidade do sistema para um período de vida extendida. Para esta vida
extendida, vale a de nição de con abilidade acima, trocada a palavra “projeto” por “re-projeto”, ou similar.
Não menos importante na de nição acima é o conceito de probabilidades a ser utilizado. Para produtos
ou componentes mecânicos ou elétricos com produção em massa, falhas são idealmente raras mas ainda assim,
observáveis. Para estes produtos, a probabilidade de falhas se confunde com a taxa de falhas, determinada

2 A utilização do sistema remove algumas incertezas existentes em projeto; logo, é possível ocorrer o aumento da con abilidade.

Um exemplo típico é a remoção dos componentes defeituosos. A vida de pro jeto serve como teste para remover os componentes
defeituosos; a con abilidade dos componentes restantes, ao nal da vida de projeto, é maior do que aquela prevista para a população
inicial.
8 INTRODUÇÃO A CONFIABILIDADE

Figura 1-2: Domínio de falha para o problema R ¡ S.

em relação à população total de componentes em produção ou em operação. Para este tipo de produto, a
interpretação frequentista de probabilidades pode ser utilizada (Apêndice A, Eq. A.1). Já a con abilidade
das estruturas, tema deste livro, se aplica a estruturas únicas como prédios, pontes, torres, barragens, túneis,
etc. Para tais estruturas, a con abilidade deve ser compreendida como uma medida subjetiva, como grau
de con ança na capacidade da estrutura em desempenhar suas funções (veja Seção A.1.1). A de nição de
Con abilidade Estrutural será retomada na Seção 2.2.

1.2.2 Problema fundamental de con abilidade


O problema fundamental de con abilidade pode ser posto como: determinar a probabilidade de que a demanda
(D) sobre um sistema seja maior do que a capacidade (C) do mesmo, ou probabilidade de falha (pf ). Este
problema é colocado de forma totalmente genérica: o sistema em questão pode ser um produto, um componente,
um elemento estrutural, uma estrutura, ou mesmo um sistema produtivo, de prestação de serviços ou ambiental.
Como exemplos, podemos citar: a capacidade de uma máquina, e o número de componentes necessários; a
capacidade de um hospital, e o número de pacientes; a disponibilidade de alimento e o número de indivíduos de
uma população.
Neste texto, em preparação ao problema de con abilidade das estruturas, denotamos a capacidade como
resistência (R) e a demanda como solicitação (S). A função de densidade conjunta de probabilidades de R e
S, denotada por fRS (r, s), descreve a distribuição de probabilidades destas variáveis no espaço bi-dimensional
R £ S (Seção A.4). A interpretação de R e S segue sendo a mais genérica possível.
A probabilidade de falha de um componente ou elemento é dada pela probabilidade de que a solicitação (S)
seja maior do que a resistência (R):

pf = P [fS ¸ Rg]
Z
= fRS (r, s)drds, (1.1)
­f

sendo ­f o chamado domínio de falha: ­f = f(r, s)jr · sg.Conforme ilustrado na Figura (1-2), o domínio de
falha ­f é limitado pela equação r = s, de forma que:
Z +1 Z s
pf = fRS (r, s)drds.
¡1 ¡1
1.2. ELEMENTOS DE CONFIABILIDADE 9

Quando as variáveis R e S são estatísticamente independentes (Seção A.4.7), a função de densidade conjunta
de probabilidades é dada pelo produto das funções marginais (Equação A.60):

fRS (r, s) = fR (r)fS (s).


Neste caso, a probabilidade de falha ca:
Z +1 ·Z s ¸ Z 1
pf = fS (s) fR (r)dr ds = fS (s)FR (s)ds, (1.2)
¡1 ¡1 ¡1

sendo:
fS (s) a função marginal de densidade de probabilidade da solicitação;
FR (r) a função marginal de distribuição cumulativa de probabilidades da resistência.
Portanto, a probabilidade de falha vem a ser a área sob a curva fS (s)FR (s). Esta área é proporcional (mas
não idêntica) à area de interferência entre as distribuições de R e S, conforme Figura (1-3). Por esta semelhança,
este problema é também conhecido na literatura como o problema de interferência entre populações.
A Figura (1-3) ilustra dois casos de interferência entre distribuições: interferência menor à esquerda e maior
à direita. Observamos as distribuições de probabilidade acima e o produto fS (s)FR (s) abaixo. Da esquerda
para a direita, na gura, podemos observar que ocorre uma maior sobreposição das curvas de densidade de
probabilidade, que são acompanhadas por uma maior área do produto fS (s)FR (s), ou seja, maior probabili-
dade de falha. Observamos ainda que este aumento não é diretamente proporcional: um aumento modesto na
sobreposição das funções de densidade causa um grande aumento na probabilidade de falha.
Na Figura (1-3) podemos observar ainda dois procedimentos que podem ser adotados em projeto para
diminuir a probabilidade de interferência entre as distribuições, ou seja, para diminuir a probabilidade de falha.
Podemos afastar as médias ou diminuir os desvio-padrão das variáveis R e S. No projeto de estruturas, afastar
as médias corresponte aproximadamente a aumentar os coe cientes de segurança. Diminuir o desvio-padrão da
resistência implica em aumentar o controle de qualidade sobre o processo produtivo dos materiais, e aumentar
o controle dimensional no processo produtivo dos elementos estruturais. Diminuir ou controlar o desvio-padrão
da solicitação é mais difícil e implica, por exemplo, na imposição de limites de carga para estradas, pontes e
elevadores.
Integrando a Eq. (1.2) primeiramente em relação a S, obtemos um resultado equivalente:
Z +1 ·Z 1 ¸ Z 1
pf = fR (r) fS (s)ds dr = fR (r)[1 ¡ FS (r)]dr, (1.3)
¡1 r ¡1

sendo:
fR (r) a função marginal de densidade de probabilidade da resistência;
FS (s) a função marginal de distribuição cumulativa de probabilidades da solicitação.

Solução do problema fundamental para R e S variáveis aleatórias normais

O problema fundamental de con abilidade pode ser resolvido a partir da variável margem de segurança (M ):

M = R ¡ S. (1.4)
Valores negativos da margem de segurança correspondem à falha, enquanto valores positivos indicam sobrevivên-
cia. Um valor nulo da margem de segurança corresponde à situação limite. Se R e S são variáveis aleatórias,
M será também uma variável aleatória. Podemos calcular a probabilidade de falha a partir de M :
10 INTRODUÇÃO A CONFIABILIDADE

Figura 1-3: Problema fundamental de con abilidade (interferência entre populações).

Z 0
pf = P [fM · 0g] = fM (m)dm = FM (0). (1.5)
¡1

Esta probabilidade é ilustrada na Figura (1-4).


Se R e S são variáveis aleatórias normais e independentes, o problema tem solução analítica. Como a Eq.
(1.4) é linear em duas variáveis aleatórias normais, M também tem distribuição normal (Teorema 37, pg. 377),
e os parâmetros de M são calculados como:

µM = µR ¡ µS ,
q
σM = σ2R + σ2S . (1.6)

A variável M pode ser transformada em uma variável normal padrão Y (adimensional, com média nula e
desvio-padrão unitário), através da transformação de Hasofer-Lind (pg. 370):

M ¡ µM
Y = . (1.7)
σM

Esta transformação permite avaliar probabilidades associadas à variável M através da função de distribuição
cumulativa normal padrão ©(.) (veja Eq. A.41 e Apêndice E). A probabilidade de falha resulta:
1.2. ELEMENTOS DE CONFIABILIDADE 11

Figura 1-4: Probabilidade de falha em função da margem de segurança.

pf = P [fM · 0g]
· ¸
µ
= P fY · ¡ M g
σM
µ ¶
µM
= © ¡ . (1.8)
σM

Na variável adimensional Y obtemos uma medida geométrica da probabilidade de falha, que corresponde à
distância entre o ponto m = 0 e a origem (média) da distribuição de Y, conforme Figura (1-5). Esta medida é
chamada de índice de con abilidade, representada pela letra grega β (beta) e dada pela razão µσM
M
:

µM µ ¡ µS
β´ = p R2 . (1.9)
σM σR + σ 2S

Incorporando os resultados anteriores, obtemos:


µ ¶
µ
pf = © ¡ M = © (¡β) . (1.10)
σM

Nesta expressão, podemos observar que o índice de con abilidade β está diretamente relacionado à pro-
babilidade de falha. O índice de con abilidade β é de extrema importância na con abilidade estrutural. Os
resultados aqui apresentados serão amplamente utilizado nos próximos capítulos, pois permitem obter a solução
de problemas envolvendo um número qualquer de variáveis aleatórias.
O índice de con abilidade de nido na Eq. (1.9) é conhecido como índice de con abilidade de Cornell (Cornell,
1969). A Eq. (1.9) é estritamente válida apenas para variáveis aleatórias R e S normais e independentes, e
margem de segurança linear.
12 INTRODUÇÃO A CONFIABILIDADE

Figura 1-5: Probabilidade de falha em termos da variável normal padrão Y .

Problema fundamental de con abilidade para R e S log-normais

Uma solução analítica semelhante à Eq. (1.9), é obtida para o caso em que as variáveis aleatórias R e S são
independentes e tem distribuição log-normal. Seja R » LN(λR , ξ R ) e S » LN (λS , ξ S ). Neste caso, convém
escrever uma equação equivalente à margem de segurança como:
R
Z= . (1.11)
S

Tomando o logaritmo de ambos os lados da expressão, obtemos:

ln(Z) = M = ln(R) ¡ ln(S).

Como R e S tem distribuição log-normal, resulta que ln(R) e ln(S) tem distribuição normal (veja q
Seção A.3.2
e Exemplo 31). Logo, M também tem distribuição normal, com parâmetros M » N (λR ¡ λS , ξ 2R + ξ 2S ).
Portanto, de maneira semelhante à Eq. (1.9), o índice de con abilidade é obtido como:

λR ¡ λS
β=q .
ξ 2R + ξ 2S

Utilizando as relações entre distribuição normal e log-normal (Eq. A.43), podemos mostrar que este resultado
ca: µ r ¶
1+δ 2
ln µµR 1+δ 2S
S R
β=q ,
ln((1 + δ 2R )(1 + δ 2S ))
sendo δ = σ/µ o coe ciente de variação. Quando os coe cientes de variação são pequenos (δ R , δ S < 0, 3), este
resultado se simpli ca para (Rosenbleuth e Esteva, 1972):
³ ´
ln µµR
S
β=q . (1.12)
δ R + δ 2S
2
1.3. FALHAS QUE OCORREM AO LONGO DO TEMPO 13

Figura 1-6: Realização do processo S(t), mostrando visitas às barreiras r = 2 e r = 2, 69. Distribuições de
ponto arbitrário e de valores extremos a esquerda.

1.3 FALHAS QUE OCORREM AO LONGO DO TEMPO

1.3.1 Processos estocásticos e eventos extremos


O problema de con abilidade fundamental ilustra vários aspectos essenciais, mas não representa situações em
que capacidade e demanda variam com o tempo. A Figura 1-6 ilustra um problema típico de falhas que ocorrem
ao longo do tempo: um processo (estocástico) S(t), que cruza uma barreira r. Este processo pode representar
a ‡utuação de corrente elétrica em um circuíto eletrônico, a solicitação dinâmica na suspensão de um veículo,
o nível de um rio ou a velocidade do vento que atinge uma estrutura. A barreira ou resistência r corresponde
ao limite que o processo S(t) pode atingir sem provocar falhas, ou o nível crítico do processo. Logo, a barreira
pode representar a corrente elétrica limite para queima de um disjuntor, a resistência da barra da suspensão, a
altura da barragem que protege uma cidade das cheias do rio, ou a velocidade de vento que provoca o colapso
da estrutura. Quando S(t) ¸ r, admitimos que ocorre falha do sistema.
No estudo de processos estocásticos, dizemos que o processo S(t) visita o nível r, toda vez que S(t) cruza
r de baixo para cima. A visita só acaba quando S(t) cruza r de cima para baixo, podendo ocorrer, então,
nova visita. A Figura 1-6 representa uma realização de um processo S(t) que tem média zero e desvio-padrão
unitário (S(t) » N (0, 1)). A Figura ilustra também duas barreiras, r = 2 em linha contínua, r = 2, 69 em
linha tracejada. Percebemos na gura que as visitas ao nível r = 2 são mais frequentes do que as visitas ao
nível r = 2, 69. É intuitivo observar que, quanto mais elevada a barreira, mais raras são as visitas. Este é um
comportamento típico de eventos extremos, resultantes de processos estocásticos.
O leitor que tenha visitado cidade sujeita a inundações ocasionais por transbordamento de rios pode ter
observado marcações, como as da Figura 1-7, que registram o nível da cheia do rio e o ano correspondente. A
cidade de Blumenau, em Santa Catarina, é um exemplo. Estatísticamente, quanto mais elevada é a cheia, ou
quanto mais extrema a resposta do processo, mais longe no passado estará a marcação correspondente. É claro
que o leitor pode ser azarado, e a cheia de 100 anos pode ocorrer justamente quando ele estiver fazendo a visita,
ou pode ter ocorrido no ano anterior, a título de contra-exemplo. A nal, trata-se de um processo aleatório.
O processo de cheias de um rio é típico para ilustrar a relação entre eventos extremos e sua frequência de
ocorrência. Quanto mais extremo o evento, mais raras as ocorrências. Considere a Figura 1-6 como ilustração.
O processo S(t) corresponde ao nível do rio, e as barreiras correspondem a duas opções de altura da barragem
a ser construída para proteger a cidade. A gura mostra uma realização do processo, com duração de 50
anos. Uma barragem construída com altura de 2 metros teria permitido a inundação da cidade cinco vezes
no período de 50 anos. Uma barragem de 2, 69 metros não teria permitido nenhuma inundação. Os números
acima referem-se a uma única realização do processo, que não é conhecida antes da construção da barragem. No
entanto, a natureza do processo permite a rmar que para uma barragem de 2, 69 metros as falhas serão menos
frequentes do que para uma barragem de 2 metros. A representação matemática do processo permite calcular
as frequências relativas e as probabilidades envolvidas.
14 INTRODUÇÃO A CONFIABILIDADE

Figura 1-7: Registros históricos dos níveis de cheia de rios: eventos extremos tendem a estar mais distantes no
passado.
1.3. FALHAS QUE OCORREM AO LONGO DO TEMPO 15

1.3.2 Taxa de falhas constante e tempo entre falhas


No estudo de processos estocásticos, a frequência com a qual um processo S(t) cruza uma barreira r de baixo
para cima é chamada de taxa de ultrapassagens de barreira, ou up-crossing rate, representada por υ+ (r). Neste
material, vamos chamá-la de taxa de falhas, sempre que S(t) ¸ r caracterizar a falha do componente ou do
sistema.
Observando as visitas do processo S(t) à barreira r = 2, na Figura 1-6, veri camos que o tempo entre as
visitas, ou o tempo entre falhas, varia de forma aleatória. De fato, para cada nível de barreira r, o tempo entre
falhas T (r) é uma variável aleatória. O assim chamado período médio de retorno é o valor esperado de T (r).
Intuitivamente, constatamos que o período médio de retorno é o inverso da frequência de visitas:
1
µT (r) = E[T (r)] = .
υ + (r)

Medindo o tempo entre visitas para um longo registro, ou para visitas frequentes, podemos obter um conjunto
de observações a partir das quais as estatísticas da variável aleatória T (r) podem ser determinadas. É claro que
tal determinação supõe que a frequência e a duração das visitas não mude ao longo do tempo.
Dizemos que o processo S(t) é estacionário no tempo quando suas estatísticas (média, desvio-padrão, dis-
tribuição de probabilidades, taxa de passagens υ+ (r), etc.) não mudam ao longo do tempo. Intuitivamente, se
o processo é estacionário e a barreira r é constante, então a taxa de falhas e o tempo entre falhas podem ser
determinados a partir de um registro su cientemente longo, que gere um número signi cativo de observações.
Na Figura 1-6 podemos veri car que o processo S(t) visitou a barreira r = 2 cinco vezes em cinquenta anos.
Com base neste registro, podemos inferir a taxa de falhas υ + (2) ¼ 5/50 = 0, 1. Portanto, o período médio de
retorno ao nível r = 2 é aproximadamente µT (2) ¼ 50/5 = 10 anos. O valor exato para o processo em questão
e para o nível r = 2 , é µT (2) = 9, 933. Como as visitas ao nível r = 2 são frequentes, foi possível obter uma
boa estimativa para µT (2) com base em um único registro do processo S(t). Veri camos na Figura 1-6 que o
mesmo não pode ser dito para a barreira r = 2, 69. Para determinar as estatísticas de visita ao nível r = 2, 69
precisaríamos de um registro muito mais longo, ou da observação de vários registros com duração de 50 anos,
como ilustrado na Figura 1-8.

1.3.3 Valor nominal de ações variáveis e distribuição de valores extremos


Veri camos na discussão acima que existe uma relação fundamental entre o nível da barreira r e a frequência
υ + (r) de visitas do processo à mesma. Quanto mais elevada a barreira, mais raras as visitas, e maior o período
médio de retorno. A Figura 1-9 ilustra a relação entre o nível da barreira r e o período médio de retorno
µT (r) = 1/υ + (r), para o mesmo processo ilustrado nas Figuras 1-6 e 1-8. Quanto mais elevada a barreira,
maior o período médio de retorno.
Em engenharia de estruturas, lidamos com ações como vento, ondas, terremotos, que são processos estocás-
ticos. Uma questão fundamental é determinar qual o valor nominal das ações (sn ), a ser utilizado nos cálculos
de dimensionamento. Olhando para as Figuras 1-6 e 1-9, ca claro que a escolha do valor nominal de uma
ação é um compromisso entre valores baixos, com elevada probabilidade de ocorrência, e valores elevados, com
baixa probabilidade de ocorrência durante a vida (de projeto) da estrutura. Uma forma simples de resolver este
compromisso (mas não a única) é determinar o valor nominal para um período médio de retorno compatível
com a vida de projeto da estrutura. Para uma estrutura com vida de projeto de 50 anos, poderíamos utilizar a
ação nominal (s100 ) correspondente a um período médio de retorno de 100 anos, por exemplo. De forma conven-
cional3 , utilizamos o período de retorno igual a vida de projeto. Utilizando esta convenção, a ação nominal para
projetar uma estrutura com vida de projeto de 50 anos corresponde ao período de retorno de 50 anos. A Figura
1-9 ilustra o valor nominal (sn ) da ação correspondente ao período de retorno de 50 anos: s50 = 2, 69 unidades,

3 Trata-se de uma convenção, o que nem sempre é o caso. Nos Estados Unidos, por exemplo, estruturas são pro jetadas para vida

de 50 anos com o terremoto correspondente a 480 anos.


16 INTRODUÇÃO A CONFIABILIDADE

Figura 1-8: Realizações do processo S(t), mostrando visitas à barreira r = 2, 69 e valores extremos em cada
realização.
1.3. FALHAS QUE OCORREM AO LONGO DO TEMPO 17

Figura 1-9: Período médio de retorno µT (r) em função do nível r da barreira.

para este exemplo didático (lembrando que a ação S(t) tem valor médio nulo e desvio padrão unitário). Este
valor corresponde à barreira mais elevada ilustrada na Figura 1-6.
Uma vez xado o período para o qual a ação nominal é determinada (50 anos, neste exemplo), convém
olhar para diversas realizações do processo S(t), todas com duração igual a 50 anos. A Figura 1-8 ilustra cinco
realizações deste processo. Na gura, para cada realização, foi identi cado o tempo em que ocorre o maior valor
da ação, e o valor máximo correspondente. Coletando os máximos valores observados em várias realizações
do processo, sempre para um tempo total xo em 50 anos, podemos determinar a distribuição de extremos de
50 anos do processo (Seção A.7). Para o exemplo em questão, esta distribuição está ilustrada na Figura 1-6,
à esquerda, em linha contínua, identi cada como f50 (s). Para efeito de comparação, também é ilustrada na
mesma gura, em linha tracejada, a distribuição de ponto arbitrário fS (s)4 do processo S(t). Intuitivamente,
quanto maior o tempo de observação, maiores serão os máximos observados, e mais para cima se desloca a
distribuição de extremos correspondente.
Podemos demonstrar que a valor nominal da ação (s50 = 2, 69 no exemplo) corresponde à moda, ou valor
mais provável, da distribuição de extremos f50 (s). O valor nominal também é chamado de máximo característico
da distribuição. O número esperado de vezes que o máximo característico sn é observado no período médio
de retorno n é igual a um. Nas Figuras 1-6 e 1-8 observamos que o processo S(t) visitou o nível s50 = 2, 69
aproximadamente uma vez a cada realização.
Quando as visitas de barreira são raras, podem ser interpretadas como um processo de Poisson (Seção A.3.1).
Neste caso, a probabilidade de observar zero visitas dentro do período médio de retorno n é (Eq. A.34):

P [S < sn ] = exp[¡υ + (sn )µT (sn )] = exp[¡1] = 0, 368. (1.13)


Este resultado independe do período de retorno n, ou do nível da barreira r. Portanto, a probabilidade de se
observar pelo menos um valor maior ou igual a sn , dentro do período médio de retorno n, é:

P [S ¸ sn ] = 1 ¡ exp[¡1] = 0, 632. (1.14)

Esta probabilidade é bastante alta, o que signi ca que o valor nominal de projeto determinado para um período

4 Se observamos o processo S(t) para qualquer tempo t xo, ele segue a distribuição de ponto arbitrário (N (0, 1) no exemplo).
18 INTRODUÇÃO A CONFIABILIDADE

de retorno igual a vida de projeto da estrutura não é su cientemente conservador. Por conta disto, utilizamos
um coe ciente parcial de segurança (γ > 1), que determina o valor de projeto da ação, majorando o valor
nominal: sD = γsn , sendo o sub-índice ( )D para Design.
Em engenharia de estruturas, falhas ocorrem quando as ações atingem seus valores máximos. Portanto,
para realizar uma análise de con abilidade de estrutura projetada a partir de ação nominal sn , determinada a
partir do período de retorno n, precisamos necessariamente utilizar a distribuição de valores extremos fn (s) da
ação. Típicamente, distribuições de extremos são assimétricas, não-Gaussianas (Seção A.7.5); logo, a solução
fundamental da Eq. (1.10) não pode ser utilizada, pelo menos não diretamente. No Capítulo 3 vamos estudar
transformações que permitem aproveitar o resultado expresso na Eq. (1.10). Quando existe mais de uma ação
variável, soluções especiais são necessárias. Estas serão estudadas no Capítulo 6, em particular na Seção 6.7.
A princípio, a solução fundamental expressa na Eq. (1.2) poderia ser utilizada para resolver problema de
con abilidade das estruturas envolvendo a distribuição de extremos (não-Gaussiana) da ação. No entanto, a
resistência de um elemento estrutural, ou de uma estrutura, é em geral função de um grande número de variáveis
aleatórias. Converter um problema multi-dimensional na resistência em um problema escalar requer determinar
a distribuição de probabilidades da variável dependente, a resistência do elemento. Tal conversão implica em
aproximações desnecessárias, como veremos no Capítulo 3.

1.3.4 Taxa de falhas dependente da idade ou taxa de falhas instantânea


Considere a produção de um lote de componentes ou produtos nominalmente idênticos, que é colocado em
operação. Este lote pode ser formado por componentes eletro-eletrônicos, componentes mecânicos, partes de
máquinas, peças, etc, ou pode representar produtos de produção em massa como aparelhos eletro-eletrônicos,
máquinas ou veículos completos. Considere a variável aleatória tempo até a falha T , que descreve a vida do
lote de componentes. A vida de cada componente corresponde a uma realização desta variável. A amostragem
é feita com reposição: quando um componente falha, é substituído por outro, novo. A função de densidade de
probabilidades de T é fT (t), e a função cumulativa de distribuição de probabilidades é FT (t). A con abilidade
R(t) é dada por: R(t) = P [T > t] = 1 ¡ FT (t). A taxa de falhas instantânea ou condicional (hazard function,
age-speci c failure rate ou conditional failure rate), h(t), descreve a fração de componentes ou produtos que
deixam de funcionar em um instante t, em relação ao total de componentes colocados em operação. A taxa de
falhas instantânea é uma taxa condicional, que expressa a probabilidade de que uma falha ocorra no intervalo
(t, t + ¢t), dado que a falha não tenha ocorrido antes de t:

h(t) = lim P [ffalha entre t e t + ¢t dado não falha antes de tg]


¢t!0
P [ft · T · t + ¢tg]
= lim
¢t!0 1 ¡ P [fT · tg]
fT (t)
=
1 ¡ FT (t)
fT (t)
= . (1.15)
R(t)

Nesta expressão ca evidente que, quando FT (t) ¼ 0 ou R(t) ¼ 1, as funções fT (t) e h(t) se confundem. O
conhecimento de uma entre h(t), fT (t) e FT (t) é su ciente para determinar as outras duas. A taxa de falhas
instantânea h(t) pode ser utilizada para descrever falhas que ocorrem sob processos S(t) não-estacionários, ou
em problemas nos quais a barreira ou resistência muda ao longo do tempo.
A Figura 1-10 ilustra o comportamento típico da taxa de falhas h(t) de componentes mecânicos ou eletro-
eletrônicos. Observamos três fases distintas, identi cadas como falhas prematuras, falhas por chance e falhas
por envelhecimento. Na fase inicial, a taxa de falhas é elevada devido à falha dos componentes que possuem
1.3. FALHAS QUE OCORREM AO LONGO DO TEMPO 19

Figura 1-10: Curva da banheira, representando a taxa instantânea de falhas de componentes idênticos em
operação.

defeitos de fabricação. Com a reposição destes componentes, a taxa de falhas se estabiliza. Geralmente, esta
fase corresponde ao período de garantia do produto. A fase seguinte é de falhas por chance, na qual a taxa
de falhas é aproximadamente constante no tempo. Nesta fase as falhas ocorrem devido ao uso; por exemplo,
devido a uma sobrecarga. Nesta fase as falhas se comportam tal qual descrito na Seção 1.3.2. Na fase nal
da vida, a taxa de falhas aumenta novamente devido aos efeitos de envelhecimento (desgaste, corrosão, fadiga,
etc.). Devido ao formato típico, a curva ilustrada na Figura 1-10 é conhecida como “curva da banheira”. Na
Seção A.7.5 mostramos como a curva da banheira pode ser construída a partir da distribuição de Weibull.
A curva da banheira também descreve aproximadamente o comportamento da taxa de falhas de elementos
estruturais ou de estruturas. Na fase inicial, além das falhas por defeitos de fabricação ou de material, podem
ocorrer falhas especí cas da fase de construção (retirada prematura do escoramento, sobrecarga de construção,
etc.), e podem se manifestar falhas decorrentes de erros de projeto. As falhas por chance são aquelas caracteri-
zadas por uma sobrecarga durante a vida útil da estrutura. Na fase nal da vida, a resistência das estruturas é
reduzida por efeitos de envelhecimento como desgaste, perda de aderência do concreto, fraturamento, corrosão
ou fadiga. Nesta fase a taxa de falhas aumenta.
A Figura 1-11 mostra a taxa de mortalidade, em função da idade, da população Brasileira em 2015 (IBGE,
2015). Observamos que a taxa de mortalidade humana também segue o formato clássico da curva da banheira.
A fase inicial corresponde à mortalidade infantil. A taxa de mortalidade nesta idade depende diretamente das
condições de higiene e alimentação da população. A mortalidade nesta fase é signi cativamente maior em países
sub-desenvolvidos. Dos 2 aos 30 anos observamos uma taxa de mortalidade quase constante, mas com variações
características do comportamento humano. A mortalidade atinge um valor mínimo em torno dos 10 anos de
idade: superada a mortalidade infantil, observamos os efeitos da proteção dos pais. Na adolescência, em torno
de 14 a 20 anos, os lhos começam a sair de casa, e a mortalidade aumenta. A partir dos 40 anos temos um
aumento signi cativo e constante da mortalidade, provocada pelos efeitos do envelhecimento (problemas de
saúde em geral). Apenas a título de curiosidade, a Figura 1-11 também mostra a expectativa de sobrevida, em
função da idade, para os indivíduos que tinham aquela idade em 2015.
20 INTRODUÇÃO A CONFIABILIDADE

Figura 1-11: Taxa de mortalidade por idade e expectativa de vida por idade para população Brasileira. Fonte:
IBGE, 2015.

1.4 RISCOS: PROBABILIDADES E CONSEQUÊNCIAS


Na maior parte deste texto tratamos da avaliação de probabilidades de falha, a partir das quais se determinam
con abilidades. Probabilidades são números de difícil compreensão para muitos interlocutores do engenheiro.
Gestores com formação em administração, por exemplo, estão mais acostumados com o conceito de risco.
Proprietários, reguladores e até terceiros, por hipótese, também tem mais facilidade para compreender riscos do
que probabilidades. Para facilitar a interlocução com estes envolvidos, mas também para colocar o problema
um contexto mais amplo, abordamos nesta seção a de nição, classi cação e elementos de gestão de riscos.
Para um aprofundamento do tema, consulte Faber (2006).

1.4.1 Risco: de nição


Risco está associado a eventos negativos que podem ocorrer com maior ou menor frequência, ou com maior ou
menor probabilidade. O risco associado a determinado evento ou atividade E pode ser de nido como o produto
da probabilidade ou frequência de ocorrência do evento, por uma medida das consequências do evento:

risco[E] ´ P [ocorrência de E] £ M[consequências de E]. (1.16)


sendo P [.] uma medida de probabilidades e M [.] uma medida de consequências. Uma forma de medir conse-
quências é através de uma função de custos C[E], que leva a:

risco[E] = P [E] £ C[E],


sendo P [E] a probabilidade de ocorrência do evento E. Esta de nição independe do carácter do evento E; no
entanto, em geral a palavra risco está associada a eventos negativos ou indesejáveis. Um destes eventos pode ser
o evento falha (F ) do problema de con abilidade fundamental (Seção 1.2.2): F = fD ¸ Cg ou F = fS ¸ Rg, o
que leva ao risco associado à falha:

risco[F ] = pf £ cf , (1.17)
1.4. RISCOS: PROBABILIDADES E CONSEQUÊNCIAS 21

sendo cf o custo de falha. A quanti cação de custos de falha nem sempre é trivial, por exemplo quando a falha
envolve morte, danos físicos, ou impacto ambiental. Outras vezes o evento negativo é a própria medida das
consequências, como a morte, para o indivíduo envolvido. Um exemplo simples é o risco de um funcionário
envolvido em determinada atividade morrer devido a uma explosão. Seja:

probabilidade de morte por explosão = 0, 01 (uma morte em 100 explosões) e


frequência de explosões = 0, 10 explosões por ano.

O risco de morte por ano para funcionários envolvidos nesta atividade é:

risco[morte] = 0, 01 £ 0, 1
= 10¡3 mortes por ano.

Quando o risco é calculado de forma composta, como no exemplo acima, um dos elementos pode ser dado
como uma frequência relativa, mas todos os demais devem ser dados na forma de probabilidades, para que o
risco resultante seja dimensionalmente consistente.
Risco também pode ser de nido como probabilidade de dano. Em palavras:

“Risco é a chance (ou probabilidade) de um determinado nível de dano ocorrer durante um


período especí co ou associado à uma atividade especí ca.”

1.4.2 Classi cação e exemplos de riscos


Risco voluntário é aquele ao qual o sujeito se expõe voluntariamente, em geral para desfrutar de algum
benefício. Muitas vezes, esta exposição ao risco é feita sem uma correta avaliação do nível de risco envolvido.
Exemplos são: jogos de apostas, andar de motocicleta, investir no mercado de ações, praticar esportes radicais.

Risco involuntário é aquele imposto a um indivíduo ou grupo de indivíduos por atividades de terceiros,
portanto sem a opção do indivíduo. Exemplos são todos os tipos de atividades industriais perigosas, que expõe
tanto funcionários quanto a comunidade a riscos devido a vazamentos, explosões, incêndios, etc.

Risco individual é aquele que afeta um indivíduo em particular. Geralmente, é dado na forma de chance
de morte por ano por milhão de habitantes. A Tabela (1.1) mostra exemplos de risco individual, em atividades
diversas. O objetivo desta tabela é colocar os riscos em perspectiva e, em particular, compará-los aos riscos de
falha estrutural, abordados neste texto. Observamos na tabela que o risco de falha estrutural (0,1 morte por
milhão de habitantes, por ano; ou 10¡7 por habitante e por ano) é pelo menos uma ordem de grandeza menor
do que a maior parte dos outros riscos individuais para a população. Este é um nível de risco considerado
“históricamente aceitável”, e temos que trabalhar para continue assim (pequeno e aceitável). Observamos ainda
na tabela que há riscos voluntários muito maiores do que riscos involuntários para toda a população. Em geral,
as pessoas se submetem a riscos individuais voluntários em troca de algum benefício. Os benefícios são líquidos
e certos, os riscos apenas estatísticas...

Risco social está associado com incidentes onde um grande número de fatalidades pode ocorrer: e.g.,
atividades perigosas em zonas de grande densidade populacional. Risco social expressa a relação entre frequência
(probabilidade) de ocorrência de um evento e o número de pessoas potencialmente atingidas por este evento.
A Figura (1-12) ilustra riscos sociais relacionados a atividades de engenharia segundo Whitman (1984), apud
Aoki (2005), com destaque para atividades de geotecnia.
22 INTRODUÇÃO A CONFIABILIDADE

Tabela 1.1: Riscos individuais em várias atividades


Grupo Atividade Risco de morte
(por milhão e ano)
Fumo (20 cigarros por dia) 5000
Beber álcool 380
Riscos voluntários Alpinismo 2000
(média entre praticantes) Natação 50
Jogar futebol 30
Possuir arma de fogo 30
Mineração 300
Riscos por área Construção civil 150-440
de ocupação Indústria 40
Rodoviário 145
Riscos de transporte Ferroviário 30
(média entre viajantes) Aéreo 10
Morte por câncer 1800
Acidentes dentro de casa 110
Queda 60
Atropelamento 35
Homicídio 20
Envenenamento acidental 18
Riscos para toda Envenenamento por plantas ou animais 0,1
a população Acidentes com fogo 10
Eletrocução não-industrial 3
Queda de objetos 3
Uso terapêutico de drogas 2
Temporais ou enchentes 0,2
Eletrocução por raio 0,1
Falha estrutural 0,1
Queda de meteorito 0,001
1.4. RISCOS: PROBABILIDADES E CONSEQUÊNCIAS 23

Figura 1-12: Risco social em atividades de engenharia, adaptado de Whitman (1984) e Aoki (2005).
24 INTRODUÇÃO A CONFIABILIDADE

As Tabelas (1.2) e (1.3) mostram exemplos de riscos associados à atividades de transporte. A Tabela (1.2)
compara riscos associados aos diferentes modais de transportes. O transporte aéreo é frequentemente associado
a elevado nível de risco, talvez em função da grande comoção causada por acidentes com centenas de vítimas.
De fato, o risco por hora de exposição é maior do que para transporte rodoviário ou ferroviário. No entanto,
quando consideramos a exposição típica, ou a velocidade média, veri camos que o risco de morte no transporte
aéreo é menor, seja em mortalidade anual, ou na taxa de mortalidade por km viajado. Os valores indicados na
Tabela (1.2) são médias globais para toda a população de usuários destes modais de transporte.
A Tabela (1.3) quanti ca riscos associados ao transporte rodoviário no Brasil, para o ano de 2002. Os dados
estão desatualizados pois aparentemente, e infelizmente, o DENATRAN deixou de atualizar as estatísticas
após 2006. Estatísticas recentes mostram que a violência do trânsito está entre as maiores causas de morte,
especialmente entre os jovens (revista Veja, 2013). Anualmente, o trânsito no Brasil mata praticamente tantos
brasileiros como a guerra do Vietnã, que durou 20 anos e vitimou quase 60 mil soldados americanos. Os números
na Tabela (1.3) mostram que praticamente 1% da frota nacional de veículos se envolve em acidentes de trânsito,
anualmente.

Tabela 1.2: Risco individual em mortes por ano e por quilômetro rodado para viagens.
Modal de transporte Taxa de mortalidade Exposição típica Risco de morte
(10¡9 mortes/hora) (horas/ano) (10¡6 mortes/ano)
Aéreo 1200 20 24
Rodoviário 700 300 200
Ferroviário 80 200 15
Taxa de mortalidade Velocidade média Taxa de mortalidade
(10¡9 mortes/hora) (km/h) (10¡6 mortes/mil km)
Aéreo 1200 800 1,5
Rodoviário 700 80 8,75
Ferroviário 80 120 0,66

Tabela 1.3: Risco individual de mortes/lesões por acidente de trânsito no Brasil. (Fonte: DENATRAN, 2002:
Anuário Estatístico de Acidentes de Trânsito de 2002).
Número de vítimas Percentual Número de Percentual
não fatais em acidentes (vítimas) vítimas fatais (mortalidade)
Média pela 1822 vítimas por milhão 0,18% da 108 vítimas fatais por 0,01% da
população de habitantes por ano população milhão de habitantes por ano população
Média 9284 vítimas por milhão 0,93% 551 vítimas fatais por 0,05%
pela frota de veículos por ano da frota milhão de veículos por ano da frota

Risco de origem ambiental é aquele que se origina em fenômenos naturais ou ambientais, como terremo-
tos, tempestades, furacões, tsunamis, tornados, ondas de frio e calor, inundações, secas, etc. Este tipo de risco
tem a tendência de se intensi car, por efeito das recentes mudanças climáticas que o planeta vem experimen-
tando. Há evidências de que fenômenos ambientais tem ocorrido com maior intensidade e maior frequência, em
função de alterações do aumento da temperatura média global.

Risco de origem tecnológica é aquele que tem sua origem em atividades industriais perigosas, como ma-
nipulação, bene ciamento, transporte e estoque de produtos tóxicos e/ou in‡amáveis, como venenos, produtos
químicos, combustíveis, material radioativo, etc. O risco tecnológico também pode ser caracterizado pela uti-
lização ou exposição a equipamentos produzidos pelo homem, como aviões, foguetes, carros, navios, etc. Quando
um tsunami ou furacão atinge uma cidade, provocando destruição de prédios, inundação, e vítimas fatais e não
fatais, dizemos que se trata de um risco de origem ambiental (exemplo, destruição de New Orleans pelo furacão
1.4. RISCOS: PROBABILIDADES E CONSEQUÊNCIAS 25

Catrina em 2005). Quando um tsunami causa dispersão de radiação por destruição de uma planta nuclear,
como ocorrido em Fukushima em 2011, temos como origem um fenômeno ambiental, mas as consequências
determinadas por questões tecnológicas. Neste caso, podemos classi car o risco como de origem tecnológica.

A Tabela 1.4 lista alguns dos maiores desastres ambientais ocorridos, a nível mundial, nos últimos anos,
em consequência de fatores tecnológicos e industriais. Todos os casos listados caracterizam riscos sociais de
origem tecnológica, pois provocaram um grande número de vítimas, e/ou enormes consequências ambientais.
Os eventos são apresentados em ordem cronológica. A última coluna apresenta as consequências de cada evento,
em alguns casos com estimativa dos custos com reparação e indenizações. Vários dos desastres listados tem
em sua origem falhas estruturais; caso da falha de vasos de pressão em Seveso e Bhopal, falha por ruptura em
dutos na Vila Socó, falha de estruturas de contenção nos acidentes radiativos de Three Mile Island, Chernobyl
e Fukushima, falha de cimentação no poço Macondo e falha por ruptura da barragem de Mariana. Estas falhas
estruturais não tem necessáriamente causas estruturais; em geral são consequência de falhas de operação ou de
gerenciamento.
Três dos grandes desastres listados na Tabela 1.4 ocorreram no Brasil. Além destes, vale mencionar o
acidente envolvendo cápsulas de Césio 137, ocorrido em Goiânia, GO, em setembro de 1987; vazamento de 4
milhões de litros de óleo ocorrido na REPAR, no Paraná, em 16 de julho de 2000; e derramamento de petróleo
ocorrido no campo do Frade, bacia de Campos, em novembro de 2011. Outros acidentes com derramamento de
óleo combustível ou petróleo são listados no site Ambiente Brasil (2017).
No Brasil, os principais riscos de origem ambiental estão relacionados com excesso ou falta de precipitação.
Problemas envolvendo prolongadas secas, especialmente no Nordeste, e excesso de chuvas, no Sul e Sudeste. O
maior desastre natural da história do Brasil ocorreu em Janeiro de 2011, na região serrana do Rio de Janeiro. O
excesso de chuvas provocou inundações e deslizamentos de terra; estes destruíram casas em regiões de encosta.
O evento resultou em aproximadamente 800 vítimas fatais, além de milhares de desabrigados.
Eventos de seca e excesso de precipitação são recorrentes no país, que obviamente pouco faz em termos de
medidas de mitigação. Ameaças ambientais são fenômenos naturais, mas as consequências são fortemente deter-
minadas pelo homem. Em países desenvolvidos, eventos ambientais extremos tem consequências extremamente
reduzidas, em comparação aos países sub-desenvolvidos. Inundações na Holanda estão praticamente controladas
por um sistema de diques, enquanto cheias em Bangladesh deslocam milhões de pessoas e provocam centenas
a milhares de mortos a cada 3 ou 4 anos. Vítimas de terremotos intensos em países desenvolvidos podem ser
contadas nos dedos da mão, enquanto um único terremoto no Haiti vitimou fatalmente pelo menos 100 mil
pessoas em 2001.
Os estados do sul e sudeste do Brasil também tem enfrentado fenômenos de ventos extremos. Um furacão
de categoria II na escala Sa¢r-Simpson, com ventos sustentados de até 150 km/h foi registrado pela primeira
vez no litoral do Brasil, em março de 2004. O furacão Catarina deixou um rastro de destruição em cidades do
litoral de Santa Catarina, com pelo menos 11 mortos e 100 mil casas destruídas. Dados compilados pelo National
Weather Services dos Estados Unidos (NOAA) mostram que a região sul do Brasil é a segunda região de maior
risco, no mundo, para a ocorrência de tornados (Figura 1-13). De fato, entre 1990 e 2011 foram registrados ao
menos 205 destes fenômenos meteorológicos em território nacional (Candido, 2012). O tornado mais violento
já registrado no país ocorreu em Itu, SP, em 1991; causou 15 mortes e 176 feridos, além de destruir 280 casas.
Ventos podem ter atingido a categoria F4. Mais recentemente, no ano de 2005, um tornado com ventos de até
250 km/h atingiu a cidade de Indaiatuba, SP, provocando a destruição de 400 imóveis. Ocorrências de tornados
também tem sido compiladas pela Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio, 2007). A
ocorrência de ventos extremos é de grande importância para o projeto de estruturas no país, e não tem sido
levado em conta de forma apropriada.
26 INTRODUÇÃO A CONFIABILIDADE

Tabela 1.4:
1.4. RISCOS: PROBABILIDADES E CONSEQUÊNCIAS 27

Figura 1-13: Mapa de risco para ocorrência de tornados, fonte: NOAA - National Weather Service, Estados
Unidos.

1.4.3 Critérios de aceitabilidade para risco social


Desastres de origem tecnológica com grandes consequências, como aqueles listados na Tabela 1.4, causam grande
comoção social e enormes prejuízos sociais, ambientais e econômicos. Por outro lado, as instalações industriais
nas quais estes eventos eventualmente ocorrem produzem bens de consumo que geram enorme bem estar social.
Portanto, a exposição de nossa sociedade aos riscos sociais de origem tecnológica é inevitável. Esta percepção
levou o lósofo alemão Ulrich Beck a criar a alcunha “sociedade do risco” para caracterizar nossa relação com os
riscos tecnológicos. Neste contexto, cabe à sociedade de nir quais os riscos considerados aceitáveis. Isto inclui
atitudes especí cas como o banimento da geração de energia por são nuclear, e/ou do estoque ou circulação
de material radioativo, como tem ocorrido na Alemanha e Japão, mas também inclui a de nição de critérios
objetivos para a aceitação de riscos de processos industriais.
Critérios de aceitabilidade para riscos sociais variam de país a país e, no caso do Brasil, de estado a estado.
Critérios de aceitabilidade para riscos sociais estão geralmente baseados na fórmula:

risco = p n¡α = cte,


sendo p a probabilidade ou frequência (anual) de ocorrência do evento, n o número (potencial) de vítimas e α
um coe ciente que permite introduzir a chamada “aversão ao risco”, ou aversão a eventos com grande número
de vítimas. Quando α = ¡1, temos a equivalência entre eventos de maior probabilidade com menor potencial
de vítimas, e eventos de menor probabilidade mas maior potencial de vítimas. Para α = ¡1, a tolerância é
a mesma para um evento com p = 10¡3 e uma vítima potencial, e um evento com p = 10¡6 mas mil vítimas
potenciais. A “aversão ao risco” consiste em desestimular eventos ou empreendimentos com potencial para
acidentes envolvendo grande número de vítimas potenciais, e é obtida quando α < ¡1.
A Figura 1-14 ilustra critérios de tolerabilidade ao risco social na Inglaterra e Holanda, bem como em
alguns estados brasileiros (SP, RJ e RS). A Holanda utiliza apenas uma curva, que divide riscos intoleráveis
(parte superior) dos riscos toleráveis (parte inferior). Na região tolerável, os riscos devem ser tão baixos como
razoavelmente praticável (princípio ALARP, do inglês “As Low As Reasonably Practicable”). No Reino Unido
(UK) e nos estados brasileiros de SP, RJ e RS são utilizadas duas curvas. A curva inferior limita a região dos
riscos ditos “aceitáveis” ou “aceitáveis com reservas”. A região entre as curvas é a região ALARP. No Brasil,
não existe uma curva de risco social aceita nacionalmente.
28 INTRODUÇÃO A CONFIABILIDADE

Figura 1-14: Curvas de tolerabilidade ao risco social na Inglaterra e Holanda, e nos estados de SP, RJ e RS.

No estado de São Paulo, a norma CETESB P4.261 (CETESB, 2011) regulamenta a instalação e renovação
de licença de funcionamento de empreendimentos que geram riscos ambientais signi cativos. No estado de São
Paulo, a CETESB adota α = ¡1, mesmo valor utilizado no Reino Unido (UK). Nos estados do Rio Grande
do Sul e Rio de Janeiro, utiliza-se α = ¡1, 5. Note que os pontos de partida das curvas, para n = 1, também
são diferentes. Em geral, estes pontos correspondem aos limites correspondentes (aceitável com restrições,
intolerável) para risco individual. A Holanda é um dos países mais restritivos em relação aos riscos tecnológicos
em geral. Observe que a curva holandesa utiliza α = ¡2 (forte aversão aos riscos com grande número de vítimas
potenciais ) e começa em 10¡5 (pequena tolerabilidade aos riscos individuais).
O princípio ALARP pressupõe que a aprovação de uma planta ou empreendimento industrial seja baseada em
uma análise quantitativa de riscos, na qual seja demonstrado que todas as medidas “razoavelmente praticáveis”
para a redução de riscos foram adotadas. O “razoavelmente praticável” implica, por exemplo, em uma análise
de custo-benefício, na qual se demonstre que medidas adicionais de redução de riscos seriam economicamente
inviáveis. Tal análise esta baseada no princípio da desproporção, através do qual se reconhece que, à medida
que o risco diminui, torna-se cada vez mais caro diminuí-lo. De forma resumida, uma análise quantitativa
de riscos para demonstração do princípio ALARP envolve: a) análise de custo-benefício, que demonstre que
o ponto de risco mínimo foi atingido; b) demostrar a aplicação das melhores práticas em cada atividade; c)
demonstrar a e ciência das medidas de redução e mitigação de riscos adotadas; d) demonstrar a redução tanto
das probabilidades de ocorrência dos eventos perigosos como das suas consequências.

1.4.4 Análise qualitativa: matriz de risco


Em geral, uma análise quantitativa de riscos envolve um escrutínio inicial, qualitativo, através de uma matriz de
riscos. Uma matriz de riscos é construída classi cando a gravidade e a probabilidade de ocorrência dos eventos
em faixas (alto, médio e baixo). Um exemplo de matriz de risco é apresentado na Figura (1-15).
1.4. RISCOS: PROBABILIDADES E CONSEQUÊNCIAS 29

Figura 1-15: Matriz de risco.

Gravidade do evento:

1. Evento minoritário: impacto inicialmente limitado à pequena área no local do evento com potencial para
consequências maiores na falta de ação corretiva.
2. Evento sério: evento que pode causar lesões sérias ou morte na planta ou fora dela; ou danos materiais no
valor de US$5 milhões na planta ou de um milhão fora dela.
3. Evento grave: evento cinco ou dez vezes maior do que um evento sério.

Probabilidade de ocorrência do evento (f = falhas/ano):

1. Baixa (f < 10¡4 /ano): uma falha ou série de falhas com muito pequena probabilidade de ocorrência dentro
da vida projetada da planta. Exemplos: três ou mais falhas simultâneas de equipamento, instrumento ou
humana; falha espontânea de tanque ou vaso de pressão.
2. Moderada (10¡4 < f < 10¡2 /ano): uma falha ou série de falhas com pequena probabilidade de ocorrência
dentro da vida projetada da planta. Exemplos: falha simultânea de 2 equipamentos ou 2 instrumentos;
combinação de falha de equipamento com falha humana; falha de pequena linha de processo.
3. Alta (f > 10¡2 /ano): pode-se esperar que uma falha aconteça durante a vida projetada da planta.
Exemplos: vazamentos; falha individual de um instrumento ou de um componente; erro humano que
resulta em vazamento de material.

Classi cação de riscos:

1. Região de alto risco: riscos nesta faixa provavelmente são inaceitáveis e devem ser eliminados ou atenuados;
2. Riscos moderados: os riscos devem ser controlados e, se possível, eliminados. Estratégias de redução de
riscos devem ser estudadas, incluindo a relação custo-benefício de sua redução. Riscos devem ser reduzidos
sempre que estiverem acima da linha de riscos toleráveis;
30 INTRODUÇÃO A CONFIABILIDADE

Figura 1-16: Desproporção entre os esforços dispendidos no controle de riscos e a origem de grandes acidentes.

3. Região de baixo risco: estes riscos provavelmente são aceitáveis e continuarão assim mesmo que o nível
de riscos tolerável seja reduzido. A localização desta zona depende daquilo que o público, governo e
empregados entendem como aceitável ou tolerável (risco social).

1.4.5 Gestão de riscos tecnológicos


Nesta seção apresentamos breves noções de como um empreendimento de engenharia deve ser concebido, plane-
jado, construído e operado, de forma a se controlar os riscos.
Equipamento, tecnologia e operação (operadores) são componentes essenciais de uma operação segura. No
entanto, o estudo dos grandes acidentes históricos (Petroski, 1992, 2012) revela que, com frequência, problemas
na alta administração das empresas levam à catástrofes. Exemplos incluem os acidentes de Bhopal (India), Alpha
North Oil Rig (Mar do Norte, 1988, 160 mortos), explosão da Space Shuttle Challenger em 1986, e o naufrágio
da plataforma Deepwater Horizon da BP em 2010. Entre as causas identi cadas estão descomprometimento da
alta direção com a operação, desconhecimento do objeto administrado e dos fatores de risco, falta de de nição
clara das responsabilidades e comunicação inadequada. A Figura 1-16 ilustra a desproporção entre os esforços
dispendidos no controle e redução de riscos, e a origem de grandes acidentes. A alta administração das empresas
precisa compreender os riscos e assumir a responsabilidade por seu controle e redução.
A gestão de riscos deve ser pensada desde a concepção do empreendimento, passando pelas fases de projeto e
construção. É nas fases iniciais que se tomam muitas das decisões que impactam nos riscos da fase de operação,
como a escolha dos produtos e processos envolvidos. Medidas de mitigação de riscos podem ser divididas
em intrínsicas e extrínsicas. Medidas intrínsicas de redução de riscos estão relacionadas com a escolha de
produtos, processos, tecnologias e equipamentos que são seguros por natureza. Incluem a opção por produtos
não-tóxicos, não-in‡amáveis, química e físicamente estáveis; por processos de baixa energia, por tecnologia
limpa, por equipamentos seguros, con áveis e ergonômicos, etc. Medidas extrínsicas são aquelas que visam
reduzir o risco residual, que as medidas intrínsicas não eliminaram. Correspondem, por exemplo, à instalação de
sensores, atuadores, controles e outros equipamentos de segurança, com objetivo de atenuar riscos identi cados
na instalação. Medidas extrínsicas são adotadas com o empreendimento já pronto ou em fase de conclusão.
Visam mitigar as consequências de eventos, ou a propagação de falhas em cadeia. A Figura 1-17 ilustra como as
oportunidades de implementação de medidas intrínsicas se extinguem ao longo das fases de projeto e construção
do empreendimento. Este cenário se compõe com os custos de implementação das medidas de redução de riscos
(Figura 1-18): estes custos aumentam ao longo das fases de projeto e construção do empreendimento. Nas fases
de concepção e projeto inicial, medidas intrínsicas de baixo custo podem ser implementadas; à medida que a
1.4. RISCOS: PROBABILIDADES E CONSEQUÊNCIAS 31

Figura 1-17: Oportunidades de implementação de medidas de segurança em empreendimentos.

obra se aproxima da conclusão, as medidas são extrínsicas e de maior custo.


Os princípios da segurança intrínsica são: a) intensi car atividades a m de reduzir os estoques de substâncias
químicas; b) atenuar processos, de maneira que as condições de operação sejam mais seguras; c) substituir
substâncias perigosas por substâncias inofensivas; d) simpli car processos sempre que possível, a m de obter a
planta mais enxuta possível; e) fazer mudanças cedo.

1.4.6 Custo esperado de falhas de sistemas


Sistemas de engenharia são concebidos, projetados, construídos e operados para, de forma idealizada, não
apresentarem falhas. No entanto, como consequência da existência de incertezas, estes sistemas nem sempre
apresentarão a resposta esperada, conforme ilustrado na Figura 0-1. A possibilidade de respostas indesejadas
pode ser quanti cada em termos de probabilidades de falha. Falhas podem resultar em consequências como
perdas nanceiras diretas e indiretas, lesões, mortes e dano ambiental. Algumas destas consequências de falha
podem ser medidas em termos nanceiros, através de uma função custo de falha (cf ). O risco associado à falha
é dado pela Eq. (1.17). Esta expressão pode ser interpretada como custo esperado de falha (cef ):

cef = pf £ cf .

Observe que esta expressão coincide com a de nição de risco (Eq. 1.16).
Na realização de um empreendimento, há vários custos a serem levados em consideração: aquisição de
terreno, custos de projeto e ante-projeto, custos de construção (mão de obra, materiais, encargos, etc). Na
fase de operação, surgem custos de operação e gastos com inspeções e manutenção. Se o empreendimento se
tornar obsoleto, há custos de desmonte e descarte. Custos esperados de falha são custos indiretos, a serem pagos
na ocorrência de eventos falha. Estas podem ser falhas catastró cas, como explosões ou incêndios, dispersão
de poluentes, etc., ou simplesmente falhas que provocam a parada do empreendimento ou da produção, com
consequentes custos de lucros cessantes. Durante a construção do empreendimento também podem ocorrer
custos indiretos com acidentes de trabalho, provocando paralização e atrasos, indenizações, etc.
Muitos dos custos citados acima são investimentos realizados no sentido de controlar ou diminuir os custos
32 INTRODUÇÃO A CONFIABILIDADE

Figura 1-18: Custos de implementação de mudanças ao longo da vida do empreendimento.

esperados de falha. Exemplos são gastos com treinamento de pessoal, equipamento de proteção individual,
qualidade de equipamentos da operação, equipamento de controle e alarmes, inspeções periódicas, manutenção
preventiva, etc. Até certo ponto, o investimento nestes itens provoca a melhoria das condições de segurança
do empreendimento, e a redução em custos indiretos com acidentes e outras falhas. Por outro lado, a falta
destes investimentos pode impactar negativamente nos custos futuros do empreendimento. A quanti cação dos
custos acima permite realizar uma análise de custo-benefício das medidas de segurança; por exemplo, para
demonstração de atendimento ao princípio ALARP.
Seja d um vetor que reúne as variáveis que quanti cam o investimento em medidas de segurança: horas
de treinamento, quantidade de equipamento de proteção individual, qualidade de equipamentos de operação,
quantidade e qualidade de equipamentos de controle e alarme, número ou frequência de inspeções periódicas,
política de manutenção (preventiva, preditiva, etc). O chamado custo esperado total, sobre o ciclo de vida, de
um empreendimento de engenharia é obtido como:

cet (d) = cpro jeto (d)


+cconstrução (d)
+cop eração (d)
+cinsp .&m anut. (d)
+cd escarte (d)
X
+ cf i (d)pf i (d), (1.18)
i

sendo cf i (d) o custo associado ao evento de falha ( )i . A Figura 1-19 ilustra como os investimentos em medidas
de segurança (d) tem impacto direto nos custos iniciais (de projeto e construção) e nos custos de inspeção
e manutenção. No entanto, investimentos em d também resultam em uma diminuição acentuada dos custos
indiretos associados com as falhas, cef (d). O nível ótimo de investimentos em d é obtido a partir da solução de
1.4. RISCOS: PROBABILIDADES E CONSEQUÊNCIAS 33

Figura 1-19: Problema de otimização de custos sobre o ciclo de vida e nível de con abilidade ótimo.

um problema de otimização matemática, onde se busca o ponto de mínimo custo esperado total:

Determine : d¤
que minimiza : cet (d),
sujeito à restrições de projeto : d 2 D. (1.19)

A solução do problema acima resulta, de forma indireta, no nível de con abilidade ótima do empreendimento. Ao
mesmo tempo em que se minimiza o custo esperado total, se maximiza o retorno obtido com o empreendimento.
O problema apresentado na Eq. (1.19) é chamado de problema de otimização de custos sobre o ciclo de vida.
A maior parte deste texto está dedicado à avaliação da con abilidade, ou das probabilidades de falha, de
estruturas ou de sistemas estruturais. No entanto, no Capítulo (8) voltamos a abordar o problema de otimização
de custos sobre o ciclo de vida. Na aplicação à problemas de engenharia de estruturas, alguns dos principais
componentes do vetor de projeto d são os coe cientes parciais de segurança, que serão determinados ou avaliados
do ponto de vista da con abilidade das estruturas. Portanto, até o nal do texto fechamos o ciclo, fornecendo
ao leitor os principais elementos para a mudança de paradigmas proposta pelo Prof. Aoki no Prefácio.
34 INTRODUÇÃO A CONFIABILIDADE
Capítulo 2

INTRODUÇÃO À
CONFIABILIDADE ESTRUTURAL

Neste capítulo apresentamos o problema de con abilidade estrutural. Primeiramente, descrevemos os requisitos
técnicos de projeto, e como são formulados em termos de equações de estado limite. Descrevemos variáveis
típicas de resistência, e discutimos modelos estatísticos usuais para estas variáveis. Descrevemos modelos
típicos de ações estruturais variáveis (de utilização, de vento, e outras), baseados em processos estocásticos e em
distribuições de valores extremos. Discutimos uma fonte de incertezas signi cativa e frequentemente ignorada: a
imprecisão dos modelos de cálculo. Apresentamos a formulação de problemas típicos de con abilidade estrutural,
cuja solução é endereçada no restante do texto.
O texto não tem a pretensão de servir como fonte de referência para modelos de incertezas em resistências
e ações. Pretendemos apenas discutir os principais modelos, apreciar a ordem de grandeza das incertezas
nas principais variáveis, e apresentar referências para fontes mais completas, como Ellingwood et al. (1980),
Melchers & Beck (2018), Joint Committee on Structural Safety (JCSS, 2001) e Santiago (2017).

2.1 REQUISITOS DE PROJETO E ESTADOS LIMITES


2.1.1 Requisitos de projeto
Estruturas e elementos estruturais são projetados, construídos e mantidos de modo a cumprir uma determinada
função (estrutural). Esta função deve ser cumprida: a) durante um determinado período, chamado de vida útil
ou vida de projeto; b) com um nível adequado de segurança; c) de maneira economicamente viável e d) sem
expor o público ou usuário a riscos inaceitáveis.
Em particular, estruturas e elementos estruturais devem cumprir os seguintes requisitos técnicos:

1. requisito de serviço: uma estrutura deve manter-se em condições apropriadas para a execução da função
à qual se destina, durante todo o período de vida útil;
2. requisito de segurança: uma estrutura deve suportar carregamentos extremos esporádicos e carrega-
mentos repetitivos aos quais esteja sujeita dentro do período de vida previsto, sem entrar em colapso ou
apresentar severos danos permanentes;
3. requisito de robustez: uma estrutura não deve ser dani cada por eventos acidentais como incêndio,
explosões, impacto, terremotos ou erros humanos de maneira desproporcional à severidade do evento
causador do dano.
36 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL

Em geral, os requisitos técnicos são atendidos através de projeto e dimensionamento adequados. Estes
requisitos podem ser endereçados inteiramente através de considerações tecnológicas, i.e., sem levar em conta
aspectos econômicos ou sociais. No entanto, é facil perceber que estes 3 requisitos são diretamente con‡itantes
com interesses econômicos e sociais. Se o nível de segurança for excessivo, o custo da estrutura e a viabilidade
econômica da mesma podem ser comprometidos. Por outro lado, se o nível de segurança for insu ciente,
a aceitação da estrutura (ou do risco que ela representa) por parte do público ou usuário ca comprometida.
Note-se que esta questão está implícita quando se fala em níveis adequados de segurança. Sendo assim, estruturas
e sistemas estruturais devem satisfazer ainda aos seguintes requisitos:

4. requisito econômico: uma estrutura deve atender aos três requisitos técnicos sem comprometer sua
capacidade de gerar lucro, sob pena de tornar-se economicamente inviável;
5. requisito social: uma estrutura deve atender aos quatro requisitos anteriores com níveis de risco
aceitáveis por parte do público ou usuário.

Para atender ao requisito econômico, devemos levar em conta os custos de projeto, construção, manutenção
e operação da estrutura, bem como os custos (esperados) de falha. Em geral, isto representa uma análise
detalhada do compromisso entre segurança e o custo total esperado de uma estrutura. Uma análise deste tipo
resulta no nível adequado de segurança para determinada estrutura.
Em geral, a escolha do nível adequado de segurança deve levar em conta as consequências de falha em termos
de risco de morte ou danos à saúde, potencial para prejuízos econômicos e ambientais, e inconveniência social.
Esta escolha deve ainda levar em conta o custo relativo e a conveniência de se adotar medidas de redução de
risco. Sob esta lógica, medidas de redução de risco que sejam baratas e fáceis de implementar nunca devem
deixar de ser implementadas.

2.1.2 Estados limites


Os requisitos técnicos de projeto de sistemas estruturais podem ser escritos na forma de equações de estados
limites. O não atendimento de um requisito de serviço ou de segurança representa um estado indesejável da
estrutura. Cada forma distinta de chegar em um estado indesejável é chamada, genericamente, de um modo de
falha. Cada modo de falha dá origem a uma equação de estado limite. O termo falha é utilizado nesta seção
no seu sentido mais amplo, representando um estado indesejável da estrutura em relação a qualquer um dos
requisitos básicos estabelecidos. Os modos de falha e os estados limites correspondentes representam modelos
idealizados da falha de estruturas.
Os estados limites podem ser divididos em duas categorias principais: últimos e de serviço.

Estados limites últimos correspondem aos requisitos de segurança; envolvem a capacidade máxima de
carga ou de deformação da estrutura, e levam ao colapso parcial ou global da mesma, ou a dano grave e
permanente. Exemplos:

1. perda de equilíbrio da estrutura ou parte da mesma por movimento de corpo rígido;


2. atingir capacidade máxima das seções, membros ou conexões, seja por ruptura ou deformação excessiva;
3. ruptura de membros ou conexões por fadiga ou outros efeitos dependentes do tempo;
4. instabilidade da estrutura ou de partes da mesma;
5. mudança súbita de con guração (instabilidade, snap-through);
6. formação de mecanismo por cadeia cinemática de rótulas plásticas.
2.1. REQUISITOS DE PROJETO E ESTADOS LIMITES 37

A ultrapassagem de um estado limite último é, em geral, irreversível. Logo, a primeira ocorrência deste
evento caracteriza falha da estrutura.

Estados limites de serviço estão relacionados aos requisitos de funcionalidade da estrutura, ou de


condições de uso da edi cação. Exemplos:

1. danos locais (formação de ssuras ou trincas) que afetam a durabilidade da estrutura bem como a aparência
de elementos estruturais ou não estruturais;
2. dano causado por efeitos dependentes do tempo como corrosão, desgaste, ‡uência, que comprometam o
uso, mas não a segurança da estrutura;
3. deformação em nível não aceitável, que afete o uso e ciente ou a aparência de elementos estruturais ou
não estruturais, ou ainda que afete o funcionamento de equipamentos;
4. vibração excessiva, que cause desconforto ao usuário ou afete o funcionamento de equipamentos;
5. degradação devido a ações ambientais, como despassivação de armaduras ou intemperismo, que afetem a
e ciência ou a aparência de componentes estruturais ou não estruturais.

Os estado limites de serviço podem ser reversíveis ou irreversíveis. Quando irreversíveis, a primeira ultra-
passagem do estado limite caracteriza a falha. Quando reversíveis, a falha pode ser caracterizada quando a
passagem ao estado indesejável acontecer em momento inoportuno, por período muito prolongado, um número
excessivo de vezes ou ainda qualquer combinação destes. Estados limite de serviço devem ser de nidos utilizando
critérios de utilidade.

2.1.3 Equações de estado limite


Os diversos modos de falha de uma estrutura ou de elementos estruturais podem ser descritos através de equações
chamadas de equações de estado limite. Seja X 2 Rn um vetor-coluna que reúne todas as variáveis aleatórias
do problema. Para cada modo de falha, uma equação de estado limite g(X) é escrita como:

g(X) = g(X1 , X2 , ..., Xn ) = 0. (2.1)

Estas equações são escritas de tal forma que valores negativos representam falha e valores positivos represen-
tam não falha ou sobrevivência. As equações de estado limite estabelecem, para cada modo de falha, a fronteira
entre os domínios de falha e não falha, ou a fronteira entre os estados desejável e indesejável da estrutura:

­f = fxjg(x) · 0g,
­s = fxjg(x) > 0g. (2.2)

O domínio de falha ­f é formado por todos os pontos do espaço amostral de X que levam a falha da estrutura,
conforme representado na Figura 2-1. O domínio de sobrevivência ­s é o conjunto complementar ao domínio
de falha. Por convenção, incluímos a equação de estado limite g(x) = 0 no domínio de falha; no entanto, o
conteúdo de probabilidade correspondente à igualdade é nulo (Apêndice A).
A equação de estado limite mais simples é função linear, independente do tempo, e que envolve apenas duas
variáveis aleatórias: resistência e solicitação X = fR, Sgt , ou capacidade e demanda X = fC, Dgt 1 :

g(X) = R ¡ S = 0,
g(X) = C ¡ D = 0. (2.3)

1O expoente ( )t indica transposto (vetor-coluna).


38 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL

Figura 2-1: Equação de estado limite e domínios de falha e sobrevivência.

A equação de estado limite na Eq. (2.3) origina o problema de interferência entre populações, discutido na
Seção 1.2.2.

2.1.4 Probabilidade de falha: medida da propensão à violação de estados limites


A probabilidade de falha é uma medida da propensão à violação de estados limites:

pf = P [fX 2 ­f g]
= P [fg(X) · 0g].

A probabilidade de falha pode ser avaliada a partir da função conjunta de densidade de probabilidades
fX (x), através da integral multi-dimensional:
Z
pf = fX (x)dx. (2.4)
­f

De maneira análoga, integrando sobre o domínio de sobrevivência obtemos a con abilidade:


Z
R = 1 ¡ pf = fX (x)dx. (2.5)
­S

Estas integrais estão representadas na Figura (2-2), para a equação de estado limite representada na Figura
(2-1). Antes de encaminhar a solução da Eq. (2.4), vamos interpretar a probabilidade de falha, e estudar
modelos típicos de ações e resistências em engenharia de estruturas.
2.2. CONFIABILIDADE DAS ESTRUTURAS: DEFINIÇÃO E INTERPRETAÇÃO 39

Figura 2-2: Integração da função de densidade conjunta para obter a con abilidade (esquerda) e probabilidade
de falha (direita).

2.2 CONFIABILIDADE DAS ESTRUTURAS: DEFINIÇÃO E IN-


TERPRETAÇÃO
Em analogia à de nição da con abilidade de componentes e sistemas, a con abilidade estrutural pode ser
de nida como:

“Con abilidade estrutural é uma medida do grau de con ança em que uma estrutura ou sistema
estrutural atenda aos requisitos técnicos de projeto (função, resistência, equilíbrio), dentro de uma
vida de projeto especi cada, respeitadas as condições de operação e de projeto. Este grau de
con ança re‡ete os modelos físicos, matemáticos e de engenharia utilizados no cálculo, bem como
os modelos estatísticos utilizados na quanti cação das incertezas”.

De forma correspondente, a probabilidade de falha estrutural é de nida como:

“Probabilidade de falha estrutural é uma medida da propensão de uma estrutura ou sistema estrutural
em deixar de atender aos requisitos técnicos de projeto (função, resistência, equilíbrio), dentro de
uma vida de projeto especi cada, respeitadas as condições de operação e de projeto. Esta propensão
é interpretada como grau de (des)con ança, e re‡ete os modelos físicos, matemáticos e de engenharia
utilizados no cálculo, bem como os modelos estatísticos utilizados na quanti cação das incertezas”.

As de nições acima tem uma diferença fundamental em relação à de nição apresentada na Seção 1.2.1: o grau
de con ança, ou a interpretação Bayesiana das probabilidades de falha e de sobrevivência (con abilidade). Esta
diferença é extremamente importante, porque determinamos a con abilidade de estruturas únicas, para as quais
falhas não são diretamente observáveis! Não sendo observáveis, e não havendo um grande número de estruturas
idênticas em operação, não cabe a interpretação frequentista das probabilidades de falha ou sobrevivência (Eq.
A.1). Logo, probabilidades de falha estrutural devem ser apresentadas como um número decimal entre 0 e
40 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL

MODELO PROBABILÍSTICO SISTEMA FÍSICO,


DE DISTRIBUIÇÃO PROBLEMA DE
(def. freqüentista) ENGENHARIA

PARÂMETROS OU MODELO
VARIÁVEIS DO COMPORTAMENTAL
PROBLEMA SIMPLIFICADO

TEORIA DE
PROBABILIDADES MODELO MATEMÁTICO
(def. axiomática) (eq. diferenciais e algébricas)

SOLUÇÃO MODELO
ANALÍTICA NUMÉRICO

SOLUÇÃO
NUMÉRICA

TOMADA DE DECISÕES NA
PRESENÇA DE INCERTEZAS RESPOSTA DO SISTEMA
(interpretação Bayesiana)

TOMADA DE DECISÕES

Figura 2-3: Interpretação das de nições de probabilidade na solução de problemas de con abilidade estrutural.

1, e nunca como uma razão entre inteiros. Conceitualmente, existe uma diferença enorme entre pf = 10¡3
(interpretação Bayesiana, grau de con ança) e pf = 1/1000 (interpretação frequentista).
A Figura (2-3) mostra um esquema de solução de problemas de con abilidade estrutural, e ajuda a ilustrar a
questão. A estrutura que existe no mundo real (ou existirá, em se tratando de projeto) se comporta de maneira
independente aos nossos modelos de cálculo. Esta estrutura chega à prancheta (ou computador) do engenheiro
como um modelo extremamente simpli cado da realidade. Como exemplo, e a depender da resposta desejada,
um prédio sujeito a esforços laterais pode ser representado como uma viga engastada, como um conjunto de
vigas e colunas (elementos nitos lineares), como um conjunto discreto de pontos materiais (elementos nitos
2D/3D), ou como um sistema massa-mola (análise dinâmica, modelo shear building, etc.). A equação constitutiva
do(s) material(is) pode ser representada como linear ou não-linear. A solução de equilíbrio pode ser feita na
con guração inicial ou na con guração deformada (não-linearidade geométrica). A condição de contorno pode
ser considerada como engaste perfeito ou elástico. A cada um destes modelos físicos corresponde um ou mais
modelos matemáticos, numéricos ou analíticos.
Os modelos físicos e matemáticos do problema estrutural dependem de variáveis básicas ou parâmetros
que, em sua grande maioria, podem ser medidos e observados. A interpretação frequentista de probabilidades
(Eq. A.1) é utilizada para construir modelos (distribuições de probabilidade) para variáveis observáveis como
resistência dos materiais, geometria e dimensões dos elementos, incertezas de modelo, intensidade e frequência
das ações, etc.
A de nição axiomática de probabilidades (Eq. A.3) é utilizada para propagar as incertezas dos parâmetros de
entrada, através dos modelos matemáticos, até as respostas da estrutura (tensões, deformações, deslocamentos,
etc). Probabilidades entram, probabilidades saem; logo, probabilidades são associadas às respostas da estrutura.
2.3. MODELOS DE RESISTÊNCIA 41

Em particular, a probabilidade de falha corresponde a probabilidade da resposta ultrapassar um valor crítico,


conforme equações de estado limite.
A probabilidade de falha é uma das saídas (resposta) do sistema. Tal probabilidade re‡ete a qualidade, a
aderência e a precisão dos modelos físicos e matemáticos utilizados pelo engenheiro na solução do problema real.
Esta probabilidade também re‡ete a qualidade e a aderência dos modelos de distribuição de probabilidades dos
parâmetros de entrada. Em se tratando de estruturas únicas, esta probabilidade não pode ser confrontada com
a realidade através de testes, porque existe apenas uma amostra (estrutura única), e com uma amostra não se
calculam probabilidades.
Mesmo em sistemas para os quais falhas são (eventualmente) observáveis, não é possível confrontar ou validar
probabilidades de falha calculadas para elementos ou estruturas individuais. Em grandes sistemas distribuídos
como dutos ou linhas de transmissão, por exemplo, falhas são inevitáveis e portanto, observáveis. De fato,
existem estatísticas nacionais que mostram taxas de falhas de dutos, em função de parâmetros como diâmetro
externo, espessura de parede, líquido transportado, tempo de operação, profundidade de enterramento, etc.
Estas taxas não podem ser confrontadas, diretamente, com probabilidades de falha avaliadas para um duto
particular, em função de incertezas na pressão de operação, na resistência do material, e na espessura da
parede. Em geral, probabilidades de falha são calculadas para estruturas únicas, mas estatísticas de falhas se
referem a uma grande população de estruturas da mesma classe, mas longe de serem idênticas. Por exemplo,
a probabilidade de falha histórica observada de pontes, para uma vida média de 40 anos, é da ordem de 10¡3
(Melchers & Beck, 2018). Este número serve como referência, mas não pode ser utilizado para “validar” uma
probabilidade de falha calculada para uma ponte em particular, em função de incerteza nas ações, nas dimensões
e na resistência do material desta ponte.
Em conclusão, a interpretação Bayesiana da con abilidade estrutural (Seção A.1.1), ou da probabilidade de
falha estrutural, é tecnicamente correta, e evita problemas losó cos relacionados à validação.
Pelo exposto, uma probabilidade de falha calculada para uma estrutura única não pode ser diretametne
comparada com taxas observadas de falha ou de colapso. No entanto, considerando que o mesmo arcabouço
técnico e normativo é utilizado para projetar estruturas, e para avaliar sua resistência e sua con abilidade,
é possível comparar probabilidades de falha calculadas para classes de estruturas, com taxas observadas de
colapso. Proske (2022) realiza esta comparação para pontes, túneis, barragens, estruturas de contenção, prédios
e usinas nucleares. O autor mostra que, com excessão das últimas, as probabilidades de falha calculadas são
maiores do que as taxas de colapso observadas. Proske (2022) atribui este resultado ao conservadorismo dos
modelos de cálculo.

2.3 MODELOS DE RESISTÊNCIA


A descrição da resistência de estruturas e de elementos estruturais, bem como das incertezas envolvidas, requer
o conhecimento de: a) propriedades estatísticas dos materiais estruturais; b) estatísticas das dimensões dos
elementos; c) modelos de cálculo para a resistência de estruturas ou elementos; d) efeitos de fabricação e de
controle de qualidade; e) efeitos do tempo sobre a resistência (cura, ‡uência, desgaste, corrosão, fadiga, etc.); f)
efeitos de provas de carga, que servem para truncar a cauda inferior da resistência e g) correlação entre diferentes
propriedades ou entre a mesma propriedade em diferentes pontos da estrutura. A maior parte da informação
estatística disponível na literatura se refere aos ítens a) até c), que são discutidos nesta seção.
42 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL

Figura 2-4: Histograma de resistência e resistência característica.

2.3.1 A resistência característica


Considere a realização de um experimento para determinar a resistência R de um material estrutural. Tal
experimento pode ser o ensaio de tração em um corpo de prova retirado de uma chapa de metal, o ensaio de
‡exão em três pontos de uma amostra de madeira, o ensaio de blocos ou prismas de alvenaria estrutural ou
o ensaio de compressão de corpos de prova, moldados no recebimento, de uma amostra de concreto. Todo
estudante de engenharia fez, ou deveria ter feito2 , um experimento deste tipo. Como resultado, observamos:
se dez corpos de prova são ensaiados, dez medidas distintas da resistência do material são obtidas. No ensaio
de n corpos de prova, n valores distintos de resistência são observados. É claro que tais resultados estarão
centrados em torno de uma média , e observaremos uma dispersão dos resultados em torno desta média. Em
geral, quanto mais resistente o material, maior a resistência média; quanto melhor a qualidade do mesmo, menor
a dispersão em torno da média. No entanto, um fato é irrefutável: a resistência do material, que se está tratando
de caracterizar, não pode ser determinada de forma exata ou determinista. Ainda assim, a resistência pode ser
representada como uma variável aleatória, e quanti cada em termos de probabilidades, conforme Apêndice A.

p Com base nos (n) resultados disponíveis, o analista pode determinar a média (r, Eq. A.17) e o desvio-padrão
( v, Eq. A.20) da amostra,
p bem como traçar um histograma dos resultados, conforme ilustrado na Figura 2-4.
As quantidades r e v, bem como o histograma, referem-se especi camente à amostra em análise; no entanto,
o analista quer determinar as propriedades da população, que épa resistência do material, ou variável aleatória
R. Sabemos que no limite com n ! 1, asp quantidades r e v convergem para os momentos µR e σR da
população (a resistência),
p tal que r ! µR e v ! σR . Na prática, para n “su cientemente grande”, temos que
µR ¼ r e σR ¼ v. A partir destes momentos, e/ou do histograma ilustrado na Figura 2-4, o analista pode
inferir uma distribuição de probabilidades fR (r) para a resistência, o que implica em postular, por exemplo:
“a resistência deste material segue uma distribuição normal com parâmetros µR e σ R ”, ou R » N (µR , σR ); ou
ainda: “a resistência segue uma distribuição lognormal com momentos µR e σ R ”, ou R » LN (µR , σR ). Nestas
sentenças, normal (Seção A.3.2) e lognormal (Seção A.3.2) são apenas dois exemplos de distribuições utilizadas
com frequência para representar variáveis de resistência.
Conhecida a função de distribuição fR (r), bem como os momentos µR e σR , temos uma descrição completa
da variável aleatória R, em termos de probabilidades. No entanto, o emprego de variáveis aleatórias no pro-
jeto ou análise convencional de estruturas, ou na fabricação ou comercialização dos materiais, não é prático,
e nem necessário, como veremos. Para tanto, convencionou-se utilizar o chamado valor característico da re-
sistência. Dentre todos os valores que uma variável aleatória pode assumir, o valor característico rk é aquele

2O
leitor que queira reproduzir um experimento equivalente, de forma muito simples, pode contar o número de ciclos necessários
para romper um conjunto de clips de papel, todos idênticos, e ensaiados em ‡exão alternada.
2.3. MODELOS DE RESISTÊNCIA 43

Figura 2-5: Variável aleatória adimensionalizada .

que corresponde a uma probabilidade pré-determinada pk de não ser ultrapassado no sentido desfavorável. A
probabilidade pk também é chamada de nível de con ança. Para variáveis de resistência temos:

pk = P [fR > rk g] = 1 ¡ FR (rk ), (2.6)


sendo FR () a função de distribuição cumulativa de probabilidades. A resistência característica é obtida como:

rk = FR¡1 (1 ¡ pk ).

Para variáveis de resistência, um nível de con ança comumente utilizado é pk = 0, 95.

Para variáveis aleatórias com distribuição normal, o valor característico também pode ser obtido por:

rk = µR ¡ kR σ R ,

sendo kR uma constante que re‡ete o nível de con ança pk associada ao valor característico rk (Figura 2-4). A
Tabela 2.1 ilustra alguns valores de kR e pk para a distribuição normal.

Tabela 2.1: Níveis de con ança para distribuição normal.


Constante kR Nível de con ança pk
P [fR > rk g] = 1 ¡ FR (rk )
1,000 0,841
1,645 0,950
2,000 0,977
3,000 0,999

O uso da resistência característica facilita o projeto convencional de estruturas e a comunicação entre as


partes envolvidas. O engenheiro pode projetar uma estrutura para determinada resistência característica, e
encomendar a compra ou produção do material com esta propriedade. Nos parágrafos acima ilustramos a deter-
minação do valor característico a partir da distribuição de probabilidades da variável aleatória. Na análise de
con abilidade, no entanto, muitas vezes fazemos o caminho inverso: dada a resistência característica, queremos
“reconstruir” a variável aleatória, ou seja, queremos determinar sua distribuição de probabilidades. Para tanto,
44 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL

é apropriado adimensionalizar, ou normalizar, a variável aleatória por seu valor característico. Seja:
R
Y =
rk
a variável aleatória normalizada (Figura 2-5). Ao multiplicar uma variável aleatória por uma constante (1/rk ),
sua média é multiplicada por esta constante, e seu coe ciente de variação δ = σ/µ ca inalterado. Logo, a
média de Y ca: µY = µR /rk , e δ Y = δ R . Neste contexto, a razão entre a resistência média e a resistência
característica, ou µY = µR /rk , é chamada de fator de bias (tendência). Para muitas “famílias” de resistências,
como aços ou concretos de uma mesma classe, as características da variável normalizada Y são constantes; logo,
podemos especi car as estatísticas de Y , e o valor característico rk , e “reconstruir” a variável aleatória R a
partir de R = rk Y. Exemplos são apresentados na sequência.

2.3.2 Concreto armado


O concreto armado é um dos materiais estruturais mais utilizados na construção civil, a nível mundial. No
Brasil, chega a responder por até 72% das obras, segundo estimativa de Santiago (2017), com base no consumo
de materiais registrado pelo IBGE na Pesquisa Anual da Indústria da Construção Civil, entre os anos de 2007
e 2014 (IBGE, 2015).
A resistência do concreto armado é determinada essencialmente pelas resistências do concreto e do aço das
armaduras, bem como pela proporção entre estes (taxa de armadura). Em função de critérios de projeto que
visam a ductilidade, a resistência do aço das armaduras é determinante para a resistência de elementos sujeitos à
tração ou ‡exão (Fusco, 1981). A resistência do concreto tem papel importante para elementos sob compressão,
como colunas, e para estados limites de serviço.

Concreto

Dentre os materiais estruturais usuais, o concreto é um dos que apresenta maior variabilidade de propriedades.
Observamos também que esta variabilidade é fortemente dependente do controle de qualidade empregado na
produção.
Considere o ensaio de compressão de corpos de prova de concreto usinado, provenientes de uma mesma
betonada, moldados em loco no recebimento, ensaiados em condições controladas de laboratório, após 28 dias
de cura. O processamento dos resultados para n corpos de prova foi exempli cado na Seção 2.3.1. No caso
especí co do concreto, a resistência média é função da fração de cimento utilizada na mistura, e o desvio-padrão
é função do controle de qualidade do processo de produção. Mesmo em uma única betonada, a variabilidade
da resistência decorre da não-homogeneidade micro-estrutural do material, formado por pasta cimentícia e
agregado, e de não-homogeneidades da mistura. A variabilidade da resistência vai aumentando à medida que
consideramos varias betonadas de uma mesma usina, concreto moldado em loco, concretos oriundos de usinas
diferentes em uma mesma região geográ ca, e concretos produzidos em todo um país. A variabilidade entre
betonadas aumenta devido à variações nas proporções da mistura, e variações nas propriedades dos materiais
constituíntes.
A variabilidade da resistência do concreto, a ser considerada em análise de con abilidade, deve ser compatível
com o escopo da análise. Para determinar a con abilidade de uma única estrutura, que será produzida com
concreto de uma única usina, podemos utilizar o desvio-padrão de produção daquela usina. No entanto, em
um trabalho de calibração de normas técnicas, por exemplo, o desvio-padrão a ser considerado deve re‡etir a
variabilidade dos concretos produzidos em toda a região coberta pela norma.
Referências diversas citam as distribuições normal e lognormal como próprias para descrever a incerteza na
resistência à compressão do concreto. A distribuição normal leva à conhecida expressão:

µfc = fck + 1, 65σ,


2.3. MODELOS DE RESISTÊNCIA 45

sendo fck a resistência característica, µ a média e σ o desvio-padrão. O fator 1, 65 está associado ao nível de
con ança de 95%, conforme Tabela 2.1. Esta expressão serve para determinar as proporções da mistura, para
desvio-padrão de norma ou correspondente ao histórico de produção da usina. A mesma expressão fornece a
média da resistência, para fck especi cado. O fator de tendência ou bias ca:
µfc 1, 65σ
µY = =1+ ¢ (2.7)
fck fck

Referências internacionais (Melchers & Beck, 2018; Nowak & Szerszen, 2003) indicam fatores de bias entre
1,12 e 1,38, para concretos usuais, com resistência na faixa 20-45 MPa. Coe cientes de variação δ = σ/µ
estão na faixa de 0,04 a 0,2; com os valores menores correspondentes a controle de qualidade excelente. Estes
valores de coe ciente de variação correspondem a variação entre lotes (diferentes concreteiras). Para lotes de um
único fornecedor, a variabilidade entre betonadas pode ser metade dos valores acima. Valores especí cos para
concretos de alta resistência são dados em (Melchers & Beck, 2018; Nowak & Szerszen, 2003), e para concreto
leve em Nowak & Szerszen (2003). Efeitos de tempo de cura e compactação são discutidos em (Melchers &
Beck, 2018).
Estatísticas da resistência de concretos usinados produzidos no Brasil são apresentadas e discutidas em
Santiago & Beck (2011, 2017). Os autores analisaram resultados de ensaios de resistência à compressão axial
aos 28 dias de idade, realizados em mais de 39 mil corpos de prova cilíndricos moldados in loco em obras das
cinco regiões do Brasil, entre os anos de 2011 e 2016. O fator de bias encontrado está entre 1,11 e 1,30, e o
coe ciente de variação entre 0,1 e 0,2, conforme Tabela 2.2.

Tabela 2.2: Estatísticas de resistência a compressão de concretos brasileiros, segundo Santiago & Beck (2017).
µfc
Classe Bias ( fck ) c.v. (δ)
C20 1,30 0,20
C25 1,25 0,17
C30 1,22 0,15
C35 1,19 0,13
C40 1,16 0,11
C45 1,13 0,10
C50 1,11 0,10

Módulo de elasticidade do concreto

O módulo de elasticidade do concreto está relacionado com a resistência característica através de uma função,
que assume formas variadas nas diversas normas internacionais. Na norma brasileira de concreto (ABNT NBR
6118:2014), consideramos:
( p
5600 αe fck , para fck · 50 MPa;
Ek = ³ ´1/3 (2.8)
21500 αe f10ck
+ 1, 25 , para 50 · fck · 90 MPa;

sendo αe um parâmetro que leva em conta o tipo de agregado.


Certamente, esta relação também implica em uma relação de dependência entre a variável aleatória módulo
de elasticidade do concreto e a variável aleatória resistência do concreto. No entanto, esta relação não está bem
estabelecida na literatura.
Santiago (2017) analisou resultados de ensaios de módulo estático de deformação secante realizados em mais
de 1,7 mil corpos de prova cilíndricos moldados in loco em obras das cinco regiões do Brasil, de concretos das
classes C30 a C45. Resultados mostram um fator de bias de 1,04 com δ = 0, 04, e se ajustam bem a uma
46 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL

distribuição normal.

Aço de armadura

A variabilidade na resistência ao escoamento de barras de reforço é consequência do processo produtivo do aço e


das barras. Para barras produzidas em uma mesma siderúrgica, o coe ciente de variação é da ordem de 1 a 4%.
Para barras produzidas em várias siderúrgicas, este valor ca entre 4 e 7% (Melchers & Beck, 2018). Outras
referências (Nowak & Szerszen, 2003, Joint Committee on Structural Safety, 2001) citam fator de bias entre
1,12 e 1,2, e coe ciente de variação entre 0,035 e 0,065. Variabilidade na área da seção transversal é tipicamente
pequena, com bias unitário e δ = 0, 02. Distribuições de probabilidade incluem normal, lognormal e Beta.
Resultados de ensaios de tração em 8,7 mil barras de aço CA-50, com diâmetros entre 8 e 25 mm, oriundas
de diferentes lotes produzidos no Brasil ao longo do ano de 2016 foram compilados por Santiago (2017). O fator
de bias cou em média 1,22, com δ = 0, 04. O fator de bias está um pouco acima de valores internacionais; o
coe ciente de variação está dentro do observado internacionalmente. A distribuição normal se mostrou apro-
priada. Em consideração à variabilidade na área da seção transversal e na taxa de carregamento, podemos
aumentar estes coe cientes de variação em pelo menos 50% (Mirza & McGregor, 1979).

2.3.3 Aço estrutural laminado


Propriedades do aço estrutural laminado são determinadas através de ensaios diversos, ao longo da cadeia de
produção. De interesse para o projeto de estruturas são propriedades como resistência, ductilidade, módulo de
elasticidade, dureza, todos determinados através de ensaios na etapa nal de produção, seja do aço plano ou de
per s extrudados. Há três aspectos importantes a considerar, ao se avaliar a resistência: a) ensaios mecânicos
para determinação das propriedades são realizados a taxas de carregamento típicamente maiores do que as de
serviço; b) o aço ensaiado não é exatamente o aço vendido, em função da prática de re-classi car para baixo aços
que eventualmente não alcançem a resistência inicial especi cada; c) corpos de prova são geralmente retirados
da alma dos per s extrudados, sendo que os ‡anges costumam ter menor resistência, e são mais determinantes
nas falhas estruturais. Em consequência dos aspectos relacionados acima: a) as resistências medidas devem
ser reduzidas em função da taxa de carregamento, como será mostrado na sequência; b) as distribuições de
probabilidade dos aços “tais quais vendidos” podem se mostrar bi-modais, com um segundo pico em resistências
maiores e c) torna-se necessária uma correção em função da posição, para per s extrudados.

Tensão de escoamento e de ruptura

A resistência dos aços depende da composição (percentual de carbono, materiais de liga) e do processo de fabri-
cação. Assim, propriedades como tensão de escoamento e tensão última devem ser relacionadas à especi cação
técnica do aço. Resultados compilados por Galambos & Ravindra (1978) para a tensão de escoamento de per s
laminados produzidos nos Estados Unidos mostram um fator de bias de 1,21 em relação à média, como testado
pelo fabricante. Corrigindo para a tensão de escoamento estática, o fator de bias é reduzido para 1,09. O
coe ciente de variação cou em torno de 0,082. Dados obtidos por Baker (1969, 1972) para aços ingleses e por
Alpsten (1972) para aços da Suécia mostram fator de bias entre 1,03 e 1,32 para diversas classes e formas de
aço. Estes valores, quando reduzidos para tensão estática, cam entre 0,92 e 1,21. Coe cientes de variação
estão na faixa de 0,04 a 0,12. Tabelas completas são apresentadas em Melchers & Beck (2018). Aparentemente,
efeitos de taxa de carregamento nos coe cientes de variação podem ser ignorados.
Uma correção empírica para a tensão de escoamento, em função da taxa de carregamento ε, é dada por Rao
et al. (1966): fyh ¡ fy = 22 + 6900ε (MPa), sendo fyh a tensão obtida em ensaio não-estático (0, 0002 · ε ·
0, 0016). Esta diferença é aproximadamente normal, com média em torno de 24 MPa e δ = 0, 13.
O JCSS (2001) reporta um fator de bias entre 1,11 e 1,15 para os aços europeus, antes da redução, e um
coe ciente de variação de 0,07. A recomendação de redução para taxa de carregamento é constante e igual a 20
2.3. MODELOS DE RESISTÊNCIA 47

MPa. O material (JCSS, 2001) também traz estatísticas para a tensão última de ruptura de aços laminados, e
a correlação entre esta e a tensão de escoamento, que é da ordem de 0,75.
Para aços utilizados em construção civil no Brasil, produzidos no Brasil e na China, Santiago (2017) obteve
as estatísticas mostradas na Tabela 2.3. Os resultados correspondem a um representante de aço-carbono (ASTM
A36) e um aço de baixa liga e alta resistência mecânica (ASTM A572 GR50). A tabela inclui ainda valores
médios e o valor de referência utilizado na calibração das normas Norte-Americanas. Resultados para tensão
última de ruptura são apresentados na Tabela 2.4.
As distribuições de probabilidade utilizadas para representar a tensão de escoamento incluem normal, log-
normal e Gumbel. Para os aços empregados no Brasil, uma distribuição normal foi utilizada por Santiago
(2017), tanto para tensão de escoamento como de ruptura.

Tabela 2.3: Estatísticas de resistência ao escoamento de aços utilizados no Brasil, segundo Santiago (2017).
µfy
Aço Bias ensaio Bias red. ( fyk ) c.v.
ASTM A36 1,34 1,26 0,090
ASTM A572 GR50 1,22 1,16 0,080
Média 1,28 1,20 0,085
Ellingwood et al. (1980)
alma de per s extrudados - 1,10 0,110

Tabela 2.4: Estatísticas de resistência à ruptura (tensão última) de aços utilizados no Brasil, segundo Santiago
(2017).
µf u
Aço Bias ( fuk ) c.v.
ASTM A36 1,16 0,060
ASTM A572 GR50 1,19 0,050
Média 1,175 0,055
Ellingwood et al. (1980) 1,10 0,110

Módulo de elasticidade e coe ciente de Poisson

Estatísticas obtidas de várias fontes para módulo de elasticidade (E) e coe ciente de Poisson (υ) dos aços
laminados foram compiladas por Galambos e Ravindra (1978), e reproduzidas em detalhes em Melchers & Beck
(2018). Em ensaios de tração, o fator bias µE /Ek ca em torno de 1,02, com δ E = 0, 01. Em ensaios de
compressão, ou em conjuntos mistos, o fator de bias aumenta para até 1,08, e o coe ciente de variação chega a
0, 06. Para o coe ciente de Poisson, o fator de bias esta muito próximo a um (µυ /υ k ¼ 0, 99) com δ υ ¼ 0, 025.
Estas estatísticas foram determinadas para aços com valores nominais Ek = 200 GPa e υ k = 0, 3. Já o JCSS
(2001) recomenda um fator de bias unitário e δ = 0, 03 para ambas variáveis (E e υ). Estatísticas para o módulo
de rigidez são raras, portanto convém tratar G como variável dependente: G = E/[2(1 + υ)]. O JCSS (2001)
recomenda distribuições log-normais para todas as variáveis.

Seção transversal

Incertezas nas dimensões de elementos laminados são consequência do processo de fabricação. Incertezas na
altura ou largura de elementos são bastante pequenas, com coe ciente de variação em torno de 0,2%, e tem
impacto desprezível na resistência dos elementos. A variabilidade na espessura tem impacto maior. No entanto,
em termos de resistência estrutural, são mais importantes as variabilidades nas propriedades de seção transversal,
como área A, momento de inércia da seção I, peso linear W e módulo plástico da seção Z. A maior parte da
48 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL

variabilidade nestas propriedades se deve à variabilidade da espessura dos ‡anges. Histogramas normalizados
de altura e largura da seção transversal, espessura de alma e ‡ange, e das propriedades A/Anom , I/In om ,
W/Wnom , e Z/Znom são reproduzidas em Melchers & Beck (2018), com base em resultados de Alpsten (1972).
Por recomendação de Ellingwood (1980), pode-se considerar um fator de bias unitário e δ = 0, 05 para estas
propriedades da seção transversal de per s de aço laminado.

2.3.4 Outros materiais e propriedades


Nesta seção nos propomos a fazer um apanhado de modelos estatísticos das principais variáveis de resistência.
Estatísticas e modelos para outros materiais e outras propriedades de resistência são dados nas referências que
seguem.
Estatísticas para alumínio estrutural, conexões metálicas, estruturas de alvenaria e de madeira, para a
realidade norte-americana, são apresentadas em Ellingwood et al. (1980).
No documento Probabilistic Model Code (JCSS, 2001), além das propriedades discutidas neste texto, são
apresentados modelos e estatísticas para aço de protensão, estruturas de madeira e alvenaria, e para propriedades
de solos. Alguns ítens foram adicionados ao documento principal, disponível online, em data posterior.
Outras estatísticas para a realidade brasileira são apresentadas por Santiago (2017). Além daquelas já apre-
sentadas aqui, o autor apresenta dados de carga de ruptura, módulo de elasticidade e área de seção transversal
de cabos de aço para protensão, bem como resultados de ensaio de resistência de blocos de concreto (alvenaria).

2.3.5 Incertezas de modelo da resistência de elementos estruturais


Formulação

Para determinar a resistência de um elemento estrutural como viga, coluna, laje, ou de uma estrutura completa,
com base na resistência dos materiais constituíntes, utilizamos modelos de cálculo. Como exemplos podemos
citar a determinação da resistência de vigas de concreto armado, com base na resistência do aço de armadura
e do concreto; a resistência de vigas produzidas a partir de chapas de aço laminado, a resistência de colunas
mistas de aço e concreto, a resistência de uma parede de alvenaria com base na resistência dos blocos e da
argamassa, etc.
Modelos de cálculo aproximam, de forma abstrata, a complexa natureza do comportamento das estruturas,
em especial próximo às situações de falha ou colapso, de interesse para a con abilidade estrutural. Estas aprox-
imações podem incluir, por exemplo, assumir resposta linear dos materiais e resolver as equações de equilíbrio
na con guração indeformada da estrutura. Estas duas classes principais de aproximações são conhecidas como
linearidade material e linearidade geométrica. A estas se somam dezenas de pequenas aproximações, feitas nos
modelos de cálculo no sentido de torná-los simples e operacionais; ou ainda, realizadas simplesmente porque
a natureza exata dos comportamentos não é conhecida. Em engenharia de estruturas estas aproximações são
tipicamente conservadoras, i.e., são feitas usualmente no sentido de aumentar as margens de segurança.
Com o advento da engenharia assistida por computador (CAE), aumentou a percepção da “exatidão” dos
modelos de cálculo: erros de representação geométrica, ou de solução numérica das equações diferenciais e
integrais dos problemas foram praticamente eliminados. No entanto, existem diferenças signi cativas entre a
complexidade dos problemas reais e a simplicidade dos problemas abstratos que resolvemos no computador. Os
modelos de comportamento material são aproximados, mesmo quando não-lineares; as condições de vinculação
e de aplicação dos carregamentos são idealizadas; os casos de carregamento são um sub-conjunto das situações
às quais a estrutura pode ser submetida durante a vida útil.
Considere como exemplo o comportamento de um elemento estrutural simples como uma coluna. Consider-
amos que existe uma solução “exata”, dada pela fórmula de Euler, para colunas longas, elásticas e perfeitamente
alinhadas, sujeitas a carregamentos centrados e perfeitamente vinculadas. Soluções analíticas fora do “longo,
2.3. MODELOS DE RESISTÊNCIA 49

elástico, perfeitamente retilínio e vinculado” são adaptações da equação de Euler, e incluem as colunas curtas
e médias, com imperfeições iniciais, carregamentos excêntricos, vinculações que não são rótulas nem engastes,
ou seja, as colunas que se aproximam da realidade. Soluções numéricas via elementos nitos, por exemplo, per-
mitem representar melhor as imperfeições geométricas, as falhas combinadas por ‡exo-torção, ‡exo-compressão,
não-linearidades materiais e geométricas, etc. No entanto, a complexidade do modelo aumenta, tornando-o
inviável para simular todas as colunas de um prédio, ou todas as barras de uma treliça.
Modelos de cálculo de engenharia representam a essência do conhecimento pro ssional em determinada área,
e por isto muitas vezes é difícil admitir sua imprecisão. Ellingwood e co-autores (Ellingwood et al., 1980, 1982),
falam em “fator pro ssional”, uma nomenclatura mais sutíl do que “incerteza de modelo”. No outro extremo,
temos a drástica a rmação do estatístico George Box: “all models are wrong, some models are useful ” (Box et
al., 2005), em tradução livre: “todos os modelos são errados; alguns ainda assim são úteis”. Neste texto, não
discutimos a precisão de nenhum modelo particular de resistência. Pelo contrário, temos o objetivo de mostrar
ao leitor como a precisão de qualquer modelo de cálculo pode ser avaliada, e de apreciar a ordem de grandeza
das incertezas de modelos usuais em projeto de estruturas.
A precisão de um modelo de cálculo pode ser avaliada comparando suas previsões com resistências observadas
experimentalmente. Idealmente, esta avaliação deveria ser feita em relação à resistência real das estruturas
ou elementos, tal qual construídos; no entanto, é muito difícil medir in loco, e de maneira não-destrutiva, a
resistência de estruturas ou elementos estruturais. Assim, a avaliação da precisão do modelo é feita através de
experimentos em laboratório que devem replicar a situação de trabalho do elemento, ao invés de reproduzir as
hipóteses do modelo, mas respeitadas as limitações conhecidas.
A variável aleatória incerteza de modelo E é de nida como:

Rexp
E= , (2.9)
Rmod
ou seja, a variável E mede a razão entre resultados experimentais, e a resistência prevista para os mesmos
resultados utilizando o modelo, Rmod .
Seja f (p, R) uma função que representa o modelo de cálculo da resistência de uma estrutura ou elemento
estrutural, em função de um vetor de parâmetros p e de um vetor de variáveis aleatórias R:

Rmod = f (p, R).

Os parâmetros p representam o conjunto de situações para as quais o modelo f ( ) se aplica, como dimensões
estruturais, condições de vinculação, etc., mas que não são (representados como) variáveis aleatórias. Na
avaliação da instabilidade de uma coluna, por exemplo, p inclui, entre outros, o comprimento ou índice de
esbeltez da coluna. O vetor R reúne todas as variáveis aleatórias como resistência dos materiais, dimensões,
etc. Para a análise que segue, a incerteza nas variáveis R deve ser conhecida, isto é, antes de realizar o ensaio da
estrutura, devemos realizar medidas das tensões de escoamento e ruptura do material, módulo de elasticidade,
dimensões, etc. Seja ¹R o vetor que contém as médias das variáveis R. Idealmente, a incerteza nas variáveis
R deveria ser a menor possível, para se medir apenas a imprecisão do modelo. Como isto não é possível, uma
análise posterior é necessária para remover incerteza em R da medida de incerteza do modelo.
Considere agora a realização de n ensaios em laboratório, com ou sem mudança nos parâmetros p, para
avaliar a resistência real de estruturas ou elementos estruturais. Para cada ensaio i, obtemos uma realização da
resistência, (Rexp )i , e uma observação da variável aleatória incerteza de modelo:

(Rexp )i Rexp (pi )


Ei = = . (2.10)
(Rmod )i f (pi , ¹R )

As estatísticas da variavel aleatória E podem ser determinadas conforme Seção 2.3.1 e Eqs. (A.17) e (A.20).
O erro estatístico de amostragem é reduzido à medida que n ! 1. O modelo de cálculo ideal, ou perfeito, é
50 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL

aquele com erro sistemático nulo (ou média µE = 1) e erro aleatório nulo (variância σ2E = 0), conforme Seção
1.1.4. Na prática, podemos esperar uma média próxima da unidade, e uma variância pequena. Em engenharia
de estruturas, um “bom” modelo tem coe ciente de variação δ E = σE /µE menor do que 10%. Com frequência
maior do que poderia ser desejável, observamos modelos com δ E signi cativamente maiores. Em se tratanto de
modelos de resistência3 , uma média maior do que a unidade indica um modelo que é, em média, conservador.
Isto signi ca que o modelo erra mais prevendo resistências menores do que a resistência real, do que o contrário.
Modelos de cálculo em engenharia de estruturas são, típicamente, conservadores.
Do ponto de vista puramente estatístico, a avaliação da qualidade de um modelo depende tanto da média
quanto do desvio-padrão. Tal avaliação também é subjetiva, e depende da nalidade do modelo, ou de sua
utilidade para cada usuário. Sem conhecer a aplicação ou utilidade, é difícil dizer se um modelo A, com
µEA = 0, 95 e δ EA = 3% é melhor do que um modelo B, com µEB = 1, 15 e δ EB = 8%. Considerando
especi camente o cálculo de con abilidade, Gomes e Beck (2021) apresentam uma metodologia para veri car e
classi car modelos, com respeito ao grau de conservadorismo.

Modelo com tendências

Para ser representativo, o programa experimental utilizado para obter as estatísticas de incerteza de modelo
(Eq. 2.9) deve considerar variações em todos os parâmetros p considerados signi cativos. Um planejamento
de experimentos (Montgomery, 2012) é recomendável. As estatísticas avaliadas serão válidas para a faixa de
valores p considerados; a eventual extrapolação deve ser feita com cautela. Na manipulação dos resultados
do experimento, podemos eventualmente identi car tendência da variável incerteza de modelo com respeito a
um ou mais parâmetros do modelo. Para efeitos de ilustração, considere que foi identi cada tendência de E
em relação ao parâmetro λ, um dos elementos de p. Neste caso, as estatísticas indicadas na Eq. (2.9) são
determinadas em função do parâmetro λ, e a incerteza de modelo torna-se função explícita deste parâmetro:

Rexp (pj , λk )
Ej (λk ) = , (2.11)
f(pj , λk , ¹R )
sendo j o número de amostras para as quais λ = λk , k = 1, ..., m; e m o número de níveis do parâmetro λ no
programa experimental. Nesta equação, pj refere-se às variações de todos os demais parâmetros.
A identi cação de tendências no modelo é extremamente importante para análise de con abilidade, ou para
eventuais correções do modelo. A determinação das estatísticas envolve análise de regressão (Montgomery, 2012;
Montgomery & Runger, 1999). Uma regressão linear na média, da variável E no parâmetro λ, é obtida fazendo:

E(λ) = aλ + b + ε, (2.12)

sendo a e b dois parâmetros a determinar, e ε uma variável aleatória chamada resíduo. Nesta regressão, a função
aλ + b capta a tendência média do modelo, enquanto a variável ε descreve a incerteza do modelo. Idealmente, os
resíduos deveriam seguir uma distribuição normal com média nula e desvio-padrão constante, i.e., independente
de λ, de forma que ε » N (0, σ ε ). Tomando o valor esperado da Eq. (2.12), obtemos:

E[E(λ)] = E[aλ + b + ε],


µE (λ) = aλ + b.

Tomando a variância:

Var[E(λ)] = Var[aλ + b + ε],


σ2E = σ2ε .

3 Na Seção 2.4.7 descrevemos erros de modelos de ações.


2.3. MODELOS DE RESISTÊNCIA 51

Para realizar uma regresão não-linear de E no parâmetro λ, trabalhamos com mudança de variáveis. Por
exemplo, uma regressão linear na variável κ = 1/λ resulta em uma regressão não-linear na variável λ. Um
exemplo de regressão não-linear envolvendo incerteza de modelo é apresentado em Beck et al. (2009). O
exemplo trata de modelos para previsão da capacidade de colunas mistas de aço preenchidas com concreto,
onde foi veri cada tendência do modelo com respeito ao índice de esbeltez das colunas.

Incorporando a incerteza de modelo em análises de con abilidade

A experiência do autor revela que incertezas de modelo são signi cativas em problemas de con abilidade estru-
tural. A inclusão da incerteza de modelo em problemas de con abilidade é feita utilizando como referência os
resultados experimentais, a partir das Eqs. (2.9) ou (2.11):

R = E(λ) f (p, R).

Nesta equação, a variabilidade de R será maior do que no programa experimental, pois inclui variáveis não
controladas no experimento. Esta expressão é válida para modelo tendencioso (E(λ)) ou não-tendencioso (E(λ) =
E).

Correção do modelo pela média

Uma vez quanti cada a incerteza de modelo, é possível realizar a correção do modelo pela média. Isto também
é feito a partir das Eqs. (2.9) ou (2.11), substituindo E pela média µE , ou E(λ) pela média µE (λ):

corr
Rmod = µE (λ) f (p, R).
corr
Com a correção pela média, o novo modelo Rmod será não-tendencioso ou, pelo menos, não apresentará a mesma
tendência com relação à variável da regressão (λ).

Exemplo 1 Avaliacao de Con abilidade utilizando modelo simples e modelo preciso


Dados: Sejam dois modelos de cálculo para determinar a resistência de um elemento estrutural. Típi-
camente, o modelo simples (M S) é um modelo analítico ou semi-analítico de norma técnica. O modelo
preciso (M P ) é mais complexo, típicamente um modelo numérico, possivelmente não-linear. As estatísticas
da variável incerteza de modelo para os dois modelos são:

EM S s N (µS , σS ), S = simples;
EM P s N (µP , σ P ), P = preciso.

Modelos de norma são típicamente conservadores, pois as aproximações geralmente são feitas a favor da
segurança. Para um modelo de resistência, isto signi ca que típicamente µS > 1. Para o model preciso,
assumimos µP = 1. Típicamente, também temos σS > σP , pois as aproximações do modelo simples o
tornam menos preciso. Para uma resistência experimental igual a x, e utilizando a Eq. (2.9), os respectivos
modelos de resistência são obtidos como:
x
M S(x) = ,
µS
x
M P (x) = = x.
µP

Note que o modelo simples, por ser conservador (µS > 1), prevê uma resistência menor do que a resistência
experimental4 . Para completar o problema de con abilidade, consideramos uma ação Q s N (µQ , σQ ),
52 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL

com valor médio unitário (µQ = 1), e um fator de segurança global γ. Para simpli car a solução de
con abilidade, assumimos a resistência do material como determinística; logo, cada equação de estado
limite envolve apenas duas variáveis aleatórias, a ação Q e a incerteza de modelo E.
Solução
Projeto: A solicitação nominal é igual à ação média, µQ = 1. A solicitação de projeto é sD = γ µQ = γ.
A condição de projeto é rD ¸ sD . Utilizando o modelo simples para o projeto, e projetando na igualdade,
temos:

M S(rDS ) = γ
rDS
= γ
µS
rDS = γ µS

sendo rDS a resistência de projeto, de acordo com o modelo simples.


Equações de estado limite: As equações de estado limite, para avaliação do índice de con abilidade
via modelo simples e via modelo preciso são, respectivamente:
γ µS
gS = EM S MS(rDS ) ¡ Q = EM S ¡ Q = EMS γ ¡ Q (2.13)
µS
γ µS
gP = EM P M P (rDS ) ¡ Q = EM P ¡ Q = EM P γ µS ¡ Q (2.14)
1

Na expressão envolvendo o modelo simples, a margem de segurança correspondente ao conservadorismo


do modelo de cálculo aparece na média da variável aleatória EM S , igual a µS > 1. Já na avaliação da
con abilidade utilizando o modelo mais preciso, esta margem aparece na resistência de projeto, rDS = γ µS ,
uma vez que o elemento foi projetado de forma conservadora. A margem de segurança correspondente ao
fator de segurança global aparece de forma similar em ambas equações.
Índices de con abilidade: Como as resistências dos materiais foram consideradas determinísticas, as
Equações (2.13) e (2.14) são lineares em variáveis aleatórias normais; logo, o índice de con abilidade de
Cornell (Eq. 1.9) fornece as soluções exatas:
µ µ γ ¡ µQ
βS = q gS = q S ,
σ2gS σ2S γ 2 + σ 2Q
µg µP γ µS ¡ µQ
βP = q P =q
σ2gP σ2P γ 2 µ2S + σ2Q

Das equações acima observamos que, se σS > σP µS (pode ser considerado típico), então β S < βP , o que
indica conservadorismo no índice de con abilidade β S calculado com o modelo simples. A Figura 2-6 ilustra
os resultados em termos da razão σS /σP , para µS = 1, 05 e µS = 1, 2, considerando µQ = σ Q = 1. Como
vemos na gura, o uso do modelo simples para avaliar a con abilidade pode resultar em estimativas bem
conservadoras para o índice de con abilidade. Sempre que possível devemos utilizar o modelo mais preciso
para avaliação da con abilidade, pela redução da incerteza de modelo.
Projeto e β via modelo preciso: O projeto do elemento estrutural utilizando o modelo mais preciso
não é usual, mas é possível. Para ns de ilustração, desenvolvemos também este resultado. Neste caso,
não faz sentido avaliar a con abilidade utilizando o modelo simples. Utilizando o modelo mais preciso, a
resistência de projeto é rDP = γ µP = γ. A equação de estado limite e o índice de con abilidade são obtidos
2.3. MODELOS DE RESISTÊNCIA 53

Figura 2-6: Índices de con abilidade obtidos via modelo simples, modelo preciso, e projetando via modelo
preciso.

como:

gP P = EM P MP (rDP ) ¡ Q = EM P γ ¡ Q,
µP γ ¡ µQ
βP P = q ,
σ2P γ2 + σ2Q

sendo o índice ()P P para “projeto preciso”. No exemplo ilustrado na Figura 2-6, vemos que o projeto usando
o modelo preciso (µP = 1) resulta em menores índices de con abilidade, porque a margem de segurança
adicional, resultante de µS > 1, não existe neste caso. Ao trocar modelos de cálculo mais simples, e
conservadores, por modelos mais precisos, convém veri car se o coe ciente global γ deve ser ajustado.

Incerteza de modelos estruturais usuais

Conforme comentado, modelos de cálculo são fonte signi cativa de incertezas em análises de con abilidade
estrutural. Portanto, é importante realizar a quanti cação de incertezas de modelo, conforme descrito nesta
seção. Como forma de apreciar a qualidade de modelos usuais em engenharia de estruturas, apresentamos aqui
algumas estatísticas de incertezas de modelo da literatura. Os modelos em si não são discutidos; sugerimos
consulta às referências originais para detalhes.
A Tabela 2.5 é uma compilação de dados da literatura para modelos usuais de resistência de elementos de aço,
de normas americanas, européias e brasileiras. Ellingwood et al. (1980) levantaram estatísticas para modelos da
norma americana ANSI/AISC 360 (2005). De acordo com estudo de Santiago (2017), estas estatísticas seriam
válidas para a norma ABNT NBR 8800 (2008), pois os modelos de cálculo são muito semelhantes. Estatísticas
para modelos do Eurocode também são apresentadas, segundo o JCSS (2001).
A Tabela 2.6 apresenta uma compilação de dados da literatura para modelos usuais de resistência de elemen-
tos de concreto, de normas americanas (Ellingwood et al., 1980), européias (JCSS, 2001) e brasileiras. Outros
resultados para normas americanas são apresentados por Nowak & Szerszen (2003).
54 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL

Com relação aos modelos da norma brasileira ABNT NBR 6118 (2014), Santos (2012) estudou modelos de
‡exão de vigas em concreto armado incluindo resultados experimentais para 144 vigas com diferentes alturas,
taxas de armadura e resistências do concreto. San Martins (2014) estudou incertezas de modelo para 21 vigas
protendidas ensaiadas à ‡exão. Dantas et al. (201?) estudaram modelos para pilares curtos de concreto armado
submetidos à ‡exo-compressão. Com base neste trabalho, Santiago (2017) selecionou 85 pilares executados com
diferentes concretos, taxas de armadura e seção transversal para determinar as estatísticas apresentadas na
Tabela 2.6. Infelizmente, não há resultados con áveis para os modelos de cisalhamento em vigas de concreto
armado da NBR 6118, apesar do esforço de Ribeiro (2012) e Ribeiro et al. (2016). Incertezas de modelo para
colunas de concreto con nado por plástico reforçado com bras de carbono são estudados em (Ferreira, 2017).

Tabela 2.5: Estatísticas de erro de modelo de resistência para elementos estruturais em aço.
Aço Elemento Média (µE ) c.v. Dist. Ref.
Tração 1,00 0,00 N A
Flexão vigas compactas:
momento uniforme 1,02 0,06 N A
vigas contínuas 1,06 0,07 N A
ANSI/AISC Flexão vigas wide ‡ange:
Instabilidade torcional elástica 1,03 0,09 N A
Instabilidade torcional inelástica 1,06 0,09 N A
Vigas longas 1,02 0,10 N A
Flexão 1,00 0,05 LN B
Cisalhamento 1,00 0,05 LN B
Eurocodes Conexões soldadas 1,15 0,15 LN B
Conexões parafusadas 1,25 0,15 LN B

A: Ellingwood et al. (1980); B: JCSS (2001).

Tabela 2.6: Estatísticas de erro de modelo de resistência para elementos estruturais em concreto.
Concreto Elemento Média (µE ) c.v. Dist. Ref.
Flexão em um eixo, lajes 1,22 0,160 - A
Flexão em dois eixos, lajes 1,12-1,16 0,150 - A
Flexão, vigas 1,01-1,18 0,08-0,14 - A
ANSI/ACI Flexo-compressão, colunas curtas 0,95-1,05 0,12-0,16 - A
Flexo-compressão, colunas longas 0,95-1,10 0,12-0,17 - A
Cisalhamento, sem armadura 0,93 0,210 - A
Cisalhamento, armadura mínima 1,00 0,190 - A
Flexão 1,20 0,150 LN B
Eurocodes Flexo-compressão 1,40 0,250 LN B
Cisalhamento 1,00 0,100 LN B
Flexão concreto armado 0,99 0,024 LN C
NBR6118 Flexão concreto protendido 1,04 0,092 N D
Pilares de CA em ‡exo-compressão 1,15 0,145 N EF

A: Ellingwood et al. (1980); B: JCSS (2001); C: Santos (2012);


D: San Martins (2014); E: Dantas et al. (201?); F: Santiago (2007).
2.4. MODELOS DE AÇÕES 55

2.3.6 Degradação da resistência


Nas seções anteriores, vimos que a resistência de uma estrutura, ou de um elemento estrutural, pode ser função
de um conjunto de variáveis aleatórias, representadas pelo vetor R. A resistência de um elemento de concreto
armado, por exemplo, é função da resistência do aço da armadura, da resistência do concreto, das dimensões
da seção transversal, do cobrimento, etc, e de uma variável incerteza de modelo.
Usualmente, a resistência também muda ao longo do tempo. A resistência pode diminuir, de forma gradual,
através de processos de degradação como corrosão, desgaste, ‡uência e fadiga. Também pode ocorrer aumento
gradual da resistência ao longo do tempo, como por exemplo no processo de cura do concreto. Nesta seção, não
abordamos especí camente nenhum destes processos, já que são particulares e distintos. No entanto, chamamos
atenção ao fato de a resistência ser, em geral, função do tempo:

R(t) = E(λ)f (R,t), (2.15)

sendo f ( ) uma função de resistência, E(λ) a variável incerteza de modelo, e R um vetor de variáveis aleatórias
de resistência. A variável E pode ser omitida, quando inclusa no vetor R.
Os processos de degradação adicionam incertezas à previsão da resistência ao longo dos anos. Por hora,
assuma que as incertezas que descrevem o tempo de despassivação das armaduras, as taxas de corrosão, a
resistência a fadiga, ao desgaste, etc., estão inclusas no vetor R, e que os modelos de degradação da resistência
estão embutidos na função f ( ). Problemas de con abilidade com degradação da resistência são apresentados
na Seção 2.6.1, mas só são resolvidos no Capítulo 6.

2.4 MODELOS DE AÇÕES


A maior parte das ações em estruturas são variáveis no tempo, sendo adequadamente representadas como
processos estocásticos. Típicamente, ações ambientais como vento, ondas, corrente, são processos estocásticos
contínuos. Ações ambientais acidentais como terremotos, tornados, tempestades, neve, etc., são processos
intermitentes, i.e.: contínuos durante a ocorrência, e nulos no restante do tempo. Ações de origem humana como
ações de utilização em pisos, tráfego de veículos sobre pontes, são representadas como processos estocásticos
discretos. Finalmente, uma das poucas ações que pode ser propriamente representada como variável aleatória é
a ação permanente, por exemplo, o peso próprio. Neste texto, a teoria de processos estocásticos é apresentada no
Apêndice B. Muitas ações também tem variabilidade espacial, caso das ações de utilização em lajes, disposição
de veículos sobre pontes, ações ambientais (vento, neve, ondas) sobre grandes superfícies, etc. A teoria de
campos estocásticos, utilizada para descrever a variabilidade espacial das ações, é apresentada no Apêndice C.
Nesta seção, discutimos aspectos fundamentais dos modelos utilizados para descrever ações em estruturas, sem
entrar em detalhes de formulação matemática.
O primeiro ponto importante a destacar é que, como processos estocásticos, a incerteza das ações tem três
componentes: a) intensidade; b) instante de ocorrência do valor extremo; e c) ocorrência (ou não) das ações.
A relação entre intensidade e tempo de ocorrência foi ilustrada na Figura 1-8, e caracteriza o problema de
combinação de carregamentos, a ser introduzido na Seção 2.4.5. Ações excepcionais como terremotos, furacões
e tornados são discretizadas em escalas (Richter, Sa¢r—Simpson e Fujita, respectivamente) e caracterizadas
por grande incerteza. Típicamente, quanto maior a intensidade, menor a probabilidade de ocorrência, o que
caracteriza a relação entre os ítens a) e c) acima.
Nesta seção discutimos modelos de ações usuais em engenharia de estruturas, como ações permanente e de
56 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL

utilização em lajes de prédios, e ações de vento. Também apresentamos algumas referências para modelos de
ações mais especí cas. Novamente, o objetivo é mostrar ao leitor os modelos de ações usuais, e fornecer uma
noção da ordem de grandeza das incertezas envolvidas. Em problemas de con abilidade estrutural, usualmente
incertezas nas ações são predominantes sobre incertezas na resistência.
Nesta seção, bem como no Capítulo 7, utilizamos a nomenclatura das normas americanas para as ações,
por serem mais explícitas. Assim, D refere-se a ação permanente (Dead load), L(t) refere-se a ação variável de
utilização (Live load) e W (t) refere-se a ação do vento (Wind load ). Em algumas situações, as letras referem-se
às ações propriamente ditas; em outros casos, referem-se aos efeitos destas ações. A distinção deve car clara
no contexto. A letra S, ou S(t), refere-se a uma ação genérica, ou ao seu efeito.
Nas discussões que seguem, convém fazer uma distinção entre a distribuição de ponto arbitrário, e a dis-
tribuição de valores extremos de uma ação. Conforme ilustrado na Figura 1-6, a distribuição de ponto arbitrário
no tempo é obtida ao se observar diversas realizações do processo através de uma janela, em um tempo t qual-
quer, mas xo. As distribuições de valores extremos estão associadas a um período especi cado, geralmente a
vida de projeto. Na Figura 1-6 ilustramos a distribuição de valores extremos de 50 anos de um processo es-
tocástico. Fixado o período de referência, a distribuição de valores extremos é obtida observando o maior valor
do processo no intervalo, em várias realizações do processo. Nesta seção, discutimos distribuições de extremos
anuais (W1 ) e de 50 anos para ação do vento (W50 ). Também discutimos distribuições de ponto arbitrário no
tempo (Lapt ) e extremos de 50 anos de ações de utilização (L50 ). O sub-índice ()apt vem do inglês average point
in time.

2.4.1 Vida de projeto e valor nominal de ações variáveis


Historicamente, o valor nominal de ações variáveis foi determinado com base em período médio de retorno com-
patível com a vida de projeto da estrutura. A vida de projeto usualmente considerada para prédios comerciais
e residenciais é de 50 anos; para pontes e grandes estruturas, 100 anos. Já a vida útil destas estruturas pode
ser signi cativamente diferente, em função de manutenções e reformas.
Historicamente, e na maior parte das normas de projeto internacionais, o período médio de retorno de ações
variáveis como as do vento e de utilização em prédios, foram determinados como iguais à vida de projeto.
Assim, projetamos prédios considerando as ações extremas de 50 anos do vento (W50 ) e da ação de utilização
(L50 ). No entanto, as escolhas do período médio de retorno e da vida de projeto são independentes. Por
exemplo, projetamos barragens com vida de projeto de 100 anos, utilizando a cheia de mil anos. Projetamos
prédios com vida de 50 anos utilizando o terremoto de 475 anos, ou maior. Mais recentemente, as normas
de projeto da ASCE adotaram períodos de retorno signi cativamente maiores para ações de vento (300 a 3
mil anos) e terremotos (475 a 5 mil anos), conforme Seção (7.6.2). Quanto maior o período médio de retorno
considerado, mais conservador é o valor nominal da ação; logo, coe cientes parciais de segurança menores podem
ser utilizados. Como exemplo, quando a norma ASCE 7 mudou o período médio de retorno do vento de 50 para
300 anos, o coe ciente parcial correspondente foi reduzido de 1.6 (ASCE 7-05:2005) para 1 (ASCE 7-10:2010).
A escolha do período médio de retorno, e do correspondente valor nominal das ações variáveis, também está
relacionada com o estado limite considerado. Estados limites de serviço são veri cados para valores frequentes
das ações, típicamente com retorno anual ou a cada 5 ou 10 anos. Estados limites últimos são veri cados
para valores extremos da ação variável considerada principal, combinados com valores “usuais” da ação variável
secundária (Seção 2.4.5). Em normas técnicas, é usual determinar os valores frequentes (e.g., anual) e de
combinação (anual e de ponto arbitrário) a partir da “redução” do valor extremo correspondente à vida de
projeto e ao estado limite último.
Na Seção 1.3.3 mostramos a relação entre o período médio de retorno e o valor nominal de ações variáveis. Os
aspectos teóricos do problema são discutidos nas Seções A.3.1 e A.7. Quando a vida de projeto é discretizada,
e é igual ao período médio de retorno, as seguintes igualdades são válidas. Se n é o período médio de retorno
(em anos, por exemplo), então a probabilidade de observar solicitação S maior do que a solicitação nominal sn ,
2.4. MODELOS DE AÇÕES 57

em qualquer ano, é igual a 1/n (Eq. A.7.3):


1
P [S ¸ sn ] = .
n
No entanto, a probabilidade de observar valor maior do que sn em um período igual ao período de retorno é
(Eq. 1.14):
1 ¡ pk = P [fS ¸ sn g] = 0, 632.
Esta é uma ultrapassagem no sentido desfavorável. A probabilidade de não observar valor maior do que sn em
um período igual ao período de retorno corresponde ao nível de con ança (Eq. 2.6):

pk = P [fS < sn g] = 0, 368.


Portanto, o nível de con ança associado a um valor nominal sn correspondente ao período de retorno n é
pk = 0, 368. Como este nível de con ança é pequeno, é necessário utilizar coe cientes parciais de segurança
(γ k > 1) para levar o valor nominal das ações para o valor de projeto. Alternativamente, podemos utilizar
em projeto valores nominais correspondentes a períodos de retorno signi cativamente maiores do que a vida de
projeto da estrutura.

2.4.2 Ação permanente em lajes (prédios)


Ações permanentes são aquelas que ocorrem com intensidade praticamente constante durante toda a vida da
estrutura. Podem ser classi cadas como diretas ou indiretas (Cheung et al., 2022). Nesta seção endereçamos as
ações diretas em lajes, resultantes do peso próprio da estrutura, dos elementos construtivos permanentes e dos
equipamentos xos, e demais instalações permanentes. Estas ações permanentes não mudam ao longo da vida
da estrutura, mas sua intensidade é incerta. Usualmente, são calculadas a partir do volume da estrutura e dos
elementos construtivos permanentes, e do peso especí co dos materiais constituintes, disponível em tabelas.
Usualmente, um projetista terá grande con ança em relação ao peso próprio de uma estrutura em particular.
Ainda assim, a variabilidade decorre de diferenças entre o volume estimado e o volume nal de cada um dos
materiais, e de diferenças entre pesos especí cos tabelados e pesos especí cos verdadeiros dos materiais. Em
geral, a variabilidade decorrente de volumes e pesos especí cos é maior para os materiais de preenchimento
(paredes, reboco, pisos, contra-pisos) do que para os componentes estruturais em si. Estatísticas da variabilidade
do peso próprio de estruturas individuais devem ser avaliadas a partir de tolerâncias dimensionais de fabricação
e da compatibilidade entre pesos próprios tabelados e a realidade dos materiais efetivamente empregados na
obra. Uma tabela de variabilidade de densidades de materiais estruturais usuais (aço, concreto, alvenaria e
madeira) é apresentada em (JCSS, 2001, Part II, pg. 24). Estatísticas para variabilidade de dimensões são
apresentadas em (JCSS, 2001, Part II, pg. 25).
Um problema bem diferente é a determinação da incerteza nas ações permanentes para a calibração dos
coe cientes parciais de segurança de normas técnicas (Capítulo 7). Neste caso, o modelo de incertezas deve
re‡etir o procedimento de cálculo de todos os projetistas de um tipo de estrutura, em toda a região coberta
pela norma a ser calibrada. Um procedimento para quanti cação desta incerteza consiste em solicitar à diversos
projetistas a avaliação do peso próprio de várias estruturas especi cadas, e comparar estas estimativas com o peso
próprio medido da estrutura construída (Ellingwood et al., 1980). O procedimento é semelhante à estimativa
de incerteza de modelo (Eq. 2.9), sendo o modelo as estimativas dos especialistas, e o valor experimental o
peso próprio efetivamente observado. Com base em estudo deste tipo, Ellingwood et al. (1980) veri caram que
projetistas subestimam o peso próprio das estruturas, em 5% na média, e erram com um coe ciente de variação
de 10%. A variável que descreve o erro em relação ao peso próprio real segue uma distribuição normal, de forma
que podemos escrever D » N (1, 05Dn , 10%), sendo D para ação permanente, e Dn o valor nominal. Resultados
semelhantes foram obtidos por Santiago (2017) em um experimento limitado com projetistas brasileiros.
58 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL

2.4.3 Ação variável de utilização em lajes (prédios)


Ação variável em lajes ou pisos decorre do uso ou ocupação da estrutura. Em projeto, uma distinção é feita
em relação ao uso esperado da estrutura (prédios residenciais ou comerciais, hotéis, escolas, hospitais, centro de
convenções, prédio garagem, etc.). Ações variáveis em lajes variam no espaço e no tempo de forma aleatória.
A variação no tempo pode ser separada em duas parcelas. Uma parcela é sustentada de forma contínua, e
corresponde ao mobiliário e equipamento, mais o peso dos ocupantes no uso regular. Esta parcela muda de
tempos em tempos, em função das mudanças de inquilino. Outra parcela consiste em ações excepcionais, de curta
duração, devido ao agrupamento temporário de pessoas (festas, eventos, etc.), ou de equipamento ou mobiliário
(durante uma reforma, por exemplo). A Figura 2-7 ilustra a parcela sustentada (Q) e a parcela intermitente
(P ). A ação variável é a soma das duas parcelas: L = Q + P . Nas normas brasileiras, ações variáveis em lajes
costumavam ser chamadas de ações acidentais; no entanto, esta nomenclatura é mais apropriada para ações
verdadeiramente acidentais, ou excepcionais, tais como explosões, incêndios, impacto veicular, etc (Cheung et
al., 2022).
Em geral, entendemos que ações de utilização em lajes:
a) são compostas por parcela sustentada mais parcela intermitente;
b) a parcela sustentada muda ao longo do tempo em função da ocupação da laje;
c) existe variação interna das ações em cada sala que compõe a laje;
d) há dependência entre as ações nas diversas salas que compõe a laje (uso similar);
e) há dependência entre as ações em diferentes andares de um prédio;
f) diferentes usos das salas produzem valores distintos para a distribuição de ponto arbitrário das ações, que
mudam também com a área da laje.
Modelos de ação variável em lajes devem levar em conta todos os pontos acima. A discussão nesta seção
está focada nos pontos a) e b).

Variabilidade espacial

A intensidade da ação variável de utilização, sustentada ou intermitente, em um ponto (x, y) de uma laje, pode
ser representada como um campo estocástico W(x, y):

W(x, y) = m + V + U (x, y), (2.16)

sendo m uma média geral, função da categoria de uso da estrutura; V uma variável aleatória de média nula,
que descreve os desvios em relação a m, das ações em diferentes pisos de um mesmo prédio, ou entre pisos de
prédios distintos; e U (x, y) um campo estocástico de média nula, que descreve as variações dentro de um mesmo
piso. O campo U(x, y) possui assimetria típica para a direita.
Os efeitos resultantes da ação variável são determinados a partir de linhas (caso de pórticos) ou superfí-
cies (caso das lajes) de in‡uência i(x, y). Assumindo comportamento elástico linear, é válido o princípio da
superposição dos efeitos, e o efeito S da ação de utilização é determinado como:
Z
S= W(x, y)i(x, y)dA.
A

A ação distribuída uniforme equivalente, por unidade de área, é de nida como a ação que produz o mesmo
efeito que o campo original: R
W(x, y)i(x, y)dA
Q= A R ¢
A
i(x, y)dA
2.4. MODELOS DE AÇÕES 59

Figura 2-7: Ação variável (acidental) em lajes.


60 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL

Sem entrar em maiores detalhes, podemos mostrar (Melchers & Beck, 2018; JCSS, 2001) que os momentos
da ação distribuída uniforme equivalente são obtidos como:

µQ = m,
· ¸
A0
σ2Q · σ2V + κσ 2U max ,1 , (2.17)
AT

sendo A0 a área de atuação da ação de utilização, AT a área tributável e κ um fator que depende da forma da
superfície de in‡uência, dado em (JCSS, 2001). A distribuição de probabilidades sugerida para Q é a distribuição
Gamma.
O modelo apresentado nas Eqs. (2.16) e (2.17) foi inicialmente desenvolvido por Pier e Cornell (1973) para a
parcela sustentada da ação variável. No entanto, em (JCSS, 2001) este modelo também é utilizado, com outros
parâmetros, para a parcela intermitente. Um modelo alternativo para a parcela intermitente é discutido em
Melchers & Beck (2018).

Variabilidade temporal

Além da variabilidade espacial, ações de utilização em lajes ou pisos mudam ao longo do tempo, conforme
ilustrado na Figura 2-7. Típicamente, mudanças de ocupação (ação sustentada) são representadas como um
processo de Poisson (Seção A.3.1), com taxa média λ (mudanças por ano). Em consequência, o tempo entre
mudanças na ação sustentada segue uma distribuição exponencial (Seção A.3.2). Tipicamente, a chegada dos
pulsos de ação intermitente também é representada como um processo de Poisson, que ocorre com taxa ν (pulsos
por ano). O tempo até a primeira, ou entre ocorrências de pulsos, também segue distribuição exponencial. O
tempo de duração é assumido constante, mas muda em função do tipo de uso do piso.

Estatísticas de ocorrência

O documento Probabilistic Model Code (JCSS, 2001, parte II, pg. 31) reúne estatísticas para os vários parâmetros
dos modelos de ação variável aqui apresentados, com distinção de uso da estrutura (comercial, residencial, hotéis,
salas de aula, lojas, industrial, estoque). Outras estatísticas de ocorrência são apresentadas em Melchers & Beck
(2018). Uma ampla revisão bibliográ ca do tema e das estatísticas é realizada por Costa (2023).

Ação variável total

A ação variável total L(t) é soma das parcelas sustentada e intermitente: L(t) = Q(t) + P (t). Trata-se da soma
de dois processos estocásticos com variação no tempo, cuja solução não é trivial. Assumindo independência
entre as parcelas, a distribuição de probabilidades da ação de utilização de ponto arbitrário no tempo, Lapt , e
obtida a partir da integral de convolução (Eq. A.92). A distribuição de máximos, para uma vida de projeto
tD , LtD , é obtida a partir da teoria de valores extremos (Seção A.7); e de alguma regra para combinação de
carregamentos (Seção 6.7). Alternativamente, estas distribuições podem ser obtidas a partir da observação de
estatísticas obtidas por simulações de Monte Carlo (veja Costa 2023).

Distribuições de ponto arbitrário e de valores extremos para ações variáveis de utilização no


Brasil

O modelo de ações variáveis discutido nesta seção combina um campo estocástico, para representar variações
espaciais, com um processo estocástico, para representar variações temporais. Além disto, decompõe a ação
de utilização em uma laje em uma parcela sustentada e outra intermitente. Este modelo é apropriado para
representar o fenômeno, mas não é muito prático para realizar análises de con abilidade estrutural, ou para o
2.4. MODELOS DE AÇÕES 61

trabalho de calibração de normas. Tal como apresentado, o modelo permite soluções via simulação de Monte
Carlo ao longo do tempo (Capítulo 6). A solução utilizando métodos de con abilidade independente do tempo
requer a determinação de distribuições de valores extremos, além do emprego de uma regra de combinação de
carregamentos. Esta regra será introduzida na Seção (2.4.5). Aqui, apresentamos resultados obtidos por Costa
(2023) para as distribuições de ponto arbitrário (Lapt ) e de extremos de 50 anos (L50 ) das ações variáveis, para
uso no Brasil. Os resultados também são apresentados e discutidos em Costa et al. (2022).
O modelo de ações variáveis discutido nesta seção é válido para qualquer região geográ ca. As estatísticas
apresentadas em (JCSS, 2001, parte II, pg. 31) foram obtidas em países desenvolvidos, principalmente Estados
Unidos, Europa e Austrália. Na falta de estatísticas correspondentes para a realidade brasileira, entendemos
que os dados apresentados em (JCSS, 2001, parte II, pg. 31) podem ser utilizados como aproximação. No
entanto, as estatísticas são calculadas com respeito aos valores nominais de projeto das ações de utilização no
Brasil (ABNT NBR 6120:2019).
Costa (2023) realizou extensas simulações de Monte Carlo ao longo do tempo, com base no modelo descrito
nesta seção, e nas estatísticas apresentadas no Probabilistic Model Code (JCSS, 2001), e considerando diferentes
usos da edi cação. Com base nestas simulações, Costa (2023) buscou compatibilizar os valores de projeto pre-
conizados na norma ABNT NBR 6120:2019 com a de nição dos valores característicos da norma ABNT NBR
8681:2003, bem como da própria NBR 6120:2019: “os valores característicos das ações variáveis, estabelecidos
por consenso e indicados em normas especí cas, correspondem a valores que têm de 25% a 35% de probabilidade
de serem ultrapassados no sentido desfavorável, durante um período de 50 anos”. A variável utilizada para re-
alizar esta compatibilização foi a área tributária da laje (AT ). Costa (2023) também determinou as distribuições
de ponto arbitrário (Lapt ), de extremos de 50 anos (L50 ) e de 140 anos (L140 ) reportadas na Tabela 2.7. 140
anos é o período médio de retorno da ação característica com probabilidade de excedência de aprox. 30% em 50
anos, quando os máximos anuais são independentes. Este não é caso das ações de utilização, conforme discutido
em Costa et al. (2022).
Os valores reportados na Tabela 2.7 foram normalizados com respeito aos valores nominais (Ln ) estabelecidos
na norma ABNT NBR 6120 (2019), para os diferentes tipos de uso. São apresentados os valores de bias (média
em relação ao valor nominal), bem como os coe cientes de variação (c.v.). Também é apresentada uma média,
que é comparada com os valores utilizados por Ellingwood et al. (1980) na calibração das normas americanas.
As distribuições de probabilidade apropriadas são Gamma, para Lapt , e a distribuição de Gumbel (Seção A.7.5)
para L50 e L140 .

Tabela 2.7: Estatísticas de ações variáveis em lajes. Fonte: Costa et al. (2022) e Costa (2023).
Uso Ln AT Pt. arbit. Lapt Extremo L50 Extremo L140
(kN/m2 ) (m2 ) µLapt /Ln c.v. µL50 /Ln c.v. µL140 /Ln c.v.
Eds. comerciais 2,5 55 0,20 0,94 0,93 0,26 1,11 0,21
Eds. residenciais 1,5 70 0,20 0,75 0,93 0,22 1,09 0,18
Quartos de hotel 1,5 110 0,20 0,24 0,95 0,14 1,05 0,13
Enfermarias 2,0 55 0,20 1,16 0,89 0,35 1,13 0,28
Salas de aula 3,0 150 0,20 0,61 0,92 0,24 1,09 0,20
Lojas 4,0 155 0,22 0,86 0,92 0,28 1,11 0,22
Média - 0,21 0,76 0,92 0,25 1,09 0,20
Ellingwood et al. (1980) - 0,25 0,55 1,00 0,25 -

2.4.4 Ação do vento


A velocidade do vento é, por natureza, um campo estocástico contínuo, que varia ao longo do tempo e do espaço.
A variação espacial instantânea ao longo da altura (Vz (t)) em geral é desprezada; a variação média é representada
por um per l de velocidades. A variação espacial instantânea é dada por processos componentes Vx (t) e Vy (t);
a variação espacial média é representada por mapas de iso-velocidades (isopletas), construídos a partir de dados
62 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL

medidos em estações meteorológicas, geogra camente distribuídas em um território. Pontualmente, a variação


temporal turbulenta (Vx (t), Vy (t)) produz ações dinâmicas nas estruturas.
Modelos de ação do vento em estruturas podem ser divididos em modelos estáticos equivalentes e modelos
dinâmicos. Os modelos estáticos equivalentes se aplicam a estruturas rígidas, para as quais os efeitos de interação
entre vento e estrutura não são signi cativos. Modelos dinâmicos se aplicam a estruturas esbeltas e ‡exíveis,
com pequeno amortecimento, para as quais a interação é importante. Neste texto revisamos alguns destes
modelos, e discutimos a construção de modelos estatísticos para a ação do vento nas estruturas. Os efeitos do
vento sobre uma estrutura dependem do clima, da exposição da estrutura e de seus elementos (condições do
entorno) e de suas propriedades dinâmicas.
A ação do vento sobre as estruturas resulta em pressões hidrodinâmicas (W ), determinadas a partir da
velocidade (V ) como:
1
W (t) = ρcV (t)2 , (2.18)
2
sendo ρ a densidade do ar (¼ 12 N/m3 ) e c um coe ciente quasi-estático de pressão, que depende da forma,
tamanho e orientação da estrutura. Na Eq. (2.18), (t) expressa valores instantâneos, mas a relação vale
também para valores médios ou extremos. A pressão instantânea W (t) pode ser utilizada diretamente em análise
dinâmica, utilizando modelos de con abilidade dependente do tempo (Capítulo 6). A Eq. (2.18) também serve
de base para determinar ações estáticas equivalentes, com base em distribuições de ventos extremos, e que
resulta em problemas de con abilidade independentes do tempo.
Modelos dinâmicos de ação do vento são baseados na linearização da Eq. (2.18). Para tal, a velocidade
instantânea V (t) é decomposta em uma velocidade média e um componente turbulento, tal que V (t) = µV +Vt (t),
onde o índice ( )t indica turbulento. Desprezando o termo em Vt (t)2 , a linearização de (2.18) resulta em
(Davenport, 1961; Holmes, 2007):
1 ¡ ¢
W (t) ' ρc µ2V + 2µV Vt (t) , (2.19)
2

Coleta de dados meteorológicos

Velocidades de vento são medidas em estações meteorológicas geogra camente distribuídas, tendo como base
variadas médias temporais. Diferentes países e instituições utilizam como velocidade de referência (vref ) o vento
de rajada (média de 3 segundos), médias sobre 30 segundos ou dez minutos, ou o vento médio de milha (EUA,
correspondente à passagem de 1,61 km de vento pelo anemômetro). Estas velocidades podem ser convertidas
em vento médio horário, ou convertidas entre si, utilizando:

1, 05 vref j1h = 1, 0 vref j10 min = 0, 84 vref j1mile = 0, 77 vref j30s = 0, 67 vref j3s . (2.20)

De forma semelhante, dada a relação quadrática entre velocidades e pressões (Eq. 2.18), a conversão de pressões
é dada por:

1, 1 wref j1h = 1, 0 wref j10 min = 0, 71 wref j1mile = 0, 59 wref j30s = 0, 45 wref j3s . (2.21)

O vento de referência vref é medido a uma altura de referência zref ; usualmente zref = 10m acima do solo,
em região plana e aberta, sem interferências do entorno.

Estacionariedade O regime de ventos sofre variação sazonal com o clima (estações do ano), de forma que
o período mínimo no qual se pode assumir estacionariedade é um ano. Assim, máximas anuais do vento de
referência são anotadas, em cada estação meteorológica.
A construção de distribuições de extremos requer a estacionariedade dos dados. Existem vários fenômenos
2.4. MODELOS DE AÇÕES 63

climáticos que afetam o clima em regimes superiores a um ano. O fenômento El Niño, por exemplo, provoca
variações signi cativas nos regimes de chuvas, com períodos entre 2 e 7 anos. Variações climáticas em outras
escalas de tempo, variando de dez a milhares de anos, também são conhecidas. Ainda assim, modelos de ventos
extremos usuais são construídos assumindo a estacionariedade das velocidades máximas anuais.
Mudanças climáticas causadas pelo acúmulo de gas carbônico na atmosfera também tem afetado o regime de
ventos. Há evidências de que a frequência e intensidade de tempestades tem aumentado nos últimos anos. No
Brasil, Matias et al. (2017) investigaram a não-estacionariedade das velocidade de vento ao longo dos últimos
50 anos. A despeito das evidências recentes, a maior parte dos modelos de ventos extremos em uso no mundo
ainda assumem a estacionariedade das velocidades máximas anuais.

Homogeneidade Ventos são produzidos por diferentes fenômenos meteorológicos, como tempestades tropicais
(thunderstorms), ciclones extratropicais (extended mature pressure systems), furacões e tornados. A homogenei-
dade de dados, necessária para a construção de modelos estatísticos, exige a separação dos registros de ventos
produzidos por diferentes fenômenos atmosféricos (Gomes & Vickery, 1976; Batts et al., 1980; Riera & Rocha,
1998). A distinção entre furacões e tornados é mais simples, porque furacões se originam sobre o mar, e tornados
são extremamente localizados. No entanto, a distinção entre tempestades tropicais e ciclones extratropicais é
mais difícil, já que estes fenômenos se sobrepõe em latitudes médias ao redor do globo. Registros históricos de
velocidades de vento não fazem distinção entre os eventos causadores, e portanto se referem a climas mistos.
Esta pode ser uma explicação para a di culdade de se identi car uma distribuição única para representar ventos
máximos anuais ao redor do globo.

Ventos nominais

Seguindo a construção acima, o primeiro vento nominal de projeto é o máximo vento anual (V1 ). O vento máximo
anual corresponde à velocidade de vento com período médio de retorno de um ano. Usualmente, admite-se que os
componentes instantâneos da velocidade (Vx (t), Vy (t)) seguem distribuição Normal. Assumindo comportamento
isotrópico, o módulo da velocidade instantânea (V (t) = [Vx (t)2 , Vy (t)2 ]1/2 ) segue distribuição de Rayleigh (Eq.
A.47). Alternativamente, a distribuição de Weibull (A.121) também é utilizada para V (t). Da Teoria de Valores
Extremos (Apêndice A.7), resulta que a distribuição de Gumbel é o modelo teóricamente compatível com as
distribuições de máximos anuais (V1 ) ou de 50 anos (V50 ). Ainda assim, distribuições de Frechet, Rayleigh e
Weibull também mostram bom acoplamento com observações. Uma possível razão é a falta de homogeneidade
das observações (clima misto). Sendo µ e σ a média e o desvio-padrão dos registros de máximo vref anuais, os
parâmetros da distribuição de Gumbel (un e β) são determinados a partir da Eq. (A.119).
Assumindo independência entre os máximos anuais, as distribuições de extremos para outros períodos médios
de retorno (n) são obtidas como (Eq. A.104):

FVn (x) = [FV1 (x)]n . (2.22)

Em particular, o vento máximo de 50 anos (V50 ) também é obtido da Eq. (2.22). Esta é a chamada “velocidade
básica do vento”, ou v0 (ABNT NBR 6123:1988).
O procedimento acima é realizado para as várias estações meteorológicas espalhadas pelo país. Utilizando
como suporte o vento básico calculado em cada estação, ou classi cado em regiões climáticas, é construído um
modelo de regressão, conforme ilustrado em Beck e Correa (2013). A partir deste modelo é gerado o mapa de
iso-velocidades, ou mapa de isopletas, que permite determinar o vento básico de projeto em qualquer região do
país (ABNT NBR 6123:1988).
64 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL

Ventos nominais no Brasil

Seguindo a lógica da distinção entre os fenômenos atmosféricos, Riera e Rocha (1998) construíram modelos para
ventos máximos anuais originários de tempestades tropicais e de ciclones extratropicais, para a região sul do
Brasil. Os modelos permitem ainda determinar a distribuição de extremos em função do quadrante (direção
do vento). Com base nestes modelos, Beck e Souza Jr. (2010) determinaram distribuições de extremos de 50
anos para o sul do Brasil. Comparando estas distribuições com os ventos básicos de projeto, Beck e Souza Jr.
(2010) determinaram as estatísticas apresentadas na Tabela (2.8), que permitem reconstruir as distribuições de
extremos a partir das velocidades básicas nominais (v0 ). Os dados apresentados nesta tabela representam uma
média para a região sul do Brasil. Estatisticas de pressão são determinadas a partir das velocidades, utilizando
a Eq. (2.18). Para efeitos de comparação, a tabela também ilustra valores utilizados por Ellingwood et al.
(1980) na calibração das normas Norte-Americanas. Observamos que os valores brasileiros e americanos tem a
mesma ordem de grandeza.

Tabela 2.8: Estatísticas de ações do vento para a região sul do Brasil.


Média c.v. Distribuição
Velocidade V1 0,57v0 0,21 Gumbel
V50 0,95v0 0,13 Gumbel
Pressão W1 0,33w0 0,47 Gumbel
W50 0,90w0 0,34 Gumbel
Pressão (EUA) W1 0,33w0 0,59 Gumbel
(Ellingwood et al., 1980) W50 0,78w0 0,37 Gumbel

O mapa de ventos de projeto atualmente em uso no Brasil (ABNT NBR 6123:1988) foi construído por
Padaratz (1977), com base em registros históricos obtidos nos anos 1950 a 1974. A base de dados original
consistiu em 25 anos de registros, obtidos em 49 estações meteorológicas, totalizando 919 estações-ano de dados.
Uma proposta de atualização deste mapa foi apresentada em Beck e Correa (2013), com base em 4142 estações-
ano de dados, obtidos em 104 estações e cobrindo 62 anos entre 1950 e 2012. Os resultados apresentados (Beck
e Correa, 2013) mostram a urgência de se atualizar o mapa de isopletas da norma brasileira (ABNT NBR
6123:1988). Tal atualização também implicaria em uma reavaliação das estatísticas apresentadas na Tabela
(2.8).

Modelo estático equivalente

A pressão estática equivalente, a uma altura z acima do nível do solo, é obtida a partir da Eq. (2.18) como:

1
W (z) = AGR(z) ρVn2 , (2.23)
2
sendo Vn a velocidade nominal ou aleatória (V1 , V50 ou v0 ), A o fator de forma ou aerodinâmico, G o fator de
rajada e R(z) o fator topográ co e de rugosidade do terreno. O fator aerodinâmico A depende da àrea exposta
e da orientação da estrutura; o fator de rajada G leva em conta, de forma aproximada, efeitos de interação entre
vento e a estrutura (Davenport, 1967).
O fator topográ co e de rugosidade R(z) determina o per l de variação das velocidades com a altura, em
consideração à localização e tamanho da estrutura, bem como a con guração de entorno. Este fator depende
da topogra a, e diferencia terreno plano de taludes, morros e vales. A rugosidade do terreno é diferenciada em
termos de categorias (superfície calma do mar, lagos e rios; campo em nível com vegetação rasteira; terrenos
planos ou ondulados com árvores e edi cações baixas e esparsas; terreno com muitos obstáculos de pequena
altura como ‡orestas, cidades pequenas, subúrbios e zonas industriais; e terreno com muitos obstáculos de
grande altura, como o centro de grandes cidades). O fator R(z) está relacionado aos fatores topográ co (S1 )
e de rugosidade (S2 (z)) da norma brasileira (ABNT NBR 6123:1988); no entanto, na norma Brasileira estes
2.4. MODELOS DE AÇÕES 65

fatores multiplicam as velocidades, de forma que R(z) ¼ (S1 S2 (z))2 . O per l de velocidades em função da
altura é dado, em diferentes normas, por funções logaritmicas (ln(z/zref )) ou de potência (b(z/zref )p ).
Os fatores A, G e R(z) introduzem incertezas adicionais na avaliação das pressões estáticas equivalentes.
Segundo Davenport (1987), tais fatores podem ser representados como variáveis aleatórias log-normais, com
fator de bias unitário (valor médio correspondente ao valor de norma). Os coe cientes de variação (δ) estão
entre 0, 1 e 0, 3 para A, 0, 1 e 0, 15 para G, e 0, 1 e 0, 2 para R. Já Ellingwood et al. (1980) reportam valores
entre 0, 12 e 0, 15 para δ A , δ G = 0, 11 e δ R = 0, 16.
Devido à relação quadrática entre velocidades e pressões (Eq. 2.18), resulta que o coe ciente de variação das
pressões é aproximadamente o dobro daquele das velocidades (δ W ' 2δ V ). Assumindo a independência entre
as variáveis, o coe ciente de variação das pressões, incluindo a incerteza nos fatores (Eq. 2.23), é obtido como:

δ 2W = δ 2A + δ 2G + δ 2R + (2δ V )2 . (2.24)

Utilizando esta expressão e os coe cientes de variação recomendados por Ellingwood et al. (1980), e as
estatísticas de velocidade de vento (V1 e V50 ) apresentadas na Tabela (2.8), Beck e Souza Jr. (2010) determi-
naram as distribuições de extremos de pressão (W1 e W50 ) para a região sul do Brasil, também apresentadas
na Tabela (2.8). Em teoria, se a velocidade do vento V segue distribuição de Gumbel, a pressão W teria que
ter distribuição distinta. No entanto, segundo Ellingwood et al. (1980), a inclusão da incerteza nos fatores
aerodinâmicos faz com que as distribuições de pressão sigam distribuições de Gumbel também. As distribuições
de pressão de vento apresentadas na Tabela (2.8) podem ser utilizadas diretamente no processo de calibração
de normas técnicas (Capítulo 7).

Outras ações de vento no Brasil

As distribuições de pressão de vento apresentadas na Tabela (2.8) foram obtidas a partir do modelo de Riera
& Rocha (1998), que inclui tempestades tropicais (thunderstorms) e ciclones extratropicais (extended mature
pressure systems). Estas distribuições não representam ventos de furacões ou de tornados, que tem se mostrado
comuns no sul do Brasil, conforme comentado na Seção 1.4.2. O histórico de furacões é extremamente recente,
portanto acreditamos que não há dados su cientes para a construção de estatísticas. Registros de tornados tem
sido realizados (PUC-Rio, 2007), mas não há no Brasil modelos estatísticos relacionando a região geográ ca
com a frequência e a intensidade das ocorrências. Uma tentativa muito incipiente de relacionar estatísticas
brasileiras com as norte-americanas foi feita em Beck e Verzenhassi (2008).

2.4.5 Introdução ao problema de combinação de ações


Ações em estruturas podem ser classi cadas em três tipos, conforme segue.
Ações permanentes são aquelas que tem variação lenta e/ou pequena em torno de uma média, como o
peso próprio ou pressões de solo; ou que apresentam variação monotônica até um valor máximo, como efeitos
de pré-tensionamento, de variação de temperatura, de redução de volume (cura), de ‡uência ou de recalque de
apoios.
Ações variáveis são aquelas que variam de forma signi cativa e frequente, como as ações de uso nas
estruturas: ações de utilização em lajes (prédios), ações do tráfego em pontes e viadutos, ações ambientais
externas como vento, onda e neve.
Ações excepcionais apresentam grande incerteza em sua intensidade, pequena probabilidade de ocorrência
na vida esperada da estrutura e, geralmente, pequena duração. Exemplos incluem incêndios, impacto devido à
acidentes, explosões, avalanches, terremotos e tornados.
A variação aleatória das ações no tempo pode ser representada através de:
a) sequência de pulsos independentes, com intensidade aleatória e duração xa (modelo de Ferry-Borges e
66 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL

Castanheta);
b) sequência de pulsos retangulares, com intensidade e duração aleatórias;
c) pulsos esparsos com ocorrência e intensidade aleatórias;
d) processos (estocásticos) contínuos e diferenciáveis.
Ações excepcionais como terremotos, tornados e tempestades marítimas são representadas através da combi-
nação dos modelos c) e d) acima. A ocorrência do evento é representada como um pulso esparso. A intensidade
média (escala Richter para terremotos, escala Fujita para tornados, altura média de onda para tempestades) é
representada pela intensidade do pulso. A este pulso soma-se um processo contínuo de média nula, que repre-
senta a variação rápida do processo no tempo, durante a ocorrência. Este é um exemplo de modelo hierárquico.
Neste texto, não discutimos modelos especí cos para ações de terremotos, tornados ou tempestades marítimas,
por serem mais complexos. Sugerimos referência à literatura técnica especializada.
A Figura 2-8 representa a ocorrência, ao longo do tempo, das ações discutidas neste texto. De cima para
baixo, o primeiro registro representa uma ação permanente (D), que é uma variável aleatória, como vimos.
A segunda curva (L) é uma sequência de pulsos retangulares, e representa ações de utilização em lajes, por
exemplo. A terceira curva (W ) é uma sequência de pulsos de duração xa, utilizada para representar, por
exemplo, o máximo vento anual (W1 ). A quarta curva (A) é um processo de pulsos esparsos, que representa
ações excepcionais. Usualmente, estas ações ocorrem de maneira simultânea nas estruturas. O problema de
combinação de ações consiste em determinar a ação equivalente ou resultante:

S(t) = D + L(t) + W (t) + A(t), (2.25)

também ilustrada na Figura 2-8. Para compreender corretamente o problema, há que se considerar que as curvas
representadas na Figura 2-8 representam apenas uma realização de cada uma destas ações. Com excessão
de D, estas ações são processos estocásticos, que variam de forma aleatória no tempo, tanto em intensidade
como em tempo de renovação. Portanto, o problema de combinação de ações é um problema de combinação (ou
soma) de processos estocásticos. A solução deste problema não é trivial, e será abordada apenas na Seção 6.7.
Conforme vimos neste capítulo, é possível representar ações variáveis (processos estocásticos) através da
distribuição de extremos (uma variável aleatória), para um tempo tD determinado, usualmente a vida de projeto.
No entanto, aproximar a soma na Eq. (2.25) por StD = D + LtD + WtD + AtD seria extremamente conservador,
porque é extremamente improvável que os valores extremos destas ações ocorram de forma simultânea no tempo!
Isto pode ser veri cado na Figura 2-8, observando o instante em que cada ação atinge seu máximo. Também
pode ser observado na Figura 1-8, interpretando que cada registro corresponda a uma ação distinta.
Por outro lado, é certo que eventual ultrapassagem da equação de estado limite (falha da estrutura) ocorrerá
sob efeito da ação extrema StD . Portanto, em algumas circunstâncias5 , é possível converter o problema de
combinação de ações (Eq. 2.25) no problema de encontrar, ainda que de forma aproximada, a ação extrema
combinada, StD . O modelo de Turkstra, que será estudado na Seção 6.7.3, é uma forma simpli cada e intuitiva
de resolver o problem de combinação de ações. De forma resumida, este modelo postula que a ação combinada
extrema StD será a pior combinação entre a distribuição de extremos de uma ação variável, considerada como
principal na combinação, combinada com a soma da distribuição de ponto arbitrário das demais ações (ditas
secundárias, neste contexto). Para as ações ilustradas na Figura 2-8, e para tD = 50 anos (valor típico), temos:
2 3
D + L50 + W1 + Aapt
S50 ¼ max 4 D + Lapt + W50 + Aapt 5 . (2.26)
D + Lapt + W1 + A50

Nesta equação, o sub-índice ()apt vem do inglês average point in time, e representa a distribuição de ponto
arbitrário no tempo, ou seja, aquela que é obtida se o processo é observado em qualquer janela no tempo

5 Problemas estacionários, sem degradação da resistência.


2.4. MODELOS DE AÇÕES 67

Figura 2-8: Problema de combinação de ações.


68 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL

(Figuras 1-6, 1-8 e 2-8). Usualmente, nestas combinações, trabalhamos com a distribuição de máximos anuais
do vento (W1 ), ao invés da distribuição Wapt . A regra de Turkstra tem sido utilizada no processo de calibração,
baseado em con abilidade, dos coe cientes parciais de normas de projeto estrutural (veja Capítulo 7). Observe
que a regra de combinação de ações nas normas de projeto estrutural segue o modelo de Turkstra. Os fatores
de combinação de ações (fatores ψ nas normas brasileiras) servem para reduzir, para o valor de ponto arbitrário
no tempo, as ações variáveis extremas, quando estas são consideradas secundárias na combinação. Ao longo
deste texto, esperamos que o leitor possa apreciar a simplicidade, bem como as limitações deste modelo.

2.4.6 Interação e dependência entre ações


Ao se combinar o efeito de duas ou mais ações, é importante considerar se existe interação ou relação de
dependência entre estas. Para tanto, devemos primeiramente identi car se estas ações são de mesma natureza
ou de natureza distinta.
Exemplos de ações de mesma natureza são as ações de utilização em diferentes pisos de um mesmo prédio.
Ações de natureza distinta são vento e tráfego em pontes, vento e neve em prédios, terremoto e incêndio em
prédios, vazamento e ignição/explosão/incêndio em dutos, e ondas, corrente e vento em estruturas o¤shore.
Todos estes são exemplos de interação ou dependência entre as ações, nem sempre bem compreendidas.
Em se tratando de ações de mesma natureza, é conveniente tratá-las como componentes de uma única ação.
Um exemplo de modelo hierárquico para ações em diferentes pisos de um prédio é apresentado em JCSS (2001,
Seção 2.0.5.1).
Quando as ações são de natureza distinta, as interações podem ser bastante complexas. Com frequência,
vento e neve atuam em conjunto; o vento provoca redução do acúmulo em coberturas expostas, mas pode
provocar aumento do acúmulo de neve em cantos ou reentrâncias protegidas. Modelos para descrever estas
interações precisam considerar, necessariamente, a correlação entre vento e neve, como dois componentes de um
mesmo sistema atmosférico.
Com frequência, terremotos são seguidos de incêndios, devido aos danos provocados em tubulações de gás e de
aquecimento. Terremotos servem de gatilhos para a ocorrência de incêndios. Para descrever esta dependência, é
necessário quanti car a probabilidade (condicional) de um incêndio começar, dada a ocorrência de um terremoto;
bem como a probabilidade de colapso, dada a ocorrência do incêndio e do terremoto. É usual assumir que os
equipamentos de proteção contra incêndios não estejam operando corretamente, devido aos danos causados pelo
terremoto.
Outra interação importante ocorre entre ações de tráfego e de vento em pontes: a presença de veículos
aumenta o efeito do vento, mas ventos extremos reduzem o tráfego! A descrição do fenômeno envolve um
modelo de forças devidas ao vento, em função do tráfego e da velocidade do vento, e outro descrevendo as
probabilidades condicionais de tráfego, como função da velocidade do vento.
A representação de fenômenos de interação entre ações envolve modelos de probabilidades condicionais da
segunda ação, dada uma condição (extrema) da primeira ação. É conveniente tratar a primeira ação como
principal, e descrever as renovações (chegada de pulsos) e as intensidades da segunda ação (secundária) em
função da ocorrência e das amplitudes da ação principal.

2.4.7 Incertezas de modelo de ações


Os esforços internos solicitantes em elementos estruturais são determinados, a partir das ações externas atuantes,
através de modelos de ações. Para ações como o peso próprio, tais modelos são simples e diretos: uma força
distribuída e as leis da isostática/hiperestática são su cientes para determinar os esforços solicitantes; logo, há
pouca margem para “erros”. Da mesma forma, em geral admitimos que a conversão de esforços externos (forças,
momentos, pressões) em esforços internos é exata. Logo, a margem para incerteza ou imprecisões de modelos
de ações está na conversão do fenômeno físico em esforços externos. Tais imprecisões são esperadas em modelos
2.5. PROJETO UTILIZANDO COEFICIENTES DE SEGURANÇA 69

mais complexos, como os de ações variáveis em lajes e de ações do vento discutidos neste texto. Por outro lado,
não há como quanti car a imprecisão destes modelos sem dispor de medidas (experimentais ou observações) dos
esforços reais. Logo, há aspectos dos modelos de ações que difícilmente podem ser quanti cados: a extrapolação
de medidas anuais de vento na determinação do vento nominal (de 50 anos); a interpolação de velocidades de
vento em um local geográ co sem estação meteorológica; bem como os vários elementos empíricos do modelo
de ação variável em lajes. Em função destas di culdades, incertezas de modelo de ações são incompletos ou
mesmo desconhecidos.
Ainda assim, há alguns elementos de modelos de ações cuja precisão pode ser veri cada. Como exemplo,
as pressões de vento nos vários pontos de um prédio ou ponte podem ser medidas através de ensaios em túnel
de vento, ou seja, é possível veri car a relação entre a velocidade e direção do vento incidente e as pressões
resultantes (modelo estático equivalente). Com base em um modelo realista em escala, é possivel veri car
respostas dinâmicas como frequências naturais e modos de vibração, interação ‡uido-estrutura, etc. Nestas
situações, e com base nas observações experimentais ((Sexp )i ), obtemos realizações da variável aleatória incerteza
de modelo:
(Sexp )i Sexp (pi )
(ES )i = = , (2.27)
(Smod )i Smod (pi , ¹S )
sendo Smod (pi , ¹S ) o modelo que prevê a ação, para a con guração i dos parâmetros p, e com base na média
¹ das demais variáveis aleatórias envolvidas no modelo. Observe que esta é a mesma expressão utilizada para
modelos de resistência (Eq. 2.9), de forma que em análises de con abilidade a variável incerteza de modelo
apareça de forma multiplicativa: S = ES Smod (p, S). No entanto, como se trata de um modelo de ações, uma
média maior que a unidade caracteriza um modelo que é não-conservador (em média). Isto signi ca que o
modelo erra mais prevendo esforços menores do que os esforços reais, do que o contrário. Modelos de cálculo
em engenharia de estruturas são, tipicamente, conservadores; logo, espera-se uma média µE menor do que a
unidade. O modelo ideal, perfeito, teria média µE unitária e variância σ2E nula.
Como o formato é semelhante, todos os aspectos discutidos na Seção (2.3.5), em relação à incerteza de modelo
de resistências (modelo tendencioso, correção pela média, etc.) são válidos e aplicáveis também a modelos de
ações.
O documento JCSS (2001) apresenta algumas incertezas de modelo de ações; entre elas, incertezas de modelos
numéricos. Com frequência, em função da di culdade de se quanti car de forma completa as incertezas em
modelos de ação, as parcelas de incerteza conhecidas são incorporadas a outros parâmetros do problema. Este é
o caso, por exemplo, das incertezas nos coe cientes aerodinâmicos para determinação da ação estática equivalente
(Seção 2.4.4).

2.5 PROJETO UTILIZANDO COEFICIENTES DE SEGURANÇA


Neste capítulo, até este ponto, discutimos algumas das principais incertezas nas ações e na resistência das
estruturas. Estas incertezas foram quanti cadas em termos de probabilidades, o que permite endereçar a
con abilidade das estruturas. Antes de prosseguir com a formulação e solução dos problemas de con abilidade
das estruturas, convém rever o procedimento usual de projeto estrutural, utilizando coe cientes parciais de
segurança. Esta revisão é feita com base em uma comparação com a teoria de con abilidade, de forma a destacar
as limitações do procedimento usual de projeto. Nesta revisão também são destacadas as diferenças entre os
coe cientes de segurança utilizados em diferentes épocas, e em diferentes áreas da engenharia de estruturas.
O emprego em projeto de valores característicos de resistências e de valores nominais das ações representa
uma margem de segurança em relação aos valores médios destas variáveis. Para quanti car esta margem de
70 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL

segurança, é conveniente dividirmos os valores característicos pelos valores médios. Desta forma, obtemos um
fator de redução da resistência, φk , e um fator de majoração de solicitações6 , γk , semelhantes aos utilizados em
normas técnicas:
rk
φk = < 1,
µR
sk
γk = > 1.
µS

Os fatores de redução da resistência e de majoração de solicitações dependem das distribuições de proba-


bilidade destas variáveis. As Tabelas 2.9 e 2.10 mostram os valores destes coe cientes, obtidos xando o nível
de con ança desejado (pk ) em 95% e considerando um mesmo valor médio, para diferentes distribuições de
probabilidade e diferentes coe cientes de variação (c.v.).

Tabela 2.9: Fatores de redução de resistência φk para con ança pk = 0, 95 (95%).


φk c.v.
Distribuição 0,1 0,2 0,3 0,4 0,5
Normal 0,8355 0,6710 0,5065 0,3421 0,1776
Lognormal 0,8445 0,7080 0,5910 0,4927 0,4112
Gumbel 0,8694 0,7389 0,6083 0,4778 0,3472
Frechet 0,8802 0,7809 0,6999 0,6344 0,5818
Weibull 0,8169 0,6470 0,4979 0,3736 0,2747
Gamma 0,8414 0,6953 0,5608 0,4355 0,3416

Tabela 2.10: Fatores de majoração de solicitações γ k para con ança pk = 0, 95 (95%).


γk c.v.
Distribuição 0,1 0,2 0,3 0,4 0,5
Normal 1,164 1,329 1,493 1,658 1,822
Lognormal 1,172 1,358 1,552 1,750 1,945
Gumbel 1,187 1,373 1,560 1,746 1,933
Frechet 1,187 1,367 1,534 1,681 1,809
Weibull 1,142 1,305 1,489 1,689 1,903
Gamma 1,170 1,350 1,541 1,752 1,938

Nas tabelas, observamos uma variação muito grande dos fatores φk e γ k , em função da distribuição de
probabilidades e do coe ciente de variação destas variáveis. Por conta desta variação, o projeto com base em
valores característicos da resistência, e em valores nominais das ações, não é su ciente para garantir uniformidade
da segurança das estruturas projetadas.
O problema do projetista de estruturas consiste em dimensionar elementos estruturais de forma a atender
aos requisitos de projeto:

determinar R tal que R > S, (2.28)


sendo R e S duas variáveis aleatórias. Para resolver este problema de forma determinística (isto é, sem utilizar
diretamente a teoria de con abilidade), o projetista utiliza coe cientes de segurança e valores representativos

6 Nesta análise consideramos uma con ança de 95% no valor das ações, ou seja, a discussão tem base em um valor característico

sk , e não no valor nominal sn (usual).


2.5. PROJETO UTILIZANDO COEFICIENTES DE SEGURANÇA 71

de R e S, conforme segue. A equação de projeto correspondente é:

rD ¸ sD . (2.29)

As letras minúsculas indicam que não se trata mais de variáveis aleatórias, mas de valores representativos
das mesmas, e o índice D se refere a condição de projeto (Design). Portanto, rD é a resistência de projeto, e sD
é a solicitação de projeto. Trata-se de dois valores representativos, entre os (in nitos) valores que R e S podem
assumir.
A margem de segurança necessária é criada ao escolhermos, de maneira apropriada, os valores de projeto para
a resistência e a solicitação. No contexto das normas de projeto estrutural, utilizamos coe cientes de segurança
parciais, aplicados aos valores característicos de resistência e aos valores nominais das ações. A resistência de
projeto é dada por:
rD = φR rk , (2.30)
sendo φR < 1 um fator de redução da resistência e rk o valor característico da resistência. Nas normas brasileiras,
utilizamos um coe ciente de redução da resistência, γ R = 1/φR , o qual (em termos gerais) é equivalente ao
fator φR , de forma que rD = rk /γ R .
A solicitação de projeto é obtida multiplicando o valor nominal da solicitação (efeito de uma ação) por um
fator de majoração de carregamentos, γ S , tal que:

sD = γ S sn . (2.31)

Reunindo as Eqs. (2.30) e (2.31) na Equação (2.29), obtemos:

φR rk ¸ γS sn .

Dividindo esta equação pelo termo a direita, obtemos um “fator de segurança parcial adicional”, que será
unitário ao projetarmos usando a igualdade:
φR rk
λD = ¸ 1. (2.32)
γ S sn

Considerando λD = 1, percebemos que o termo γ S /φR corresponde ao fator de segurança global, utilizado
em muitas normas técnicas antigas. O fator de segurança global λG cria uma margem de segurança em relação
aos valores característico de resistência e nominal da ação:
rk γ
= S ´ λG .
sn φR

Incorporando na Eq. (2.32) as margens de segurança oriundas do uso de valores característico e nominal,
obtemos:

φR φk µR
λD = ¸ 1. (2.33)
γS γ k µS
O termo µR /µS nesta equação é conhecido como fator de segurança central, λ0 , utilizado em algumas normas
técnicas (por exemplo, na geotecnia):
µR
´ λ0 .
µS

Utilizando esta de nição e a igualdade à direita na Eq. (2.33), obtemos uma relação entre os diferentes
72 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL

fatores de segurança:
φk
λG = λ0 .
γk
Este resultado mostra que o fator de segurança global é menor do que o fator de segurança central. Isto ocorre
porque o fator central cria uma margem de segurança em relação à média das distribuições, enquanto que o
fator global cria esta margem a partir dos valores característico e nominal.
A Eq. (2.33) mostra que os fatores de redução de resistência poderiam ser incorporados em um só, fazendo
(φR φk = φ). O mesmo poderia ser feito para os fatores de majoração de solicitações (γ S γ k = γ), de forma que:

φµR
λD = ¸ 1. (2.34)
γµS

De fato, a explicação para a forma da Equação (2.33) é histórica: esta equação se explica por conta da adoção,
no meio técnico, de valores nominais e característicos como valores representativos de ações e resistências.
A Figura 2-9 ilustra uma típica condição de projeto estrutural utilizando coe cientes parciais de segurança.
Estão representados nesta gura:

1. A função de densidades de probabilidade fS (s) de uma variável de solicitação (efeito de uma ação), que
tipicamente representa a distribuição de extremos correspondente a um determinado período de retorno;
o valor nominal desta solicitação (sn ) que corresponde a uma probabilidade de 63% de ser excedido no
período de retorno.
2. A função de densidades de probabilidade fR (r) de uma variável de resistência, e o valor característico da
resistência (rk ), tipicamente associado a uma probabilidade de 95% de ser excedido.
3. Os valores de projeto de solicitação e resistência, obtidos segundo Eqs. (2.30 e 2.31), e as respectivas
margens de segurança em relação aos valores nominais e característicos.
4. A margem de segurança adicional obtida quando λD > 1 na Eq. (2.32) Usualmente, projetamos com
λD = 1 ou marginalmente maior do que 1.

Figura 2-9: Con guração típica de projeto estrutural utilizando coe cientes de segurança.

Na Figura 2-9 ca claro que o problema de projeto fundamental, em duas variáveis aleatórias R e S,
corresponde ao problema de interferência entre populações, discutido na Seção 1.2.2. No entanto, o problema
fundamental de con abilidade das estruturas é um pouco mais complexo do que este, como veremos.
2.6. FORMULAÇÃO DOS PROBLEMAS DE CONFIABILIDADE ESTRUTURAL 73

2.6 FORMULAÇÃO DOS PROBLEMAS DE CONFIABILIDADE


ESTRUTURAL
2.6.1 Problema de con abilidade dependente do tempo
Como vimos neste capítulo, ações em estruturas são tipicamente processos aleatórios, que variam ao longo do
tempo. Isto inclui as ações variáveis em lajes ou pisos, ação do vento, ações acidentais ou excepcionais, e ações
ambientais em geral (ondas, terremotos, neve, tornados, etc). Tipicamente em uma estrutura atuam várias
ações simultâneamente; estas ações podem ser representadas pelo vetor S(t).Também vimos neste capítulo que
a resistência de estruturas, ou de componentes estruturais, pode ser representada através de um conjunto de
variáveis aleatórias, reunidas em um vetor R. A resistência pode diminuir ao longo do tempo, em função de
processos de degradação.
Quando o problema de con abilidade estrutural envolve ações que são processos estocásticos, e quando a
resistência muda ao longo do tempo, as equações de estado limite (Eq. 2.1) se tornam função do tempo:

g(R, S(t), t) = 0.

Portanto, os domínios de falha e sobrevivência (Eq. 2.2) também são funções do tempo:

­f (t) = f(r, s)jg(r, s, t) · 0g,


­s (t) = f(r, s)jg(r, s, t) > 0g. (2.35)

Neste caso, as probabilidades de falha não podem ser determinadas pela Eq. (2.4).
O problema de con abilidade estrutural dependente do tempo consiste na avaliação da probabilidade de que,
a qualquer instante durante o período tD de vida de projeto da estrutura, a equação de estado limite se torne
negativa. Como o instante t em que o evento g(r, s, t) < 0 ocorre é irrelevante, o problema pode ser formulado
em termos da função mínimo: · ¸
pf (tD ) = P min g(R, S, t) · 0 . (2.36)
0·t·tD

A solução deste problema é baseada no modelo de falha à primeira sobrecarga, estudado no Capítulo 6. Esta
solução não é trivial, especialmente para S(t) multi-dimensional (mais de um processo de carregamento).

2.6.2 Problema de con abilidade estrutural típico


O problema de con abilidade estrutural típico corresponde à versão escalar do problema de nido na Seção 2.6.1,
no qual existe uma única solicitação S(t). Esta solicitação escalar pode ser resultado da solução de um problema
de combinação de ações (Seção 2.4.5). Considere também que a resistência da estrutura ou elemento estrutural
é dada de forma escalar por uma função do tipo R(t) = E(λ) f(R,t) (Eq. 2.15). A equação de estado limite do
problema escalar pode ser escrita como:

g(R, S, t) = R(t) ¡ S(t). (2.37)

A probabilidade de falha pode ser avaliada através da Eq. (2.36). O problema escalar está representado na
Figura (2-10). Observamos, de imediato, que este problema é bastante distinto do problema de con abilidade
fundamental (Seção 1.2.2), em particular devido à dependência do tempo. Típicamente, e conforme ilustrado na
gura, as ações (processos estocásticos) variam rapidamente no tempo, enquanto a resistência muda de forma
lenta e gradual.
A princípio, o problema de con abilidade estrutural típico pode ser convertido em um problema de con a-
bilidade fundamental, mas isto envolveria simpli cações importantes:
74 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL

r, s
f R ( r , t0 )
r (t )  realização de R ( t )

f S ( s, t ) s (t )  realização de S ( t )

Figura 2-10: Problema de con abilidade estrutural típico envolvendo ação estocástica e variação da resistência
no tempo.

1. Primeiramente, teríamos que desconsiderar eventual degradação da resistência.


2. Teríamos que obter as estatísticas da variável aleatória dependente E(λ) f (R). A depender da forma
da função de resistência f (R), a distribuição de probabilidades de R poderia ser muito diferente das
distribuições conhecidas (normal, log-normal, Weibull, etc); poderia ser multi-modal, por exemplo.
3. Teríamos que substituir o processo estocástico S(t) pela distribuição de valores extremos StD para o tempo
tD .

Dentre as aproximações acima, a mais aceitável, e que de fato é empregada, é a aproximação 3, como veremos.
No entanto, ela só é válida para o problema junto com a restrição 1, ou seja, desconsiderando a degradação
da resistência. O valor máximo de um processo estocástico em determinado intervalo de tempo é uma variável
aleatória. Se um processo estocástico S(t) está sempre abaixo do nível r durante a vida tD , então o valor
máximo (extremo) do processo neste tempo também estará abaixo de r. Isto permite reescrever a equação de
estado limite (Eq. 2.37) como:
g(R, S) = R ¡ StD ,
o que independe do tempo. A solução do problema fundamental (Eq. 1.2) poderia ser empregada, mas isto
implica nos inconvenientes citados no ítem 2 acima. A solução analítica na Eq. (1.10) certamente não seria
válida, porque as distribuições de valores extremos para StD são não-Gaussianas (Gumbel, Weibull, Frechet,
etc.).
A simplicação do ítem 2 acima pode (e deve) ser evitada considerando a resistência multi-dimensional. Neste
caso, a equação de estado limite ca:
g(R, S) = E(λ) f(R) ¡ StD .

O problema de con abilidade estrutural, nestas condições, pode ser resolvido a partir da Eq. (2.4), sendo
o vetor X composto por R e StD . Isto caracteriza um problema de con abilidade estrutural independente do
tempo. A formulação é exata quando apenas uma ação está envolvida, e não há variação da resistência no
tempo. A existência de degradação da resistência implica na necessidade de uma abordagem dependente do
tempo, conforme Capítulo 6.
2.6. FORMULAÇÃO DOS PROBLEMAS DE CONFIABILIDADE ESTRUTURAL 75

Probabilidade de falha instantânea

O problema de con abilidade dependente do tempo (Figura 2-10) resulta em um problema de “interferência
entre populações” para tempo t xo. A solução deste problema resulta na chamada probabilidade de falha
instantânea, conforme Eq. (1.2):
Z 1
pfinstantânea (t) = fS (s, t)FR (s, t)ds. (2.38)
¡1

Esta é a probabilidade de que uma sobrecarga ocorra exatamente no instante t. Esta probabilidade de
falha não é muito útil porque não pode ser integrada no tempo para se obter pf (tD )! Basta observar que, para
qualquer valor da probabilidade de falha instantânea, existiria um tempo tD > 0, tal que a probabilidade pf (tD )
resultante seria maior do que um! Isto ocorre porque as probabilidades de ocorrência de uma sobrecarga em
dois tempos distintos (t1 e t2 ) são eventos dependentes, i.e., uma sobrecarga só pode ocorrer em um instante
t2 > t1 se não tiver ocorrido até o instante t1 , e assim por diante. A única probabilidade de falha instantânea
“útil” é aquela calculada para t = 0; esta é a probabilidade de faha inicial (pf0 ) em problemas de con abilidade
dependente do tempo.

2.6.3 Problema de con abilidade estrutural independente do tempo


Um problema de con abilidade estrutural envolvendo apenas variáveis aleatórias é chamado de problema in-
dependente do tempo. Na solução destes problemas, a distinção entre variáveis aleatórias de resistência e de
solicitação é irrelevante; logo, as variáveis R e S são simplesmente agrupadas no vetor X.
Em termos das variáveis de projeto, a equação de estado limite é:

g(X) = g(XR , XS ) = g(X1 , X2 , ..., Xn ) = 0. (2.39)

O domínio de falha é o conjunto de todos os valores que X pode assumir e que levam a falha da estrutura,
conforme representado na Figura 2.2. O domínio de sobrevivência ou “seguro” é o conjunto complementar a
este:

­f = fxjg(x) · 0g,
­s = fxjg(x) > 0g. (2.40)

A probabilidade de falha é obtida integrando a função conjunta de densidade de probabilidades fX (x) sobre
o domínio de falha (Eq. A.50): Z
pf = fX (x)dx. (2.41)
­f

O problema fundamental de con abilidade, cuja solução é a Eq. (1.9), tem uma equação de estado limite
linear envolvendo duas variáveis aleatórias independentes, com distribuição normal. Conforme Seção A.6.4 e
Exemplo 30, pg. 370, uma função linear de qualquer número de variáveis aleatórias normais é, também, uma
variável normal. Portanto, em problemas multi-dimensionais envolvendo variáveis aleatórias normais e uma
equação de estado limite linear G = g(X), o resultado dado na Eq. (1.9, pg. 11) pode ser generalizado,
resultando naquele que é conhecido como índice de con abilidade de Cornell:

µG E[g(X)]
β´ =p ; (2.42)
σG V ar[g(X)]

sendo E[ ] o operador valor esperado e V ar[ ] o operador variância, de nidos nas pgs. 342 e 343, respectivamente.
76 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL

Nos próximos capítulos, estudaremos diferentes métodos de solução do problema formulado na Equação
(2.41). Estes métodos também serão, posteriormente, empregados na solução de problemas dependentes do
tempo, envolvendo processos estocásticos. A Tabela 2.11 mostra uma hierarquia de métodos de solução de
problemas de con abilidade estrutural independente do tempo. Dizemos que o primeiro nível de análise (1) é o
nível das normas de estados limites, quando os coe cientes parciais de segurança destas normas são calibrados
para atingir con abilidade alvo. De fato, não se trata de uma solução explícita do problema de con abilidade.
No entanto, com base na calibração dos coe cientes parciais, o projeto segundo estas normas consegue atingir
índices de con abilidade conhecidos. O problema de calibração dos coe cientes parciais de segurança de normas
técnicas de projeto é endereçado no Capítulo 7. O nível (2) consiste nos métodos de segundo momento, que
consideram apenas a média e o desvio-padrão das variáveis aleatórias do problema, o que equivale a considera-
las como variáveis normais. As distribuições de probabilidade não são utilizadas. As equações de estado limite
são aproximadas como lineares. A solução neste nível resulta em uma probabilidade de falha dita “nominal”, já
que as distribuições de probabilidade são ignoradas. A solução via método de segundo momento é estudada no
Capítulo 3 (Seção 3.2); está solução é a base para construção do método FORM (nivel 3). Os métodos de nível
(3) são aqueles que fazem uso completo das distribuições de probabilidades das variáveis aleatórias envolvidas.
O método FORM envolve uma transformação das variáveis aleatórias para o espaço normal padrão, e uma
aproximação linear da equação de estado limite. Os métodos de integração numérica e de simulação (de Monte
Carlo) também fazem uso completo das distribuições de probabilidades. Os métodos de integração numérica
são restritos a problemas de pequenas dimensões (4 a 5 variáveis aleatórias), e portanto não são abordados neste
texto. Os métodos de simulação de Monte Carlo permitem a maior precisão na avaliação das probabilidades
de falha, e por isto são chamados de “métodos exatos”. Nós preferimos evitar este nome, porque as técnicas
de simulação também tem pequenos vícios, como veremos no Capítulo 5. Ainda assim, a simulação de Monte
Carlo é o porto seguro para onde corremos, quando outras soluções analíticas ou numéricas falham, como é o
caso de algumas soluções para con abilidade de sistemas (Capítulo 4). Os métodos ditos de nível (4) endereçam
explicitamente os requisitos econômicos, incorporando informações sobre custos de falha à solução dos problemas
de projeto. Estes métodos (de otimização) são estudados no Capítulo 8.

Tabela 2.11: Hierarquia de soluções de problemas de con abilidade independente do tempo


Nível de análise Método Distribuições EEL Resultado
(1) Normas Calibração com base Não utilizadas Usualmente Fatores
técnicas em Nível (2) ou (3) lineares parciais
(2) Métodos de Transformação Aproximada Linear, ou aprox. Prob. falha
segundo momento de espaço (FOSM) como Normal como linear nominal pfN
(3) Métodos Transformação Normal Linear, ou aprox Prob. falha
ditos “exatos” de espaço (FORM) Equivalente como linear pfF O
Integração numérica Qualquer Qualquer pf
Simulação MC Qualquer Qualquer pf
(4) Métodos de Métodos nível (3) - - Custo mínimo
decisão + custos de falha - - (otimização)

Para completar o panorama das técnicas de solução, a Tabela 2.12 ilustra os diferentes métodos de solução
de problemas de con abilidade dependente do tempo. Um problema estacionário é aquele em que não existe
variação da resistência ao longo do tempo, no qual as estatísticas do processo de carregamento não mudam ao
longo do tempo. Quando envolvem um único carregamento, estes problemas são ditos escalares. Na última
coluna, a sigla VA signi ca variáveis aleatórias, e é uma indicação de que a solução envolve técnicas de con a-
bilidade independente do tempo. Como se vê, a maioria das técnicas de solução de problemas de confabilidade
dependente do tempo faz uso de ferramentas desenvolvidas para problemas independentes do tempo. Estas
soluções serão estudados no Capítulo 6.
2.6. FORMULAÇÃO DOS PROBLEMAS DE CONFIABILIDADE ESTRUTURAL 77

Tabela 2.12: Métodos de solução de problemas de con abilidade dependente do tempo


Problema Número Tipo Método de solução Solução
de ações envolve
Estacionário 1 qualquer Integração no tempo VA
n qualquer Regra de Turkstra VA
Não estacionário 1 qualquer falha à primeira sobrecarga PE
ou estacionário n discretas combinação de carregamentos PE e VA
n mista point-crossing formula PE e VA
n continuas out-crossings PE e VA
VA = variáveis aleatórias; PE = processos estocásticos.

2.6.4 Problemas estáticos, quasi-estáticos e dinâmicos em con abilidade estrutu-


ral
Em con abilidade estrutural, problemas estáticos são problemas independentes do tempo. Em problemas es-
táticos, a solicitação é estática e a resistência não muda ao longo do tempo. Exemplo: equilíbrio e esforços sob
ações permanentes.
Ações quasi-estáticas representadas como distribuições de extremos dão origem a problemas de con abilidade
independente do tempo. Exemplo: ação extrema de vento, em modelo estático-equivalente; ação de utilização
extrema em lajes; combinação de ações extremas representadas como variáveis aleatórias.
Ações quasi-estáticas representadas como processos estocásticos resultam em problemas de con abilidade
dependente do tempo. Exemplo: ação de utilização em lajes.
Ações dinâmicas que produzem acúmulo de dano (fadiga, desgaste) dão origem a problemas de con abilidade
que podem ser dependentes ou independentes do tempo, conforme Seção 6.4.
Por m, ações dinâmicas em estruturas produzem respostas dependentes do tempo, e resultam em problemas
de con abilidade dependente do tempo. Exemplo: ações dinâmicas de vento, onda, ou terremoto.
Em resumo: problemas de con abilidade independente do tempo envolvem apenas variáveis aleatórias.
Problemas de con abilidade dependentes do tempo envolvem processos estocásticos (e variáveis aleatórias).
Problemas de acúmulo de dano que envolvem apenas variáveis aleatórias são problemas dependentes do tempo,
mas cuja solução é obtida via métodos independentes do tempo.

2.6.5 Nível da análise: elemento, ponto material ou global


Na Seção 2.1 discutimos os requisitos de projeto e as equações de estado limite, mas não demos muita atenção
para a natureza dos termos de resistência e solicitação. Conforme ilustrado na Figura 2-11, equações de estado
limite podem ser escritas em termos de solicitações na seção transversal de um elemento estrutural, solicitações
em um ponto material ou em termos de comportamento global da estrutura. À esquerda nesta gura vemos
que uma ação externa produz, como primeiro efeito, esforços internos nos elementos da estrutura. Os esforços
internos resultam em tensões e deformações em pontos materiais. A resultante das deformações é uma resposta
global da estrutura, em termos de deslocamentos. A resposta global também pode ser uma curva força x
deslocamento; que resulta na força crítica e no deslocamento crítico para perda de equilíbrio da estrutura.
Em engenharia civil é comum a comparação a nível de elemento estrutural, em termos de esforços internos:
momento resistente £ momento solicitante, esforço cortante resistente £ solicitante, etc; ou em termos de
resposta global: deslocamentos £ deslocamentos admissíveis, etc. Já na análise de componentes mecânicos
é mais comum realizar a comparação a nível de material: tensões resistentes x solicitantes, deformações £
deformações admissíveis, fator de intensidade de tensões atuante £ crítico, etc. Esta comparação é realizada
para os pontos críticos do componente mecânico.
78 INTRODUÇÃO À CONFIABILIDADE ESTRUTURAL

AÇÃO Q(t)

Resposta estrutural
Comparação a nível
Solicitação em termos de Resistência de
de elemento
esforços internos elementos estruturais
S(t) = efeito de carregamento[Q(t)] R(t) = função de resistência [R,t]

Resposta estrutural Modelo de resistência


Comparação a nível
Solicitação a nível de material Resistência de material
de material
(tensões, deformações , KI ) (tensões críticas, def. críticas, KIC )
S(t) = efeito de carregamento[Q(t)] R(t) = função de resistência [R,t]

RESISTÊNCIA R
Resposta estrutural

Comparação a nível
Somatório de deformações
de estrutura Deslocamento crítico
ao longo da estrutura
(deslocamentos)

Figura 2-11: Níveis em que a comparação solicitação £ resistência pode ser feita.

De forma genérica, ou independente do nível em que ocorre a comparação entre resistência e solicitação,
podemos escrever:

S(t) = efeito de ação (Q(t)),


R(t) = função de resistência (R,t). (2.43)

o que leva à equação de estado limite:

g(R, S, t) = função de resistência (R,t) ¡ efeito de ação (Q(t))


= R(t) ¡ S(t). (2.44)

Em problemas multi-dimensionais, não é necessário (e muitas vezes é impossível) escrever a equação de estado
limite na forma escalar explicita da Eq. (2.44).
Capítulo 3

MÉTODOS DE TRANSFORMAÇÃO

3.1 INTRODUÇÃO
A solução de problemas de con abilidade estrutural independentes do tempo, conforme formulado na Eq. (2.41),
envolve a determinação (ou uma aproximação) da função conjunta de densidade de probabilidades, fX (x), bem
como aproximações do domínio de integração. Diferentes métodos de solução, incluindo métodos de transfor-
mação e simulação de Monte Carlo, envolvem diferentes aproximações de fX (x) e do domínio de integração.
Na prática, não temos observações que permitam determinar diretamente a função conjunta de densidades
fX (x). Isto signi ca que esta função deve ser construída com base na informação existente, o que na maioria
dos casos se limita à informações sobre as funções de distribuição marginais de cada variável, e em alguns casos,
aos coe cientes de correlação entre pares de variáveis aleatórias.
No método de primeira ordem e segundo momento ou FOSM - First Order Second Moment - a equação
de estado limite é aproximada por uma função linear, e a informação estatística para construção de fX (x) se
limita aos momentos de até segunda ordem (média e covariância). Uma representação das variáveis aleatórias do
problema por seus momentos de primeira e segunda ordem é equivalente a assumi-las com distribuição normal.
Esta hipótese é bastante limitante no tocante à solução de problemas práticos. No entanto, a solução conhecida
como FOSM é a base teórica para a construção de soluções mais completas, e de maior aplicação prática. O
método FOSM é a base dos demais métodos de transformação.
No método de con abilidade de primeira ordem ou FORM - First Order Reliability Method - toda a infor-
mação estatística a respeito das variáveis aleatórias do problema é utilizada. Isto inclui distribuições marginais
não-normais, bem como os coe cientes de correlação entre pares de variáveis. O domínio de integração na Eq.
(2.41) ainda é aproximado por uma função linear. O método de con abilidade de segunda ordem ou SORM -
Second Order Reliability Method - utiliza a mesma informação estatística para construção da função conjunta
de densidades, mas aproxima a equação de estado limite por uma equação quadrática.
Neste capítulo, estudamos inicialmente o método de segundo momento (FOSM), e em seguida os métodos
de primeira e de segunda ordem (FORM e SORM). A descrição dos métodos de transformação está baseada
principalmente em Melchers & Beck (2018).
Na Seção 1.2.2, o problema fundamental de con abilidade foi formulado em R2 e resolvido em forma escalar.
Uma formulação mais geral, em Rn , foi apresentada na Seção 2.6.3, para um problema envolvendo n variáveis
aleatórias. Neste capítulo, estudamos como a solução fundamental é estendida para Rn , e adaptada para
problemas envolvendo variáveis aleatórias com quaisquer distribuições de probabilidades. Inicialmente, uma
solução do problema fundamental é obtida em R2 , e então generalizada para o Rn .
Os métodos de con abilidade estrutural ditos “de transformação” estão baseados em um mapeamento (trans-
formação) do vetor de variáveis aleatórias do problema, X 2 X ½ Rn , com distribuição conjunta de probabil-
80 MÉTODOS DE TRANSFORMAÇÃO

idades arbitrária, em um vetor de variáveis aleatórias Y 2 Y ½ Rn , com distribuição normal padrão, sendo n
o número de variáveis aleatórias do problema. O conjunto X forma o chamado espaço de projeto, i.e., aquele
em que as variáveis aleatórias tem dimensões físicas (MPa, kN, mm, etc.). O conjunto Y é chamado de “es-
paço normal padrão”; neste espaço as variáveis aleatórias são adimensionais, com média nula e desvio-padrão
unitário. Os métodos de transformação estão baseados em um mapeamento que leva de X ! Y e de Y ! X.

3.2 MÉTODO DE PRIMEIRA ORDEM E SEGUNDO MOMEN-


TO (FOSM)
3.2.1 A transformação de Hasofer e Lind
O problema de con abilidade fundamental (Seção 1.2.2) foi resolvido em termos de uma transformação (Eq. 1.7)
aplicada à variável escalar M = R¡ S. Esta transformação, quando aplicada à uma variável X com distribuição
normal (X » N (µ, σ)), resulta em uma variável normal-padrão (Y » N (0, 1)), conforme veri cado no Exemplo
30 (pg. 370). Os métodos de transformação (FOSM, FORM e SORM) tem como base a transformação de
Hasofer e Lind, aplicada a cada uma das variáveis aleatórias do problema individualmente:
Xi ¡ µXi
Yi = , i = 1, ..., n. (3.1)
σXi

A Eq. (3.1) transforma um conjunto (vetor) de variáveis normais X » N (¹, D), com média e desvios-padrão
quaisquer, em um conjunto Y » N (0, I) de variáveis aleatórias normais padrão, com média nula e desvio padrão
unitário. Conforme Seção A.4.12, a função de densidade conjunta de probabilidades φn (y) (Eq. A.72) possui
simetria radial em relação à origem, propriedade explorada para construir a solução da Eq. (2.41).
Nesta seção a construção do problema é ilustrada para o caso bi-dimensional, antes de ser generalizada para
problemas em Rn .

3.2.2 Interpretação geométrica do índice de con abilidade


Uma interpretação geométrica do índice de con abilidade β é obtida aplicando a transformação de Hasofer e
Lind às variáveis R e S do problema de con abilidade fundamental (Eq. 1.1), e resolvendo o seguinte problema
de otimização:

encontrar o ponto: (y1¤ , y2¤ ),


que minimiza: d2 = y12 + y22 ,
sujeito a: g(y1 , y2 ) = 0.

Renomeando a margem de segurança M como uma equação de estado limite G, e transformando as variáveis
R e S nas variáveis Y1 e Y2 , através da Eq. (3.1), obtemos uma expressão para a equação de estado limite no
espaço normal padrão:
3.2. MÉTODO DE PRIMEIRA ORDEM E SEGUNDO MOMENTO (FOSM) 81

Figura 3-1: Transformação das variáveis R e S em variáveis normais padrão.

G = g(R, S) = R ¡ S,
g(y1 , y2 ) = g(r(y1 ), s(y2 )) = y1 σR + µR ¡ y2 σS ¡ µS . (3.2)

O problema é ilustrado na Figura 3-1.


Fazendo g(y1 , y2 ) = 0 e isolando y2 na Eq. (3.2), obtemos:
y1 σ R + µR ¡ µS
y2 = ¢ (3.3)
σS

O quadrado da distância entre um ponto qualquer (y1 , y2 ) e a origem é d2 = y12 + y22 . Derivando em relação
a y1 e igualando a zero, obtemos a condição de mínimo (necessária mas não su ciente):

∂y2
2y1 + 2y2 = 0,
∂y1
σ
2y1 + 2y2 R = 0.
σS

Utilizando a Eq. (3.3), obtemos a coordenada y1¤ do ponto sobre a equação g(y1 , y2 ) = 0 mais próximo da
origem:
σR
y1¤ = ¡y2
σS
σR (µR ¡ µS )
= ¡ ¢
σ 2R + σ2S
82 MÉTODOS DE TRANSFORMAÇÃO

Considerando novamente a distância d2 = y12 + y22 , derivando em relação a y2 e igualando a zero, e utilizando
a Eq. (3.3), obtemos a coordenada y2¤ do ponto sobre g(y1 , y2 ) = 0 mais próximo da origem:
σS
y2¤ = ¡y1
σR
σS (µR ¡ µS )
= ¢
σ2R + σ 2S

Reunindo os dois resultados, temos as coordenadas do ponto sobre g(y1 , y2 ) = 0 mais próximo da origem:

(µR ¡ µS )
(y1¤ , y2¤ ) = (¡σR , σ S ) . (3.4)
σ2R + σ2S

Substituindo este resultado em d2 = y12 + y22 e tomando a raiz, obtemos uma expressão para a mínima distância
entre a equação g(y1 , y2 ) = 0 e a origem:

µ ¡ µS
dmin = p R2 ¢ (3.5)
σR + σ2S

Este resultado é idêntico à expressão do índice de con abilidade de Cornell (Eq. 1.9). Podemos generalizar
este resultado, constatando que o índice de con abilidade corresponde à mínima distância entre a equação de
estado limite e a origem do espaço normal padrão:

µ ¡ µS
β ´ dmin = p R2 ¢ (3.6)
σ R + σ2S

A Figura 3-2 ilustra a relação entre o índice de con abilidade, obtido da solução de um problema de min-
imização em duas dimensões, e a probabilidade de falha (pf ). A pf corresponde ao volume de probabilidades
na região atrás do hiper-plano, area hachurada na gura. Como se vê nas Figuras 3-2 e 3-3, esta probabilidade
também corresponde à área abaixo da curva φ(u), portanto pode ser calculada como:

pf = ©(¡β). (3.7)

Estes resultados mostram que o índice de con abilidade β pode ser interpretado como uma medida geométrica
da probabilidade de falha, e permitem formular a solução de problemas multi-dimensionais de con abilidade
independente do tempo como problemas de otimização:

De nição 1 O índice de con abilidade β é uma medida geométrica da probabilidade de falha, que corresponde
à mínima distância entre a equação de estado limite e a origem do espaço normal padrão Y.

3.2.3 O ponto de projeto


O ponto y¤ = (y1¤ , y2¤ ) sobre a equação de estado limite que corresponde à minima distância à origem (Eq. 3.4)
é chamado de ponto de projeto, e é habitualmente indicado por um asterisco (¤ ). O ponto de projeto vem a ser
o ponto sobre o domínio de falha com maior probabilidade de ocorrência, como veremos.
A transformação para o espaço normal padrão dá origem a uma distribuição normal padrão multi-variada
fY (y), a qual possui simetria radial, e cujas curvas de equi-probabilidade são círculos concêntricos centrados
na origem (Figura 3-1, direita). Na gura podemos veri car que o ponto sobre o domínio de falha com a maior
probabilidade de ocorrência é aquele que intercepta a linha de equi-probabilidade de maior valor. Devido à
3.2. MÉTODO DE PRIMEIRA ORDEM E SEGUNDO MOMENTO (FOSM) 83

Figura 3-2: Relação entre pf e o índice de con abilidade β em problema bi-dimensional.

R ¡β
Figura 3-3: Aproximação de primeira ordem, integração uni-dimensional pf = ©(¡β) = ¡1
φ(y)dy.
84 MÉTODOS DE TRANSFORMAÇÃO

forma circular das linhas de equi-probabilidade, este é também o ponto sobre a equação de estado limite mais
próximo da origem. Isto acontece porque a função de densidade normal padrão multi-variada (veja Seções
A.4.10 e A.4.12) decai exponencialmente com a distância radial da origem, enquanto que a distância à origem
aumenta de forma quadrática. Portanto, asintóticamente com β ! 1, o ponto de projeto é o ponto sobre o
domínio de falha com maior probabilidade de ocorrência. Na prática, isto é valido aproximadamente para β > 0
. Por conta disto, também é conhecido na literatura como most probable failure point ou simplesmente Most
Probable Point (MPP).
Este resultado é muito importante. Por ser o ponto sobre o domínio de falha com maior probabilidade de
ocorrência, o ponto de projeto é também o ponto ideal para se realizar a linearização de equações de estado
limite não-lineares, como veremos.

3.2.4 Projeção da origem, vetor ® e cossenos diretores


Convém escrever as coordenadas do ponto de projeto y¤ em termos do índice de con abilidade β. Para isto,
introduzimos o vetor unitário ® que aponta na direção de crescimento da função g(y):
µ ¶
rg(y1 , y2 ) 1 ∂g ∂g
(α1 , α2 ) = = ,
krg(y1 , y2 )k krg(y1 , y2 )k ∂y1 ∂y2
1
= p 2 (σR , ¡σS ) . (3.8)
σR + σ2S

Substituindo este resultado na Eq. (3.4), e utilizando a Eq. (3.6), obtemos:

1 (µ ¡ µS )
(y1¤ , y2¤ ) = ¡ p 2 2
(σR , ¡σS ) p R2
σR + σS σR + σ2S
= ¡(α1 , α2 )β. (3.9)

Este resultado está ilustrado na Figura 3-2, e mostra que o ponto de projeto é ponto de projeção da origem do
espaço Y sobre a equação de estado limite. Em forma vetorial, este resultado é escrito como y¤ = ¡®β. Como
a equação de estado limite do problema fundamental é linear (g(y1 , y2 ) = y1 σR + µR ¡ y2 σS ¡ µS ), resulta que
rg(y1 , y2 ) e ® são constantes.
As coordenadas do ponto de projeto também podem ser escritas em termos de cossenos diretores, conforme
ilustrado na Figura 3-2:

y1¤ = ky¤ k cos(θ 1 ) = β cos(θ 1 ),


y2¤ = ky¤ k cos(θ 2 ) = β cos(θ 2 ). (3.10)

Comparando este resultado com a Eq. (3.9), veri camos que em problemas lineares os componentes do vetor ®
se confundem com os cossenos diretores:

® = (α1 , α2 ) = ¡(cos(θ1 ), cos(θ 2 )).

3.2.5 Generalização para problemas em Rn


Os resultados apresentados na Seção (3.2.2), obtidos em R2 , podem ser generalizados para problemas em Rn . A
solução do problema de con abilidade independente do tempo envolve uma transformação para o espaço normal
3.2. MÉTODO DE PRIMEIRA ORDEM E SEGUNDO MOMENTO (FOSM) 85

padrão, e a solução do seguinte problema de otimização:

Determinar o ponto: y¤ ,
p
que minimiza: d = kyk = yt y,
sujeito a: g(y) = 0, (3.11)

sendo d a distância entre um ponto y qualquer e a origem. Este é um típico problema de otimização com
restrições. Neste caso, o índice de con abilidade é a mínima distância, encontrada como:
p
β ´ ky¤ k = y¤t y¤ . (3.12)

Este é conhecido como o índice de con abilidade de Hasofer e Lind (1974).


O vetor gradiente da equação de estado limite g(y) é dado por:

½ ¾t
∂g ∂g ∂g
rg(y) = , , ..., ,
∂y1 ∂y2 ∂yn
sendo o expoente f gt para transposto (trabalhamos com vetores-coluna em todo o texto). O vetor unitário que
aponta na direção de crescimento da função g(y) é:

rg(y)
®(y) = . (3.13)
krg(y)k

O ponto de projeto y¤ é o ponto sobre a equação de estado limite mais próximo da origem do espaço Y.
Este também é o ponto em que a origem do espaço Y se projeta sobre a equação de estado limite, de forma que:

y¤ = ¡®β, (3.14)
sendo β = ky¤ k a distância entre y¤ e a origem do espaço Y. Note a semelhança desta expressão com a Eq.
(3.9).

3.2.6 Equação de estado limite linear


Em Rn , uma equação de estado limite g(x) = 0 linear vem a ser um hiper-plano. A transformação de Hasofer
e Lind é linear, e portanto tem a propriedade de preservar a linearidade da equação de estado limite. Assim,
a equação de estado limite no espaço Y, g(y) = 0, é também um hiper-plano. Os cossenos diretores deste
hiper-plano (Eq. 3.13) são constantes (função linear).
As coordenadas do hiper-plano no espaço Y podem ser escritas como:

n
X
t
g(y) = β + ® y = β + αi yi = 0. (3.15)
i=1

A equação correspondente no espaço de projeto X é obtida aplicando a transformação (Eq. 3.1) em (3.15):

Xn
αi Xn
αi
g(x) = β ¡ µXi + xi = 0.
σ
i=1 Xi
σ
i=1 Xi

Com duas mudanças de variáveis:


n
X
αi
bi = ; b0 = β ¡ bi µXi ;
σXi i=1
86 MÉTODOS DE TRANSFORMAÇÃO

obtemos: n
X
g(x) = b0 + bi xi = 0,
i=1

que também é uma função linear em x. Tomando o valor esperado da função g(X):

n
X
E[g(X)] = b0 + bi µXi = β.
i=1

Tomando a variância de g(X):


n
X Xn µ ¶2
αi
V ar[g(X)] = b2i σ2Xi = σ2Xi = 1.
i=1 i=1
σ X i

Para uma equação de estado limite linear e distribuições normais, o índice de con abilidade de Cornell (Eq.
2.42), é calculado como:

E[g(X)] β
p = = β.
V ar[g(X)] 1
Observamos que este resultado é idêntico ao índice de con abilidade β calculado a partir da solução do problema
de minimização no espaço Y. Portanto, o índice de con abilidade β independe do espaço de solução. Em geral,
esta observação só é válida para equações de estado limite lineares.

Tabela 3.1: Estatísticas de R, D e L utilizadas na calibração das normas norte-americanas.


Variável Média C.V. Dist. ASCE 7 NBR 8800
R 1,07 Rn 0,13 Lognormal φR = 0, 9 γ R ¼ 1/φR = 1, 1
D 1,05 Dn 0,10 Normal γ D = 1, 2 γD = 1, 25
L 1,00 Ln 0,25 Gumbel γL = 1, 6 γL = 1, 5

Exemplo 2 Projeto segundo norma (a), equação linear.


Enunciado: A condição de projeto para estruturas sujeitas a ações permanentes e variáveis, nas normas
norte-americanas, é dada pela equação:

φR Rn = γD Dn + γ L Ln , (3.16)

sendo φR , γD e γ L coe cientes parciais de segurança, R a resistência do elemento, D a ação permanente


e L a ação variável de utilização. O índice ()n refere-se a valores nominais das respectivas variáveis. A
equação de estado limite correspondente é linear, e dada por:

g(X) = R ¡ (D + L),

sendo X = fR, D, Lgt . As estatísticas das 3 variáveis aleatórias envolvidas estão apresentadas na Tabela
3.1, em relação aos valores nominais. Estas estatísticas foram utilizadas por Ellingwood et al. (1980)
na calibração, baseada em con abilidade, das normas de projeto norte-americanas. As estatísticas para
3.2. MÉTODO DE PRIMEIRA ORDEM E SEGUNDO MOMENTO (FOSM) 87

R referem-se a vigas de aço tre lado, em ‡exão sob momento uniforme. Assumindo distribuições nor-
mais (FOSM) e considerando uma razão unitária entre valores nominais das ações variável e permanente
(Ln /Dn = 1), determine o índice de con abilidade para os coe cientes parciais utilizados na norma ASCE
7.
Solução: Inicialmente, dividimos a Eq. (3.16) por Dn , para colocá-la em termos de razão de carregamento:

φR Rn L
= γ D + γL n . (3.17)
Dn Dn
A partir desta equação, para uma ação permanente nominal unitária (Dn = 1), e para Ln /Dn = 1,
determinamos a resistência nominal necessária:

Dn (γ D + γ L Ln /Dn ) 1(1, 2 + 1, 6) 2, 8
Rn = = = = 3, 1111.
φR 0, 9 0, 9

O vetor de médias é obtido a partir dos valores nominais e dos dados da Tabela 3.1: ¹ =
f3, 3289; 1, 05; 1, 0gt . Um vetor de desvios-padrão é obtido multiplicando os termos de ¹ pelos coe cientes
de variação: ¾ = f0, 4328; 0, 105; 0, 25gt . Como a equação de estado limite é linear, a Eq. (2.42) pode ser
utilizada diretamente:
E[g(X)] 3, 3289 ¡ 1, 05 ¡ 1, 0
β=p =p = 2, 50.
V ar[g(X)] 0, 43282 + 0, 1052 + 0, 252

Exercício 1 Projeto segundo norma (b): repita o Exemplo 2 para uma razão entre ações Ln /Dn = 5.
Resposta: β = 2, 58. Interpretação: porque o índice de con abilidade aumentou?

Exercício 2 Projeto segundo norma (c): repita o Exemplo 2 para uma razão entre ações Ln /Dn = 1,
mas utilizando os coe cientes parciais da norma brasileira NBR 8800. Resposta: β = 2, 42. Interpretação:
porque este valor é menor do que aquele obtido para a norma norte-americana?

Exercício 3 Projeto segundo norma (d): repita o Exemplo 2 para uma razão entre ações Ln /Dn = 5,
mas utilizando os coe cientes parciais da norma brasileira NBR 8800. Resposta: β = 2, 34. Interpretação:
porque este valor é menor do que aquele obtido para Ln /Dn = 1? Porque o comportamento observado
para a norma norte-americana não é observado para a norma brasileira?

Observação para interpretação dos resultados: lembre que os coe cientes parciais de segurança das
normas norte-americanas foram calibrados, com base nos dados da Tabela 3.1, para atingir índice de
con abilidade alvo βT = 3, 0 (combinação D + L), enquanto as normas brasileiras nunca passaram por
esta calibração.

3.2.7 Equação de estado limite não-linear


Equações de estado limite em problemas de con abilidade estrutural são, em geral, não-lineares. Neste caso, a
solução é dividida em duas partes:
88 MÉTODOS DE TRANSFORMAÇÃO

1. solução de problema de otimização para encontrar o ponto de projeto e o índice de con abilidade;
2. aproximação da equação de estado limite por um hiper-plano, no ponto de projeto.

Estas etapas são detalhadas a seguir.

Solução do problema de otimização

Conforme vimos, o ponto de projeto corresponde ao ponto sobre a equação de estado limite mais próximo da
origem. Portanto, ele pode ser encontrado a partir da solução do problema de otimização formulado na Eq.
(3.11). Utilizando um multiplicador de Lagrange λ, obtemos um problema de otimização sem restrições. O
Lagrangeano deste problema é:

1
L(y,λ) = (yt y) 2 + λg(y). (3.18)
Um ponto estacionário da Eq. (3.18) é obtido derivando L(y,λ) em relação a y e a λ, e igualando todos os
termos a zero:
∂L
= yd¡1 + λrg(y) = 0, (3.19)
∂y
∂L
= g(y) = 0. (3.20)
∂λ
A Eq. (3.20) é satisfeita automaticamente se y está sobre a equação de estado limite. A Eq. (3.19) leva as
coordenadas do ponto estacionário yest :
yest = ¡λdrg(y). (3.21)
Assumindo
p que este ponto de estacionariedade seja um ponto de mínimo (o ponto de projeto y¤ ), e usando
t
d = y y, obtemos:

λ = §(rg t rg)¡1/2 = § krgk¡1 ,


o que, substituído na Eq. (3.21) leva a:

rg ¤
dmin = ¡ y = ¡®t y¤ . (3.22)
krgk

A seguir, mostramos que esta distância mínima vem a ser o índice de con abilidade β, obtido através de
uma linearização da equação de estado limite no ponto de projeto.

Linearização da equação de estado limite

Fazendo uma expansão da equação de estado limite g(y) em série de Taylor em torno de um ponto yp qualquer,
limitada aos termos de primeira ordem, obtemos:
Xn ¯
∂g(y) ¯¯
g(y) ' e
g(y) = g(y )+p
¯ (yi ¡ yip ) (3.23)
i=1
∂y i y=yp

= g(yp )+rgt (y ¡ yp ), (3.24)


3.2. MÉTODO DE PRIMEIRA ORDEM E SEGUNDO MOMENTO (FOSM) 89

sendo rg o gradiente da equação de estado limite e e


g(y) é uma aproximação linear da equação de estado limite.
Tomando o valor esperado:
Xn ¯
∂g(y) ¯¯
E[eg(y)] = g(y ) ¡ p
¯ yip
i=1
∂yi y=y p

= g(yp ) ¡ rgt yp .

Se o ponto yp está localizado sobre a equação de estado limite, g(yp ) = 0, portanto:

g(y)] = ¡rg t yp .
E[e

Tomando a variância da Eq. (3.23), obtemos:

n
à ¯ !2
X ∂g(y) ¯¯
V ar[e
g(y)] = = rgt rg. (3.25)
i=1
∂yi ¯y=yp

Utilizando a de nição do índice de con abilidade (Equação 2.42) obtemos:

E[e
g(y)] rgt yp
β= 1 = ¡ = ¡®t yp . (3.26)
(V ar[e
g(y)]) 2 (rgt rg)1/2

Este resultado é identico à Eq. (3.22) para yp = y¤ . Portanto, a mínima distância entre o ponto de projeto
e a origem corresponde ao índice de con abilidade para a equação de estado limite linearizada, desde que a
mesma seja linearizada no ponto de projeto.
Conforme visto, o ponto de projeto é também o ponto sobre o domínio de falha com maior probabilidade
de ocorrência, o que signi ca que o maior conteúdo de probabilidades do domínio de falha está na vizinhança
deste ponto. Sendo assim, uma linearização da equação de estado limite neste ponto minimiza o erro cometido
ao se calcular a probabilidade de falha a partir da equação linearizada (Figura 3-2).

Aproximação de primeira ordem da probabilidade de falha

Em resumo, a solução de problemas envolvendo equações de estado limite não lineares envolve a solução de um
problema de otimização, para busca do ponto de projeto, e a aproximação da equação de estado limite original
por um hiper-plano, centrado no ponto de projeto (Figura 3-4). Sendo β a mínima distância entre a equação
de estado limite e a origem do espaço normal padrão, uma estimativa de primeira ordem da probabilidade de
falha é obtida como:
pf ¼ pfF O = ©(¡β). (3.27)

Note que, conforme ilustrado nas Figuras (3-2 e 3-3), a integral multi-dimensional sobre o domínio de falha
(Eq. 2.41) é substituída por uma integral uni-dimensional na variável u, sendo u a distância da origem na
direção do ponto de projeto y¤ .
O método de primeira ordem não forneçe estimativas para o erro cometido com a linearização da equação de
estado limite. No entanto, este erro pode ser avaliado com base na Figura (3-4). Nesta gura, destacamos que a
precisão da aproximação de primeira ordem depende do grau de não-linearidade da equação de estado limite na
região em torno do ponto de projeto, ponto em torno do qual está o maior conteúdo de probabilidades de fX (x)
no domínio de falha. Para uma equação de estado limite convexa em relação à origem, como a ilustrada na
Figura (3-4), a estimativa de primeira ordem é conservadora, i.e., pfF O > pf . A área hachurada mais escura na
gura corresponde ao conteúdo de probabilidade adicional avaliado pela aproximação de primeira ordem. Para
uma equação de estado limite convexa em relação à origem (não ilustrada), a estimativa de primeira ordem é
90 MÉTODOS DE TRANSFORMAÇÃO

não-conservadora, i.e., pfF O < pf .


O erro da aproximação de primeira ordem (Eq. 3.27) tende assintóticamente a zero quando β ! 1. Isto
ocorre porque, mesmo que o erro relativo ((pf ¡ pfF O ) /pf ) permaneça constante, o valor absoluto do erro
(pf ¡ pfF O ) tende a zero quando β ! 1. O erro da aproximação de primeira ordem também aumenta com o
aumento do número de variáveis aleatórias do problema (Schuëller & Stix, 1987).
A solução do problema aqui apresentada, e a aproximação de primeira ordem, assumem que o ponto de
projeto seja único! Este pode não ser o caso quando a equação de estado limite for fortemente não-linear. Por
exemplo, a solução do problema de otimização pode levar a múltiplos mínimos locais, i.e., a múltiplos pontos
de projeto. A pior situação ocorre quando os múltiplos pontos de projeto são equi-prováveis, i.e., quando βi ¼
β j ¼ ... ¼ βk ; neste caso, a aproximação de primeira ordem (Eq. 3.27) perde muito em qualidade. Der
Kiureghian & Dakessian (1998) exploram algumas soluções especí cas para amenizar o problema. Em geral, a
opção por empregar técnicas de simulação de Monte Carlo é a saída mais fácil. Uma forma fácil e prática de
identi car o problema é fazer múltiplas buscas pelo ponto de projeto, a partir de pontos iniciais distintos. Se o
mesmo ponto de projeto é encontrado, temos uma indicação (mas nenhuma prova!) de que a equação de estado
limite é bem comportada, e de que o ponto de projeto seja único.

Figura 3-4: Aproximação de primeira ordem (FOSM e FORM).

Sensibilidade da probabilidade de falha

Tomando a derivada da aproximação de primeira ordem da probabilidade de falha (Eq. 3.27) em relação às
variáveis de projeto no espaço normal padrão, obtemos informação a respeito da contribuição de cada variável
aleatoria na composição da pf :
¯ ¯
∂pf ¯¯ ∂©(¡β) ∂β ¯¯
=
∂y ¯y=y¤ ∂β ∂y ¯y=y¤
¯
∂β ¯¯
= ¡φ(¡β) .
∂y ¯y=y¤

Da Eq. (3.14), obtemos:


3.2. MÉTODO DE PRIMEIRA ORDEM E SEGUNDO MOMENTO (FOSM) 91

¯
∂β ¯¯ rg(y¤ )
¯ = ¡®(y¤ ) = ¡ ¢
∂y y=y¤ krg(y¤ )k
Combinando os resultados, temos:
¯
∂pf ¯¯
= φ(¡β)®(y¤ ). (3.28)
∂y ¯y=y¤
P 2
Nesta expressão, o termo φ(¡β) é constante, e o vetor ® é unitário: αi = 1. Portanto, os componentes
α2i indicam a contribuição relativa da variável aleatória Yi (e portanto também da variável aleatória Xi ) na
composição da probabilidade de falha. Esta contribuição é uma combinação do valor médio, do desvio-padrão
e da distribuição de probabilidades da variável aleatória Xi .
Assim, se um valor α2i é pequeno (α2i ¼ 0) em relação à unidade, a variável Xi tem pouca contribuição na
probabilidade de falha da estrutura, e poderia eventualmente ser eliminada (substituída por um valor deter-
minístico). Esta informação é importante, pois permite reduzir a dimensão do problema através da eliminação
de variáveis sem importância. Por outro lado, α2i grande indica uma variável com grande contribuição, à qual se
deveria dar atenção (obter mais dados, reduzir incerteza estatística, etc.). Note que a avaliação dos coe cientes
de sensibilidade não exige cálculos adicionais, pois a informação dos gradientes é necessária para encontrar o
ponto de projeto.
O sinal de cada componente do vetor ® indica se determinada variável aleatória é de “resistência” ou de
“solicitação”. Na Eq. (3.8) veri camos que variáveis de resistência possuem αi > 0, enquanto solicitações tem
αi < 0. Em problemas mais complexos, nem sempre é possível saber se determinada variável é de resistência
ou de solicitação. Preservando os sinais ao elevar ao quadrado (α2i ), mostramos a contribuição relativa de cada
variável aleatória e se ela contribui para a resistência ou para a solicitação.
A medida de sensibilidade expressa na Eq. (3.28) é uma medida linear, portanto, os coe cientes de sensibili-
dade são estritamente válidos para equações de estado limite lineares e para distribuições normais. Para equações
de estado limite não-lineares e/ou distribuições de probabilidade não normais, estes coe cientes fornecem uma
aproximação (linear) da contribuição relativa de cada variável.

Exemplo 3 Projeto segundo norma (e), coe cientes de sensibilidade.

Enunciado: Determine a contribuição das variáveis aleatórias R, D, e L aos índices de con abilidade
calculados no Exemplo 2.
Solução: Utilizando a transformação de Hasofer Lind (Eq. 3.1) e a regra da cadeia, o vetor gradiente da
equação de estado limite no espaço Y é:
½ ¾t
∂g ∂x1 ∂g ∂x2 ∂g ∂x3
rg(y) = ; ;
∂x1 ∂y1 ∂x2 ∂y2 ∂x3 ∂y3
= f1 σ1 ; ¡1 σ2 ; ¡1 σ3 gt
t
= f0, 4328; ¡0, 105; ¡0, 25g .

O vetor unitário ®(y) ca:

rg(y)
®(y) = = f0, 8474; ¡0, 2056; ¡0, 4895gt .
krg(y)k
Mantendo os sinais ao elevar ao quadrado:
92 MÉTODOS DE TRANSFORMAÇÃO

®2 = fα2R ; α2D ; α2L gt = f+0, 718; ¡0, 042; ¡0, 240gt . (3.29)

O resultado mostra que a maior contribuição vem da variável aleatória de resistência R. A ação variável
L tem papel bem mais importante que a ação permanente, porque seu coe ciente de variação é bem maior.

Exercício 4 Projeto segundo norma (f), coe cientes de sensibilidade: repita o Exemplo 3 para uma razão
entre ações Ln /Dn = 5. Resposta:

®2 = f+0, 562; ¡0, 003; ¡0, 435gt . (3.30)

Interpretação: o aumento da proporção de L em relação a D aumentou a contribuição de L à probabilidade


de falha.

3.2.8 Solução numérica do problema de otimização


A solução de problemas de con abilidade via FOSM (ou via FORM), para equações de estado limites não-
lineares, envolve a solução de um problema de otimização para busca do ponto de projeto. Com este m,
qualquer algoritmo de otimização capaz de resolver o problema expresso na Eq. (3.11) pode ser utilizado.
Entre os critérios para escolha de determinado algoritmo, estão a generalidade, robustez e e ciência. Merece
destaque a e ciência, medida a partir do número de avaliações da equação de estado limite necessários para a
convergência. Este número é fundamental quando a equação de estado limite é dada de forma numérica, por
exemplo através de um modelo de elementos nitos com muitos graus de liberdade, pois cada avaliação de g(x)
corresponde a uma solução do modelo de elementos nitos.
O algoritmo mais utilizado é o de Hasofer, Lind, Rackwitz e Fiessler, ou HLRF. Este algoritmo continua muito
popular, devido à sua simplicidade, ainda que apresente problemas de convergência em problemas fortemente
não-lineares. Um ponto fraco deste algoritmo é o fato de não existir garantia de convergência. Na sequência,
estudamos o algoritmo HLRF, bem como uma modi cação do mesmo para o qual a convergência pode ser
garantida. Outros algoritmos que podem ser utilizados na solução do problema de otimização em con abilidade
(Eq. 3.11) são apresentados e discutidos em (Liu & Der Kiureghian, 1986, 1991; Santos et al., 2012; Beck &
Silva Jr., 2016) .

Algoritmo de Hasofer, Lind, Rackwitz e Fiessler

Conhecido como algoritmo de Hasofer, Lind, Rackwitz e Fiessler, ou HLRF, este foi desenvolvido especí camente
para solução do problema de otimização em con abilidade estrutural (Hasofer e Lind, 1974; Rackwitz e Fiessler,
1978). Sua fórmula recursiva está baseada na aproximação da equação de estado limite por um hiperplano, e
na busca do zero (e
g(y) = 0) desta aproximação.
Uma expansão da equação de estado limite em série de Taylor de primeira ordem, em torno de um ponto
inicial yk qualquer, leva a:

g(yk+1 ) ' ge(yk+1 ) = g(yk ) + rg(yk )t (yk+1 ¡ yk ), (3.31)

sendo rg(yk ) o gradiente da equação de estado limite (no espaço normal padrão), avaliado no ponto yk . Um
p a equação linearizada, fazendo ge(yk+1 ) = 0 na Eq. (3.31). Da Eq. (3.14)
novo ponto yk+1 é encontrado sobre
temos yk = ¡®k βk , sendo βk = ytk yk . Substituindo na Eq. (3.31) e manipulando, obtemos:
3.2. MÉTODO DE PRIMEIRA ORDEM E SEGUNDO MOMENTO (FOSM) 93

Figura 3-5: Solução iterativa para busca pelo ponto de projeto.

rg(yk )t yk+1 = ¡ rg(yk )t (®k βk ) ¡ g(yk ). (3.32)


Como ®k possui comprimento unitário, a Eq. (3.32) não se altera quando o segundo termo é multiplicado por:

rg(yk )t ®k
®tk ®k = = 1.
krg(yk )k
Portanto:
rg(yk )t ®k
rg(yk )t yk+1 = ¡ rg(yk )t (®k βk ) ¡ g(yk ).
krg(yk )k
Desta expressão, podemos eliminar a pré-multiplicação pela transposta do gradiente, obtendo:

®k
yk+1 = ¡ (®k βk ) ¡ g(yk ).
krg(yk )k
Portanto, o novo ponto pode ser encontrado como:
· ¸
g(yk )
yk+1 = ¡®k β k + . (3.33)
krg(yk )k

Na Eq. (3.33), o termo entre colchetes representa a nova aproximação do índice de con abilidade, ou β k+1 .
Esta expressão é utilizada de forma iterativa, arbitrando um ponto inicial yk qualquer, até atingir a convergência
em y e em β. Note que esta expressão depende de ®k , de β k , do gradiente rg(yk ) e do valor da função no ponto
k, g(yk ). A Eq. (3.33) é apropriada para uma busca manual pelo ponto de projeto, pois fornece explicitamente
a variação no índice de con abilidade de uma iteração para a próxima.
A Figura 3-5 ilustra o processo iterativo de busca do ponto de projeto, segundo o algoritmo HLRF.
Uma expressão alternativa é obtida a partir da Eq. (3.32), pós-multiplicando ambos os termos à direita da
94 MÉTODOS DE TRANSFORMAÇÃO

igualdade pelo termo unitário ®tk ®k :


£ ¤
rg(yk )t yk+1 = rg(yk )t yk ¡ g(yk ) ®tk ®k
[rg(yk )t yk ¡ g(yk )]
= rg(yk )t rg(yk ).
krg(yk )k2

O termo entre colchetes é um escalar, de forma que a pré-multiplicação pela transposta do gradiente pode ser
eliminada de ambos os lados, resultando:

rg(yk )t yk ¡ g(yk )
yk+1 = rg(yk ). (3.34)
krg(yk )k2

Esta expressão envolve o ponto yk , o gradiente e o valor da função neste ponto, sendo talvez mais apropriada
para programação.
O algoritmo de Hasofer, Lind, Rackwitz e Fiessler (HLRF) aqui apresentado é de longe o algoritmo mais
utilizado para encontrar o ponto de projeto em problemas de con abilidade estrutural. No entanto, não existe
garantia de convergência do algoritmo, nem garantia de que o ponto encontrado seja o ponto de mínimo da
1/2
função β = (yt y) . Uma veri cação simples é arbitrar diferentes pontos iniciais, veri cando se o algoritmo
converge para o mesmo ponto y¤ .

Algoritmo HLRF melhorado (iHLRF)

O algoritmo HLRF pode ser melhorado através de uma busca linear para ajuste do passo (Zhang & Der
Kiureghian, 1997; Sudret & Der Kiureghian, 2000). A direção de busca é dada pelo algoritmo HLRF original:

rg(yk )t yk ¡ g(yk )
dk = yk+1 ¡ yk = rg(yk ) ¡ yk . (3.35)
krg(yk )k2

No algoritmo HLRF original, o novo ponto é determinado através de um passo unitário λk = 1, tal que:

yk+1 = yk + λk dk .

O algoritmo HLRF melhorado, ou iHLRF (do inglês improved ) realiza uma busca linear por um passo ótimo
λk que minimiza uma função mérito m(y):

λk = arg min[m(yk + λdk )].

A busca linear é realizada de forma aproximada, utilizando a regra de Armijo (Luenberger, 2003). Buscamos o
menor valor de n que resulte em redução su ciente na função mérito:

λk = bn j m(yk + bn dk ) ¡ m(yk ) · abn rm(yk )t dk , a, b 2 (0, 1).

Zhang e Der Kiureghian (1997) propõe uma função mérito m(y):


1
m(y) = kyk2 + c jg(y)j ,
2
com duas importantes propriedades:
3.2. MÉTODO DE PRIMEIRA ORDEM E SEGUNDO MOMENTO (FOSM) 95

1. a direção de busca dk é direção de descida da função mérito, desde que:

kyk
c> ; (3.36)
krg(y)k

2. a convergência ao ponto de projeto é garantida, desde que observada a mesma restrição em c.

Estas duas propriedades são su cientes para assegurar convergência incondicional do algoritmo (para prova
ver Zhang & Der Kiureghian, 1997). Um sumário do algoritmo é apresentado a seguir:

Algoritmo 1 Algoritmo iHLRF (improved HLRF)


Parâmetros: a, b 2 (0, 1),  > 0, δ > 0 e γ > 1

1. Escolha do ponto inicial y0 para k = 0.


2. Avaliação de g(yk ) , rg(yk ) e veri cação da condição de otimalidade. Se:

jrg(yk )t yk j
1¡ < e jg(yk )j < δ
krg(yk )k kyk k

o algoritmo é interrompido; caso contrário, segue.


3. Avaliação da direção de busca:

rg(yk )t yk ¡ g(yk )
dk = rg(yk ) ¡ yk ;
krg(yk )k2

4. Determinação do fator de penalidade da função mérito. Se jg(yk )j ¸ δ,


" #
kyk k 1 kyk + dk k2
ck = γ max , ,
krg(yk )k 2 jg(yk )j

caso contrário
kyk k
ck = γ ;
krg(yk )k

5. Busca linear:
λk = max[bn j m(yk + bn dk ) ¡ m(yk ) · ¡abn rm(yk )t ¢ dk ];
n2N

6. Atualização do ponto y :
yk+1 = yk + λk dk ;

7. Incremento k = k + 1 e retorno ao passo 2.

Observações:

1. os parâmetros  e δ correspondem à tolerância nas condições de otimalidade. O parâmetro γ serve para


atender à condição de convergência (Eq. 3.36). Valores típicos para estes parâmetros são  = 10¡3 ;
a = 0, 1; b = 0, 5 e γ = 2. A tolerância δ depende da escala da equação de estado limite. Portanto pode
ser determinada em relação ao valor desta no ponto inicial: δ = 10¡3 jg(y0 )j .
96 MÉTODOS DE TRANSFORMAÇÃO

2. na etapa 4 o fator de penalização ck é ajustado de maneira a equilibrar a e ciência e convergência do


2
algoritmo. Para jg(yk )j ¸ δ o valor ck = 21 kyjg(y
k +dk k
k )j
impõe ck su cientemente grande para que um
passo inteiro λk = 1 seja dado no caso de g(y) aproximadamente linear. Observe que esta alteração
pode levar à perda da garantia de convergência incondicional (Eq. 3.36).
3. na etapa 5 o valor inicial de n é geralmente igual a 0.

3.2.9 Transformação de Hasofer-Lind matricial


O método FOSM é facilmente programável em computador. No entanto, para lidar com problemas envolvendo
um grande número de variáveis aleatórias, é conveniente trabalhar em forma matricial. Grande parte do
trabalho na solução de problemas via FOSM é a transformação do espaço de projeto X para o espaço normal
padrão Y. A equação de estado limite do problema em geral é formulada e avaliada no espaço de projeto X.
No entanto, a busca pelo ponto de projeto é feita no espaço Y. Desta forma, a solução algorítmica envolve
sucessivas transformações de pontos e gradientes de X ! Y e de Y ! X.
Com base no vetor de médias ¹ na matriz diagonal de desvios padrão D, introduzidos na Seção A.4.11, a
transformação de Hasofer-Lind e sua inversa podem ser escritas de forma matricial como:

y = D¡1 fx ¡ ¹g,
x = D y + ¹, (3.37)

sendo D¡1 a inversa de D, ou matriz diagonal contendo o inverso dos desvios-padrão:

D¡1 = fV ar[Xi ]¡1/2 gn£n,i=1,...,n .

Para implementar as transformações compostas do método de primeira ordem, é conveniente trabalhar com
matrizes Jacobianas, de nidas como:
· ¸
∂yi
Jyx = = D¡1 ,
∂xj i=1,...,n; j=1,...,n
· ¸
∂xi
Jxy = = D,
∂yj i=1,...,n; j=1,...,n

sendo n o número de variáveis aleatórias do problema. A transformação de Hasofer-Lind e inversa resultam:

y = Jyx fx ¡ ¹g,
x = Jxy y + ¹. (3.38)

No contexto do método FOSM, não existe benefício aparente em trabalhar com matrizes Jacobianas para
realizar as transformações necessárias. Estes benefícios aparecerão no contexto do método de primeira ordem
(FORM).
Em geral, os vetores gradiente são avaliados no espaço X. O vetor gradiente em Y é obtido utilizando a
3.2. MÉTODO DE PRIMEIRA ORDEM E SEGUNDO MOMENTO (FOSM) 97

regra da cadeia:
½ ¾
∂g
rg(y) =
∂yi i=1,...,n
8 9
<X n
∂g ∂xj =
=
: ∂xj ∂yi ;
j=1
i=1,...,n;
t
= (Jxy ) rg(x). (3.39)

3.2.10 Algoritmo FOSM


O algoritmo de solução do método FOSM pode ser resumido nas seguintes etapas:

Algoritmo 2 Método de con abilidade de Primeira Ordem e Segundo Momento (FOSM):

1. escolha do ponto inicial xk para k = 0 (usualmente o ponto médio);


2. avaliação das matrizes Jacobianas (Jyx e Jxy ) e do vetor de médias ¹;
3. transformação do ponto xk de X ! Y;
4. avaliação de g(xk );
5. cálculo do gradiente:
a. cálculo das derivadas parciais de g (x) no espaço de projeto X;
b. transformação do gradiente para Y;
c. cálculo dos fatores de sensibilidade ®(yk ).
6. cálculo do novo ponto yk+1 pelos algoritmos HLRF, iHLRF ou outro;
7. transformação de yk+1 para X;
8. veri cação do critério de convergência. Se:
¯ ¯
¯ rg(yk+1 ) yk+1 ¯
1¡¯ ¯ ¯< e jg(yk+1 )j < δ
krg(yk+1 )k kyk+1 k ¯

o algoritmo é interrompido (y¤ = yk+1 ); caso contrário, retorne ao item 4 com k = k + 1 até atingir a
convergência.
9. ao nal, avaliação do índice de con abilidade no ponto de projeto: β = ky¤ k .

Observe que as matrizes Jacobianas não mudam ao longo do processo iterativo; portanto, só precisam ser
calculadas ao início da solução.

Exemplo 4 Equação de estado limite não-linear, rótulo plástica em viga (adaptado de Ang & Tang, 1975,
2007).
98 MÉTODOS DE TRANSFORMAÇÃO

Tabela 3.2: Variáveis aleatórias do problema, rótula plástica em viga.


Variável Parâmetros Unidade
σy (X1 ) N » (40; 5) kN/cm2
W (X2 ) N » (50; 2, 5) cm3
M (X3 ) N » (1000; 200) kN cm

Formulação: Este problema representa a formação de uma rótula plástica em uma viga de aço, devido
a ação de um momento ‡etor externo. As variáveis aleatórias tem distribuição normal, conforme dados
apresentados na Tabela 3.2.
Neste problema, σ y é a tensão de escoamento do aço, W é o módulo plástico da seção transversal da
viga, e M é o momento externo aplicado. Desta forma, a equação de estado limite do problema é:

g(X) = σ y W ¡ M = X1 X2 ¡ X3 . (3.40)

Determine o índice de con abilidade para este elemento estrutural.


Solução: Primeiramente, montamos alguns vetores e matrizes necessários à solução do problema. O vetor
de médias é ¹ = f40; 50; 1000gt e a matriz jacobiana Jxy é:
2 3
5 0 0
Jxy = D = 4 0 2, 5 0 5 .
0 0 200

Os componentes do vetor gradiente são:


½ ¾
∂g
rg(x) =
∂xi i=1,2,3
t
= fx2 , x1 , ¡1g .

Antes de obter a solução FOSM via processo iterativo, determinamos uma aproximação de primeira
ordem no ponto médio, segundo o índice de con abilidade de Cornell (Eq. 2.42). Esta solução aproximada
é comparada com a solução correta ao nal do exemplo.

E[g(X)] g(¹)
β = p =p
V ar[g(X)] rg (Dt D) rg
t

40 50 ¡ 1000
= p
52 502 + 2, 52 402 + 2002
= 2, 9814.

Para proceder com a solução iterativa, é necessário determinar a equação de estado limite no espaço
normal padrão Y. Para isto, fazemos:

x = Jxy y + ¹
2 38 9 8 9
5 0 0 < y1 = < 40 =
= 4 0 2, 5 0 5 y2 + 50 .
: ; : ;
0 0 200 y3 1000
3.2. MÉTODO DE PRIMEIRA ORDEM E SEGUNDO MOMENTO (FOSM) 99

Logo:

g(y) = (5y1 + 40)(2, 5y2 + 50) ¡ 200y3 ¡ 1000


= 12, 5y1 y2 + 100y2 + 250y1 ¡ 200y3 + 1000.

O vetor gradiente, no espaço Y, ca:


½ ¾
∂g
rg(y) =
∂yi i=1,2,3
= f12, 5y2 + 250; 12, 5y1 + 100; ¡200gt .

O processo iterativo começa com k = 0, e com o ponto inicial igual a média. Desta forma, valores
iniciais são calculados como:

x0 ¹ = f40; 50; 1000gt ,


=
y0 f0; 0; 0gt ,
=
β0 =
0,
g(x0 ) =
g(y0 ) = 40 £ 50 ¡ 1000 = 1000,
rg(y0 ) f250; 100; ¡200gt ,
=
p
krg(y0 )k = 2502 + 1002 + 2002 ¼ 335, 41.

Agora, a equação recursiva de Hasofer-Lind (algoritmo HLRF ou Eq. 3.33) pode ser utilizada para deter-
minar o próximo valor de y:
· ¸
g(y0 )
y1 = ¡®0 β 0 +
krg(y0 )k
· ¸
1 1000
= ¡ f250; 100; ¡200gt 0 +
335, 41 335, 41
t
= f¡2, 2222; ¡0, 8889; +1, 7778g .

O novo valor de β é:
β 1 = ky1 k = 2, 9814.

Substituindo k por k + 1 e procedendo de maneira análoga, o histórico de convergência ilustrado na


Tabela 3.3 é obtido. Note que a partir da terceira iteração os valores se tornam estacionários, indicando
a convergência do algoritmo. Observe que o valor de β encontrado na primeira iteração da solução FOSM
é idêntico ao valor encontrado via aproximação de primeira ordem no ponto médio, utilizando o índice
de con abilidade de Cornell. No entanto, a solução iterativa chega a um resultado um pouco diferente.
Para este problema em particular, a solução aproximada no ponto médio poderia ser considerada aceitável,
mas em geral isto não ocorre. No passado, a solução de aproximação de primeira ordem no ponto médio,
utilizando o indice de con abilidade de Cornell, já foi considerada uma forma válida de resolver problemas
de con abilidade estrutural. Este método de solução chegou a ser chamado de FOMV - First Order Mean
Value. Uma grande limitação desta solução, para problemas não-lineares, é a questão da invariância em
relação à forma da equação de estado limite, como veri cado no próximo exemplo.

Teorema 5 Princípio da invariância com relação à forma da equação de estado limite: para qualquer
função t monotônica, tal que t(0) = 0, as seguinte igualdade de probabilidades deve ser válida: P [g(X) <
0] = P [t(g(X)) < 0]. Como a função t é monotônica com t(0) = 0, resulta que a equação de estado limite
100 MÉTODOS DE TRANSFORMAÇÃO

Tabela 3.3: Histórico de convergência, solução FOSM.


y1 y2 y3 β g(x) ∂g/∂y1 ∂g/∂y2 ∂g/∂y3 krg(y)k
0 0 0 0 1000 250 100 ¡200 335, 41
¡2, 2222 ¡0, 8889 1, 7778 2, 9814 24, 691 238, 89 72, 222 ¡200 319, 82
¡2, 2779 ¡0, 6887 1, 9071 3, 0496 ¡0, 1393 241, 39 71, 527 ¡200 321, 54
¡2, 2891 ¡0, 6783 1, 8966 3, 0491 ¡0, 001454 241, 52 71, 387 ¡200 321, 60
¡2, 2898 ¡0, 6768 1, 8962 3, 0491 ¡0, 000014 ¡ ¡ ¡ ¡

g(X) = t(g(X)) = 0 não se altera; portanto, a probabilidade calculada também deve ser a mesma. Este
princípio deve ser válido para qualquer técnica de con abilidade estrutural.

Exemplo 6 Problema da invariância em relação à forma da equação de estado limite (FOMV).

Formulação: Neste exemplo, ilustramos uma falha grave do método FOMV, que consiste em uma aprox-
imação de primeira ordem no ponto médio, utilizando o índice de con abilidade de Cornell. Para tanto,
consideramos formas alternativas da equação de estado limite do Exemplo 4. A equação de estado limite
(Eq. 3.40) utilizada na solução do problema original compara momentos ‡etores solicitante e resistente
(aquele necessário para formar uma rótula plástica). Dividindo ambos os termos da Eq. (3.40) por X3 ,
obtemos uma equação de estado limite equivalente, mas adimensional:
X1 X2
g2 (X) = ¡ 1.
X3
De maneira semelhante, podemos re-escrever a Eq. (3.40) de forma a comparar tensão resistente com tensão
solicitante:
X3
g3 (X) = X1 ¡ ,
X2
ou módulo plástico resistente com módulo solicitante:
X3
g4 (X) = X2 ¡ .
X1

As quatro formas da equação de estado limite (g = g1 a g4 ) são equivalentes, e deveriam produzir o


mesmo resultado. A título de ilustração do chamado problema de invariância com a forma da equação de
estado limite, propomos neste exemplo aplicar a aproximação de primeira ordem no ponto médio (FOMV)
as três formas alternativas da equação de estado limite.
Solução: A solução segue o procedimento adotado no Exemplo 4. Considerando a equação de estado limite
g2 (X), os componentes do vetor gradiente são:
½ ¾t
x2 x1 x1 x2
rg2 (x) = , ,¡ 2 .
x3 x3 x3
3.2. MÉTODO DE PRIMEIRA ORDEM E SEGUNDO MOMENTO (FOSM) 101

A aproximação de primeira ordem no ponto médio é obtida a partir da Eq. (2.42):

E[g2 (X)]
β2 = p
V ar[g2 (X)]
40£50
1000 ¡ 1
= 1
p
1000
5 50 + 2, 52 402 + 22 2002
2 2

= 2, 0739.

Note que este valor é muito diferente daquele obtido pela aproximação de primeira ordem no ponto médio
utilizando a Eq. (3.40). Procedendo de maneira semelhante, e utilizando as equações de estado limite g3 (X)
e g4 (X), obtemos:

β3 = 3, 0861,
β4 = 3, 9036.

Percebemos, através deste exemplo, que a aproximação de primeira ordem no ponto médio (método
FOMV) não é invariante em relação à forma da equação de estado limite. Esta limitação é tão grave que
o FOMV não é considerado uma forma correta de resolver problemas de con abilidade estrutural. Note
que esta limitação se aplica apenas a problemas envolvendo equações de estado limite não-lineares; para
equações lineares envolvendo variáveis aleatórias normais o método fornece a resposta exata.

Exercício 5 Problema da invariância em relação a forma da equação de estado limite (continuação).

Para ns de comparação, propomos neste exercício que o leitor resolva novamente o Exemplo 6, via
método interativo de segundo momento (FOSM), utilizando as equações de estado limite g2 (X) a g4 (X).
Ao resolver este exemplo, o leitor irá perceber que a solução iterativa via FOSM produz sempre o mesmo
resultado (β 4 = β3 = β 2 = β ¼ 3, 0491), o que indica que o método FOSM é invariante em relação a
forma da equação de estado limite.

3.2.11 Variáveis aleatórias correlacionadas


No método FOSM, a informação estatística utilizada se limita ao primeiro e segundo momento das variáveis
aleatórias envolvidas. Tecnicamente, isto inclui a variância, e possível dependência linear (correlação) entra estas
variáveis, segundo as de nições de covariância (Eq. A.61) e correlação entre variáveis aleatórias (Eq. A.63). O
tratamento de dependência linear (correlação) entre variáveis aleatórias exige uma transformação adicional à
transformação de Hasofer-Lind. No contexto do método FORM, estudado a seguir, o problema da correlação
é abordado juntamente com as transformações necessárias para tratar com distribuições de probabilidade não-
Gaussianas. Sendo assim, para não prejudicar a clareza dos resultados apresentados nesta seção, o procedimento
para lidar com dependência linear (correlação) entre variáveis aleatórias é apresentado na próxima seção, no
contexto do método FORM.
102 MÉTODOS DE TRANSFORMAÇÃO

3.3 MÉTODO DE CONFIABILIDADE DE PRIMEIRA ORDEM


(FORM)
No método de con abilidade de segundo momento (FOSM), a informação estatística a respeito das variáveis
aleatórias do problema se limita aos momentos de primeira e segunda ordem: média e covariância. Como vimos,
isto equivale a considerar todas as variáveis do problema com distribuição normal. O método de con abili-
dade de primeira ordem ou FORM - First Order Reliability Method - permite incorporar à análise as funções
de distribuição de probabilidades, bem como dependência linear (correlação) entre as variáveis aleatórias do
problema.
O método FORM utiliza a maior parte dos resultados apresentados para o FOSM. Além disto, o FORM
envolve a construção de uma função conjunta de distribuição de probabilidades, fX (x), bem como uma trans-
formação desta para o espaço normal padrão Y. A função conjunta de distribuição de probabilidades fX (x) é
construída com base na informação existente, que na prática se limita às funções de distribuição marginais e aos
coe cientes de correlação entre pares de variáveis aleatórias. A construção da função conjunta de probabilidades
é feita levando em consideração a facilidade de transformação da mesma para o espaço normal padrão. Esta
transformação envolve a eliminação da correlação entre variáveis aleatórias e o cálculo de variáveis normais
equivalentes, como veremos.

3.3.1 Distribuição conjunta de probabilidades


Nos problemas de análise estrutural, em geral não existem observações ou registros simultâneos de todas as
variáveis envolvidas no problema. Tais observações seriam necessárias para se determinar diretamente a função
conjunta de distribuição de probabilidades (Eqs. A.48 ou A.49). Na melhor das hipóteses, a informação
estatística a respeito das variáveis aleatórias do problema se limita às funções de distribuição de probabilidades
marginais e aos coe cientes de correlação entre pares de variáveis aleatórias. As funções de distribuição marginais
são obtidas a partir de observações isoladas de cada variável aleatória, e os coe cientes de correlação são obtidos
a partir de observações conjuntas de pares de variáveis aleatórias.
A descrição estatística das variáveis de projeto é feita através das distribuições de probabilidades marginais:

fXi (xi ), i = 1, 2, ..., n,

e através de uma matriz de correlação RX , formada pelos coe cientes de correlação (Eqs. A.63 e A.69) entre
pares de variáveis:
2 3
1 ρX12 ... ρX1n
6 ρX 1 ... ρX2n 7
RX = 6 21
4 ...
7, (3.41)
... ... ... 5
ρXn1 ρXn2 ... 1
sendo n o número de variáveis aleatórias do problema.
O método de con abilidade de primeira ordem ou FORM consiste na construção de uma função conjunta de
distribuição de probabilidades fX (x) e na transformação desta em uma distribuição normal padrão multi-variada
fY (y) (Eq. A.70). Esta transformação representa um mapeamento um-a-um, que leva pontos do espaço original
X para o espaço Y. Teoricamente, este mapeamento pode ser realizado através da transformação de Rosenblatt;
no entanto, esta envolve distribuições de probabilidade condicionais difíceis de avaliar. Uma alternativa é uma
transformação composta utilizando o modelo de Nataf, a qual envolve uma transformação em variáveis normais
equivalentes, e a eliminação da correlação entre estas. As duas técnicas são estudadas a seguir.
3.3. MÉTODO DE CONFIABILIDADE DE PRIMEIRA ORDEM (FORM) 103

3.3.2 A transformação de Rosenblatt


Seja um vetor de n variáveis aleatórias X = fX1 , X2 , ..., Xn gt com função conjunta de distribuição de probabili-
dades qualquer FX (x). Desejamos uma transformação que leve pontos do espaço X para o espaço Y, formado por
um conjunto de variáveis aleatórias Y = fY1 , Y2 , ..., Yn gt com função de distribuição cumulativa normal padrão
multi-variada ©(y) (Eq. A.71). Tal transformação deve preservar o conteúdo de probabilidade correspondente
a um ponto x0 quando mapeado em um ponto y0 no espaço Y :

FX (x0 ) = ©(y0 ).

Uma transformação teórica que permite este mapeamento é a transformação de Rosenblatt (Rosenblatt,
1952; Lebrun & Dutfoy, 2009). Esta transformação é obtida fazendo:

©(y1 ) = F1 (x1 ),
©(y2 ) = F2 (x2 jx1 ),
..
.
©(yn ) = Fn (xn jx1 , x2 , ..., xn¡1 ), (3.42)

sendo F2 (x2 jx1 ) a função de probabilidade condicional de x2 dada a ocorrência de x1 (Seção A.4.5). Invertendo
a função ©( ), podemos escrever:

y1 = ©¡1 [F1 (x1 )],


y2 = ©¡1 [F2 (x2 jx1 )],
..
.
yn = ©¡1 [Fn (xn jx1 , x2 , ..., xn¡1 )]. (3.43)

Em teoria, as funções de probabilidade condicional podem ser obtidas a partir da distribuição conjunta
através de uma generalização das Eqs. (A.55) e (A.56):

f (x1 , x2 , ..., xi )
f (xi jx1 , x2 , ..., xi¡1 ) = , (3.44)
f (x1 , x2 , ..., xi¡1 )
R xi
¡1 f (x1 , x2 , ..., xi¡1 , u)du
F (xi jx1 , x2 , ..., xi¡1 ) = , (3.45)
f (x1 , x2 , ..., xi¡1 )
que poderiam ser resolvidas, por exemplo, por integração numérica. No entanto, considerando a potencial multi-
dimensionalidade do problema (n grande), tal solução não é trivial. Na prática, a transformação de Rosenblatt
é limitada a problemas de pequena dimensão. Um exemplo de cálculo em problema bi-dimensional é resolvido
analiticamente em Melchers & Beck (2018, pg. 120).

3.3.3 Transformação composta utilizando o modelo de Nataf


Uma transformação prática, por se adequar à informação disponível, é uma transformação baseada no modelo
de Nataf (1962). Esta transformação é composta, pois envolve (Figura 3-6):

1. uma transformação das distribuições marginais originais em distribuições normais equivalentes (conjunto
de variáveis Z com dependência linear);
2. determinação de coe cientes de correlação equivalentes para as distribuições normais (modelo de Nataf);
104 MÉTODOS DE TRANSFORMAÇÃO

Figura 3-6: Ilustração da transformação composta X ! Z ! Y. As variáveis aleatórias X1 e X2 possuem


distribuições marginais lognormais, com ρX1 X2 = 0.5; por isto a forma de “ostra” das curvas de nível à esquerda.

3. eliminação da correlação, através de decomposição ortogonal ou da fatoração de Cholesky da matriz de


correlação.

Estas três etapas são estudadas a seguir. A Figura 3-6 ilustra as três partes da transformação.

O princípio da aproximação normal

O princípio da aproximação normal (Ditlevsen, 1981; Der Kiureghian & Liu, 1986) consiste em determinar, para
um ponto x¤i , uma distribuição normal equivalente que preserve o conteúdo de probabilidades da distribuição
original FXi (x¤i ) neste ponto. Como a distribuição normal equivalente está de nida no espaço X, escrevemos:
µ ¤ ¶
¤ neq ¤ xi ¡ µneq
Xi
FXi (xi ) = FXi (xi ) = © . (3.46)
σneq
Xi

A distribuição normal equivalente possue dois parâmetros, que são a média µneq neq
Xi e o desvio padrão σ Xi ,
neq
sendo o expoente ( ) para normal equivalente. Para determinar dois parâmetros, é necessária uma segunda
equação. O critério para estabelecer esta segunda equação é arbitrário, mas uma condição natural é igualar
também as funções de densidade:
" µ neq ¶2
#
¤ 1 1 x¤i ¡ µXi φ(zi¤ )
fXi (xi ) = neq p exp ¡ neq = neq , (3.47)
σ Xi 2π 2 σXi σXi

sendo zi¤ obtido da transformação de Hasofer e Lind (Eq. 3.1), adaptada para:

x¤i ¡ µneq
Xi
zi¤ = (3.48)
σneq
Xi

O conjunto de variáveis Z = fZ1 , Z2 , ..., Zn g assim obtido apresenta distribuições marginais normais padrão,
mas possívelmente linearmente dependentes (correlacionadas). Escrevendo a Eq. (3.46) em termos de zi¤
obtemos:
zi¤ = ©¡1 (FXi (x¤i )). (3.49)
3.3. MÉTODO DE CONFIABILIDADE DE PRIMEIRA ORDEM (FORM) 105

Da Eq. (3.47) obtemos uma expressão para o desvio padrão da distribuição normal equivalente:

φ (zi¤ )
σneq
Xi = , (3.50)
fXi (x¤i )
e, nalmente, da Eq. (3.48) obtemos uma expressão para a média da distribuição normal equivalente:

µneq ¤ ¤ neq
Xi = xi ¡ zi σ Xi . (3.51)

Note que esta transformação é realizada para cada uma das distribuições marginais, e é válida para um
ponto x¤ . Desta forma, a transformação deve ser refeita à medida que o algoritmo de busca do ponto de
projeto avança (xk ! x¤ ). O procedimento de aproximar a cauda da distribuição original pela cauda de uma
distribuição normal equivalente é conhecido na literatura como princípio da aproximação normal ou Principle
of normal tail approximation (Ditlevsen, 1981).
Para uma distribuição log-normal, os parâmetros da distribuição normal equivalente são:

µneq = x (1 ¡ ln (x) + λ) ,
σ neq = xξ. (3.52)

A Figura (3-7) ilustra as distribuições normais equivalentes a uma distribuição uniforme X » U (¡1, 1) nos
pontos x = 0, x = 0, 7 e x = 0, 9. Perceba como, à medida que o ponto de transformação se aproxima do limite
superior (x = 1), a distribuição normal equivalente se torna mais estreita.
A transformação de X ! Z também pode ser escrita de forma matricial, a partir de um vetor de médias
¹neq e de uma matriz diagonal de desvios padrão Dneq , contendo os parâmetros das distribuições normais
equivalentes:
¹neq = fµneq neq neq t
X1 , µX2 , ..., µXn g ,
2 1 3
2 neq 3 0 ... 0
σX1 0 ... 0 σneq
6 X1 1 7
6 0 σneq ... 0 7 6 0 σneq
... 0 7
Dneq 6
=4 X 2 7 neq ¡1
(D ) = 6 6 X2 7.
... ... ... ... 5 ... ... ... ... 7
neq 4 5
0 0 ... σXn 0 0 1
... σneq
Xn

As transformações de X ! Z e de Z ! X resultam:

z = (Dneq )¡1 fx ¡ ¹neq g,


x = Dneq z + ¹neq . (3.53)

Modelo de Nataf

O princípio da aproximação normal permite obter um conjunto de variáveis aleatórias Z com distribuição
marginal normal padrão, através da Eq. (3.49). A correlação entre pares de variáveis aleatórias (Eq. 3.41),
quando existe, deve ser imposta na distribuição conjunta fZ (z). Seja RZ uma matriz de correlação equivalente
a ser determinada. A distribuição de Z é uma distribuição normal padrão multi-variada (Eq. A.70):

fZ (z) = φn (z, RZ ). (3.54)

O modelo de Nataf (Nataf, 1962; Lebrun & Dutfoy, 2009) consiste em construir uma aproximação para a
função conjunta de densidade de probabilidades fX (x), a partir da distribuição normal padrão multi-variada
106 MÉTODOS DE TRANSFORMAÇÃO

Figura 3-7: Distribuições normais equivalentes a uma distribuição uniforme U » (¡1, 1) nos pontos x = 0;
x = 0, 7 e x = 0, 9; a esquerda, PDF; a direita, CDF.
3.3. MÉTODO DE CONFIABILIDADE DE PRIMEIRA ORDEM (FORM) 107

Figura 3-8: Ilustração da distribuição fX (x) obtida através do modelo de Nataf, para duas distribuições mar-
ginais uniformes e ρZ = 0, 5.

com matriz de correlação RZ :

fX1 (x1 )fX2 (x2 )...fXn (xn )


fX (x) = φn (z, RZ ) ¢ (3.55)
φ(z1 )φ(z2 )...φ(zn )

Para duas variáveis, o modelo de Nataf se reduz a:

fXi (xi )fXj (xj )


fXi Xj (xi , xj ) = φ2 (zi , zj , ρZij ) ¢ (3.56)
φ(zi )φ(zj )

As Eqs. (3.55 e 3.56) podem ser interpretadas como uma forma de “construir” a função conjunta de
densidade de probabilidades fX (x), a partir da imposição de dependência linear (coe ciente de correlação ρZij )
na distribuição normal padrão multi-variada. A Figura 3-8 ilustra a construção da função conjunta de densidades
para duas variáveis com distribuição marginal uniforme, e impondo um coe ciente de correlação ρZ = 0, 5.
O problema de con abilidade a ser resolvido envolve a construção de um modelo de distribuição conjunta
das variáveis aleatórias, mas também envolve mapear esta para o espaço normal padrão. Para encontrar esta
transformação, considere duas variáveis Xi e Xj não-normais com coe ciente de correlação ρXij . Se o coe ciente
de correlação entre Xi e Xj (ρXij ) impõe uma certa tendência na distribuição conjunta fXi Xj (xi , xj ), precisamos
encontrar um coe ciente de correlação equivalente ρZij que imponha a mesma tendência na distribuição conjunta
fZi Zj (zi , zj ). Utilizando a de nição da covariância (Eq. A.61), o coe ciente de correlação ρXij é dado por:
Z 1 Z 1
Cov[Xi Xj ] (xi ¡ µXi ) (xj ¡ µXj )
ρXij = = fXi Xj (xi , xj )dxi dxj .
σXi σ Xj ¡1 ¡1 σXi σXj

Utilizando o modelo de Nataf (Eq. 3.56) e a distribuição normal bi-variada (Eq. A.64), esta expressão se reduz
108 MÉTODOS DE TRANSFORMAÇÃO

a:
Z 1 Z 1
(xi ¡ µXi ) (xj ¡ µXj ) fX (xi )fXj (xj )
ρXij = φ2 (zi , zj , ρZij ) i dxi dxj
¡1 ¡1 σXi σ Xj φ(zi )φ(zj )
Z 1 Z1
= zi zj φ2 (zi , zj , ρZij )dzi dzj . (3.57)
¡1 ¡1

A Eq. (3.57) permite calcular ρZij em função do ρXij conhecido, de forma a se construir uma matriz de
correlação equivalente. O modelo de Nataf e a Eq. (3.57) são válidos quando:

1. o mapeamento na Eq. (3.49) é unívoco (um-para-um), o que é verdade se FXi (xi ) é contínua e estritamente
crescente;
2. o valor de ρZij estiver entre ¡1 e +1.

Como a diferença entre ρZ e ρX é pequena, a segunda condição é satisfeita em quase todas as situações
de interesse prático. No entanto, quando ρX & 0, 9, podem aparecer problemas de instabilidade numérica na
avaliação de ρZ .
A avaliação do coe ciente ρZ através da Eq. (3.57) é feita de forma iterativa, arbitrando valores tentativa
para ρZ e avaliando ρX , até atingir o valor de ρX especi cado. Este procedimento iterativo pode ser evitado
através do uso de fórmulas analíticas aproximadas (Der Kiureghian & Liu, 1986), que fornecem uma relação r
para várias combinações de distribuições:
ρZij
rij = . (3.58)
ρXij

Em geral, o fator r não é muito diferente da unidade. À parte distribuições exponenciais deslocadas, o fator
r geralmente ca na faixa 0, 9 · r · 1, 1. Sendo assim, se o coe ciente de correlação ρX entre duas variáveis
de projeto é determinado de forma subjetiva, podemos até aproximar ρZ diretamente por ρX . No entanto, é
importante compreender a diferença teórica entre ρZ e ρX .

Decomposição ortogonal da matriz de correlação

O princípio da aproximação normal e o modelo de Nataf permitem obter um conjunto de variáveis aleatórias
Z correlacionadas, com distribuição normal padrão multi-variada fZ (z) = φn (z, RZ ). Para aproveitar as pro-
priedades de simetria da distribuição normal padrão multi-variada, é necessário eliminar a correlação entre as
variáveis Z. Nos espaços Y e Z, os desvios-padrão das variáveis aleatórias são unitários, então a matriz de
correlação se confunde com a matriz de covariâncias.
Buscamos uma transformação linear na forma Y = At Z, sendo A uma matriz a ser determinada e Y
um vetor de variáveis aleatórias independentes e com distribuição normal padrão multi-variada. A matriz de
correlação em Y é dada por:

RY = Cov[Y, Yt ]
= Cov[At Z, Zt A]
= At Cov[Z, Zt ]A
= A t CZ A
= At RZ A. (3.59)

Se A é a matriz ortogonal com colunas formadas pelos autovetores de RZ , então a multiplicação na Eq.
3.3. MÉTODO DE CONFIABILIDADE DE PRIMEIRA ORDEM (FORM) 109

(3.59) produz a matriz diagonal dos autovalores de RZ :

RY = At RZ A = ¤ = [λi ]i=1,...,n , (3.60)

sendo λi o i-ésimo autovalor da matriz RZ . Note que a Eq. (3.60) implica em que o desvio-padrão das variáveis
p
Y resultantes seria diferente da unidade, e igual à raiz quadrada dos respectivos autovalores (σYi = λi ).
Isto não é conveniente, pois exigiria mais uma transformação, como a de Hasofer-Lind, para obter variáveis
reduzidas com variância unitária. Para evitar esta transformação adicional, buscamos A tal que At RZ A seja
igual à matriz identidade. A matriz de transformação desejada é:

A =A¤¡1/2 ,
£ ¤
sendo A a matriz ortogonal cujas colunas são os autovetores de RZ e ¤¡1/2 = (λi )¡1/2 i=1,...,n a matriz
diagonal das inversas das raízes quadradas dos auto-valores de RZ (Horn & Johnson, 1990; Golub & Van Loan,
2012; Lima, 2014). Neste caso:

RY = At RZ A
t
= (A¤¡1/2 ) RZ (A¤¡1/2 )
t
= (¤¡1/2 )t (A RZ A)¤¡1/2
= (¤¡1/2 )t ¤¤¡1/2
= I. (3.61)

Portanto, as matrizes Jacobianas da transformação procurada, y = At z, são:

Jyz = At = (A¤¡1/2 )t ,
t
Jzy = (At )¡1 = (¤1/2 A )t , (3.62)

e as transformações de Z ! Y e inversa são:

y = Jyz z,
z = Jzy y. (3.63)

Decomposição de Cholesky da matriz de correlação

O custo computacional da decomposição ortogonal é considerável. Uma alternativa que se aplica com vantagens
para matrizes de correlação não cheias (caso típico em con abilidade estrutural) é a decomposição de Cholesky
da matriz de correlação RZ . A decomposição de Cholesky não tem relação direta com a transformação de
Rosenblatt, mas resulta em uma matriz de transformação muito semelhante.
Buscamos uma transformação linear Y = Bt Z que produza um conjunto de variáveis Y independentes e
com variância unitária. Buscamos uma matriz de transformação B que produza o efeito da Eq. (3.61), isto é:

RY = Bt RZ B = I. (3.64)

Pré-multiplicando a Eq. (3.64) por (Bt )¡1 e pós-multiplicando por B¡1 , obtemos:

RZ B = (Bt )¡1 I
RZ = (Bt )¡1 I B¡1
= (Bt )¡1 B¡1 . (3.65)
110 MÉTODOS DE TRANSFORMAÇÃO

Usando a relação (Bt )¡1 = (B¡1 )t e denotando (Bt )¡1 = L, temos:

L = (Bt )¡1 = (B¡1 )t ,


Lt = B¡1 .

Substituíndo em (3.65) chegamos a:

RZ = (Bt )¡1 B¡1


= L Lt . (3.66)

Esta é exatamente a forma da decomposição de Cholesky, obtida através de algoritmos bem conhecidos
(Golub & Van Loan, 2012; Lima, 2014). Utilizando esta transformação, as matrizes jacobianas cam:

Jyz = L¡1 ,
Jzy = L. (3.67)

As transformações de Z ! Y e de Y ! Z são idênticas à Eq. (3.63). As transformações via decomposição


ortogonal ou decomposição de Cholesky são equivalentes e levam ao mesmo resultado, ainda que por caminhos
ligeiramente diferentes. A decomposição ortogonal é mais adequada quando a matriz de correlação é cheia
(determinante próximo de zero). Quando a matriz de correlação é esparsa, com apenas alguns coe cientes não
nulos, a transformação de Cholesky é mais adequada.

Transformação resultante

Nas três seções anteriores, vimos como realizar o mapeamento de um vetor de variáveis aleatórias de um espaço
X para um espaço Z, e do espaço Z para Y. A Figura 3-6 ilustra estas 3 transformações. Para combina-las,
basta utilizar a regra da cadeia:
· ¸ · ¸
∂yi ∂yi ∂zj
Jyx = = = Jyz Jzx ,
∂xk ∂zj ∂xk
· ¸ · ¸
∂xi ∂xi ∂zj
Jxy = = = Jxz Jzy .
∂yk ∂zj ∂yk

Portanto, a transformação resultante é:

y = Jyx fx ¡ ¹neq g,
x = Jxy y + ¹neq . (3.68)

A matriz Jacobiana composta Jyx e sua inversa Jyx podem ser obtidas utilizando a decomposição
ortogonal:

Jyx = (A ¤¡1/2 )t (Dneq )¡1 ,


t
Jxy = Dneq (¤1/2 A) . (3.69)

ou utilizando a decomposição de Cholesky:


neq ¡1
Jyx = L¡1 (D ) ,
Jxy = Dneq L. (3.70)
3.3. MÉTODO DE CONFIABILIDADE DE PRIMEIRA ORDEM (FORM) 111

A transformação resultante pode ser resumida nas seguintes etapas:

1. cálculo da matriz de correlação equivalente RZ através de (3.57) ou (3.58);


2. avaliação das matrizes Jacobianas Jyz e Jzy utilizadas na eliminação da correlação:

(a) por decomposição ortogonal (Eq. 3.62);


(b) por decomposição de Cholesky (Eq. 3.67);

3. a cada novo ponto determinado pelo algoritmo de busca do ponto de projeto:

(a) cálculo dos parâmetros das distribuições normais equivalentes (¹neq e Dneq );
(b) atualização das matrizes Jacobianas Jyx e Jxy (Eqs. 3.69 ou 3.70);

Deve car claro que as matrizes RZ , Jyz e Jzy só precisam ser calculadas uma vez, ao início do processo
iterativo. Já as matrizes Jzx , Jxz , Jyx e Jxy devem ser atualizadas de maneira iterativa, durante a busca pelo
ponto de projeto (xk ! x¤ ).

3.3.4 Transformação direta reversível


A transformação composta apresentada na Seção 3.3.3 é interessante e didática por colocar as transformações
do FORM em um formato semelhante às transformações do FOSM. No entanto, esta não é a única forma de
realizar a transformação de X para Y no contexto do FORM. De fato, a transformação apresentada na Seção
3.3.3 possui o inconveniente de ser irreversível, quando as variáveis aleatórias são limitadas em X (veja Fig. 3-7).
Esta irreversibilidade se origina na determinação de uma média e desvio-padrão normais-equivalentes, segundo
as Eqs. (3.50 e 3.51), a partir de uma equação de transformação arbitrária (Eq. 3.47).
Uma transformação direta e reversível é obtida diretamente a partir da Eq. (3.49) e sua inversa:
© ¡1 ªt
z(x) = © (FXi (xi )) i=1,...,n ,
© ¡1 ªt
x(z) = FXi (©(zi )) i=1,...,n , (3.71)

t
sendo os termos zi dados pela transformação de Y para Z: z(y) = fzi gi=1,...,n = Jzy y. Combinando as trans-
formações, obtemos:

y(x) = Jyz z(x),


© ¡1 ªt
x(y) = FXi (©(zi )) i=1,...,n . (3.72)

Nas equações acima, as matrizes Jacobianas Jyz e Jzy podem ser obtidas em termos da decomposição
ortogonal (Eq. 3.62) ou da decomposição de Cholesky (Eq. 3.67) da matriz de correlação.

3.3.5 Comparação entre as transformações


Para problemas bem comportados, envolvendo equações de estado limite fracamente não-lineares, e distribuições
de probabilidade que não fujam muito da normal, as transformações apresentadas nas Seções 3.3.3 e 3.3.4 são
equivalentes. Quando as distribuições de probabilidade se afastam da normal, a transformação para o espaço
normal-padrão torna-se não-linear. Este efeito de não-linearidade se acentua quando alguma distribuição é bem
diferente da normal; por exemplo, para distribuições assimétricas e/ou limitadas: log-normal próxima ao zero,
distribuição beta, uniforme, etc.
112 MÉTODOS DE TRANSFORMAÇÃO

A Figura (3-7) ilustra um exemplo de efeito não-linear que pode surgir quando, durante a busca pelo ponto
de projeto, uma variável aleatória se aproxima demais do seu limite; no caso, para uma variável uniforme.
Na transformação formal (Seção 3.3.3), o desvio-padrão da distribuição normal equivalente tende a zero. Na
transformação direta reversível (Seção 3.3.4) podem aparecer problemas devido a resolução numérica das aprox-
imações utilizadas para as funções ©( ) e ©¡1 ( ), conforme Apêndice F.
O problema é discutido em Beck e Silva Jr. (2016), no contexto de problemas fortemente não-lineares,
envolvendo variáveis aleatórias com suporte compacto (distribuição uniforme) e domínios de falha que tendem
ao conjunto vazio. O artigo também discute o desempenho de diversos algoritmos de busca pelo ponto de
projeto, em problemas fortemente não-lineares.

3.3.6 Algoritmo FORM


A solução de problemas de con abilidade independentes do tempo via FORM consiste nas seguintes etapas:

Algoritmo 3 Método de con abilidade de primeira ordem (FORM):

1. determinação dos coe cientes de correlação equivalentes e da matriz de decomposição (ortogonal ou


Cholesky); determinação das matrizes Jacobianas Jyz e Jzy ;
2. escolha do ponto inicial xk para k = 0 (usualmente o ponto médio);
3. atualização das matrizes Jacobianas Jyx e Jxy (Eqs. 3.69 ou 3.70);
4. transformação do ponto xk de X para Y (Eqs. 3.68 ou 3.72);
5. avaliação de g(xk );
6. cálculo do gradiente:
a. cálculo das derivadas parciais de g (x) no espaço de projeto X;
b. transformação do gradiente para Y (Eq. 3.39);
c. cálculo dos fatores de sensibilidade linearizados ®(yk ). Estes fatores podem ser utilizados para
eliminar do problema variáveis aleatórias quem tenham pouca in‡uência na probabilidade de falha.
7. cálculo do novo ponto yk+1 pelos algoritmos HLRF, iHLRF ou outro;
8. transformação de yk+1 para X (Eq. 3.68 ou 3.72);
9. veri cação do critério de convergência. Se:

jrg(yk+1 )t yk+1 j
1¡ < e jg(yk+1 )j < δ
krg(yk+1 )k kyk+1 k

o algoritmo é interrompido, caso contrário retorne ao item 3 com k = k + 1 até atingir a convergência.
10. ao nal, avaliação do índice de con abilidade no ponto de projeto: β = ky¤ k .

Exemplo 7 Projeto segundo norma (g), distribuições não-normais.

Enunciado: No Exemplo 2, determinamos o índice de con abilidade de Cornell, para uma equação de
estado limite linear correspondente ao projeto, segundo norma, de viga de aço submetida a momento
3.3. MÉTODO DE CONFIABILIDADE DE PRIMEIRA ORDEM (FORM) 113

uniforme. Considerando as distribuições indicadas na Tabela (3.1): log-normal para R e Gumbel para L,
determine o índice de con abilidade de Hasofer-Lind.
Solução: O cálculo dos valores nominais segue o apresentado na solução do Exemplo 2 (Rn = 3, 1111; Dn =
1; Ln = 1), o que resulta em ¹ = f3, 3289; 1, 05; 1, 0gt e ¾ = f0, 4328; 0, 105; 0, 25gt . A partir destes
momentos, determinamos os parâmetros das distribuições de R e L.
Conforme Seção A.3.2, os parâmetros da distribuição log-normal de R são:
p p
ξ = ln (1 + (σ/µ)2 ) = ln (1 + (0, 4328/3, 3289)2 ) = 0, 129456,
λ = ln(µ) ¡ 0, 5ξ 2 = ln(3, 3289) ¡ 0, 5 £ 0, 1294562 = 1, 19426.

Conforme Seção A.7.5, os parâmetros da distribuição Gumbel para L são:


π 1 π 1
β = p =p = 5, 1302 (fator de forma),
6σ 6 0, 25
γ 0.577216
un = µ ¡ = 1, 0 ¡ = 0, 887487 (máximo característico).
β 5, 1302

A solução iterativa se inicia com a de nição do ponto inicial xk , para k = 0. A opção imediata é o
ponto médio, x0 = ¹; no entanto, ao utilizarmos a solução do Exemplo 2 como ponto inicial, diminuimos
o número de iterações. Utilizando resultados anteriores, obtemos:

y0N = y¤ = ¡®β = ¡2, 50425 f0, 8474; ¡0, 2056; ¡0, 4895gt ;
= f¡2, 1221; 0, 5149; 1, 2260gt ;

Este ponto y0N corresponde à solução considerando variáveis normais. Utilizando a transformação de Hasofer
Lind (Eq. 3.1), obtemos:
x0 = y0 ¾ + ¹ = f2, 4105; 1, 1041; 1, 3065gt .

No ponto x0 avaliamos g(x0 ) = R ¡ D ¡ L = 0, ou seja, o ponto inicial já está sobre a equação de estado
limite.
Para o primeiro passo da solução iterativa, precisamos determinar os parâmetros das distribuições nor-
mais equivalentes em x0 . Para a distribuição log-normal (R), podemos utilizar as Eqs. (3.52):

µneq = x (1 ¡ ln (x) + λ) = 2, 4105 (1 ¡ ln (2, 4105) + 1, 19426) = 3, 1684,


σneq = xξ = 2, 4105 £ 0, 129456 = 0, 312059. (3.73)

A distribuição de D já é normal; logo, os momentos “normais equivalentes” são iguais aos próprios
momentos.
Para a distribuição Gumbel (L), utilizamos as Eqs. (3.49, 3.50 e 3.51):

z3 = ©¡1 (FX (x3 )) = ©¡1 (FX (1, 3065)) = 1, 2265;


neq φ (z3 )
σX = = 0, 353394;
3
fX (z3 )
µneq
X3 = x3 ¡ z3 σ neq
X3 = 0, 873044;
114 MÉTODOS DE TRANSFORMAÇÃO

com fX e FX dado pelas Eqs. (A.117 e A.118). Agora, podemos aplicar a transformação de Hasofer Lind
para obter yk , para k = 0, lembrando que não há correlação, logo y = z:

yk = (Dneq )¡1 fxk ¡ ¹neq gt


2 38 9
1/0, 312059 0 0 < 2, 4105 ¡ 3, 1684 =
= 4 0 1/0, 105 0 5 1, 1041 ¡ 1, 05
: ;
0 0 1/0, 353394 1, 3065 ¡ 0, 873044
= f¡2, 4287; 0, 5149; 1, 2265gt .

A primeira estimativa do índice de con abilidade é β k = (ytk yk )1/2 = 2, 7691. O vetor gradiente em y é
obtido como:

rg(yk ) = (Jxy )t rg(xk ) =(Dneq )¡1 f1, ¡1, ¡1gt


= f0, 3121; ¡0, 1050; ¡0, 3534gt .

e o vetor ®k é ®k = f0, 6461; ¡0, 2174; ¡0, 7317gt . Utilizando o algoritmo HLRF, o novo ponto é:

rg(yk )t yk ¡ g(yk )
yk+1 = rg(yk )
krg(yk )k2
= f1, 7891, ¡0, 6020, ¡2, 0260gt .

A próxima estimativa do índice de con abilidade é β k+1 = 2, 5784. O novo ponto no espaço x é
encontrado pela transformação de Hasofer-Lind inversa:

xk+1 = Dneq yk+1 + ¹neq = f2, 6486; 1, 1089; 1, 5397gt .

o que resulta em g(xk+1 ) = R ¡ D ¡ L = 0. Neste ponto, atualizamos k = k + 1, e o processo é reiniciado


a partir da Eq. (3.73). A reprodução do processo resulta no histórico de convergência ilustrado na Tabela
3.4. Como vemos, a convergência é um tanto lenta, e o resultado... nem tão diferente daquele obtido para
distribuições normais (Exemplo 2, β = 2, 5)! Esta semelhança é uma coincidência para este problema, o que
pode ser veri cado pela mudança signi cativa do vetor de coe cientes de sensibilidade. Para distribuições
não-Gaussianas temos:
®2 = fα2R ; α2D ; α2L gt = f+0, 351; ¡0, 031; ¡0.618gt ,
o que deve ser comparado com o resultado apresentado na Eq. (3.29).

Tabela 3.4: Solução iterativa do problema de calibração de norma com distribuições não-normais.
k y1 y2 y3 g(yk ) βk
0 ¡2, 4287 0, 5149 1, 2265 0 2, 7691
1 ¡1, 6659 0, 5605 1, 8865 0 2, 5784
2 ¡1, 5367 0, 4706 1, 9670 0 2, 5401
3 ¡1, 5087 0, 4523 1, 9902 0 2, 5378
4 ¡1, 5035 0, 4491 1, 9945 0 2, 5378

Exercício 6 Projeto segundo norma (h), distribuições não-normais: repita o Exemplo 7 para uma razão en-
tre ações Ln /Dn = 5. Respostas: β = 2, 37; ®2 = fα2R ; α2D ; α2L gt = f+0, 201; ¡0, 001; ¡0.797gt , comparar
3.4. MÉTODO DE CONFIABILIDADE DE SEGUNDA ORDEM (SORM) 115

com β = 2, 58 (Exercício 1) e Eq. (3.30). Neste problema observamos diferença maior nos resultados, tanto
em termos de β como de sensibilidades. Este resultado mostra que o problema tornou-se mais não-linear,
por aumentar a parcela da ação variável, que tem distribuição de Gumbel.

3.4 MÉTODO DE CONFIABILIDADE DE SEGUNDA ORDEM


(SORM)
A estimativa de primeira ordem da probabilidade de falha é obtida aproximando a equação de estado limite
por um hiper-plano tangente a esta no ponto de projeto. Este método resulta em uma boa aproximação da
probabilidade de falha quando a equação de estado limite, no espaço normal padrão, é linear ou fracamente
não-linear na vizinhança do ponto de projeto.
Não-linearidades da equação de estado limite no espaço normal padrão surgem quando a equação de estado
limite no espaço de projeto é não-linear, e também quando a transformação para o espaço normal padrão é
não-linear. Isto ocorre quando existe forte dependência linear (correlação) entre as variáveis aleatórias e/ou
quando as distribuições de probabilidade são fortemente não-Gaussianas. Neste caso, aproximações de segunda
ordem, que consideram as curvaturas da equação de estado limite na região do ponto de projeto, podem fornecer
melhor aproximação da probabilidade de falha. Este é o chamado método de con abilidade de segunda ordem
ou SORM - Second Order Reliability Method.
O método de segunda ordem consiste em realizar a transformação do problema para o espaço normal padrão,
resolver o problema de otimização para encontrar o ponto de projeto e, nalmente, aproximar a equação de
estado limite no ponto de projeto por superfícies quadráticas ou parabólicas (Figura 3-9). A estimativa de
segunda ordem da probabilidade de falha consiste em determinar o conteúdo de probabilidades correspondente
a estas superfícies. Uma aproximação por superfícies quadráticas foi primeiramente apresentada por Fiessler et
al. (1979). Os resultados, no entanto, não são apropriados para uso prático. Em estudos subsequentes (Breitung,
1984; Der Kiureghian et al., 1987; Tvedt, 1990), aproximações parabólicas foram consideradas. Aproximações
parabólicas podem ser baseadas em curvaturas ou em pontos, como veremos.

3.4.1 Aproximação parabólica baseada em curvaturas


O ajuste de um parabolóide à equação de estado limite é realizado através da determinação de um sistema
bn deste sistema é escolhido de forma a apontar da origem
apropriado de eixos ortonormais. O n-ésimo eixo v
para o ponto de projeto:
rg(y¤ )
bn = ¡
v ¢
krg(y¤ )k
bi , i = 1, ..., n ¡ 1 são determinados a partir de um esquema de ortogonalização, como o
Os demais eixos v
algoritmo de Gram-Schmidt (Horn & Johnson, 1990; Golub & Van Loan, 2012; Lima, 2014). Uma matriz de
rotação V é formada, tendo os vetores v bi como colunas:

V = [b b2 , ..., v
v1 , v bn¡1 ].
116 MÉTODOS DE TRANSFORMAÇÃO

Figura 3-9: Aproximação de segunda ordem (SORM).

bi , a equação de estado limite é escrita simbolicamente como:


Em termos do sistema ortogonal v

vn = g0 (vn¡1 ).

Um parabolóide é então ajustado às curvaturas da equação de estado limite no ponto de projeto (ápice do
parabolóide):

1 XX
n¡1 n¡1
vn = β+ aij vi vj
2 i=1 j=1
1
= β + (vn¡1 )t Avn¡1 , (3.74)
2
sendo A a matriz de derivadas de segunda ordem de g 0 (vn¡1 ). Sendo H(y¤ ) a matriz de derivadas de segunda
ordem (matriz Hessiana) da equação de estado limite:
· 2 ¸
¤ ∂ g(y)
H(y ) = , (3.75)
∂yi ∂yj i=1,...,n; j=1,...,n

a matriz A é determinada a partir da matriz de rotação V:

Vt H(y¤ )V
A= ¢ (3.76)
krg(y¤ )k

As condições de otimalidade de segunda ordem do problema de otimização de nido na Eq. (3.11) levam a
uma aproximação assintótica de segunda ordem da probabilidade de falha (Breitung, 1984):
1
pf ¼ pfSO = ©(¡β) p ¢ (3.77)
det(I + βA)
3.4. MÉTODO DE CONFIABILIDADE DE SEGUNDA ORDEM (SORM) 117

Um caso particular é obtido quando o sistema ortogonal vb é escolhido de forma a coincidir com as curvaturas
bi são os autovetores da matriz
principais da equação de estado limite no ponto de projeto. Neste caso, os vetores v
Hessiana, a matriz A ca diagonal e os autovalores correspondem às curvaturas principais ki do parabolóide.
Neste caso, a equação do parabolóide ca:
n¡1
1X
vn = β + ki vi2 , (3.78)
2 i=1

e a expressão assintótica para a estimativa de segunda ordem da probabilidade de falha se reduz a:


n¡1
Y 1
pf ¼ pfSO = ©(¡β) p ¢ (3.79)
i=1
1 + βki

A Eq. (3.79) se torna singular se ki = ¡1/β; o que signi ca que nem sempre o SORM fornece uma estimativa
melhor do que a aproximação de primeira ordem.
A estimativa de segunda ordem da probabilidade de falha, através de um parabolóide ajustado por curva-
turas, requer a avaliação da matriz de derivadas de segunda ordem da equação de estado limite (Eq. 3.75). A
determinação desta matriz exige a avaliação da equação de estado limite em n2 +n+1 pontos (sendo n o número
de variáveis aleatórias do problema), o que representa um custo computacional elevado quando a equação de
estado limite é dada de forma numérica. Uma alternativa para reduzir este custo computacional é a construção
de um parabolóide baseado em pontos. Esta solução também é apropriada quando o ponto de projeto é ponto
de in‡exão da equação de estado limite.

3.4.2 Aproximação parabólica baseada em pontos


A construção de um parabolóide baseado em pontos para aproximar a equação de estado limite no ponto de
projeto evita a determinação da matriz de derivadas de segunda ordem, ao assumir que os eixos vbi concidam com
as direções principais do parabolóide, independente da orientação verdadeira dos eixos principais da equação de
estado limite (Der Kiureghian et al., 1987). Com esta aproximação, a expressão do parabolóide se reduz a Eq.
(3.78).
Com esta aproximação, o ajuste de um parabolóide por pontos exigiria a avaliação de g(x) em um ponto ao
bi . No entanto, para melhorar o ajuste, dois pontos são considerados, um em cada semi-eixo
longo de cada eixo v
(positivo e negativo) de nido por v bi . Um semi-parabolóide é então ajustado a cada um destes pontos. As
coordenadas destes pontos são dadas por:

(¡a¡ ¡ + +
i , bi ) e (+ai , bi ), i = 1, ..., n ¡ 1,

onde os expoentes ( )¡ e ( )+ correspondem ao semi-eixo considerado. Os pontos são escolhidos na intersecsão


entre a equação de estado limite e o caminho π, conforme ilustrado na Figura 3-10:
O caminho π corresponde a duas linhas verticais em vi = §kβ e a um semi-círculo de raio kβ, onde o
coe ciente k é dado por: 8 1
< jβj se jβj < 1
k= 1 se 1 · jβj · 3 .
: 3
jβj
se jβj > 3

Para determinar as coordenadas a e b de cada ponto, é necessário resolver uma equação do tipo:

g(a(b)b
vi + bb
vn ) = 0,

o que é feito de modo iterativo, através do método secante ou método de Newton. Uma vez encontradas as
118 MÉTODOS DE TRANSFORMAÇÃO

Figura 3-10: Aproximação parabólica baseada em pontos.

coordenadas a e b de cada ponto, um par de semi-parábolas é construído ao longo de cada semi-eixo. As equações
são: ½
β + 12 ki¡ vi2 para vi · 0
vn = ,
β + 21 ki+ vi2 para vi > 0
sendo
2(b¡
i ¡ β) 2(b+
i ¡ β)
ki¡ = e ki+ =
(a¡
i )
2 (a+
i )
2

as curvaturas das semi-parábolas. Para obter a estimativa de segunda ordem da probabilidade de falha utilizando
a formula de Breitung, uma curvatura equivalente para cada eixo vi é determinada:
1³ ´
(1 + βki )¡1/2 = (1 + βki¡ )¡1/2 + (1 + βki+ )¡1/2 .
2

A vantagem do parabolóide ajustado por pontos é obter um ajuste global à equação de estado limite,
independente do ruído característico das soluções numéricas, e evitar o cálculo da matriz Hessiana. O ponto
fraco deste método é que os resultados dependem da escolha do sistema de eixos v bi . Obviamente, a opção ideal
para estes eixos são as direções principais da equação de estado limite, cuja determinação, no entanto, requer o
cálculo da matriz Hessiana.

3.4.3 Índice de con abilidade equivalente


O SORM fornece uma estimativa de segunda ordem para a probabilidade de falha, ou pf SO . No entanto, muitas
vezes é conveniente comparar este resultado com o FORM em termos de índice de con abilidade. Isto pode ser
feito avaliando um índice de con abilidade equivalente para o SORM:

β SO = ©¡1 (1 ¡ pfSO ). (3.80)

3.5 CONCLUSÃO
Neste capítulo estudamos a solução de problemas de con abilidade estrutural via métodos de transformação
FOSM, FORM e SORM. Estes métodos estão baseados em um mapeamento do problema, do espaço original “de
3.5. CONCLUSÃO 119

projeto”, para o espaço normal padrão. As soluções são incrementais, no sentido que incorporam as soluções
anteriores. O método de segundo momento ou FOSM se limita a considerar a média e o desvio-padrão das
variáveis aleatórias, o que é equivalente a assumi-las com distribuição normal. Para equações de estado limite
lineares, a solução exata é obtida pelo índice de con abilidade de Cornell. Equações de estado limite não-
lineares exigem uma solução iterativa de busca pelo ponto de projeto, que é a moda do domínio de falha. No
espaço normal padrão, o índice de con abilidade de Hasofer-Lind (β) é obtido como a menor distância entre a
equação de estado limite e a origem. A aproximação de primeira ordem, que consiste em aproximar a equação
de estado limite por um hiper-plano, no ponto de projeto, leva ao clássico resultado pf ¼ pfF O = ©(¡β). O
método de con abilidade de primeira ordem (FORM) incorpora estas soluções e adiciona uma transformação das
distribuições de probabilidade marginais em distribuições normais equivalentes. Esta transformação aumenta a
não-linearidade da equação de estado limite no espaço normal padrão. O método de con abilidade de segunda
ordem ou SORM consiste em realizar as transformações para o espaço normal padrão, realizar a busca iterativa
pelo ponto de projeto, e aproximar a equação de estado limite neste ponto por um parabolóide.
120 MÉTODOS DE TRANSFORMAÇÃO
Capítulo 4

CONFIABILIDADE DE SISTEMAS

Os problemas abordados nos capítulos anteriores envolveram uma única equação de estado limite, o que corre-
sponde a um único modo de falha. Elementos estruturais que compõem uma estrutura apresentam, em geral,
múltiplos modos de falha. Estruturas completas, ou sistemas estruturais, também apresentam múltiplos modos
de falha.
Modos de falha típicos de elementos estruturais são: deformação plástica (escoamento localizado), formação
de rótula plástica (plasti cação da seção), instabilidade por compressão, ruptura frágil da seção, de‡exão ex-
cessiva, acúmulo de dano. Modos de falha típicos de estruturas são: de‡exão excessiva, vibração excessiva,
recalque de apoios, perda de equilíbrio localizada ou generalizada (por ruptura ou formação de rótula plástica
em elementos, ou por falha de vinculações de apoio). Neste capítulo, estudamos como determinar a probabili-
dade de falha de estruturas e de elementos estruturais sujeitos a múltiplos modos de falha. Múltiplos modos de
falha caracterizam sistemas em série. Alguns mecanismos que levam à falha caracterizam sistemas em paralelo.
Chamamos de sistemas estruturais estruturas compostas por muitos componentes ou elementos estruturais.
O grau de redundância hiperestático de uma estrutura determina se a falha de um elemento estrutural (falha
localizada) implica ou não em falha global da estrutura. Em teoria, a falha de um elemento em estruturas
isostáticas implica em falha global da estrutura, devido à ausência de redundância. Estruturas hiperestáticas
falham devido ao colapso progressivo dos elementos, o qual pode ocorrer em diferentes sequências. A análise
exige decomposição do sistema estrutural em combinações de elementos associados em série e em paralelo,
conforme Seção 4.1.
A caracterização da falha de elementos estruturais, ou de sistemas estruturais, está baseada em modelos que
descrevem a falha do(s) material(is). A propagação de falhas localizadas depende diretamente da capacidade
residual dos elementos e/ou materiais, após a falha inicial. Modelos idealizados de comportamento material são
discutidos na Seção 4.2.
A probabilidade de falha de elementos e sistemas estruturais que apresentam múltiplos modos de falha
(sistema em série) é estudada na Seção 4.3. O colapso progressivo de estruturas redundantes é estudado na
Seção 4.4.
A análise de falhas em sistemas complexos requer esquemas sistemáticos para identi car todos os modos de
falha possíveis, bem como todas as possíveis consequências. Para isto, utilizamos árvores de falhas e árvores de
eventos. Estes esquemas são utilizados para modelar as condições que podem levar à falhas estruturais. Árvores
de falha podem ser utilizadas para decompor um evento de interesse (falha estrutural de um componente) em
uniões e intersecções de sub-eventos básicos, que descrevem as condições para que uma falha estrutural ocorra.
Árvores de eventos podem ser utilizadas para determinar, sistematicamente, todas as possíveis consequências
de falhas estruturais. Árvores de falhas e de eventos são estudadas na Seção 4.5.
122 CONFIABILIDADE DE SISTEMAS

Figura 4-1: Sistema formado por componentes (eventos) associados em série.

4.1 IDEALIZAÇÃO DE SISTEMAS


Sistemas complexos formados por muitos componentes podem ser decompostos em sub-sistemas compreendendo
duas categorias de associações elementares: componentes associados em série e componentes associados em
paralelo.

4.1.1 Componentes associados em série


Em (sub-)sistemas formado por componentes associados em série, a falha de um componente representa falha
do sistema. Em outras palavras, a operação do sistema requer que todos os componentes estejam funcionando.
Por isto, sistemas em série também são conhecidos como sistemas de corrente, cuja falha é controlada pelo elo
mais fraco (weakest link system). Um sistema em série é representado na Figura 4-1. Se o evento Ei corresponde
à falha do i-ésimo componente, o evento falha do sistema (F ) é dado pela união:

F = E1 [ E2 [ E3 [ ... [ En = [ni=1 Ei .

O evento sobrevivência (não-falha) é dado por:

F = E 1 \ E 2 \ E 3 \ ... \ E n = \ni=1 E i .

A con abilidade do sistema em série é dada por:

R = P [F ] = P [\ni=1 E i ].

A probabilidade de falha de sistemas em série é dada por:

pf = P [F ] = P [[ni=1 Ei ].

Na avaliação destas probabilidades, devemos considerar a existência de dependência entre os eventos Ei .


Conforme veri caremos, a probabilidade de falha é limitada por (Cornell, 1967):
n
Y n
X
max P [Ei ] · pf · 1 ¡ (1 ¡ P [Ei ]) ¼ P [Ei ]. (4.1)
i
i=1 i=1

O limite inferior (esquerda) corresponde à dependência perfeita entre os eventos: neste caso, a probabilidade
de falha é determinada pelo componente mais fraco (evento de maior probabilidade de ocorrência). O limite
superior (direita) corresponde à independência entre os eventos (modos de falha independentes - Eq. A.9). Para
probabilidades P [Ei ] pequenas, o limite superior pode ser aproximado pela quase-igualdade à direita da Eq.
(4.1).
4.1. IDEALIZAÇÃO DE SISTEMAS 123

Figura 4-2: Representação de sistema com componentes (eventos) associados em paralelo.

4.1.2 Componentes associados em paralelo


A falha de um (sub-)sistema formado por componentes associados em paralelo só ocorre se todos os com-
ponentes falham. Em outras palavras, se um dos componentes permanece operacional, o sistema permanece
operacional. Um sistema em paralelo é representado na Figura (4-2). Se o evento Ei corresponde a falha do
i-ésimo componente, o evento falha do sistema (F ) é dado pela intersecção:

F = E1 \ E2 \ E3 \ ... \ En = \ni=1 Ei .

O evento sobrevivência (não-falha) é dado por:

F = E 1 [ E 2 [ E 3 [ ... [ E n = [ni=1 E i .

Sistemas em paralelo são sistemas redundantes. Esta redundância pode ser ativa ou passiva. Na redundância
ativa, vários componentes dividem uma mesma tarefa. Na redundância passiva, alguns componentes cam em
estado de standby: a medida que algum componente falha, os componentes redundantes são colocados em
operação. A con abilidade de sistemas em paralelo é dada por:

R = P [F ] = P [[ni=1 E i ],

e a probabilidade de falha é:
pf = P [F ] = P [\ni=1 Ei ].
A avaliação destas probabilidades depende do tipo de redundância do sistema.

Redundância ativa

Conforme veri caremos, quando a redundância é do tipo ativa, a probabilidade de falha do sistema em paralelo
é limitada por:
124 CONFIABILIDADE DE SISTEMAS

n
Y
P [Ei ] · pf · min P [Ei ]. (4.2)
i
i=1

O limite inferior (esquerda) corresponde ao caso de independência entre os eventos (modos de falha inde-
pendentes, Eq. A.9). O limite superior corresponde à dependência perfeita entre os eventos. A redundância
ativa nem sempre diminui a probabilidade de falha do sistema (caso de modos de falha comuns).

Redundância passiva

Na redundância passiva, componentes redundantes apenas entram em operação quando algum componente
falha. Logo, a avaliação da probabilidade de falha do sistema requer a análise de probabilidades condicionais,
através de árvores de falhas (Seção 4.5). Estas são construídas estabelecendo as possíveis sequências de falha,
e suas probabilidades. As sequências de falha dependem de como os componentes estão conectados.
Como exemplo, considere um sistema com 3 componentes conectados (i, j, k) associados em paralelo, com
redundância passiva (cada componente tem capacidade redundante, caso outro componente falhe). A falha do
sistema é dada por sequências contendo a falha de três elementos. A probabilidade de ocorrência da sequência
de falha Sijk é dada por:
P [Sijk ] = P [Ei ]P [Ej jEi ]P [Ek jEi,j ].
Se as sequências de falha são mutuamente exclusivas, a probabilidade de falha do sistema é dada pela soma das
probabilidades das 6 permutações possíveis, P3,3 :
X
pf = P [Sijk ].
P3,3

Caso exista um modo de falha comum, as sequências de falha não serão mutuamente exclusivas. Caso os
componentes sejam conectados em ordem (i, j, k), apenas uma sequência de falhas é possível.

Coe ciente de segurança: redundância ativa ou passiva?

O projeto de estruturas utilizando coe cientes de segurança gera uma margem de segurança em relação aos
modos de falha considerados, ou uma reserva de capacidade. Esta reserva de capacidade é uma redundância?
Esta redundância é ativa ou passiva?
Em sistemas isostáticos, a reserva de capacidade corresponde a uma redundância ativa, em relação às ações
de projeto, ou a resistência do material. Caso haja uma sobrecarga, a capacidade reserva é acionada de forma
ativa em todas as barras. No entanto, não existe redundância em relação à falha de qualquer uma das barras.
Sistemas hiperestáticos podem ser redundantes em relação à falha de um componente, ou não, a depender
da capacidade de redistribuir os esforços. Se o sistema tem apenas redundancia ativa, como o sistema isostático,
pode sobreviver a uma sobrecarga, mas não tem capacidade de redistribuir os esforços no caso de falha de um
elemento. Quando o sistema hiperestático tem capacidade de redistribuir os esforços, na falha de um elemento,
a reserva de capacidade dos demais elementos é mobilizada de forma passiva. Neste caso, pode-se dizer que a
redundância é tanto ativa como passiva. No entanto, observa-se que a redundância esta mais relacionada com
a con guração do sistema estrutural, do que com o coe ciente de segurança utilizado em projeto.
Para efeitos de ilustração, considere um sistema estrutural formado por duas barras, que atuam em paralelo
suportando a força F , conforme Figura 4-3. O material das barras é frágil, e a tensão de ruptura é σ r . As duas
barras tem a mesma área nominal AD , e são projetadas a partir da força de projeto FD e utilizando coe ciente
4.1. IDEALIZAÇÃO DE SISTEMAS 125

Figura 4-3: Coe ciente de segurança, capacidade reserva e mobilização da redundância em projeto.

de segurança λ = 4:

2σr AD = λFD ,
4FD
AD = .
2σr
Na condição de projeto (a), apenas 1/4 da capacidade de cada barra é mobilizada. Se o sistema sofre uma
sobrecarga, dada por F = 2FD (b), parte da capacidade reserva é mobilizada (redundância ativa). Esta
também é a condição de sistemas isostáticos (a capacidade reserva é mobilizada de forma ativa).
Agora considere que, em função de incertezas de fabricação, a área da barra à esquerda é AD ¡ , enquanto
a barra à direita tem área de seção transversal AD + , para  << AD arbitrariamente pequeno. Quando este
sistema sofre uma sobrecarga F = 4FD (c), a barra à esquerda falha, e a barra à direita assume toda a força F .
A capacidade reserva da barra da direita foi mobilizada de forma passiva! Este é um comportamento típico de
estruturas hiperestáticas redundantes: a falha localizada de um elemento provoca redistribuição dos esforços,
mobilizando de forma passiva a capacidade reserva dos demais elementos.

4.1.3 Associação mista de componentes


Sistemas complexos não admitem decomposição utilizando apenas associações em série ou em paralelo. Estes
sistemas devem ser decompostos em sub-sistemas, até que os componentes de cada subsistema estejam associados
em série ou em paralelo. A Figura 4-4 ilustra um sistema composto (misto) formado por três componentes ou
eventos. Os componentes E1 e E2 estão associados em paralelo; estes estão em série com o componente E3 . A
probabilidade de falha pode ser determinada por:

pf = P [(E1 \ E2 ) [ E3 ], (4.3)

conforme Eqs. (4.1 e 4.2).


126 CONFIABILIDADE DE SISTEMAS

Figura 4-4: Associação mista de componentes.

Figura 4-5: Associação mista de componentes: caminhos de falha.

Para trabalhar com sistemas mistos mais complexos, convém identi car os chamados caminhos de falha (cut
set). A Figura 4-5 ilustra um sistema misto que possui quatro sub-sistemas associados em série, sendo que um
destes sub-sistemas contém dois componentes em série. Conforme ilustrado, este sistema possui cinco caminhos
de falha, ou seja, a falha ocorre se qualquer destes caminhos ocorre ([k Ck ). Cada caminho é composto por
um número variável de componentes associados em paralelo, o que pode ser caracterizado por um conjunto de
índices: C1 = f1, 2g; C2 = f3g; C3 = f4, 5, 6g; C4 = f4, 5, 7g e Ck = fng. Cada caminho só ocorre se todos os
eventos correspondentes ao conjunto ocorrerem. Logo, a probabilidade de falha deste sistema pode ser escrita
genericamente como:
pf = P [[k [\i2Ck (Ei )]]. (4.4)
A Eq. (4.4) é uma forma genérica de representar eventos de falha, que se aplica a sistemas em série, em paralelo
e sistemas mistos. Observe que a Eq. (4.3) corresponde à Eq. (4.4), para o sistema de três componentes da
Figura 4-4.
No exemplo apresentado na Figura 4-5, os caminhos C3 e C4 não são mutuamente exclusivos; isto deve ser
levado em conta ao se avaliar a probabilidade P [C3 [ C4 ].

4.1.4 Dependência entre eventos: interpretação


Seja uma associação em série entre n componentes com con abilidade ou resistência individual dada por
(Ri )i=1,...,n¡1 = R, e Rn = (1 ¡ ε)R, ε > 0 arbitrariamente pequeno. R é uma variável aleatória, por ex-
emplo: R » N (µ, σ). O problema é ilustrado na Figura 4-6. Se a força F aumentar, a falha será controlada pela
resistência dos elos da corrente. Nesta construção, o elo de número n é o elo estatísticamente mais fraco. Se
4.1. IDEALIZAÇÃO DE SISTEMAS 127

Figura 4-6: Dependência entre resistências, sistema em série.

a resistência dos elos é independente, então as realizações fRi = ri gi=1,...,n também são independentes, e a falha
não-necessariamente ocorrerá no elo mais fraco, conforme ilustrado. Se a resistência dos elos é perfeitamente
dependente, então as realizações fRi = ri gi=1,...,n também são dependentes, e a falha será determinada pelo elo
estatísticamente mais fraco! Esta observação justi ca o limite inferior na Eq. (4.1).
Na prática, haverá dependência entre as resistências dos elos se eles forem fabricados do mesmo lote de
material, pela mesma máquina, nas mesmas condições. Se ocorrer um defeito na produção do material, por
exemplo, todos os elos sairão mais fracos. A independência ocorre para elos fabricados de lotes ou materiais
distintos, em máquinas distintas, etc. O exemplo de independência é impróprio para elos de corrente, mas serve
para outros tipos de sistemas em série (componentes eletro-eletrônicos, sequências de operações, modos de falha
de natureza distinta, etc).
Considere agora uma associação em paralelo entre n componentes com con abilidade ou resistência individual
dada por (Ri )i=1,...,n¡1 = R, e Rn = (1 + ε)R, ε > 0 arbitrariamente pequeno, conforme ilustrado na Figura
4-7. Se a força F aumentar, a falha será controlada pela resistência das barras. Nesta construção, a barra
de número n é a barra estatísticamente mais forte. Se a resistência das barras é independente, então as
realizações fRi = ri gi=1,...,n também são independentes; neste caso, a sobrevivência não-necessariamente será
determinada pela barra mais forte, conforme ilustrado. Se a resistência das barras é perfeitamente dependente,
então as realizações fRi = ri gi=1,...,n também são dependentes, e a sobrevivência do sistema será determinada
pela barra estatísticamente mais forte! Esta observação justi ca o limite superior na Eq. (4.2).
Na prática, haverá dependência entre as resistências das barras se elas forem fabricados do mesmo lote de
material, pela mesma máquina, nas mesmas condições. Se ocorrer um defeito na produção do material, por
exemplo, todas as barras sairão mais fracas. A independência ocorre para barras fabricadas de lotes ou materiais
distintos, em máquinas distintas, etc. O exemplo de independência é próprio para sistemas em paralelo, e vale
128 CONFIABILIDADE DE SISTEMAS

Figura 4-7: Dependência entre resistências, sistema em paralelo.

também para componentes eletro-eletrônicos, operações redundantes, etc.

4.1.5 Modelo generalizado k-bons-em-n


Um modelo generalizado, que serve para representar sistemas em série, em paralelo e sistemas mistos é conhecido
na literatura como k-out-of -n:good, o que pode ser traduzido para k-bons-em-n. Como indica o nome, representa
um sistema que opera se k entre n componentes operam, e falha caso contrário. Para k = 1 temos um sistema
em paralelo, pois a operação de um único componente garante a operação do sistema. Para k = n temos um
sistema em série, que só opera se todos os componentes estiverem operando. Para 1 < k < n temos sistemas
mistos, cujo comportamento se aproxima de um sistema paralelo, à medida que k ! 1, e se aproxima de um
sistema em série, quando k ! n.

4.1.6 Dependência linear (correlação) entre falhas: sistemas com componentes


idênticos
Utilizando um modelo generalizado k-bons-em-n, Fiondella e Xing (2015) demonstram vários resultados im-
portantes, relativos ao papel da correlação entre falhas de componentes idênticos. Em sistemas usuais, os
componentes não são idênticos, mas a comparação vale. A correlação entre falhas quanti ca a ocorrência de
falhas simultâneas, que podem ocorrer aleatoriamente (por chance), ou devido à existência de modo de falha
comum.
Os autores (Fiondella e Xing, 2015) utilizam um modelo de Poisson misto, com uma taxa de falhas comum
4.2. IDEALIZAÇÃO DE SISTEMAS ESTRUTURAIS 129

aos componentes, e uma taxa de falha individual (a mesma) para cada componente. As principais conclusões
do estudo são discutidas a seguir.
A correlação entre falhas aumenta a con abilidade de sistemas em série, e diminui a con abilidade de sistemas
em paralelo. Em sistemas em série, a falha passa a ser controlada por um único componente, e a con abilidade
do sistema passa a ser a con abilidade do componente. Para sistemas em paralelo, a correlação entre falhas
tem várias implicações:

1. se a correlação (ρ) tende a um, a utilidade da redundância é anulada;


2. a utilidade marginal de incluir um componente extra tende a zero quando n aumenta, ou seja: a adição do
componente n + 1 produz um ganho menor, na con abilidade do sistema, do que a adição do componente
n;
3. um sistema em paralelo com redundância in nita (n ! 1) não consegue atingir con abilidade R = 1
se houver correlação entre as falhas dos componentes; atingir con abilidade R = 1 ¡ ε para ε > 0
arbitrariamente pequeno, com n ! 1, é impossível se ρ > 0;
4. o aumento da con abilidade do sistema requer aumento da con abilidade dos componentes e redução da
correlação entre as falhas dos componentes.

4.1.7 Probabilidade de falha de sistemas descritos por estados limites


Como vimos, a Eq. (4.4) representa genericamente falhas de sistemas em série, em paralelo e sistemas mistos.
Considere que os eventos elementares de falha Ei podem ser descritos em termos de um vetor de variáveis
aleatórias X, e de equações de estado limites gi (x), obtendo domínios de falha elementares:

­f i = fxjgi (x) · 0g.

O domínio de falha de sistemas é um domínio composto, escrito genericamente como:

­fSY S = fxj [k [\i2Ck (gi (x) · 0)]g.

Com estas preliminares, a probabilidade de falha de um sistema genérico (série, paralelo ou misto) pode ser
escrita como: Z Z
pfSY S = fX (x)dx = fX (x)dx. (4.5)
­fSY S [k [\i2Ck (gi (x)·0)]

No restante deste capítulo, nos dedicaremos a avaliar esta probabilidade, em especial para sistemas associados
em série. Esta avaliação fará uso dos limites apresentados na Eq. (4.1), e de outros limites que consideram a
dependência linear (correlação) entre pares de modos de falha.

4.2 IDEALIZAÇÃO DE SISTEMAS ESTRUTURAIS


A con abilidade de sistemas estruturais formados por muitos elementos depende da con abilidade individual
destes elementos, bem como da maneira como estes elementos estão interconectados. Na análise de sistemas
estruturais, devemos considerar que:
130 CONFIABILIDADE DE SISTEMAS

Figura 4-8: Modelos simpli cados do comportamento de materiais.

1. o efeito de ações em cada elemento é consequência das ações externas na estrutura;


2. ações e resistência não são necessariamente independentes (exemplos: ação de peso próprio depende das
dimensões dos elementos, resistência relacionada ao histórico de carregamento);
3. existência de dependência entre as resistências dos diferentes elementos;
4. práticas construtivas tem in‡uência na resistência de grupos de elementos.

A análise de sistemas estruturais envolve diversas simpli cações, que podem ser divididas em:

1. simpli cação em ações e seus efeitos;


2. modelos de resistência de materiais e do comportamento de elementos estruturais;
3. elementos componentes da estrutura e sua interconectividade/interação.

Neste capítulo, consideramos apenas ações invariantes com o tempo. Esta simpli cação não leva em conta
o problema da dependência com o caminho de carregamento (load path dependence), a qual só pode ser corre-
tamente considerada quando as ações são representadas por processos estocásticos. Conforme vimos, processos
estocásticos de carregamento dão origem a problemas de con abilidade dependentes do tempo, que são consid-
erados no Capítulo 6.

4.2.1 Modelos de resistência de material


Na mecânica dos sólidos, diferentes modelos são utilizados para representar, de forma idealizada, a resposta de
materiais estruturais. Alguns destes modelos estão representados na Figura 4-8.
4.2. IDEALIZAÇÃO DE SISTEMAS ESTRUTURAIS 131

Na avaliação do colapso progressivo de estruturas hiperestáticas, temos que considerar o comportamento


“pós-pico” dos materiais estruturais. Neste sentido, dois comportamentos limites são observados nos modelos
idealizados na Figura 4-8: materiais frágeis (a) tem resistência residual nula, após ultrapassada a resistência
última do material; materiais idealmente dúcteis (b) mantém (ou aumentam) a resistência, após ultrapassada
a resistência ao escoamento do material. A resistência residual determina a forma como ocorre o colapso
progressivo de estruturas hiperestáticas. Conforme veremos, estes dois comportamentos limites (idealmente
frágil e perfeitamente plástico) simpli cam a formulação de alguns problemas, permitindo abordagens analíticas.
Em geral, comportamentos materiais mais complexos requerem soluções via modelos numéricos.

4.2.2 Estruturas isostáticas: sistemas em série


Estruturas isostáticas representam um caso típico de sistema onde os componentes estruturais estão associados
em série. Devido à inexistência de redundância, a falha de um elemento implica em falha global da estrutura.
Esta idealização é válida para elementos formados por material frágil ou dúctil. A falha por ruptura de um
elemento frágil, ou de uma vinculação, causa a perda de equilíbrio e portanto o colapso da estrutura. A formação
de rótula plástica em um elemento é su ciente para levar ao colapso estruturas isostáticas formadas por material
dúctil.
Em estruturas de pequeno grau hiperestático (i.e., com pequena redundância) formada por elementos frágeis,
é comum assumirmos que a falha do elemento mais solicitado implica em falha da estrutura. Isto acontece devido
à redistribuição de cargas, possivelmente com um fator de impacto, que pode levar ao colapso progressivo
instantâneo da estrutura. Obviamente, o mesmo não vale para a ruptura de um elemento que tem pequena
contribuição na capacidade de carga da estrutura.
Em componentes mecânicos que devem operar dentro do regime elástico, a ultrapassagem da tensão de
escoamento no ponto mais solicitado é utilizada para caracterizar a falha. Sob carregamento cíclico, pode
ocorrer falha frágil por ruptura, em função da propagação de trincas de fadiga. A descrição de falhas em
componentes mecânicos requer modelos especí cos, que não são discutidos neste texto.

4.2.3 Estruturas hiperestáticas: sistemas em paralelo


Em estruturas hiperestáticas, o colapso global do sistema só ocorre se um número su ciente de elementos
falha. Este número é igual ao grau hiperestático da estrutura, mais um: gh + 1. A análise de falhas de
estruturas hiperestáticas envolve a determinação das diferentes sequências de falha, incluindo a redistribuição
de esforços, após a falha de cada elemento. Cada sequência de falhas é formada pelo colapso progressivo de
gh + 1 elementos, e todas as sequências de falha devem ser consideradas. Eventos que compõe uma sequência
de falhas estão associados em paralelo, enquanto as diferentes sequências formam eventos em série (Eq. 4.4).
A desconsideração de alguma das possíveis sequências de falha é não-conservadora (contra a segurança). Em
geral, o uso de árvores de falha ajuda a identi car as diferentes sequências de falha.

Treliças hiperestáticas formadas por elementos frágeis

A análise de con abilidade ao colapso de treliças hiperestáticas formadas por elementos frágeis envolve a avali-
ação da falha progressiva dos elementos hiperestáticos mais um, até o colapso da estrutura. Considere como
exemplo a treliça ilustrada na Figura 4-9. O grau hiperestático da estrutura é gh = 1, portanto duas barras
devem falhar para que ocorra o colapso da estrutura. Aplicando cargas unitárias (H = 1 e V = 1), isoladamente,
obtemos o fator de carga de cada elemento (hi e vi ). Para simpli car a análise, assumimos que a falha das
barras comprimidas ocorre por instabilidade elástica (fórmula de Euler) e a falha das barras tracionadas ocorre
por ruptura. Portanto, a equação de estado limite para barras tracionadas é:

gi (x) = σr ai ¡ hi H ¡ vi V, i = 1, ..., 6.
132 CONFIABILIDADE DE SISTEMAS

Figura 4-9: Treliça hiperestática formada por membros frágeis.

A equação de estado limite para barras comprimidas é:

π2 EIi
gi (x) = ¡ hi H ¡ vi V, i = 1, ..., 6,
L2i

sendo ai , Ii e Li a área da seção transversal, o momento de inércia e o comprimento da i-ésima barra, respec-
tivamente; σr e E a tensão de ruptura e o módulo de elasticidade do material, respectivamente. Em alguns
problemas, não será possível determinar se a força em uma barra é de tração ou de compressão; nestes casos,
convém utilizar as duas equações de estado limites acima.
Seja Bk o evento falha da k-ésima barra. Assumindo que qualquer barra possa ser a primeira a falhar, temos
seis caminhos alternativos de falha:

pfSY S = P [[6k=1 [Bk \ ([6j=1,j6=k Bj jBk )]]. (4.6)


Nesta equação, Bj jBk é o evento falha da j-ésima barra, dada falha da barra k. As probabilidades de falha
condicionais P [Bj jBk ] são calculadas retirando do sistema a barra k, e recalculado os fatores de carga hi e vi
das demais barras. É possível incluir um fator de impacto na redistribuição dos esforços.
A intersecção múltipla na Eq. (4.6) corresponde a um sistema em série, cuja solução é endereçada na Seção
4.3. A solução completa de um problema muito parecido com o ilustrado pode ser acompanhada em Verzenhassi
(2008).

Pórticos hiperestáticos formados por elementos dúcteis

Neste tipo de sistema idealizado, a resistência dos elementos (vigas, colunas) é determinada pelo momento ‡etor
necessário para formar uma rótula plástica nos mesmos. A falha da estrutura é caracterizada pela formação
de um mecanismo plástico, o que corresponde à formação de um número su ciente de rótulas plásticas para
tornar a estrutura instável. Este número é igual ao grau hiperestático da estrutura, mais um: gh + 1. As rótulas
plásticas que correspondem a um mecanismo formam um sistema em paralelo, uma vez que o mecanismo só
é formado quando todas as resistências são mobilizadas. Os diferentes mecanismos formam um sistema em
série, pois qualquer mecanismo leva a perda de equilíbrio. Assim, a desconsideração de algum dos possíveis
mecanismos de falha é não-conservadora (contra a segurança).
A formação de um mecanismo plástico pode ser formulada a partir do Princípio dos Trabalhos Virtuais,
4.2. IDEALIZAÇÃO DE SISTEMAS ESTRUTURAIS 133

igualando o trabalho das forças externas ao trabalho de deformação plástica nas rótulas (forças internas):
X X
Qi δ i ¡ Mj θ j = 0 (4.7)
i j

sendo:
Qi as forças externas atuando sobre o pórtico;
δ i os deslocamentos das forças na formação de um mecanismo;
Mj o momento ‡etor necessário para formar uma rótula plástica na j-ésima seção transversal;
θj a rotação da j-ésima rótula, na formação do mecanismo.
Considere como exemplo o pórtico plano ilustrado na Figura 4-10. Duas ações agem sobre o pórtico: uma
força horizontal H e uma força vertical V . Os quatro mecanismos plásticos que podem levar ao colapso do pórtico
estão ilustrados na gura, e numerados de (a) a (d). Considere o mecanismo a) como exemplo. Ao formar o
mecanismo, as forças H e V se deslocam de δ H e δ V , e as rótulas giram de um ângulo θ 1 . Assumindo pequenos
deslocamentos, na iminência da perda de equilíbrio, resulta que θ 1 ¼ tan(θ1 ) = δ H /h = δ V /l. Portanto, a
partir da Eq. (4.7), temos:

M1 θ 1 + 2M3 θ 1 + 2M4 θ1 ¡ θ1 hH ¡ θ 1 lV = 0
M1 + 2M3 + 2M4 ¡ hH ¡ lV = 0.

Procedendo de maneira semelhante, as equações de estado limite para os quatro mecanismos de falha possíveis
são obtidas como:

modo a: ga = M1 + 2M3 + 2M4 ¡ hH ¡ lV = 0,


modo b: gb = +1M2 + 2M3 + 1M4 ¡ lV = 0,
modo c: gc = M1 + 1M2 + 1M4 ¡ hH = 0,
modo d: gd = M1 + 2M2 + 2M3 ¡ hH + lV = 0. (4.8)

Uma solução passo a passo deste problema pode ser encontrada em Melchers & Beck (2018). A solução do
sistema em série formado pelas Eqs. (4.8) é endereçada na Seção 4.3

Con abilidade de sistemas estruturais com base na resposta global

Como vimos, os modelos idealizados de comportamento de sistemas permitem solucionar problemas hiperestáti-
cos envolvendo treliças formadas por material frágil, e pórticos formados por elementos dúcteis. A consideração
de materiais com capacidade residual (materiais c-d-e na Figura 4-8) complica a análise de colapso progres-
sivo, pois as barras que falham continuam contribuindo para a capacidade portante da estrutura. A solução
envolvendo pórticos hiperestáticos não é apropriada para estruturas com muitos elementos, pela possibilidade
de ocorrência de colapso parcial localizado.
Por outro lado, a representação do comportamento sistêmico, e da interação entre elementos e suas falhas,
pode ser bastante complexa para sistemas estruturais formados pelos materiais b-c-d-e da Figura 4-8. Em
geral, a análise do comportamento de estruturas formadas por estes materiais é realizada através de modelos
numéricos (elementos nitos, elementos de contorno, etc). Nestes casos, convém deixar a representação do
comportamento sistêmico para o modelo numérico, e realizar a análise de con abilidade com base em respostas
globais da estrutura. Em geral, a representação correta da falha global da estrutura requer modelos não-lineares
material e/ou geométrico, e a determinação de curvas de força £ deslocamento da estrutura.
Considere como exemplo a torre metálica ilustrada na Figura 4-11. A torre esta sujeita a uma ação de vento
W de intensidade aleatória, distribuída ao longo da altura, que provoca deslocamento de topo δ. A partir de
134 CONFIABILIDADE DE SISTEMAS

Figura 4-10: Pórtico hiperestático formado por membros dúcteis.


4.2. IDEALIZAÇÃO DE SISTEMAS ESTRUTURAIS 135

Figura 4-11: Resposta força x deslocamento de estrutura não-linear.

uma análise não-linear material e geométrica, podemos determinar a curva W £ δ ilustrada na gura. Esta
curva permite determinar o deslocamento crítico δ critico e a força crítica Wcritica , que levam à perda de equilíbrio
global da estrutura. O modelo numérico descreve como o colapso ocorre: se por ruptura de barras tracionadas,
se por plasti cação ou instabilidade de barras comprimidas. O modelo material adotado, em cada caso, descreve
a capacidade residual de cada elemento.
Variáveis aleatórias típicas do problema ilustrado são as forças aerodinâmicas provocadas pela pressão do
vento (W ), o ângulo de incidência (α), a tensão de escoamento do material (σy ), o módulo de elasticidade do
material (E), a área da seção transversal das barras (A), o momento de inércia da seção (I) e, possívelmente,
as coordenadas nodais (£ = (x, y, z)). Com base na resposta global da estrutura, a seguinte equação de estado
limite pode ser escrita:
g(X) = δ critico ¡ δ(W, α, σy , E, A, I, £), (4.9)
para X = fW, α, σy , E, A, I, £gt . No caso de estruturas esbeltas, como a torre ilustrada na Figura 4-11,
usualmente o deslocamento δ critico não muda (signi cativamente) em função das demais variáveis aleatórias do
problema. Quando este é o caso, a curva de comportamento global W £ δ é determinada em análise numérica
preliminar, e a análise de con abilidade é realizada apenas com base na resposta δ(W, α, σy , E, A, I, £). A
análise de con abilidade é realizada com base no acoplamento direto entre o software de con abilidade e o
software de análise estrutural numérica, conforme Apêndice G e Figura G-1. A avaliação da probabilidade de
falha, para uma equação de estado limite como a Eq. (4.9), pode ser feita utilizando as técnicas apresentadas
no Capítulo 3. Havendo mais de um modo de falha global, as técnicas discutidas na Seção 4.3 podem ser
empregadas.
Em alguns problemas, o deslocamento crítico poderá mudar também em função de variáveis do problema
(α, σy , E, A, I, £). Este é o caso, por exemplo, de problemas de projeto ou de otimização estrutural (veja
Capítulo 8). Considere, como exemplo, que a área da seção transversal das barras (A) deve ser determinada,
para que a estrutura atinja determinada con abilidade alvo. Neste caso, há duas alternativas de solução: a)
136 CONFIABILIDADE DE SISTEMAS

determinação da curva de resposta global em três dimensões (W £ A £ δ), e b) determinação da curva de


resposta durante a análise de con abilidade. Em ambos os casos, o deslocamento crítico torna-se função da
variável adicional (δ critico (A)), e a equação de estado limite ca:

g(X) = δ critico (A) ¡ δ(W, α, σy , E, A, I, £). (4.10)

A resposta global da estrutura também pode ser associada a estados limites de serviço. A torre ilustrada na
Figura 4-11, por exemplo, é uma torre de telefonia móvel. O funcionamento adequado das antenas é condicionado
pela orientação, que muda em função da de‡exão do topo da torre. Relacionando a orientação limite com o
deslocamento de topo, podemos escrever uma equação de estado limite de serviço, em função da resposta global
da estrutura:
serviço
g(X) = δ critico ¡ δ(W, α, σy , E, A, I, £). (4.11)
serviço
Na determinação de δ critico e δ(W, α, σ y , E, A, I, £), uma análise não-linear geométrica pode ser su ciente.
Torii et al. (2017) mostram que qualquer estado limite de colapso pode ser aproximado conservadora-
mente por um estado limite envolvendo deslocamentos. Isto evita as não-linearidades envolvidas no cálculo da
resistência última. Em termos de deslocamentos, o cálculo de derivadas é mais estável e robusto.
Problemas de con abilidade estrutural envolvendo torres metálicas, e utilizando uma formulação baseada
na resposta global da estrutura, são resolvidos em Beck & Verzenhassi (2008), Gomes & Beck (2013), Tessari
et al. (2017).

4.3 MÚLTIPLOS MODOS DE FALHA (SISTEMA EM SÉRIE)


Como vimos neste capítulo, há vários problemas de con abilidade de sistemas estruturais que recaem em sistemas
em série, envolvendo múltiplos modos de falha:

1. problemas isostáticos, em que um mesmo modo de falha se aplica a vários elementos associados e série;
2. treliças hiperestáticas de material frágil, em que os caminhos de falha envolvem falhas de elementos
associados em série;
3. pórticos hiperestáticos formados por material dúctil, em que os diferentes mecanismos de falha estão
associados em série;
4. estrutura com vários modos de falha globais associados em série;
5. elementos estruturais com vários modos de falha associados em série;

O caso 5 acima pode aparecer, de forma composta, nos problemas 1 e 2. Exemplos de elementos estru-
turais com múltiplos modos incluem: vigas e lajes (‡exão, cortante, deformação excessiva); colunas e barras
comprimidas (‡ambagem global e localizada, esmagamento, deformação excessiva).
Cada modo de falha global de uma estrutura, ou local de um elemento estrutural, pode ser descrito por uma
equação de estado limite:
gi (x) = 0, i = 1, 2, ..., nLS ;
4.3. MÚLTIPLOS MODOS DE FALHA (SISTEMA EM SÉRIE) 137

sendo nLS o número de equações de estado limite (do inglês Limit States). O domínio de falha para cada modo
é dado por:
­fi = fxjgi (x) · 0g .

O domínio de falha do sistema, com nLS modos de falha associados em série, é:


nLS
­fSY S = [i=1 ­fi .

Portanto, a probabilidade de falha do sistema é dada por (Eq. 2.41):


Z
pfSY S = n
fX (x)dx. (4.12)
LS ­
[i=1 fi

As probabilidades de falha individuais (em relação a cada um dos modos de falha, considerados individ-
ualmente) podem ser determinadas utilizando os métodos estudados no Capítulo 3 (FOSM, FORM, SORM).
Nesta seção, estudamos como estas soluções individuais são empregadas na solução de problemas envolvendo
domínios de falha “em série”, conforme Eq. (4.12).
A Eq. (4.12) resulta na probabilidade de falha do sistema, ou pfSY S , que envolve múltiplos modos de falha. É
útil podermos comparar este resultado com índices de con abilidade avaliados para modos de falha individuais,
o que é feito a partir do índice de con abilidade equivalente para sistemas:

βSY S = ©¡1 (1 ¡ pfSY S ). (4.13)

4.3.1 Limites para a probabilidade de falha de sistemas em série


Seja Fi o evento falha em relação ao i-ésimo modo de falha. O evento falha em relação a qualquer um dos nLS
modos de falha (associados em série) é descrito por:
nLS
F = F1 [ F2 [ F3 [ ... [ FnLS = [i=1 Fi .

Observando o diagrama de Venn na Figura 4-12, veri camos que a união dos eventos falha pode ser obtida
como:

pfSY S = +P [F1 ]
+P [F2 ] ¡ P [F2 \ F1 ]
+P [F3 ] ¡ P [F3 \ F1 ] ¡ P [F3 \ F2 ] + P [F3 \ F2 \ F1 ]
+... (4.14)

Para nLS componentes, esta equação pode ser generalizada como:


n
XLS nLS X
X i¡1 n
X i¡1
LS X i¡2
X
pfSY S = P [Fi ] ¡ P [Fi \ Fj ] + P [Fi \ Fj \ Fk ] ¡ ... (4.15)
i=1 i=2 j=1 i=3 j=2 k=1
(j<i) (j<i) (k<j)

O primeiro somatório envolve probabilidades de falha individuais; o segundo envolve intersecções de dois
eventos; o terceiro, intersecções de três eventos, e assim por diante. Os sinais (+/¡) dos somatórios alternam-se
entre positivo e negativo, o que signi ca que limites inferiores e superiores para a probabilidade de falha são
138 CONFIABILIDADE DE SISTEMAS

Figura 4-12: Intersecção múltipla entre eventos.

obtidos à medida que estes termos vão sendo incorporados à soma, como segue.
Limites uni-modais são obtidos desconsiderando todos os termos envolvendo intersecções, ou seja: estes
limites são calculados considerando apenas modos individuais de falha. Como veremos a seguir, os resultados
apresentados na Eq. (4.1) correspondem a limites uni-modais. Limites bi-modais são obtidos incluindo os
termos de intersecção entre dois modos de falha P [Fi \ Fj ]. Os termos de intersecção múltipla (três ou mais
modos de falha) são bastante difíceis de calcular, por isto difícilmente são considerados. Limites de terceira
ordem são discutidos em (Zhang, 1993).

Limites uni-modais

A consideração do primeiro somatório (apenas) na Eq. (4.15) dá origem a um limite superior para a probabili-
dade de falha: nLS
X
pfSY S · P [Fi ]. (4.16)
i=1

Os termos de intersecção P [Fi \ Fj ] ou de intersecção múltipla na Eq. (4.15) são sempre menores ou iguais
ao menor dos eventos envolvidos na intersecção:

P [Fi \ Fj ] · min[P (Fi ), P (Fj )].

Isto signi ca que a consideração de apenas um dos termos do somatório na Eq. (4.16) corresponde a um limite
inferior para a probabilidade de falha. Em particular:

pfSY S ¸ max [P (Fi )] .


i

Portanto, os limites uni-modais da probabilidade de falha são obtidos como:


n
X
n
max [P (Fi )] · pfSY S · P [Fi ].
i=1
i=1

Note que esta expressão é idêntica à Eq. (4.1). Os limites uni-modais podem resultar bastante amplos,
4.3. MÚLTIPLOS MODOS DE FALHA (SISTEMA EM SÉRIE) 139

principalmente quando não há um modo de falha dominante. Por isto, nem sempre são úteis. Em con abilidade
estrutural, tentamos, sempre que possível, trabalhar com limites bi-modais.

Limites bi-modais

Limites bi-modais para a probabilidadade de falha de sistemas em série são obtidos incluindo os termos de
segunda ordem (P [Fi \Fj ]) da Eq. (4.15). Para obter um limite inferior, desconsideramos os termos envolvendo
intersecções múltiplas (três ou mais modos de falha), mas utilizamos o operador max[ ] para garantir que não
haja contribuição negativa na probabilidade de falha, devido à desconsideração dos termos de terceira ordem
(P [Fi \ Fj \ Fk ]):
2 3
nLS
X i¡1
X
P [F1 ] + max 40, P [Fi ] ¡ P (Fi \ Fj )5 6 pfSY S . (4.17)
i=2 j=1

Infelizmente, este limite depende da ordenação dos modos de falha. Existem algoritmos para se determinar
a ordenação ideal dos modos de falha, a m de estreitar os limites. A regra geral é ordená-los em escala de
importância, i.e., em escala decrescente de probabilidade de falha individual:

P [F1 ] > P [F2 ] > P [F3 ] > ... > P [FnLS ].

O limite superior é obtido a partir de uma simpli cação das linhas da Eq. (4.14). Cada linha desta expressão
faz uma contribuição não-negativa na probabilidade de falha, de modo que:
nLS
X n
X LS

pfSY S 6 P [Fi ] ¡ max [P (Fi \ Fj )] . (4.18)


i>j
i=1 i=2

Aqui, o operador max[ ] também garante que não ocorra contribuição negativa na probabilidade de falha.
Reunindo os dois resultados temos os limites bi-modais para a probabilidade de falha de sistemas em série
(Ditlevsen, 1979):

2 3
nLS
X i¡1
X n
X LS n
XLS

P [F1 ] + max 40, P [Fi ] ¡ P (Fi \ Fj )5 6 pfSY S 6 P [Fi ] ¡ max [P (Fi \ Fj )] . (4.19)
i>j
i=2 j=1 i=1 i=2

Os limites expressos na Eq. (4.19) são conhecidos na literatura como Ditlevsen bounds. Song et al. (2021)
reconhecem a contribuição de trabalhos anteriores, e chamam estes limites de Kounias—Hunter—Ditlevsen (KHD)
bounds.

4.3.2 Aproximação de primeira ordem para múltiplos modos de falha


Os limites bi-modais da probabilidade de falha de sistemas com múltiplos modos de falha (associados em série)
podem ser avaliados a partir de uma aproximação linear (de primeira ordem) das equações de estado limite do
problema. Tal aproximação, compatível com os métodos FOSM e FORM, consiste em determinar os termos
bi-modais (Fi \ Fj ) a partir dos coe cientes de correlação entre as equações de estado limite, linearizadas nos
respectivos pontos de projeto.
140 CONFIABILIDADE DE SISTEMAS

Dependência linear (correlação) entre modos de falha

Considere dois hiper-planos tangentes à duas equações de estado limite nos respectivos pontos de projeto:

gi (y) = (y ¡ y¤i )t rgi (yi¤ ) = 0,


gj (y) = (y ¡ y¤j )t rgj (y¤j ) = 0.

Aplicando o operador valor esperado, obtemos:

E[gi (y)] = gi = ¡yi¤ t rgi (yi¤ ),


E[gj (y)] = gj = ¡y¤j t rgj (yj¤ ).

A covariância entre os dois modos de falha (entre as duas equações de estado limite) é obtida como:

Cov[gi (y), gj (y)] = E[(gi ¡ gi )(gj ¡ gj )]


¡ ¢¡ ¢
= E[ yt rgi (y¤i ) yt rgj (yj¤ ) ]
= E[yt y](rgi (yi¤ )t rgj (yj¤ )).

O termo E[yt y] corresponde ao momento de segunda ordem (Eq. A.14), e pode ser calculado como:

E[yt y] = E[y2 ] = σ 2Y + E[y]2 .

No espaço das variáveis normais padrão, E[y] = 0 e σ2Y = 1; logo, E[yt y] = 1. Portanto, a covariância entre
dois modos de falha se resume a:

Cov[gi (y), gj (y)] = rgi (y¤i )t rgj (yj¤ ).

Da Eq. (3.25) temos que:


V ar[gi (y)] = rgi (yi¤ )t rgi (yi¤ ),
ou:
q
σ gi (y) = rgi (yi¤ )t rgi (yi¤ ) = krgi (yi¤ )k .

Portanto, o coe ciente de correlação entre gi (y) e gj (y), que mede a dependência linear entre as equações
de estado limite, é obtido como:

Cov[gi (y), gj (y)]


ρgi gj =
σgi (y) σgj (y)
rgi (yi¤ )t rgj (yj¤ )
= ° °
krgi (y¤ )k °rgj (y¤ )°
i j
= ®ti ®j . (4.20)

Note que os vetores ®i e ®j são sub-produtos da solução via FORM. O coe ciente de correlação obtido
através da Eq. (4.20) é aproximado, pois é obtido a partir da linearização das equações de estado limite nos
respectivos pontos de projeto. Podemos mostrar que ρgi gj é o cosseno do angulo entre as equações de estado
limite linearizadas. As aproximações envolvidas no cálculo de ρgi gj são compatíveis com as aproximações do
método FORM.
4.3. MÚLTIPLOS MODOS DE FALHA (SISTEMA EM SÉRIE) 141

Aproximação da probabilidade de intersecção P (Fi \ Fj )

Para equações de estado limite não-lineares, as probabilidades de intersecção P (Fi \ Fj ) não podem ser deter-
minadas de forma exata. Estas probabilidades são aproximadas a partir das probabilidades de ocorrência dos
eventos A e B representados na Figura 4-13, para cada combinação de modos de falha. Relações de ortogonali-
dade permitem escrever:
0 1
β j ¡ ρgi gj β i
P (Aij ) = ©(¡β i )© @¡ q A,
1 ¡ ρ2gi gj
0 1
β i ¡ ρgi gj β j
P (Bij ) = ©(¡β j )© @¡ q A. (4.21)
1 ¡ ρ2gi gj

Na avaliação dos limites inferior e superior (Eqs. 4.17 e 4.18), os termos P (Fi \Fj ) são aproximados de forma
a preservar os respectivos limites. Quando o coe ciente de correlação ρgi gj é positivo, para o limite inferior
utilizamos:
P (Fi \ Fj ) = P (Aij ) + P (Bij ), (4.22)
e para o limite superior, utilizamos:

P (Fi \ Fj ) = max[ P (Aij ), P (Bij )]. (4.23)

Quando o coe ciente de correlação ρgi gj é negativo, para o limite inferior utilizamos:

P (Fi \ Fj ) = min[ P (Aij ), P (Bij )], (4.24)

e para o limite superior:


P (Fi \ Fj ) = 0. (4.25)

A formulação destes limites está baseada em três importantes aproximações: a linearização das equações de
estado limite nos respectivos pontos de projeto, a consideração de falha simultânea por dois e não mais do que
dois modos de falha e a aproximação feita no cálculo da probabilidade de intersecção P (Fi \ Fj ).
Devido à linearização e à aproximação feita no cálculo de P (Fi \Fj ), os limites estabelecidos nas Eqs. (4.17) e
(4.18) são assintóticos, isto é: se estreitam à medida que as probabilidades de falha individuais diminuem. Estes
limites ainda podem ser largos se não houver um modo de falha dominante, especialmente se as probabilidades
de falha individuais forem grandes. No entanto, em geral se obtém resultados aceitáveis.
O cálculo dos limites bi-modais linearizados pode ser resumido nas seguintes etapas:

1. ordenamento dos modos de falha em ordem decrescente de probabilidades de falha individuais;


2. cálculo dos coe cientes de correlação linearizados entre pares de equações de estado limite;
3. cálculo da probabilidade dos eventos A e B, para cada par de equações de estado limite;
4. cálculo da probabilidade de intersecção para dois modos de falha P (Fi \ Fj );
5. cálculo dos limites da probabilidade de falha do sistema conforme Eqs. (4.17) e (4.18).
142 CONFIABILIDADE DE SISTEMAS

Figura 4-13: Determinação dos limites bi-modais linearizados.

Tabela 4.1: Variáveis aleatórias do problema da treliça isostática.


Variável Média (µ) C.V. (δ) Unidade
Tensão de ruptura S 24, 5643 0, 10 MPa
Modulo de elasticidade E 70, 0 0, 03 GPa
Força horizontal H 2, 0 0, 20 kN
Força vertical V 1, 0 0, 20 kN

Figura 4-14: Exemplo: treliça isostática.


4.3. MÚLTIPLOS MODOS DE FALHA (SISTEMA EM SÉRIE) 143

Exemplo 8 Treliça isostática de duas barras.

Enunciado: Considere a treliça ilustrada na Figura 4-14, sujeita a duas forças aleatórias H e V . O vão
entre os apoios mede v = 300 mm,p e a altura é h = k v, com fator de aspecto k a ser determinado. O
comprimento das barras é L = v2 + h2 . A seção transversal das barras é circular: a barra 1 tem raio
r1 = 4 mm e a barra 2 tem r2 = 5, 2 mm. As forças são estritamente positivas1 ; logo, a barra 1 é comprimida
por V e tracionada por H, e as duas forças provocam compressão da barra 2. Assim, a barra 1 pode falhar
por ruptura frágil em tração, ou por instabilidade elástica, em compressão. A barra 2 só pode falhar por
compressão. Os dados das variáveis aleatórias do problema são apresentados na Tabela 4.1. Todas as
variáveis tem distribuição normal. A tensão de ruptura e o modulo de elasticidade são os mesmos para
as duas barras. Propriedades materiais (S e E) são consideradas completamente dependentes; as demais
variáveis são independentes. Considerando a fórmula de Euler para instabilidade elástica, determine a
con abilidade do sistema.
Solução: As áreas das seções transversais são Ai = πri2 , e os momentos de inércia à ‡exão, Ii = πri4 /4. Os
fatores de carga são obtidos para carregamentos unitários, atuando de forma isolada. Considerando apenas
H = 1, obtemos h1 = L/2v (tração) e h2 = ¡L/2v (compressão). Considerando apenas V = 1, obtemos
v1 = ¡L/2h (compressão) e v2 = ¡L/2h (compressão). Não há como saber se a força na barra 1 será de
tração ou compressão: se a resultante for positiva (h1 H + v1 V > 0), a força é de tração; se for negativa,
multiplicamos os dois fatores de carga por ¡1 para escrever as equações de estado limite. Sendo gR1 para
ruptura da barra 1, gE1 para ‡ambagem da barra 1 e gE2 para ‡ambagem da barra 2, temos:
µ ¶
A1 S L V
gR1 (S, H, V ) = ¡ +H ¡ [kN],
103 2v k
µ ¶
π2 EI1 L V
gE1 (E, H, V ) = ¡ ¡H + [kN],
L2 2v k
µ ¶
π2 EI2 L V
gE2 (E, H, V ) = ¡ +H + [kN].
L2 2v k

Observe que o mesmo termo (§H ¨ V /k) aparece nas equações gR1 e gE1 , mas com sinais trocados.
Considerando os valores médios das forças (µH = 2µV ), uma situação de “equilíbrio” entre gR1 e gE1 é
obtido para (k = 1/2)2 ; logo, os dois modos de falha precisam ser considerados. Para k ¿ 1/2, a equação
de ruptura poderia ser desconsiderada; para k À 1/2, a falha por instabilidade da barra 1 poderia ser
desconsiderada. Como as variáveis materiais S e E são completamente dependentes, ao avaliar gR1 usamos
t t
X = fS, H, V g ; já para avaliar as demais equações, X = fE, H, V g .
Como as equações de estado limite são lineares nas três variáveis aleatórias, e estas tem distribuição
normal, o índice de con abilidade de Cornell fornece a probabilidade de falha exata para cada modo de
falha:
L
E[gR1 (X)] A1 µ 10¡3 ¡ 2v (+µH ¡ 2µV )
βR1 = p =q S = 3, 63716;
V ar[gR1 (X)] L 2
A21 σ2S 10¡6 + 4v 2 (+σ 2H + 4σ2V )
2
π µE I1
E[gE1 (X)] 2 ¡ L (¡µH + 2µV )
βE1 = p = q L 2 2 2v = 3, 87807;
V ar[gE1 (X)] π4 σ E I1 L2 2 2
+ 4v 2 (+σ H + 4σ V )
L4
2
π µE I2
E[gE2 (X)] 2 ¡ L (+µH + 2µV )
βE2 = p = q 4L 2 2 2v = 3, 86999. (4.26)
V ar[gE2 (X)] π σ E I2 L2 2 2
+ 4v 2 (+σ H + 4σ V )
L4
144 CONFIABILIDADE DE SISTEMAS

Para determinar os coe cientes de correlação ρ entre os modos de falha, precisamos avaliar os vetores
gradientes no espaço Y. Da Eq. (3.39) temos:
½ ¾ ½ ¾
∂g ∂g
rg(y) = = σXi .
∂yi i=1,...,3 ∂xi i=1,...,3
Portanto:
L L t
rgR1 = fσS A1 10¡3 , ¡σ H
, +σV g = f0, 1235; ¡0, 2236; +0, 2236gt ;
2v 2vk
π2 I1 L L t
rgE1 = fσE 2 , +σH , ¡σV g = f0, 0370; +0, 2236; ¡0, 2236gt ;
L 2v 2vk
π2 I2 L L t
rgE2 = fσE 2 , ¡σH , ¡σV g = f0, 1058; ¡0, 2236; ¡0, 2236gt . (4.28)
L 2v 2vk

Os coe cientes de sensibilidade não são necessários na solução do problema, mas ajudam a interpretar
os resultados. Mantendo os sinais ao elevar ao quadrado, temos:
© ªt
®2j = krgj k¡1 sign[(rgj )i ][(rgj )i ]2 i=1,...,3 .
®2R1 = fα2S ; α2H ; α2V gt = f+0, 132; ¡0, 434; +0, 434gt ;
®2E1 = fα2E ; α2H ; α2V gt = f+0, 014; +0, 493; ¡0, 493gt ;
®2E2 = fα2E ; α2H ; α2V gt = f+0, 101; ¡0, 450; ¡0, 450gt . (4.29)

Observamos que as forças H e V controlam as probabilidades de falha. Como as equações de estado limite
são lineares, e a transformação de Hasofer-Lind é linear, os gradientes são constantes. Os coe cientes de
correlação são encontrados como:

rt gR1 rgE1
ρR1E1 = ®tR1 ®E1 = = ¡0, 8829;
krgR1 k krgE1 k
rt gR1 rgE2
ρR1E2 = ®tR1 ®E2 = = +0, 1154;
krgR1 k krgE2 k
rt gE1 rgE2
ρE1E2 = ®tE1 ®E2 = = +0, 0369. (4.30)
krgE1 k krgE2 k

Observamos correlação negativa entre os modos de falha por tração (ruptura) e por compressão (insta-
bilidade) da barra 1, como esperado. A correlação positiva entre gR1 e gE2 é consequência da dependência
completa entre as propriedades materiais (S e E) e do efeito da força H, cuja variação positiva aumenta a
tração na barra 1 e a compressão na barra 2. A correlação quase nula entre gE1 e gE2 é consequência do
efeito negativo (em termos de correlação) da força H, e dos efeitos positivos da força V . O módulo de elas-
ticidade das barras é o mesmo, o que deveria contribuir para correlação positiva; no entanto, a contribuição
de E é pequena (Eq. 4.29).
Utilizando as Eqs. (4.21) e (4.22 até 4.25), as probabilidades ilustradas na Tabela 4.2 são obtidas. Para
determinar os limites bi-modais, é conveniente ordenar os modos de falha, em ordem crescente de índice de
con abilidade:
β R1 < β E2 < β E1 .
4.3. MÚLTIPLOS MODOS DE FALHA (SISTEMA EM SÉRIE) 145

A partir da Eq. (4.17), o limite inferior da probabilidade de falha do sistema é obtido como:

pfSY S > +©(¡βR1 )


+©(¡βE2 ) ¡ P (FE2 \ FR1 )inf
+©(¡βE1 ) ¡ P (FE1 \ FR1 )inf ¡ P (FE1 \ FE2 )inf
= 2, 4474 10¡4 .

A partir da Eq. (4.18), o limite superior de pfSY S é obtido como:

pfSY S 6 +©(¡βR1 ) + ©(¡β E2 ) + ©(¡βE1 )


¡P (FE2 \ FR1 )sup
¡ max[P (FE1 \ FR1 )sup , P (FE1 \ FE2 )sup ]
= 2, 4482 10¡4 .

Portanto, os limites bi-modais são:

2, 4474 10¡4 6 pfSY S 6 2, 4482 10¡4 .

Estes limites podem ser escritos em termos de índice de con abilidade para sistemas (Eq. 4.13), sendo o
limite inferior em β obtido a partir do limite superior em pfSY S , e vice-versa:

3, 48636 6 β SY S 6 3, 48645.

Observamos que os limites bi-modais são bem justos, tanto em termos de probabilidades de falha, como
em índices de con abilidade, apesar de não haver um modo de falha dominante neste problema. Em
comparação, os limites uni-modais são obtidos como (Eq. 4.13):
Y
©(¡β R1 ) = 1, 3783 10¡4 6 pfSY S 6 2, 44877 10¡4 = 1 ¡ (1 ¡ ©(¡β i )),
i=1,...,3

3, 4863 6 β SY S 6 3, 63716 = β R1 .

Veri camos que os limites uni-modais são amplos, ou seja, fornecem menos informação sobre a con-
abilidade do sistema. Neste problema, há óbvias vantagens em se trabalhar com os limites bi-modais.
Veri camos também que o limite uni-modal superior da pfSY S , que assume independência entre os modos
de falha, está mais próximo da probabilidade correta. Esta é uma consequência de termos dois modos de
falha com forte correlação negativa (ρgR1 gE1 = ¡0, 8829) e outros com fraca correlação positiva (Eq. 4.30).
A Figura 4-15 ilustra o problema em termos das variáveis aleatórias mais importantes, H e V . Na gura
observamos as curvas de nível da função de densidade conjunta de H e V , bem como as três equações de
estado limite, e os respectivos pontos de projeto, no espaço original X.

Tabela 4.2: Probabilidades das intersecções, treliça isostática.


Interseção P (Aij ) P (Bij ) P (Fi \ Fj )inf P (Fi \ Fj )sup
gR1 \ gE1 0 0 0 0
gR1 \ gE2 3, 541 10¡8 3, 586 10¡8 7, 127 10¡8 3, 586 10¡8
gE1 \ gE2 5, 053 10¡9 5, 052 10¡9 1, 010 10¡8 5, 053 10¡9
146 CONFIABILIDADE DE SISTEMAS

Figura 4-15: Equações de estado limite, treliça isostática.

4.3.3 Con abilidade de sistemas por operações matriciais e programação linear


Os limites de segunda ordem de Ditlevsen (Eq. 4.19) e os limites de terceira ordem de Zhang (1993) se aplicam
apenas a sistemas em série e ainda dependem da ordenação dos modos de falha. Encontrar os limites mais
estreitos envolve avaliar todas as nLS ! possíveis sequências de ordenamento dos modos de falha, o que pode
levar a extensas operações.
Duas soluções alternativas, que resultam nos limites mais estreitos para a informação fornecida, e que são
independentes da ordenação dos modos de falha, são obtidas por operações matriciais (Song & Kang, 2009) ou
por programação linear (Song & Der Kiureghian, 2003).
Seja um sistema formado por nLS componentes, cada qual com apenas dois estados possíveis: falha ou
sobrevivência. O espaço amostral correspondente a este sistema pode ser obtido enumerando os m = 2nLS
eventos elementares ej , j = 1, ..., m, que por de nição são mutualmente exclusivos e coletivamente exaustivos.
Qualquer evento composto que caracterize a falha do sistema, ESY S , formado por combinações em série, em
paralelo ou mista dos eventos elementares, pode ser representado pelo vetor c, cujo j-ésimo componente é igual
a 1, se ej 2 ESY S ; e 0 caso contrário. Seja pj = P [ej ], j = 1, . . . , m, a probabilidade do evento elementar
ej . Devido à mutua exclusividade dos eventos ej , a probabilidade do evento composto P [ESY S ], é a soma das
probabilidades dos eventos elementares que o formam. Portanto, a probabilidade do evento composto pode ser
avaliada pelo produto interno: X
P [ESY S ] = PSY S = pj = ct p,
j:ej µESY S

t
sendo p = fpj g , j = 1, . . . , m, um vetor coluna contendo as probabilidades pj . Esta formulação pode ser
generalizada para avaliar as probabilidades de múltiplos eventos de sistema (falha de serviço, falha parcial,
colapso, etc.) pelo produto matricial PSY S = Ct P, sendo PSY S a matriz de probabilidades dos eventos
compostos, cujo componente (PSY S )ij é a probabilidade de que o i-ésimo evento de sistema ocorra sob a j-
ésima condição; C = [c1 , c2 , . . . , cnSY S ] é a matriz cujas colunas são vetores de eventos, para nSY S eventos
de sistema; e P = [p1 , p2 , . . . , pncond ] é a matriz cujas colunas são os vetores de probabilidades para as ncond
diferentes condições impostas aos componentes. Este esquema foi chamado de con abilidade de sistemas baseada
4.3. MÚLTIPLOS MODOS DE FALHA (SISTEMA EM SÉRIE) 147

em multiplicação de matrizes ou matrix-based system reliability method (Song & Kang, 2009).
Como exemplo, considere um sistema formado por três componentes (n = 3), cujo espaço amostral é formado
por 23 = 8 eventos elementares:

e1 = E1 E2 E3 , e2 = E 1 E2 E3 , e3 = E1 E 2 E3 , e4 = E1 E2 E 3 ,
e5 = E 1 E 2 E3 , e6 = E 1 E2 E 3 , e7 = E1 E 2 E 3 , e8 = E 1 E 2 E 3 ,

sendo Ei Ej = Ei \ Ej . Estes eventos estão listados na Tabela 4.3, juntamente com os coe cientes ci que
caracterizam os quatro eventos compostos E1 [ E2 [ E3 (associação em série), E1 \ E2 \ E3 (associação em
paralelo), (E1 \ E2 ) [ E3 (associação mista A) e (E1 [ E2 ) \ (E 2 [ E3 ) (associação mista B).

Tabela 4.3: Eventos elementares ej e sua participação nos eventos compostos de sistema.
elementarnsistema E1 [ E2 [ E3 E1 \ E2 \ E3 (E1 \ E2 ) [ E3 (E1 [ E2 ) \ (E 2 [ E3 )
e1 = E1 E2 E3 1 1 1 1
e2 = E 1 E2 E3 1 0 1 1
e3 = E1 E 2 E3 1 0 1 1
e4 = E1 E2 E 3 1 0 1 0
e5 = E 1 E 2 E3 1 0 1 0
e 6 = E 1 E2 E 3 1 0 0 0
e7 = E1 E 2 E 3 1 0 0 1
e8 = E 1 E 2 E 3 0 0 0 0

Uma vez que as probabilidades dos eventos elementares ej sejam determinadas, a operacionalização da
avaliação dos eventos de sistema é muito simples, independentemente da complexidade do evento de sistema.
É também muito fácil determinar probabilidades condicionais e derivadas das probabilidades dos eventos de
sistema. Uma limitação da técnica é que o tamanho do problema cresce exponencialmente com o número
de componentes do sistema. Ainda assim, sistemas com até dez componentes podem ser avaliados utilizando
programação em computador. Sugestões para a montagem dos vetores de eventos c e de probabilidades p, em
problemas de grandes dimensões, são apresentadas em (Song & Kang, 2009). Quando os eventos elementares
são dependentes, a construção do vetor de probabilidades p não é trivial, e requer a identi cação das variáveis
Q responsáveis por efeitos comuns. Um vetor de probabilidades condicionais p(q) é obtido, em função das
variáveis comuns, e a probabilidade do evento composto é obtida pelo teorema da probabilidade total:
Z
PSY S = ct p(q) fQ (q)dq.
Q

A grande limitação da técnica de multiplicação de matrizes é a determinação das probabilidades de todos


os eventos elementares que compõe o espaço amostral. Como vimos neste capítulo, em problemas de con a-
bilidade estrutural, na melhor das hipóteses conseguimos determinar limites para as probabilidades envolvidas
na união ou intersecção de eventos de nidos por estados limites. Ainda assim, quando a informação sobre as
probabilidades dos eventos elementares é incompleta, ou dada na forma de limites, limites para a con abilidade
do sistema podem ser obtidos pela solução de um problema de programação linear. Neste problema, o vetor de
probabilidades elementares desconhecidas p é a variável de projeto, e as probabilidades elementares conhecidas
148 CONFIABILIDADE DE SISTEMAS

são utilizadas como restrições:


2 3
m
X
pmin = arg min 4ct p j A1 p = b1 , A2 p ¸ b2 , pj = 1, p 2 R+ 5 ,
j=1
2 3
m
X
pmax = arg min 4ct p j A1 p = b1 , A3 p · b3 , pj = 1, p 2 R+ 5 ,
j=1

sendo A1 , A2 , e A3 matrizes cujas colunas são vetores de eventos cujas probabilidades ou limites são conhecidos;
e b1 , b2 , e b3 vetores das probabilidades ou limites conhecidos. Os limites da con abilidade do sistema são
obtidos a partir dos vetores solução do problema de programação linear:

ct pmin · PSY S · ct pmax .

Song & Kiureghian (2003) demonstram que a solução do problema de programação linear acima resulta nos
limites mais estreitos possíveis para a probabilidade de falha do sistema, para o conjunto de informações dadas
(conhecidas).

4.4 SISTEMAS REDUNDANTES E COLAPSO PROGRESSIVO

4.4.1 Introdução
Estruturas usuais de pontes, prédios, ginásios, galpões, barragens, etc., são muitas-vezes hiper-estáticas. Isto
signi ca que di cilmente tais estruturas colapsam sob ações usuais de projeto, como peso próprio, ações de
utilização e do vento, ou mesmo terremotos. No entanto, tais estruturas eventualmente são submetidas à ações
excepcionais, como aquelas decorrentes de incêndios, explosões, impacto de veículos, etc. Ainda que não sejam
su cientes para provocar o colapso direto da estrutura, tais ações excepcionais podem provocar danos localizados,
como a perda de elementos portantes: colunas, paredes, vigas ou lajes. Se a estrutura não estiver bem amarrada,
ou não houverem caminhos de carga alternativos, os danos iniciais localizados podem se propagar, levando ao
colapso parcial ou global da estrutura.
De fato, há diversos registros históricos recentes de colapsos parciais ou globais, ocorridos sob gatilho de danos
iniciais localizados. A torre de apartamentos Ronan Point (UK, 1968) sofreu colapso parcial após explosão de
botijão de gas na cozinha do 18o andar. O prédio Skyline Plaza (US, 1973) sofreu danos progressivos e colapso
parcial após remoção prematura de escoras. Outros exemplos incluem ataques terroristas de Oklahoma City
(1995), às torres de Khobar (1996) e ao World Trade Center (NY, 9/11, 2001); em todos estes exemplos, os danos
nais foram signi cativamente maiores do que os danos localizados causados diretamente pelos terroristas. No
Brasil, observamos recentemente o colapso do edifício Wilton Paes de Almeida (2018), sob incêndio de grandes
proporções. Estes eventos chamaram a atenção da comunidade de engenharia de estruturas para a necessidade
de prever a robustez de estruturas sujeitas a danos localizados, resultando em normas e recomendações de
projeto como DoD (2013) e GSA (2013).
Retomando o conceito de robustez, apresentado na Seção 3: é admissível que uma estrutura sujeita à ações
excepcionais como incêndios, explosões, impacto de veículos ou terremotos de grandes proporções sofra danos
localizados. No entanto, o bom projeto deve garantir que a extensão nal dos danos não seja desproporcional
à intensidade das ações, ou à extensão do dano inicial imposto à estrutura.
4.4. SISTEMAS REDUNDANTES E COLAPSO PROGRESSIVO 149

Duas características típicas das ações excepcionais são: a pequena probabilidade de ocorrência; e a grande
intensidade. A decisão de reforçar uma estrutura para que suporte tais ações, ou a perda de um elemento por-
tante, por exemplo, é um típico caso de tomada de decisões na presença de incertezas. A teoria de con abilidade
das estruturas é própria para abordar o problema.
Multiplas ameaças podem levar à ocorrência de ações excepcionais em estruturas. Sob múltiplas ameaças, a
probabilidade de colapso é dada por:
XX
P [C] = P [CjLD, H]P [LDjH]P [H] (4.31)
H LD

sendo P [C] a probabilidade de colapso, P [H] a probabilidade de ocorrência de uma ameaça, P [LDjH] a proba-
bilidade de ocorrência de dano local, dada a ameaça, e P [CjLD, H] a probabilidade de ocorrência de colapso,
condicional à ocorrência da ameaça e do dano local. O somatório em H representa as várias ameaças à inte-
gridade de uma estrutura, como incêndio, explosão, impacto veicular, terremoto; a soma sobre LD indica os
possíveis danos locais: perda de uma ou mais colunas, perda de parede portante, ruptura de laje, ruptura de
elemento de ligação, etc.
Os riscos associados ao colapso progressivo podem ser mitigados atuando-se nas probabilidades ou nas
consequências. Especí camente, o risco pode ser mitigado em três frentes:

(A) controlando a ameaça, ou reduzindo sua frequencia de ocorrência, termo P [H];


(B) controlando ou limitando o dano local, termo P [LDjH];

(C) controlando a propagação do dano, termo P [CjLD, H].

O controle da ameaça (ponto A) geralmente envolve medidas sociais ou administrativas, como proibir a
circulação ou presença de material in‡amável ou explosivo, construção de barreiras físicas para evitar a aprox-
imação de veículos à pontos sensíveis da estrutura, educação e treinamento dos pro ssionais responsáveis pela
construção e uso da estrutura. Usualmente, ameaças são caracterizadas por uma frequência de ocorrência
anual. Segundo Ellingwood (2006, 2007) e Ellingwood e Dusenberry (2005), a frequência de ocorrência de ex-
plosões de gas e incêndios está entre 10¡6 e 10¡5 eventos por ano. Para ameaças desta magnitude, o produto
P [CjLD, H] £ P [LDjH] deve ser limitado a algo entre 0, 01 e 0, 1; ou seja: como a probabilidade de ocorrência
da ameaça é pequena, admite-se uma probabilidade de colapso maior do que a usual (pois 0, 1 £ 10¡5 = 10¡6 ).
O controle da ameaça envolve construção de árvores de falha, discutidas na Seção 4.5.
O controle do dano local (ponto B) implica em medidas de reforço dos elementos que podem ser alvo de ações
excepcionais. Reforçar localmente a estrutura pode ser inviável, devido às signi cativas incertezas, quanto às
possíveis intensidades das ações excepcionais. Por exemplo, ondas de pressão decorrentes de explosões variam
muito em função do potencial explosivo do material, bem como da carga e da distância ao ponto de detonação
(Shi e Stewart 2015). Cargas de impacto variam muito com a massa e a velocidade do veículo, bem como da
presença de eventual barreira de proteção. Em função destas incertezas, é comum se admitir que o elemento
estrutural alvo de possível ação excepcional será perdido, independentemente de reforço. Isto implica em
aproximar P [LDjH] = 1, e concentrar os esforços de projeto no ponto (C).
O controle da propagação do dano (ponto C) consiste em medidas para prover:

a. Ductilidade à estrutura, provendo capacidade de absorção de energia e evitando o colapso frágil.


b. Fusos ou segmentação, de forma a conter eventual propagação de danos à uma pequena região da estrutura.
c. Reforço, amarração, arcos compressivos ou ação catenária, para produzir caminhos de carga alternativos,
conforme Figura 4-16.
150 CONFIABILIDADE DE SISTEMAS

Figura 4-16: Comportamento de colapso progressivo de estruturas de CA. (a) mecanismos de re-distribuição
de esforços; (b) arco compressivo; (c) instabilidade snap-through e (d) ação catenária. Ilustração de Praxedes
(2020).

O projeto ao colapso progressivo é de natureza secundária (He et al. 2019), o que signi ca que, usualmente,
as dimensões dos elementos estruturais são determinadas para as ações usuais. Posteriormente, a estrutura é
veri cada para a condição de perda de elemento portante. Típicamente, a análise resulta em aumento das taxas
de armadura nas vigas e lajes imediatamente afetadas pela perda do elemento estrutural.
Há diferentes formas de prover robustez às estruturas, e resistência ao colapso progressivo. A norma AS-
CE/SEI 7-16:2016 distingue entre ações diretas e indiretas. As ações diretas envolvem consideração explícita
da resistência ao colapso progressivo no projeto, e incluem:

(a) Método da resistência local especí ca, que provê resistência su ciente aos elementos chave, para que
resistam às ações excepcionais;
(b) Método dos caminhos de carga alternativos (Alternate Path Method ou APM), que admite o dano inicial
localizado, mas busca produzir caminhos alternativos para absorver o dano, e evitar o colapso progressivo.

As ações indiretas endereçam o colapso progressivo de forma implícita, buscando produzir níveis mínimos
de resistência, continuidade e ductilidade nas estruturas.

4.4.2 Formulação elementar


Normas de projeto brasileiras não prevêem orientações especí cas sobre as condições de análise estrutural para
colapso progressivo ou para prover caminhos de carga alternativos. A norma ASCE/SEI 7-16:2016 apresenta o
chamado “Alternate Path Method”. Sob ação de forças gravitacionais usuais, o projeto estrutural considera:

φRn ¸ 1, 2Dn + 1, 6Ln , (4.32)

sendo R a resistência do elemento ou da estrutura, D a ação permanente e L a ação variável de utilização. O


índice ()n indica valor nominal, e φ < 1 é o fator parcial usual para resistências.
Para veri car a capacidade da estrutura em suportar ações excepcionais, a norma ASCE/SEI 7-16:2016
prescreve:
φRm ¸ 1, 2Dn + 0, 5Ln + An , (4.33)
4.5. ÁRVORES DE FALHAS E EVENTOS 151

sendo Rm a resistência média, e An o efeito da ação excepcional (valor nominal). Admitindo que a ação
excepcional possa levar à perda de elemento(s) portante(s), estes são seletivamente removidos da estrutura, e a
mesma é veri cada considerando:
φRm ¸ 1, 2Dn + 0, 5Ln . (4.34)

Observe que nas Eqs. (4.33) e (4.34) o valor da ação de utilização é reduzido, em comparacão à ação
constante em (4.32). Isto ocorre porque, sob efeito de ações excepcionais, ou da perda de elemento estrutural,
espera-se que a estrutura seja capaz de suportar a parcela sustentada da ação de utilização, e não o seu valor
extremo de 50 anos.
A norma ASCE/SEI 7-16:2016 orienta a utilizar o coe ciente parcial φ usual para o material; já a norma
ASCE 41:2017 recomenda φ = 1 para colapso progressivo sob ação de sismos.
De acordo com o EUROCODE (EN 1990:2002), sob ações excepcionais e perda de elemento estrutural, a
veri cação e eventual reforço são feitos para:
µ ¶
rk
R ¸ 1, 0Dn + 0, 5Ln ,
γR

sendo γ R o fator parcial de material e rk a resistência característica do material.

4.4.3 Análise de custo-benefício do projeto para caminho de carga alternativo


Como vimos nesta seção, o colapso progressivo de estruturas hiperestáticas pode ocorrer quando estas são sub-
metida a ações excepcionais, que podem resultar na perda de um ou mais elementos estruturais. As ações
excepcionais tem, típicamente, pequena probabilidade de ocorrência, mas grande impacto nos esforços solici-
tantes, caso resultem na perda de um elemento portante. Neste contexto, convém analisar qual a relação de
custo-benefício de se reforçar estruturas para prover caminhos de carga alternativos. Típicamente, este tipo
de análise envolve os custos de construção da estrutura, os custos de reforço estrutural, e os custos esperados
de falha. Estes últimos são calculados como o produto do custo (estimado) de colapso parcial ou global, pelas
respectivas probabilidades de colapso.
Estudos recentes têm demonstrado que o reforço estrutural só se justi ca, do ponto de vista econômico,
quando a ameaça é realmente relevante, ou seja, quando o termo P [H] ou o produto P [LDjH] £ P [H] (Eq.
4.31) estão acima de aproximadamente 10¡4 por estrutura por ano. Isto inclui o estudo de pontes icônicas
(Thöns & Stewart 2019), prédios regulares convencionais (Beck et al. 2020, 2021) e mesmo prédios públicos do
governo dos Estados Unidos da América (Stewart 2017; Thöns & Stewart 2020), alvos frequentes de atentados
terroristas. Complementarmente, o custo-benefício pode ser positivo para danos iniciais limitados em prédios
de grande altura (Beck et al. 2021b). Estudos de Beck et al. (2020, 2021), Praxedes (2020) e (Praxedes &
Yuan, 2021) mostram que o custo-benefício é positivo quando as medidas de reforço são pontuais e o custo do
reforço é pequeno, em comparação ao custo de construção.

4.5 ÁRVORES DE FALHAS E EVENTOS


O estudo de eventos complexos, como o colapso progressivo de estruturas hiperestáticas formadas por muitos
elementos, requer ferramentas que possam decompor este evento em combinações de eventos elementares. Por
outro lado, falhas estruturais difícilmente ocorrem sob condições normais de uso e operação. Geralmente,
152 CONFIABILIDADE DE SISTEMAS

combinações especí cas de eventos elementares devem ocorrer, de forma a criar o cenário que pode levar a uma
falha estrutural, ou ao colapso progressivo de um sistema estrutural. Assim como outros grandes acidentes,
falhas estruturais são consequência da combinação de pequenos erros ou incidentes que, de forma isolada, teriam
pouca importância, mas cuja coincidência pode ser fatal. A história dos grandes colapsos estruturais (Petroski
1992, 2006, 2012) é farta de exemplos deste tipo: um erro de projeto, que passa despercebido na veri cação,
que passa despercebido na execução, que coincide com um erro de execução, que coincide com um carregamento
excepcional, etc. A decomposição de um evento principal, como o colapso de um sistema estrutural, em termos
da combinação de eventos elementares necessários para a sua ocorrência, é feita através de árvores de falhas.
Por outro lado, falhas estruturais podem dar origem a diversas consequências, desde a simples perda de
funcionalidade (falha de serviço), até a perda da estrutura (falha última), potencialmente ocasionando danos
materiais a usuários e a terceiros, danos pessoais e danos ambientais. A ocorrência dos diversos cenários de
consequências de falha vai depender da existência de planos de contingência, de barreiras de proteção, de fusíveis
para estancar a progressão do acidente, da presença de pessoas, do potencial para danos ambientais, etc. A
decomposição de eventos iniciais, como um colapso estrutural, no espectro de possíveis consequências, é feita
através de árvores de eventos.
Àrvores de falhas e eventos são parte essencial de análises quantitativas de riscos (Quantitative Risk Analy-
sis), que hoje em dia são obrigatórias no comissionamento de novos empreendimentos na industria química e
em instalações o¤shore no Golfo do México e no Mar do Norte. Nesta seção, àrvores de falhas e eventos são
descritas de maneira super cial; maiores detalhes podem ser encontrados em Dhillon (1999), Bedford e Cooke
(2001), Vinnem (2007), Birolini (2010) e Modarres et al. (2017). Um exemplo simples é apresentado, envolvendo
falha estrutural de um vaso de pressão.

4.5.1 Árvore de falhas


Árvores de falhas são utilizada para decompor um evento principal (geralmente, falha do sistema, gerando um
acidente) em combinações de eventos elementares que levam à ocorrência do evento principal (Figura 4-17).
Este processo de decomposição continua até que o evento principal esteja desmembrado em eventos básicos,
cuja probabilidade de ocorrência seja conhecida ou possa ser calculada. Os eventos elementares envolvem
falhas isoladas de equipamento, falhas humanas, ou incidentes isolados, como desvio anormal de parâmetros
de operação, princípios de incêndio, vazamentos, etc. As conexões entre os eventos elementares são feitas
principalmente através de portas AND (eventos em paralelo) e OR (eventos em série).
Árvores de falha podem ser utilizadas tanto para análises quantitativas como qualitativas. Claramente, há
inúmeras vantagens em se efetuar primeiramente uma análise qualitativa.

Análise qualitativa

Árvores de falha são uma maneira sistemática de organizar e identi car os componentes e incidentes que podem
levar a ocorrência de um acidente de maiores proporções (evento principal). Além de identi car as prováveis
causas de acidentes, árvores de falha permitem identi car combinações de incidentes que levam à falha, e que
de outra maneira poderiam passar desapercebidas.
Uma análise puramente qualitativa já é su ciente para orientar o projeto de um sistema. Permite identi car
as sequências críticas de eventos, que mais provavelmente levam à falha do sistema. Estas sequências são
chamadas de caminhos críticos de falha ou minimal cut sets (Figura 4-5). Os caminhos críticos que podem
levar ao evento principal podem ser identi cados em uma análise qualitativa. A probabilidade de ocorrência
do evento principal pode ser minimizada reduzindo a probabilidade de ocorrência dos eventos que compõe o
caminho crítico. Por meio dos caminhos críticos, podemos simpli car consideravelmente a árvore de falha de
um sistema muito complexo.
4.5. ÁRVORES DE FALHAS E EVENTOS 153

Figura 4-17: Árvore de falhas mostrando eventos elementares e evento principal.

Análise quantitativa

A análise quantitativa da probabilidade de ocorrência do evento principal requer a quanti cação da probabilidade
de ocorrência dos eventos elementares, e o cálculo das probabilidades associadas às interações (portas AND, OR
e outras).
Taxas de falhas de humanos, na realização de tarefas especí cas e repetitivas, são compiladas em manuais
práticos (Kirwan B, 1994).
Probabilidades e/ou taxas de falhas de componentes mecânicos como compressores, bombas, acionadores,
motores, rolamentos; ou de componentes eletro-eletrônicos como placas de circuitos, relés, válvulas, resistores,
capacitores, etc., são registradas em bases de dados, a partir de históricos de falhas observadas, e apresentadas
na forma de tabelas. Em geral, estes dados são compilados por comunidades que atuam em determinadas áreas,
por exemplo (Dhillon, 1999):
Eletro-eletrônicos: Eletronic Device Failure Analysis Society (EDFAS);
Eletro-eletrônicos: Institute of Electrical and Electronics Engineers (IEEE);
Equipamentos de usinas nucleares: Nuclear Plant Reliability Data System (NPRDS);
Usinas geradoras de energia: National Electric Reliability Council (NERC);
Equipamentos da industria de óleo e gás: O¤shore and Onshore Reliability Data (OREDA);
Falhas em dutos e dutovias: United Kingdom Onshore Pipeline Operators’ Association (UKOPA), European
Gas pipeline Incident data Group (EGIG) e Conservation of Clean Air and Water in Europe (CONCAWE).
Na análise simpli cada de sistemas complexos, é comum assumir a independência entre eventos associados em
paralelo; logo, a probabilidade de avançar por uma porta AND é determinada pelo produto das probabilidades
individuais. Também de forma simpli cada, eventos em portas OR são assumidos como mutuamente exclusivos;
logo, a probabilidade de avançar por uma porta OR é dada pela soma das probabilidades de ocorrência dos
eventos elementares.
Taxas de falhas geralmente são dadas em termos de frequências relativas (e.g., falhas por ano, falhas por
154 CONFIABILIDADE DE SISTEMAS

hora). O cálculo de probabilidade em uma porta AND admite apenas uma entrada do tipo frequência relativa;
caso contrário, o resultado se tornaria algo como “falhasn por anon ”, o que obviamente não faz sentido. No
entanto, se uma das entradas for uma frequência relativa e as demais entradas forem probabilidades, o resultado
é obtido em termos de frequência relativa. Na operação OR, não há di culdade em combinar várias taxas de
falha, desde que a medida de tempo seja a mesma.

Características de àrvores de falha

Segue uma lista de características de àrvores de falha:

1. não representam todos os modos de falha de um sistema;


2. analisa eventos principais a partir de suas causas primárias;
3. desmembra eventos principais em eventos elementares, cuja taxa de ocorrência é conhecida ou pode ser
calculada;
4. pode representar componentes em série e/ou paralelo, com redundância ativa ou passiva;
5. detecta caminhos críticos que mais provavelmente levam à falha do sistema;
6. exigem uma de nição precisa das fronteiras do sistema;
7. programas de computador disponíveis para análise de grandes sistemas;
8. pode incluir falha de equipamento e falha humana na mesma análise;
9. atenção com os modos de falha comuns, pois a análise quantitativa é baseada nas hipóteses de independên-
cia e mutua-exclusividade entre eventos!

4.5.2 Árvores de eventos


Árvores de eventos servem para identi car, de forma sistemática, todos os possíveis resultados de um evento
inicial, e avaliar as probabilidades associadas a cada resultado (consequência). Árvores de eventos são essencial-
mente ferramentas de avaliação de riscos, que permitem quanti car a efetividade de medidas de mitigação, como
planos de contingência, barreiras e sistemas de proteção, etc. O desenvolvimento se dá pela criação de pontos
de bifurcação, associados à: entrada em operação de sistemas de segurança, intervenção humana, condições am-
bientais no momento do incidente, etc. Os galhos da árvore rami cam nestes pontos, de acordo com o número
de caminhos (cenários) possíveis, dada a intervenção. Uma árvore de eventos genérica é ilustrada na Figura
(4-18).

Construção de árvores de eventos

A construção de árvores de eventos pode ser dividida em:

1. de nição do evento inicial, que pode ser uma falha de equipamento, um acidente, vazamento, explosão,
impacto, perda de elemento estrutural, etc;
2. de nição dos eventos secundários relevantes, que provocam as bifurcações dos galhos da árvore. Cada
rami cação é associada a uma probabilidade de ocorrência. A soma das probabilidades de ocorrência de
todos os galhos que rami cam de um nó deve ser unitária;
3. traçado dos caminhos de falha, distinguindo consequências em termos de gravidade. Os caminhos de falha
mostram onde devem ser concentrados os esforços para diminuir as consequências do acidente;
4.5. ÁRVORES DE FALHAS E EVENTOS 155

Figura 4-18: Árvore de eventos mostrando evento inicial e consequências.

4. realização da análise qualitativa;

5. realização da análise quantitativa.

Avaliação qualitativa

Uma avaliação qualitativa em árvore de eventos pode fornecer informações importantes, como:

1. o papel e adequação de sistemas de segurança: a análise revela a efetividade de um equipamento de


segurança e pode revelar a necessidade de equipamento adicional;
2. o papel de barreiras de proteção, formadas por equipamentos, ações e medidas que tem como nalidade
conter a propagação da cadeira de eventos;
3. efeitos de mudanças no projeto, e.g., mudar uma tubulação de gás ou líquido in‡amável para longe de
fontes potenciais de ignição;
4. papel do plano de contingências e da resposta de emergência. Existe um plano de contingências? Há
previsão de resposta de emergência no evento de um acidente? Esta resposta é su ciente para minimizar
as consequências?

Avaliação quantitativa

A probabilidade de ocorrência de cada resultado possível é obtida multiplicando as probabilidades dos eventos
situados ao longo do caminho que leva aquele resultado. Quando as consequências podem ser medidas em termos
monetários, o produto do custo pela probabilidade resulta em um custo esperado. A soma das probabilidades
de todos os resultados possíveis deve ser unitária.

Características de árvores de eventos

São características de árvores de eventos:

1. fáceis de construir e de avaliar;


156 CONFIABILIDADE DE SISTEMAS

2. há risco de aumentar muito, a medida que mais eventos secundários são considerados;
3. possibilita a avaliação de riscos, incluindo custos esperados de falha;
4. evidencia os efeitos de falhas;
5. mostra a sequência de um acidente;
6. é própria para análise de segurança;
7. sequências de grande signi cado podem ser analisadas usando árvores de falha.

4.5.3 Exemplo de árvores de falhas e de eventos: ruptura de vaso de pressão


Nesta seção apresentamos um exemplo simples, acadêmico, de construção de árvores de falha e de eventos. O
exemplo envolve falha por sobrepressão de um vaso de pressão cilíndrico de paredes nas, formado por material
frágil. A tensão circunferencial (hoop stress) é dada pela clássica equação de Barlow: σ = pi ri /t, sendo pi a
pressão interna, ri o raio interno e t a espessura da parede do vaso. Sendo σu a tensão última do material, a
equação de estado limite pode ser escrita como:

gvaso (X) = σu ¡ pi ri /t. (4.35)

Di cilmente a ruptura de um vaso de pressão que não contém defeitos como trincas de fadiga ou corrosão
falha sob condições normais de operação. No entanto, o processo industrial do qual este vaso de pressão faz
parte pode produzir pressões anormais, signi cativamente maiores do que a pressão de projeto. Estas pressões
anormais podem produzir uma falha estrutural por sobrepressão. O exemplo consiste em determinar uma árvore
de falhas, identi cando os eventos que podem levar a uma pressão anormal, bem como uma árvore de eventos,
para analisar o espectro de possíveis consequências. Portanto, o problema de con abilidade estrutural associado
à Eq. (4.35) não é resolvido.
O vaso de pressão objeto de estudo está ilustrado na Figura 4-19. Ele está dotado de uma válvula de alívio
de pressões, de um manômetro associado a um alarme, e há um funcionário (operador) responsável por resolver
qualquer problema operacional relacionado ao equipamento.

Exemplo 9 Árvore de falhas para pressão anormal em vaso de pressão

O processo industrial do qual o vaso faz parte eventualmente produz aumentos diretos (primários)
de pressão com uma frequência de 0,01 ocorrências por ano. O processo produz aumentos de temperatura
interna, que levam ao aumento de pressão por expansão volumétrica, com uma frequência de 0,02 ocorrências
por ano. Em ambos os casos, a válvula de alívio é a proteção primária; no entanto, esta tem uma taxa
de falhas de 0,001 por ano. O aumento da pressão se propaga se a válvula de alívio falhar, tanto para
um aumento primário de pressão, como para um evento de aumento de temperatura. A árvore de falhas
se inicia com estes três eventos, conforme ilustrado na Figura 4-20. Os eventos avançam por duas portas
AND; a gura ilustra as probabilidades calculadas assumindo independência entre os eventos.
A ocorrência de pressão anormal, devido à falha da válvula de alívio, deveria ser observada pelo operador,
com base na leitura do manômetro ou na escuta do alarme sonoro. No entanto, em uma a cada 100
ocorrências, o operador falha, isto é, não adota as medidas corretivas necessárias para reduzir a pressão no
vaso. Por outro lado, o manômetro e o alarme também podem falhar; a taxa de falhas destes equipamentos
é de 0,001/ano. Dois eventos devem ocorrer para que a pressão anormal se propague: aumento de pressão
e falha do operador ou falha do equipamento. A associação entre os eventos está ilustrada na gura.
4.5. ÁRVORES DE FALHAS E EVENTOS 157

Figura 4-19: Exemplos de árvores de falhas e eventos: vaso de pressão.

Assumindo que os eventos na porta OR são mutuamente exclusivos, as probabilidades ilustradas na Figura
4-20 são obtidas. A probabilidade de se observar um evento de pressão anormal neste vaso é de P [P A] = 3, 3
10¡7 /ano.
A probabilidade de ocorrer a ruptura do vaso, dado um cenário de pressão anormal, poderia ser calculada
como P [F jP A] = P [gvaso (X) · 0], sendo pi a pressão anormal. A probabilidade incondicional é dada por:

pf = P [F jP A]P [P A].

Exemplo 10 Árvore de eventos para ruptura de vaso de pressão por sobrepressão

Agora, consideremos que uma ruptura ocorreu, devido a uma sobrepressão (ou devido a qualquer outra
razão). Quais as possíveis consequências deste acidente de origem estrutural? Ao construir a árvore de
eventos, consideramos que centenas de vasos de pressão semelhantes fazem parte deste processo industri-
al. Alguns processam substâncias tóxicas, outros não. Alguns estão dotados de barreiras de contenção
para vazamento de líquidos. Alguns estão instalados em partes da planta onde há mais, ou menos trabal-
hadores por perto. A maior parte das rupturas leva a vazamentos; outras ocorrem de forma explosiva, com
propagação de gases. A Figura 4-21 é autoexplicativa: ela ilustra a rami cação dos eventos e mostra as
probabilidades associadas a cada rami cação. A Tabela (4.4) lista todas as possíveis consequências, e os
custos estimados associados a cada cenário de consequências. A tabela também mostra as probabilidades
associadas a cada rami cação: quando não há rami cação, a probabilidade é unitária. Na penúltima coluna
é mostrada a probabilidade de cada cenário, obtida multiplicando as probabilidades dos eventos ao longo
de cada caminho. Observe que a soma destas probabilidades é um! A última coluna da Tabela (4.4) mostra
o produto do custo de falha pela probabilidade de ocorrência do cenário: observe que os maiores termos de
custo esperado de falha correspondem aos cenários de consequências C3 e C7 .
158 CONFIABILIDADE DE SISTEMAS

Figura 4-20: Árvore de falhas para vaso de pressão.

Tabela 4.4: Consequências de falha de vaso de pressão em processo industrial (dados hipotéticos).
Consequências Custo p1 p2 p3 p4 P [Ci ] cef
C1 Graves danos ambientais e pessoais 130 0,1 1 0,2 0,4 0,008 1,040
C2 Graves danos ambientais 90 0,1 1 0,2 0,6 0,012 1,080
C3 Graves danos materiais e pessoais 70 0,1 1 0,8 0,5 0,040 2,800
C4 Graves danos materiais 30 0,1 1 0,8 0,5 0,040 1,200
C5 Danos ambientais e pessoais 40 0,9 0,4 0,3 0,3 0,0324 1,296
C6 Danos ambientais 20 0,9 0,4 0,3 0,7 0,0756 1,512
C7 Danos materiais 10 0,9 0,4 0,7 1 0,252 2,520
C8 Danos materiais localizados 3 0,9 0,6 0,7 1 0,378 1,134
C9 Perda de produção 1 0,9 0,6 0,3 1 0,162 0,162
Soma: 1,0 12,744
4.5. ÁRVORES DE FALHAS E EVENTOS 159

Figura 4-21: Árvore de eventos para falha de vaso de pressão.


160 CONFIABILIDADE DE SISTEMAS
Capítulo 5

SIMULAÇÃO DE MONTE CARLO

Simulação é uma forma de experimentação numérica. Segundo Rubinstein (1981) ou Rubinstein & Kroese
(2008):

“Simulação é uma técnica numérica para realizar experimentos em computador, com base em mo-
delos lógicos e matemáticos, de modo a descrever o comportamento de sistemas complexos”.

Simulação de Monte Carlo é o nome dado a simulação que envolve a utilização de números aleatórios. O
nome é uma referência à cidade de Monte Carlo, no principado de Mônaco, famosa por seus cassinos.
A simulação numérica permite a solução de problemas complexos em inúmeras áreas. Aplicações vão da
engenharia às nanças, passando pela administração, matemática, física, medicina, biologia, astro-física, neuro-
ciências, etc. Na simulação, não há limites para a complexidade do modelo: se o modelo pode ser resolvido,
pode ser utilizado em simulação. O único fator limitante é a capacidade computacional.
Em engenharia de estruturas, a simulação de Monte Carlo ataca tão bem problemas lineares como não-
lineares, estáticos ou dinâmicos. Novamente, a capacidade computacional, ou o chamado “custo” de processa-
mento, é o único fator limitante. Em con abilidade estrutural, a simulação resolve, com a mesma facilidade,
problemas envolvendo uma única equação de estado limite, ou várias equações com associação em série, em
paralelo ou mista (sistemas). A solução de problemas de con abilidade dependente do tempo se torna (quase)
tão simples como a de problemas independentes do tempo.
Em engenharia, simulação (numérica) é o nome dado a toda técnica (numérica) que permite resolver em
computador, de forma aproximada e através de alguma técnica de discretização do domínio, equações diferenciais
e integrais. Por envolver soluções repetitivas, a simulação de Monte Carlo é própria para solução em computador.
A solução da parte mecânica do problema pode ser através de algoritmos numéricos (elementos nitos, de
contorno, diferenças nitas, etc.), ou de equações analíticas. Neste texto, utilizamos a palavra “simulação”
como abreviação de Simulação de Monte Carlo; utilizamos também a sigla SMC.
Do ponto de vista da con abilidade estrutural, a simulação pode ser entendida como uma forma de realizar
numericamente um experimento que não é realizável na prática. Este experimento consiste em testar a estru-
tura para todas as combinações possíveis das incertezas em resistências e ações, representadas como variáveis
aleatórias ou processos estocásticos. Tal experimento não é realizável na prática porque:

1. o custo de construção de estruturas é muito elevado para se construir múltiplos protótipos para teste, seja
em escala real ou reduzida;
2. as possibilidades de uso de modelos em escala são limitadas;
3. a probabilidade de falha de sistemas estruturais é usualmente muito pequena, o que exigiria um número
muito grande de protótipos para permitir a observação de falhas.
162 SIMULAÇÃO DE MONTE CARLO

Nas décadas de 70 e 80 foram feitos muitos avanços em teoria de con abilidade estrutural. Na época, devido à
incipiente mas limitada capacidade dos computadores, a grande ênfase esteve em desenvolver métodos analíticos
como o FORM, SORM e limites para a probabilidade de falha de sistemas. Na época, a simulação de Monte
Carlo era tida como uma forma de veri car a solução dos métodos analíticos, ou como um último recurso, quando
os métodos analíticos falhavam. Com o aumento recente e explosivo na capacidade dos computadores, e com
a possibilidade de processamento em paralelo, as técnicas de simulação de Monte Carlo tem conquistado cada
vez mais espaço. Contam a favor do método a facilidade de implementação, a generalidade em atacar diferentes
problemas, e a robustez das soluções. Técnicas de amostragem inteligente tem sido desenvolvidas para reduzir
o número necessário de amostras, viabilizando a solução de problemas numéricos com grande número de graus
de liberdade e pequenas probabilidades de falha.
Com frequência, métodos de simulação são chamados de métodos exatos: a) em teoria, o resultado da
simulação tende ao resultado exato, quando o número de amostras tende ao in nito; b) as técnicas de simulação
evitam certas aproximações empregadas nos métodos analíticos. No entanto, a concepção de exato se limita
aos dois fatores acima. Na realidade, métodos de simulação estão sujeitos a erros de modelo, a aproximações
algorítmicas na geração de números aleatórios, e outros. Os resultados dependem fortemente da qualidade dos
números aleatórios utilizados: a geração destes números é parte crítica do processo.

5.1 FORMULAÇÃO
A probabilidade de falha de um elemento ou de um sistema estrutural envolve uma integral da função de
densidade de probabilidade conjunta fX (x) sobre o domínio de falha ­f :
Z
pf = fX (x)dx. (5.1)
­f

Como vimos, o domínio de falha ­f pode ser dado por uma única equação de estado limite ou por qualquer
combinação de estados limites em série, em paralelo ou mista (Eq. 4.4):

­f = fxj [k [\i2Ck (gi (x) 6 0)]g, (5.2)


sendo gi (x) a equação de estado limite para o i-ésimo modo de falha. Utilizando uma função indicadora I[x]
tal que:

I[x] = 1 se x 2 ­f (falha),
I[x] = 0 se x 2
/ ­f (sobrevivência), (5.3)

podemos integrar a Eq. (5.1) sobre todo o domínio:


Z
pf = I[x]fX (x)dx = E[I[X]]. (5.4)
­

Cada avaliação da função indicadora implica em uma avaliação da(s) equação(ões) de estado limite do
problema. Por de nição (Eq. A.13), esta expressão representa o valor esperado da função indicadora I[X]. Este
valor esperado pode ser estimado, com base em uma amostra de tamanho nito, através de (Eq. A.17):
5.1. FORMULAÇÃO 163

nS
1 X n
pf ¼ pbf = I[xk ] = f , (5.5)
nS k=1 nS

onde o chapéu (b) indica uma estimativa, nf é o número de pontos no domínio de falha e nS é o número
de amostras (sub-índice ()S do inglês samples). A Eq. (5.5) representa um estimador não-tendencioso da
probabilidade de falha, uma vez que pbf ! pf com nS ! 1.
O estimador na Eq. (5.5) está baseado em uma amostra de tamanho nito, e portanto está sujeito a uma
incerteza estatística, que corresponde à variância do estimador pbf . Utilizando a Eq. (A.98), temos que:
" # "n #
1 X
nS X 1 X
S nS
1
V ar[b
pf ] = V ar I[xk ] = 2 V ar I[xk ] = 2 (I[xk ] ¡ pbf )2 . (5.6)
nS nS nS
k=1 k=1 k=1

A variância de pbf corresponde à incerteza na estimativa de pf , ou incerteza estatística da simulação. A


Eq. (5.6) mostra que esta incerteza diminui à medida que aumenta o número de simulações nS . Como o
estimador na Eq. (5.5) é não-tendencioso, resulta que V ar[bpf ] também é igual ao erro quadrático médio, ou
V ar[b pf ¡ pf )2 ] (Rubinstein & Kroese 2016).
pf ] = E[(b
A identidade de Bienaymé mostra que a variância da soma de variáveis aleatórias não-correlacionadas é igual
a soma das variâncias; portanto, a partir da segunda igualdade na Eq. (5.6) pode-se escrever (Ang & Tang
2007, Rubinstein & Kroese 2016):

"n #
1 X S
1 X
nS
V ar[b
pf ] = V ar I[xk ] = V ar [I[xk ]]
n2S n2S
k=1 k=1
nS
1 X 1
= 2 V ar [I[X]] = V ar [I[X]]
nS nS
k=1
1 ¡ ¢
= E[I[X]2 ] ¡ E[I[X]]2
nS
pf ¡ p2f pf (1 ¡ pf )
= = . (5.7)
nS nS

O coe ciente de variação de pbf é obtido como:


p s s
V ar[bpf ] pf (1 ¡ pf ) 1 1 ¡ pf 1 1
δ pbf = = = ¼p ) nS ¼ . (5.8)
E[bpf ] nS pf nS pf nS pf pf δ 2pbf

A partir da Eq. (5.8) observamos que a avaliação de uma probabilidade de falha da ordem de 10¡p com
δ pbf ¼ 0, 1 = 10¡1 , requer aproximadamente 10p+2 amostras. Para avaliar uma probabilidade de falha com
um precisão de εpf = (b pf ¡ pf )/pf = 0, 1, e um intervalo de con ança de 95%, o número mínimo de amostras
é 4 £ 10p+2 . Para probabilidades de falha típicas em con abilidade estrutural (da ordem de 10¡3 a 10¡6 ), o
número de amostras pode se tornar proibitivo, quando cada avaliação da função indicadora implica na resolução
de modelo(s) numérico(s) com muitos graus de liberdade.
Em outras palavras, o número de amostras necessárias para se atingir alguns poucos pontos no domínio de
falha torna-se muito grande, quando a probabilidade de falha é pequena. Poucos pontos no domínio de falha
levam a uma grande variância dos resultados. Para endereçar este problema e reduzir o número necessário de
simulações, utilizamos técnicas de redução de variância, estudadas na Seção (5.3). O método de Monte Carlo
apresentado nesta seção é conhecido como método de Monte Carlo Simples, Direto, Bruto ou Cru, por não
164 SIMULAÇÃO DE MONTE CARLO

Figura 5-1: Grá co de convergência da pf e intervalo de con ança (I.C.) para SMC simples.

utilizar técnicas de redução de variância.


A partir das Eqs. (5.5 e 5.6), podemos determinar o intervalo de con ança (I.C.) do resultado da simulação:
q q
pf ] · pf · pbf + k V ar[b
pbf ¡ k V ar[b pf ], (5.9)

onde o parâmetro k está relacionado com o nível de con ança desejado, segundo uma distribuição normal. A
Eq. (5.9) presume uma distribuição normal dos dados, o que sempre deve ser veri cado. O emprego de técnicas
especializadas de amostragem, como aquelas baseadas em cadeias de Markov (MCMC), tem potencial de gerar
dados fortemente não-Gaussianos.
Uma forma prática de veri car se o número de amostras empregados é su ciente para resolver determinado
problema com precisão é observar grá cos de convergência de pbf e dos intervalos (Eq. 5.9), em função do
número de amostras (nS ). A Figura 5-1 ilustra um típico grá co de convergência, obtido na solução via SMC
do problema pf = ©(¡β), com β = 2 (amostras obtidas a partir de variável normal padrão). O comportamento
observado na Figura 5-1 é típico: observamos oscilação da média (e da variância), que ocorre por in‡uência dos
números aleatórios, e que diminui à medida que nS aumenta. O intervalo de con ança se torna mais estreito
com aumento de nS , em função da redução da variância, mas depois se estabiliza. O número de amostras deve
ser su ciente para se observar convergência na média, com intervalo de con ança aceitável.
O resultado direto de simulações de Monte Carlo são probabilidades de falha. No entanto, tal qual zemos
para o SORM (Eq. 3.80) ou para sistemas (Eq. 4.13), podemos determinar um índice de con abilidade
equivalente para SMC:

β M C = ©¡1 (1 ¡ pbf ). (5.10)

Este índice pode ser determinado em termos da probabilidade média (b


pf ) ou em termos dos intervalos (Eq.
5.9). A Figura 5-2 ilustra um grá co de convergência em termos de β, correspondente à solução via SMC do
problema pf = ©(¡β), com β = 2. Observamos comportamento semelhante em termos da probabilidade de
falha, Figura 5-1.
5.2. GERAÇÃO DE AMOSTRAS DE VARIÁVEIS ALEATÓRIAS 165

Figura 5-2: Grá co de convergência em β e intervalo de con ança (I.C.) para SMC simples.

Algoritmo 4 Método de Monte Carlo simples ou direto

1. gerar nS amostras xk = fx1 , x2 , ...xn gtk a partir da função conjunta de densidades fX (x);
2. avaliar a função indicadora I[xk ] de falhas para cada amostra;
3. estimar média e variância da probabilidade de falha através das Eqs. (5.5) e (5.6).

5.2 GERAÇÃO DE AMOSTRAS DE VARIÁVEIS ALEATÓRIAS


O método de simulação de Monte Carlo está fundamentado na geração das nS amostras xk = fx1 , x2 , ...xn gtk ,
k = 1, ..., nS . Cada uma destas amostras contém n números aleatórios, gerados segundo a função conjunta
de densidade de probabilidades fX (x). Obviamente, a utilização de computadores facilita esta tarefa para nS
grande. Os métodos apresentados nesta seção são os mais utilizados na prática. Existem também outras técnicas
de maior apelo teórico, mas de difícil aplicação (Rubinstein, 1981; Bratley et al., 1987).

5.2.1 Geração de amostras de uma variável aleatória


A obtenção de uma amostra (aleatória) de uma variável aleatória com função de distribuição cumulativa de
probabilidades FX (x) conhecida pode ser dividida em duas etapas:

1. geração de um número aleatório ui com distribuição uniforme entre 0 e 1;


166 SIMULAÇÃO DE MONTE CARLO

Figura 5-3: Geração de números aleatórios com distribuição prescrita.

2. determinação da inversa da função de distribuição cumulativa de probabilidades:


¡1
xi = FX (ui ). (5.11)

Este procedimento pode ser visualizado na Figura 5-3. Ele pode ser aplicado para qualquer distribuição
estatística conhecida, uma vez que, por de nição, a função de distribuição cumulativa de probabilidades aumenta
monotonicamente entre 0 e 1.
O procedimento acima (Eq. 5.11) é geral, mas não é adequado para distribuições normal e log-normal,
uma vez que não existe expressão analítica exata para a função ©(x) (ver Eq. A.41 e Apêndice F). Amostras
de variáveis aleatórias com distribuição normal ou log-normal podem ser obtidas a partir de um algoritmo
especí co. Um par de amostras independentes y1 e y2 de uma variável normal padrão é obtido a partir de
um par de amostras independentes u1 e u2 , uniformemente distribuídas entre 0 e 1, a partir do algoritmo de
Box-Miller:
p
y1 = ¡2 ln(u1 ) cos(2π u2 ),
p
y2 = ¡2 ln(u1 ) sin(2π u2 ). (5.12)

Amostras da variável X » N (µ, σ) são então obtidas a partir de:

xi = yi σ + µ. (5.13)

Utilizando o mesmo algoritmo, amostras de uma variável log-normal X » LN (λ, ξ) são obtidas de:

xi = exp[yi ξ + λ]. (5.14)

Os dois algoritmos (Eqs. 5.11 e 5.12) estão baseados em amostras de números aleatórios ui com distribuição
uniforme entre 0 e 1. Na próxima seção, veri camos como estes números são obtidos através de algoritmos
recursivos. A geração de vetores de números aleatórios com função conjunta de densidade de probabilidades
fX (x) é descrita na Seção 5.2.4.

5.2.2 Geração de números aleatórios com distribuição uniforme


Números aleatórios com distribuição uniforme entre 0 e 1 são obtidos através de algoritmos recursivos. Um
algoritmo muito utilizado é conhecido como gerador linear congruencial (Lehmer, 1949):
5.2. GERAÇÃO DE AMOSTRAS DE VARIÁVEIS ALEATÓRIAS 167

· ¸
a zj + c a zj + c
uj = ¡ int . (5.15)
m m

Nesta expressão, int[ ] representa a parte inteira, fm, a, cg são constantes que caracterizam o gerador e z0
(primeiro valor da sequência zj ) é a semente do gerador. É fácil perceber que a Eq. (5.15) resulta em números
distribuídos entre 0 e 1. O gerador congruencial funciona a partir de uma sequência de grandes números zj ,
obtida a partir de: · ¸
a zj + c
zj+1 = uj m = a zj + c ¡ m int . (5.16)
m

A sequência de números gerados pelas Eqs. (5.15 e 5.16) é determinística e reproduzível; portanto, a
sequência gerada é dita pseudo-aleatória. O fato da sequência de números pseudo-aleatórios ser reproduzível é
conveniente, quando se deseja comparar ou reproduzir resultados obtidos a partir de simulação.
A qualidade de um gerador linear congruencial depende fortemente das constantes fm, a, cg. Todo gerador
congruencial é cíclico, e o período do ciclo é sempre menor do que m. Isto signi ca que um grande valor m
deve ser utilizado. Além disto, o coe ciente de correlação entre dois números consecutivos é inversamente
proporcional às constantes m e a; portanto, estas duas constantes devem ser grandes. A semente z0 deve ser um
número grande, inteiro e ímpar. Infelizmente, estes conjunto de especi cações não é su cientes para garantir
boa qualidade de um gerador congruencial, conforme veremos.

5.2.3 Teste de geradores lineares congruenciais


O conjunto de constantes fm, a, cg caracteriza um gerador congruencial. Nesta seção empregamos a sintaxe
GLC = fm, a, cg para caracterizar determinado gerador. A informação sobre as constantes do gerador,
juntamente com a semente utilizada, são su cientes para reproduzir uma sequência de números aleatórios.
A qualidade de um gerador de números aleatórios é medida a partir da uniformidade e da independência
dos números obtidos. Os números gerados podem ser testados quanto à independência e quanto à uniformidade
através de testes estatísticos padronizados. Uma maneira simples e visual de veri car a uniformidade das
amostras uj é ordena-las em ordem crescente, atribuindo a cada valor amostrado a probabilidade empírica:

j
FU (uj ) = P [fU < uj g] ¼ ¢
nS

Os pontos (uj , FU (uj )) assim obtidos são plotados em um grá co, e devem resultar em uma linha reta
entre os pontos (0,0) e (nS ,1), correspondente à função acumulada de distribuição de probabilidades da variável
aleatória uniforme U . A Figura 5-4 ilustra resultados deste teste de uniformidade, para conjuntos de 103 e 104
amostras, obtidas com o gerador linear congruencial GLC = fm, a, cg = f231 ¡ 1, 65539, 0g. Este gerador foi
utilizado nos computadores IBM System 360, nos anos 60, e era conhecido como gerador RANDU. A gura
mostra que os números gerados tem, aparentemente, uma distribuição uniforme.
O teste de uniformidade ilustrado na Figura 5-4 não é muito robusto. Um teste mais robusto é o chamado
método de partição do hiper-cubo unitário. Em uma versão “plana” deste teste, os pontos amostrados são
plotados em um grá co bi-dimensional ([0,1]2 ); cada ponto neste grá co é uma dupla (uj , uj+1 ). O espaço
[0,1]2 é dividido em partes iguais, formando quadras. Se os números amostrados tem distribuição uniforme,
então um mesmo número de pontos deveria ser observado em cada quadra. Diferentes testes estatísticos podem
ser utilizados para veri car quão uniforme é esta distribuição em quadras. Alternativamente, uma veri cação
visual pode ser feita. Nesta, veri camos a uniformidade da distribuição dos números no espaço, e a ausência de
tendenciosidades na geração das amostras. A Figura 5-5 ilustra resultados deste teste de uniformidade para o
gerador RANDU, para uma sequência com 104 amostras. À primeira vista, esta gura sugere uma uniformidade
dos números gerados; no entanto, uma observação mais atenta mostra pequenos buracos e sutís concentrações
168 SIMULAÇÃO DE MONTE CARLO

Figura 5-4: Teste de uniformidade do gerador RANDU: GLC = fm, a, cg = f231 ¡ 1, 65539, 0g, nS = 103
(esquerda), nS = 104 (direita), z0 = 111111.

de pontos.
Um teste de uniformidade ainda mais robusto é o método de partição do hiper-cubo unitário em sua versão
3D. Neste teste, pontos (uj , uj+1 , uj+2 ) são plotados em um grá co tri-dimensional (cubo [0,1]3 ). Testes estatís-
ticos podem ser utilizados para veri car a uniformidade da distribuição dos pontos em sub-cubos deste espaço,
ou uma veri cação visual pode ser feita. A Figura 5-6 ilustra este teste de uniformidade para o gerador RANDU.
A perspectiva à esquerda, nesta gura, sugere (mais uma vez) uniformidade das amostras geradas. No entanto,
a perspectiva à direita (que representa apenas outro ponto de vista do conjunto de pontos à esquerda) revela
uma tendenciosidade do gerador RANDU. Percebemos a existência de planos preferenciais de amostragem. Esta
tendência revela uma falha grave do gerador RANDU, que apenas foi descoberta muitos anos depois de sua
introdução pela IBM.
Um gerador linear congruencial aparentemente melhor é utilizado no programa StRAnD (Beck, 2007):
GLC = fm, a, cg = f231 ¡ 1, 41358, 0g. A Figura 5-7 ilustra o teste de partição do hiper-cubo unitário,
para este gerador, no espaço [0,1]3 . Não se percebe, nesta gura, quaisquer tendenciosidades do gerador. Out-
ro gerador que passa nestes testes visuais é o gerador utilizado no programa ISPUD (Borgund et al., 1986):
GLC = fm, a, cg = f231 ¡ 1, 16807, 0g.

5.2.4 Geração de amostras a partir da distribuição conjunta de probabilidades


O método de simulação de Monte Carlo envolve a geração de vetores de números aleatórios xk = fx1 , x2 , ...xn gtk ,
sendo n o número de variáveis aleatórias do problema, que devem ser obtidos a partir da função conjunta de
densidade de probabilidades fX (x).
Na Seção 3.3.1, argumentamos sobre as di culdades de se conhecer, nos problemas práticos, a função con-
junta de probabilidades fX (x). Isto signi ca que esta distribuição deve ser construída a partir de um modelo
apropriado e da informação disponível, o que em geral corresponde às funções de probabilidades marginais e a
índices de correlação entre pares de variáveis aleatórias. O modelo de distribuição a ser utilizado na simulação
de Monte Carlo é idêntico ao modelo utilizado no método FORM (Seção 3.3).
5.2. GERAÇÃO DE AMOSTRAS DE VARIÁVEIS ALEATÓRIAS 169

Figura 5-5: Teste de uniformidade do gerador RANDU em [0,1]2 , nS = 104 , z0 = 111111.

Figura 5-6: Teste de uniformidade do gerador RANDU em [0,1]3 , nS = 104 , z0 = 111111, em dois pontos de
vista.
170 SIMULAÇÃO DE MONTE CARLO

Figura 5-7: Teste de uniformidade do gerador do programa StRAnD em [0,1]3 , nS = 104 , z0 = 111111, em dois
pontos de vista.

Variaveis aleatórias independentes

Se as variáveis aleatórias do problema são independentes, então a função conjunta de densidade de probabilidades
é obtida conforme Eq. (A.60):
n
Y
fX (x) = fXi (xi ), (5.17)
i=1

sendo fXi (xi ) a função de densidade de probabilidades marginal da variável Xi . Isto signi ca que os números
aleatórios podem ser gerados de forma independente dos demais, utilizando as Eqs. (5.11), (5.13) ou (5.14).

Variáveis aleatórias correlacionadas

A existência de correlação entre as variáveis aleatórias do problema deve ser imposta ao gerar amostras do
vetor xk = fx1 , x2 , ...xn gtk . Na simulação de Monte Carlo, a correlação é tratada de maneira inversa ao que
ocorre na solução via FOSM ou FORM. Na solução via FORM, a correlação entre as variáveis é eliminada ao
realizarmos a transformação para o espaço normal padrão. Na solução via simulação, a correlação é imposta a
pontos amostrados no espaço normal padrão, como segue.

Modelo de Nataf O modelo de Nataf pode ser utilizado para gerar amostras de variáveis aleatórias cor-
relacionadas. Conforme vimos na Seção 3.3, o modelo de Nataf consiste em construir uma aproximação para
a função conjunta de densidade de probabilidades fX (x), a partir de uma função de densidade normal padrão
multi-variada φn (z, RZ ) (Eq. 3.55). Utilizando este modelo, a correlação entre as variáveis X pode ser imposta
em uma amostra X = x a partir de uma amostra z envolvendo variáveis normais padrão correlacionadas. Esta
correlação, por sua vez, pode ser imposta em um vetor de variáveis normais padrão y, sem correlação, utilizando
as matrizes de transformação da Seção 3.3.
Inicialmente, obtemos uma amostra yk = fy1 , y2 , ..., yn gtk de um vetor formado por números aleatórios
5.3. TÉCNICAS DE AMOSTRAGEM INTELIGENTE 171

normais padrão independentes, conforme a Eq. (5.12). Esta amostra é transformada para o espaço Z através
de:
zk = fzi gti=1,...,n = Jzy yk , (5.18)
sendo Jzy a matriz Jacobiana de transformação de Y ! Z. A seguir, determinamos o vetor de probabilidades
acumuladas desta amostra (vetor uk ), fazendo:

uk = fui gti=1,...,n = f©[zi ]gti=1,...,n .

Finalmente, a amostra xk é obtida a partir da Eq. (5.11):


¡1
xk = fxi gti=1,...,n = fFX i
¡1
(ui )gti=1,...,n = fFXi
(©[zi ])gti=1,...,n . (5.19)

Note que a matriz de transformação Jzy é a mesma utilizada em FORM, obtida pela decomposição ortogonal
(Eq. 3.62) ou de Cholesky (Eq. 3.67) da matriz de correlação equivalente RZ , Eq. (3.57).

5.3 TÉCNICAS DE AMOSTRAGEM INTELIGENTE


A pequena probabilidade de falha, típica de problemas de con abilidade estrutural, implica em que o número
de simulações necessárias para se atingir alguns poucos pontos no domínio de falha seja muito grande. Como
consequência, no método de simulação de Monte Carlo simples ou direto, o número de amostras necessárias pode
se tornar proibitivamente alto, e/ou a variância dos resultados pode se tornar muito grande. Para endereçar
este problema, e reduzir o número de amostras necessárias, utilizamos técnicas de redução de variância. Estas
se dividem em técnicas de geração das amostras, e técnicas de amostragem inteligente.

5.3.1 Geração das amostras


Variáveis antitéticas

Dois estimadores não tendenciosos da probabilidade de falha, ZA e ZB , podem ser combinados de forma a
produzir um terceiro estimador ZC :
1
ZC = (ZA + ZB ) . (5.20)
2
ZC também será um estimador não tendencioso, pois:

1 1
E[ZC ] = (E[ZA ] + E[ZB ]) = (ZA + ZB ) . (5.21)
2 2
A variância de ZC , no entanto, é:

1
V ar[ZC ] = (V ar[ZA ] + V ar[ZB ] + 2Cov[(ZA , ZB )]) . (5.22)
4
Se os estimadores ZA e ZB forem independentes (e.g., baseados em amostras independentes), o último termo
da Eq. (5.22) se anula. Se os estimadores tiverem correlação negativa, o último termo é menor que zero, e a
variância de ZC resulta menor do que a variância combinada de ZA e ZB . Logo, a variância de ZC , e portanto
172 SIMULAÇÃO DE MONTE CARLO

a incerteza estatística da simulação, pode ser reduzida através da utilização de dois estimadores com correlação
negativa.
A correlação negativa é obtida através de variáveis antitéticas, como segue. Se uma amostra xk é obtida
a partir de uma amostra uk (com distribuição uniforme entre 0 e 1), então a próxima amostra xk+1 é obtida
a partir de (1¡ uk ). Assim, os estimadores ZA e ZB são baseados em nS /2 amostras (alternadas), e resultam
negativamente correlacionados.
Esta técnica de redução da variância é muito fácil de implementar, mas as melhorias são modestas. Em
função disto, as variáveis antitéticas são geralmente combinadas com outras técnicas de redução da variância.

Amostragem por hiper-cubo latino (LHS)

Na amostragem por hiper-cubo latino (Latin Hiper-cube Sampling ou LHS), o domínio de cada variavel aleatória
do problema é dividido em faixas equi-prováveis (Helton & Davis, 2003; Olsson et al., 2003; Helton et al., 2005).
Ao realizar a simulação, cada faixa é amostrada uma única vez, resultando numa distribuição esparsa dos
pontos no domínio (Figura 5-8). Esta técnica é particularmente importante para obter uma cobertura esparsa
e homogênea em problemas multi-dimensionais.
Seja n o número de variáveis aleatórias do problema e nS o número de pontos da amostra. O espaço de
amostragem torna-se n-dimensional. Uma matriz P de dimensões (nS £ n) é gerada, sendo cada uma das n
colunas uma permutação aleatória de 1, . . . , nS . Outra matriz R é gerada (dimensões nS £n), cujos componentes
são números aleatoriamente distribuídos entre (0, 1). A partir destas matrizes, obtemos a matriz S (Olsson et
al., 2003):
1
S = [ski ]nS £n = (P ¡ R) . (5.23)
nS

As amostras são geradas a partir da matriz S:


¡1
xk = fxi gti=1,...,n = fFX i
(ski )gti=1,...,n , (5.24)
¡1
sendo FX i
a inversa da função de probabilidade acumulada da variável Xi .
Técnicas especiais são utilizadas para eliminar a chamada correlação espúria que pode ocorrer na matriz
S (Olsson et al., 2003). A amostragem por hiper-cubo latino pode ser combinada com a amostragem por
importância, o que em geral resulta em uma redução da ordem de 50% no número de simulações necessárias
(Olsson et al., 2003).
A Figura 5-9 compara histogramas obtidos na simulação de uma variável aleatória normal, através de
amostragem simples, variáveis antitéticas e amostragem por hiper-cubo latino (LHS). Veri camos que a amostragem
LHS é mais e ciente, resultando em um histograma mais suave, para o mesmo número de amostras.

5.3.2 Amostragem por importância


Amostragem por importância consiste em utilizar uma função de amostragem, a m de evitar a geração de
amostras longe da região de interesse, ou seja, longe do domínio de falha. Estas técnicas geralmente fazem uso
de alguma informação conhecida a priori, como as coordenadas do ponto de projeto.
As técnicas de amostragem por importância tem sido objeto de muito estudo nos últimos anos. Elas estão
entre as mais e cientes técnicas para diminuir o número de amostras e/ou reduzir a variância dos resultados.
Os pontos de amostragem são gerados a partir de uma função de amostragem hX (x). Multiplicando e
dividindo a Eq. (5.4) por hX (x),obtemos:
Z
fX (x)
pf = I[x] hX (x)dx. (5.25)
­ hX (x)
5.3. TÉCNICAS DE AMOSTRAGEM INTELIGENTE 173

Figura 5-8: Partição de domínio em R2 e amostragem por hiper-cubo latino (LHS).

Figura 5-9: Comparação de histogramas obtidos através de amostragem simples, variáveis antitéticas e
amostragem por hiper-cubo latino (LHS).
174 SIMULAÇÃO DE MONTE CARLO

Figura 5-10: Amostragem por importância usando o ponto de projeto.

Esta expressão corresponde ao valor esperado da função I[x] hfX (x)


X (x)
, em relação à função de amostragem,
hX (x). Este valor esperado pode ser estimado com base em uma amostra de tamanho nS :
nS
1 X fX (xk )
pf ¼ pbf = I[xk ] ¢ (5.26)
nS hX (xk )
k

P
Quando a função de amostragem desloca os pontos para o domínio de falha, o resultado do somatório I[xk ]
será maior do que o somatório original, utilizando fX (x) como função de amostragem. No entanto, comparando
as Eqs. (5.26) e (5.5), veri camos que cada ponto amostrado esta associado a um peso de amostragem wk << 1:

fX (xk )
wk = , (5.27)
hX (xk )

conforme representado no detalhe da Figura 5-10.


O sucesso da amostragem por importância está na escolha da função de amostragem, hX (x). Uma função
mal escolhida pode até piorar os resultados, em relação à amostragem simples. Se a função de amostragem for
tal que:
fX (x)
hX (x) = I[x] , (5.28)
pf
então a estimativa pbf na Eq. (5.26) se torna igual a pf , e apenas uma amostra seria su ciente. Óbviamente,
esta expressão não tem utilidade prática, porque faz uso da própria pf que está sendo avaliada. No entanto,
ela mostra que hX (x) deve ser escolhida de maneira a ser proporcional à I[x] fXp(x)
f
, ou seja, de maneira a ser
proporcional à função de densidades conjunta fX (x) no domínio de falha.
Várias estratégias são propostas na literatura para se determinar a função de amostragem: amostragem por
importância utilizando pontos de projeto (Borgund & Bucher, 1986); amostragem adaptativa (Bucher, 1988;
Karamchandani et al., 1989); método do hipercone (Iman & Canover, 1980); método asintótico (Maes et al.,
1983); simulação direcional (Bjerager, 1988; Melchers, 1992); método kernel adaptativo (Ang & Ang, 1994);
entre outras. Uma análise comparativa do desempenho de algumas destas técnicas é apresentada por Engelund
5.3. TÉCNICAS DE AMOSTRAGEM INTELIGENTE 175

& Rackwitz (1993).

Algoritmo 5 Método de Monte Carlo com amostragem por importância.

1. gerar nS amostras xk = fx1 , x2 , ...xn gtk a partir da função de amostragem hX (x);


2. veri car a ocorrência de falha para cada amostra, através da função indicadora I[xk ];
3. avaliar o peso de cada amostra, a partir da Eq. (5.27);
4. estimar média da probabilidade de falha através da Eq. (5.26);
5. estimar variância da probabilidade de falha usando a Eq. (5.6).

5.3.3 Amostragem por importância utilizando pontos de projeto


Um modo de falha

Uma estratégia muito e ciente é centrar a função de amostragem no ponto de projeto (Borgund & Bucher,
1986). Esta estratégia desloca os pontos amostrados para o domínio de falhas, conforme a Figura 5-10. Esta
vem a ser uma forma de melhorar a qualidade da simulação através do uso de informação conhecida a priori: as
coordenadas do ponto de projeto. O ponto de projeto é encontrado através das técnicas descritas no Capítulo
3. Obviamente, esta técnica de amostragem não pode ser empregada se houver problemas de convergência na
busca pelo ponto de projeto.
Utilizando amostragem por importância no ponto de projeto, o número nS de amostras necessárias torna-se
praticamente independente da ordem de grandeza da probabilidade de falha procurada. Isto ocorre porque
aproximadamente metade das amostras cairá dentro, e metade fora, do domínio de falha.
A Figura 5-11 mostra um grá co de convergência para a simulação de Monte Carlo com amostragem por
importância utilizando o ponto de projeto, para o problema de avaliar por SMC: pf = ©(¡β) com β =
2. A função de amostragem utilizada é a função φ(x ¡ 2). A gura compara o resultado com o grá co de
convergência obtido para amostragem simples (Figura 5-2). Observamos que a convergência dos resultados
utilizando amostragem por importância é muito mais rápida (menor nS ) e que o intervalo de con ança é muito
menor, para um mesmo número de amostras nS .

Múltiplos modos de falha

Para múltiplos modos de falha, podemos construir funções de amostragem multi-modais, conforme ilustrado na
Figura (5-12). Para nLS equações de estado limite, uma função de amostragem multi-modal é obtida como:
n
X LS

hX (x) = pj hXj (x), (5.29)


j=1

sendo pj o peso de amostragem associado ao j-ésimo modo de falha. Cada componente hXj da função de
amostragem é obtido transladando a função original fX (x), de forma que seu ponto médio coincida com o
respectivo ponto de projeto. Os pesos pj são determinados em função da importância relativa de cada modo de
falha. Para modos de falha em série, estes pesos são calculados em termos da estimativa de primeira ordem da
probabilidade de falha:
©(¡βj )
pj = PnLS . (5.30)
j=1 ©(¡β j )
176 SIMULAÇÃO DE MONTE CARLO

Figura 5-11: Grá co de convergência em β e intervalo de con ança (I.C.) para SMC simples e com amostragem
por importância utilizando o ponto de projeto.

Assim, a amostragem se concentra nos pontos de projeto mais importantes. Podemos também estabelecer
um limite inferior para pj (e.g., pj > 0, 1), abaixo do qual um ponto de projeto é desconsiderado na construção
da função de amostragem.
O número total de amostras nS é dividido de forma proporcional aos pesos pj . Cada conjunto de pontos
é amostrado segundo a componente correspondente da função de amostragem, hXj . A função indicadora é
avaliada em termos de todos os modos de falha, independente da componente hjX utilizada na geração de cada
amostra. Os pesos de amostragem para cada ponto amostrado são determinados através das Eqs. (5.27) e
(5.29), e as estimativas da média e variância da probabilidade de falha são obtidas das Eqs. (5.26) e (??).

Exemplo 11 Problema escalar, pf = © [¡β] = © [¡6], solução por amostragem por importância utilizando
ponto de projeto:

Enunciado: A resistência de um elemento estrutural, ou a capacidade de um sistema, é uma variável


aleatória com distribuição normal, com parâmetros X » N(6, 1). A falha do sistema ocorre para x ·
xcrit = 0. Utilizando amostragem por importância e apenas 5 amostras (Eq. 5.12, primeiras duas colunas
na Tabela 5.1), obter uma estimativa para a probabilidade de falha do sistema, bem como o erro da
estimativa em relação à resposta exata.

Solução: A probabilidade de falha exata é dada por:

pf = P [fX · 0g] = © [(0 ¡ 6)/1] = © [¡6] = 9, 86588 10¡10 ,

com β = 6. Para esta pf , e utilizando amostragem simples, seriam necessárias em torno de 1011 amostras
para obter um coe ciente de variação de 10% (conforme Eq. 5.8), o que é totalmente inviável. O problema
pode ser resolvido de forma e ciente utilizando uma função de amostragem centrada no ponto de projeto,
conforme ilustrado na Figura 5-13. O ponto de projeto é x¤ = xcrit = 0, e portanto a função de amostragem
é simplesmente hX (x) = φ[x]. A partir de 10 números aleatórios entre 0 e 1, apresentados nas primeiras
duas colunas na Tabela 5.1, e da Eq. (5.12), obtemos os valores xk na terceira coluna. A quarta coluna
é obtida de fX (x) = φ[(x ¡ 6)/1]. A função de amostragem (quinta coluna) é hX (x) = φ[x]. Os pesos de
5.3. TÉCNICAS DE AMOSTRAGEM INTELIGENTE 177

Figura 5-12: Amostragem por importância para múltiplos modos de falha.


178 SIMULAÇÃO DE MONTE CARLO

Figura 5-13: Funções de densidade original e de amostragem por importância.

amostragem na sexta coluna são wk = fX (xk )/hX (xk ). A função indicadora é I[xk ] = 1 para xk 6 xcrit = 0.
Tomando a média da última coluna, a resposta nal é obtida como pbf ¼ 9, 4078 10¡10 , o que corresponde a
um erro de apenas 5% em relação à solução exata. Devido ao pequeno número de amostras, esta solução é
fortemente dependente dos números aleatórios utilizados (colunas 1 e 2 na tabela). A solução apresentada
na Tabela 5.1 foi obtida no software Mathematica, utilizando z0 = 111117 como semente de geração de
números aleatórios. A variância da estimativa é enorme; para intervalo de con ança de 96% (k = 2 na Eq.
5.9) obtemos:
(0 · pf · 2, 81 10¡9 ) e (5, 83 · β · +1). (5.31)

Tabela 5.1: Exemplo: amostragem por importância utilizando ponto de projeto.


u1 u2 xk fX (xk ) hX (xk ) wk I[xk ] wk I[xk ]
0, 292108 0, 883476 +1.16681 3, 3761 10¡6 0, 20196 1, 6717 10¡5 0 0
0, 423024 0, 726059 ¡0.19657 1, 8323 10¡9 0, 39131 4, 6825 10¡9 1 4, 6825 10¡9
0, 128721 0, 974984 +1.99994 1, 3379 10¡4 0, 05400 2, 4779 10¡3 0 0
0, 546066 0, 484052 ¡1.09450 4, 6934 10¡12 0, 21917 2, 1414 10¡11 1 2, 1414 10¡11
0, 283962 0, 024170 +1.56849 2, 1703 10¡5 0, 11660 1, 8613 10¡4 0 0
Média: 9, 4078 10¡10

5.3.4 Amostragem por importância adaptativa


Esta técnica está baseada na atualização da função de amostragem hX (x), de forma adaptativa, à medida que
os resultados da simulação vão sendo computados (Bucher, 1988; Karamchandani et al., 1989). Considerando
a Eq. (5.28), o erro estatístico da amostragem por importância será nulo se:

hX (x) / fX (xjx 2 ­f ). (5.32)


5.3. TÉCNICAS DE AMOSTRAGEM INTELIGENTE 179

Seja H o vetor de variáveis aleatórias cuja função de densidade conjunta corresponde à função de amostragem
hX (x). Relaxando a condição (5.32), e aplicando-a apenas aos dois primeiros momentos de H, temos:

E[H] = E[XjX 2 ­f ],
Cov[H, Ht ] = Cov[(X, Xt )jX 2 ­f ]. (5.33)

A partir de amostras iniciais, calculamos E[H] e Cov[H, Ht ]; estes valores são utilizados para construir
a nova função de amostragem. Se a probabilidade de falha for muito pequena, um número muito grande de
amostras pode ser necessário para se obter os primeiros pontos no domínio de falha. Neste caso, a amostragem
adaptativa deve se combinada com alguma outra técnica de amostragem inteligente; por exemplo, amostragem
por importância utilizando pontos de projeto.

5.3.5 Amostragem assintótica


A amostragem assintótica (asymptotic simulation) faz uso de propriedades assintóticas da probabilidade de
falha, a medida que o desvio-padrão das variáveis aleatórias tende a zero, ou que a probabilidade de falha tende
a zero (Bucher, 2009; Sichani et al., 2011, 2014). A técnica dispensa o conhecimento do ponto de projeto, e seu
custo computacional independe das dimensões do vetor X. Pode ser combinada com amostragem simples ou
por hiper-cubo latino. A amostragem assintótica é baseada em um fator f < 1, que produz desvios-padrão σ fi
aumentados, em relação ao desvio-padrão original das variáveis aleatórias:
σi
σfi = . (5.34)
f

Para f pequeno ( f ¿ 1), os desvios-padrão aumentam bastante, aumentando a probabilidade de falha e o


número de pontos nf no domínio de falha. Com número de amostras reduzido, e variando f, obtemos os índices
de con abilidade β(f ). Segundo Bucher (2009), o comportamento assintótico de β com f segue:

β
= a + bf c , (5.35)
f

sendo a, b e c constantes a determinar por regressão não-linear, utilizando os pontos (f, β/f ) como suporte.
Encontradas as constantes a, b e c, o índice de con abilidade do problema original é obtido fazendo f = 1, ou
β = a + b.
Parâmetros da amostragem assintótica são o número de pontos de suporte e os valores de f considerados.
O número de amostras deve ser su ciente para que uma boa estimativa de β nos pontos de suporte seja obtida.
Em geral, o comportamento assintótico descrito na Eq. (5.35) é observado para distribuições com cauda, mas
pode não ocorrer para distribuições com suporte compacto ou limitadas.

Exemplo 12 Problema escalar, pf = © [¡β] = © [¡6], solução por amostragem assintótica.

Enunciado: O enunciado e solução exata são idênticos ao Exemplo 11.

Solução: Uma solução utilizando pequeno número de amostras é obtida com três pontos de suporte
fm 2 f0, 1; 0, 2; 0, 4g, o que corresponde aos desvios-padrão de amostragem σ m 2 f10; 5; 2, 5g. O número
de amostras deve ser tal que se obtenha pontos no domínio de falha para todos os desvios-padrão σm . A
solução a seguir foi desenvolvida no software Mathematica, utilizando 20 amostras, e z0 = 11111113 como
semente de geração dos números aleatórios. Os valores de yk (Eq. 5.12) não são apresentados; mas os
valores resultantes (xk = yk σ m + 6), m = 1, 2, 3; k = 1, ..., 20; são mostrados na Tabela 5.2. Para m = 1
180 SIMULAÇÃO DE MONTE CARLO

(primeira coluna na tabela), temos oito pontos no domínio de falha, logo pf ¼ 8/20 e β ¼ 0, 25. Para
m = 2 (segunda coluna), temos pf ¼ 4/20 e β ¼ 0, 84; para m = 3 (terceira coluna), temos pf ¼ 1/20
e β ¼ 1, 64. Uma regressão utilizando os pontos (f, β/f ) como suporte, em termos das constantes da Eq.
(5.35), resultou em a = ¡467, 86; b = 473, 31; e c = 0, 0024; dos quais obtemos β(f = 1) = a + b = 5, 45. A
Figura 5-14 ilustra os pontos de suporte e a Eq. (5.35), com base nestes parâmetros. O erro para a solução
exata está em torno de 9%. Para muitas sementes testadas, não se pôde obter uma solução com apenas 20
amostras; em geral, um número bem maior de amostras é necessário. Podemos perceber, intuitivamente,
que os pontos de suporte variam muito com o número de amostras, quando este é pequeno.

Tabela 5.2: Números aleatórios xk utilizados na amostragem assintótica.


10yk + 6 5yk + 6 2, 5yk + 6
14,603 10,302 8,151
-23,234 -8,617 -1,308
-1,046 2,477 4,238
3,504 4,752 5,376
2,062 4,031 5,016
-8,387 -1,194 2,403
-13,201 -3,600 1,200
10,529 8,264 7,132
-4,190 0,905 3,453
15,332 10,666 8,333
4,830 5,415 5,707
11,061 8,530 7,265
22,614 14,307 10,154
13,304 9,652 7,826
-0,818 2,591 4,296
-5,537 0,322 3,161
4,892 5,446 5,723
-8,650 -1,325 2,337
8,323 7,161 6,581
7,752 6,876 6,438

5.3.6 Amostragem melhorada


A amostragem melhorada (enhanced sampling) foi proposta por Naess et al. (2009, 2012) como uma forma de
avaliar probabilidades de falha muito pequenas envolvendo sistemas. Está baseada em regularidade observada
na cauda das distribuições de probabilidade. A equação de estado limite original do problema, M = g(x), é
utilizada para construir uma família de funções paramétricas M(λ, x), com 0 6 λ 6 1, tal que:

M(λ, x) = g(x) ¡ (1 ¡ λ)µM , (5.36)

sendo µM = E[g(x)] ¼ g(¹x ). Para λ = 0 a margem de segurança tende a zero, e portanto pf ! 0, 5. Para λ = 1
recuperamos o problema original. Portanto, utilizando λ << 1 e um número reduzido de amostras, obtemos
pontos de suporte (λ, pf (λ)). Segundo Naess et al. (2009), o comportamento assintótico da probabilidade de
falha com λ ! 1 é dado por:
pf (λ) ¼ q exp[¡a(λ ¡ b)c ]. (5.37)

Uma grande vantagem da amostragem melhorada, sobre a amostragem assintótica, é que um mesmo conjunto
5.3. TÉCNICAS DE AMOSTRAGEM INTELIGENTE 181

Figura 5-14: Problema escalar pf = © [¡6], solução via amostragem asintótica.

de amostras pode ser utilizado para avaliar pf (λ), ou seja, um grande número de pontos de suporte pode ser
utilizado, sem penalizar o custo computacional.
Para resolver problemas envolvendo sistemas, a solução é semelhante. Para cada modo de falha Mj = gj (x),
j = 1, ..., nLS , um conjunto de funções paramétricas Mj (λ, x) é obtido:

Mj (λ, x) = gj (x) ¡ (1 ¡ λ)µMj . (5.38)

As probabilidades de falha do sistema são obtidas como:


Z
pf SY S (λ) = fX (x)dx. (5.39)
[k [\i2Ck (Mj (λ,x)6 0)]

Parâmetros da amostragem melhorada são o número de pontos de suporte e os valores de λ considerados. O


número de amostras deve ser su ciente para que uma boa estimativa de pf seja obtida nos pontos de suporte.
Em geral, o comportamento assintótico descrito na Eq. (5.37) é observado para distribuições com cauda, mas
pode não ocorrer para distribuições com suporte compacto ou limitadas.

Exemplo 13 Problema escalar, pf = © [¡β] = © [¡6], solução por amostragem melhorada.

Enunciado: O enunciado e solução exata são idênticos ao Exemplo 11.

Solução: Uma solução utilizando pequeno número de amostras é obtida com quatro pontos de suporte
λm 2 f0, 1; 0, 2; 0, 3; 0, 4g. O número de amostras deve ser tal que se obtenha pontos no domínio de falha
para todos os valores λm . A solução a seguir foi desenvolvida no software Mathematica, utilizando 20
amostras, e z0 = 11111113 como semente de geração dos números aleatórios. Os valores de yk (Eq. 5.12)
não são apresentados; mas os valores resultantes xk , k = 1, ..., 20; são mostrados na primeira coluna da
Tabela 5.3. A função indicadora é avaliada a partir da Eq. (5.36), com M (λm , xk ) = xk ¡ µM (1 ¡ λm ) =
xk ¡ 6(1 ¡ λm ), resultando nas colunas 2 a 5 da Tabela 5.3, como o leitor pode veri car. Para m = 1
(segunda coluna na tabela), temos oito pontos no domínio de falha, logo pf ¼ 8/20 = 0, 4. Para m = 2
(terceira coluna), temos pf ¼ 4/20 = 0, 2; para m = 3 (quarta coluna), temos pf ¼ 2/20 = 0, 1; e nalmente
para m = 4 (quinta coluna), temos pf ¼ 1/20 = 0, 05. Uma regressão utilizando os pontos (λ, pf ) como
182 SIMULAÇÃO DE MONTE CARLO

suporte, em termos das constantes da Eq. (5.37), resultou em q = 0, 852; a = 6, 931; b = ¡0, 0091; e c = 1;
dos quais obtemos pf (λ = 1) ¼ 7, 81 10¡4 e β ¼ 3, 16. A Figura 5-15 ilustra os pontos de suporte e a
Eq. (5.37), com base nestes parâmetros. O erro em termos de β é da ordem de 47%, em termos de pf é
muito maior! O resultado mostra que o número de amostras é insu ciente. Para muitas sementes testadas,
não se pôde obter uma solução com apenas 20 amostras; em geral, um número bem maior de amostras é
necessário. Novamente, percebemos que os pontos de suporte variam muito com o número de amostras,
quando este é pequeno.
A resolução do mesmo problema com nS = 1000 amostras e cinco pontos de suporte (λm 2 f0, 1; 0, 2;
0, 3; 0, 4; 0, 5g) resultou em β ¼ 5, 04; com erro de 16%, conforme ilustrado na Figura 5-16.

Tabela 5.3: Números aleatórios xk e função indicadora das amostras, amostragem melhorada.
xk λ = 0, 1 λ = 0, 2 λ = 0, 3 λ = 0, 4
6,860 0 0 0 0
3,076 1 1 1 1
5,295 1 0 0 0
5,750 0 0 0 0
5,606 0 0 0 0
4,561 1 1 0 0
4,076 1 1 1 0
6,452 0 0 0 0
4,981 1 0 0 0
6,933 0 0 0 0
5,882 0 0 0 0
6,506 0 0 0 0
7,661 0 0 0 0
6,730 0 0 0 0
5,318 1 0 0 0
4,864 1 0 0 0
5,889 0 0 0 0
4,534 1 1 0 0
6,233 0 0 0 0
6,175 0 0 0 0

5.3.7 Amostragem por sub-conjuntos


A idéia fundamental da amostragem por sub-conjuntos (subset simulation) é decompor o evento falha original,
com probabilidade de ocorrência muito pequena, em uma sequência de eventos condicionais, com probabilidade
de ocorrência maior (Au & Beck, 2001; Au et al., 2007).
Seja E o evento falha, cuja probabilidade se deseja calcular:
Z Z
P [E] = P [X 2 ­f ] = fX (x)dx = I[x]fX (x)dx. (5.40)
­f ­

Seja uma sequência decrescente de eventos Ei tal que E1 ¾ E2 ¾ ... ¾ Em = E, de forma que:

Ek = \ki=1 Ei , k = 1, ..., m. (5.41)


5.3. TÉCNICAS DE AMOSTRAGEM INTELIGENTE 183

Figura 5-15: Problema escalar pf = © [¡6], solução via amostragem melhorada com nS = 20.

Figura 5-16: Problema escalar pf = © [¡6], solução via amostragem melhorada com nS = 1000.
184 SIMULAÇÃO DE MONTE CARLO

A partir destes eventos, a probabilidade de falha pode ser encontrada como:

pf = P [E] = P [\m m
i=1 Ei ] = P [E1 ]¦i=2 P [Ei jEi¡1 ]. (5.42)

Para obter o primeiro termo, P [E1 ], utilizamos amostragem simples ou LHS. As probabilidades condicionais,
P [Ei jEi¡1 ], podem ser obtidas usando simulação por cadeias de Markov e o algoritmo de Metropolis-Hastings
(Au e Beck, 2001; Au et al., 2007).
Na solução de problemas de con abilidade estrutural, o evento falha é dado por E = fg(x) 6 0g. Os eventos
intermediários são obtidos de:
Ei = fg(x) 6 bi g. (5.43)
A constante bi , para cada evento intermediário, é determinada de forma que a probabilidade associada a cada
evento intermediário tenha um valor especi cado p0 : P [Ei jEi¡1 ] = p0 . A implementação não é trivial; detalhes
podem ser consultados em (Au e Beck, 2001; Au et al., 2007; Santos, 2014).
A técnica de amostragem por sub-conjunto também tem sido utilizada com e ciência para resolver problemas
de otimização na presença de incertezas (Ta‡anidis & Beck, 2008, 2009).

5.3.8 Comparação entre técnicas de amostragem inteligente


Não há na literatura muitos trabalhos comparando, de forma ampla, várias técnicas de amostragem inteligente.
Usualmente, o autor que propõe uma técnica compara esta com uma ou duas técnicas amplamente conheci-
das, o que nem sempre é feito de forma desinteressada. Uma comparação do desempenho das técnicas de
amostragem simples, amostragem antitética e amostragem por hiper-cubo latino (LHS), associadas com sim-
ulação de Monte Carlo bruta, com amostragem por importância utilizando pontos de projeto, amostragem
assintótica, amostragem melhorada e amostragem por sub-conjuntos é feita em Santos (2014) e em Santos &
Beck (2015). Problemas analíticos e numéricos foram considerados. Os autores demonstram a grande superi-
oridade da amostragem LHS sobre amostragem simples ou antitética. Os autores observam que a amostragem
por importância utilizando pontos de projeto converge muito rapidamente com o número de amostras (nS ), mas
que eventualmente (em alguns problemas), a função de amostragem introduz um viés na solução (convergência
para valor próximo ao exato). Os autores observaram problemas de convergência de soluções por amostragem
assintótica, para alguns problemas analisados. A amostragem melhorada apresentou melhores resultados do
que a amostragem assintótica. Finalmente, Santos e Beck (2015) observaram um desempenho excepcional da
amostragem por sub-conjuntos, que resultou em erros muito pequenos para todos os problemas analisados.

5.3.9 E ciência de estimadores


b de um parâmetro µ, a e ciência ef deste estimador pode ser dada por (Lemieux 2009;
Dado um estimador µ
L’Ecuyer 1994):
¡1
ef (b
µ) = [M SE(bµ) £ C(b
µ)]
onde MSE(b µ) = var(bµ) + B 2 (b b, B(b
µ) é o erro quadrático médio de µ µ) = E[b
µ] ¡ µ é o fator de bias (tenden-
b, e C(b
ciosidade) de µ µ) é o custo computacional para obter µb. Para o método de Monte Carlo simples, o custo
computacional é proporcional ao número de amostras, nS . Logo, a e ciência é:
1
ef (b
µ) =
[M SE(b
µ) £ nS ]

Estas equações podem (devem) ser utilizadas para comparar a e ciência de técnicas de simulação baseadas no
método de Monte Carlo.
5.4. META-MODELOS 185

5.4 META-MODELOS
As técnicas de amostragem inteligente são capazes de reduzir drásticamente o número de simulações necessárias
no método de Monte Carlo. No entanto, mesmo utilizando estas técnicas, ainda é necessário avaliar a equação
de estado limite centenas ou milhares de vezes. Portanto, a solução via simulação de Monte Carlo ainda pode
ser inviável para resolver, diretamente, problemas com equações de estado limites numéricas envolvendo grande
número de graus de liberdade; resposta dinâmica; resposta não-linear; problemas de otimização na presença de
incertezas. Para resolver este tipo de problema, podemos utilizar os chamados meta-modelos.
O nome meta-modelo (meta-model ou surrogate model ) se aplica a uma representação mais simples (analíti-
ca) usada para aproximar a resposta de um modelo computacional (numérico) de alta delidade. Meta-modelos
servem para representar, de forma aproximada, o comportamento ou a resposta do modelo computacional M,
tal que:
f
ye = M(x) ¼ M(x).

Em problemas de mecânica, em geral M é um modelo numérico de alta delidade (elementos nitos, de


contorno, discretos, etc.). Em problemas de con abilidade estrutural, usualmente M é a equação de estado
limite, que pode conter implicitamente um modelo numérico. Em problemas de otimização estrutural sob
incertezas (Capítulo 8), M pode ser qualquer um dos anteriores, a função objetivo ou alguma restrição. A
idéia de utilizar meta-modelos é substituir o modelo original M, cuja avaliação pode levar horas ou dias de
processamento, por um modelo simpli cado (surrogate), cuja solução seja mais rápida.
As primeiras aplicações de meta-modelos à problemas de con abilidade estrutural envolviam superfícies de
resposta polinomiais. Neste contexto, os métodos originais eram chamados de métodos de superfície de resposta
ou response surface methods. Atualmente, com a aplicação a diferentes áreas e com o desenvolvimento de
técnicas globais, o termo meta-modelo se tornou mais comum. Dentre as técnicas de meta-modelagem globais,
destacam-se as redes neurais arti ciais, a expansão em polinomios de caos, mínimos quadrados móveis e a
modelagem por processo Gaussiano ou krigagem.

5.4.1 Construção de meta-modelos


A construção de meta-modelos envolve duas partes razoavelmente independentes: a avaliação da resposta de alta
delidade M(x) em um conjunto de pontos de suporte xsup , previamente de nidos, e avaliação ou treinamento
dos parâmetros do meta-modelo. O meta-modelo é dito estático quando seus parâmetros são xos durante a
solução do problema. Alternativamente, meta-modelos podem ser construídos de forma adaptativa, ou seja,
para reduzir o erro em determinada região, pontos de suporte são adicionados, e os parâmetros são atualizados
durante a solução.
Um conjunto de nsup pontos de suporte é necessário para construir um meta-modelo; a avaliação de M(x)
nestes pontos resulta em um vetor de respostas de alta delidade:

y = fyk gtk=1,...,nsup = fM(xsup t


k )gk=1,...,nsup .

Uma forma sistemática e pré-de nida de selecionar os pontos de suporte é conhecida como plano de exper-
iência ou DOE: Design of Experients (Montgomery, 2012; Myers et al., 2016). Para que o meta-modelo seja
e ciente, a resposta de alta delidade deve ser avaliada no menor número possível de pontos. No entanto, existe
um compromisso entre a e ciência do modelo e a precisão da aproximação; em geral, quanto maior o número
de pontos de suporte, maior a precisão. Alguns planos de experiência típicos são apresentados na Figura 5-17.
Em geral, planos de experiência são utilizados em aproximações locais, sendo o erro da aproximação menor na
região em torno da qual o plano está centrado.
Para a construção de aproximações globais, outras técnicas são utilizadas. Em particular, em problemas de
grandes dimensões, a amostragem por hipercubo latino (LHS) pode ser utilizada para determinar pontos de
186 SIMULAÇÃO DE MONTE CARLO

Figura 5-17: Planos de experiência (DOE).

suporte distribuídos de forma esparsa no domínio.

5.4.2 Superfícies de resposta polinomiais


O método das superfícies de resposta consiste em aproximar a resposta de um modelo de alta delidade M(x)
por uma expressão polinomial aproximada. Trata-se de uma aproximação local, válida em uma pequena região
em torno dos pontos de suporte. Na discussão que segue, consideramos a utilização de superfícies de resposta
para aproximar a equação de estado limite g(x) de um problema de con abilidade estrutural. Nesta situação,
uma superfície de resposta polinomial quadrática pode ser expressa como:
n
X n
X n X
X n
g(x) ¼ e
g(x) = a0 + ai xi + aii xi 2 + aij xi xj , (5.44)
i=1 i=1 i=1 j>i

sendo A1£nc = fa0 , ai , aii , aij gt um vetor que reúne os coe cientes a determinar, com índices (i, j) variando de
acordo com a Eq. (5.44). Estes coe cientes correspondem aos termos constante, lineares, quadráticos e cruzados,
respectivamente. Nesta equação, n corresponde à dimensão do problema (número de variáveis aleatórias) e nc
corresponde ao número de coe cientes a determinar.
Os coe cientes A são determinados através do método dos mínimos quadrados, minimizando a seguinte
função erro:
nsup
X 2
erro[A] = (g(xsup g(xsup
k )¡e k )) . (5.45)
k=1

Reescrevendo a Eq. (5.44) em forma vetorial:

g(x) = f1, xi , x2i , xi xj gt fa0 , ai , aii , aij g


e
= Vt (x)A,
5.4. META-MODELOS 187

o problema de mínimos quadrados ca:


"nsup #
X ¡ sup ¢2
t sup
A = arg min g(xk ) ¡ V (xk )A .
k=1

A solução deste problema é dada por (Faravelli, 1989):

A = (Qt Q)¡1 Qt B, (5.46)

sendo Qnc £nc a matriz cujas linhas são formadas pelos vetores V(xsup k ) e B o vetor de componentes
sup t
B1£nc = fg(xk )gk=1,...,nsup . Para resolver a Eq. (5.46), é necessário que:

1. o número de pontos nsup seja maior ou igual ao número de coe cientes nc a determinar;
2. os pontos de suporte sejam escolhidos de maneira consistente, i.e., de forma a resultar em um sistema de
equações independentes, o que torna Qt Q inversível.

As aplicações à con abilidade estrutural diferem em termos da expressão polinomial utilizada (Eq. 5.44 com
ou sem termos cruzados) e em termos da lógica de seleção dos pontos de suporte (plano de experiência).

Superfícies de resposta na solução de problemas de con abilidade estrutural

Nesta seção, apresentamos um breve histórico do emprego de superfícies de resposta na solução de problemas de
con abilidade estrutural. Superfícies de resposta polinomiais são aproximações locais, com boa precisão apenas
em uma vizinhança dos pontos de suporte. Em problemas de con abilidade estrutural, uma boa aproximação
deve ser obtida junto ao ponto mais provável de falha, ou ponto de projeto.
Bucher e Borgund (1990) sugeriram o emprego de uma superfície quadrática sem termos cruzados, e intro-
duziram um esquema simples onde o ponto central é localizado “próximo” ao ponto de projeto:

xi = µi § ki σi , (5.47)

sendo µi e σi a média e o desvio-padrão, respectivamente, da variável aleatória Xi . Os autores utilizaram o sinal


negativo (¡) para variáveis de resistência, e positivo (+) para variáveis de solicitação, e sugeriram ki = 3, que
seria típico de problemas de con abilidade estrutural. Após a construção de uma primeira superfície de resposta,
o ponto central é atualizado uma única vez por projeção, e uma nova superfície de resposta é construída. Gomes
e Awruch (2004) observaram que o esquema é apropriado para problemas de con abilidade simples e analíticos.
No entanto, Rajashekhar e Ellingwood (1993) observaram que uma única atualização da superfície de resposta
e a desconsideração dos termos cruzados leva a uma perda de precisão para outros problemas. Os autores
sugeriram o emprego de superfícies de resposta adaptativas, que são reconstruídas a medida que se busca o
ponto de projeto. Um esquema progressivo foi proposto, onde o ponto central do plano de experiência segue
a busca pelo ponto de projeto, e onde o fator ki é reduzido progressivamente de ki = 2 para ki = 1. Esta
adaptividade é conveniente, no sentido que ki = 2 resulta em uma cobertura maior do espaço de projeto, e
a convergência para o ponto de projeto, junto com a redução para ki = 1, resulta em uma precisão maior na
vizinhança do ponto de projeto. Esquemas adaptativos tem sido empregados desde então por um grande número
de autores (Enevoldsen et al., 1994; Liu & Moses, 1994; Soares et al., 2002; Gayton et al., 2003, entre outros).
No entanto, esquemas adaptativos tem um custo computacional signi cativo, que pode mesmo inviabilizar o
emprego de superfícies de resposta (Leonel et al., 2011).
Rajashekhar e Ellingwood (1993) também propuseram um esquema especializado para selecionar os pontos
do plano de experiência, incluindo informação sobre as distribuições de probabilidade e considerando extremos
das variáveis aleatórias envolvidas. Esquemas especializados para seleção adaptativa dos pontos do plano de
188 SIMULAÇÃO DE MONTE CARLO

experiência também foram propostos por outros autores (Kim & Na, 1997; Zheng & Das, 2000). O objetivo
destes esquemas é aumentar a e ciência das soluções adaptativas.
Guan e Melchers (2001) endereçaram a questão da localização dos pontos do plano experimental do ponto de
vista da precisão. Os autores mostraram que a localização dos pontos do plano de experiência afeta diretamente
as probabilidade de falha calculadas. Mais preocupante é o fato, mostrado pelos autores, que pequenas mudanças
no ki podem levar a grande instabilidade nas probabilidades calculadas. Estas instabilidades se originam na
transformação necessária para resolver problemas envolvendo variáveis não-Gaussianas correlacionadas, e no
fato desta transformação ser válida em apenas um ponto do domínio (o ponto de projeto, ao nal do processo
iterativo). Em nossa interpretação dos resultados de Guan e Melchers (2001), a dependência das probabilidades
de falha calculadas com a localização dos pontos do plano de experiência pode ser minimizada, se não eliminada,
ao colocar o ponto central sobre o ponto de projeto, e ao se utilizar valores mais moderados para o fator ki
(digamos, 0, 1 · ki · 0, 5). Considerando os resultados apresentados por Guan e Melchers (2001), concluimos
que um esquema adaptativo, tal como proposto por Rajashekhar e Ellingwood (1993), é necessário para a
solução precisa de problemas de con abilidade estrutural utilizando superfícies de resposta polinomiais.
A necessidade de uma construção adaptativa e iterativa das superfícies de resposta, no entanto, compromete
a e ciência do método, conforme mostrado por Leonel et al. (2011). Os autores comparam diversos esquemas
de construção adaptativa das superfícies de resposta com o chamado método de acoplamento direto (direct
coupling). O método de acoplamento direto (Sudret & Der Kiureghian, 2000) consiste na busca pelo ponto de
projeto utilizando diretamente a resposta numérica para avaliar a função de estado limite e os seus gradientes.
Utilizando como exemplo problemas de mecânica da fratura, Leonel et al. (2011) mostram que o acoplamento
direto é muito mais e ciente do que a solução empregando superfícies de resposta adaptativas. Os autores
mostram ainda que, uma vez encontrado(s) o(s) ponto(s) de projeto, podemos construir superfícies de resposta
de nitivas em torno destes, a um custo computacional que é uma fração do custo computacional para construir
superfícies de resposta adaptativas.

Estratégias de utilização de superfícies de resposta

Nesta seção consideramos diferentes estrategias de solução de problemas de con abilidade estrutural utilizando
superfícies de resposta. Um estudo comparativo de diferentes estratégias adaptativas de construção de superfícies
de resposta é apresentado em Leonel et al. (2011).

Superfícies construídas em torno do ponto médio A princípio, superfícies de resposta podem ser con-
struídas em torno do ponto médio, mesmo que este não pertença à equação de estado limite. No entanto, deve-se
levar em conta que o erro na aproximação da equação de estado limite original pela expressão polinômica (Eq.
5.45) será mínimo nas vizinhanças do ponto médio, mas será grande na região importante do domínio de falha,
que é a região em torno do ponto de projeto. Isto signi ca que os erros na avaliação de probabilidades de falha
serão grandes, independentemente do método de solução empregado (FORM, SORM ou simulação de Monte
Carlo).
Outra estratégia que pode resultar em grandes erros é a utilização de uma única superfície de resposta para
representar um domínio de falhas composto por diversos modos de falha (em série, paralelo ou combinações).
Neste caso, a composição dos modos de falha pode dar origem a cantos vivos, que di cilmente são representados
pela superfície de resposta.

Superfícies adaptativas para busca de pontos de projeto Superfícies de resposta podem ser construídas
de forma adaptativa a m de se encontrar os pontos de projeto. Ao considerar esta estratégia, devemos levar
em conta que a construção de uma superfície quadrática completa (conforme Eq. 5.44) exige um mínimo de
nsup ¸ (n2 + n + 1) pontos. Desprezando os termos cruzados, nsup ¸ (2n + 1) pontos se fazem necessários. Em
contrapartida, a avaliação do gradiente da equação de estado limite rg(x), por diferenças nitas uni-laterais,
requer apenas nsup = (n + 1) pontos. Isto signi ca que, na busca pelo ponto de projeto, é mais barato calcular o
5.4. META-MODELOS 189

gradiente e determinar o próximo ponto diretamente, por acoplamento direto, do que construir uma superfície
de resposta.

Superfícies construídas em torno dos pontos de projeto Uma estratégia interessante é a construção
de uma superfície de resposta centrada em cada ponto de projeto. Nesta estratégia, uma superfície de resposta
é utilizada para cada equação de estado limite que compõe o domínio de falha. O erro de aproximação pelas
superfícies de resposta é minimizado em relação à região importante de cada parcela do domínio de falhas.
Esta estratégia pode ser associada com a simulação de Monte Carlo com amostragem por importância nos
pontos de projeto. Utilizando superfícies de resposta quadráticas com termos cruzados, esta solução tem o
mesmo custo de uma solução via SORM para cada modo de falha. No entanto, permite uma avaliação muito
mais precisa das probabilidades para domínios de falhas compostos, sejam eles em série, paralelo ou misto, em
comparação com os limites bi-modais linearizados (Seção 4.3). Esta solução é empregada no software StRAnD
(Apêndice G).

5.4.3 Técnicas globais de meta-modelagem


Superfícies de resposta polinomiais fornecem aproximações locais de modelos contínuos e bem comportados
(fracamente não-lineares). Técnicas modernas de meta-modelagem, como redes neurais arti ciais, expansões
em polinômios de caos e krigagem, permitem descrever com precisão modelos descontínuos e fortemente não-
lineares, e ainda de forma global (com boa representatividade em todo o domínio). Para uma visão geral do
assunto, com aplicação à problemas de con abilidade estrutural, sugerimos Sudret (2012); com aplicações a
otimização estrutural, Nikolos (2011). Detalhes de implementação podem ser consultados em (Kroetz, 2015;
Kroetz et al., 2017; Kroetz et al., 2020). Nosso objetivo nesta seção é apresentar uma introdução ao tema,
destacando a diferente natureza das técnicas de meta-modelagem globais.

Redes Neurais Arti ciais

Redes neurais arti ciais ou Arti cial Neural Networks (ANN) são modelos computacionais construídos com
base em uma analogia simpli cada do comportamento do cérebro humano (Hecht-Nielsen, 1989). A informação
é processada por pequenas unidades de processamento (os neurônios), que se comunicam através de conexões
balanceadas (sinapses).
A construção de redes neurais envolve especi cação do número de camadas de neurônios, bem como do
número e tipo de neurônio em cada camada. Dado um conjunto de dados de entrada e saída, a rede é treinada:
o peso de cada conexão entre neurônios é ajustado de forma a que a rede represente, da melhor maneira possível,
o conjunto de dados de saída. Cada iteração neste processo de treinamento é chamado de época. Portanto, a
partir de um treinamento inicial, os pesos de cada sinapse são armazenados e a rede se torna capaz de prever a
resposta para outros pontos de entrada, não presentes no conjunto de treinamento.
É comum separar o conjunto de dados de entrada e saída em dois grupos: grupo de treinamento e de
validação. O processo de validação consiste em veri car o erro da rede utilizando os pontos de validação, i.e.,
computando a resposta da rede para pontos que não foram utilizados no treinamento, e comparando com a
resposta correta. A validação é feita entre épocas, de forma a interromper o processo de treinamento se o
erro aumentar devido ao chamado over tting. Separar os dados em um conjunto de treinamento e outro de
validação reduz a quantidade de informação disponível para treinar a rede, mas ajuda a evitar problemas de
over tting. É comum utilizar 10% do conjunto de dados para validação, sempre escolhidos de forma aleatória.
Alternativamente, o treinamento da rede pode ser feito de forma iterativa, durante a solução do problema.
Dois tipos de ANN são descritos brevemente nesta seção: Multi-layer Perceptron ou MLP (Hertz et al., 1991)
e Radial Basis Function ou RBF (Wang et al., 2004; Beale et al., 2011). Em geral, redes MLP são melhores
para representar a resposta global do modelo, enquanto redes RBF geram melhores aproximações locais. O
190 SIMULAÇÃO DE MONTE CARLO

objetivo desta seção é dar uma noção ao leitor do que são redes neurais arti ciais. Maiores detalhes podem ser
obtidos em Haykin (1996, 1999).

Redes neurais arti ciais tipo Multi-Layer Perceptron são redes construídas com uma camada de
entrada (um neurônio para cada parâmetro de entrada), uma camada de saída (um neurônio para cada parâmetro
de saída) e um número arbitrário de camadas intermediárias (ocultas). Redes MLP são do tipo feed-forward,
o que signi ca que a comunicação entre neurônios só ocorre no sentido da entrada para a saída, e nunca
ao contrário. Já foi provado (Hornik et al., 1990) que redes neurais feed-forward com apenas uma camada
intermediária são capazes de representar qualquer função e suas derivadas, através de uma escolha apropriada
de funções de ativação e do número de neurônios em cada camada intermediária. Na representação que segue,
apenas uma camada intermediária é considerada.
O tipo de neurônio em cada camada é de nido pelas funções de ativação utilizadas. No exemplo aqui descrito,
funções de ativação lineares são utilizadas para os neurônios de entrada e saída, e funções tangente-sigmóide
são utilizadas para a camada intermediária. Em redes feed-forward, os dados são transmitidos da camada de
entrada para a camada de saída. Os dados são inicialmente processados pelos neurônios da camada de entrada.
Cada neurônio da camada de entrada recebe um elemento do vetor de entrada e transmite um impulso para
cada neurônio da próxima camada. Como as funções de ativação da camada de entrada são lineares, os dados de
entrada são simplesmente repassados para os neurônios da camada intermediária. Nesta passagem, cada valor é
multiplicado por um peso, que caracteriza a conexão entre os neurônios de diferentes camadas. Portanto, uma
soma ponderada de valores é repassada aos neurônios da camada intermediária. Um fator de bias é adicionado
à soma ponderada, o que permite que um neurônio seja ativado mesmo quando um valor nulo é passado para
ele. O valor resultante é processado pela função de ativação dos neurônios da camada intermediária, resultando
em um valor entre ¡1 e +1 (caso da função tangente-sigmóide), que é repassado aos neurônios da camada de
saída. Os neurônios da camada de saída adicionam o seu próprio valor de bias à soma ponderada recebida, e
entregam na saída um valor processado para cada conjunto de dados de entrada (x) recebido pela rede. Os
pesos que caracterizam a conexão entre os neurônios e os fatores de bias são determinados no treinamento da
rede.
(k) (k)
Seja wji o peso entre o neurônio i da camada k e o neurônio j da camada k ¡ 1, θ i o fator de bias do
neurônio i da camada k, e xsup um vetor de dados de entrada. Neste caso, a saída de uma rede MLP de três
camadas com nk neurônios na k-ésima camada é:
(3)
Xn2 ³ (3) ³
(2)
Xn1 ³ (2) sup ´´´
ye = θ1 + wi1 tansig θi + wji xj , (5.48)
i=1 j=1

sendo tansig( ) a função tangente-sigmóide.

Redes neurais do tipo Radial Basis Function (RBF) sempre são compostas por três camadas de
neurônios (Poggio & Girosi, 1990): camada de entrada, intermediária e de saída. Redes RBF também são
do tipo feed-forward: a informação é transmitida dos neurônios da camada de entrada para os neurônios das
camadas seguintes, até a saída. Nas redes RBF, as funções de ativação dos neurônios da camada intermediária
são do tipo base radial, enquanto as funções das demais camadas são lineares. A função de ativação Gaussiana
é adotada com frequência na literatura. O número de neurônios das camadas de entrada e saída corresponde às
dimensões dos vetores de entrada e saída, respectivamente. O número de neurônios da camada intermediária é
arbitrário.
(3)
Seja wi1 o peso entre o neurônio 1 da camada 3 e o neurônio i da camada 2, cci e σi o valor central e o
desvio-padrão do i-ésimo neurônio da camada intermediária e xsup um vetor de dados de entrada. Neste caso,
a saída de uma rede tipo RBF com nk neurônios na k-ésima camada é:

(3)
Xn2 µ (3) µ
1 Xn1 ¡ sup ¢2
¶¶
ye = θ 1 + wi1 exp ¡ 2 xj ¡ cci , (5.49)
i=1 σi j=1

(3) (3)
sendo cci , σi , os pesos wi1 e bias θ 1 parâmetros da rede, a ser determinados durante o treinamento.
5.4. META-MODELOS 191

Expansão em polinômios de caos

Expansões em polinômios de caos ou Polinomial Chaos Expansions (PCE) tem sido utilizadas desde os anos
90 na formulação do chamado método dos elementos nitos estocástico ou Stochastic Finite Element Method
(SFEM). A partir dos anos 2000, PCEs passaram a ser vistas também como uma técnica de meta-modelagem.
Revisões da literatura são apresentadas em Panayirci e Schuëller (2011) e Sudret (2012).
Ao utilizar a PCE, a resposta do modelo de alta delidade é considerada como uma variável aleatória Ye ,
pertencente ao espaço das variáveis aleatórias de variância nita, e que pode ser representada por uma base
deste espaço:
X1
Ye = aα ªα (X), (5.50)
α=1

sendo aα coe cientes a determinar, e ªα (X) funções polinomiais multi-variadas, ortonormais com respeito às
densidades fX (x), tais que:
E[ªi (X)ªj (X)] = δ ij ,
sendo δ ij = 1 para i = j e 0 caso contrário. Um conjunto X de variáveis aleatórias independentes pode ser
representado a partir de um vetor de variáveis normais padrão » = fξ 1 , ξ 2 , ..., ξ m gt . Polinômios de Hermite,
por exemplo, formam uma base ortonormal com respeito às variáveis normais padrão.
Para ns práticos, a base na Eq. (5.50) precisa ser truncada, e apenas polinômios de grau p ou menor são
utilizados. A representatividade da expansão PCE depende diretamente de p: para p pequeno, a representativi-
dade é limitada; para p grande, o custo computacional aumenta e pode ocorrer over tting. A base da expansão
PCE é obtida da tensorização das expansões uni-variadas das m variáveis que compõe o vetor X. Quando o
truncamento da série (Eq. 5.50) é feito com base no grau multi-índice máximo, o número P de funções da base
é dado por:
(m + p)!
P = .
m!p!

Um algoritmo prático para construção da base multi-variada é apresentado em Sudret et al. (2006). Os
coe cientes aα podem ser obtidos de forma não-intrusiva, por mínimos quadrados. O número de pontos de
suporte nsup deve ser pelo menos igual a P . Sendo A1£P = fai gti=1,...,P o vetor de coe cientes a determinar, a
t
matriz de dados ªnsup £P = [ªj (xksup )]k=1,...,nsup ,j=1,...,P , e B = fM(xsup
k )gk=1,...,nsup , os coe cientes são obtidos
como:

A = (ªt ª)¡1 ªt B. (5.51)

Como as funções da base são linearmente independentes, a matriz ª deve ser inversível. No entanto, devido
a forma aleatória de escolha dos pontos de suporte (por exemplo, LHS), ª pode se tornar não-inversível. Nestes
casos, pode ser necessário utilizar técnicas de regularização de matrizes, pseudo-inversas, ou simplesmente mudar
o DOE. Uma vez que os coe cientes sejam determinados, a expansão em polinômios de caos (Eq. 5.50) pode
ser utilizada como meta-modelo.

Modelagem por processo Gaussiano ou krigagem

A técnica conhecida como krigagem (do inglês kriging) consiste em obter uma aproximação para o modelo
de alta delidade assumindo suas respostas, em diferentes pontos de suporte, como realizações de um campo
estocástico. Esta técnica se originou em estudos de geologia, nos anos 60, e apenas recentemente passou a ser
utilizada em con abilidade estrutural.
192 SIMULAÇÃO DE MONTE CARLO

O modelo aproximado é escrito como:

Ye (x) = f (x)t A + Z(x), (5.52)

sendo f (x)t A a resposta média (determinística) e o termo Z(x) um campo estocástico homogêneo e Gaussiano,
com média nula e variância constante σ2Z . O conjunto f (x)1£nc forma uma base de, por exemplo, funções
polinomiais (Eq. 5.44), e A1£nc é um vetor de coe cientes a determinar. Considerando a correlação entre as
respostas em diferentes pontos de suporte, o vetor de coe cientes é encontrado por mínimos quadrados:

A = (Ft R¡1 F)¡1 Ft R¡1 B, (5.53)


t
sendo B1£nsup = fM(xsup
k )gk=1,...,nsup , Rnsup £nsup uma matriz de correlação entre pares de pontos de suporte,
Fnsup£nc uma matriz de regressão, que contém as funções da base avaliadas nos pontos de suporte, e nc o
número de coe cientes a determinar.
Para cada par de pontos de suporte, os termos da matriz de correlação R = [Rjk ] são dados, por exemplo,
como: n
Y
Rjk (xj ¡ xk , µ) = exp[¡θi d2i ],
i=1

sendo di = (xi )j ¡ (xi )k a distância entre os pontos de suporte na direção i. A função de auto-correlação do
processo Z(x) ca:
Cov[Z(xj ), Z(xk )] = σ2Z Rjk (xj ¡ xk , µ).
Com estas preliminares, a variância do campo estocástico é obtida como:
1
σ2Z = (B ¡ FA)t R¡1 (B ¡ FA).
nsup

O vetor µ de ne o comprimento de correlação do campo estocástico Ye (x). Como a matriz de correlação R,


e portanto os coe cientes A e σ2Z dependem de µ, este último é um vetor de hiper-parâmetros, que deve ser
estimado inicialmente. A determinação destes hiper-parâmetros pode ser consultada em (Kroetz, 2015; Kroetz
et al., 2017).
Uma vez determinados os hiper-parâmetros µ, os coe cientes A e a variância σ2Z , a resposta do modelo de
alta delidade pode ser aproximada pela Eq. (5.52), com:

Z(x) = r(x)t R¡1 (B ¡ FA),

sendo r(x)1£nsup = fRk (x ¡ xk , µ)gtk=1,...,nsup um vetor contendo a correlação entre a resposta do modelo no
ponto x e as respostas em todos os pontos de suporte do modelo.
Uma grande vantagem da krigagem, sobre outras técnicas globais, é o conhecimento da variância, ou da
incerteza de previsão do modelo, em qualquer ponto do domínio; o que tem implicações óbvias sobre a possibil-
idade de realizar construções adaptativas. Outra característica da krigagem é que o modelo fornece a resposta
exata nos pontos de suporte.

Comparação entre técnicas

Na literatura, não há muitos trabalhos que apresentem comparações desinteressadas entre as diversas técnicas de
meta-modelagem. Usualmente, autores tratam de defender uma técnica proposta, em comparação com técnicas
existentes. Uma comparação entre técnicas de meta-modelagem globais, aplicadas a problemas de con abilidade
estrutural, é apresentada em (Kroetz, 2015; Kroetz et al., 2017). Os autores abordam diversas funções de estado
limite analíticas, bem como alguns problemas envolvendo equações numéricas. No estudo veri ca-se que as três
5.4. META-MODELOS 193

técnicas descritas neste texto resultam em meta-modelos precisos, desde que se utilize um número su ciente de
pontos de suporte. Para um número pequeno (mínimo) de pontos de suporte, a precisão dos modelos torna-
se extremamente sensível ao número de pontos de suporte. Nas conclusões do estudo, os autores destacam o
desempenho muito bom da krigagem, tanto em termos de precisão como de e ciência.
194 SIMULAÇÃO DE MONTE CARLO
Capítulo 6

CONFIABILIDADE DEPENDENTE
DO TEMPO

Neste capítulo estudamos problemas de con abilidade estrutural dependente do tempo, através de sucessivos
níveis de simpli cação e generalização. Inicialmente, estudamos o modelo de falha à primeira sobrecarga para um
processo (ação) escalar e barreira (resistência) determinística (Seção 6.1). Na Seção 6.2, o problema é formulado
em termos da multi-dimensionalidade das variáveis aleatórias de resistência. A solução de discretização e
integração no tempo, própria para problemas escalares (uma ação) e estacionários (sem variação da resistência
ao longo do tempo) é abordada na Seção 6.3. Um exemplo numérico e resultados especializados são apresentados
na Seção 6.5. O caso geral envolvendo várias ações (processo estocástico multi-dimensional) é considerado na
Seção 6.6. Finalmente, soluções simpli cadas para a solução de problemas de combinação de ações são estudadas
na Seção 6.7.

6.1 FALHA À PRIMEIRA SOBRECARGA

6.1.1 Formulação
O problema de con abilidade estrutural dependente do tempo consiste na avaliação da probabilidade de que
um processo estocástico S(t) (ação) exceda a resistência R(t) da estrutura (Figura 6-1), à qualquer instante
durante o período de vida útil da mesma:
· ¸
pf (tD ) = P min g(R, S, t) · 0 , (6.1)
0·t·tD

sendo tD a vida de projeto da estrutura. A equação

g(R, S, t) = 0

é a equação de estado limite, que divide os domínios de falha e de sobrevivência:

­f (t) = fr, sjg(R, S, t) · 0g,


­s (t) = fr, sjg(R, S, t) > 0g. (6.2)

Tipicamente, tanto as ações como resistência são multi-dimensionais. No projeto de um prédio ou ponte
convencional, as ações variáveis são muitas: ação acidental, vento, terremotos, neve, etc. No entanto, a solução
196 CONFIABILIDADE DEPENDENTE DO TEMPO

r, s
f R ( r , t0 )
r (t )  realização de R(t )

f S ( s, t ) s(t )  realização de S (t )

Figura 6-1: Problema de con abilidade estrutural típico envolvendo carregamento estocástico e variação da
resistência no tempo.

explícita do problema de con abilidade dependente do tempo sob carregamentos multi-dimensionais é extrema-
mente complexa, como veremos na Seção 6.6. Portanto, abordamos primeiramente problemas escalares nas
ações, e suas soluções. O problema escalar envolve uma única ação S(t) e, inicialmente, uma resistência deter-
minística r(t). Estas soluções são generalizadas para resistência aleatória e multi-dimensional na Seção 6.2.
Tipicamente, tanto ações como a resistência da estrutura são funções do tempo. No entanto, conforme
ilustrado na Figura 6-1, ações variam de forma rápida com o tempo, enquanto a resistência varia de forma
lenta e gradual. Ações variáveis típicas e suas escalas de ‡utuação são: ação acidental (meses ou anos), vento
(excitação dinâmica por variação instantânea, sobreposta ao máximo anual ou de 50 anos), terremotos (variação
de anos entre ocorrências, excitação dinâmica por variação instantânea na ocorrência), neve (meses ou anos),
etc. Já a variação da resistência ocorre de forma gradual, através de processos de degradação como corrosão,
desgaste, ‡uência e fadiga. Também pode ocorrer aumento gradual da resistência ao longo do tempo, como
por exemplo no processo de cura do concreto. Desta forma, ações variáveis são representadas como processos
estocásticos, e a resistência é representada por meio de variaveis aleatórias, eventualmente resultando em um
processo estocástico parametrizado (Seção 6.2.1). Esta distinção é necessária para a solução de problemas de
con abilidade dependente do tempo.

6.1.2 Falha à primeira sobrecarga


Em problemas de engenharia de estruturas, entendemos que a falha ocorre na primeira ocasião em que o
carregamento (ação) exceder a capacidade de carga (resistência) da estrutura, conforme formulado na Eq. (6.1)
e ilustrado na Figura 6-1. O problema pode ser formulado considerando a chegada de sobrecargas ao longo do
tempo como um processo de Poisson.
Seja η(r, t) uma taxa de chegadas de sobrecargas, a ser determinada posteriormente. Ao interpretar a ocor-
rência de sobrecargas como um processo de Poisson (Cramer & Leadbetter, 1967), assumimos a independência
entre eventos sobrecarga, e o tempo entre sobrecargas torna-se exponencialmente distribuído (veja Seção A.3.1).
Neste caso, a probabilidade de sobrevivência, ou con abilidade, para um período (0, tD ) é dada pela probabili-
6.1. FALHA À PRIMEIRA SOBRECARGA 197

dade de que o número de sobrecargas N + (r, tD ) no período seja igual a zero. Usando a Eq. (A.34), temos:

R(r, tD ) = P [fN + (r, tD ) = 0g]


Rt Z tD
[ 0 D η(r, u)du]0
= exp[¡ η(r, t)dt]
0! 0
Z tD
= exp[¡ η(r, t)dt]. (6.3)
0

A probabilidade de falha para uma vida de projeto tD é o complemento da probabilidade de sobrevivência:

pf (r, tD ) = 1 ¡ R(r, tD )
Z tD
= 1 ¡ exp[¡ η(r, t)dt]. (6.4)
0

Uma limitação deste resultado é o fato que, para que ocorra uma primeira sobrecarga (passagem de barreira
de baixo para cima) durante o intervalo (0, tD ), é necessário que o processo estocástico esteja abaixo do nível
r no instante inicial t = 0. Tal condição não está re‡etida na Eq. (6.3), mas pode ser imposta facilmente
escrevendo:

ps (r, tD ) = P [fS(0) < rg]P [fN (r, tD ) = 0jS(0) < rg]


· Z tD ¸
= R0 (r) exp ¡ η(r, t)dt . (6.5)
0

Importante observar que η(r, t), agora, é uma taxa (condicional) de chegadas de sobrecargas, ou a taxa de
chegada (média sobre o envelope) da primeira sobrecarga. Esta taxa será determinada oportunamente. Na
Equação (6.5), o termo P [fS(0) < rg] = R0 (r) corresponde à probabilidade de que o processo estocástico S(t)
esteja abaixo do nível r no instante inicial t = 0. O complemento desta probabilidade é a chamada probabilidade
de falha inicial:
pf0 (r) = 1 ¡ R0 (r). (6.6)
A avaliação de pf0 (r) é um problema que envolve apenas variáveis aleatórias, e pode ser resolvido utilizando
os métodos de con abilidade independentes do tempo estudados no Capítulo 3.
Utilizando as Equações (6.4) a (6.6), a probabilidade de falha ca:

pf (r, tD ) = 1 ¡ R(r, tD )
· Z tD ¸
= 1 ¡ R0 (r) exp ¡ η(r, t)dt
0
µ · Z tD ¸¶
= pf0 (r) + (1 ¡ pf0 (r)) 1 ¡ exp ¡ η(r, t)dt . (6.7)
0

A Equação (6.7) expressa a probabilidade de falha para uma vida tD como a soma de uma probabilidade
de falha inicial (pf0 (r) para t = 0) mais a probabilidade de falha devido à uma sobrecarga, dado que a falha
não tenha ocorrido no instante inicial. Só existe diferença signi cativa entre as Eqs. (6.7) e (6.4) quando a
probabilidade de falha inicial é relevante.
Em um processo de Poisson homogêneo, a taxa η(r, t) = η(r) é constante, e não existe distinção entre o
tempo entre sobrecargas e o tempo até a primeira sobrecarga: ambos são descritos pela mesma distribuição
exponencial. No entanto, a condição imposta na Equação (6.5) torna este processo não homogêneo, e faz com
que a taxa η(r, t) seja função do tempo, mesmo para uma barreira estacionária, como veremos na Seção 6.5.3.
198 CONFIABILIDADE DEPENDENTE DO TEMPO

6.1.3 Aproximação de Poisson


O resultado apresentado na Equação (6.7) foi obtido a partir de uma taxa (condicional) de chegadas da primeira
sobrecarga, η(r, t), desconhecida. Uma aproximação frequentemente utilizada na literatura, conhecida como
aproximação de Poisson, consiste em aproximar a taxa η(r, t) pela taxa de passagens pela barreira:

η(r, t) ¼ υ + (r, t), (6.8)

uma vez que uma sobrecarga corresponde a uma passagem da barreira r de baixo para cima. Com a aproximação
de Poisson, a probabilidade de falha à primeira sobrecarga ca:
µ · Z tD ¸¶
+
pf (r, tD ) = pf0 (r) + (1 ¡ pf0 (r)) 1 ¡ exp ¡ υ (r, t)dt . (6.9)
0

A taxa de passagens pela barreira, υ + (r, t), é uma entidade matemática, que pode ser avaliada analiticamente
para alguns processos estocásticos, conforme Apêndice B.3.2. Esta taxa, no entanto, não re‡ete as condições que
levaram à obtenção da Eq. (6.7). Ainda assim, a aproximação de Poisson, expressa na Equação (6.8), se justi ca
quando o nível da barreira r é elevado, e quando as passagens de barreira são eventos raros. Podemos mostrar
(Cramer & Leadbetter, 1967) que a aproximação de Poisson é assintoticamente exata a medida que r ! 1.
Na prática, isto signi ca que a aproximação de Poisson é adequada para estruturas com baixa probabilidade de
falha.
A aproximação de Poisson não é apropriada para processos de banda estreita, uma vez que as passagens
de barreira tendem a acontecer “em bloco”. A aproximação de Poisson aqui apresentada pode ser melhorada
através da determinação de taxas que re‡itam melhor as condições impostas pela Equação (6.7). Estas melhorias
são consideradas na Seção 6.5.3.
Quando o processo estocástico é estacionário e o nível da barreira é invariante no tempo (problema esta-
cionário, sem degradação da resistência), a taxa de passagens pela barreira υ + (r, t) = υ + (r) é constante e a
Equação (6.9) ca:

¡ £ ¤¢
pf (r, tD ) = pf0 (r) + (1 ¡ pf0 (r)) 1 ¡ exp ¡υ + (r)tD . (6.10)

6.1.4 Expressões aproximadas


Expressões simpli cadas da probabilidade de falha à primeira sobrecarga (Equação 6.9) são utilizadas com
frequência. Tais aproximações são, em geral, conservadoras, fornecendo limites superiores para a probabilidade
de falhas. Desconsiderando o termo (1 ¡ pf0 (r)) na Equação (6.9), por exemplo, obtemos:
· Z tD ¸
+
pf (r, tD ) · pf0 (r) + (1 ¡ exp ¡ υ (r, t)dt ).
0

Para υ + (r) constante, esta equação ca:


£ ¤
pf (r, tD ) · pf0 (r) + (1 ¡ exp ¡υ + (r)tD ). (6.11)

Quanto υ + (r)tD << 1, temos que 1 ¡ exp [¡υ + (r)tD ] ¼ υ + (r)tD ; logo, podemos escrever:

pf (r, tD ) · pf0 (r) + υ + (r)tD , ou pf (r, tD ) · υ + (r)tD . (6.12)


6.1. FALHA À PRIMEIRA SOBRECARGA 199

6.1.5 Tempo até a falha (primeira sobrecarga)


No modelo de falha à primeira sobrecarga, a falha é caracterizada na primeira ocasião em que o carregamento
(ação) excede a capacidade (resistência) da estrutura. Para um processo estocástico S(t) e uma resistência
constante no tempo r(t) = r, este é um típico problema de passagem de barreiras. Portanto, a falha pode ser
descrita pela variável aleatória tempo até a falha, T (r), e que corresponde ao tempo até a chegada da primeira
sobrecarga, conforme a Seção (B.3.1). Se a ocorrência deste evento (primeira sobrecarga) é aproximada como
um processo não homogêneo de Poisson, com taxa variável no tempo h(t), então o tempo até a falha segue uma
distribuição exponencial1 . Da Equação (A.44) obtemos:
· Z t ¸
FT (t) = 1 ¡ exp ¡ h(u)du . (6.13)
0

A probabilidade de falha para uma vida de projeto tD pode ser avaliada como:

pf (tD ) = P [fT < tD g]


= FT (tD )
· Z tD ¸
= 1 ¡ exp ¡ h(t)dt . (6.14)
0

Comparando este resultado com a Eq. (6.9), percebemos que a Eq. (6.14) não re‡ete a condição inicial, uma
vez que esta condição já está implícita na de nição da taxa h(t), como veremos. O valor esperado do tempo até
a falha (primeira sobrecarga) é:
1
E[T (t)] = ,
h(t)
o que mostra que a função h(t) corresponde à taxa de chegada da primeira sobrecarga para um nível de barreira
r, h(t) ¼ υ + (r, t).

6.1.6 Taxa instantânea de falhas


A função h(t) descrita anteriormente também pode ser entendida como a taxa de falhas instantânea ou condi-
cional (hazard function, age-speci c failure rate ou conditional failure rate), tão utilizada na engenharia para
caracterizar processos de falha que ocorrem ao longo do tempo. Em aplicações envolvendo um grande número
componentes idênticos colocados em operação, a taxa instantânea de falhas re‡ete quantos componentes deixam
de funcionar em um instante t, em relação ao total de componentes colocados em operação. Nestas aplicações,
o tempo até a falha Tf é a variável aleatória que descreve a vida do lote de componentes. A vida de cada
componente corresponde a uma realização desta variável.
A taxa de falhas instantânea é uma taxa condicional, que expressa a probabilidade de que uma falha ocorra
no intervalo (t, t + ¢t), dado que a falha não tenha ocorrido antes de t. Como vimos na Seção 1.3.4, pg. 18, a
taxa de falhas instantânea é dada por:

fT (t) fT (t)
h(t) = = . (6.15)
1 ¡ FT (t) R(t)

Nesta expressão ca evidente que, quando FT (t) é muito pequeno (situação em que a pf também é pequena),
as funções fT (t) e h(t) são equivalentes. O conhecimento de uma entre h(t), fT (t) e FT (t) é su ciente para
determinar as outras duas.

1 A variável aleatória tempo até a falha pode seguir outras distribuições estatísticas, como mostrado no Capítulo 10 de Dorf

(2000). Isto leva a diferentes funções de con abilidade R(t).


200 CONFIABILIDADE DEPENDENTE DO TEMPO

6.2 VARIÁVEIS ALEATÓRIAS DE RESISTÊNCIA


O modelo de falha à primeira sobrecarga apresentado na Seção 6.1 permite calcular a probabilidade de que uma
ação escalar S(t) ultrapasse uma barreira r(t) determinística, que corresponde à resistência da estrutura. Nos
problemas reais, esta barreira (resistência) é caracterizada por um vetor de variáveis aleatórias R, conforme
representado na Eq. (6.16). Nesta seção, estudamos como o modelo de falha à primeira sobrecarga é generalizado
para considerar o vetor de variáveis aleatórias de resistência, R.

6.2.1 Resistência como processo estocástico parametrizado


De forma genérica, e para ilustrar as soluções, a resistência estrutural pode ser representada por:

R(t) = f (R)(1 ¡ A(t/tD )α ), (6.16)

sendo R um vetor de variáveis aleatórias de resistência, f( ) uma função de resistência, A uma taxa de degradação
da resistência (adimensional), tD a vida de projeto e α um coe ciente que determina a forma como a resistência
varia ao longo do tempo. A função de resistência f ( ) descreve a resistência de um elemento estrutural, ou
da estrutura como um todo, em termos das resistências dos diversos materiais constituintes, das dimensões,
etc. O vetor R, que agrupa estas mesmas variáveis, descreve a resistência inicial, para t = 0. A taxa de
degradação da resistência, A, juntamente com o coe ciente α, determinam a forma como a resistência varia
com o tempo. Mesmo que A e α sejam variáveis aleatórias, a variação da resistência no tempo ocorre de
forma parametrizada. Para A e α aleatórios ou determinísticos, a resistência R(t) é um processo estocástico
parametrizado, cujos momentos mudam de forma conhecida ao longo do tempo. Este modelo de resistência,
como processo estocástico parametrizado, é útil para solucionar problemas de con abilidade dependente do
tempo.
Em geral, a separação da resistência em f(R) e em uma função do tempo (1 ¡ A(t/tD )α ) não é necessária:
basta que a equação de estado limite do problema seja escrita em função de todas as demais variáveis:
g(R, S, A, α, t) = 0. Um caso particular importante, abordado na Seção 6.2, corresponde a uma resistência
escalar:
R(t) = R(1 ¡ a(t/tD )α ). (6.17)
Outro caso particular importante, já abordado na Seção 6.1.2, é de uma resistência escalar e determinística:

r(t) = r(1 ¡ a(t/tD )α ). (6.18)

6.2.2 Resistência como processo estocástico


O modelo apresentado na Eq. (6.16) resulta em um processo estocástico parametrizado, completamente descrito
por variáveis aleatórias. Um modelo diferente é obtido quando a taxa de degradação da resistência é um processo
estocástico com variação no tempo, A = A(t):

R(t) = f(R)(1 ¡ A(t)(t/tD )α ). (6.19)

Neste modelo a taxa de variação da resistência muda ao longo do tempo; a resistência R(t) passa a ser um
processo estocástico convencional, e as soluções apresentadas neste capítulo não se aplicam. Torna-se necessário
determinar, através do uso de ferramentas apropriadas, a maneira como as distribuições de probabilidade de R(t)
mudam ao longo do tempo. Em geral, isto signi ca resolver um problema de equações diferenciais estocásticas,
o que está fora do escopo deste texto. O resultado, no entanto, é uma função de densidade de probabilidades
que varia com o tempo, chamada de função de densidade de probabilidades transitória ou transition probability
density, fR (r, t).
6.2. VARIÁVEIS ALEATÓRIAS DE RESISTÊNCIA 201

Exemplos de variação estocástica de resistência estrutural são taxas de corrosão ou de propagação de trincas
que mudam, a medida que avançam sobre o material. O problema de propagação estocástica de trincas é
abordado em Beck & Melchers (2004b). Um modelo estocástico para taxa de corrosão em metais é discutido
em Bazán & Beck (2013). A con abilidade de estruturas que sofrem deterioração também é endereçada em
Sarveswaran & Roberts (1999).
Em geral, mesmo quando a variação da resistência ocorre de forma estocástica, a variação é lenta em
comparação com a velocidade de variação das ações. Isto signi ca que, em muitos casos, é possível aproximar
um processo estocástico como o da Eq. (6.19) por um processo parametrizado, como na Eq. (6.16).

6.2.3 Teorema da probabilidade total


Seja a resistência da estrutura função de um vetor de variáveis aleatórias R, constante no tempo ou com variação
paramétrica, conforme Eq. (6.16). Uma barreira distinta r(t) é obtida para cada realização R = r do vetor de
variáveis aleatórias, conforme a Figura (6-2). Para cada realização r, o modelo de falha à primeira sobrecarga
(Equação 6.9) forneçe uma probabilidade de falha condicional:
µ · Z tD ¸¶
pf (tD j r) = pf0 (r) + (1 ¡ pf0 (r)) 1 ¡ exp ¡ υ + (r, t)dt . (6.20)
0

A probabilidade de falha incondicional é obtida através do teorema da probabilidade total (Eqs. A.6 ou
A.58):

pf (tD ) = ER [pf (tD j r)]


Z
= pf (tD j r)fR (r)dr. (6.21)
R

Esta integral é muito semelhante à integral que caracteriza o problema de con abilidade independente do
tempo (Equação 2.41). Ela pode ser avaliada, a princípio, por simulação de Monte Carlo. No entanto, é
importante observar que cada ponto de integração da Equação (6.21) representa uma solução do modelo de
falha a primeira sobrecarga, para uma barreira condicional. Quando a dimensão do vetor R é grande, ou
quando o problema envolve mais de um processo estocástico de carregamento (ação), a integração direta da Eq.
(6.21) se torna proibitiva. Além disto, esta solução é especí ca para um tempo t, e precisa ser repetida para
se determinar a probabilidade de falha ao longo da vida da estrutura. Por isto, esquemas alternativos para a
integração da Eq. (6.21) foram desenvolvidos.

6.2.4 Integração rápida de probabilidades


Seja g(R, S, t) a equação de estado limite da estrutura. O problema de con abilidade estrutural pode ser
formulado em termos do mínimo da função g(R, S, t) em um determinado intervalo de tempo (0, tD ) (Madsen,
1986; Wen & Chen, 1987). Para uma realização R = r, a probabilidade de falha é dada pela probabilidade de
que o mínimo de g(r, S, t) seja menor do que zero:
· ¸
pf (tD j r) = P min g(r, S, t) · 0 . (6.22)
0·t·tD

Seja Rn+1 a variável aleatória que representa o valor deste mínimo:

Rn+1 = min g(r, S, t). (6.23)


0·t·tD
202 CONFIABILIDADE DEPENDENTE DO TEMPO

Figura 6-2: Problema de con abilidade estrutural com variação paramétrica da resistência.

O valor rn+1 = 0 representa o limite entre falha e sobrevivência da estrutura, de forma que uma equação de
estado limite aumentada pode ser escrita apenas em função de variáveis aleatórias:

g(R, Rn+1 ) = Rn+1 = 0. (6.24)

Note que a variável aleatória Rn+1 dependente da realização R = r, e portanto depende do vetor R. Isto
signi ca que a equação aumentada g(R, Rn+1 ) depende explicitamente de Rn+1 e implicitamente de R.
Com estas preliminares, a Equação (6.21) pode ser reescrita como:
Z · ¸
pf (tD ) = P min g(r, S, t) · 0 fR (r)dr
0·t·tD
ZR
= P [fRn+1 · 0g] fR (r)dr
ZR
= fRn+1 (rn+1 j r)fR (r)dr, (6.25)
g(r,rn+1 )·0

sendo fRn+1 (rn+1 j r) a função de densidade de probabilidades da variável Rn+1 e fR (r) a função de densidade
de probabilidades conjunta das variáveis aleatórias de resistência. A Equação (6.25) é idêntica à integral de
con abilidade independente do tempo (Equação 2.41), e portanto pode ser resolvida por FORM, SORM ou
SMC. A solução da Eq. (6.25) ao invés da Eq. (6.21) é chamada de “integração rápida de probabilidades” ou
fast probability integration (Wen & Chen, 1987).
Esta formulação permite a solução de problemas de con abilidade dependente do tempo utilizando técnicas
de con abilidade independente do tempo. No entanto, ela requer conhecimento da função de distribuição
condicional fRn+1 (rn+1 j r). Recorde que o método FORM é baseado em uma transformação do vetor R para
o espaço normal padrão Y, que pode ser escrita como:

Y = Jyr fR ¡ Mneq g.

A transformação de Rn+1 para o espaço normal padrão, utilizando a Eq. (3.49), resulta:

£ ¤
yn+1 = ©¡1 FRn+1 (rn+1 j r) , (6.26)
6.2. VARIÁVEIS ALEATÓRIAS DE RESISTÊNCIA 203

sendo Yn+1 uma variável normal padrão adicional, independente das demais variáveis Y. O valor limite da
variável adicional Yn+1 é obtido para rn+1 = 0:
£ ¤
yn+1 = ©¡1 FRn+1 (0 j r)
= ©¡1 [P [fRn+1 · 0g]]
= ©¡1 [pf (tD j r)] . (6.27)

Portanto, a equação de estado limite aumentada no espaço Y, g(y, yn+1 ) = g(y+ ), deve ser:

g(y+ ) = yn+1 ¡ ©¡1 [pf (tD j r)]


= yn+1 ¡ ©¡1 [pf (tD j Jry y + Mneq )] . (6.28)

Como resultado, temos que a Equação (6.25) pode ser resolvida via FORM sem o conhecimento da dis-
tribuição condicional fRn+1 (rn+1 j r). O problema aumentado é solucionado incluindo a variável Yn+1 , com
distribuição normal padrão e independente de Y, e utilizando como equação de estado limite a Eq. (6.28).
O problema aumentado pode ser resolvido utilizando o algoritmo HLRF (Hasofer & Lind, 1974; Rackwitz
& Fiessler, 1978). Para tanto, precisamos determinar o gradiente da equação de estado limite aumentada em
Y, rg(y+ ). O último termo deste gradiente é:

∂g(y+ )
= 1.
∂yn+1
Os demais termos podem ser calculados a partir da equação:

∂g(y+ ) (Jry )t rpf (tD j r)


=¡ , (6.29)
∂y φ(yn+1 )

sendo φ(.) a distribuição de densidade de probabilidade Gaussiana e rpf (tD j r) o gradiente da probabilidade
de falha dependente do tempo (Equação 6.20) em relação às variáveis de resistência. Este gradiente pode ser
avaliado por diferenças nitas.
A avaliação da probabilidade de falha através da Equação (6.25) e do algoritmo HLRF envolve a solução do
modelo de falha à primeira sobrecarga em (n + 1)nit pontos, sendo n o número de variáveis aleatórias e nit o
número de iterações necessárias para convergência do algoritmo HLRF. Ainda que muito menor do que em uma
solução via simulação de Monte Carlo, este número de avaliações pode ser ainda muito grande, especialmente em
problemas multi-dimensionais não-estacionários. A solução também pode apresentar problemas de convergência
devido ao reduzido valor das probabilidades de falha condicionais (Equação 6.20), especialmente quando a
variância de R é grande (Rackwitz, 1993; Marley & Moan, 1994).

6.2.5 Aproximação da taxa de falhas média sobre o envelope da resistência


A consideração da incerteza da resistência representa di culdade adicional para solução do modelo de falha à
primeira sobrecarga, em função da integração multi-dimensional sobre as variáveis de resistência (Eq. 6.21). Em
especial, o custo computacional da solução pode se tornar proibitivo para o caso de múltiplos carregamentos,
quando a taxa de ultrapassagens de barreira é substituída por uma taxa de entrada no domínio de falha.
Conforme veremos na Seção 6.6, esta taxa é obtida como uma taxa local, integrada sobre a fronteira do domínio
de falha, e então integrada sobre o tempo, no modelo de falha à primeira sobrecarga. Quando os processos
de carregamento são não-estacionários, ou quando a resistência varia ao longo do tempo, a integração sobre o
domínio de falha deve ser repetida ao longo do tempo. Portanto, a existência de soluções alternativas, ainda que
aproximadas, é apropriada. Uma destas soluções é a taxa de falhas média, apresentada nesta seção no contexto
de carregamento escalar, ainda que as vantagens da mesma em termos de redução do custo computacional só
204 CONFIABILIDADE DEPENDENTE DO TEMPO

possam ser plenamente apreciadas no contexto multi-dimensional (Seção 6.6).


A solução formal do problema de con abilidade dependente do tempo é obtida para probabilidades condi-
cionais a r, Eq. (6.21), conforme ilustado na Figura 6-2. Considere agora que a distribuição de probabilidades
da resistência pode ser obtida em qualquer ponto do tempo, conforme ilustrado na Figura 6-3. Este é caso, por
exemplo, de resistência que varia aleatoriamente no tempo, conforme o modelo na Eq. (6.19). Uma solução
aproximada, chamada de “taxa de falhas média sobre o envelope” ou “ensemble crossing rate approximation”
(Wen & Chen, 1989; Beck, 2003; Beck & Melchers, 2004a), é obtida quando o valor esperado na Eq. (6.21) é
transferido para dentro da integral sobre o tempo:

pf (tD ) = ER [pf (tD j r)]


µ · Z tD ¸¶
+
· ER [pf0 (r)] + (1 ¡ ER [pf0 (r)]) 1 ¡ exp ¡ ER [υ (r, t)]dt
0
µ · Z tD ¸¶
· pf0 (R) + (1 ¡ pf0 (R)) 1 ¡ exp ¡ υ+
ED (t)dt = (pf (tD ))EC . (6.30)
0

Nesta expressão, pf0 (R) é simplesmente a probabilidade de falha inicial, que pode ser calculada por FORM,
incorporando as variáveis aleatórias de resistência. O sub-índice ()EC é para aproximação “ensemble crossing”.
A taxa υ +
ED (t) que aparece na Eq. (6.30) é uma média, sobre o envelope, da taxa de passagens pela barreira.
Formalmente, pode ser calculada como:
Z
+ +
υ ED (t) = ER [υ (r, t)] = υ + (r, t)fR (r,t)dr. (6.31)
R

Esta taxa pode ser determinada diretamente, ou sem integração explícita, através de qualquer formulação
que inclua as variáveis aleatórias de resistência , como por exemplo a formulação que resulta em um sistema em
paralelo (Eq. B.68). Esta formulação é apresentada para o caso multi-dimensional na Seção 6.6.3.
A alteração da ordem entre a integral sobre R e a integração no tempo ofende a hipótese de Poisson, i.e.,
de que as passagens de barreira ocorrem de forma independente (Pearce & Wen, 1984; Schall et al., 1991).
Esta solução é uma aproximação porque, citando Wen & Chen (1989): “A realização da resistência permaneçe
a mesma, ao invés de mudar entre as aplicações de carregamento, como seria de se esperar em um processo
de falha de Poisson”. Desta forma, assumir independência entre as ultrapassagens de barreira (hipótese de
Poisson), para uma taxa média sobre o envelope de resistências, que equivale a fazer η(t) ¼ υ+
ED (t) na Equação
(6.7), é uma aproximação conservadora. Por conta disto, o simbolo de desigualdade é utilizado na Eq. (6.30).
Tomar a média, sobre o envelope de resistências, da taxa de passagens pela barreira torna estas passagens
“dependentes”. Para salientar este fato, o índice ED - para Ensemble e Dependent - é utilizado na Equação
(6.31).
A aproximação da taxa de passagens ou taxa de falhas média sobre o envelope foi estudada exaustivamente
em Beck & Melchers (2004a, 2005) e em Beck (2003, 2008). De acordo com Beck (2003), o erro de aproximação
pode ser de várias ordens de magnitude, e depende da altura da barreira, bem como da relação entre a variância
da barreira e do processo de carregamento. De acordo com Beck (2008), o erro depende ainda do número de
ciclos de carregamento. Estudando versão escalar do problema, envolvendo processos de carregamento contínuos
com distribuição normal S(t) » N (µS , σS ), de banda larga e estreita, e resistências escalares estacionárias com
distribuição normal R » N (µR , σR ), Beck (2003) mostrou que o erro da aproximação pode ser avaliado como:
· ¸ · + ¸
(pf (tD ))EC υ (t) 1 σ2R + σ2S
erroEC = ¡ log10 / ¡ log10 ED +
/ ep = , (6.32)
pf (tD ) υ (t) σS (µR ¡ µS )

sendo ep um parâmetro de erro. Normalizando este parâmetro pelo solicitação, ou seja, fazendo µ = (µR ¡µS )/σS
6.2. VARIÁVEIS ALEATÓRIAS DE RESISTÊNCIA 205

Figura 6-3: Integração para obter a taxa de passagens média sobre o envelope da resistência.

e σ = σR /σS , obtemos:
σ2 + 1
ep = ¢ (6.33)
µ

Este é também o parâmetro de erro para um processo normal padrão S(t) » N (0, 1) cruzando uma barreira
aleatória normal R » N (µ, σ). De acordo com Beck (2008), quando o parâmetro de erro é grande (ep & 1), o erro
da aproximação é maior do que uma ordem de magnitude (10£) após apenas um ou dois ciclos de carregamento
(υ 0 t ¼ 1 a 2). Quando o parâmetro de erro é pequeno (ep . 0, 5), o erro da aproximação é menor do que uma
ordem de magnitude para até em torno de 200 passagens por zero (υ0 t ¼ 200). Estes erros foram determinados
para processos S(t) contínuos de banda estreita e banda larga. No entanto, são utilizados na Seção 6.5.1 para
interpretar resultados obtidos para um processo de carregamentos de pulsos. Os erros acima também foram
obtidos para processo e barreira (resistência) com distribuição normal, mas dão uma ideia da ordem de grandeza
dos erros para distribuições não-normais.

Falhas dominadas pela barreira

Através de exaustivas simulações de Monte Carlo, Beck (2003) e Beck & Melchers (2005) veri caram que em
muitos problemas de con abilidade dependente do tempo, passagens de barreira ou sobrecargas ocorrem devido
a uma realização de barreira bem abaixo da média, e não devido a um pico de carregamento muito acima da
média. O fenômeno observado foi chamado de “falha dominada pela barreira” ou “barrier failure dominance”,
e ocorre quando σR >> σ S , conforme ilustrado na Figura 6-4. Este fenômeno caracteriza problemas para
os quais aproximações baseadas no(s) carregamento(s), como a integração no tempo, a regra de Turkstra e a
point-crossing formula são apropriados.
Problemas práticos de engenharia de estruturas tendem a estar no outro extremo, uma vez que usualmente
σR < σS (Figura 6-5). Para estes problemas, veri camos que sobrecargas ocorrem por uma contribuição
mais balanceada entre picos de carga e baixas realizações da resistência2 . Para estes problemas, aproximações
baseadas na resistência, como a aproximação da taxa média sobre o envelope, tendem a ser mais apropriadas.
Esta a rmação é veri cada no contexto de um exemplo numérico na Seção 6.5.1.

2 Note que não falamos de “falha dominada pelo carregamento”, mas sim de “ausência de falha dominada pela barreira”.
206 CONFIABILIDADE DEPENDENTE DO TEMPO

Figura 6-4: Problema de con abilidade com falha dominada pela barreira (σR >> σS ).

Figura 6-5: Problema de con abilidade sem falha dominada pela barreira (σ S > σR ).
6.3. PROBLEMAS ESCALARES ESTACIONÁRIOS 207

6.3 PROBLEMAS ESCALARES ESTACIONÁRIOS


6.3.1 Integração no tempo
Quando o problema de con abilidade dependente do tempo envolve um processo de carregamento escalar e
estacionário, e quando a resistência não varia com o tempo (Figura 6-6), a integração no tempo pode ser
transferida para o processo de carregamento. Desta forma, o problema de con abilidade é convertido em um
formato independente do tempo. Esta técnica de solução é chamada de “integração no tempo” ou “time-
integrated approach”.
Se o processo de carregamento S(t) inicia abaixo do nível de resistência r e não ultrapassa este nível durante
o período de vida de projeto (0, tD ), então o valor máximo do processo neste intervalo também é menor do que
r. O valor máximo de um processo estocástico S(t) em um intervalo de tempo xo (duração tD ) é uma variável
aleatória, StD , descrita por uma distribuição de valores extremos fStD (s) (veja Seção B.4). Para este problema,
a probabilidade de falha é dada pela probabilidade de que o máximo de S(t) seja maior do que r:

pf (tD ) = P [StD ¸ r].

Para uma resistência multi-dimensional, função de um vetor de variáveis aleatórias R, esta probabilidade
ca:
pf (tD ) = P [StD ¸ R(R)].

A equação de estado limite para o problema é escrita como:

g(R,StD ) = R(R) ¡ StD = 0. (6.34)

A probabilidade de falha é obtida integrando a função de distribuição de probabilidades conjunta de R e


StD sobre o domínio de falha: Z
pf (tD ) = fRStD (r, s)drds. (6.35)
g(r,s)·0

Este problema envolve apenas variáveis aleatórias e pode ser resolvido por FORM, SORM ou SMC (Capítulos
3 e 5).
A integração no tempo é solução exata quando um único processo de carregamento (escalar e estacionário)
atua sobre a estrutura, e quando a resistência não varia com o tempo. Na presença de pequena variação
de resistência, a integração no tempo pode ser utilizada como aproximação (Marley & Moan, 1994). Esta
aproximação é explorada no contexto de um problema numérico na Seção 6.5.1.
Quando mais de um carregamento atua sobre a estrutura (processo estocástico multi-dimensional), é necessário
determinar um carregamento equivalente, conforme Seção 6.7. A integração no tempo pode então ser aplicada
sobre este carregamento equivalente. Alternativamente, uma solução aproximada é construída com base na
regra de Turkstra (Seção 6.7.3).

6.3.2 Discretização no tempo


A integração no tempo permite resolver problemas de con abilidade estrutural a partir do valor máximo do
carregamento durante a vida de projeto da estrutura. Esta solução pode ser re nada discretizando a vida da
estrutura em meses ou anos, ou em número discreto de eventos, de blocos de carregamento ou de horas de
operação, conforme Figura 6-7. Os eventos discretos de carregamento podem ser a chegada ou ocorrência de
uma tempestade, terremoto, tornado, ou de ação acidental.
A integração no tempo é feita para cada bloco de carregamento. Como exemplos: a probabilidade de falha
208 CONFIABILIDADE DEPENDENTE DO TEMPO

r, s
f R (r )
r (t )  r  realização de R

f S ( s, t ) s (t )  realização de S (t )

Figura 6-6: Problema de con abilidade dependente do tempo escalar e estacionário.

r, s
f R (r )
r ( t )  r  realização de R

s (t )  realização de S (t )
f S ( s, t )

Figura 6-7: Problema de con abilidade dependente do tempo com blocos discretos de carregamento.
6.3. PROBLEMAS ESCALARES ESTACIONÁRIOS 209

anual é calculada considerando a distribuição de extremos de um ano; a probabilidade de falha condicional à


ocorrência de um terremoto é calculada para a distribuição de extremos correspondente a um terremoto. A
probabilidade de falha na vida de projeto depende do número de eventos de carregamento a que a estrutura
estará submetida durante a vida, o que dá origem a duas soluções distintas:
1) o número de eventos ou blocos de carga é conhecido;
2) o número de eventos é desconhecido a priori.

Número conhecido de eventos de carregamento

Considere que a vida de projeto da estrutura é discretizada em um número conhecido de segmentos ou blocos
de carregamento, nb . Seja td = tnDb a duração de um bloco de carga. Para que a estrutura sobreviva a nb blocos
de carga, é necessário que o máximo carregamento em cada bloco seja menor do que a resistência da mesma:

pS (tD ) = P [Std < R(R)]nb


= (1 ¡ pf e )nb , (6.36)

sendo pf e a probabilidade de falha elementar, para um segmento ou bloco de carga, calculada a partir da
Equação (6.35), com tD substituído por td . Observe que a Equação (6.36) assume independência entre os
eventos de falha elementar; logo, trata-se de uma aproximação baseada na resistência. Expandindo a Equação
(6.36) em série e mantendo apenas o termo de primeira ordem, obtemos:

p2fe
(1 ¡ pf e )nb ¼ 1 ¡ nb pfe + nb (nb ¡ 1) + ...,
2
e portanto:

pf (tD ) = 1 ¡ pS (tD )
¼ nb pf e . (6.37)

A Equação (6.37) fornece a probabilidade de falha para uma vida de projeto tD dividida em nb blocos de
carga, assumindo independência entre os eventos falha em cada bloco. A desconsideração dos termos de segunda
ordem na expansão é válida quando nb pf e << 1. Em particular, isto ocorre quando a probabilidade de falha
elementar pfe é pequena, i.e., o nível de resistência é elevado. Isto implica que a Eq. (6.37) é mais precisa
quando σS > σR . Comparando a Eq. (6.37) com (6.30) e (6.12), veri camos que neste resultado está implícita
a aproximação da resistência média sobre o envelope (Seção 6.2.5).

Número aleatório de eventos discretos

Considere agora a discretização da vida da estrutura em um número aleatório de eventos como tempestades,
terremotos ou carregamentos acidentais. O número exato de aplicações de carga durante o evento elementar não
precisa ser conhecido, desde que a distribuição do máximo carregamento seja utilizada no cálculo da probabili-
dade de falha elementar (pf e ). No entanto, o número de eventos (tempestades, etc.) que ocorrem durante a vida
útil da estrutura precisa ser conhecido para se determinar a probabilidade de falha. Seja pk (tD ) a probabilidade
de termos exatamente k eventos durante o período (0, tD ). A probabilidade de falha para esta vida será (veja
Equação A.6):
1
X
pf (tD ) = pk (tD )pfe . (6.38)
k=1

Observe que na Equação (6.38) todos os números possíveis de eventos são considerados. É comum representar
a chegada de eventos como tempestades, terremotos ou carregamentos acidentais, como processos de Poisson, o
210 CONFIABILIDADE DEPENDENTE DO TEMPO

que fornece (Eq. A.34):


(υtD )k exp[¡υ tD ]
pk (tD ) = , (6.39)
k!
sendo υ a taxa de chegada dos eventos acidentais. Neste modelo, os eventos devem ser independentes e não-
coincidentes, o que é uma hipótese razoável quando υ é pequena. Substituindo a Equação (6.39) na Eq. (6.38),
e utilizando o termo de primeira ordem de uma expansão em série, obtemos:

pf (tD ) ¼ 1 ¡ exp[¡υ pfe tD ]. (6.40)

Note que nesta expressão o termo υ pfe é a probabilidade de falha média por unidade de tempo, ou taxa de
falhas. Novamente, comparando a Eq. (6.40) com (6.30) e (6.11), veri camos que neste resultado está implícita
a aproximação da resistência média sobre o envelope (Seção 6.2.5).

Eventos elementares de intensidade variável Eventos extremos como tempestades, terremotos, furacões
ou tornados nem sempre tem a mesma intensidade. Em geral, a intensidade destes eventos é dividida em escalas,
e as probabilidades de ocorrência são associadas a cada intensidade. Probabilidades de falha condicionais são
calculadas, condicionais a determinada intensidade.
Em estruturas sujeitas a carga de ondas, por exemplo, o valor máximo do carregamento durante uma
tempestade depende do valor característico de altura de onda, Hk , para a tempestade. Se fHk (h) é a função de
densidade de probabilidades para o valor característico de altura de onda, então a probabilidade de falha para
uma tempestade de duração t é dada por:
Z 1
pf e = pf e (tjHk = h)fHk (h)dh, (6.41)
0

sendo pfe (tjHk = h) a probabilidade de falha condicional, dada uma altura de onda característica de valor h.
Esta probabilidade é calculada considerando o valor máximo do carregamento para uma altura de onda h.

6.4 MODELO DE FALHA POR ACÚMULO DE DANO


Um problema de con abilidade diferente, também dependente do tempo, é o modelo de falha por acúmulo de
dano. Este modelo se aplica a problemas em que a resistência do componente ou elemento estrutural diminue ao
longo dos anos, em função de processos como fadiga, corrosão, envelhecimento, desgaste, etc. O dano provocado
é cumulativo, e a falha ocorre quando o dano atinge um nível crítico.
Para formular o problema de con abilidade correspondente, há que se endereçar qual o tipo de incerteza do
processo de carregamento. Processos como corrosão e envelhecimento ocorrem ao longo do tempo, dependem
de fatores como temperatura e humidade, mas são independentes das ações estruturais. Processos como fadiga
e desgaste geralmente estão associados a ações dinâmicas, o que sugere processos estocásticos.
Quando o(s) carregamento(s) estruturais são constantes, como a ação alternada ou ‡utuante em um eixo
(função senoidal, ainda que de amplitude incerta), a falha ocorre por puro acúmulo de dano. O mesmo ocorre
quando o(s) carregamento(s) são pontuais, e ocorrem em um tempo conhecido, ainda que com amplitude
aleatória. A incerteza nestes carregamentos pode ser representada por variáveis aleatórias, e isto dá origem
a um problema de “acúmulo de dano”.
Quando os carregamentos estruturais são processos estocásticos, temos uma combinação dos modelos
6.4. MODELO DE FALHA POR ACÚMULO DE DANO 211

de falha à primeira sobrecarga (Seção 6.1) com o modelo de falha por acúmulo de dano (esta Seção). Tais
carregamentos podem ser independentes do processo de dani cação (corrosão e envelhecimento), ou podem ser
a mesma ação que provoca o acúmulo de dano, caso do processo de fadiga.

6.4.1 Acúmulo de dano com carregamento por variável aleatória


Sob ação de diferentes mecanismos, o dano estrutural se acumula no componente mecânico ao longo do tempo,
dando origem a uma variável D(R, t). Este pode ser o dano de fadiga, contabilizado em termos do número de
ciclos solicitantes, N (R, t), aos quais o componente está submetido. Sob a ótica da mecânica da fratura (MF),
o dano acumulado pode ser expresso em termos do tamanho de uma trinca, A(R, t), ou em termos do fator
de intensidade de tensões, K(A, R, t), o qual depende do tamanho da trinca. O dano de corrosão pode ser
medido em termos da profundidade de um defeito, v(R, t), ou em termos da perda de área de seção transversal,
A(R, t). Estas medidas de dano, em geral, dependem de um número de fatores aleatórios, representados pelo
vetor de variáveis aleatórias de resistência, R. Em mecânica da fratura, o vetor R inclui os parâmetros da lei de
crescimento da trinca, o tamanho da trinca inicial A0 , as incertezas geométricas, etc. No problema de corrosão,
R inclui a taxa de corrosão, e outros parâmetros como umidade, pH, temperatura, concentração de cloretos,
etc.
Quando o carregamento é constante, ou pode ser representado por uma variável aleatória S, o problema de
acúmulo de dano pode ser escrito como:

g(R, S, t) = Dc ¡ D(R, t). (6.42)

Nesta expressão, Dc é o dano crítico, que provoca a falha do componente ou elemento estrutural. A variável S
aparece no termo Dc ou no termo D(R, t), a depender do tipo de processo de dani cação:

g(R, S, t) = N(S) ¡ N (R, t) para fadiga, com N (S) número de ciclos resistente para tensão S;
= Ac (S) ¡ A(R, t) na MF, com Ac tamanho crítico da trinca;
= Kc ¡ K(R, S, t) na MF, com Kc tenacidade a fratura crítica do material;
= σu ¡ σ(A, R, S, t) para corrosão, em termos de tensões;
= B ¡ v(R, t) para vazamento por corrosão, e espessura de parede B.

Em todos os problemas acima, a equação de estado limite depende do tempo; logo, a probabilidade de falha
também. No entanto, como as incertezas são descritas exclusivamente por variáveis aleatórias, a solução envolve
métodos de con abilidade independentes do tempo (FORM, SORM, SMC). Soluções até podem ser plotadas
em termos de pf (t), mas deve estar claro que se trata de um problema de acúmulo de dano.

6.4.2 Acúmulo de dano sob ações estocásticas


O problema de acúmulo de dano sob ações estocásticas é um problema de con abilidade dependente do tempo,
com redução gradual da resistência, conforme Eq. (6.1). A resistência diminui em função de qualquer um dos
processos citados da Seção 6.4.1; bastando adaptar as Eqs. (6.16) ou (6.19) para obter a resistência R(t). O
processo de carregamento S(t) pode ser processo discreto ou contínuo, ou até multi-axial (fadiga).
Para uma variação paramétrica da resistência, a solução expressa na Eq. (6.21) pode ser empregada, com a
taxa condicional de passagens pela barreira dependente do tempo (υ + (r, t)). A solução aproximada pela taxa de
falhas média também pode ser empregada (Eqs. 6.30 e 6.31). Esta, apesar de aproximada, permite considerar
modelos de variação estocástica da resistência (Eq. 6.19), que são mais apropriados para processos de fadiga
(Beck, 2003; Beck & Melchers, 2004) e de corrosão (Bazán & Beck, 2013).
A solução discretizada no tempo (Seção 6.3.2) também pode ser empregada, desde que se assuma a resistência
constante, e igual à resistência ao nal de cada bloco de carregamento (de forma conservadora). A discretização
212 CONFIABILIDADE DEPENDENTE DO TEMPO

do tempo pode ser para intervalos xos (e.g., anos) ou para um número aleatório de eventos ou blocos de
carregamento.
Seja υ a taxa de chegada dos eventos (tempestade em plataformas marinhas, terremoto ou tornado em
estrutura), cada ocorrência correspondendo a um bloco de carregamento. A probabilidade de falha elementar,
pf e (t), ou condicional à ocorrência de um bloco de carregamento, é calculada de acordo com a Eq. (6.42),
sendo S o máximo valor do carregamento durante o evento, e D(R, t) o dano acumulado até o nal do bloco de
carregamento, incluindo dano acumulado em eventos anteriores. Como o processo (eventos de tempestade, etc.)
ocorre de maneira contínua ao longo do tempo, a probabilidade de falha elementar é interpretada como uma
taxa de falhas: η(t) = υ pf e (t). A partir do modelo de Poisson, a probabilidade de falha à primeira sobrecarga,
para uma vida de projeto tD , ca:
· Z tD ¸
pf (tD ) ¼ 1 ¡ exp ¡ υ pfe (t)dt ¢ (6.43)
0

Para ações contínuas no tempo, como ações acidentais ou de vento em prédios, ou ação do tráfego em pontes,
uma discretização do tempo em intervalos xos é mais apropriada. Por exemplo, na análise de con abilidade
de um prédio ou ponte, sob ação de processos de corrosão e/ou fadiga, uma discretização anual é apropriada.
Neste caso, o carregamento S deve ser o máximo anual, e o dano acumulado D(R, t) até o nal do ano em
análise. Neste caso, a taxa de ocorrência do evento de carregamento é υ = 1 (um carregamento extremo anual).
Esta solução é explorada na Seção 6.5.1, no contexto de um exemplo numérico.
Comparando a Equação (6.43) com as Eqs. (6.21) e (6.30), é fundamental perceber que este resultado (Eq.
6.43) incorpora a aproximação da taxa de falhas média sobre o envelope. No entanto, em se tratando de um
problema de degradação da resistência, os erros são menores do que em problemas com resistências constantes.

6.5 EXEMPLO NUMÉRICO E SOLUÇÕES ESPECIALIZADAS

6.5.1 Comparação entre soluções (exemplo numérico)


Nesta seção é abordado um problema acadêmico simpli cado, mas que contém os principais elementos de um
problema de con abilidade dependente do tempo, típico de engenharia de estruturas. Trata-se de estrutura
hipotética sujeita a uma sequência de pulsos independentes (processo de Borges), com discretização em anos,
conforme ilustrado na Figura 6-8. Típicamente, os pulsos representam máximos anuais do carregamento ou
ação, sendo representativo de ações acidentais, máximo anual de vento, etc. Como máximos anuais, os pulsos
típicamente seguiriam distribuição tipo Weibull, Gumbel ou Frechet; neste exemplo, no entanto, e por simpli-
cidade, são representados com distribuição normal: S » N (µS , σS ) = N(1, 1), unidades arbitrárias. Diversas
variantes do problema são estudadas, considerando a resistência determinística e aleatória, com a sem variação
da resistência no tempo, com taxa de degradação determinística e aleatória. O modelo genérico da resistência
é:
R(t) = R(1 ¡ A(t/tD )α ),
sendo R(t) uma função de resistência que varia com o tempo, R a resistência inicial, A a taxa de degradação
da resistência (adimensional), tD a vida de projeto e α = 1 (variação linear da resistência no tempo). Para o
caso de resistência determinística, a resistência é:

r(t) = r(1 ¡ a(t/tD )).


6.5. EXEMPLO NUMÉRICO E SOLUÇÕES ESPECIALIZADAS 213

O carregamento de pulsos é intuitivo e a discretização em anos facilita a aplicação da solução de integração


no tempo, como veremos. A taxa de falhas anual, condicional a uma resistência r, é obtida como:

υ + (r, t) = υ+ (r(t)) = 1 ¡ ©[r(t) ¡ µS ] = 1 ¡ ©[r(1 ¡ a(t/tD )) ¡ 1].

Esta taxa pode ser integrada no tempo para obtenção da probabilidade de falha, conforme Eq. (6.9). Como o
problema é discreto no tempo, a taxa de falhas para o tempo tk é obtida como:

υ + (r, tk ) = υ + (r(tk )) = 1 ¡ ©[r(1 ¡ a(tk /tD )) ¡ 1],


o que representa uma aproximação discreta, já que a resistência varia de forma contínua com o tempo.

Resistência determinística

Primeiramente, abordamos o problema com resistência determinística, com a = 0, 2 e r = 5, ilustrado na


Figura 6-8. A solução aproximada de integração no tempo é obtida calculando, a cada ano, a distribuição de
extremos correspondente à vida transcorrida (k anos), e avaliada considerando a resistência ao nal do período
considerado, conforme Marley & Moan (1994). Para o ano k, a probabilidade de falha é:

pf (tk jr)T I = 1 ¡ © [r(1 ¡ a(tk /tD )) ¡ 1]tk ,

sendo o sub-índice ()T I para integração no tempo. Na Figura 6-8 observamos que esta solução é levemente
conservadora, em função da aproximação da resistência pela resistência mínima ao nal do período.
A solução analítica exata é obtida como:

· Z ¸ " k #
tk X
+
pf (tk jr)T V = 1 ¡ exp ¡ υ (r(t))dt = 1 ¡ exp ¡ υ(r(ti ))¢t , (6.44)
0 i=1

sendo sub-índice ()T V para con abilidade dependente do tempo e ¢t = 1 (um ano). A integral pode ser
substituída por um somatório porque a taxa de falhas é assumida constante em cada ano. Na Figura 6-8 esta
solução é comparada com a simulação de Monte Carlo, obtida com 104 amostras (resultado identi cado pela
sigla SMC).

Resistência aleatória sem degradação

Esta variante do problema é obtida com a = 0 e R » N (µR , σR ) = N (5; 0, 5). As soluções envolvem uma integral
sobre a resistência:
Z Z h i
pf (tk )T I = pf (tk jr)T I fR (r)dr = 1 ¡ © [r(1 ¡ a(tk /tD )) ¡ 1]tk fR (r)dr. (6.45)
R R

A solução analítica exata é obtida como:

Z Z " Ã k
X
!#
pf (tk )T V = pf (tk jr)T V fR (r)dr = 1 ¡ exp ¡ υ + (r(ti ))¢t fR (r)dr. (6.46)
R R i=1

A solução da taxa média sobre o envelope é obtida integrando primeiramente a taxa de falhas sobre R, para
214 CONFIABILIDADE DEPENDENTE DO TEMPO

Figura 6-8: Problema de con abilidade dependente do tempo, barreira (resistência) determinística. Soluções:
£ SMC, ¢ TI, ¡ TV.

depois fazer a integração no tempo:


·Z Z ¸ " k Z #
tk X
pf (tk )EC = 1 ¡ exp υ + (r(t))fR (r)drdt = 1 ¡ exp υ + (r(ti ))fR (r)dr¢t , (6.47)
0 R i=1 R

sendo sub-índice ()EC para taxa média sobre o envelope (Ensemble Crossing rate). As soluções acima são
avaliadas resolvendo as integrais pela regra do trapézio, e usando fR (r) = φ[(r ¡ µR )/σR ] = φ[(r ¡ 5)/0, 5]. A
Figura 6-9 mostra os resultados para este problema, incluindo a simulação de Monte Carlo (SMC). Observamos
que, como não há variação da resistência no tempo, a solução por integração no tempo é exata para este
problema. A solução da taxa média sobre o envelope, para este problema, também é su cientemente precisa.
Observamos que o parâmetro de erro da solução, para este problema, é ep = 0, 31, o que sugere que o erro é
pequeno (Beck & Melchers, 2005; Beck, 2008). Para ns de comparação, é mostrada também a solução obtida
avaliando a Eq. (6.44) na média da resistência (identi cada por µR ). Veri camos que a incerteza na resistência
é relevante; mas ainda assim a solução da taxa média sobre o envelope é su cientemente precisa.

Resistência aleatória com degradação determinística

Esta é uma variante direta do problema anterior, obtida fazendo a = 0, 2, com R » N (µR , σR ) = N (5; 0, 5).
As soluções anteriores (Eqs. 6.46, 6.45 e 6.47) são válidas, lembrando que a resistência é função de a: r(t) =
6.5. EXEMPLO NUMÉRICO E SOLUÇÕES ESPECIALIZADAS 215

Figura 6-9: Con abilidade dependente do tempo, barreira (resistência) aleatória. Soluções: £ SMC, ¢ TI, ¡
TV, ¡¡ EC, ¡ ¢ ¡ µR .

r(1 ¡ a(t/tD )). A Figura 6-10 mostra que a solução de integração no tempo passa a ser levemente conservadora,
em função da consideração da resistência no nal do período. A solução da taxa de falhas média sobre o
envelope continua aceitável, apesar da resistência média nal ter sido reduzida em 20% (parâmetro de erro nal
ep = 0, 42). A solução obtida avaliando a Eq. (6.44) na média da resistência (µR ) e a solução via simulação de
Monte Carlo (SMC) também são ilustradas.

Resistência aleatória com degradação aleatória

Esta é a variante do problema com maior incerteza por parte da resistência. A taxa de degradação é representada
como variável aleatória: A » N (µA , σA ) = N (0, 2; 0, 2), ou seja, a resistência é reduzida, em média, 20%, mas
com um desvio-padrão também de 20%. A Figura 6-11 mostra a variação ao longo do tempo da resistência média,
assim como das curvas r(µR ¡ σR , µA + σA , t) e rf (µR + σR , µA ¡ σA , t). Apesar da degradação da resistência
ser aleatória, o processo R(t) resultante ainda é um processo parametrizado, ou seja, as soluções anteriores
continuam válidas. Para este problema, no entanto, as integrais sobre a resistência se tornam bi-dimensionais.
216 CONFIABILIDADE DEPENDENTE DO TEMPO

Figura 6-10: Con abilidade dependente do tempo, barreira aleatória com degradação determinística. Soluções:
£ SMC, ¢ TI, ¡ TV, ¡¡ EC, ¡ ¢ ¡ µR .

A solução integrada e discretizada no tempo é obtida como:


Z Z
pf (tk )T I = pf (tk jr, a)T I fR (r)fA (a)dr da
ZA ZR h i
= 1 ¡ © [r(1 ¡ a(tk /tD )) ¡ 1]tk fR (r) fA (a) dr da.
A R

A solução analítica exata é obtida como:

Z Z
pf (tk )T V = pf (tk jr, a)T V fR (r)fA (a)drda
A R
Z Z " Ã k !#
X
= 1 ¡ exp ¡ υ + (r(ti ))¢t fR (r) fA (a) dr da.
A R i=1

A solução da taxa média sobre o envelope é obtida integrando primeiramente a taxa de falhas sobre R, para
6.5. EXEMPLO NUMÉRICO E SOLUÇÕES ESPECIALIZADAS 217

Figura 6-11: Con abilidade dependente do tempo, barreira aleatória com degradação aleatória. Soluções: £
SMC, ¢ TI, ¡ TV, ¡¡ EC.

depois fazer a integração no tempo:


·Z tk Z Z ¸
+
pf (tk )EC = 1 ¡ exp υ (r(t)) fR (r) fA (a) dr da dt
0 A R
" k Z Z #
X
= 1 ¡ exp υ + (r(ti )) fR (r) fA (a) dr da .
i=1 A R

As integrais acima são avaliadas pela regra do trapézio, usando fR (r) = φ[(r ¡ µR )/σ R ] = φ[(r ¡ 5)/0, 5] e
fA (a) = φ[(a ¡ µA )/σA ] = φ[(a ¡ 0, 2)/0, 2]. Os resultados estão ilustrados na Figura 6-11. Observamos que
a solução integrada no tempo é conservadora, aproximando as probabilidades para maior. A solução da taxa
média sobre o envelope é precisa em grande parte do intervalo, mas afasta-se da solução exata para o nal do
período, uma vez que a resistência média diminui, mas especialmente porque a variância da resistência aumenta
bastante ao nal do intervalo. O valor nal do parâmetro de erro é ep = 0, 79, o que segundo Beck (2008) sugere
que o erro da aproximação por taxa média pode ser grande.
218 CONFIABILIDADE DEPENDENTE DO TEMPO

6.5.2 Taxa condicional de chegada da primeira sobrecarga


Na Seção 6.1.2, formulamos o problema de falha à primeira sobrecarga em termos de uma taxa condicional de
chegada da primera sobrecarga, η(r, t), a ser oportunamente determinada. Na Seção 6.1.3 aproximamos esta
taxa pela taxa υ+ (r, t) com a qual um processo S(t) ultrapassa uma barreira r(t), de baixo para cima. Esta é
uma aproximação conveniente, já que a taxa υ + (r, t) é um resultado analítico potencialmente conhecido.
Para entender plenamente a chamada aproximação de Poisson, convém escrever a Equação (6.5) em termos
da taxa η(r, t) (Lutes & Sarkani, 1997), para então compará-la com υ + (r, t). Excluindo o caso trivial pS0 (r) = 0
(falha instantânea em t = 0), podemos escrever:
· Z t ¸
pS (r, t)
= exp ¡ η(r, u)du .
pS0 (r) 0

Tomando o logaritmo natural e derivando em relação a t em ambos os lados, obtemos:


· ¸ · Z t ¸
∂ pS (r, t) ∂
ln = ¡ η(r, u)du ,
∂t pS0 (r) ∂t 0
1 ∂pS (r, t)
= ¡η(r, t) + η(r, 0).
pS (r, t) ∂t

Por de nição, a taxa η(r, t) exclui a probabilidade de falha no instante inicial, logo η(r, 0) = 0. Sendo assim, a
taxa η(r, t) é obtida como:

1 ∂pS (r, t)
η(r, t) = ¡
pS (r, t) ∂t
µ ¶
1 pS (r, t + ¢t) ¡ pS (r, t)
= ¡ lim
¢t!0 pS (r, t) ¢t
µ ¶
1 pf (r, t + ¢t) ¡ pf (r, t)
= lim . (6.48)
¢t!0 ¢t 1 ¡ pf (r, t)

A partir deste resultado, podemos descrever η(r, t) como:


2 3
ocorrência de sobrecarga em (t, t + ¢t) dado que:
1 4 5.
η(r, t) = lim P 1. S(0) < r e (6.49)
¢t!0 ¢t
2. nenhuma sobrecarga tenha ocorrido antes de t

Em palavras, escrevemos:

...o limite, com ¢t tendendo a zero, da probabilidade de ocorrência de uma sobrecarga em [t, t + ¢t],
dado que o processo tenha iniciado no domínio de segurança e não tenha ultrapassado o nível r antes
do instante t.

É facil perceber que esta interpretação é consequência direta da formulação do problema de falha à primeira
sobrecarga. A condição 1. imposta na Equação (6.49) é consequência direta da condição imposta na Equação
(6.5). A condição 2. é consequência do fato que, por de nição, a taxa η(r, t) deveria ser a taxa (condicional) de
chegada da primeira sobrecarga.

6.5.3 Melhorias da aproximação de Poisson


A aproximação de Poisson apresentada na Seção (6.1.3) pode ser melhorada, de maneira a fazer a taxa υ + (r, t)
re‡etir melhor as condições impostas na Equação (6.49).
6.5. EXEMPLO NUMÉRICO E SOLUÇÕES ESPECIALIZADAS 219

A primeira destas aproximações leva em conta, de maneira aproximada, a condição inicial fS(0) < rg.
Conforme Seção (B.3.1), o tempo de recorrência entre passagens de barreira sucessivas pode ser decomposto
em dois segmentos, Ta e Tb , que correspondem aos tempos que o processo passa acima e abaixo do nível r,
respectivamente (Figura B-4). Na aproximação de Poisson usual, assumimos que o tempo entre passagens
sucessivas (Ta + Tb ) segue uma distribuição exponencial, de forma que o tempo de recorrência médio é:
1
E[Tr (r)] = E[Ta (r) + Tb (r)] = ¢ (6.50)
υ + (r)

Combinando as Equações (6.50) e (B.50), obtemos:

FS (r)
E[Tb (r)] = ¢ (6.51)
υ + (r)

Quando o nível da barreira é baixo, a condição fS(0) < rg faz com que o tempo até a primeira passagem
de barreira seja signi cativamente menor do que o tempo entre passagens sucessivas (Ta + Tb ). Como o tempo
até a primeira passagem de barreira é também um tempo em que o processo está abaixo do nível r, é melhor
aproximar este tempo por Tb e não por (Ta + Tb ). Expressões exatas para Tb são difíceis de determinar. Assumir
que o tempo Tb seja exponencialmente distribuído é con‡itante com a mesma suposição aplicada ao tempo
Ta + Tb , no entanto podemos fazer isto como aproximação. Com esta aproximação, a taxa η(r, t) ca:

1 υ + (r)
η(r, t) = = ¢ (6.52)
E[Tb (r)] FS (r)

Esta é uma melhoria em relação à aproximação de Poisson (Equação 6.8), que re‡ete a condição inicial.
Observe que a Equação (6.52) tem grande efeito para r pequeno, mas nenhum efeito à medida que FS (r) ! 1
com r ! 1.
Para processos de banda estreita, as ultrapassagens de barreira tendem a ocorrer em bloco. Devido à
variação gradual do envelope de amplitude destes processos, uma ultrapassagem do nível r no instante t1 tem
grande chance de ser seguida por outra ultrapassagem um período adiante (Figura 6-12). Em consequência, a
aproximação de Poisson original se torna excessivamente conservadora.
Cada bloco de ultrapassagens do nível r pelo processo de banda estreita representa apenas uma ultrapassagem
deste nível pelo processo amplitude A(t) (que também é um processo estocástico). Sendo assim, a aproximação
de Poisson (Eq. 6.8) pode ser substituída por (Vanmarcke, 1975):

η(r, t) = υ +
A (r). (6.53)

Utilizando a de nição de amplitude de Cramer e Leadbetter (1967), a taxa de ultrapassagem de barreiras


do envelope é: p
υ+ +
A (r) = ζr 2πυ (r),

sendo ζ o parâmetro espectral de nido na Equação (B.33). A Equação (6.53) pode ser ajustada para levar em
conta a condição inicial. Seguindo o raciocínio apresentado anteriormente, obtemos:

υ+
A (r)
η(r, t) = ¢ (6.54)
FA (r)

A Equação (6.54) é apropriada para processos com largura de banda pequena (α ! 1) e níveis baixos de
barreira. Para processos de banda larga e níveis elevados de barreira, no entanto, ultrapassagens de barreira
pelo envelope não correspondem, necessariamente, a ultrapassagens de barreira pelo processo original. Assim,
o número de ultrapassagens de barreira pelo processo amplitude torna-se maior do que o número atual de
ultrapassagens de barreira pelo processo S(t). Como a Equação (6.8) é apropriada para processos de banda
220 CONFIABILIDADE DEPENDENTE DO TEMPO

r, s
ultrapassagens em bloco

r (t )  r  realização de R

s (t )  realização de S ( t ) t

Figura 6-12: Passagens de barreira em bloco, característica de processos estocásticos de banda estreita.

larga e níveis elevados de barreira, e a Equação (6.54) é apropriada para processos de banda estreita e níveis
baixos de barreira, é possível fazer uma interpolação entre estes dois resultados. Estimando o número de
ultrapassagens de barreira quali cadas do processo amplitude (isto é, passagens de barreira do envelope que são
realmente seguidas por pelo menos uma passagem de barreira pelo processo S(t)), Vanmarcke (1975) chega a
uma estimativa do número médio de ultrapassagem de barreira pelo processo S(t) a cada passagem de barreira
pelo processo amplitude, para um processo Gaussiano:

+ 1
E[Nqc (r)] = p ¢ (6.55)
1 ¡ exp(¡ζr 2π)
+ υ+ (r) 1
Para processos de banda estreita e níveis baixos de barreira, o produto ζr é pequeno e E[Nqc ]¼ υ+
= p
ζr 2π
¢
A (r)
+
Para processos de banda larga e níveis elevados de barreira, o produto ζr ! 1 e E[Nqc ] ! 1. Assumindo
que as passagens quali cadas de barreira seguem um processo de Poisson, a taxa de passagens quali cadas de
barreira ca:
1 p
η(r, t) = υ + (r) + = υ + (r)(1 ¡ exp(¡ζr 2π)). (6.56)
E[Nqc (r)]

Incluindo a condição inicial, esta equação ca:


p
(1 ¡ exp(¡ζr 2π))
+
η(r, t) = υ (r) ¢ (6.57)
FA (r)

A Equação (6.57), conhecida como correção de Vanmarcke à taxa de passagens por uma barreira, é válida
para processos Gaussianos contínuos de qualquer largura de banda, e não tem limitações em termos do nível da
barreira. Esta equação também pode ser escrita em termos de taxas de passagem de barreira:

υ+ (r)
+
1 ¡ exp[¡ υ+
A
(r) ]
η(r, t) = υ (r) υ+ (r)
¢ (6.58)
1¡ υ+ (0)

Exercício 7 Plotar a razão η(r)/υ + (r) em função de r, para um processo de banda larga e um de banda
6.6. PROBLEMAS MULTI-DIMENSIONAIS NAS AÇÕES 221

estreita. Considerar processo estocástico com distribuição normal-padrão: S(t) » N (µ, σ) = N (0, 1).
Considerar as seguintes funções de densidade espectral de potência:
Banda estreita (limitada): ωA = 2π ¡ 1, ωB = 2π + 1.
Banda larga (exponencial): λ = 1.

6.6 PROBLEMAS MULTI-DIMENSIONAIS NAS AÇÕES


Nesta seção abordamos problemas de con abilidade envolvendo mais de uma ação ou carregamento, representa-
dos como processos estocásticos. Estes problemas são melhor ilustrados no chamado “espaço das ações” ou “load
space”. As Figuras 6-13 e 6-14 ilustram o problema em termos de duas ações discretas (tipo pulsos) e contínuas,
respectivamente. Observamos que as ações variam de forma aleatória no espaço, segundo suas distribuições
conjuntas de probabilidade, que nas imagens são representadas pelas distribuições marginais fSi (s, t), i = 1, 2.
Para ações estacionárias, estas distribuições não dependem de t. Nas guras vemos as raízes da equação de
estado limite, que correspondem a fsj g(r, s, t) = 0g, ou simplesmente g(r, t) = 0, também chamada de superfí-
cie de falha, neste contexto. Obviamente, estas raízes, ou a posição da equação de estado limite no espaço das
ações, muda em função das variáveis de resistência r, o que é representado na imagem pelas linhas pontilhadas,
e pela distribuição fR (r, t). O eixo correspondente ao tempo é aquele que entra (ou sai) do grá co plano. As
realizações do processo multi-dimensional S(t) aparecem projetadas no plano. Nas imagens não está represen-
tada a possível variação da posição da equação de estado limite com o tempo, que ocorre quando há degradação
da resistência. A representação do problema na dimensão temporal ainda pode ser compreendida segundo a
Figura 6-1; no entanto, convém pensar na falha como uma passagem, de cima para baixo, pelo zero da equação
de estado g(R, S, t). No espaço das ações, falamos na taxa de passagens “para fora” do domínio de segurança
ou “out-crossing rate”, representada por υ +­ (r, t) nas Figuras 6-13 e 6-14 e no texto a seguir.

A solução de problemas de con abilidade multi-dimensionais nas ações começa com a determinação da taxa
de passagens “para fora” do domínio de segurança, ou simplesmente taxa de falhas, υ + ­ (r, t). Esta pode ser
avaliada a partir de uma generalização do resultado de Rice (1944), Eq. (B.57), segundo Belyaev (1968). Para
um problema estacionário, temos:
Z
+
υ ­ (r) = E[S_ n j S(t) = s]+ fS (s)ds
g(r)=0
Z Z 1
= s_ n fSS_ (s, s_ n ) ds_ n ds, (6.59)
g(r)=0 0

sendo E[S_ n j S(t) = s]+ fS (s) uma taxa de falhas local, normal à superfície de falha: S_ n = nt S.
_ Em teoria,
a taxa de falhas local pode ser avaliada conforme Seção B.3.2. No entanto, a integração multi-dimensional
sobre a superfície de falha (g(r) = 0) é uma di culdade adicional. Resultados analíticos existem apenas para
processos Gaussianos estacionários e para superfícies de falha de geometria simples (Ditlevsen, 1983; Hagen
& Tvedt, 1991; Hagen, 1992; Melchers & Beck, 2018). A solução se torna ainda mais complexa quando, não
necessariamente nesta ordem:

1. a superfície de falha não é dada de forma analítica, mas numérica (e.g., elementos nitos);
2. a superfície de falha é função de variáveis aleatórias que descrevem a resistência ou parâmetros do sistema;
222 CONFIABILIDADE DEPENDENTE DO TEMPO

Figura 6-13: Problema de con abilidade no espaço das ações, ações discretas.

Figura 6-14: Problema de con abilidade no espaço das ações, ações contínuas.
6.6. PROBLEMAS MULTI-DIMENSIONAIS NAS AÇÕES 223

3. a superfície de falha varia com o tempo (problema de degradação da resistência);


4. as ações são não-estacionárias;
5. as ações são não-Gaussianas.

Em problemas de degradação da resistência ou ações não-estacionárias, as taxas de falha na Eq. (6.59) se


tornam função do tempo. Logo, a integração da taxa local sobre a superfície de falha, que já é computacional-
mente custosa, deve ser repetida ao longo do tempo. Generalizando o resultado da Eq. (6.59) para este caso,
obtemos: Z
υ+­ (r, t) = E[(S_ n ¡g(r,
_ t))j S(t) = s]+ fS (s)ds. (6.60)
g(r,t)=0

Conforme o caso escalar, a probabilidade de falha condicional a uma realização R = r é obtida por uma
integração desta taxa no tempo (Eq. 6.20). Pelo teorema da probabilidade total, a probabilidade de falha
é obtida por uma integração multi-dimensional sobre as variáveis de resistência (Eq. 6.21). Juntando os
resultados, e negligenciando a probabilidade de falha inicial pf0 , obtemos a solução geral:
Z ( " Z ÃZ
tD ½Z 1 ¾ ! #)
pf (tD ) ' 1 ¡ exp ¡ s_ n fSS_ (s, s_ n )ds_ n ds dt fR (r)dr. (6.61)
R 0 g(r,t)=0 0

Esta solução corresponde à integrais encadeadas de (1) taxas de falha locais sobre (2) superfície de falha
condicional a r, (3) sobre o tempo e (4) sobre as variáveis de resistência. Com excessão de casos particulares
envolvendo processos Gaussianos e superfícies de falha de geometria simples, a solução da Eq. (6.61) é numérica.
Algumas destas soluções são apresentadas na sequência.

6.6.1 Soluções FORM encadeadas


Quando os componentes do vetor de ações S(t) são processos Gaussianos estacionários e ergódicos, a avaliação
das taxas de falha na Eq. (6.59) pode ser simpli cada aproximando a superfície de falha de forma linear ou
quadrática, em um ponto de projeto equivalente à solução do método de primeira ordem ou FORM (Madsen
& Tvedt, 1990). O problema é convertido do espaço das ações para o espaço normal padrão, através de uma
transformação YS (t) = T(S(t)), sendo Y(t) um vetor de processos estocásticos com distribuição normal padrão.
O ponto de projeto y¤S , ou ponto de linearização da superfície de falha, é encontrado resolvendo o problema:

Determine: y¤S (r) que minimiza: ySt yS


sujeito a: g(yS , r) = 0. (6.62)

Seja ®(r) o vetor de cossenos diretores do ponto yS¤ encontrado. Um processo Gaussiano uni-dimensional
na direção ® é obtido fazendo V (t) = ®t YS (t). O índice de con abilidade é obtido como β(r) = ®t y¤S .
Considerando uma aproximação linear da superfície de falha, a taxa de falhas é aproximada como (veja Eq.
B.60): µ ¶
+ 1 σ V_ 1 β(r)2
υ ­ (β(r)) ¼ exp ¡ . (6.63)
2π σ V 2 σ 2V

A técnica de integração rápida de probabilidades (Seção 6.2.4) pode ser utilizada para resolver a integral
sobre R. A técnica converte as duas integrais externas na Eq. (6.61) na solução de um problema aumentado,
resolvido via FORM:
¤
Determine: yR + que minimiza: k(yR , yn+1 )k
sujeito a: g(yS , yR , yn+1 ) = 0, (6.64)
224 CONFIABILIDADE DEPENDENTE DO TEMPO

sendo£ yR = T(R) a transformação,


¤ para o espaço normal padrão, das variáveis de resistência, e yn+1 =
©¡1 pf (tD j T¡1 (yR )) uma variável adicional. A solução é avaliada conforme Seção 6.2.4.
Combinando as duas soluções acima, obtemos aplicações encadeadas do FORM. A solução pode ser numeri-
camente intensa, e só é apropriada para variabilidade pequena do vetor R, segundo Rackwitz (1985). Para
processos Gaussianos não-estacionários ou superfície de falha dependente do tempo (e.g., degradação da re-
sistência), a solução interna para a taxa de falhas (Eq. 6.63) deve ser repetida ao longo do tempo, e a solução
ca computacionalmente mais cara.

6.6.2 Simulação direcional


Uma solução distinta para o problema apresentado na Eq. (6.61) é a chamada simulação direcional (Melchers,
1992). O problema é decomposto de forma polar: uma direção ® é obtida por simulação, no espaço das ações,
e um problema escalar é resolvido na direção ®, de forma analítica ou por simulação radial. Seja A o conjunto
de direções (A = f0, 2πg para o caso bi-dimensional ilustrado nas Figuras 6-13 e 6-14) e V a variável aleatória
que descreve a incerteza na resistência na direção ®. A probabilidade de falha é obtida como:
Z ·Z ¸
pf (tD ) = fA (®) pf (vj®)fV jA (vj®)dv d®, (6.65)
A V

sendo R = V A + c a resistência, c o ponto de origem da simulação direcional, fV jA (vj®) a distribuição de


probabilidades condicional da resistência, na direção ®. Esta distribuição não é trivial de calcular; detalhes
são apresentados em Melchers (1992, 1994) e Melchers & Beck (2018). A probabilidade de falha condicional na
direção ® é dada por: µ · Z ¸¶
tD
pf (vj®) = pf0 (vj®) + 1 ¡ exp ¡ υ+
­ (vj®)dt , (6.66)
0

sendo υ +
­ (vj®) uma taxa de falhas condicional, na direção ®. Esta é uma taxa local no espaço das ações, obtida
para uma razão xa entre as ações, determinada pela direção ®.

6.6.3 Taxa de falhas de processos contínuos diferenciáveis como sistema em parale-


lo
Conforme Seção B.3.2, a avaliação da taxa de passagens pela barreira, de um processo contínuo diferenciável,
pode ser convertida no cálculo de probabilidades associadas a um sistema em paralelo. Esta ideia, apresentada
por Hagen & Tvedt (1991), com base em resultados não publicados de Madsen (Academia Dinamarquense de
Ciências), pode ser extendida ao caso de ações multi-dimensionais. A solução se aplica a processos estacionários
ou não-estacionários, com qualquer distribuição de probabilidades, desde que diferenciáveis. A solução se aplica
quando a equação de estado limite é diferenciável no tempo.
A passagem do domínio de sobrevivência para o domínio de falha, em problemas multi-dimensionais, pode ser
representada com uma passagem de cima para baixo, ou de um valor positivo para um valor negativo, da equação
de estado limite do problema, g(r, S, t). Portanto, a taxa de saídas do domínio de segurança (out-crossing rate),
ou simplesmente taxa de falhas, pode ser calculada como:
1
υ+
­ (r, t) = lim P [g(r, S, t) > 0 \ g(r, S, t + ¢t) < 0]. (6.67)
¢t!0 ¢t
Seguindo o desenvolvimento apresentado na Seção B.3.2, e utilizando uma aproximação de primeira ordem
g(r, S, t + ¢t) ' g(r, S, t) + ¢tg(r,
_ S, t), a Eq. (6.67) pode ser escrita como:

1
υ+
­ (r, t) = lim P [g(r, S, t) > 0 \ (g(r, S, t) + ¢tg(r,
_ S, t)) < 0]. (6.68)
¢t!0 ¢t
6.6. PROBLEMAS MULTI-DIMENSIONAIS NAS AÇÕES 225

Este resultado também pode ser escrito em termos da diferença:


½ ¾
1 P [g(r,
_ S, t) < 0 \ (g(r, S, t) + ¢tg(r,
_ S, t)) < 0]+
υ+
­ (r, t) = lim . (6.69)
¢t!0 ¢t ¡P [g(r,
_ S, t) < 0 \ g(r, S, t) < 0]

A Eq. (6.69) representa a derivada em relação a t da probabilidade de falhas do sistema paralelo entre
colchetes. Esta derivada pode ser aproximada por diferenças nitas, substituindo ¢t por θ:

d
υ+
­ (r, t) = P [g(r,
_ S, t) < 0 \ (g(r, S, t) + θ g(r,
_ S, t)) < 0]jθ=0 , (6.70)

d
sendo dθ P [ ]jθ=0 uma medida de sensibilidade. Observe a semelhança entre esta expressão e a Eq. (B.68). A
Figura (6-15) ilustra os eventos constantes na Equação (6.70), em termos das variáveis aleatórias G(t) = g(r, S, t)
_
e G(t) = g(r,
_ S, t). A Equação (6.70) representa um problema de con abilidade independente do tempo,
envolvendo um sistema em paralelo, e pode ser resolvida a partir das seguintes equações de estado limite,
reescritas como g1 e g2 :

g1 (r, S, t) = g(r,
_ S, t),
g2 (r, S, t, θ) = g(r, S, t) + θ g(r,
_ S, t). (6.71)

A experiência do autor mostra que aproximações lineares, como os limites bi-modais estudados na Seção
4.3.1, não são su cientemente sensíveis à rotação da equação de estado limite g2 (θ). Bons resultados foram
obtidos pelo autor utilizando simulação com amostragem por importância.
Esta solução é genérica e de implementação prática. É válida para processos Gaussianos ou não, estacionários
e não-estacionários, e para variáveis de resistência que variam no tempo. Para problemas estacionários, apenas
uma avaliação da Eq. (B.68) é necessária; para problemas não-estacionários, a avaliação deve ser repetida
ao longo do tempo. As soluções são condicionais a uma realização R = r do vetor de variáveis aleatórias de
resistência.
A avaliação de taxa de falhas a partir da solução de um sistema em paralelo, aqui apresentada, foi empregada
por Hagen (1992) em problema escalar, e comparada com soluções asintóticas. Der Kiureghian & Li (1996)
empregaram esta solução em problema de vibrações aleatórias. Vijalapura et al. (2000) na análise de osciladores
histeréticos com parâmetros aleatórios. Der Kiureghian (2000) empregou esta solução para avaliar taxas de falha,
a partir de uma solução em que o processo de carregamento é discretizado em conjunto de variáveis aleatórias.
Em Beck (2008), a solução é empregada na avaliação da probabilidade de falha de pórtico plano sujeito a três
processos estocásticos de carregamento.

6.6.4 Taxa de falhas média sobre o envelope da resistência como sistema em


paralelo
A solução apresentada na Eq. (6.70) converte a avaliação da taxa de falhas em um problema de con abilidade
independente do tempo, envolvendo apenas variáveis aleatórias, e um sistema em paralelo. O leitor atento terá
percebido que o custo computacional desta solução, envolvendo apenas as variáveis aleatórias relacionadas às
ações, não aumenta muito caso as variáveis de resistência sejam inclusas na análise. Neste caso, eliminamos a
integral externa sobre a resistência (Eq. 6.61), que tem grande impacto no custo computacional. Obviamente,
tal solução representa a aproximação da taxa média sobre o envelope da resistência, apresentada da Seção 6.2.5.
226 CONFIABILIDADE DEPENDENTE DO TEMPO

Figura 6-15: Avaliação da taxa de falhas em problemas multi-dimensionais, utilizando sistema em paralelo.

Ao incluir as variáveis R, a solução ca:

υ+ +
E­ (t) = ER [υ ­ (r, t)]
d
= Pθ [g(R,
_ S, t) < 0 \ g(R, S, t) + θg(R,
_ S, t) < 0]jθ=0 . (6.72)

Esta é uma versão multi-dimensional da Eq. (6.31), na qual a integração sobre R ocorre de maneira
implícita, através da solução do problema envolvendo equações de estado limite em paralelo. De fato, o custo
computacional da solução da Eq. (6.72) é apenas marginalmente maior do que a solução da Eq. (6.70). No
entanto, conforme observado na Seção 6.2.5, o erro pode alcançar várias ordens de magnitude. As estimativas
de erro apresentadas em Beck (2003, 2008) e em Beck & Melchers (2004a) são estritamente válidas para o caso
escalar. Ainda assim, por hipótese, e em generalização aos resultados destas referências, a solução deve ser
apropriada quando envolver pequeno número de ciclos de carga, e/ou quando σR << σS . Em Beck & Melchers
(2005), a aproximação da taxa média, para a combinação de três processos Gaussianos, é comparada com outras
aproximações baseadas no carregamento, como a integração no tempo e a regra de Turkstra.

6.7 COMBINAÇÃO DE AÇÕES


Conforme vimos na Seção 6.6, a solução de problemas de con abilidade envolvendo mais de uma ação, repre-
sentadas como um processo estocástico multi-dimensional, não é trivial. Uma forma de contornar o problema é
determinar uma ação equivalente, que represente o efeito combinado de duas ou mais ações estocásticas atuando
em conjunto. Nesta seção abordamos o problema de combinação de ações, que se aplica quando as ações individ-
uais se combinam de forma puramente aditiva. As soluções exploradas nesta seção tem particular importância
para os fatores de combinação de ações variáveis em normas técnicas.
6.7. COMBINAÇÃO DE AÇÕES 227

6.7.1 Caso geral (point-crossing formula)


Sejam S1 (t) e S2 (t) dois processos estocásticos estacionários, representando duas ações independentes. Estamos
interessados na distribuição de probabilidades do processo soma S(t) = S1 (t) + S2 (t), e/ou na taxa υ + S (b) de
passagens deste processo por uma barreira b. Quando S1 (t) e S2 (t) são Gaussianos o problema é trivial, pois
S(t) será também Gaussiano, seus momentos podem ser determinados diretamente a partir dos momentos de
S1 (t) e S2 (t), e a taxa de passagens pode ser obtida da Eq. (B.63).
No caso geral, uma solução aproximada pode ser obtida a partir da fórmula de Rice, aplicada ao processo
_
soma S(t). Como S(t) = S1 (t) +S2 (t) e S(t) = S_ 1 (t) + S_ 2 (t), a distribuição de probabilidades conjunta fS S_ (s, s)
_
pode ser expressa em termos de fS1 S_ 1 (x1 , s_ 1 ) e fS2 S_ 2 (s2 , s_ 2 ) através de uma integral de convolução:
Z 1 Z 1 .
fS S_ (s, s)
_ = fS1 S_ 1 (u, s_ 1 )fS2 S_ 2 (s ¡ u, s_ ¡s_ 1 )duds_ 1 , (6.73)
¡1 ¡1

_ 1 . Utilizando a fórmula de Rice (Equação B.57) e mudando a


observando que u = s1 , s2 = s ¡ u, s_ 2 = s_ ¡s
ordem de integração, podemos reescrever a Eq. (6.73) como:
Z 1Z 1Z 1
υ+S (b) = (s_ 1 + s_ 2 )fS1 S_ 1 (u, s_ 1 )fS2 S_ 2 (b ¡ u, s_ 2 )ds_ 2 ds_ 1 du.
¡1 ¡1 s_ 2 =¡s_1

Esta equação di cilmente pode ser resolvida de forma analítica. No entanto, uma aproximação conservadora
pode ser obtida integrando por partes e ampliando os limites de integração, conforme segue:
Z 1 Z 1 Z 1
υ+
S (b) = υ +
pc (b) · s_ 1 fS1 S_ 1 (u, s_ 1 )fS2 S_ 2 (b ¡ u, s_ 2 )ds_ 1 ds_ 2 du
¡1 ¡1 0
Z 1Z 1 Z 1
+ s_ 2 fS1 S_ 1 (u, s_ 1 )fS2 S_ 2 (b ¡ u, s_ 2 )ds_ 2 ds_ 1 du. (6.74)
¡1 ¡1 0

Integrando a Eq. (6.74) em relação a s_ 1 e s_ 2 , obtemos:


Z 1 Z 1
υ+
S (b) · υ +
S1 (u)f S2 (b ¡ u)du + υ+
S2 (b ¡ u)fS1 (u)du, (6.75)
¡1 ¡1

sendo υ +
Si (b) a taxa de passagens do processo Si (t) pela barreira b. A função fSi (s) é a função de densidade
do processo Si (t) para um ponto arbitrário no tempo. A Equação (6.75) é conhecida na literatura como point-
crossing formula 3 .
Procedendo de maneira semelhante, podemos obter a taxa de passagens para a soma de 3 processos estocás-
ticos (Larrabee & Cornell, 1981):
Z 1 Z 1 Z 1
υ+
S (b) · υ +
S1 (u)f23 (b ¡ u)du + υ +
S2 (u)f13 (b ¡ u)du + υ+
S3 (u)f12 (b ¡ u)du, (6.76)
¡1 ¡1 ¡1

sendo: Z 1
fij (s) = fSi (u)fSj (s ¡ u)du
¡1

a distribuição de ponto arbitrário do processo soma Si (t) + Sj (t).


As Equações (6.75 e 6.76) são exatas para algumas combinações de ações, o que inclui processos discretos
(e.g., processos de pulsos ou de onda quadrada de Poisson). Em geral, as Eqs. (6.75 e 6.76) são exatas sempre

3 Entendemos ser irrelevante traduzir um nome especí co como este para o portugues.
228 CONFIABILIDADE DEPENDENTE DO TEMPO

que os processos na soma satisfaçam (Larrabee & Cornell, 1981):

P [S_ i (t) > 0 \ S_ j (t) < 0] = 0, (6.77)

para todos os processos i, j e para qualquer t. A Equação (6.77) expressa matematicamente a condição necessária
para que a variação em um processo não anule uma ultrapassagem de barreira decorrente de uma variação em
outro processo.
Quando os processos Si (t) são contínuos, as Equações (6.75 e 6.76) podem ser utilizadas como aproximação.
O erro máximo desta aproximação pode ser determinado a partir de uma combinação de processos Gaussianos.
Quando aplicada à soma de dois processos Gaussianos, com taxa de passagens pela barreira dada por (B.63), a
Equação (6.75) resulta:
· ¸
1 σS_ 1 + σ S_ 2 b ¡ µS
υ+
S (b) ·p φ ,
2π σS σS
sendo µS = µS1 + µS2 , σ 2S = σ2S1 + σ 2S2 , como pode ser facilmente veri cado. Comparando esta expressão
diretamente com a Equação (B.63), aplicada ao processo soma com µS , σS , obtemos a razão entre os dois
resultados como:
σ _ + σS_ 2
q S1 ¢ (6.78)
σ2S_ + σ 2S_
1 2
p
Esta expressão resulta em um erro máximo igual a 2 quando σS_ 1 = σS_ 2 . Para outras combinações de duas
p p
ações, o erro é em geral menor do que 2. Para uma combinação de três ações, o erro será menor
p do que 3.
Generalizando, para a combinacão de n ações, o erro máximo da point-crossing formula será n.
As Equações (6.75 e 6.76) podem ser extendidas para combinações de mais de três ações, para combinações
não-lineares e para combinações envolvendo processos não estacionários (Ditlevsen & Madsen, 1983).

Exercício 8 Para a soma de três processos Si (t) com distribuição normal padrão: Si (t) » N (0, 1), S(t) =
S1 (t) + S2 (t) + S3 (t), plotar, em função de r, a razão entre a taxa de passagens pela barreira, obtida a partir
da point-crossing formula (Eq. 6.76), e a taxa exata:

υ+pc (r)
+ .
υ exata (r)

6.7.2 Combinação de ações discretas


A Equação (6.76) é exata para combinações de processos discretos, mas torna-se difícil de avaliar quando mais
de três ações atuam simultaneamente. Para combinação de processos discretos, resultados mais práticos podem
ser obtidos.
Processos de pulsos discretos renováveis são descritos na Seção B.5.4, e ilustrados nas Figuras B-9 e B-10.
Considere a combinação de ações do tipo renovável (mixto), com pulsos retornando a zero ao nal de cada
aplicação. Para estes processos, a taxa de passagens pela barreira é:

υ+
i (b) = υ i qi (1 ¡ Fi (b))
= υ i qi pi (b), (6.79)

sendo:
6.7. COMBINAÇÃO DE AÇÕES 229

qi a probabilidade de pulso de intensidade não-nula;


υi qi a taxa observável de chegada de pulsos (de intensidade não-nula);
υi a taxa de chegada de pulsos (processo de Poisson);
pi (b) = 1 ¡ Fi (b) a probabilidade de que o pulso seja maior do que b;
di = υqii a duração média dos pulsos (de intensidade não-nula).
Observe que o produto υi di = qi de ne o aspecto do processo. Com υ i di = qi ! 1 temos um processo cheio
(onda quadrada); com υi di = qi ! 0 temos um processo de pulsos esparsos.
Para uma combinação de np processos mistos, a taxa de passagens pela barreira é dada por (Rackwitz,
1985):
np
X
υ+S (b) = υ i qi fP [Si 2 ­f ] ¡ P [(Si 2 ­f ) \ (S 2 ­f )]g , (6.80)
i=1

sendo S o vetor de carregamentos, e Si o vetor de carregamentos dada renovação (chegada de pulso) no car-
regamento i. Esta equação é difícil de avaliar na forma em que se apresenta. Uma aproximação desta expressão
para dois pulsos é dada por (Wen, 1977a):

υ+
S (b) ¼ λ1 p1 (b) + λ2 p2 (b) + λ12 p12 (b), (6.81)

sendo λi a taxa de ocorrência do i¡ésimo carregamento somente; λ12 a taxa de coincidência de dois pulsos; e
p12 (b) a probabilidade de exceder a barreira b, dada a coincidência de dois pulsos.
Ultrapassagens de barreira segundo a Equação (6.81) correspondem à: processos 1 e 2 atuando individual-
mente (1o e 2o termos) e ambos processos ativos (3o termo - coincidência de pulsos). A Equação (6.81) pode
ser generalizada para np processos (ações):
np np ¡1
np np ¡2 np ¡1 np
X X X X X X
υ+
S (b) ¼ λi pi (b) + λij pij (b) + λijk pijk (b) + .... (6.82)
i=1 i=1 j=i+1 i=1 j=i+1 k=j+1

A taxa λijk corresponde a coincidêndia de três pulsos. Obviamente, quanto mais esparsos os pulsos (υ i di !
0), menor é esta taxa, e menos termos no somatório (Eq. 6.82) precisam ser considerados.
A determinação da probabilidade de falha condicional pijk (b) envolve apenas variáveis aleatórias, e portanto
pode ser realizada através de métodos de con abilidade independente do tempo, como FORM, SORM ou SMC.
Portanto, a Equação (6.82) pode ser aplicada a problemas bastante complexos. Como a parcela “desligada” dos
processos está inclusa na taxa de chegada dos pulsos (termos υ i qi ), a determinação da probabilidade condicional
pijk (b) deve ser feita com base na distribuição original da variável clipada, i.e., a distribuição que caracteriza a
parte não nula da intensidade.
Para processos mutualmente independentes, as taxas λ são calculadas como:
Y
λi = υ i qi [pj ¡ υ j qj di ] ,
j6=i
Y
λij = υ i qi υ j qj (di + dj ) [pk ] ,
k6=j6=i
Y
λijk = υ i qi υ j qj υ k qk (di dj + di dk + dj dk ) [pl ] . (6.83)
l6=k6=j6=i

Quando os pulsos são de curta duração (di pequeno), o termo υ j qj di dentro do produtório na primeira linha
da Eq. (6.83) pode ser desconsiderado. Isto já foi feito na segunda e terceira linha, para simpli car as taxas λij
e λijk . Quando os pulsos são esparsos (υ i di ! 0), os termos dos produtórios tendem a 1 e, portanto, podem
230 CONFIABILIDADE DEPENDENTE DO TEMPO

ser ignorados.
A solução expressa na Equação (6.82) aproxima a solução da Eq. (6.80). Esta aproximação é particularmente
boa quando os processos são esparsos. Na prática, a Equação (6.82) forneçe ótimos resultados, mesmo quando
a fração ativa de cada processo é da ordem de 0, 2, para níveis razoavelmente altos da barreira (Larrabee &
Cornell, 1979).
Soluções para pulsos não-retangulares e para dependência entre pulsos são apresentadas por Wen (1977b,
1981, 1990). Soluções para processos dependentes são apresentadas em Wen (1981). Soluções envolvendo com-
binações de processos discretos com processos contínuos são discutidas por Pearce & Wen (1984) e Winterstein
& Cornell (1984).

6.7.3 Regra de Turkstra


Uma solução empírica para o problema de combinação de ações pode ser derivada da regra determinística de
combinação de ações de Turkstra (1970). Esta regra permite formular um conjunto de problemas de con -
abilidade independentes do tempo, como aproximação para a solução do problema de combinação de ações
estocásticas. A regra se aplica ao problema de determinar o valor máximo de um processo formado pela soma
linear de np processos componentes:

S(t) = S1 (t) + S2 (t) + ... + Snp (t). (6.84)

A regra de Turstra pode ser derivada da combinação de processos de Borges (Turkstra & Madsen, 1980) ou
da point-crossing formula (Larrabee & Cornell, 1979). De maneira informal, a regra de Turkstra a rma que
o valor máximo do processo S(t) pode ser aproximado pela maior combinação entre o valor máximo de um
dos processos componentes (max[Si ]) e o valor de ponto arbitrário (arbitrary point-in-time) Sj (t) dos demais
processos componentes: 2 3
np
np X
max[S] ¼ max 4max[Si ] + Sj 5 . (6.85)
i=1
j=1,j6=i

A regra de Turkstra pode ser utilizada diretamente na solução de problemas de con abilidade envolvendo
mais de um carregamento estocástico. Um conjunto de problemas de con abilidade independente do tempo é
formulado considerando a distribuição de valores extremos de um dos processos, combinado com a distribuição
original (de ponto arbitrário) dos demais processos. Obtemos assim um total de np problemas de con abilidade
independente do tempo, que podem ser resolvidos por FORM ou SORM. Em cada um dos np problemas, a
distribuição de máximos de um dos processos componentes é considerada. As funções de estado limite para os
np problemas de con abilidade independente do tempo são:
0 1
np
X
gi (R, SEi ) = R(R) ¡ @(Si )tD + Sj A = 0, (6.86)
j=1,j6=i

sendo (Si )tD a variável aleatória valor extremo do processo componente i no intervalo [0, tD ] e Sj o valor de
ponto arbitrário do processo componente j. Na Eq. (6.86), SEi representa o vetor de ações aleatórias, cujo
componente i é a distribuição de extremos do processo i, e cujos demais componentes são as distribuições de
ponto arbitrário dos demais processos.
A probabilidade de falha nal é a maior dentre as np probabilidades de falha. A Equação (6.85) é não-
conservadora, de forma que esta solução forneçe um limite inferior da probabilidade de falha real do problema:
"Z #
np
pf (tD ) ¸ max fR (r)fSEi (s)drds . (6.87)
i=1 gi (R,SEi )·0
6.7. COMBINAÇÃO DE AÇÕES 231

Por outro lado, sabemos que a chance de os valores extremos de dois ou mais carregamentos coincidirem
no tempo é muito pequena. Ainda assim, um limite superior da probabilidade de falha pode ser calculado
considerando a coincidência dos extremos de todos os carregamentos:
Z
pf (tD ) << fR (r)fSE (s)drds.
gUB (R,SE )·0

Este resultado é obtido a partir da equação de estado limite:


à np !
X
gUB (R, SE ) = R(R) ¡ (Si )tD = 0, (6.88)
i=1

sendo SE o vetor formado por todas as distribuições de valores extremos das ações.
As soluções apresentadas nesta seção assumem que a resistência não muda ao longo do tempo. A nal, a
aplicação da regra de Turkstra a problemas de con abilidade estrutural representa uma variante da técnica de
integração no tempo (Seção 6.3.1), para múltiplos carregamentos. Obviamente, a solução pode ser empregada
como aproximação quando existe degradação da resistência. Para obter uma aproximação conservadora, neste
caso, devemos considerar a resistência ao nal do período de vida útil, ou ao nal do bloco de carregamento,
conforme Seção (6.4).
A combinação de ações variáveis, nas normas técnicas de projeto, deriva diretamente da regra de Turkstra
aqui apresentada. Em geral, os valores nominais destas ações correspondem à moda das distribuições de extremos
das mesmas. Considerando a pequena probabilidade de coincidência dos extremos das ações no tempo, fatores
de combinação de ações são utilizados para reduzir o valor daquelas ações consideradas como secundárias na
combinação. Dada a semelhança entre os problemas de con abilidade aqui apresentados, e a combinação de
ações variáveis em normas, a regra de Turkstra é muito utilizada na calibração, baseada em con abilidade, dos
coe cientes parciais de segurança e dos coe cientes de combinação de ações, conforme Capítulo 7.

6.7.4 Comparação entre soluções


Uma análise comparativa das soluções point-crossing formula, regra de Turkstra e taxa de falhas média sobre
o envelope da resistência foi realizada por Beck & Melchers (2005), para a soma de três processos Gaussianos
estacionários, contínuos e de banda larga, com distribuição normal padrão Si (t) » N (0, 1), e uma barreira
aleatória R » N (µR , σR ). A equação de estado limite do problema é:

g(R, S, t) = R ¡ (S1 (t) + S2 (t) + S3 (t)) = R ¡ S(t). (6.89)

A solução exata deste problema pode ser determinada a partir dos momentos do processo soma, S(t), e das
Eqs. (6.21 e B.63). Os autores veri caram que a solução deste problema pela point-crossing formula e pela
regra de Turkstra também pode ser parametrizada em termos do parâmetro p de erro ep , da solução
p taxa média
(Eq. 6.33), desde que normalizada fazendo µ = (µR ¡ µS )/σ S = (µR ¡ 0)/ 3 e σ = σR /σ S = σR / 3. Para uma
soma de processos contínuos, as soluções point-crossing formula e regra de Turkstra são aproximações na parte
das ações, enquanto a solução da taxa média é uma aproximação por parte da resistência. Assim, quando estas
três soluções são parametrizadas em termos do mesmo termo ep , tendências distintas são observadas. Para ep
pequeno, a solução da taxa média é precisa, como comentado na Seção 6.2.5. Já o erro das aproximações point-
crossing formula e regra de Turkstra é maior. No outro lado do espectro, para ep grande, o erro de aproximação
da taxa média explode, enquanto o erro das soluções point-crossing formula e regra de Turkstra tende a zero.
Em termos gerais, esta tendência pode ser esperada para qualquer outra combinação de carregamentos (mais
de três termos, processos não-Gaussianos, outras funções de auto-correlação do processo, etc.).
Resultados especí cos foram obtidos por Beck & Melchers (2005) para a soma de três processos estocásticos
232 CONFIABILIDADE DEPENDENTE DO TEMPO

Gaussianos, com função de auto-correlação Markoviana de primeira ordem, com fator de regularidade α = 0, 4,
e para aproximadamente 260 passagens por zero ou 650 picos de carga. Para este número de picos de carga,
os autores veri caram que a solução da taxa média é mais precisa do que a regra de Turkstra para ep . 1, 1,
mas que o erro das duas aproximações é muito grande para 0, 25 . ep . 4. Para ep & 1, 1, coe cientes de
sensibilidade da solução via FORM utilizando a regra de Turkstra con rmam que o problema é dominado pela
barreira (veja Seção 6.2.5). A comparação de resultados também mostra que a solução da taxa média é mais
precisa
p que a solução point-crossing formula para ep . 0, 27, sendo que o erro máximo da point-crossing formula
( 3 para este problema) é obtido para ep ¼ 0, 22.
A forma como os erros acima mudam para outros números de picos de carga, ou para outras funções de auto-
correlação, processos não-Gaussianos, mais termos na soma, etc., ainda precisa ser investigada. Sabemos que os
erros da aproximação da taxa de falhas média sobre o envelope da resistência variam de forma acentuada com
o número de picos de carga (Beck, 2008), mas o efeito do número de picos de carga nas soluções point-crossing
formula e regra de Turkstra não é conhecido.
Capítulo 7

CONFIABILIDADE E AS NORMAS
DE PROJETO

7.1 INTRODUÇÃO
Normas técnicas de projeto estabelecem requisitos mínimos de segurança, e servem como base legal para a
prática da engenharia de estruturas. Normas técnicas buscam um equilíbrio delicado entre dois objetivos
con‡itantes: garantir a segurança dos usuários, e da sociedade em geral, e produzir estruturas e cientes, ou
economicamente competitivas. A solução deste con‡ito torna-se mais difícil porque normas devem atender
a toda uma classe de estruturas, e não a uma estrutura em particular1 . Normas estabelecem o nível de risco
aceitável para a sociedade, em geral, mas também in‡uenciam na competitividade de um país ou região. Normas
excessivamente conservadoras desviam para a construção civil recursos que poderiam ser empregados em outras
áreas, em benefício da mesma sociedade. Em geral, o desenvolvimento das normas de projeto estrutural tem
sido satisfatório: falhas estruturais são raras. No entanto, quando as falhas ocorrem, as consequências são
desastrosas para os usuários, a exposição pública é enorme, e as consequências econômicas e legais são severas,
para o arquiteto, o engenheiro e o proprietário da obra (Ellingwood, 2000).
Para o leitor familiarizado com a teoria de Con abilidade Estrutural, a relação desta com os aspectos de
segurança de normas técnicas deve parecer óbvia e natural. No entanto, esta relação nem sempre existiu. Ao
longo de alguns séculos, a engenharia de estruturas evoluiu de um ofício para uma pro ssão. Durante a maior
parte desta evolução, a questão da segurança foi abordada de forma empírica, ou por processo de tentativa-
e-erro. O processo de aprendizado foi lento, e acompanhado de inúmeras falhas e desastres (Petroski, 1992;
2006; 2012). Cálculos formais da resistência de estruturas surgiram apenas ao nal do século 19, por meio
de Navier e Coulomb. A primeira norma técnica nacional contendo procedimentos objetivos de cálculo foi o
London Building Act de 1844. Já no nal do século 20, avanços importantes nos métodos de cálculo, bem como
a ampla disponibilidade de computadores e de ferramentas de análise numérica, permitiram avanços objetivos
nos procedimentos normativos.
Nas primeiras normas, ações variáveis de projeto eram determinadas com base no máximo valor histórico
observado. No entanto, os períodos de registro eram relativamente curtos, e logo se percebeu que os valores
históricos eram ultrapassados com frequência. O uso de estatísticas para analisar registros de vento, por exemplo,
surgiu apenas nos anos 1930 (Davenport, 1961). Em 1961 a ASCE sugere o uso de valores correspondentes
aos períodos médios de retorno de 50 e 100 anos, valores tidos como “conservador” e “mais conservador”,
respectivamente. Em 1972, a norma americana (NBS, 1972) passa a especi car o período médio de retorno de
50 anos como padrão para determinar o valor nominal da ação do vento no projeto de estruturas convencionais.

1 No Capítulo 8 endereçamos o projeto ótimo de estruturas individuais.


234 CONFIABILIDADE E AS NORMAS DE PROJETO

Mapas de risco para terremotos, com contornos correspondentes à ação com período médio de retorno de 475
anos (10% de probabilidade de ser excedida em 50 anos) surgem nos EUA apenas em 1976.
A teoria de Con abilidade Estrutural surge nos anos 1950-60, mas apenas em 1968-72 são feitos avanços
signi cativos. A Tabela 7.1 apresenta um paralelo histórico entre a evolução da Con abilidade Estrutural e das
normas técnicas de projeto de estruturas.
Normas técnicas anteriores a 1982 (e algumas atuais) utilizam o formato conhecido como tensões admissíveis,
em que a tensão última ou a tensão de escoamento do material é dividida por um coe ciente de segurança global
λG :
σESC
σADM = ¢
λG

A tensão de escoamento corresponde ao valor característico da resistência; ações nominais de projeto são
determinadas com base em período médio de retorno especí cado. Fora isto, um único coe ciente de segurança
λG cria a margem de segurança em projeto. Como veremos, este formato de coe ciente único não fornece
graus de liberdade su cientes para se produzir segurança uniforme, para o espectro de estruturas cobertos por
determinada norma.
Ao longo dos anos, o coe ciente de segurança global foi sendo ajustado, de forma a re‡etir avanços técnicos
e maior con ança nos procedimentos de cálculo. No projeto de elementos de aço sob tração, por exemplo, em
cem anos este coe ciente foi reduzido de aproximadamente 2, 5, em 1880, para 1, 7.
Com suporte nos desenvolvimentos em Con abilidade Estrutural, em 1978 surge a base técnica para o
que é hoje conhecido como formato dos estados limites, adotado nas principais normas de projeto atuais. A
principal característica deste formato é que um coe ciente parcial de segurança é utilizado para cada uma das
ações, e outro(s) é (são) utilizado(s) para a resistência do elemento, ou para cada material constituinte. Outra
característica notável é que estes coe cientes tem sido calibrados para atingir índices de con abilidade alvo,
de forma uniforme para o espectro de estruturas cobertos por determinada norma. Em paralelo, ocorreu a
formação de um consenso: de que uma única norma de ações deveria servir como norma “mãe” para as normas
dedicadas a materiais especí cos (concreto, aço, alvenaria, madeiras). As principais normas de estados limites,
e o processo de calibração com base em con abilidade estrutural, são discutidos neste capítulo. Tendências de
desenvolvimentos futuros também são discutidas.

7.2 NORMAS DE ESTADOS LIMITES


As normas de projeto de estruturas utilizadas atualmente estão baseadas no formato dos estados limites. A
equação de projeto fundamental estabelece que a resistência de projeto (rD ), deve ser maior ou igual à solicitação
de projeto (sD ), onde o índice ()D refere-se à condição de projeto (do inglês Design):

rD ¸ sD .

As normas diferem em como resistência e solicitação de projeto são determinadas.

7.2.1 Normas americanas (formato LRFD)


O desenvolvimento das normas norte-americanas está mais explícito na literatura, como se percebe na introdução
deste texto. Estas normas (ASCE, ANSI, AISC, ACI) estão baseadas no que se convencionou chamar de formato
7.2. NORMAS DE ESTADOS LIMITES 235

Tabela 7.1: Desenvolvimento histórico con abilidade estrutural x normas.


Ano(s): Eventos
1950-60: Desenvolvimentos teóricos. Problemas simples e abstratos. Primeiras noções de que co-
e cientes de segurança deveriam ser determinados com base na teoria de probabilidades.
1963: comitê de normas da ACI percebe a necessidade de tratar incertezas em ações e em
resistências separadamente. Freudenthal et al., 1964: The analysis of Structural Safety.
1969: Convergência de interesses entre a comunidade cientí ca, buscando aplicações para a con -
abilidade estrutural, e os comitês normativos, buscando por formas mais racionais de gestão
do risco em normas técnicas. Noção do índice de con abilidade. Separação de incertezas em
incerteza física e incerteza de modelo. AISC e AISI iniciam projeto conjunto para desen-
volver uma norma semi-probabilística baseada nos conceitos do método de primeira ordem e
segundo momento(FOSM); este projeto dá origem ao formato LRFD utilizado atualmente.
1970: Desenvolvimento de modelos probabilísticos de ações e de combinação de ações motivados
diretamente pela aplicação à normas técnicas de projeto.
1972: ANSI A58 Load Standard provê mapas de contorno para carregamentos extremos de vento
e neve em função do período de retorno.
1975: Comissão da comunidade européia estabelece programa com objetivos de eliminar di cul-
dades técnicas ao comércio e propiciar a uni cação das normas técnicas entre os estados-
membro, dando origem aos EUROCODES.
1978-79: Di culdades técnicas removidas (FOSM), incorporação das distribuições estatísticas
(FORM), introduzido o conceito de otimização de risco em normas técnicas. Maior parte
das ferramentas necessárias para a primeira geração de normas semi-probabilísticas (for-
mato atual) já se encontram desenvolvidas. Tendência para projeto baseado em estados
limites encontra-se madura. Identi cadas vantagens de se ter um conjunto único de es-
peci cações de ações para qualquer material estrutural. 1978: Base técnica para o formato
LRFD apresentado em uma série de artigos. Publicada norma NB-1/78, já com os con-
ceitos de estados limites e emprego de coe cientes parciais de segurança 1979: Avanços em
análise de primeira ordem, modelos estocásticos de ações, estatísticas de ações e otimização
permitem a determinação do primeiro conjunto de coe cientes parciais de segurança deter-
minados probabilisticamente. Estes coe cientes são adotados na norma ANSI A58.1 de 1982
e posteriormente incorporados na norma ASCE 7-1988.
1980-84: Em 1980 surge a primeira geração de EUROCODES. Ellingwood & Galambos, 1982: Prob-
abilistic based criteria for structural design, Structural Safety. 1984: Estados limites incor-
porados na norma brasileira NBR8681.
1998: ISO 2394: General principles on reliability for structures. Primeira norma a estabelecer a
equivalência entre projeto por estados limites e projeto baseado em con abilidade.
2001: Nova versão do EUROCODE: prEN1990: Basis of Structural Design. Apresentado projeto
(piloto) de norma probabilística do JCSS.
2003: Atualização da NBR8681. Sem registro de calibração baseada em con abilidade.
236 CONFIABILIDADE E AS NORMAS DE PROJETO

LRFD (do inglês Load and Resistance Factor Design), em que a equação de projeto é dada de forma fatorizada:

nq
X
φR R(rk ) ¸ γ i Si (qni ). (7.1)
i=1

Nesta equação, R( ) é a função que determina a resistência do elemento estrutural, em função da resistência
característica do(s) material(ais) constituinte(s), φR < 1 é um fator de redução da resistência do elemento, Si ( )
são funções que convertem cada ação em seu efeito, qni é o valor nominal da ação i, γi > 1 é o fator parcial de
segurança na ação i, e nq é o número de ações a serem combinadas.
As normas americanas não trabalham diretamente com a Equação (7.1), mas com um conjunto pré-estabelecido
de combinações de ações, nas quais os coe cientes parciais γ i tem valores distintos. Assim, a solicitação de pro-
jeto é dada pelo maior valor dentre (ASCE/SEI 7-16:2005):
2 3
1, 4Dn
6 1, 2Dn + 1, 6Ln 7
6 7
6 1, 2Dn + 1, 6Sn + (0, 5Ln ou 0, 8Wn ) 7
sD = max 66 7, (7.2)
7
6 1, 2Dn + 1, 3Wn + 0, 5Ln 7
4 1, 2Dn + 1, 5En + (0, 5Ln ou 0, 2Sn ) 5
¡0, 9Dn + (1, 3Wn ou 1, 5En )

onde as letras D, L, S, W , E representam as ações permanente (Dead load ), (sobre-)carga de utilização (Live
load ), de neve (Snow load ), de vento (Wind load) e de terremoto (Earthquake load), respectivamente. Como se
percebe, a ação variável considerada principal na combinação tem coe ciente parcial γ > 1; a ação secundária
tem coe ciente parcial γ < 1. Isto é consequência da regra de Turkstra, discutida nas Seções 2.4.5 e 6.7. A
princípio, todos os coe cientes parciais na Equação (7.2) poderiam ser diferentes, o que resultaria em 17 “graus
de liberdade” no processo de calibração de normas. Isto é muito apropriado, pois permite atingir índice de
con abilidade alvo de forma mais homogênea, como veremos. Por outro lado, as normas americanas são mais
limitadas no que se refere aos materiais, já que um único coe ciente parcial φR re‡ete a incerteza nas resistências,
mesmo para elementos estruturais compostos de mais de um material.

7.2.2 EUROCODES e normas brasileiras


As normas européias ou EUROCODES adotam um formato que é, em geral, semelhante ao formato LRFD,
mas com algumas diferenças signi cativas. Uma única equação de projeto é utilizada:

µ ¶ Ã nq !
rk1 rk2 X
R , , ... ¸S γ i qni . (7.3)
γ R1 γ R2 i=1

Nesta equação, R( ) é a função que determina a resistência do elemento estrutural, em função da resistência
característica do(s) material(ais) constituinte(s), γRi > 1 são fatores de redução da resistência para cada ma-
terial, S( ) é a função que converte uma combinação de ações em seu efeito, qni é o valor nominal da ação i,
γ i > 1 é o fator parcial de segurança na ação i, e nq é o número de ações a serem combinadas.
A Eq. (7.3) dá origem a várias combinações de ações, que precisam ser veri cadas em projeto. O termo de
combinação de ações, a direita, pode ser escrito em termos de ações permanentes (D), ação variável principal
(qnp ) e ações secundárias (qni ):
µ ¶ Ã nq
!
rk1 rk2 X
R , , ... ¸ S γD Dn + γ p qnp + γ i ψi qni , (7.4)
γ R1 γ R2 i=2
7.2. NORMAS DE ESTADOS LIMITES 237

sendo ψi o fator de combinação das ações secundárias, que reduz o valor nominal correspondente ao período de
retorno (50 anos) ao valor de ponto arbitrário da ação.
Para efeitos de comparação com as normas americanas, e considerando apenas as ações permanentes (D),
de utilização (L) e do vento (W ), a solicitação de projeto é dada por:
2 2 33
γ D Dn
6 6 γ D Dn + γ L Ln 77
6 6 77
sD = S 66 max 6 γ D Dn + γ W Wn
6
77 .
77 (7.5)
4 4 γ D Dn + γ L Ln + γ W ψW Wn 55
γ D Dn + γ L ψ L Ln + γ W Wn

Na prática, apenas as duas últimas equações precisam ser consideradas. O formato apresentado na Eq. (7.3)
é também o formato da norma NBR 8800:2008.

7.2.3 Comparação entre as normas americanas e EUROCODES


Como vemos, há semelhanças no formato de “estados limites” das normas americanas e EUROCODES, mas
também há diferenças importantes. Do ponto de vista da resistência, os formatos são equivalentes quando há
apenas um material envolvido, e quando a equação de resistência R( ) é linear ou aproximadamente linear.
Neste caso:
1
γR ¼ ¢
φR
Para elementos compostos, como concreto armado, ou compostos de aço e concreto, o formato Americano é
menos ‡exível, uma vez que um único fator de redução da resistência do elemento é utilizado (Kogut e Chou,
2004). Em termos de resistências, o formato do EUROCODE fornece mais “graus de liberdade” na calibração.
Já em termos da combinação de ações, o formato Americano é mais ‡exível, uma vez que, em teoria, os
coe cientes parciais das ações podem ser diferentes em cada equação de combinação. Considerando apenas as
ações permanentes (D), de utilização (L) e do vento (W ), a equação equivalente à Eq. (7.5) é:
2 3
γ 1 Dn
6 γ 2 Dn + γ 3 L n 7
6 7
6
sD = max 6 γ 4 Dn + γ 5 Wn 7, (7.6)
7
4 γ 6 Dn + γ 7 L n + γ 8 W n 5
γ 9 Dn + γ 10 Ln + γ 11 Wn

portanto, são onze graus de liberdade na calibração, contra apenas cinco (γ D , γ L , γ W , ψL , ψW ) no formato dos
EUROCODES. O estudo de Beck e Souza Jr. (2010) deixa claro que o formato americano permite menor
variabilidade, em relação ao índice de con abilidade alvo, no caso de estruturas feitas de um único material
(metálicas, no caso estudado).

7.2.4 Outras normas


Normas utilizadas em outros países podem ser vistas como variações dos formatos de estados limites das normas
americanas e EUROCODEs. As normas canadenses (NRCC, 1977), por exemplo, utilizam um único coe ciente
parcial de resistência (Eq. 7.1), mas a combinação de ações segue o formato da Eq. (7.3).
238 CONFIABILIDADE E AS NORMAS DE PROJETO

7.3 DETERMINAÇÃO DOS COEFICIENTES PARCIAIS DE SE-


GURANÇA
A segurança de estruturas projetadas segundo normas de estados limites é função, entre outros, dos coe cientes
parciais de segurança utilizados em projeto. O índice de con abilidade, que é uma medida da segurança, é
portanto função destes coe cientes:

β = β(φR , γ D , γ L , γ W , ψL , ψW , ...)

O problema de con abilidade dito direto consiste em encontrar o índice de con abilidade β de uma estrutura,
projetada por meio de determinado conjunto de coe cientes parciais φ, γ D , γ L , γ W , ..., conforme Exemplo 2 e
exercícios subsequentes (Capítulo 3, pg. 86). O problema inverso consiste em determinar os coe cientes parciais
de segurança que resultam no índice de con abilidade desejado, também chamado de índice de con abilidade
alvo (β T , do inglês Target). Esta é a base do chamado problema de calibração de normas (veja Seção 7.4).
Quando os coe cientes parciais de segurança são determinados com base na teoria de Con abilidade Estru-
tural, e na calibração para atingir índice de con abilidade alvo, o projeto utilizando as Eqs. (7.1) e (7.3) é dito
semi-probabilístico, ou método de nível 1 (veja Tabela 2.11, pg. 76). Os coe cientes parciais de determinada
equação de projeto (nível 1) são determinados a partir de técnicas de con abilidade de nível 2 ou 3. A calibração
com base em nível 2 (FOSM) tem valor apenas didático, uma vez que a maior parte das distribuições envolvidas
não é normal. A calibração com base em métodos de nível 3 (FORM ou SMC) tem a precisão necessária às
aplicações práticas.
Para efeitos de determinação dos coe cientes parciais de segurança, consideremos uma estrutura previamente
dimensionada, e com índice de con abilidade (β) conhecido. Uma vez dimensionada a estrutura, o ponto médio,
as distribuições de probabilidade e o ponto de projeto estão xos e de nidos. A equação de veri cação e os
coe cientes parciais correspondentes podem ser especi cados com base em qualquer ponto sobre a equação de
estado limite, pontos nos quais temos a igualdade entre a resistência e a solicitação. No entanto, é natural
que esta veri cação seja feita no ponto de projeto, ou pelo menos na vizinhança deste. Isto equivale a projetar
a estrutura na con guração limite de maior probabilidade de ocorrência, em concordância com a de nição do
ponto de projeto.

7.3.1 Determinação a partir de análise em nível 2 (FOSM)


Recordemos que uma análise de con abilidade de primeira ordem e segundo momento (FOSM) consiste em
encontrar o chamado ponto de projeto y¤ ; o índice de con abilidade β vem a ser a distância entre este ponto
e a origem do espaço normal padrão (veja Seção 3.2). A solução está baseada na transformação de Hasofer e
Lind (Eq. 3.1), de forma que as coordenadas do ponto de projeto, no espaço de projeto X, são:

x¤i = µXi + yi¤ σXi ,

para i = 1, ..., n e sendo n o número de variáveis aleatórias do problema. Utilizando a Equação (3.14), esta
expressão ca:

x¤i = µXi ¡ αi βσXi = µXi (1 ¡ αi βδ Xi ), (7.7)


sendo δ Xi o coe ciente de variação da variável Xi e αi os cossenos diretores do hiperplano tangente à equação
de estado limite no ponto de projeto (Eq. 3.13).
Uma vez determinado que o ponto de veri cação seja o ponto de projeto, e conhecidas as coordenadas deste,
os coe cientes parciais da equação de veri cação podem ser determinados em relação a qualquer outro ponto
(de referência) do espaço amostral. O ponto de referência pode ser o ponto médio, ou o ponto correspondente
7.3. DETERMINAÇÃO DOS COEFICIENTES PARCIAIS DE SEGURANÇA 239

aos valores característicos das variáveis de resistência e nominais das ações. Para esta análise, convém separar
o vetor X em variáveis de resistência e ações. Utilizando R para resistência e Q para as ações, temos:

X = fR, Qgt e x¤ = fr¤ , q ¤ gt .

Note que Q apenas representa as ações, que podem ser D, L, W , etc.

Referência no ponto médio

Quando aplicados aos valores médios, os coe cientes parciais dão origem a toda a margem de segurança do
dimensionamento. Nesta situação, os coe cientes parciais são determinados a partir de:

r¤ = φR µR para variáveis de resistência,


q¤ = γ Q µQ para variáveis de solicitação (ações).

Utilizando o resultado expresso na Equação (7.7), chegamos a:

φR = (1 ¡ αR β δ R ),
γQ = (1 ¡ αQ β δ Q ). (7.8)

Para variáveis de resistência, o coe ciente αR é positivo, o que resulta em um fator de redução de resistência
φR < 1. Para as ações, o coe ciente αQ é negativo, e portanto γ Q > 1, como esperado.

Referência nos valores característicos ou nominais

Nas normas de estados limites, os coe cientes parciais de segurança são aplicados aos valores característicos das
resistências (rk ), e aos valores nominais das ações (qn ):

r¤ = φR rk para variáveis de resistência,


q¤ = γ Q qn para variáveis de solicitação (ações). (7.9)

Combinando esta expressão com a Equação (7.7), e manipulando, chegamos a:


µ ¶
µR
φR = (1 ¡ αR β δ R ),
rk
µ ¶
µQ
γQ = (1 ¡ αQ β δ Q )¢ (7.10)
qn

Observe que as razões que aparecem nesta expressão são os fatores de tendência (bias), usualmente conhecidos
no processo de calibração (veja Tabelas 2.5, 2.6 e 3.1). As Eqs. (7.10) são úteis para uma veri cação rápida dos
fatores parciais, mas têm valor prático limitado, por serem baseadas em análise de segundo momento (FOSM).
Além disto, os cossenos diretores (αR , αQ ) variam bastante para diferentes con gurações estruturais, como pode
ser visto em Beck e Souza Jr. (2010) e Santiago et al. (2020).

Exemplo 14 Margens de segurança em relação às médias:

Enunciado: Determinar as margens de segurança obtidas em relação às médias, para combinação de ações
D + L, assumindo distribuições normais.
240 CONFIABILIDADE E AS NORMAS DE PROJETO

Solução: Seja a equação de estado limite para combinação de ação permanente (D) e ação variável de
utilização (L), com X = fR, D, Lgt :
g(X) = R ¡ D ¡ L.
Assumindo distribuições normais para R, D e L, com a transformação para o espaço normal padrão, temos:

g(y) = y1 σR + µR ¡ y2 σD ¡ µD ¡ y3 σL ¡ µL .

Derivando em relação a y, e dividindo pela norma do gradiente, obtemos:


rg 1 t t
®= =p 2 fσ R , ¡σD , ¡σL g = fαR , αD , αL g . (7.11)
krgk σ R + σ2D + σ2L

Substituindo na Eq. (7.7), obtemos as margens de segurança em relação às médias:

β σ2
µR ¡ r¤ = αR βT σ R = p 2 T 2R ,
σR + σD + σ2L
β σ2
µD ¡ d¤ = αD β T σ D = ¡ p 2 T 2D ,
σR + σD + σ2L
β σ2
µL ¡ l¤ = αL β T σL = ¡ p 2 T 2L .
σR + σ D + σ 2L

Este resultado mostra que, para β T > 0, o ponto mais provável de falha ou ponto de projeto (r¤ , d¤ , l¤ ) é
tal que r¤ < µR , d¤ > µD e l¤ < µL . Observamos também que a margem de segurança correspondente
a β T é imposta na equação de veri cação através dos coe cientes parciais φR , γ D e γL e das respectivas
parcelas:
βT © 2 2 2 ªt
p σR , σD , σL .
σ2R + σ2D + σ2L

Exemplo 15 Projeto segundo norma (g), determinação de coe cientes parciais em nível 2 (FOSM).

Enunciado: Determinar fφR , γ D , γ L g para projeto de uma viga de aço sob ‡exão uniforme (Exemplo 2,
pg. 86), com Ln /Dn = 1 e β T = 3 especi cados, assumindo distribuições normais.

Solução:
A equação de estado limite para o problema é g(X) = R ¡ D ¡ L. A partir da Eq. (7.11), e utilizando
os dados constantes na Tabela 3.1, pg. 86, temos:

t t
® = fαR ; αD ; αL g = f0, 847; ¡ 0, 206; ¡ 0, 490g .

Adotando βT = 3 e utilizando os valores calculados para o Exemplo 2, o coe ciente de redução da


resistência ca (Eqs. 7.10):
µ ¶
µR
φR = (1 ¡ αR βT δ R ) = (1, 07)(1 ¡ 0, 847 £ 3 £ 0, 13) = 0, 72¢
rk
7.3. DETERMINAÇÃO DOS COEFICIENTES PARCIAIS DE SEGURANÇA 241

De maneira semelhante, os coe cientes de majoração das ações cam:


µ ¶
µD
γD = (1 ¡ αD βT δ D ) = (1, 05)(1 + 0, 206 £ 3 £ 0, 10) = 1, 11;
Dn
µ ¶
µL
γL = (1 ¡ αL β T δ L ) = (1, 00)(1 + 0, 490 £ 3 £ 0, 25) = 1, 37.
Ln

Compare estes valores com os coe cientes parciais reportados na Tabela 3.1, lembrando que se trata apenas
de um exemplo, e um caso particular de viga em ‡exão. Observe que o “peso” dado à variável R, para
aumentar o índice de con abilidade de 2,5 para 3,0, re‡ete os coe cientes de sensibilidade encontrados no
Exemplo 3, pg. 91, Eq. (3.29).

Exercício 9 Projeto segundo norma (h), calibração: repita o Exemplo 15, considerando razão de ações
Ln /Dn = 5. Resposta: fφR , γD , γ L g = f0, 76; 1, 07; 1, 49g. Interpretação: o coe ciente γ L aumentou,
re‡etindo a maior participação da ação variável neste caso. Em consequência, φR diminuiu marginalmente,
re‡etindo a menor contribuição de R. Veja os coe cientes de sensibilidade obtidos no Exercício 4, pg. 92.

7.3.2 Determinação a partir de análise em nível 3 (FORM ou SMC)


A determinação dos coe cientes parciais de segurança com base em métodos de con abilidade de nível 3 (FORM
ou SMC) não é trivial, e geralmente é feita de forma numérica, conforme discutido na próxima seção. No entanto,
é possível derivar expressões semelhantes às Equações (7.10), aproximadas, para ns de veri cação.
Os métodos FORM e FOSM estão relacionados através da transformação para o espaço normal padrão.
Utilizando as Eqs. (3.49) ou (3.72), e desconsiderando qualquer correlação entre as variáveis aleatórias, esta
transformação é escrita como:
FXi (x¤i ) = © (yi¤ ) = pi , (7.12)
sendo Xi a i-ésima variável do problema, x¤i a coordenada do ponto de projeto para esta variável, e pi a
probabilidade mantida constante na transformação. Combinando as Eqs. (7.12) e (3.14), escrevemos:

yi¤ = ©¡1 (pi ) = ¡αi β.

Para uma distribuição lognormal, típica de variáveis de resistência, temos da Eq. (A.42):

ln(x¤i ) = ξ ©¡1 (pi ) + λ = ¡ξ αi β + λ.

Particularizando para uma variável de resistência R, e utilizando as Eqs. (A.43):

ln(r¤ ) = ¡ξ αR β + λ = ln(µR ) ¡ 0.5ξ 2 ¡ αR β ξ.

Para δ R = σ R /µR . 0, 3, podemos aproximar ξ ¼ δ R e desprezar o termo ξ 2 , obtendo ln(r¤ ) = ln(µR )¡ αR β δ R .


Como ln(r¤ ) = ln(φR Rk ), resulta:

φR Rk = exp[ln(µR ) ¡ αR β δ R ] = exp[ln(µR )] exp[¡ αR β δ R ]


242 CONFIABILIDADE E AS NORMAS DE PROJETO

ou: µ ¶
µR
φR = exp[¡ αR β δ R ]. (7.13)
rk

Para uma distribuição Gumbel, típica de ações variáveis extremas, e usando a Eq. (A.118), temos:

ln[¡ ln(pi )]
x¤i = ¡ + un
β
p
sendo β = πσ ¡1 6/6 o fator de forma da distribuição de Gumbel. Particularizando para uma ação variável Q,
e lembrando que q ¤ = γ Q Qn , temos:
ln[¡ ln(pi )]
γ Q Qn = ¡ + un .
β
Se o valor nominal da ação variável for igual ao máximo característico da distribuição de extremos, Qn = un e:

ln[¡ ln(pi )]
γQ = ¡ + 1.
un β
p
Usando a Eq. (A.119) e manipulando, obtemos un β = πδ ¡1 6/6 ¡ γ, sendo γ a constante de Euler. Portanto,
lembrando que pi = ©(¡αQ β T ), temos:

ln[¡ ln(©(¡αQ βT ))]


γQ = 1 ¡ p . (7.14)
πδ ¡1
Q 6/6 ¡ γ

Exemplo 16 Projeto segundo norma (i), determinação de coe cientes parciais em nível 3 (FORM).

Enunciado: Utilizando os fatores ® encontrados no Exemplo 15, determinar fφR , γ D , γ L g para projeto de
uma viga de aço sob ‡exão uniforme, com Ln /Dn = 1 e β T = 3 especi cados, considerando distribuições
constantes na Tabela 3.1.

Solução: Apesar de se tratar de uma solução em nível 3 (FORM), observe que não temos os valores
corretos dos cossenos diretores ®. Portanto, podemos apenas melhorar a estimativa dos coe cientes parciais,
utilizando os fatores ® encontrados no Exemplo 15.
Utilizando ® = f0, 847; ¡ 0, 206; ¡ 0, 490gt e os valores da Tabela 3.1, obtemos:
µ ¶
µR
φR = exp[¡ αR β δ R ] = 1, 07 exp[¡0, 847 £ 3 £ 0, 13] = 0, 77;
rk
ln[¡ ln(©(¡αL β T ))] ln[¡ ln(©(¡0, 49 £ 3))]
γL = 1 ¡ ¡1
p =1¡ p = 1, 57.
πδ L 6/6 ¡ γ π4 6/6 ¡ γ

Observe que, mesmo utilizando valores ® aproximados em segundo momento, os coe cientes parciais
encontrados se aproximam daqueles utilizados na norma ASCE 7:2010, em comparação aos valores encon-
trados no Exemplo 15.
O valor γ D = 1, 11 não muda, pois a distribuição é Normal.
7.4. CALIBRAÇÃO DAS NORMAS DE ESTADOS LIMITES 243

Exercício 10 Projeto segundo norma (j), calibração: repita o Exemplo 16, considerando razão de ações
Ln /Dn = 5. Resposta: fφR , γ D , γL g = f0, 80; 1, 07; 1, 82g. Interpretação: o valor γL = 1, 82 passou
bastante do valor γ L = 1, 6 utilizado na norma ASCE 7, possívelmente porque esta norma foi calibrada
para razão Ln /Dn = 3.

Avaliação dos coe cientes preconizados na norma ASCE/SEI 7-10:2010

As Equações (7.10) e (7.13) são apresentadas no Capítulo C2 da norma ASCE/SEI 7-10:2010 sobre combinação
de ações.
Para o escoamento de um elemento de aço em tração, a norma ASCE 7:2010 considera: αR = 0, 7; µR /Rk =
1, 06 e δ R = 0, 09; o que resulta em um fator parcial φR = 0, 88; ou γ R ¼ 1, 14, utilizando a Eq. (7.13).
Já para a ação variável de utilização, a norma ASCE/SEI 7-10:2010 considera: αL = 0, 8; µL /Ln = 1, 0 e
δ L = 0, 25; quando L é considerada como ação principal na combinação; αL = 0, 4; µL /Ln = 0, 3 e δ L = 0, 6;
quando L é considerada como ação secundária na combinação. Utilizando estes valores, e considerando uma
distribuição Normal, implícita na Eq. (7.10), os coe cientes parciais para ação variável são obtidos como
γ L = 1, 6; quando L é a ação principal; e γ L = 0, 52; quando L é a ação secundária na combinação. Estes
são praticamente os valores preconizados na norma ASCE/SEI 7-10:2010, nas combinações 1, 2D + 1, 6L e
1, 2D + 1, 0W + 0, 5L, quando L0 < 100 kN/m2 .
Como observado anteriormente, os fatores de participação fαR ; αD ; αL gt variam bastante para diferentes
con gurações estruturais, como ilustrado em Beck e Souza Jr. (2010) e Santiago et al. (2020). Portanto,
entendemos que os fatores informados na norma ASCE/SEI 7-10:2010 foram calculados após o procedimento
de calibração, e de forma a resultar nos coe cientes parciais encontrados na calibração. Uma evidência neste
sentido é a observação de que a soma dos cossenos diretores não é unitária, isto é, a soma α2R + α2D + α2L é
diferente da unidade. Tomando L como ação principal, por exemplo, temos: α2R + α2L = 0, 72 + 0, 82 = 1, 13 > 1;
restando nenhum espaço para a participação de α2D .
Utilizando os parâmetros da norma ASCE/SEI 7-10:2010 para L como ação principal, mas com a formulação
apresentada neste texto para a distribuição de Gumbel, Eq. (7.14), e impondo γL = 1.6, obtemos:

ln[¡ ln(©(¡αL βT ))] ln[¡ ln(©(¡αL £ 3))]


γL = 1 ¡ ¡1
p =1¡ p = 1, 6.
πδ L 6/6 ¡ γ 4π 6/6 ¡ γ

Resolvendo para αL , obtemos αL = 0, 51. Este valor está um pouco abaixo daquele observado nos exercícios de
calibração.

7.4 CALIBRAÇÃO DAS NORMAS DE ESTADOS LIMITES


O problema de calibração, baseada em con abilidade, dos coe cientes parciais de segurança de normas de
projeto tem sido endereçado há alguns anos (Sorensen et al., 1994; Ellingwood, 1994; Ellingwood et al., 1980;
Nowak & Szerszen, 2003; Gayton et al., 2004; Gulvanessian & Holicky, 2005, Holicky, 2008). Nesta seção
apresentados os elementos essenciais do processo de calibração, e alguns resultados preliminares obtidos para
244 CONFIABILIDADE E AS NORMAS DE PROJETO

as normas brasileiras.

7.4.1 Procedimento de calibração


Nesta seção discutimos como o processo de calibração de norma de estados limites é realizado. Este processo está
bem documentado no caso da calibração da norma americana ANSI A58:1982, que deu origem à atual norma
ASCE 7:2006 (Minimum Design Loads for Buildings and other Structures). O processo de calibração dos
EUROCODES é mais recente e aparentemente ainda não foi concluído em todos os países-membro. As normas
brasileiras nunca passaram por este procedimento, mas iniciativas pontuais e em andamento são discutidas na
Seção 7.4.4.
A apresentação segue, em linhas gerais, o processo de calibração da norma americana ANSI A58, documen-
tada por Ellingwood et al. (1980). Esta foi a primeira norma de estados limites que, seguindo o procedimento
ilustrado nesta seção, aposentou uma norma de tensões admissíveis. O processo de calibração pode ser dividido
em nove etapas, conforme segue.

1. De nição do escopo da norma a ser calibrada, o que inclui de nir material construtivo (aço, concreto
armado, concreto protendido, alvenaria, madeira) e tipo de estrutura (prédios, pontes, torres), etc. Com
base no entendimento de que os coe cientes parciais das ações devem ser os mesmos para todos os materiais
construtivos, a calibração das normas de ações deve ocorrer primeiro, englobando os principais materiais.
2. Seleção dos pontos de calibração: toda norma de projeto se aplica a uma classe de estruturas; dentro
desta classe há variações individuais. Portanto, é necessário dividir os principais parâmetros de projeto em
conjuntos de pontos de veri cação. Como exemplo, temos razão entre vão e altura de vigas, razão entre
altura e profundidade de vigas, classes de tensão resistente dos materiais, comprimento de vãos, área de
lajes, taxa de armadura, etc.). Além disto, há que se considerar diferentes elementos estruturais cobertos
na mesma norma: vigas em ‡exão, vigas em cisalhamento, elementos tracionados, pilares sob compressão
centrada e ‡exo-compressão, lajes, etc. Nem sempre estes parâmetros tem in‡uência na equação de
projeto ou na con abilidade estrutural; portanto, familiaridade com o problema é fundamental. Um
parâmetro menos óbvio, mas que tem grande in‡uência na con abilidade, e portanto nos coe cientes
parciais de segurança, é a razão entre ações. No projeto de prédios, é importante considerar diferentes
razões entre os valores nominais de ações variáveis e o peso próprio, Ln /Dn e Wn /Dn . Razões maiores
correspondem à estruturas mais leves, ou seja, aquelas em que a participação do peso próprio é menor.
Prédios de concreto armado, por exemplo, apresentam valores típicos na faixa 0, 5 . Ln /Dn . 1, 5; já
prédios em aço apresentam 1 . Ln /Dn . 2. Pontos de calibração para razões entre ações são dados como
Ln /Dn = f1, 2, 3, ...g ou Wn /Dn = f1, 2, 3, ...g. Cada ponto de calibração corresponde a uma con guração
em que o elemento estrutural será projetado, e terá sua con abilidade avaliada.
3. Projeto dos elementos estruturais (correspondentes a cada ponto de calibração) segundo a norma a
ser aposentada. A con abilidade destes elementos servirá como base para determinar o nível de segurança
existente.
4. De nição das equações de estado limite para a análise de con abilidade. Estas equações correspon-
dem às equações normativas, mas devem ser o mais realistas possíveis, i.e., devem evitar as aproximações
conservadoras adotadas nas normas. Exemplos: equação de projeto é analítica, mas calibração é feita
considerando modelo numérico de maior precisão; norma em estudo permite análise linear, mas equação
de estado limite para análise de con abilidade é baseada em resposta não linear.
5. Determinação das propriedades estatísticas das variáveis aleatórias envolvidas. Estatísticas
para variáveis típicas em projeto de estruturas são apresentadas no Capítulo 2, Seções 2.3 e 2.4.
6. Análise de con abilidade em nível 3 (FORM ou SMC) dos elementos estruturais projetados segundo
norma a ser aposentada. Esta análise resulta no índice de con abilidade βijk , para cada um dos pontos
7.4. CALIBRAÇÃO DAS NORMAS DE ESTADOS LIMITES 245

de calibração identi cados no item 2. Estes índices representam a segurança proporcionada pelo projeto
segundo a norma a ser aposentada, e servem como referência para a determinação do índice de con -
abilidade alvo (βT ). Valores típicos obtidos na calibração da norma ANSI A58 podem ser consultados
em grá cos em Ellingwood et al. (1980). Na combinação D + L, por exemplo, Ellingwood et al. (1980)
obtiveram 2, 7 . β . 3 para estruturas de concreto armado, e 2, 5 . β . 3, 5 para estruturas de aço. Para
combinações envolvendo vento (D + L + W ), os autores encontraram 2, 2 . β . 3, 5 para estruturas de
aço. Nas estruturas de aço, os menores valores de β correspondiam às maiores razões de carregamento; o
que pode ser entendido como efeito da ausência de calibração da norma anterior, com formato de tensões
admissíveis. Ellingwood et al. (1980) obtiveram ainda 4 . β . 8 para estruturas de alvenaria e 2 . β . 3
para estruturas em madeira laminada. Importante observar que os índices de con abilidade encontrados
nesta etapa são, até certo ponto, dependentes das distribuições estatísticas adotadas na etapa 5. Este fato
não é crítico na calibração, uma vez que as mesmas distribuições estatísticas são utilizadas ao longo de
todo o processo.
7. Seleção do índice de con abilidade alvo (β T ). Os índices de con abilidade obtidos pelo projeto
segundo a norma a ser aposentada representam um espécie de consenso a respeito do nível de segurança
estrutural, consenso este atingido através de um processo gradual de otimização, ao longo dos anos, das
normas anteriores. Não tendo a mesma fundamentação probabilística das normas em processo de reno-
vação, é natural que as normas antigas revelassem uma variação signi cativa dos índices de con abilidade,
em relação ao alvo. No formato novo, buscamos reduzir esta variação através da especi cação de um βT .
De maneira a respeitar a experiência alcançada ao longo dos anos, é importante que β T seja escolhido de
forma a ser compatível com o nível de segurança da norma anterior. Uma maneira de fazer isto é escolher
β T como uma média ponderada dos índices de con abilidade obtidos na etapa 6. Alguma variação do
índice de con abilidade é admitida, em função de modo/consequência de falhas ou de material estrutural.
Na calibração da norma A58, por exemplo, foram adotados os valores β T = 3 para combinações D + L,
β T = 2, 5 para combinações D + L + W e βT = 1, 75 para combinações envolvendo terremotos. Estes val-
ores correspondem aproximadamente aos índices médios obtidos nas normas anteriores (Ellingwood et al.,
1980). Para combinação de ações envolvendo terremotos, o βT é menor do que nas demais combinações, o
que pode parecer estranho a primeira vista. Ocorre que, apesar das consequências de falhas por terremoto
serem severas, as forças envolvidas são muito grandes, de maneira que projetar estruturas com elevada
con abilidade contra terremotos se torna proibitivamente caro. O índice de con abilidade β T = 1, 75 re-
‡ete um balanço entre segurança e o custo de construção da estrutura. De fato, é neste balanço de custos
que se pode encontrar o β T mais econômico para cada situação, conforme Seção 8.2.3. Uma alternativa é a
escolha de índices de con abilidade alvo sugeridas pelo JCSS (2001) ou no EUROCODE (EN 1990:2002),
apresentadas na Seção 7.5.2.
8. Observação dos coe cientes de segurança parciais implícitos na norma antiga. Esta etapa
não é essencial, mas ajuda a determinar o formato das equações de veri cação da nova norma. Para
cada um dos pontos de calibração determinados anteriormente, reprojetamos as estruturas de maneira
a se atingir o índice de con abilidade alvo. Já no formato da nova norma, veri camos qual o valor dos
coe cientes parciais de segurança que resultariam na mesma estrutura, com o mesmo βT . O estudo de
Ellingwood et al. (1980) mostra que os coe cientes φR e γ D (redução de resistência e majoração do peso
próprio, respectivamente), são aproximadamente constantes para todas as razões de carregamento (Ln /Dn
e Wn /Dn ). O mesmo já não acontece com os coe cientes γ L e γW , o que implica que para atingir β T de
forma constante, os coe cientes γ L e γ W teriam que mudar com as razões de carregamento. Na prática
isto não é adequado, pois o projeto estrutural se tornaria um processo iterativo. Portanto, no processo
de calibração, buscamos coe cientes parciais que sejam constantes pelo menos para determinada classe de
estruturas e para várias razões entre ações. Estabelecer coe ciente parciais de segurança constantes, no
entanto, implica em que o β T não poderá ser atingido de maneira uniforme.
9. De nição dos coe cientes de segurança parciais da nova norma. A opção por coe cientes parciais
constantes faz com que o βT não possa ser atingido de maneira uniforme para todo o espectro de estruturas
pertencentes ao escopo de determinada norma. Ainda assim, buscamos um conjunto de coe cientes parciais
246 CONFIABILIDADE E AS NORMAS DE PROJETO

de segurança que minimize a diferença entre os β’s individuais e o índice alvo βT . Esta última etapa do
processo é detalhada na sequência.

7.4.2 Procedimento reverso de projeto na calibração


O procedimento usual de projeto consiste em dimensionar, ou determinar a resistência de elementos, especi -
cados em norma os valores das ações. No processo de calibração é usual utilizarmos um procedimento reverso,
no qual a seção transversal, e portanto a resistência do elemento, é de nida inicialmente, e as equações de
norma são utilizadas para determinar as ações admissíveis. O procedimento reverso é mais prático quando os
pontos de calibração se referem a diferentes con gurações dos elementos. Este procedimento foi ilustrado para
um problema simples, envolvendo a combinação D + L, no Exemplo 2 e variantes (pg. 86). Nesta seção, o
procedimento é ilustrado para a combinação D + L + W , utilizando a regra de Turkstra (Seção 2.4.5) para a
combinação de ações variáveis. A nomenclatura das normas americanas é utilizada para as ações, por ser mais
explícita; e a nomenclatura das normas brasileiras é utilizada para as variáveis de resistência.
O projeto de estruturas com combinação de ação permanente (D) com ações variáveis de utilização (L) e de
vento (W ), utilizando a regra de Turkstra, é feito a partir de duas equações de estado limite:

rD ¸ sD
µ ¶
fck fyk
R , , In , An , ... ¸ γ D Dn + γ L Ln + γ W ψW Wn , (7.15)
γc γs
¸ γ D Dn + γ L ψL Ln + γW Wn . (7.16)

Nestas equações, fγC , γ S , γ D , γ L , γW g é um conjunto de coe cientes parciais de segurança, fψ W , ψ L g são


coe cientes de combinação para ações variáveis, ffck , fyk , In , An , ...g é um conjunto representativo das variáveis
de resistência dos materiais e das dimensões. Os sub-índices ()k referem-se aos valores característicos de re-
sistência, e ()n aos valores nominais das propriedades geométricas e das ações. A Eq. (7.15) corresponde à
combinação em que a ação de utilização é considerada como ação principal; na Eq. (7.16), o vento é a ação var-
iável principal. Nas duas equações, os valores nominais de L e W correspondem ao período de retorno usual de
50 anos. Os coe cientes de combinação ψ W e ψ L são utilizados para reduzir o valor nominal extremo para o val-
or de ponto arbitrário no tempo. Nesta seção, mostramos como o conjunto de coe cientes parciais de segurança
ª = fγ C , γS , γ D , γ L , γ W , ψ L , ψ W g é determinado ou “calibrado”, a partir de análises de con abilidade.
No procedimento usual de projeto, as ações são conhecidas, e a partir delas, utilizando os coe cientes parciais
de segurança e as Eqs. (7.15) e (7.16), é determinada a resistência necessária para o elemento estrutural. No
procedimento de calibração de norma, é conveniente inverter esta ordem, ou seja: de nida a resistência do
elemento, as equações de projeto são utilizadas para “projetar” o carregamento admissível. O processo de
calibração é feito para diversos pontos da razão entre as ações variáveis e a ação permanente: Ln /Dn e Wn /Dn .
O processo é iterativo, e se inicia com a de nição de valores iniciais ª0 (tentativa) para os coe cientes
parciais de segurança, para iteração k = 0. É de nida uma seção transversal típica (In , An , ...) e calculada a
resistência de projeto: µ ¶
fck fyk
rD0 = R , , In , An , ... .
γ C0 γ S 0

Com estas preliminares, as equações de projeto podem ser divididas pela ação permanente nominal, ainda
desconhecida:
rD0 Ln Wn
¸ γD + γ L + γW ψ W
Dn Dn Dn
Ln Wn
¸ γ D + γ L ψL + γW ¢ (7.17)
Dn Dn
7.4. CALIBRAÇÃO DAS NORMAS DE ESTADOS LIMITES 247

O índice de con abilidade β ij será determinado para razões de carregamento pré-determinadas ( (Ln /Dn )i
e (Wn /Dn )j ). Logo, a única incógnita nas Eq. (7.17) é Dn :

rD0
(Dn )ij = ¢ (7.18)
γ D + min[γ L (Ln /Dn )i + γ W ψW (Wn /Dn )j , γ L ψL (Ln /Dn )i + γ W (Wn /Dn )j ]

Os valores nominais das ações variáveis são determinados na sequência:

(Ln )ij = (Dn )ij (Ln /Dn )i ; (Wn )ij = (Dn )ij (Wn /Dn ).

Conhecidos os valores nominais das ações, as funções de distribuição de probabilidades são reconstruídas,
a partir das estatísticas mostradas na Seção 2.4. Os valores característicos das resistências foram de nidos
inicialmente, e as distribuições de probabilidade são reconstruídas a partir dos modelos discutidos na Seção 2.3.
Neste ponto, estamos prontos para a avaliação da con abilidade.
As equações de estado limite do problema de calibração são equivalentes às Eqs. (7.15) e (7.16), com as
seguintes alterações: os valores característicos e nominais são substituídos pelas variáveis aleatórias correspon-
dentes, e os fatores parciais de segurança são todos unitários. Além disto, variáveis erro de modelo E são
incorporadas:

gL (X) = ER R(fc , fy , I, A, ...) ¡ (ED D + EL L50 + EW W1 ),


gW (X) = ER R(fc , fy , I, A, ...) ¡ (ED D + EL Lapt + EW W50 ). (7.19)

Nestas equações, o vetor X reúne todas as variáveis aleatórias do problema:

X = ffc, fy , I, A, ..., D, Lapt , L50 , W1 , W50 , ER , ED , EL , EW gt .

Eventualmente, uma única variável de erro de modelo é utilizada para a soma dos carregamentos. Note que
as equações de estado limite são sempre as mesmas; o que muda com as razões de carregamento são as variáveis
aleatórias, que são dimensionais, e devem ser recalculadas a cada ponto de calibração e a cada iteração.
Alternativamente, as equações podem ser escritas em termos de variáveis aleatórias normalizadas, multipli-
cadas pelos valores característicos ou nominais. Dividindo por Dn , as equações cam em termos das razões de
carregamento:

gL (X) = ER R(fck fc , fyk fy , I, A, ...)/Dn ¡ (ED D + EL L50 (Ln /Dn )i + EW W1 (Wn /Dn )j ),
gW (X) = ER R(fck fc , fyk fy , I, A, ...)/Dn ¡ (ED D + EL Lapt (Ln /Dn )i + EW W50 (Wn /Dn )j ). (7.20)

Nestas equações, as variáveis aleatórias são normalizadas, isto é, já são as variáveis adimensionais apresentadas
nas Seções 2.4 e 2.3. Como as ações variáveis foram convertidas em distribuições de extremos, através da Regra
de Turkstra, o problema é resolvido utilizando técnicas independentes do tempo como o FORM:
ÃZ !
β ijL = ¡©¡1 (pfijL ) = ¡©¡1 fX (x)dx ,
gL (X)·0
ÃZ !
¡1 ¡1
β ijW = ¡© (pfijW ) = ¡© fX (x)dx ,
gW (X)·0

sendo o índice de con abilidade o menor valor:

βij = min[βijL , βijW ] = β ij (ª0 ).


248 CONFIABILIDADE E AS NORMAS DE PROJETO

Observe que os índices de con abilidade são função do valor inicial arbitrado para o vetor de coe cientes
parciais de segurança ª0 . Com estas preliminares, e dado ªk , para k = 0, o problema de calibração pode ser
posto como:

Determine ª¤ que minimiza: f(ª),


sujeito a: ª 2 D, (7.21)

sendo D um conjunto de restrições laterais. A função objetivo visa minimizar, para todas as combinações de
carregamento, as variações entre βij e o índice de con abilidade alvo β T :
XX £ ¤2
f (ª) = wij β T ¡ β ij (ª)
i j
XX £ ¤2
= wij β T ¡ β ij (γc , γs , γD , γ L , γ W , ψ L , ψ W ) . (7.22)
i j

Na Eq. (7.22), wij é o peso correspondente a cada razão entre ações, que deve re‡etir a frequência relativa
de cada razão de carregamento na prática.

7.4.3 Calibração de norma de ações


O procedimento ilustrado na Seção 7.4.2, bem como a função objetivo (Eq. 7.22), se referem a um único material,
e a um único tipo de elemento estrutural. A calibração envolvendo vários elementos estruturais, cujo projeto
seja controlado pelo mesmo conjunto de coe cientes de segurança parciais, envolve a repetição do procedimento
para cada elemento, e uma versão mais geral da Eq. (7.22).
Da mesma forma, a calibração de coe cientes parciais de normas de ações requer a repetição do procedimento
para diferentes materiais estruturais. Considere uma norma de ações cujos coe cientes parciais serão adotados
em (m) normas de m materiais estruturais, com n tipologias distintas para cada material. Obviamente, o
modelo de resistência nas Eqs. (7.15) e (7.16) será distinto para cada material e tipologia. Considere ainda que
o razões Ln /Dn e p razões Wn /Dn serão consideradas. O procedimento indicado na Seção 7.4.2 é repetido para
cada material e tipologia, e a seguinte função objetivo é utilizada no processo de calibração:
p
( · ¸2 )
Xm X n X o X q
f (ª)= ς f ξ h wij βT ¡ min[β fhijk (γ fh , γ D , γ L , γ W , ψL , ψW )] . (7.23)
k=1
f=1 h=1 i=1 j=1

Nesta equação, a expressão mink [ ] implica no menor β em q equações de combinação (assumindo que q possa
ser maior que dois). Os valores ς f e ξ h indicam os pesos ou frequências relativas de cada material e de cada
tipologia. Os coe cientes parciais de resistência (γ f h ) também recebem índices, indicando que serão distintos
para cada material e, possivelmente, para cada tipologia. Em se tratando, hipoteticamente, da calibração dos
coe cientes de uma norma de ações, os coe cientes de resistência são mantidos constantes, isto é, não fazem
parte do vetor ª. No entanto, um valor numérico precisa ser arbitrado; por exemplo, o valor sugerido em norma
de material não-calibrada.
Idealmente, o procedimento de calibração deve ser realizado considerando simultaneamente a norma de ações
e as principais normas de materiais. Neste caso, os coe cientes γ fh ótimos são determinados simultaneamente
com os coe cientes parciais das ações.
7.4. CALIBRAÇÃO DAS NORMAS DE ESTADOS LIMITES 249

7.4.4 Calibração baseada em con abilidade das normas brasileiras


As normas brasileiras de projeto estrutural nunca passaram pelo processo de calibração, baseado em con abili-
dade, dos coe cientes parciais de segurança. Esforços tem sido feitos neste sentido pelo autor, e pelo seu grupo
de pesquisa (Beck e Souza Jr. 2010; Santiago et al. 2020; Costa et al. 2022). Nesta seção descrevemos os
principais resultados.
Um estudo preliminar de calibração dos coe cientes parciais da norma de projeto de estruturas metálicas
(ABNT NBR 8800:2008) foi desenvolvido por Souza Jr. (2009) e Beck e Souza Jr. (2010). O estudo é incompleto
porque considerou apenas vigas metálicas em ‡exão, mas também porque utilizou estatísticas obtidas por
Ellingwood et al. (1980) para a realidade norte-americana, tanto para resistências, como para ações permanentes
e variáveis (veja Seções 2.3 e 2.4). O estudo considerou estatísticas de vento obtidas para a região sul do Brasil
(Riera & Rocha, 1998), e escritas em termos das velocidades de norma (ABNT NBR 6123:1988).
Mais recentemente, Santiago (2011, 2017) e Santiago e Beck (2011, 2017) iniciaram uma ampla campanha
de obtenção de estatísticas de ações e de resistências para a realidade brasileira, conforme descrito nas Seções
2.3 e 2.4. Esta campanha teve como objetivo fundamentar estudos de calibração dos coe cientes parciais das
normas ABNT NBR8681 (2003), ABNT NBR8800 (2008) e ABNT NBR6118 (2014), conforme reportado em
Santiago et al. (2020) e Costa et al. (2022).
Os trabalhos de calibração mais recentes (Santiago et al. 2020; Costa et al. 2022) consideram estatísticas
de resistência de concretos usinados produzidos no Brasil, e de barras de reforço e per s de aço do mercado
brasileiro. Consideram ainda estatísticas de erro dos modelos de dimensionamento da NBR6118. O modelo
estatístico das ações variáveis de utilização é o proposto pelo JCSS (2001), mas com valores nominais calculados
em relação aos valores de projeto da ABNT NBR 6120 (1980), caso de Santiago et al. (2020); e da ABNT NBR
6120 (2019), caso de Costa et al. (2022). Em verdade, a calibração reportada em Costa et al. (2022) é uma
atualização daquela de Santiago et al. (2020), mas com base em modelos atualizados para as distribuições das
ações de utilização (Costa 2023). O modelo de ação do vento é o mesmo descrito em Beck e Souza Jr. (2010).
As calibrações realizadas em Santiago et al. (2020) e Costa et al. (2022) são bastante abrangentes, ao
considerar:

² Elementos em aço, concreto armado (CA) e concreto protendido (CP);


² Flexão e cortante em vigas de aço, elementos de aço em tração e compressão, e ligações parafusadas;
² Flexão e cortante em vigas de CA, ‡exão em lajes de CA e em vigas de CP, bem como ‡exo-compressão
de colunas de CA;
² Concretos de 5 classes de resistência (C20 a C60);
² Sete valores para a razão entre ações de utilização e permanente (Ln /Dn ), e sete razões entre ação do
vento e permanente (Wn /Dn ).

As combinações dos parâmetros acima correspondem a 13867 con gurações, ou pontos de calibração, para
elementos de concreto, e 17640 con gurações para elementos de aço.
A calibração em Santiago et al. (2020) foi realizada para βT = 3, 0; e em Costa et al. (2022) para βT = 3, 17.
Em ambos os casos, o valor de β T corresponde ao valor médio dos índices de con abilidade obtidos antes da
calibração, isto é, utilizando os fatores parciais da norma NBR6118. Na sequência são reportados apenas os
resultados de Costa et al. (2022), mais atualizados.
As Figuras (7-1) e (7-2) ilustram os resultados obtidos para os elementos de aço e de concreto, respecti-
vamente. Resultados são ilustrados em função da razão entre ação variável de utilização e ação permanente
(Ln /Dn ); logo, a dispersão de índices de con abilidade (β) observada nas guras corresponde às variações dos
demais parâmetros, inclusive das razões Wn /Dn . O principal resultado do processo de calibração, que pode
ser observado nas Figuras (7-1) e (7-2), é a redução na dispersão dos índices de con abilidade obtidos para as
250 CONFIABILIDADE E AS NORMAS DE PROJETO

Figura 7-1: Calibração dos coe cientes parciais da NBR8800, resultados de Santiago et al. (2020) atualizados
com os modelos de ação de utilização de Costa et al. (2022).

diferentes con gurações de projeto. O conjunto de coe cientes parciais resultantes da calibração produz índices
de con abilidade mais uniformes, para as diferentes condições de projeto, mas mantendo o mesmo nível de
con abilidade médio (alvo) resultante dos coe cientes de norma.
Os coe cientes parciais de segurança recomendados nas normas ABNT NBR8800 (2008) e ABNT NBR6118
(2014), bem como aqueles resultantes da calibração para βT = 3, 17, são apresentados na Tabela 7.2. A tabela
apresenta valores arredondados, em relação aos encontrados em Costa et al. (2022), de forma que os coe cientes
parciais das ações sejam os mesmos (e que poderiam estar de nidos na NBR 8681). Em ambos os casos (aço
e concreto), observamos que a maior uniformidade dos índices de con abilidade, ilustrada nas Figuras (7-1) e
(7-2), é obtida ao diminuir o coe ciente parcial da ação permanente (γ D , de 1,4 para 1,2); aumentar o coe ciente
parcial da ação do vento, quando ação principal (γ W , de 1,4 para 1,5), diminuindo os fatores de combinação
das ações secundárias (produtos γ £ ψ). No caso da NBR 6118, ainda é sugerido aumentar o valor de γ L , de 1,4
para 1,5. Para ambas as normas, no caso de ações variáveis nulas (Ln = Wn = 0), os autores sugerem manter
γ D = 1, 4 (Costa et al. 2022).

Tabela 7.2: Coe cientes parciais da NBR8800 e NBR6118 e calibrados (Costa et al. 2022).
Coe ciente parcial NBR 8800 NBR 6118 Calibrado para β T = 3, 17
γc - 1,4 1,40
γs - 1,15 1,15
γ a1 1,10 - 1,10
γ a2 1,35 - 1,40
γD 1,40 1,40 1,20
γL 1,50 1,40 1,50
γW 1,40 1,40 1,50
ψL 0,5/0,7/0,8 0,5/0,7/0,8 0,45
ψW 0,60 0,60 0,35
γ L £ ψ L 0,75/1,05/1,2 0,7/0,98/1,12 0,68
γ W £ ψW 0,84 0,84 0,53
7.5. NORMAS DE PROJETO PROBABILÍSTICAS E ÍNDICES DE CONFIABILIDADE ALVO 251

Figura 7-2: Calibração dos coe cientes parciais da NBR6118, resultados de Santiago et al. (2020) atualizados
com os modelos de ação de utilização de Costa et al. (2022).

7.5 NORMAS DE PROJETO PROBABILÍSTICAS E ÍNDICES


DE CONFIABILIDADE ALVO

7.5.1 Normas de projeto probabilísticas


A discussão neste capítulo, até este ponto, esteve concentrada em torno da implementação da primeira norma
de estados limites (ANSI A58:1982, atual ASCE 7-16:2016) e do procedimento de calibração, baseado em
con abilidade, dos coe cientes parciais de segurança da mesma. Esta concentração decorre do pioneirismo, mas
também do fato das normas de projeto americanas serem mais simples.
Nas décadas de 1970 e 80, houve importantes iniciativas para a implementação do formato de estados limites
nas normas européias. A proposta européia foi de criar uma norma mãe (EUROCODE 2001, Basis of Structural
Design) estabelecendo princípios e requisitos básicos para a segurança, capacidade de serviço e durabilidade das
estruturas. Esta norma endereça os principais aspectos de con abilidade das estruturas. Desde o princípio, a
proposta da Comissão Européia foi de que esta norma estabelecesse as equações fundamentais de projeto (Eqs.
7.3 e 7.4), e que os países membros, a partir de considerações nacionais, determinassem os coe cientes parciais
de segurança, informados em anexos nacionais da norma mãe. O rascunho nal da norma mãe foi publicado em
2001, e desde então os países membros tem trabalhado no processo de determinação dos coe cientes parciais
de segurança. Este processo está menos documentado na literatura (Sørensen, 2002; Vrouwenvelder, 2002;
Gulvanessian & Holicky, 2005).
Em paralelo, surgiram na Europa iniciativas visando criar bases sólidas para a análise de con abilidade das
estruturas, seja para calibração das normas de estados limites, seja para a criação de uma norma probabilística de
projeto. Em 1971, cinco importantes orgãos internacionais relacionados à engenharia de estruturas criaram um
grupo de trabalho, com objetivo principal de aumentar o conhecimento relacionado à segurança das estruturas:

1. International Council for Research and Innovation in Building and Construction, com suporte das Nações
Unidas;
2. The European Convention for Constructional Steelwork;
3. The International Federation for Structural Concrete ( b);
252 CONFIABILIDADE E AS NORMAS DE PROJETO

4. International Association for Bridge and Structural Engineering;


5. International Union of Laboratories and Experts in Construction Materials, Systems and Structures.

Este grupo de trabalho, chamado de Joint Committee on Structural Safety, publicou em 2001 um documento
intitulado Probabilistic Model Code (JCSS, 2001), em tradução livre: norma probabilística modelo. Esta norma
modelo tem como objetivo principal servir como referência para a formulação (ou revisão) de normas técnicas
de projeto estrutural, com embasamento na teoria de con abilidade estrutural. Além disto, se coloca como
referência para a eventual criação de uma norma de projeto estrutural totalmente probabilística: ao invés de
especi car coe cientes parciais de segurança, a norma probabilística especi caria apenas índices de con abilidade
a serem respeitados. O procedimento de projeto envolveria análises de con abilidade estrutural de forma
explícita. Iniciativas neste sentido tem ocorrido. A norma voluntária ISO 2394 (1998), por exemplo, já estabelece
a equivalência entre o projeto por normas de estados limites e o projeto probabilístico. Em países que aderiram
a esta norma, já é possível realizar projetos estruturais com base em análises de con abilidade. Ao invés de
respeitar fatores parciais de segurança, estes projetos devem demonstrar aderência aos índices de con abilidade
mínimos.
Assim como normas convencionais, normas probabilísticas tem como proposta resolver arbitrariedades que
podem resultar em discrepâncias de projeto. Um elemento fundamental, neste sentido, é remover arbitrariedades
na de nição dos coe cientes de variação, e nas distribuições de probabilidade das principais variáveis aleatórias
envolvidas. O documento do JCSS avança neste sentido, criando uma biblioteca de referência para resistência
de materiais e elementos estruturais, incertezas geométricas, modelos de ações, distribuições de ações, erros de
modelo, etc. Alguns destes dados e modelos foram apresentados e discutidos no Capítulo 2.

7.5.2 Índices de con abilidade alvo


Um resultado importante do trabalho do JCSS (2001) foi a de nição de índices de con abilidade alvo para o
projeto de estruturas. Os índices sugeridos são resultado de um estudo de custo-benefício, similar à otimização
de riscos discutida na Seção 8.2.3, que considera custos de falha típicos de sistemas estruturais, bem como os
custos relativos das medidas de segurança.
O estudo do JCSS é baseado em uma razão ρ entre custos totais (de construção mais custos diretos de falha)
e custos de construção. Valores ρ . 2 correspondem a estruturas para as quais riscos de morte e consequências
econômicas de falhas são pequenos ou desprezíveis (estruturas agrícolas, silos, torres em áreas abertas). Para
estruturas usuais como prédios comerciais e residenciais, prédios industriais, as consequências econômicas de
falhas e o risco à vida são moderados, resultando em 2 . ρ . 5. Valores 5 . ρ . 10 correspondem a
consequências extremas de falhas, observadas em estruturas como grandes pontes, auditórios, hospitais e grandes
edifícios. Quando ρ & 10, o JCSS (2001) recomenda uma análise explícita de custo-benefício, conforme Seção
8.2.3.
Índices de con abilidade alvo são divididos em classes, de acordo com o custo relativo das medidas de
segurança. A classe Normal (B) é associada com variabilidades totais em ações e resistências da ordem de
0, 1 . δ . 0, 3. Em situações de grande incertezas em ações ou resistências (δ & 0, 4), caso de algumas ações
variáveis ou ações sísmicas, o custo para atingir uma classe de con abilidade elevada é muito alto; neste caso,
deve-se usar uma classe mais baixa. Por outro lado, ações e resistências de pequena variabilidade (δ . 0, 1),
como ações de peso próprio, permitem atingir con abilidade elevada com pequeno aumento de custos; nestes
casos, uma classe mais elevada deve ser utilizada.
Os níveis de controle de qualidade, na execução de novas estruturas, e de inspeções, em estruturas existentes,
também tem in‡uência na classe de con abilidade. Custos excessivos de controle e inspeções podem levar a
adotar uma classe menor; por outro lado, uma redução signi cativa nas incertezas pode tornar uma classe maior
economicamente atrativa. Para estruturas existentes, o custo de se atingir elevada classe de con abilidade pode
ser elevado, em comparação às estruturas em projeto; para estruturas existentes, uma classe inferior pode ser
considerada. Estruturas com vida útil reduzida também podem utilizar uma classe de con abilidade inferior.
7.5. NORMAS DE PROJETO PROBABILÍSTICAS E ÍNDICES DE CONFIABILIDADE ALVO 253

A Tabela 7.3 mostra os índices de con abilidade alvo (βT ) sugeridos pelo JCSS (2001), para estados limites
últimos, e período de referência de um ano, em função das classes de con abilidade e das consequências de falha.
A Tabela 7.4 mostra as probabilidades de falha correspondentes. O valor de referência para estruturas típicas
é o valor central (βT = 4, 2). Assumindo independência entre as probabilidades de falha anuais, os índices de
con abilidade correspondentes à vida de 50 anos (β T 50 ) são obtidos como:
£ ¤
β T 50 = ©¡1 (1 ¡ ©[¡β T 1 ])50 ,

sendo£ β T 1 o ¤índice de con abilidade alvo anual. O valor de referência para estruturas típicas é β T 50 =
©¡1 ©[4, 2]50 = 3, 2. Este valor é um pouco maior do que os valores utilizados na calibração das normas
norte-americanas.

Tabela 7.3: Índices de con abilidade alvo para estados limites últimos, referência um ano (JCSS, 2001; EN
1990:2002).
Consequências de falha
Custo relativo da mínimas moderadas elevadas
medida de segurança ρ.2 2.ρ.5 5 . ρ . 10
Alta (A) 3,1 3,3 3,7
Normal (B) 3,7 4,2 4,4
Pequena (C) 4,2 4,4 4,7

Tabela 7.4: Probabilidades de falha correspondentes aos índices de con abilidade alvo, referência um ano (JCSS,
2001; EN 1990:2002).
Custo relativo da Consequências de falha
medida de segurança mínimas moderadas elevadas
Alta (A) 10¡3 5 £ 10¡4 1 £ 10¡4
¡4 ¡5
Normal (B) 10 1 £ 10 5 £ 10¡5
¡5 ¡6
Pequena (C) 10 5 £ 10 1 £ 10¡6

Os atuais EUROCODES também recomendam índices de con abilidade alvo, em carácter informativo (EN
1990:2002, Anexos B e C), mas sem distinção em relação aos custos relativos de medidas de segurança. Os
EUROCODES trabalham com três classes de consequências de falha, consequências mínimas (CC1), conse-
quências moderadas (CC2) e consequências elevadas (CC3), equivalentes as classes do JCSS, mas sem referência
às razões de custo (ρ). As classes de consequência são associadas a três classes de con abilidade: RC1, RC2 e
RC3, respectivamente. Os índices de con abilidade mínimos sugeridos, para estados limites últimos e período
de um ano, são: β T = 4, 2 (RC1), β T = 4, 7 (RC2), e β T = 5, 2 (RC3). De alguma forma, estes valores são
derivados do estudos do JCSS; no entanto, observamos que os valores são signi cativamente maiores do que
aqueles recomendados pelo JCSS (Tabela 7.3). Os índices de con abilidade correspondentes à vida de 50 anos
são: β T = 3, 3 (RC1), βT = 3, 8 (RC2), e βT = 4, 3 (RC3).
Índices de con abilidade alvo para estados limites de serviço irreversíveis também são apresentados pelo
JCSS (2001) e EUROCODES (EN 1990:2002). Os valores coicidem, e estão apresentados na Tabela 7.5.
254 CONFIABILIDADE E AS NORMAS DE PROJETO

Tabela 7.5: Índices de con abilidade alvo para estado limite de serviço irreversível (JCSS, 2001; EN 1990, 2001).

Custo relativo da ELS irreversível


medida de segurança βT pfT
Alta (A) 1,3 1 £ 10¡1
Normal (B) 1,7 5 £ 10¡2
Pequena (C) 2,3 1 £ 10¡2

7.6 PROJETO BASEADO EM DESEMPENHO


7.6.1 Introdução
As normas de projeto estrutural estão em constante evolução. Ao longo dos anos, avanços nas técnicas de análise
e nas formulações vão sendo inseridos no corpo normativo dos diversos países. Neste capítulo, mostramos como
a evolução da teoria de con abilidade resultou no formato dos estados limites, amplamente utilizado nas normas
técnicas atuais. Na seção anterior, mostramos que uma das evoluções naturais é a criação de normas de projeto
probabilísticas, como a norma ISO 2394 (1998) e o documento Probabilistic Model Code (JCSS, 2001). Outra
vertente de desenvolvimento atual é o chamado “Projeto baseado em desempenhoy2 ”, do inglês “Performance
Based Engineering (PBE)”, que resultou em alterações signi cativas das normas ASCE atuais, no que se refere
ao projeto de estruturas sujeitas à ação sísmica e do vento.
O projeto baseado em desempenho pode ser de nido como uma análise a nível de comportamento de sistema
de prédios, pontes, e outros sistemas estruturais sujeitos à ações de grande intensidade mas pequena probabili-
dade de ocorrência (sismos, ventos extremos), envolvendo medidas objetivas para alcançar alvos de desempenho
especi cados.
No contexto da engenharia sísmica, o documento Vision 2000 (SEAOC, 1995) fala em uma metodologia de
projeto e construção mais abrangente, que resulte em desempenho mais previsível dos sistemas estruturais, para
uma gama de demandas sísmicas. O documento divide os níveis de ameaça sísmica em quatro faixas, conforme
Figura 7-3:

1. frequente, com 50% de probabilidade de ocorrência em 30 anos;


2. ocasional, com 50% de probabilidade de ocorrência em 50 anos;
3. raro, com 10% de probabilidade de ocorrência em 50 anos; e
4. muito raro, com 10% de probabilidade de ocorrência em 100 anos, ou 5% em 50 anos.

O mesmo documento divide os níveis de desempenho em quatro faixas, em termos do dano a componentes
estruturais e não-estruturais e em termos das consequências aos ocupantes e à funcionalidade da estrutura:
totalmente operacional ; operacional ; ameaça a vida e prevenção ao colapso. Como se observa na Figura 7-3,
a partir dos quatro níveis de ameaça sísmica e das quatro faixas de desempenho é construída uma matriz de
riscos, a partir da qual são de nidos os alvos de desempenho.
A formulação PBE visa endereçar duas grandes limitações das normas de projeto (de estados limites) atuais:

1. Consideração de apenas dois valores de projeto das ações;

2 y Nocontexto da engenharia estrutural Brasileira, a palavra “desempenho” cou associada à norma de desempenho NBR
15575:2013. Neste texto, utilizamos o sentido mais amplo, equivalente ao inglês performance.
7.6. PROJETO BASEADO EM DESEMPENHO 255

Figura 7-3: Matriz de ameaça sísmica £ desempenho (SEAOC, 1995).

2. Consideração de apenas dois níveis de desempenho; típicamente, estados limites de serviço e último (de
colapso).

Típicamente, as normas de projeto atuais, excluindo-se a ASCE7-16, consideram dois níveis para as ações
de utilização (de ponto arbitrário no tempo e máxima de 50 anos), dois níveis para as ações do vento (máximo
anual e extremo de 50 anos), e um nível para ações sísmicas (correspondente ao período de retorno de 475 anos).
Estas ações de projeto são combinadas utilizando a regra de Turkstra, como vimos na Seção 7.4. No entanto, as
ações estruturais variáveis são processos estocásticos que podem assumir in nitos valores, com probabilidades
de ocorrência que diminuem à medida que aumenta a intensidade.
Por outro lado, os estados limites de serviço e de colapso correspondem a apenas dois pontos na curva
força £ deslocamento de uma estrutura ou elemento estrutural. A Figura 7-4 mostra que muita coisa pode
acontecer entre os estados limites de serviço (estrutura perfeitamente funcional) e de colapso (ruína completa).
Em particular, existe ganho de resistência após o limite elástico, e potencial para grandes deformações plásticas
antes do colapso total. Diferentes nomes são utilizados para de nir níveis de desempenho intermediários.
Segundo Ghobarah (2001), na região chamada de “ameaça a vida” a resposta da estrutura é dominada pela
capacidade plástica pós-escoamento, com aumento da resistência. Na região chamada de “prevenção ao colapso”,
a resposta é dominada pela ductilidade, extremamente relevante na redistribuição de esforços na estrutura, e
na possibilidade de evacuação da mesma. A estes diferentes níveis de resposta podemos associar custos de falha
distintos, tornando mais completo o escopo do projeto de estruturas.
O conceito de engenharia baseada em desempenho endereça as questões acima, em uma abordagem menos
prescritiva do que das normas técnicas atuais. Alternativas de projeto são avaliadas de forma quantitativa,
mediante objetivos bem de nidos de desempenho, e considerando explicitamente as incertezas envolvidas em
todas as etapas, como veremos.
O desenvolvimento de formulações de projeto baseadas em desempenho teve como ponto de referência os
enormes prejuízos materiais decorrentes de dois grandes terremotos ocorridos nos anos 90 (nominalmente, North-
ridge 1994 na Califórnia e Kobe 1995, no Japão). Juntos, estes dois eventos provocaram cerca de 5500 mortes,
e um prejuízo total estimado em 120 bilhões de dólares, além de desabrigar 20 mil e 300 mil pessoas, respecti-
vamente (USGS, 2014). As estruturas submetidas à ação sísmica apresentaram boa resposta com relação aos
256 CONFIABILIDADE E AS NORMAS DE PROJETO

Figura 7-4: Curva de desempenho força x deslocamento de sistema estrutural, segundo Ghobarah (2001).

modos de falha últimos (pequeno número de colapsos), mas os danos estruturais foram extensos, levando a
enormes custos de reparação e de paralização de atividades. Em particular na Califórnia observou-se um grande
número de rupturas frágeis de ligações entre vigas e colunas. Como resultado, a comunidade de engenharia
de estruturas passou a trabalhar em um novo conceito de projeto estrutural, que incorporasse outros níveis de
desempenho, além dos estados limites de serviço e últimos, e que fosse baseado em uma quanti cação probabilís-
tica mais completa das variáveis envolvidas. Este conceito foi se materializando nos anos subsequentes, e hoje
é conhecido como Performance Based Engineering (PBE), ou engenharia baseada em desempenho (Augusti &
Ciampoli, 2008).
Os conceitos e formulações foram inicialmente desenvolvidos na área de sismos, com trabalhos pioneiros
realizado por pesquisadores do Paci c Earthquake Engineering Research Center (PEER). Na área sísmica, fala-
se em Performance-based Earthquake Engineering ou PBEE (SEAOC, 1995 ; ATC 40, 1996; FEMA 273 e 274,
1996; FEMA, 2000, Ghobarah, 2001). No entanto, o conceito se difundiu, e hoje em dia é aplicado na engenharia
de vento (Performance-based Wind Engineering ou PBWE, Ciampoli et al., 2011; Barbato et al., 2013; Beck
et al., 2014; Tessari et al., 2017) e na engenharia de incêndios (Baker et al. 2013; Lange et al. 2014). Na
engenharia sísmica, encontramos especializações para o problema de choque entre prédios (pounding), conforme
Tubaldi et al. (2012) e Bi & Hao (2013). Aplicações são inúmeras, conforme citado na sequencia do capítulo.
A metodologia PBEE para sismos já está incorporada nas normas da ASCE há alguns anos. A metodologia
PBWE foi incorporada a partir da edição de 2010 (ASCE/SEI 7-10:2010).
A metodologia de projeto PBEE foi sistematizada em um documento da Federal Emergency Management
Agency (FEMA, 2012), chamado de FEMA P-58: Seismic Performance Assessment of Buildings. A versão
atual da metodologia pode ser encontrada em (FEMA, 2018a). Um histórico da incorporação do conceito à
prática de projeto é apresentado no Capítulo 1 (Introdução) do documento (FEMA, 2018b). Uma recomendação
prática de projeto, que está diretamente ligada aos danos observados no terremoto de Northridge CA (1994), é
a recomendação de produzir uma zona fraca nas vigas, tipo fusível, para que em caso de terremoto extremo, a
falha ocorra de forma dúctil, por formação de rótula plástica nas vigas, ao invés de rótula plástica nas colunas,
ou ruptura frágil das conexões (FEMA, 2000a).
Os níveis de desempenho considerados nos documentos FEMA (2018) são quatro: operacional (operational),
ocupação imediata (immediate occupancy), ameaça a vida (life safety) e prevensão ao colapso (collapse preven-
tion). O nível de desempenho ocupação imediata corresponde a um nível de dano desprezível ou limitado
a elementos não-estruturais, tal que uma inspeção completa da estrutura não se faz necessária, e a ocupação
7.6. PROJETO BASEADO EM DESEMPENHO 257

da mesma pode ser resumida logo após o evento (sismo). Os mecanismos resistentes verticais e horizontais da
estrutura mantém os mesmos níveis de resistência e rigidez anteriores à ocorrência do abalo sísmico. O nível
de desempenho prevenção ao colapso corresponde a um estado pós-sismo tal que a estrutura está prestes a
experimentar colapso parcial ou total. Dano substancial ocorreu, reduzindo tanto a rigidez como a resistência
dos mecanismos horizontais, produzindo deformações horizontais permanentes e com redução, em menor escala,
da capacidade de carga vertical. No entanto, os mecanismos resistentes verticais devem ser capazes de resistir
às forças gravitacionais. Não há viabilidade técnica nem econômica de reparar a estrutura, e esta não é segura
para ser re-ocupada. Atividade sísmica secundária (aftershocks) podem levar ao colapso total.
A aplicação da metodologia PBEE à estruturas de aço é descrita em FEMA (2000). A aplicação à estruturas
de concreto armado pode ser encontrada em (Haselton et al., 2008; Haselton & Deierlein, 2008; Tabandeh &
Gardoni, 2014; Goulet et al., 2006). Avaliações do desempenho esperado de estruturas projetadas seguindo
as guidelines de PBEE são apresentadas e discutidas em (FEMA, 2018b; Cook et al., 2021). Aplicação da
formulação PBEE para projetar estruturas considerando métricas de sustentabilidade e resiliência é endereçada
em (Mosalam et al., 2018). Software para análise de desempenho de estruturas individuais e de portfolios
também já existem (Haselton Baker Risk Group, 2020).

7.6.2 Norma de ações e segurança ASCE 7-16:2016


A norma norte-americana de ações e segurança (ASCE 7-16:2016) considera quatro categorias (Categorias I a
IV) de risco à vida, à saúde e ao bem estar, de acordo com a ocupação e uso do imóvel. As categorias são
aplicáveis no projeto contra enchentes, vento, neve, terremotos e formação de gelo. A Categoria I corresponde
a prédios e estruturas cuja falha represente baixo risco à vida. Na Categoria III estão prédios e estruturas
cuja falha represente risco substancial à vida, com potencial para substancial perda monetária, e signi cativa
interrupção das atividades do dia-a-dia. Na Categoria IV estão prédios e estruturas cuja falha representa uma
ameaça substancial à comunidade, o que inclui estruturas onde se produz, processa, estoca, usa ou dispõe
de substâncias tóxicas, in‡amáveis ou explosivas. Há uma sobreposição com a Categoria III, a depender da
gravidade das consequências de falha. A Categoria II contempla aqueles prédios e estruturas não listados nas
Categorias I, III ou IV.
Como exemplo de classi cação de riscos, o documento (FEMA, 2018b) estudou consequências de falhas de
estruturas sujeitas a sismos, com enfoque em prédios de escritórios e da área médica. No documento, imóveis
residenciais e comerciais (escritórios) estão classi cados na Categoria I. A Categoria II contempla prédios de
consultórios médicos e laboratórios. Na Categoria III estão escritórios que fornecem serviços de atendimento à
emergências (call centers), e na Categoria IV estão os hospitais.
No projeto de estuturas sujeitas a sismos, a norma ASCE 7-16:2016 considera um terremoto extremo chamado
de Maximum Considered Earthquake (MCE), terremoto que ocorre em média a cada 2475 anos, e que corre-
sponde a uma probabilidade de 2% de ser excedido em 50 anos, conforme Tabela 7.6. O terremoto de projeto
corresponde a 2/3 do MCE. Para veri cação do desempenho, o terremoto MCE é aplicado de forma escalonada
à estrutura, através de uma técnica conhecida como Incremental Dynamic Analysis (IDA; Vamvatsikos & Cor-
nell, 2002; Vamvatsikos & Fragiadakis, 2010; Fragiadakis et al., 2015 ). O resultado desta análise é uma curva
de capacidade condicional à intensidade do terremoto. Esta curva é posteriormente integrada considerando-se
uma função que associa a cada intensidade de terremoto uma probabilidade de ocorrência (Hazard function H),
como veremos.
No projeto de estruturas sujeitas ao vento, a norma ASCE 7-10:2010 criou quatro categorias de estruturas
(Wind categories I to IV), conforme Tabela 7.6. Como se observa, estas categorias são caracterizadas por
diferentes períodos médio de retorno, que variam de 300 a 3000 anos. Ao trabalhar com valores nominais mais
conservadores para os ventos de projeto, o coe ciente parcial de segurança correspondente (γ W ) foi reduzido
de 1.6 (ASCE 7-05, com referência em 50 anos) para 1.0. Conforme consta no documento normativo (ASCE7-
10:2010), estas mudanças eliminaram descontinuidades no tratamento entre ventos em regiões costeiras sujeitas
a furacões e outras regiões, bem como deixaram os valores de projeto para vento mais compatíveis com aqueles
258 CONFIABILIDADE E AS NORMAS DE PROJETO

utilizados no projeto sísmico.

Tabela 7.6: Períodos de retorno e probabilidades de excedência, conforme Eq. (refPlofRp)


Período de retorno Prob. excedência
Vento (geral) Vento ASCE 7-16 Sismos em L = 50 anos
50 63,6%
140 30,1%
300 (Cat. I) 15,4%
475y 10,0%
700 (Cat. II) 6,9%
1700 (Cat. III) 2,9%
2475¤ 2,0%
3000 (Cat. IV) 1,7%
4975¤ 1%
y ¤
NBR 15421:2016; ASCE 7-16.

7.6.3 Formulação PBE


Nesta seção, apresentamos a formulação PBE com base na engenharia de ventos (PBWE), que é mais relevante
para a realidade brasileira. A metodologia de engenharia de vento baseada em desempenho é composta pelos
seguintes elementos:

1. caracterização da ameaça de vento (per l de velocidades médias, turbulência, direcionalidade) no local


proposto para construção da estrutura, o que inclui medidas de intensidade ou intensity measures (IM);
2. análise dos parâmetros de interação entre vento e entorno e entre vento e estrutura (e.g., coe cientes
aerodinâmicos, fator topográ co, fator de vizinhança), através de conjunto de interaction parameters
(IP), Figura 7-5;
3. de nição dos parâmetros estruturais relevantes ou structural parameters (SP), como materiais, geometria,
dimensões, rigidez dos elementos, amortecimento estrutural, etc.;
4. análise da resposta da estrutura através de parâmetros de engenharia ou engineering demand parameters
(EDP), como deslocamentos absolutos, deslocamento relativo entre pavimentos, acelerações, etc.; em geral
esta etapa representa uma análise dinâmica não-linear;
5. de nição de medidas de dano ou damage measures (DM), que quanti cam as consequências em termos
de dano aos elementos estruturais e não-estruturais; estas dependem bastante do tipo de estrutura e
uso, e incluem perda perda de funcionalidade permanente ou temporária, necessidade de evacuação, dano
permanente a componentes estruturais e não-estruturais, colapso parcial ou total com número potencial
de vítimas, etc.;
6. de nição de variáveis de decisão ou decision variables (DV), que quanti cam o dano em termos de custos
diretos e indiretos, como custos de reparo, custos de hora parada, gastos com indenizações, número de
vítimas, etc. Variáveis de decisão também podem ser diretamente associadas aos estados limites da
estrutura, como veremos.
7. variáveis de projeto d, que serão utilizadas para controlar o projeto e atingir os níveis de desempenho
desejáveis: localização e orientação da estrutura, per l, dimensão dos elementos, etc. Alguns elementos
de d fazem parte dos parâmetros estruturais (SP).
7.6. PROJETO BASEADO EM DESEMPENHO 259

Figura 7-5: Parâmetros de interação em PBWE.

A interação entre os elementos e variáveis de PBWE está ilustrada na Figura 7-6. A dependência entre os
elementos de análise listados acima pode ser expressa na integral múltipla:
Z Z ZZ
λ(dv, d) = F (dvjdm)f (dmjedp) f(edpjim, sp, ip) f (ipjsp, im) f (sp) h(im)...
...ddm dedp dip dsp dim (7.24)

sendo λ(dv, d) a frequencia anual de ocorrência de eventos fDV = dvg, dado d; F (dvjdm) uma função cumula-
tiva associada às variável de decisão DV; f ( ) uma função de densidade de probabilidades; h(im) = jdH/d imj
uma derivada da função de ameaça, H(im) = P [IM > im]. A função h(im) representa a taxa anual de ocor-
rência de eventos com intensidade im. A integral múltipla representa a intenção de incluir na análise, e na
decisão de projeto, todas as incertezas associadas às variáveis de decisão (DV), de medida de dano (DM), de
resposta estrutural (EDP), de parâmetros de interação (IP), de parâmetros estruturais (SP) e de medidas de
intensidade (IM). A princípio, todos os termos à direita da igualdade podem depender das variáveis de projeto
d. As distribuições condicionais que aparecem na Eq. (7.24) indicam:
F (dvjdm): as perdas dependem do nível de dano;
f(dmjedp): o nível de dano depende da resposta da estrutura;
f(edpjim, sp, ip): a resposta da estrutura depende da intensidade da ação, dos parâmetros estruturais e dos
parâmetros de interação;
f(ipjsp, im): os parâmetros de interação dependem dos parâmetros estruturais e da medida de intensidade
da ação.
As incertezas nas variáveis de decisão, de dano, nos parâmetros estruturais e de interação, e na medida
de intensidade das ações são assumidas como independentes entre si, e em relação aos demais parâmetros.
Esta é uma das maiores conveniências da formulação, pois permite que diferentes grupos de pesquisadores
desenvolvam as diferentes partes da formulação de forma independente. Na literatura, é comum encontrar
abordagens endereçando apenas alguns termos da Eq. (7.24), com veremos.
260 CONFIABILIDADE E AS NORMAS DE PROJETO

Figura 7-6: Metodologia Performance-based Wind Engineering (PBWE).

A formulação para sismos (PBEE) é muito semelhante à apresentada nesta seção para ventos (PBWE), a
única diferença sendo a inexistência dos parâmetros de interação.

7.6.4 Análise de perdas e danos


A análise de perdas e danos para estruturas de concreto armado sujeitas a ação sísmica é estudada, por exemplo,
em (Williams & Sexsmith, 1995; FEMA, 2000b; Miranda & Aslani, 2003; Mitrani-Reiser et al., 2006; Haselton
et al., 2008; Goulet et al., 2007; FEMA, 2018b). Entre as observações feitas nestes estudos, podemos destacar
as seguintes, a título de ilustração.
Para sismos de baixa intensidade, perdas decorrentes de danos a elementos não-estruturais são geralmente
maiores do que perdas decorrentes de danos a elementos estruturais. À medida que a intensidade sísmica
aumenta, a participação relativa das perdas devido à danos a elementos estruturais aumenta, em comparação
aos danos não-estruturais.
Os danos à componentes estruturais e não-estruturais, bem como suas proporções, dependem também do
tipo de mecanismo que controla o dano: há componentes que são sensíveis às acelerações, outros que são
sensíveis às velocidades, e outros que dependem do deslocamento relativo entre pavimentos (interstory drift).
Exemplos de elementos não estruturais que são sensíveis às acelerações incluem equipamento médico/hospitalar
xo, equipamentos de imagem, forros e tubulações (cuja ruptura provoca alagamentos). Já equipamentos
médico/hospitalares móveis são mais sensíveis às velocidades de excitação. Componentes estruturais como
partições e aberturas externas são mais sensíveis ao dano por deslocamento relativo entre pavimentos. Perdas
em prédios dedicados à análises laboratoriais ou internação médica são geralmente maiores do que perdas em
prédios comerciais de escritórios, e por duas razões: existência de equipamento médico/hospitalar de alto custo,
e ocupação em 24 £ 7 (24 horas, 7 dias por semana).
7.6. PROJETO BASEADO EM DESEMPENHO 261

7.6.5 Curvas de fragilidade para EDP

Curvas de fragilidade em termos de parâmetros de engenharia (EDP) são muito estudadas na literatura, com
inúmeras referências, para estruturas de aço, de concreto armado, de alvenaria e de madeira. Um pequeno
exemplo endereçando estruturas de concreto armado: Celik & Ellingwood (2010), Yazdi et al. (2016), Zentner
et al. (2017). As curvas de fragilidade dependem muito das normas técnicas e das técnicas construtivas locais,
variando de uma região geográ ca para outra. Curvas de fragilidade para construções da América Latina são
desenvolvidas por Villar-Vega et al. (2017). Já Pereira et al. (2022) estudam curvas de fragilidade para prédios
típicos de concreto armado da região de Natal, RN, Brasil. Estes prédios não são projetados considerando ação
sísmica, uma vez que a atividade sísmica é baixa, ainda que seja uma das regiões brasileiras com maior atividade
sísmica.
Curvas de fragilidade podem ser obtidas considerando-se valores médios para as propriedades do sistema,
como massa, amortecimento, curva tensão-deformação, capacidade de deformação plástica, etc. No entanto,
é aplamente conhecido que a resposta não-linear de componentes estruturais apresenta níveis de incerteza
maiores do que a resposta linear. Estas incertezas, chamadas de incertezas de sistema (ou incertezas nos
parâmetros estruturais, SP), tem contribuição importante nas curvas de fragilidade, conforme demostrado em
inúmeros trabalhos (Der Kiureghian, 2005; Goulet et al., 2006; Liel et al., 2009; Celarec & Dolšek, 2013; Celik
& Ellingwood 2010; Vamvatsikos & Fragiadakis, 2010; Jalayer et al., 2010; Jalayer & Ebrahimian, 2020; Beck
et al., 2022). A consideração das incertezas de sistema na formulação PBE deve levar em conta a formulação
dos problemas de con abilidade dependente do tempo, como veremos na próxima seção.

7.6.6 Curvas de fragilidade para estados limites


A formulação na Eq. (7.24) pode ser simpli cada ao se ignorar as variáveis de decisão e de dano, bem como as
integrais sobre os parâmetros estruturais e de interação. Assim, obtemos uma formulação associada diretamente
aos estados limites a serem considerados:
Z ·Z ¸
λLS = F (EDP C jedp,im) f (edpjim)dedp h(im)dim (7.25)

onde λLS é a taxa de falhas anual, correspondente a cada estado limite; e EDP C é a capacidade resistente da
estrutura, expressa em termos do parâmetro de demanda estrutural. Na Eq. (7.25), o termo entre colchetes
é a capacidade resistente, ou curva de fragilidade, para cada estado limite, expressa em termos da medida de
intensidade da ação (IM C ). Assim, a Eq. (7.25) também pode ser escrita como:
Z
λLS = F (IM C jim)h(im)dim (7.26)

A princípio, a taxa de falhas anual λLS pode ser integrada no tempo, para se obter a probabilidade de falhas
em uma vida de projeto tD :
pf (tD ) = 1 ¡ exp[¡λLS ¢ tD ] (7.27)
No entanto, para que a Eq. (7.27) seja válida, a taxa de falhas não deve incluir variáveis ditas não-ergódicas,
ou seja: variáveis que não variam de forma independente entre uma e outra realização da ação. Variáveis não-
ergódicas incluem as incertezas nos parâmetros estruturais (SP) e nos parâmetros de interação (IP). Como vimos
na Seção 6.2.5, pg. 203, a inclusão destas variáveis ofende a hipótese de independência implícita no modelo
de Poisson. Beck et al. (2022) mostram como variáveis não-ergódicas podem ser incorporadas à solução, sem
ofender o modelo de Poisson. A solução envolve decompor as curvas de fragilidade em um produto de variáveis
log-normais, de forma que a integral sobre a incertezas nos parâmetros estruturais (SP) e nos parâmetros de
interação (IP) possa ser realizada segundo a Eq. (6.21).
A Figura 7-7 ilustra curvas de fragilidade obtidas por Miguel et al. (2022) para os estados limites de serviço,
dano e colapso de torres metálicas de linhas de transmissão, submetidas à ação de terremotos (análise tipo
262 CONFIABILIDADE E AS NORMAS DE PROJETO

Figura 7-7: Curvas de fragilidade para três estados limites, torres metálicas de linhas de transmissão submetidas
à ação de terremotos, baseado em Miguel et al. (2022).

IDA). Os pontos indicados na gura correspondem aos resultados obtidos na análise numérica, para diferentes
realizações da ação sísmica. As curvas contínuas correspondem a um ajuste utilizando funções de probabilidade
lognormais. O uso de funções lognormais para representar curvas de fragilidade é muito comum no contexto
da engenharia baseada em desempenho. Já o uso de distribuições log-normais truncadas evita a extrapolação
para regiões de baixa intensidade sísmica, e se ajustam melhor aos dados observados para número de estruturas
interditadas no terremoto de Northridge (1994, Cook et al., 2021).

7.6.7 Curvas de ameaça típicas


Nas Eqs. (7.24) a (7.27), h(im) representa a incerteza associada à intensidade das ações. Típicamente, a
variável im é dada pelas acelerações espectrais (caso de sismos) ou pela pressão de vento. Como vimos, h(im) =
jdH/d imj é uma derivada da curva de ameaça H(im) = P [IM > im]. A Figura 7-8 ilustra algumas curvas
de ameaça típicas para ações sísmicas e do vento. Em escala logaritmica, observamos que probabilidade de
excedência diminue rapidamente com o aumento da intensidade. A parte A) da gura ilustra a curva de ameaça
sísmica para a região de Natal, RN, conforme Petersen et al. (2018), assim como os valores de projeto associados
aos períodos de retorno de 475 anos (NBR 15421:2016) e de 2475 anos (ASCE 7-16:2016). Valores de aceleração
apresentados como múltiplos da constante de aceleração gravitacional (g). A parte B) da gura compara ventos
típicos para o território Brasileiro, dividos em eventos sinóticos e não-sinóticos. As curvas correspondem a
dados levantados no trabalho de Vallis (2019) para ventos máximos anuais. Foi considerada distribuição de
Gumbel com parâmetros: WNS » G(un , β) = G(21, 1/3) para vento não-sinótico e WS » G(17, 1) para vento
sinótico. Típicamente, ventos não-sinóticos são associados a eventos extremos, e estados limite de colapso.
Ventos sinóticos são menos intensos mas mais frequentes, e podem ser utilizados para análise de estados limites
de serviço. A parte C) da Figura 7-8 compara curvas de ameaça para terremotos em três regiões geográ cas:
Los Angeles, EUA (LA); Santiago do Chile e Natal, RN. As curvas para Los Angeles e Santiago podem ser
consideradas representativas da ocorrência de terremotos em regiões próximas às bordas de placas tectônicas
(sismo inter-placas). A curva para Natal é exemplo de sismos que ocorrem no interior de placas tectônicas
(sismo intra-placas). A parte D) da Figura mostra as mesmas curvas da parte C), mas normalizados em termos
do valor “de projeto” para período médio de retorno de 2475 anos. A normalização permite comparar curvas
de ameaça de naturezas distintas, como sismos e pressão do vento. Na parte D) da gura está sobreposta a
7.6. PROJETO BASEADO EM DESEMPENHO 263

Figura 7-8: Curvas de ameaça típicas para sismos e ventos.

curva de ameaça para ocorrência de tornados na região central do Canada, normalizada para período médio de
retorno de 1700 anos, segundo (Hong et al., 2021).

7.6.8 Exemplo numérico (toy problem)


A ser completado.

7.6.9 Otimização estrutural considerando a formulação PBE


Um aplicação importante da formulação PBE, e indicada na Eq. (7.24) através do vetor de variáveis de
projeto d, é a otimização estrutural com base na formulação PBE. Um dos trabalhos pioneiros a abordar
esta possibilidade foi Wen (2001). Wen (2001) considera o efeito combinado de sismos e furacões, e formula
uma problema de minimização de custos sobre o ciclo de vida (veja Seções 8.2.3 e 8.5). O autor discute a
necessidade de con abilidade uniforme para ameaças distintas, e mostra que não é necessária, uma vez que a
ameaça com maior incerteza e maiores consequencias domina o problema. O autor também questiona alguns
fatores de redundância utilizados nas normas técnicas, e mostra que tais fatores devem ser obtidos por análise
de con abilidade.
Möller et al. (2009) realizam uma otimização paramétrica de um prédio de concreto armado submetido à
ação sísmica, com objetivo de minimizar custos esperados totais. Os autores utilizam redes neurais arti ciais
para aproximar a resposta e viabilizar a solução computacional do problema de otimização. Ta‡anidis & Scruggs
264 CONFIABILIDADE E AS NORMAS DE PROJETO

(2010) endereçam o projeto ótimo de sistemas lineares sob ação de excitação dinâmica estocástica estacionária.
Os autores adotam uma abordagem de otimização robusta (veja Seção 8.2.6), utilizando estatísticas de segunda
ordem da resposta estrutural, e minimização da taxa de falhas (modelo de falha à primeira sobrecarga. O objeto
de estudos é um prédio dotado de amortecedores viscosos e submetido à ação sísmica.
Huang et al. (2012), Li & Hu (2014) e Beck et al. (2014) abordam o projeto ótimo de prédios sujeitos
à ação do vento, com foco na rigidez transversal ótima. Huang et al. (2012) endereçam o estado limite de
conforto dos ocupantes, para prédios altos. Li & Hu (2014) formulam problemas de otimização multi-objetivo,
considerando os deslocamentos e acelerações em cada andar, bem como um problema bi-objetivo, abordando
o custo de construção e a probabilidade de falha. Já Beck et al. (2014) consideram a resposta não-linear
histerética da estrutura, e formulam um problema de minimização de custos esperados totais. A solução foca
na diferença entre a rigidez lateral ótima considerando resposta linear e não-linear. Os autores observam que o
modelo não-linear leva a rigidezes ótimas até dez vezes maiores.
Spence & Kareem (2014) realizam uma otimização paramétrica de prédios sujeitos à ação do vento, focando
nas técnicas de solução para desacoplamento dos laços de otimização e de con abilidade. Os autores consideram
como restrições o dano associado aos estados limites de serviço e de integridade estrutural. A técnica de
desacoplamento também é explorada em uma estrutura sujeita a ação sísmica (Spence et al., 2016). Já em
Bobby et al. (2014, 2016) os autores realizam uma otimização topológica para descobrir a distribuição ótima
dos elementos, para a resistência do prédio à ação horizontal do vento. Suksuwan & Spence (2018) abordam a
otimização topológica, baseada em desempenho, de prédios altos sujeitos à ação sísmica e do vento. Os trabalhos
(Bobby et al., 2014, 2016; Suksuwan & Spence, 2018) resultam em con gurações estruturais ótimas de prédios
altos para resistência às forças laterais resultantes das ações sísmicas e do vento.
Capítulo 8

OTIMIZAÇÃO ESTRUTURAL
BASEADA EM CONFIABILIDADE

8.1 INTRODUÇÃO
Projetar estruturas é um processo de busca crítica, entre soluções alternativas, por solução que melhor atenda
determinada função, respeitando requisitos de projeto. Requisitos primários são de natureza técnica, como
resistência, rigidez, equilíbrio, viabilidade construtiva, segurança, etc. Requisitos secundários são associados a
medidas de desempenho, como peso, custo, robustez, risco, etc. Usualmente, muitos requisitos são con‡itantes,
como resistência £ peso, rigidez £ custos, segurança £ custos. Em particular, aumento na segurança usualmente
envolve aumento de custos; reduções de custos podem comprometer a segurança.
Otimização estrutural é um processo formal de busca pela melhor concepção estrutural, para atender deter-
minada função, respeitando restrições con‡itantes entre si. Na prática, é muito difícil provar que determinada
solução é de fato a melhor, entre todas as soluções possíveis. Ainda assim, a otimização estrutural resulta
no melhor projeto dentre todas as concepções testadas. Neste capítulo discutimos como incertezas nas ações,
nas resistências e nos modelos de engenharia afetam a busca pelo projeto estrutural ótimo. Especi camente,
mostramos como a probabilidade de falha pode ser utilizada para guiar a busca pela estrutura ótima.
O requisito primário de todo projeto estrutural é evitar falhas! É paradoxal que, para que um sistema
estrutural cumpra determinada função, o projetista deva considerar todos os modos de falha possíveis. Um
projeto aceitável é obtido ao se impor margens de segurança com respeito a todos os modos de falha da
estrutura, conforme ilustrado na Figura 8-1. Logo, evitar falhas é um dos principais desa os do projetista
(Petroski, 1992; 2012).
Inevitavelmente, a resposta de sistemas estruturais é afetada por incertezas. Ações ambientais como sismos,
vento, chuva e neve são processos estocásticos. A resistência dos materiais é aleatória por natureza. Modelos
de ações e seus efeitos, e modelos de resistência são imperfeitos e imprecisos. Conhecimento sobre os fenômenos
envolvidos é incompleto. A consequência de incertezas é a possibilidade de respostas estruturais indesejadas
(falha). Até este ponto, endereçamos o problema de determinar as probabilidades de falha de estruturas e
sistemas estruturais. Neste capítulo, mostramos como probabilidades de falha impactam o projeto de estruturas.
Também abordamos as consequências econômicas de eventuais falhas, e como os custos esperados de falha podem
ser considerados no projeto de estruturas.
Projetos estruturais seguros podem ser obtidos utilizando normas de projeto, que utilizam o conceito de
estados limites, conforme vimos no Capítulo 7. Esta metodologia, chamada de semi-probabilística, utiliza
coe cientes de segurança parciais para criar uma margem de segurança em relação a cada modo potencial de
falha. Estas soluções são conservadoras por natureza, o que é con‡itante com o conceito de otimização. Quão
266 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

Figura 8-1: Desa o primário do projetista de estruturas: evitar falhas.

conservador deve ser um projeto estrutural? Quais as margens de segurança apropriadas? Como endereçar o
potencial con‡ito entre segurança e economia? Estas questões são abordadas neste capítulo.

O texto deste capítulo assume que o leitor tenha alguma familiaridade com a teoria de otimização matemáti-
ca. Problemas de otimização buscam determinar o valor ótimo de um vetor de variáveis de projeto d 2 RnDV ,
que minimiza uma função objetivo f (d), sujeito a restrições de igualdade h(d) = 0, de desigualdade h(d) · 0
e restrições ditas laterais, com relação aos possíveis valores do vetor de projeto: fdmin · d · dmax g. Formal-
mente, um problema de otimização é escrito como:

determine: d¤
que minimiza: f (d)
sujeito a: hi (d) = 0, i = 1, ..., p
gj (d) · 0, j = 1, ..., q
d 2 D ½ RnDV , (8.1)

sendo nDV o número de variáveis de projeto (do inglês Design Variable), p o número de restrições de igualdade,
q o número de restrições de desigualdade e D = fdmin , dmax g. O mesmo problema pode ser escrito de forma
mais compacta como:

d¤ = arg min [f(d)jfhi (d) = 0, i = 1, ..., p; gj (d) · 0, j = 1, ..., q; d 2 Dg] . (8.2)

Ao leitor que não tenha familiaridade com esta notação, ou com conceitos como condições de otimalidade de
Karush-Kuhn-Tucker (KKT), programação linear e não linear, multiplicadores de Lagrange, etc., recomendamos
consultar literatura especializada (Arora, 2007, 2017; Nocedal & Wright, 2006).
Em geral a solução de problemas de otimização matemática, conforme Eqs. (8.1) e (8.2), é uma tarefa com-
plexa, com excessão de problemas simples envolvendo pequeno número de variáveis de projeto. Normalmente, a
solução envolve algoritmos numéricos iterativos, que podem ser divididos em duas classes principais: métodos de
programação matemática e métodos heurísticos. Os primeiros incluem o método dos gradientes, gradientes con-
jugados, método de Newton, programação quadrática sequencial e simplex. Exemplos de algoritmos heurísticos
8.2. OTIMIZAÇÃO E CONFIABILIDADE: FORMULAÇÃO 267

incluem algoritmos genéticos, métodos de enxame de partículas (PSO), big-bang big crunch, simulated anealing,
e muitos outros. Neste texto abordamos problemas simples que podem ser resolvidos de forma analítica ou
semi-analítica, de forma grá ca ou por programação simples. Para algoritmos especializados, recomendamos
consultar Arora (2007, 2017), Haftka et al. (1990), Nocedal & Wright (2006) e Rao (2009).
Os exercícios propostos para este capítulo, em sua maioria, envolvem programação em computador. Exer-
cícios e problemas são apresentados ao nal do texto, na Seção 8.7.

8.2 OTIMIZAÇÃO E CONFIABILIDADE: FORMULAÇÃO


Sejam X e d dois vetores de parâmetros de um sistema estrutural. O vetor X 2 RnRV contém nRV variáveis
aleatórias, que incluem dimensões, resistência dos materiais, ações e variáveis erro de modelo. Alguns destes
parâmetros são aleatórios por natureza, outros não podem ser determinados determinísticamente. Tipicamente,
variáveis de resistência são representadas como variáveis aleatórias, e carregamentos como processos estocásticos.
No Capítulo 6 abordamos as formas de converter processos de carregamento em variáveis aleatórias. Este
capítulo aborda apenas variáveis aleatórias, mas os modelos estudados também são válidos para problemas de
con abilidade dependente do tempo.
O vetor d 2 RnDV contém nDV variáveis de projeto, cujos valores devem ser determinados de forma a
maximizar o desempenho do sistema, minimizar o peso, etc. Variáveis típicas do vetor d são as dimensões
nominais dos elementos estruturais, valores nominais da resistência dos materiais, coe cientes parciais de segu-
rança, taxa de armadura, vida de projeto, parâmetros de programas de inspeção e manutenção, etc. O vetor
d também pode conter parâmetros de variáveis aleatórias; típicamente, as médias. Um exemplo são dimensões
de elementos, determinadas em projeto, mas executadas dentro de determinada tolerância geométrica. Estas
variáveis são chamadas de variáveis aleatórias de projeto, e demandam um tratamento especí co em alguns
algoritmos. Quando necessária a distinção, a notação M será utilizada para representar variáveis aleatórias de
projeto, sendo ¹ o vetor de parâmetros de M a determinar.
A existência de incertezas implica na possibilidade de respostas estruturais indesejáveis. O espaço amostral
das variáveis aleatórias X é dividido através de equações de estado limite gi (d, X) = 0, tais que:

­f i (d) = fxjgi (d, X) · 0g,


­si (d) = fxjgi (d, X) > 0g, i = 1, ..., nLS , (8.3)

sendo ­f i (d) o domínio de falha, ­si (d) o domínio de sobrevivência, e nLS o número de equações de estado
limite (do ingles Limit State). Cada equação de estado limite descreve um modo de falha da estrutura, em
termos da condição de serviço ou de capacidade última. A probabilidade de falha, para cada modo de falha, é
dada por: Z
pf i (d) = P [X 2 ­f i ] = fX (x)dx, (8.4)
­f i

sendo P [ ] o operador de probabilidade. Probabilidades de falha para modos individuais podem ser determinadas
utilizando técnicas de con abilidade estrutural como FORM e SORM, estudadas no Capítulo 3, ou simulação
de Monte Carlo (Capítulo 5). Probabilidades de falha de sistema podem ser determinadas conforme Capítulos
4 e 5. Probabilidades de falha podem ser multiplicadas por custos de falha, originando os custos esperados de
falha, ou risco, conforme Capítulo 1.
A Figura 8-2 ilustra a relação de causa e feito de incertezas em problemas de projeto estrutural, bem como
o escopo de diferentes formulações de otimização. Observamos na gura que o principal efeito das incertezas
268 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

Figura 8-2: Efeitos de incertezas em problemas de projeto estrutural e escopo das formulações de otimização
DDO, RBDO e LCRO.

é a probabilidade de falha da estrutura, que leva aos custos esperados de falha (risco). A chamada otimização
estrutural determinística ou determinístic Design Optimization (DDO) atua somente em nível de mecânica das
estruturas, sem abordar diretamente as incertezas ou as probabilidades de falha. Nesta classe se incluem prob-
lemas de otimização com restrições de projeto dadas por normas técnicas (projeto semi-probabilístico). Funções
objetivo típicas envolvem o custo de materiais (volume) ou o custo de manufatura. A chamada otimização
estrutural baseada em con abilidade ou Reliability-Based Design Optimization (RBDO) é aquela em que se
substituem as restrições de projeto determinísticas (ou de norma) por restrições em termos de probabilidades
de falha admissíveis ou con abilidades alvo. Incertezas e seus efeitos são levadas em consideração de forma
explícita. Funções objetivo típicas envolvem o custo de materiais (volume) ou o custo de manufatura. Quando
os custos de falha são incluídos na formulação dos problemas de otimização, temos a chamada otimização de
custos sobre o ciclo de vida ou Life-Cycle Cost and Risk Optimization (LCRO), ou simplesmente otimização de
riscos ou Risk Optimization (RO). Estas formulações são discutidas em detalhes na sequência.

8.2.1 Otimização estrutural determinística


Otimização estrutural determinística ou determinístic Design Optimization (DDO) é aquela que não leva em
conta, de forma explícita, as incertezas nas ações e nas resistências. O efeito destas incertezas é contornado
através do uso de valores nominais para as ações, valores característicos para as resistências, e através de fatores
parciais de segurança. Uma formulação DDO típica é:

determine : d¤ que minimiza f (d),


sujeito a : σ(d)i · σADM , i = 1, ..., nP C , d 2 D, (8.5)
8.2. OTIMIZAÇÃO E CONFIABILIDADE: FORMULAÇÃO 269

sendo σ a tensão de trabalho, nP C o número de pontos materiais críticos e σADM a tensão admissível, que
pode ser determinada a partir da tensão de escoamento do material, ou da tensão resistente de fadiga para
determinado número de ciclos. Este é o chamado formato das tensões admissíveis, utilizado no projeto de
componentes mecânicos, e também em algumas normas técnicas antigas. Uma forma de projeto mais atual, em
engenharia de estruturas, é o formato dos estados limites, no qual a formulação DDO ca:

determine : d¤ que minimiza f (d),


sujeito a : φRi Ri (d) ¸ γ D Dn + γL Ln + γ W Wn , i = 1, ..., nLS , d 2 D, (8.6)

sendo nLS o número de equações de estado limite a veri car, Ri ( ) uma função de resistência para cada estado
limite, φR e γ´s coe cientes parciais de segurança para resistência e ações, respectivamente; sub-índice ()n para
valor nominal e D, L e W as ações permanente, acidental e de vento, respectivamente.
A função objetivo f (d) em DDO geralmente se refere ao volume de materiais, ou ao custo de manufatura.
A formulação permite encontrar con gurações que são ótimas do ponto de vista estritamente mecânico. No
entanto, como o efeito de incertezas não é considerado de forma explícita, a segurança da estrutura ótima pode
ser comprometida, em relação à estrutura original.
Considere como exemplo um projeto baseado em norma técnica. Para cada modo de falha há uma equação
de projeto, que corresponde a uma equação de estado limite. No projeto convencional, a resistência do elemento
estrutural é calculada a partir de cada equação de projeto; a resistência nal é a maior dentre todas. A equação
que levou à resistência nal corresponde ao modo de falha dominante, em relação ao qual a margem de segurança
será a mínima especi cada em norma. No entanto, as margens de segurança em relação aos demais modos de
falha terão uma folga adicional, em relação ao mínimo especi cado em norma. Considere agora a solução de um
problema de otimização conforme Eq. (8.6), para a mesma condição de projeto. Se as variáveis de projeto forem
em número su ciente (i.e., se houver graus de liberdade su cientes no problema), então por de nição todos os
modos de falha serão projetados contra o limite. Do ponto de vista de con abilidade de um sistema em série,
ca claro que a con abilidade da estrutura ótima será menor do que a con abilidade da estrura projetada pelo
processo convencional.
Como outro exemplo, considere o projeto ótimo de estruturas hiperestáticas. De um ponto de vista deter-
minístico, é difícil representar o colapso progressivo de elementos hiperestáticos, e quanti car a (probabilidade
de) ocorrência dos diferentes caminhos de falha. Em uma formulação DDO elementar, os elementos hiperestáti-
cos seriam simplesmente eliminados, resultando em estrutura isostática. No entanto, a capacidade excedente de
elementos hiperestáticos é mobilizada, no caso de falha primária de um elemento, resultando em um caminho
alternativo para as cargas. Uma formulação baseada em con abilidade permite calcular as probabilidades de
falhas primarias de cada elemento, bem como as probabilidades de falha condicionais dos elementos restantes,
após uma falha primária, chegando até a perda de equilíbrio da estrutura e à probabilidade de ocorrência de
cada caminho de falha. Logo, a con abilidade estrutural é ferramenta própria para a solução de problemas de
otimização envolvendo estruturas hiperestáticas.
Em geral, observamos que a otimização determinística não é robusta com respeito às incertezas inerentes
a resistência dos materiais, as ações e aos modelos de engenharia. Esta observação levou a outras formulações
para o problema de otimização estrutural sob incertezas, conforme segue.

8.2.2 Otimização estrutural baseada em con abilidade


Quando as restrições determinísticas das Eqs. (8.5 e 8.6) são substituídas por restrições em termos de prob-
abilidades de falha, obtemos a otimização estrutural baseada em con abilidade ou Reliability-Based Design
Optimization (RBDO):

determine: d¤ que minimiza f (d),


sujeito a: pf i (d) · pf T i , i = 1, ..., nLS , d 2 D, (8.7)
270 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

sendo pfi (d) a probabilidade de falha em relação ao modo de falha ()i , pf T i a probabilidade de falha admissível,
nLS o número de estados limites e D com o mesmo signi cado da Eq. (8.1). A con abilidade alvo, para o modo
de falha ()i , é dada por rT i = (1 ¡ pf T i ). Utilizando o índice de con abilidade β como medida da con abilidade,
a Eq. (8.7) pode ser reescrita como:

determine: d¤ que minimiza f (d),


sujeito a: β i (d) ¸ βT i , i = 1, ..., nLS , d 2 D. (8.8)

Nas Eqs. (8.7 e 8.8), as restrições são escritas em termos de probabilidades de falha individuais para cada
modo de falha. Esta é uma herança direta da migração do formato determinístico (Eqs. 8.5 e 8.6) para o
formato probabilístico. Estas restrições também podem ser substituídas por uma única restrição em termos da
probabilidade de falha do sistema:

determine: d¤ que minimiza: f (d),


sujeito a: pfSY S (d) · pfTSY S , d 2 D, (8.9)

sendo RTSY S = (1 ¡ pf TSY S ) a con abilidade alvo do sistema. A con abilidade do sistema (RSY S = 1 ¡ pfSY S )
é função da con abilidade dos componentes (Ri = 1 ¡ pfi , i = 1, ..., nLS ), conforme Capítulo 4. Observe que
a formulação baseada em con abilidade de sistemas (Eq. 8.9) não tem correspondente determinística, pois não
existe métrica determinística equivalente. Problemas de RBDO com restrições em con abilidade de sistema são
mais difíceis de resolver. Estes problemas são abordados na Seção 8.3.8.
Em geral, a função objetivo em problemas de RBDO é a mesma de DDO, i.e., envolve volume de elementos
estruturais ou custos de manufatura. A formulação RBDO permite encontrar a con guração estrutural ótima
em termos mecânicos, sem comprometer a segurança. Claramente, os resultados dependem diretamente das
probabilidades de falha admissíveis utilizadas como restrição. O balanço entre segurança e economia não é
endereçado, porque coe cientes parciais de segurança ou índices de con abilidade alvo são restrições, e não
variáveis de projeto.
As probabilidades de falha na Eq. (8.7) e os índices de con abilidade na Eq. (8.8) podem ser avaliados
utilizando técnicas clássicas como FORM, SORM ou simulação de Monte Carlo, conforme Capítulos 3 e 5. No
entanto, o custo computacional destas soluções deve ser levado em conta, pois as análises de con abilidade são
realizadas dentro do laço de otimização, e assim repetidas centenas a milhares de vezes. Logo, a solução e ciente
de problemas de RBDO requer algoritmos especí cos para reduzir o custo computacional. Estes algoritmos são
abordados nas Seções 8.3 e 8.4.

8.2.3 Otimização de custos sobre o ciclo de vida


Há alguns custos relacionados com ao ciclo de vida de sistemas estruturais que não são considerados nas
formulações DDO ou RBDO. Na abordagem determinista, entendemos que estruturas propriamente projetadas,
construídas e operadas dentro das restrições normativas não falham. No entanto, independentemente dos avanços
cientí cos e tecnológicos das últimas décadas, ainda há estruturas que, eventualmente, falham. Na Seção 1.1
abordamos várias razões pelas quais as falhas são, ultimamente, inevitáveis. Outros exemplos históricos são
apresentados por Petroski (1992, 2012). Colapsos de grandes estruturas são eventos verdadeiramente raros. No
entanto, falhas localizadas em grandes sistemas distribuídos, como redes de transmissão de energia ou redes
de dutos, são praticamente inevitáveis. Apenas recentemente engenheiros de estruturas tem descoberto as
vantagens de se projetar para colapso progressivo controlado, ou para limitação de danos. O moderno conceito
de engenharia baseada em desempenho ou Performance-Based Engineering (PBE) é baseado, entre outras
coisas, no reconhecimento que falhas não acontecem de maneira discreta; ao contrário: há uma transição quase
contínua entre os estados “totalmente operacional” e “colapso completo” (veja Seção 7.6).
Se a ocorrência de falhas é admitida como uma possibilidade inevitável em projetos estruturais, então os
custos esperados de falha devem ser levados em conta em projeto. Para modos de falha reversíveis, como muitas
8.2. OTIMIZAÇÃO E CONFIABILIDADE: FORMULAÇÃO 271

falhas de serviço, custos de falha incluem custo de reparos e custo de indisponibilidade da estrutura. Para modos
de falha últimos, custos de falha envolvem custos de remoção do elemento ou estrutura que sofreu ruína, custo
de indisponibilidade da estrutura e custos de construção da nova estrutura. Falhas estruturais podem provocar
danos à propriedade de terceiros, que devem ser compensados. Falhas estruturais podem causar danos físicos,
morte ou danos ambientais, que devem ser indenizados. Danos físicos, morte e danos ambientais são assuntos
sensíveis, muito discutidos no contexto dos riscos sociais. Uma discussão técnica e pertinente sobre o valor da
vida humana, em um contexto de tomada de decisões sobre empreendimentos que trazem benefícios a sociedade,
é apresentada por Rackwitz (2002, 2004). Projetistas tem razão ao se sentir melindrados por considerar custos
associados a morte ou a danos ambientais em decisões de projeto. No entanto, deixando questões losó cas
de lado, valores pagos a título de indenização por danos equivalentes no passado podem ser utilizados para
resolver a parte técnica do problema. Ao nal do dia, para encontrar soluções economicamente e cientes para
sistemas estruturais que podem falhar, um custo de falha (cf (d)) deve ser associado a cada modo de falha
possível. Para cada modo de falha, o custo esperado de falha (cef (d)) é obtido multiplicando o custo de falha
pela probabilidade de falha, pf (d):
cef (d) = cf (d)pf (d). (8.10)

Observe que o custo esperado de falha coincide com a de nição de risco (veja Seção 1.4.1). O custo esperado
total, sobre o ciclo de vida de um sistema estrutural, é obtido como:

cet (d) = ccon strução (d)


+cop eração (d)
+cinsp ec.& manu t. (d)
+cd escarte (d)
n
X LS

+ cf i (d)pf i (d), (8.11)


i=1

sendo cfi (d) o custo de falha associado ao modo de falha ()i . A maior parte dos custos na Eq. (8.11) re‡etem
o con‡ito entre economia e segurança em projeto, conforme ilustrado na Figura 1-19.
O custo de construção, por exemplo, aumenta de forma proporcional aos coe cientes parciais de segurança
utilizados em projeto, e aumenta de acordo com o nível de controle de qualidade utilizado nas diversas etapas
construtivas. Custos de operação aumentam com a quantidade de equipamentos e medidas de segurança, e
com o uso de redundância. Custos de inspeção dependem dos intervalos, qualidade do equipamento e técnica
de inspeção empregada. Custos de manutenção dependem diretamente do tipo de manutenção (preventiva,
preditiva, corretiva, pró-ativa), plano e frequência, e alcance ou extensão. Usualmente, medidas que aumentam
a segurança têm impactos nos custos diretos, mas reduzem custos esperados de falha. Reciprocamente, medidas
de redução de custos podem afetar a segurança, impactando negativamente nos custos esperados de falha.
Portanto, quanti car os custos esperados de falha e incluí-los na função objetivo (Eq. 8.11) permite ao projetista
encontrar o melhor ponto de compromisso entre segurança e economia (Figura 1-19). Este compromisso entre
segurança e economia é típico de sistemas estruturais.
O balanço econômico de projetos estruturais pode ser afetado negativamente pelos custos associados à falhas.
A chamada otimização de custos sobre o ciclo de vida ou Life-Cycle Risk Optimization (LCRO), ou simplesmente
otimização de riscos (Risk Optimization ou RO) é obtida quando tais custos são incorporados à função objetivo:

determine: d¤ que minimiza: cet (d),


sujeito a: d 2 D. (8.12)

A Eq. (8.12) não o re‡ete explicitamente, mas coe cientes de segurança ótimos, ou índices de con abilidade
ótimos, são sub-produtos da solução, como observado na Figura 1-19. Em comparação à Eq. (8.7), note que as
restrições de con abilidade de RBDO são incorporadas à função objetivo. Logo, os problemas (8.7) e (8.12) são
formalmente diferentes. Esta diferença nem sempre é reconhecida na literatura, pois com frequência o problema
272 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

da Eq. (8.12) também é chamado de RBDO.


Muitas vezes o projeto de estruturas, ou de sistemas de engenharia, é sujeito a restrições de segurança, ou
mesmo a níveis aceitáveis de risco social. Nestes casos, restrições de con abilidade podem ser incorporadas à
Eq. (8.12):

determine: d¤ que minimiza: cet (d),


sujeito a: pf SY S (d) · pf T SY S , d 2 D, (8.13)

ou

determine: d¤ que minimiza: cet (d),


sujeito a: β SY S (d) ¸ βT SY S , d 2 D. (8.14)

Quando o índice de con abilidade ótimo encontrado como sub-produto da solução da Eq. (8.12) é menor
que um índice alvo β T SY S , a restrição na Eq. (8.14) se torna ativa, e esta restrição controla a solução nal. No
entanto, se a con abilidade ótima é maior que a restrição (β T SY S ), a restrição em (8.14) se torna inativa, e as
formulações (8.12) e (8.14) produzem o mesmo resultado.
O problema de otimização de custos sobre o ciclo de vida é abordado na Seção 8.5.

8.2.4 Comparação entre as formulações DDO, RBDO e LCRO


A Figura 8-2 ilustra o escopo das formulações de otimização DDO, RBDO e LCRO, dadas pelas Equações (8.6),
(8.7) e (8.12). Claramente, a formulação LCRO tem escopo mais amplo, e deve ser utilizada sempre que os
custos sobre o ciclo de vida, em particular os custos de falha, puderem ser quanti cados. Quando este não é o
caso, uso da formulação RBDO se justi ca. A formulação DDO pode e é muito utilizada para obter soluções
conceituais, como a forma ótima de estruturas, resultante da solução de problemas de otimização topológica.
Em problemas usuais, entendemos que a forma ótima encontrada em uma solução LCRO não seja muito
diferente daquela encontrada na solução de DDO ou RBDO. Isto sugere que a forma ótima poderia ser encontrada
primeiramente, através de solução DDO e, mantida esta forma, o ponto ótimo de compromisso entre segurança
e custo poderia ser encontrado pela solução de problema LCRO simpli cado (já que a forma estaria de nida).
Para testar tal hipótese, Beck & Gomes (2012) resolveram algums problemas acadêmicos em ordem reversa: a
solução LCRO foi obtida primeiramente; índices de con abilidade ótimos obtidos em LCRO foram utilizados
como restrições em RBDO, e coe cientes de segurança ótimos foram utilizados como restrição em soluções DDO.
Resultados mostram que, com funções objetivos diferentes, a formulação LCRO leva a resultados distintos de
RBDO ou DDO. Em outras palavras, mesmo com restrições de segurança ótimas, as formulações DDO e RBDO
encontram formas que reduzem o custo inicial ou de manufatura, respeitando as restrições de segurança, mas
aumentam o custo esperado total. Portanto, quando os custos de falha podem ser estimados, a formulação
LCRO deve ser empregada.
Como veremos neste capítulo, a maior parte das técnicas desenvolvidas na literatura endereçam a solução
de problemas de RBDO (Eqs. 8.7 e 8.8), onde a con abilidade é restrição de projeto. São poucas as técnicas
gerais existentes para solução de problemas do tipo LCRO (Eqs. 8.12 a 8.14), onde a con abilidade é parte da
função objetivo.

8.2.5 Perspectiva histórica


Desde o ponto de vista da teoria de con abilidade estrutural, o projeto ótimo de estruturas considerando
incertezas não é novidade. Alguns dos primeiros artigos da área, hoje clássicos, já propunham que métricas
quantitativas da segurança, como probabilidades de falha, poderiam ser utilizadas para balancear custos iniciais
ou de construção com custos esperados de falha. Tais artigos incluem Johnston (1953, 1971), Ferry-Borges
8.2. OTIMIZAÇÃO E CONFIABILIDADE: FORMULAÇÃO 273

(1954), Freudenthal (1956), Benjamin (1968), Cornell (1969), Tursktra (1970), Lind (1976) e Moses (1977).
Naquela época, no entanto, o desenvolvimento da teoria de con abilidade estrutural estava em sua infância,
assim como as técnicas de otimização matemática. Computadores eram novidade, e a capacidade computacional
extremamente limitada. Em consequência, os problemas endereçados nas referências acima eram simples e
conceituais.
Nos primeiros artigos sobre o tema, percebemos uma hierarquia na compexidade das variáveis de projeto
consideradas, começando com dimensões de seções transversais, con guração de elementos (layout), seleção de
material e otimização topológica (distribuição de material no interior do domínio). Hilton & Feigen (1960)
apresentam pela primeira vez a formulação RBDO, com restrições de projeto em con abilidade. Outros artigos
(Liu et al., 1976; Rosenblueth, 1976) abordam explicitamente projeto ótimo de estruturas utilizando métricas
de con abilidade. Um primeiro compêndio de técnicas de otimização utilizando con abilidade é apresentado
por Moses (1969). Outro estudo de revisão bibliográ ca mais recente foi apresentado por Frangopol (1985). Um
trabalho relevante em otimização de riscos foi apresentado por Enevoldsen & Sorensen (1994). Utilizando teoria
de decisão clássica, os autores abordam otimização de riscos de components e de sistemas, planejamento ótimo
de inspeções e DOE ótimo. O artigo ainda apresenta medidas de sensibilidade para projeto ótimo utilizando
elementos nitos.
Ao nal dos anos 90, e início deste século, a teoria de con abilidade estrutural amadureceu e passou a chamar
atenção de pesquisadores, então trabalhando no que hoje chamamos de otimização estrutural determinística
(DDO). A limitação do uso de fatores parciais de segurança como restrição de projeto foi logo reconhecida,
e muitos destes pesquisadores passaram a adotar a formulação RBDO, com restrições em con abilidade. A
literatura em RBDO recebeu grande número de contribuições nestes anos; grande parte dos problemas abordados
envolviam componentes mecânicos. Mais recentemente, percebemos interesse crescente na solução de problemas
de otimização de riscos ou de custos sobre o ciclo de vida, tendo como objeto de estudo estruturas civis. Hoje em
dia, a solução dos dois tipos de problemas (RBDO e LCRO) é facilitada por ampla disponibilidade de algoritmos
e recursos computacionais, como veremos neste capitulo.

8.2.6 Otimização robusta


Uma formulação alternativa de otimização estrutural na presença de incertezas, que não faz uso de métricas
de probabilidade de falha, é a chamada otimização robusta (Kall & Wallace, 1994; Birge & Louveaux, 1997;
Beyer & Sendho¤. 2007; Schuëller & Jensen, 2009). O objetivo da otimizaçao robusta é encontrar concepções
estruturais que sejam menos sensíveis às incertezas existentes. Por de nição, a otimização robusta ou Robust
Design Optimization (RDO) é um problema multi-objetivo, onde o desempenho médio do sistema deve ser
maximizado, enquanto a variância deve ser minimizada. Em geral, estes objetivos são con‡itantes entre si.
Métricas de desempenho são largamente problema-dependentes. Em sistemas ou componentes mecânicos,
desempenho pode ser medido em termos de grandezas físicas como velocidade, aceleração, peso, potência,
capacidade, etc. Como o desempenho geralmente vem a um custo, métricas de e ciência relacionanto saída com
entrada podem ser utilizadas (km/litro, hp/kg, capacidade/kg, etc.).
Em engenharia de estruturas, desempenho é um atributo relativamente novo. Por muitos anos, desempenho
e/ou e ciência em projeto de estruturas foram sinônimos de baixo peso. Com o advento da otimização estrutural,
função/kg, função/volume ou função/$ passam a ser métricas de e ciência, com a melhor estrutura sendo aquela
que cumpre a função designada com menor custo ou menor uso de materiais. Nestas formulações, peso e volume
são frequentemente os únicos termos de custo considerados (Beck & Gomes, 2012). Nos últimos anos, surgiu
o conceito de Engenharia Baseada em Desempenho ou Performance-Based Engineering (PBE), associando
desempenho estrutural ao espectro de respostas possíveis, para um espectro de carregamentos prováveis (Seção
7.6). De acordo com este conceito, respostas estruturais são associadas com uma transição contínua entre
plenamente funcional, funcional com restrições, ameaça a vida, prevenção de colapso, e colapso. A noção de
uma transição discreta entre funcional e colapso, como colocado na Eq. (8.3), é substituída por uma transição
continua até a falha. Usualmente, custos de falha também aumentam de forma contínua, nesta transição entre
274 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

funcional e colapso.
Como observado acima, em engenharia de estruturas desempenho e/ou e ciência são associados a mínimo
custo. Portanto, maximizar o desempenho é equivalente a minimizar custos:

max[perf(d, X)] = max[-custo(d, X)] = min[custo(d, X)], (8.15)

sendo perf(d, X) para função de desempenho. Note que tanto desempenho como custos podem ser função
do vetor de variáveis aleatórias X; portanto desempenho e custos são variáveis aleatórias dependentes. Uma
formulação de otimização robusta típica é dada por:

determine: d¤ que maximiza: stat[perf(d, X)],


sujeito a: d 2 D, (8.16)

ou

determine: d¤ que minimiza: stat[custo(d, X)],


sujeito a: d 2 D. (8.17)

sendo stat[ ] alguma estatística de desempenho. Estatísticas comumente utilizadas são (stat[ ]):

Pk [ ]: o percentil k; (a)
E[ ]: o valor esperado; (b)
V ar[ ]: a variância; (c)
αE[ ] + (1 ¡ α)Pk [ ]: um problema multi-objetivo; (d)
αE[ ] + (1 ¡ α)V ar[ ]: problema multi-objetivo usual. (e)
(8.18)

As últimas duas linhas da Eq. (8.18) representam problemas multi-objetivo, onde 0 · α · 1 é uma constante.
Usualmente, problemas de otimização robusta são resolvidos para vários valores de α, o que resulta em uma
frente de Pareto, que mostra pontos de compromisso entre objetivos con‡itantes. A partir da frente de Pareto,
observamos que não é possível melhorar em relação a um objetivo, sem piorar em relação a outro.
Uma forma particular da Eq. (8.18) resulta em grande semelhança com a formulação de otimização de riscos
(Beck et al., 2015). Considere um problema envolvendo um único modo de falha, e que o custo de falha cf seja
independente do vetor de projeto. Neste caso, a função objetivo do problema LCRO (Eq. 8.12) se torna:

cet (d) = cconstru ção (d) + cf (d)pf (d), (8.19)

sendo desconsiderados outros custos sobre o ciclo de vida. O problema de otimização não muda quando a função
objetivo é multiplicada pela constante 1/(cf + 1), logo:

cet (d) 1 cf
= cconstru ção (d) + pf (d). (8.20)
cf + 1 cf + 1 cf + 1

Fazendo uma mudança de variáveis, tal que 1/(cf + 1) = α, resulta que cf /(cf + 1) = (1 ¡ α), e obtemos:

αcet (d) = αcconstrução (d) + (1 ¡ α)pf (d). (8.21)

Comparando este resultado com a formulação robusta (Eq. 8.18d), veri camos que se o percentil k da função
de desempenho representa a resposta crítica do sistema (aquela que leva a falha, pf (d)), e se o desempenho
médio corresponde ao custo de construção, então os valores de α que produzem a frente de Pareto correspondem
8.2. OTIMIZAÇÃO E CONFIABILIDADE: FORMULAÇÃO 275

aos custos de falha da formulação de otimização de riscos (Beck et al., 2015). Em outras palavras, o custo de
falha corresponde a um dos pontos de compromisso entres os objetivos con‡itantes da otimização robusta. Esta
observação segue válida caso outros custos sobre o ciclo de vida ou outros modos de falha também estejam
envolvidos. Em geral, no entanto, a formulação na Eq. (8.18) conduz a resultados diferentes.
A otimização robusta é muito utilizada quando não se pode determinar uma resposta crítica que caracteriza
a falha, ou quando os custos de falha não podem ser quanti cados. A formulação é muito utilizada em problemas
de dinâmica estrutural e de controle. Como a otimização robusta não faz uso de probabilidades de falha, esta
formulação não é mais abordada neste texto. Revisões compreensivas sobre o assunto são apresentadas por
Zang et al. (2005), Beyer & Sendho¤ (2007) e Schuëller & Jensen (2009).

8.2.7 Exemplos elementares de DDO, RBDO e LCRO


Nesta seção, abordamos alguns exemplos elementares de otimização baseada em con abilidade, construídos a
partir do problema fundamental de con abilidade (veja Seção 1.2.2). O problema fundamental envolve duas
variáveis aleatórias com distribuição normal:

R s N (µR , σR ), S s N (µS , σ S ), (8.22)

sendo R para resistência ou capacidade, S para solicitação ou demanda; µ a média e σ o desvio-padrão. A


equação de estado limite é linear, e dada por g(d, X) = R ¡ S = 0. Para este problema fundamental, a
probabilidade de falha é dada por:
µ ¡ µS
pf = © (¡β) , com β = p R2 , (8.23)
σ R + σ 2S

sendo © ( ) a distribuição cumulativa normal padrão e β o índice de con abilidade. Três problemas de otimiza-
ção elementares são construídos a partir do problema fundamental: determinístico (DDO), com restrição de
con abilidade (RBDO) e com custos esperados de falha na função objetivo (LCRO).

Problema DDO

O problema DDO elementar pode ser escrito como:

determine: µ¤R que minimiza: µR ,


sujeito a: µR ¸ γµS , (8.24)

sendo a resistência média µR a única variável de projeto e γ ¸ 1 um coe ciente de segurança. Também se
requer que µS > 0, para evitar a solução trivial: µR = µS = 0, para a qual a estrutura desaparece. Utilizando
a nomenclatura formal de otimização (veja Eq. 8.1), o problema é reescrito como:

determine: µ¤R que minimiza: µR ,


sujeito a: g(µR ) = γµS ¡ µR · 0. (8.25)

Este problema tem uma única variável de projeto, uma função objetivo linear e uma restrição de desigualdade
linear. Portanto, o problema é convexo, e é fácil perceber que a solução é obtida para g(µR ) = 0, o que leva a
µ¤R = γµS . No entanto, uma solução formal é apresentada abaixo, a título de ilustração.
Como a Eq. (8.25) representa um problema de otimização com restrições, uma solução formal é obtida
escrevendo a função Lagrangiana, que incorpora a restrição à função objetivo:

L(µR , u, s) = µR + u(γµS ¡ µR + s2 ). (8.26)


276 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

Nesta equação, u é um multiplicador de Lagrange e s é uma variável de folga. A condição de otimalidade de


primeira ordem de KKT, para que um ponto candidato seja ponto de mínimo da Eq. (8.25), é obtida fazendo
L(µR , u, s) estacionária com relação à variável de projeto, ao multiplicador de Lagrange e a variável de folga:

∂L(µR , u, s)
= 1 ¡ u¤ = 0, ) u¤ = 1;
∂µR
∂L(µR , u, s)
= 2u¤ s¤ = 0, ) s¤ = 0;
∂s
∂L(µR , u, s)
= γµS ¡ µ¤R + (s¤ )2 = 0, ) µ¤R = γµS . (8.27)
∂u

As primeiras duas linhas na Eq. (8.27) mostram que a restrição esta ativa no ponto ótimo1 . O ponto
µ¤R = γµS , obtido a partir das condições necessárias de KKT, é candidato a ponto de mínimo. Como existe
apenas uma restrição, este ponto é regular; logo, satisfaz as condições necessárias de primeira ordem KKT para
ser ponto de mínimo. Como a função objetivo é linear, também é convexa; como a restrição é linear, o domínio
de projeto é convexo; logo, as condições KKT necessárias também são su cientes! Logo, µ¤R = γµS é o ponto
de mínimo global deste problema. Note que esta solução depende diretamente do coe cience de segurança γ,
utilizado como restrição no problema DDO.

Problema RBDO

O problema RBDO elementar, obtido a partir da Eq. (8.24), pode ser escrito como:

determine: µ¤R que minimiza: µR ,


sujeito a: β(µR ) ¸ βT , (8.28)

sendo, novamente, a resistência média µR a variável de projeto, e β T o índice de con abilidade alvo. Neste
problema, também se requer que β T ¸ 0, de forma que pf · 0, 5. Utilizando nomenclatura formal de otimização
e a Eq. (8.23), o problema é reescrito como:

determine: µ¤R que minimiza: µR ,


µ ¡ µS
sujeito a: g(µR ) = β T ¡ p R2 · 0. (8.29)
σR + σ 2S

A função Lagrangiana para o problema é:


µ ¡ µS
L(µR , u, s) = µR + u(β T ¡ p R2 + s2 ). (8.30)
σ R + σ2S

As condições necessárias de KKT para que um ponto seja candidato a mínimo da Eq. (8.30) são dadas por:
q
∂L(µR , u, s) u¤
= 1¡ p 2 = 0, ) u¤ = σ 2R + σ2S ;
∂µR σ R + σ2S
∂L(µR , u, s)
= 2u¤ s¤ = 0, ) s¤ = 0;
∂s
q
∂L(µR , u, s) µ¤ ¡ µS
= β T ¡ p R2 + (s¤ )2 = 0, ) µ¤R = µS + β T σ2R + σ2S . (8.31)
∂u σ R + σ2S

1 Se a restrição não estivesse ativa, teríamos u¤ = 0, e a variável de folga s¤ > 0 mediria a distância entre o ponto candidato e a

restrição; veja Arora (2007, 2012) e Nocedal & Wright (2006) para detalhes.
8.2. OTIMIZAÇÃO E CONFIABILIDADE: FORMULAÇÃO 277

Na primeira linha da Eq. (8.31), como σR > 0 e σS > 0, temos que u¤ > 0; logo, a restrição está ativa.
Novamente, a função objetivo é linear e convexa;
p e a restrição é linear; logo, as condições necessárias de KKT
são também su cientes, e µ¤R = µS + β T σ2R + σ2S é o mínimo global para este problema. Observe que este
resultado depende diretamente do índice de con abilidade alvo βT utilizado como restrição no problema.

Problema LCRO

O problema LCRO elementar, derivado da Eq. (8.25), e descartando custos de inspeção, manutenção, etc., (Eq.
8.12), pode ser escrito como:

determine: µ¤R que minimiza: µR + cf pf (µR ),


sujeito a: g(µR ) = µS ¡ µR · 0, (8.32)

sendo a resistência média µR a variável de projeto. Neste problema, também se requer que µS > 0, para evitar
a solução trivial µR = µS = 0, para a qual a estrutura desaparece. Observe que na Eq. (8.32) não há restrição
de con abilidade. Assumindo o custo de falha proporcional à µS (cf = kµS ), o problema é reescrito como:

determine: µ¤R que minimiza: µR + kµS ©(¡β),


sujeito a: g(µR ) = µS ¡ µR · 0. (8.33)

A função Lagrangiana é escrita como:

L(µR , u, s) = µR + kµS ©(¡β) + u(µS ¡ µR + s2 ). (8.34)

As condições de primeira ordem de KKT para que um ponto seja candidato a mínimo da Eq. (8.34) são
dadas por:

∂L(µR , u, s) ∂© ∂β kµ φ(β¤ )
= 1 + kµS ¡ u¤ = 1 ¡ p S2 ¡ u¤ = 0,
∂µR ∂β µR σ R + σ 2S
kµ φ(β ¤ )
) u¤ = 1 ¡ p S2 ; (8.35)
σ R + σ2S

sendo β¤ candidato a índice de con abilidade ótimo e φ( ) a função de densidade normal padrão. Como não
estamos trabalhando com valores numéricos, não podemos dizer, das condições acima, se a restrição está ativa
ou não. Uma restrição ativa na Eq. (8.33) leva a grandes probabilidades de falha, o que não é usual. Logo,
assumimos que a restrição não esteja ativa, de forma que u¤ = 0 e s¤ > 0. Da Eq. (8.35) obtemos:
v Ãp p !
u
u 2π σ 2 + σ2
β = t¡2 ln
¤ R S
. (8.36)
kµS

A Eq. (8.36) representa o índice de con abilidade ótimo para este problema, para uma restrição inativa.
Observe que este resultado é independente de µ¤R . A Eq. (8.36) também expressa uma condição em relação ao
multiplicador de custos de falha, k, para que o problema tenha solução real:
p p 2
2π σ R + σ2S
k¸ ¢ (8.37)
µS
278 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

Das Eqs. (8.23) e (8.36), o ponto candidato a mínimo é obtido como:


" Ãp p !#1/2
¡ ¢ 2π σ2R + σ2S
µ¤R = µS + ¡2 σ2R + σ2S ln . (8.38)
kµS

As condições necessárias de primeira ordem de KKT também precisam ser veri cadas para:

∂L(µR , u, s)
= 2u¤ s¤ = 0,
∂s
∂L(µR , u, s) p ¤
= µS ¡ µ¤R + (s¤ )2 = 0, ) s¤ = µR ¡ µS > 0. (8.39)
∂u

As duas linhas na Eq. (8.39) são veri cadas; logo, para restrições inativas, u¤ = 0 e µ¤R > µS .
Para que o ponto candidato na Eq. (8.38) seja mínimo global do problema, precisamos veri car se a função
objetivo é convexa em todo o espaço de projeto, de forma que ∂ 2 /∂(µR )2 > 0, 8µR > µS . Tomando a segunda
derivada da função objetivo em relação a µR , obtemos:
p p 2
∂ 2 (µR + k µS ©(¡β)) k µS β φ(β) 2π σR + σ2S
= > 0, 8µR > µS , o que ocorre se k ¸ . (8.40)
∂(µR )2 (σ2R + σ 2S ) µS

Logo,
p sep a condição na Eq. (8.37) é respeitada, a solução (8.38) é mínimo global do problema. Observe que,
se k = 2π σ2R + σ2S /µS na Eq. (8.37), então a restrição se torna ativa com µ¤R = µS , β ¤ = 0 e s¤ = 0. Nesta
situação particular, também obtemos u¤ = 0. Um problema LCRO elementar, semelhante ao apresentado aqui,
é discutido por Rosenblueth (1976) e Kanda & Ellingwood (1991).

Ilustração das soluções

A Figura 8-3 ilustra as soluções dos problemas DDO, RBDO e LCRO elementares formulados nesta seção, para
µS = σR = σS = 1. As linhas contínuas mostram as funções
p pobjetivo de DDO e RBDO (µR ), e de LCRO
(µR + k µS ©(¡β), para k = k0 e para k = 2k0 , com k0 = 2π σ 2R + σ2S /µS ).
As restrições são γ = 2 para DDO, e β T = 2 para RBDO. As linhas pontilhadas verticais indicam as soluções
ótimas para os problemas, que correspondem aos pontos onde as restrições se tornam ativas (linha pontilhada
horizontal para γ = β T = 2).
Para o problem de LCRO com multiplicador de custos k = k0 , observamos que o mínimo é obtido para
restrição ativa, com µR = µS = 1. Para k > k0 , a função objetivo torna-se convexa e o mínimo local passa a se
localizar no interior
p do domínio, com restrição inativa, conforme Eq. (8.38). Para k = 2k0 , a resistência ótima
é µ¤R = 1 + 2 ln(2) ' 2, 6651.

8.2.8 Exemplo prático: projeto de viga retangular 2D


Nesta seção apresentamos a formulação e solução de problemas DDO, RBDO e LCRO bi-dimensionais, baseados
em exemplo da literatura. O exemplo também serve para mostrar o formalismo de soluções manuais.
O problema é baseado em Arora (2017, pg. 193) e consiste em determinar a seção transversal mínima de
uma viga retangular, sujeita ao momento ‡etor M e força cortante V . A tensão máxima na seção transversal
devido ao momento é dada por s = 6M/bh2 , e a tensão máxima de cisalhamento é τ = 3V /2bh, sendo b a
largura e h a altura da seção. As tensões de escoamento do material são Sy = 20 MPa em ‡exão e τ y = 4
MPa em cisalhamento. Coe cientes de segurança γ s = 2 e γ τ = 2 devem ser utilizados. A altura da seção
transversal não deve exceder duas vezes a largura (h · 2b). Soluções numéricas são avaliadas para µM = 40
8.2. OTIMIZAÇÃO E CONFIABILIDADE: FORMULAÇÃO 279

Figura 8-3: Solução dos problemas DDO, RBDO e LCRO elementares.

kNm e µV = 150 kN (valores médios).


O problema apresentado em Arora (2017, pg. 193) é determinista; logo, não há variáveis aleatórias. Aqui
introduzimos quatro variáveis normais independentes, de forma a construir as versões RBDO e LCRO do
problema:

M s N (µM ; σM ) = N (40; 8) kNm,


V s N (µV ; σV ) = N (150; 30) kN,
Sy s N (µS ; σS ) = N(20; 2) MPa,
τy s N (µτ ; στ ) = N (4; 0, 4) MPa. (8.41)

Projeto de viga retangular 2D, versão DDO

A versão DDO do problema é aquela apresentada em Arora (2017), que pode ser escrita como:

determine : d¤ = fb¤ , h¤ g,
que minimiza: f (d) = bh, (a)
sujeito a : gs (d) = 6µM γ s ¡ µS bh2 · 0, (b)
gτ (d) = 3µV γ τ ¡ 2µτ bh · 0, (c)
h ¡ 2b · 0. (d)
(8.42)

As restrições (b) e (c) acima apresentam duas pequenas diferenças em relação ao problema apresentado por
Arora (2017), ambas utilizadas para facilitar a comparação com a versão RBDO do problema. Primeiramente,
os coe cientes γ s e γ τ são introduzidos, de forma a caracterizar um problema de projeto, mas resultando nas
mesmas tensões admissíveis. Segundo, na forma apresentada acima, as restrições (b) e (c) não são convexas,
como mostrado por Arora (2017). Isto não é apropriado para solução do problema de otimização, mas deve ser
280 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

Figura 8-4: Solução da versão DDO, projeto de viga retangular 2D.

balanceado com a vantagem de fazer as equações de estado limite lineares, com respeito às variáveis aleatórias
do problema.
Uma solução passo a passo do problema DDO acima é apresentada por Arora (2017). Esta solução não
é reproduzida aqui, uma vez que é muito semelhante à solução do problema RBDO, a ser apresentada na
sequência. A solução grá ca pode ser observada na Figura 8-4, que mostra curvas de nível da função objetivo
(na verdade, bh/103 ) em função das variáveis de projeto b e h. A gura também mostra as três restrições
relevantes (Eqs. 8.42 b, c e d). Podemos observar que a restrição em tensão de cisalhamento é paralela a função
objetivo; logo, a solução do problema DDO é dada por todos os pontos que acompanham a restrição (c), entre os
pontos A e B. No ponto A, as duas restrições em tensão estão ativas; no ponto B, as restrições em cisalhamento
e na razão de aspecto (h · 2b) estão ativas.

Projeto de viga retangular 2D, versão RBDO

A versão RBDO do problema na Eq. (8.42) é obtida substituindo as restrições determinísticas por restrições
baseadas em con abilidade:

determine: d¤ = fb¤ , h¤ g,
que minimiza : f (d) = bh, (a)
sujeito a : β T ¡ β s (d) · 0, (b)
β T ¡ β τ (d) · 0, (c)
h ¡ 2b · 0, (d)
(8.43)
8.2. OTIMIZAÇÃO E CONFIABILIDADE: FORMULAÇÃO 281

sendo βT = 3 o índice de con abilidade alvo. As equações de estado limite correspondentes são:

gs (d) = Sy bh2 ¡ 6M = 0,
gτ (d) = 2τ y bh ¡ 3V = 0. (8.44)

Observe a semelhança entre estas equações e as restrições do problema determinístico (Eqs. 8.42 b e c). As
equações de estado limite são lineares em variáveis aleatórias normais; logo, a solução exata é dada pelo índice
de con abilidade de Cornell:
E[gs ] bh2 µS ¡ 6µM
β s (d) = p =p ,
V ar[gs ] b2 h4 σ2S + 62 σ 2M
E[gτ ] 2bhµτ ¡ 3µV
β τ (d) = p =p ¢ (8.45)
V ar[gτ ] 4b2 h2 σ2τ + 9σ 2V

Uma solução passo a passo, utilizando o formalismo de programação linear, é apresentada na sequência.
Como os problemas RBDO e DDO são bastante similares, esta solução deriva diretamente da solução apresentada
por Arora (2017). A solução pode ser interpretada a partir da Figura 8-5, que mostra a solução grá ca para o
problema RBDO. Na gura, curvas de nível da função objetivo (bh/103 ) são mostradas, em função das variáveis
de projeto b e h.
A solução formal começa com a função Lagrangian do problema de minimização com restrições, Eq. (8.43):

L(d, u, s) = bh + u1 (βT ¡ β s + s21 ) + u2 (β T ¡ β τ + s22 ) + u3 (h ¡ 2b + s23 ). (8.46)

Nesta equação, ui são os multiplicadores de Lagrange, e si são as variáveis folga. Quando a restrição i está
ativa em um ponto candidato a solução, si = 0 e ui ¸ 0. As condições necessárias de KKT para que um ponto
d¤ = fb¤ , h¤ g seja solução da Eq. (8.43) são:

∂L ∂β s ∂β
= h ¡ u1 ¡ u2 τ ¡ 2u3 = 0, (i)
∂b ∂b ∂b
∂L ∂β s ∂βτ
= b ¡ u1 ¡ u2 + u3 = 0, (j)
∂h ∂h ∂h
∂L
= βT ¡ β s + s21 = 0, (k)
∂u1
∂L
= βT ¡ β τ + s22 = 0, (l)
∂u2
∂L
= h ¡ 2b + s23 = 0, (m)
∂u3
∂L
= u1 s1 = 0, (n)
∂s1
∂L
= u2 s2 = 0, (o)
∂s2
∂L
= u3 s3 = 0. (p)
∂s3
(8.47)

As linhas (i) e (j) na Eq. (8.47) são as condições fundamentais; as linhas (n) até (p) são as condições de
comutação. Encontrar o mínimo global envolve veri car todas as formas possíveis de satisfazer as condições de
comutação, como segue.
Caso 1: todas as restrições estão inativas (u1 = u2 = u3 = 0). A partir das Eqs. (8.47 i e j), obtemos
282 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

h = b = 0. Esta solução não é de interesse2 .


Caso 2: somente a terceira restrição esta ativa (u1 = u2 = 0, s3 = 0). A partir das Eqs. (8.47 i e j),
obtemos s3 = b e s3 = ¡b, o que só é satisfeito se b = h = 0. Esta solução não é de interesse.
Caso 3: somente a segunda restrição está ativa (u1 = u3 = 0, s2 = 0 ). Resolvendo o sistema de equações
dado pelas Eqs. (8.47 i, j e l), obtemos u2 = 18991, 23 e bh = 101758 mm2 . Como u2 > 0 , esta é uma solução
válida. Na verdade, há uma família de soluções validas para as quais bh = 101758 mm2 , que correspondem à
linha βτ = 3 , entre os pontos A e B na Figura 8-5 3 . As coordenadas dos pontos A = (bA , hA ) e B = (bB , hB )
são obtidas ao se impor que s21 ¸ 0 e s23 ¸ 0 , ou que β s ¸ β T e h · 2b . Substituindo h = 101758/b na Eq.
(11.37b), obtemos bA = 476, 99 mm.
Caso 4: somente a primeira restrição está ativa (u2 = u3 = 0, s1 = 0 ). Neste caso, as Eqs. (8.47 i e j) se
tornam um sistema inconsistente, sem solução.
Caso 5: Somente as restrições 2 e 3 estão ativas (s2 = s3 = 0, u1 = 0 ). A Eq. (8.47 l) é resolvida para b
: β T ¡ βτ (b, 2b) = 0 , resultando em (b; h) = (225, 56; 451, 13) . Este é o ponto B na Figura 8-5. Resolvendo
as Eqs. (8.47 i e j) obtemos u2 = 18991 e u3 = 0 . Substituindo B = (bB , hB ) na Eq. (8.43b), obtemos
β T ¡ β s (bB , hB ) = ¡3, 545 < 0 ; logo a restrição é satisfeita. Como todas as restrições são satisfeitas, esta
solução é válida.
Caso 6: somente as restrições 1 e 2 estão ativas (s1 = s2 = 0, u3 = 0 ). Resolvendo o sistema de equações
obtido a partir das Eqs. (8.47 k e l), obtemos (b; h) = (476, 99; 213, 33) mm, que corresponde ao ponto A na
Figura 8-5. Resolvendo as Eqs. (8.47 i e j) resulta u1 = 0 e u2 = 18991 . Substituindo A = (bA , hA ) na Eq.
(8.43d), obtemos h ¡ 2b = ¡740, 65 < 0 ; logo a restrição é satisfeita. Como todas as restrições são satisfeitas,
esta solução é válida.
Caso 7: somente as restrições 1 e 3 estão ativas (s1 = s3 = 0, u2 = 0 ). A Eq. (11.41 k) é resolvida para
b : β T ¡ β S (b, 2b) = 0 , resultando em (b; h) = (175, 73; 351, 44) . Este é o ponto C na Figura 8-5. Das Eqs.
(8.471 i e j) obtemos u1 = 7685 e u3 = 58, 58 . Da Eq. (11.37c), obtemos βT ¡ βτ (bC , hC ) = 2, 57 > 0; logo, a
restrição não é satisfeita. Esta solução não é válida.
Caso 8: todas as restrições estão ativas (s1 = s2 = s3 = 0 ). Este caso leva a um sistema indeterminado,
de três equações em duas incógnitas, como pode ser veri cado na Figura 8-5.
Neste exemplo é possível observar que os problemas DDO e RBDO podem ser muito semelhantes,
quando as restrições determinísticas e de probabilidade tem o mesmo grau de (não-)linearidade. Este não é
sempre o caso, uma vez que a linearidade da restrição de con abilidade depende não só da forma da equação de
estado limite, mas também da distribuição de probabilidade das variáveis aleatórias. Se as variáveis aleatórias
neste exemplo não tivessem distribuição normal, os índices de con abilidade na Eq. (8.45) não seriam válidos,
e uma solução iterativa seria necessária. Neste caso, as restrições de con abilidade se tornariam não-lineares,
tornando a solução RBDO diferente da solução DDO. Um problema bem diferente é obtido quando a restrição
de con abilidade (Eq. 8.43) é colocada na função objetivo, como no exemplo de otimização de riscos que segue.

2 De fato, restrições adicionais h > 0 e b > 0 deveriam ter sido introduzidas nas Eqs. (8.42) e (8.43), conforme Arora (2012).

O problema ca formalmente mais correto, mas as soluções desnecessariamente mais complexas, como pode ser visto na referência
original.
3 Esta linha de soluções também aparece no problema DDO, como ilustrado na Figura 8-4.
8.2. OTIMIZAÇÃO E CONFIABILIDADE: FORMULAÇÃO 283

Figura 8-5: Solução da versão RBDO, projeto de viga retangular 2D.

Projeto de viga retangular 2D, versão LCRO

Um problema de otimização de riscos é obtido quando os custos esperados de falha são incorporados à função
objetivo:

determine: d¤ = fb¤ , h¤ g,
bh
que minimiza: f (d) = + cs ©(¡βs ) + cτ ©(¡β τ ), (a)
b0 h0
sujeito a: h ¡ 2b · 0, (b)
¡b · 0, (c)
¡h · 0, (d)
(8.48)

sendo b0 h0 uma constante de normalização; cs e cτ os custos de falha em ‡exão e em cisalhamento, respecti-


vamente. As restrições laterais b > 0 e h > 0 são incluídas neste problema, para limitar de forma apropriada
o espaço de projeto. Os índices de con abilidade β s e βτ da viga são dados pelas Eqs. (8.45). A constante de
normalização é necessária para de nir custos de falha proporcionais ao custo inicial. A constante de normal-
ização é determinada a partir da solução RBDO, com b0 h0 = bA hA = bB hB = 101758 mm2 . Falhas de vigas
por ‡exão geralmente ocorrem de forma dúctil, enquanto falhas por cisalhamento são frágeis. Falhas frágeis são
instantâneas, e tem maior potencial de causar danos. Esta diferença é levada em consideração nos custos de
falha para este exemplo: cs = 2 e cτ = 4 unidades; valores arbitrários. Esta diferença entre as consequências de
falha poderia ter sido considerada na formulação RBDO (Eq. 8.43), através de índices de con abilidade alvo
distintos para os dois modos de falha. Isto não foi feito para manter a semelhança entre as soluções RBDO e
DDO.
Uma solução grá ca do problema é apresentada na Figura 8-6. A solução formal é obtida a partir da função
284 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

Lagrangiana associada ao problema (Eq. 8.48):

bh
L(d, u, s) = +cs © (¡β s ) +cτ © (¡β τ ) + u1 (h ¡ 2b + s21 ) + u2 (¡b + s22 ) + u3 (¡h + s23 ). (8.49)
b0 h0

As condições de KKT para que um ponto (b¤ ,h¤ ) seja solução da Eq. (8.48) são:

∂L h ∂β ∂β
= ¡ cs φ (¡β S ) S ¡ cτ φ (¡β τ ) τ ¡ 2u1 ¡ u2 = 0, (i)
∂b b0 h0 ∂b ∂b
∂L b ∂β S ∂β τ
= ¡ cs φ (¡β S ) ¡ cτ φ (¡β τ ) + u1 ¡ u3 = 0, (j)
∂h b0 h0 ∂h ∂h
∂L
= h ¡ 2b + s21 = 0, (k)
∂u1
∂L
= ¡b + s22 = 0, (l)
∂u2
∂L
= ¡h + s23 = 0, (m)
∂u3
∂L
= u1 s1 = 0, (n)
∂s1
∂L
= u2 s2 = 0, (o)
∂s2
∂L
= u3 s3 = 0. (p)
∂s3
(8.50)

As linhas (i) e (j) na Eq. (8.50) são as condições fundamentais; as linhas (k) a (p) são as condições
comutativas. Encontrar o mínimo global envolve veri car todas as possibilidades de atender às condições
comutativas, como segue.
Caso 1: todas as restrições estão inativas (u1 = u2 = u3 = 0 ). Resolvendo as Eqs. (8.50 i e j) obtemos
múltiplas soluções aproximadas, com bh ' 86742 mm2 . Estas soluções correspondem ao vale entre as curvas de
nível identi cadas por f (d) = 0, 92 na Figura 8-6. A função objetivo decresce lentamente em direção ao ponto
A, que é a solução do problema, conforme veremos.
Caso 2: apenas a terceira restrição está ativa (u1 = u2 = 0, s3 = 0). Caso 3: apenas a segunda restrição
está ativa (u1 = u3 = 0, s2 = 0). Caso 4: a segunda e terceira restrições estão ativas (u1 = 0, s2 = s3 = 0).
Estes três casos levam à solução trivial O = (b¤ , h¤ ) = (0, 0), que não é de interesse, já que a viga desapareçe.
No entanto, trata-se de uma solução do problema matemático formulado na Eq. (8.48). Resulta que este é um
ponto de mínimo da função objetivo, com f (O) = 6, 00. Observe no canto inferior esquerdo da Figura 8-6 que
a função objetivo não é convexa; curvas de nível identi cadas por f (d) = 6, 21 são mostradas na gura para
expor a concavidade da função objetivo.
Caso 5: somente a primeira restrição está ativa (u2 = u3 = 0, s1 = 0). Resolvendo as Eqs. (8.50 i e j)
com h = 2b, obtemos o ponto A = (bA ; hA ) = (208, 19; 416, 38) , mostrado na Figura 8-6, e u1 = 0. A função
objetivo neste ponto vale f (A) = 0, 916106 < f (O), o que con rma que o ponto O é mínimo local.
Logo, a solução do problema LCRO é dada por (bA ; hA ) = (208, 19; 416, 38) mm.
8.2. OTIMIZAÇÃO E CONFIABILIDADE: FORMULAÇÃO 285

Figura 8-6: Solução da versão LCRO, projeto de viga retangular 2D.

Exercício 11 DDO £ RBDO £ RO: obter as soluções analíticas dos problemas de otimização da Seção
8.2.8 (projeto ótimo de viga 2D), nas versões DDO, RBDO e RO, utilizando coe cientes de segurança γ s = 2
e γτ = 3, índices de con abilidade alvo βsT = 3 e β τ T = 4, e custos de falha cs = 3 e cτ = 7 unidades.
Solução: As soluções DDO e RBDO continuam sendo todos os pontos entre A e B, ao longo da restrição
de cisalhamento. A solução LCRO é única.

DDO: (bA , hA ) = (1186, 142); (bB , hB ) = (291, 581); b h = 168750;


RBDO: (bA , hA ) = (696, 177); (bB , hB ) = (248, 496); b h = 122894;
LCRO: (bA , hA ) = (214, 428); b h = 91783;
286 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

8.3 SOLUÇÃO DE PROBLEMAS RBDO COM BASE NO FORM


8.3.1 Introdução
A formulação do problema de otimização baseada em con abilidade ou Reliability-Based Design Optimization
(RBDO) é repetida aqui por conveniência, para o caso de uma única restrição:

determine: d¤ que minimiza: f (d),


sujeito a: β(d) ¸ βT , d 2 D. (8.51)

Este texto apresentou e discutiu, nos Capítulos 3 e 5, diversos métodos de avaliar o índice de con abilidade
que aparece como restrição probabilística na Eq. (8.51). Uma forma de avaliar este índice, muito popular no
contexto de RBDO, é o método de con abilidade de primeira ordem ou FORM. A grande vantagem do FORM
neste problema é a e ciência e precisão na solução de problemas bem comportados (com equação de estado
limite fracamente não-linear).
De acordo com a Seção 3.3, o método FORM consiste em mapear o problema do espaço original de projeto X
para o espaço normal padrão Y, o que é feito através da transformação y = T(x), e então encontrar o chamado
ponto de projeto y¤ , através da solução do problema de minimização com restrição:

dado d, determine: y¤ ,
que minimiza: β(d) = kyk = (yt y)1/2 ,
sujeito a: g(d, y) = 0. (8.52)

sendo g(d, y) = g(d,T(x)) = 0 a equação de estado limite, mapeada para o espaço normal padrão. O ponto de
projeto y¤ é também o ponto do domínio de falha com maior probabilidade de ocorrência; por isto, também é
chamado de ponto de projeto ou Most Probable Point (MPP). No ponto de projeto y¤ a equação de estado limite
original é aproximada por um hiper-plano, o que resulta na estimativa de primeira ordem da probabilidade de
falha: pfF O (d) ¼ ©(¡β(d)). O problema na Eq. (8.52) deve ser resolvido para cada equação de estado limite
do problema, e para cada valor candidato dk . Como o método FORM envolve a solução de um problema de
otimização, RBDO usando FORM produz laços de otimização aninhados, que impactam no custo computacional
da solução. Várias técnicas foram desenvolvidas para eliminar este encadeamento de soluções, como veremos.
Além disto, como o espaço de projeto deve ser sistematicamente explorado durante a busca pelo ótimo (d¤ ),
resulta que o problema (8.52) também deve ser resolvido para con gurações não-usuais de d, para as quais a
solução pode ser tornar instável, ou mesmo pode ser inexistente. Portanto, necessitamos de formas e cientes e
robustas de resolver o problema na Eq. (8.52).
Uma destas soluções é construída olhando para a distribuição cumulativa de probabilidades da variável
aleatória dependente G = g(d, y), chamada de função de desempenho neste contexto (Tu et al., 1999). Observe
que o problema de con abilidade:
Z
pf (d) = P [g(d, X) · 0] = fX (x)dx ¼ ©(¡β(d)), (8.53)
g(d,X)·0

é resolvido em termos de g(d, X) = 0. No entanto, para muitas con gurações de projeto d a restrição de
con abilidade não estará ativa; logo, a equação de estado limite não reduzirá a zero. Substituindo o “zero” da
equação de estado limite pelo valor “g¤ ”, obtemos:
Z g¤ Z
¤
FG (g ) = fG (g)dg = fX (x)dx ¼ ©(¡βg ¤ ), (8.54)
¡1 g(d,X)·g ¤

o que é válido para qualquer g = g ¤ . Estas relações podem ser observadas na Figura 8-7.
8.3. SOLUÇÃO DE PROBLEMAS RBDO COM BASE NO FORM 287

Figura 8-7: Função densidade de probabilidades fG (g) e distribuição cumulativa FG (g) da variável aleatória
“função de desempenho”.

O último termo na Eq. (8.54) envolve uma aproximação de primeira ordem, equivalente ao FORM, para
a probabilidade FG (g) = P [G · g]. A restrição de con abilidade original é recuperada para g = 0, i.e.,
pf (d) = FG (0). O índice de con abilidade generalizado β g , que é função não-crescente de g, é obtido da
igualdade (Madsen et al., 1986):
FG(g) = ©(¡βg ). (8.55)

Esta igualdade pode ser escrita de duas formas alternativas, utilizando transformações inversas:

β g (g) = ¡©¡1 (FG (g)), (8.56)


g(β g ) = FG¡1 (©(¡βg )). (8.57)

A relação não-crescente g / β g é obtida do mapeamento um-a-um g / FG (g); ela descreve completamente


a distribuição cumulativa de probabilidades da função de estado limite. Estas relações podem ser observadas
na Figura 8-8.
Com estas preliminares, a restrição de con abilidade na Eq. (8.51) pode ser escrita como:

pf (d) = FG (0) · ©(¡β T ), (8.58)

o que pode ser expresso de duas formas alternativas (Tu et al., 1999):

β(d) = ¡©¡1 (FG (0)) ¸ β T , (a)


gT = FG¡1 (©(¡β T )) ¸0, (b)
(8.59)

sendo β(d) o índice de con abilidade convencional, e gT a medida de desempenho alvo (mínimo). O valor de
gT não pode ser determinado a partir da Eq. (8.59b), porque na prática não conhecemos a função FG¡1 ( ).
No entanto, as Eqs. (8.59) e as relações ilustradas na Figura 8-8 mostram que podemos buscar o β(d) que
288 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

Figura 8-8: Interpretação da restrição de con abilidade e do índice de con abilidade generalizado.

corresponde ao zero da equação de estado limite, e impor que β(d) ¸ β T ; ou podemos buscar pelo menor valor
da função de desempenho g(d), que corresponde a β(d) = β T , e impor que g(d) ¸ 0.
Em resumo, há duas formas de se impor a restrição de con abilidade no problema RBDO (Eq. 8.51). A
forma convencional é chamada de Reliability-Index Approach (RIA):

dado d, determine: y¤RIA que minimiza: β(d) = kyk = (yt y)1/2 ,


sujeito a: g(d, y) = 0. (8.60)

A forma alternativa é chamada de Performance-Measure Approach (PMA):

dado d, determine: y¤P M A que minimiza: g(d, y),


sujeito a: kyk = β T . (8.61)

As diferenças entre RIA e PMA estão ilustradas nas Figuras 8-8 e 8-9. Quando a restrição de con abili-
dade esta ativa, as soluções y¤RIA e yP¤ M A coincidem (Figura 8-9a e ponto “restrição ativa” na Figura 8-8).
¤
Quando a restrição não está ativa, o ponto yRIA corresponde ao zero da equação de estado limite, para o qual
¤ ¤
β(d) = kyRIA k > β T ; já o ponto yP MA representa o ponto de menor valor da função de desempenho sobre a
hiper-esfera de raio βT = kyP¤ M A k, para o qual g(d, yP¤ M A ) > 0.
Em con abilidade estrutural, o ponto y¤RIA é chamado de ponto de projeto ou Most Probable Point (MPP).
A palavra “projeto” no contexto deste capítulo é infeliz, uma vez não há relação com o projetar da estrutura. Na
formulação PMA, yP¤ M A é o ponto de mínimo desempenho ou Minimal Performance Point, que também seria
abreviado como MPP. Para evitar ambiguidade, neste texto utilizamos a sigla MiPP para Minimal Performance
Point (y¤P M A ) e MoPP para Most Probable Point (y¤RIA ).
8.3. SOLUÇÃO DE PROBLEMAS RBDO COM BASE NO FORM 289

Figura 8-9: Comparação entre as formulações RIA e PMA.

8.3.2 RIA versus PMA


Tu et al. (1999) desenvolveram a formulação PMA e mostraram que é inerentemente mais robusta e mais e ciente
do que a formulação RIA. Youn et al. (2003) con rmaram esta observação, mas também mostraram que o PMA
é mais e ciente quando o projeto ótimo está muito perto ou muito longe da restrição de con abilidade.
Uma das principais diferenças entre RIA e PMA está no tipo de problema de otimização a ser resolvido
em cada caso. Normalmente, é mais fácil minimizar uma função complicada, sujeito a uma restrição simples
(PMA), do que minimizar uma função simples, sujeito a uma restrição complicada (RIA). A formulação RIA na
Eq. (8.60) corresponde a minimização de uma função quadrática (kyk) sob restrição de igualdade não-linear,
o que requer a determinação de uma direção de busca e de um passo. Já no PMA, apenas o vetor de direção
deve ser determinado, tomando vantagem da restrição de igualdade esférica kyk = βT .
O esquema de solução iterativa também favorece o PMA. Usualmente, a formulação RIA requer várias
iterações até se atingir o zero da equação de estado limite g(d, y) = 0, enquanto a busca no PMA é feita
diretamente sobre a hiper-esfera kyk = βT . Para β grande, o número de iterações aumenta muito no RIA, uma
vez que o ponto y¤RIA está localizado longe da origem; já no PMA, o número de iterações é independente do
desempenho alvo (Lee et al., 2002). No caso de restrições não ativas, o PMA é bem mais e ciente do que o RIA.
Não-linearidades resultantes da transformação de variáveis aleatórias não-Gaussianas também tem impacto
no desempenho das soluções. Youn & Choi (2004) mostram que o algoritmo PMA é mais estável, mais e ciente,
e menos sensível a não-linearidades da transformação y = T(x). Logo, o PMA pode processar diferentes
distribuições de probabilidade, sem variação signi cativa no número de avaliações da equação de estado limite.
Por outro lado, o RIA frequentemente diverge na presença de variáveis fortemente não-Gaussianas, um exemplo
sendo variáveis com distribuição uniforme. Variáveis uniformes podem levar a domínios de falha limitados, onde
para alguns valores de d a solução RIA não pode ser obtida, já que β ! 1. A solução PMA, por outro lado,
sempre pode ser obtida.
290 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

8.3.3 Formulação clássica acoplada


Conforme observado, a solução de problemas RBDO utilizando FORM envolve laços de otimização aninhados.
O laço externo envolve a otimização do projeto, o laço interno envolve a análise de con abilidade. O laço
interno pode ser resolvido via RIA ou PMA, conforme Eqs. (8.60 e 8.61). Em geral, a solução do laço externo
de projeto requer algoritmos numéricos especializados, como aqueles descritos em (Arora, 2007, 2017; Haftka et
al., 1990; Nocedal & Wright, 2006; Rao, 2009). Em geral, algoritmos de con abilidade para resolver as restrições
(Eqs. 8.60 e 8.61) podem ser acoplados, de forma independente, a algoritmos de otimização para resolver o laço
externo.
Dentre tantos algoritmos existentes, a programação linear sequencial ou Sequential Linear Programming
(SLP) permite solução manual ou semi-manual. Neste algoritmo, o problema original é substituído por uma
sequência de problemas aproximados, nos quais a função objetivo e as restrições são linearizadas. A solução
do sub-problema linear é uma aproximação da solução do problema original; logo, o sub-problema deve ser
reconstruído de forma iterativa, resultando em uma sequência de soluções dk , k = 0, 1, 2, . . . , que em teoria
deveria convergir para a solução do problema original. Para problemas fortemente não-lineares, o SLP tem
convergência lenta. Os sub-problemas lineares podem se tornar ilimitados; logo, convém utilizar restrições
laterais móveis, que são atualizadas a cada iteração: d 2 Dk ½ D. Estas restrições evitam que, em uma
iteração, a solução mude muito em relação à iteração anterior.
A solução SLP da versão RIA do problema RBDO (Eq. 8.60) é dada por:

dado d0 , para k = 0, 1, 2, ..., até a convergência :


determine: dk+1
que minimiza: f (dk ) + rtd f (dk )(dk+1 ¡ dk )
£ ¤
sujeito a: β T ¡ β i (dk ) + rtd β i (dk )(dk+1 ¡ dk ) · 0, i = 1, ..., nLS , d 2 Dk ;

sendo, a cada iteração k, para i = 1, ..., nLS , e para dk xo:


determine: (y¤RIA )i que minimiza: β i (dk ) = kyi k ,
sujeito a: gi (dk , yi ) = 0. (8.62)

Na Eq. (8.62), rd é o operador gradiente com respeito às variáveis de projeto, i.e., vetor contendo as derivadas

parciais rd = f ∂d i
g, i = 1, . . . , nDV . Ao nal de cada laço de con abilidade, uma análise de sensibilidade em
relação a d é realizada, de forma a obter rtd β i (dk ).
De forma semelhante, a solução SLP da versão PMA do problema RBDO (Eq. 8.61) é dada por:

dado d0 , para k = 0, 1, 2, ..., até a convergência :


determine: dk+1
que minimiza: f (dk ) + rtd f (dk )(dk+1 ¡ dk )
sujeito a: ¡ gi (dk , (y¤P M A )i ) ¡ rtdgi (dk , (yP¤ MA )i )(dk+1 ¡ dk ) · 0, i = 1, ..., nLS , d 2 Dk ;

sendo, a cada iteração k, para i = 1, ..., nLS , e para dk xo :


determine: (y¤P M A )i que minimiza: gi (dk , y),
sujeito a: kyk = βT . (8.63)
8.3. SOLUÇÃO DE PROBLEMAS RBDO COM BASE NO FORM 291

Nos algoritmos acima, a convergência é veri cada por:

jf (dk+1 ) ¡ f(dk )j · εf ,
¯ ¯
¯ dk+1 ¡ dk ¯
¯ ¯
¯ kdk k ¯ · εd ,
¯ ¤ ¯
¯ yk+1 ¡ yk¤ ¯
¯ ¯
¯ ky¤ k ¯ · εy , (8.64)
k

sendo εf , εd , e εy tolerâncias de convergência de nidas pelo usuário.


A solução dos laços aninhados nas Eqs. (8.62) e (8.63) pode ser computacionalmente pesada. Técnicas para
desacoplar os laços de otimização são estudados nas Seções 8.3.6 e 8.3.7.

Solução da versão RIA do problema RBDO acoplado

A solução do problema de otimização enunciado na Eq. (8.60) pode ser obtida através da função Lagrangiana
do problema:
L = (yt y)1/2 + λg(d, y). (8.65)

Na Seção 3.2.7 este mesmo problema foi resolvido, e obtivemos como resultado intermediário a expressão:

rg(d, y¤ )
y¤ = ¡β = ¡®β (8.66)
krg(d, y¤ )k

sendo r o operador gradiente, contendo as derivadas parciais em relação a y: r = f ∂y i
g, i = 1, . . . , nRV . A
Eq. (8.66) mostra que o ponto de projeto é ponto de projeção da origem sobre a equação de estado limite. Na
Seção 3.2.8, veri camos que a linearização sucessiva da equação de estado limite, através de expansão em série
de Taylor, e a busca pelo zero da equação linearizada, resulta no algoritmo HLRF, cuja fórmula recursiva pode
ser decomposta em:

g(d, yq ) ¡ rt g(d, yq )yq


βq =
krg(d, yq )k
rg(d, yq )
yq+1 = ¡β q = ¡®q β q (8.67)
krg(d, yq )k

¤
A solução iterativa na Eq. (8.67) é calculada a partir de um valor inicial y0 , até a convergência yq+1 ! yRIA .
¤
O valor inicial pode ser a média das variáveis aleatórias, ou o valor yRIA encontrado na iteração anterior.
Obviamente, o algoritmo HLRF é apenas uma opção para resolver a Eq. (8.60); outros algoritmos são
descritos na Seção 3.3, ou em (Zhang & Der Kiureghian, 1997).

Solução da versão PMA do problema RBDO acoplado

A solução do problema de otimização expresso na Eq. (8.61) pode ser obtida a partir da função Lagrangeana:
³ ´
L = g(d, y) + λ (yt y)1/2 ¡ β T . (8.68)
292 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

As condiçoes de KKT para y¤ ser ponto de mínimo da Eq. (8.68) são:

∂L
= 0 ) rg(d, y¤ ) + λr(y¤t y¤ )1/2 = 0, (a)
∂y
∂L
= 0 ) (y¤t y¤ )1/2 ¡ βT = 0, (b)
∂λ
(8.69)

sendo λ um multiplicador de Lagrange. A Eq. (8.69b) é satisfeita automaticamente se a busca é feita sobre a
hiper-esfera de raio βT . A Eq. (8.69a) pode ser trabalhada como:

¡1/2
rg(d, y¤ ) + λy¤ (y¤t y¤ ) = 0,
y ¤
= ¡λ¡1 (y¤t y¤ )1/2 rg(d, y¤ ). (8.70)

O ponto y¤ = y¤st na Eq. (8.70) é ponto estacionário. Assumindo que seja também ponto de mínimo, o
índice de con abilidade β é avaliado como:

β = (y¤t ¤ 1/2
st yst ) = (λ¡2 β 2 rt grg)1/2 . (8.71)

Desta expressão, o multiplicador de Lagrange λ é encontrado como:

λ = (rt grg)1/2 = krg(d, y¤ )k . (8.72)

Combinando as Eqs. (8.69), (8.70) e (8.72), obtemos:

rg(d, y¤ )
y¤ = ¡β T = ¡®βT , (8.73)
krg(d, y¤ )k

sendo ® a direção de maior descida da função de estado limite. A Eq. (8.73) não pode ser avaliada diretamente,
pois depende do ponto y¤ a ser determinado. No entanto, um algoritmo recursivo para o PMA é obtido
diretamente a partir desta equação:
rg(d, yq )
yq+1 = ¡βT = ¡®q β T ,
krg(d, yq )k
g(d, yq+1 ) = g(d, ¡®q βT ). (8.74)

A solução iterativa é avaliada a partir de um ponto inicial y0 , até a convergência yq+1 ! y¤P M A . O valor
inicial pode ser a média das variáveis aleatórias, ou o valor y¤P M A encontrado na interação anterior. O algoritmo
nas Eqs. (8.74) é chamado de Advanced Mean Value ou AMV (Tu et al., 1999 ; Youn et al., 2003).
O algoritmo AMV é e ciente em problemas com equação de estado limite convexa (Youn et al., 2003). No
entanto, instabilidade e divergência foram observados em problemas não-convexos. Um algoritmo conjugado
foi proposto, que resultou e ciente para problemas não-convexos mas ine ciente para problemas convexos.
Finalmente, um algoritmo híbrido (Hybrid Mean Value ou HMV) foi proposto por Youn et al. (2003). A
adaptividade do algoritmo HMV é de nida com base na concavidade da equação de estado limite, medida a
partir da terceira interação:
ξ q+1 = (®q+1 ¡ ®q )(®q ¡ ®q¡1 ). (8.75)

Se sign(ξ k+1 ) > 0, a equação de estado limite é convexa com respeito à origem, para o vetor d. Se
sign(ξ k+1 ) · 0, a equação de estado limite é não-convexa em relação à origem. Neste caso, o passo na busca
8.3. SOLUÇÃO DE PROBLEMAS RBDO COM BASE NO FORM 293

pelo ponto MiPP é dado por:


(®q + ®q¡1 + ®q¡2 )
yq+1 = ¡β T . (8.76)
k®q + ®q¡1 + ®q¡2 k

Para dk xo, dado valor inicial y0 (por exemplo, y0 = 0), para q = 0, o algoritmo HMV é dado por:

1. Nas três iterações iniciais, calcule a direção de maior descida ®q , determine o próximo ponto pelo algoritmo
AMV: yq+1 = ¡®q βT , avalie β q+1 = kyq+1 k e gk+1 = g(dk , yq+1 ), veri que a convergência, pare se for o
caso; caso contrário, faça q = q + 1 (repetir duas vezes);
2. A partir do terceiro passo (para q = 3), veri que a concavidade da equação de estado limite usando a Eq.
(8.75). Se sign(ξ k+1 ) > 0, use a equação AMV: yq+1 = ¡®q β T . Se sign(ξ k+1 ) · 0, use a expressão para
o algoritmo HMV (Eq. 8.76); avalie ®q+1 , βq+1 = kyq+1 k e gk+1 = g(dk , yq+1 ); veri que a convergência
e pare se for o caso; c.c., faça q = q + 1 ; e repita o passo 2 até a convergência.

A convergência no algoritmo HMV acima pode ser veri cada por estacionariedade da equação de estado
limite, em forma relativa ou absoluta:

jgk+1 ¡ gk j
· εrel ,
kgk k
jgk+1 ¡ gk j · εabs , (8.77)

sendo εrel , e εabs tolerâncias de convergência de nidas pelo usuário. Alguns exemplos numéricos mostrando a
e ciência do algoritmo HMV são explorados em Youn et al. (2003).

8.3.4 Exemplo de RBDO utilizando RIA e PMA


O problema é baseado no Exemplo 4 (pg. 97), e se refere ao projeto da seção transversal de uma viga, tendo
como modo de falha a formação de rótula plástica. As variáveis aleatórias são a tensão de escoamento do
material (σy ), o módulo plástico da seção (W ) e o momento ‡etor aplicado (M ). Estas variáveis são agrupadas
no vetor X = fσy , W, M gt = fX1 , X2 , X3 gt . Parâmetros das variáveis aleatórias são apresentados na Tabela 3.2
(pg. 98). Um coe ciente de segurança d é incorporado ao problema, permitindo aumentar (d > 1) ou diminuir
(d < 1) a resistência. A equação de estado limite é:

gX (d, X) = dσ y W ¡ M = dX1 X2 ¡ X3 = 0 (8.78)

Como mostrado no Exemplo 4, a equação de estado limite é transformada para o espaço normal padrão, por
meio de y = T(x):

g(d, y) = gX (d, T¡1 (y))


= d(5y1 + 40)(2, 5y2 + 50) ¡ 200y3 ¡ 1000
= d(12, 5y1 y2 + 100y2 + 250y1 + 2000) ¡ 200y3 ¡ 1000. (8.79)

Para d = 1, o problema resolvido no Exemplo 4 é recuperado, obtendo-se β = 3, 0491 através de solução


iterativa. O problema de otimização com restrição em con abilidade consiste em encontrar o menor valor d
para o qual o índice de con abilidade é maior ou igual a β T = 4. A versão RIA deste problema RBDO é escrita
como:

determine : d¤ ,
que minimiza : d,
¤
sujeito a : β T ¡β(d, yRIA ) · 0, (8.80)
294 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

sendo o índice de con abilidade β(d) encontrado através da solução do problema (8.60), utilizando o algoritmo
HLRF. O problema de otimização externo é resolvido por meio de programação linear sequencial (SLP). A
função objetivo já é linear; logo, apenas a restrição deve ser linearizada (conforme Eq. 8.62):

∂β(dk )
β T ¡ β(dk ) ¡ (d ¡ dk ) · 0.
∂d

Simpli cando a notação:

∂β(dk ) ∂β(dk )
ak + bk d · 0, sendo ak = βT ¡ β(dk ) + dk e bk = ¡ ¢
∂d ∂d

A função Lagrangiana do problema linearizado é:

L(d, u, s) = d + u(ak + bk d + s2 ), (8.81)

sendo u um multiplicador de Lagrange e s uma variável de folga. As condições necessárias KKT para que d¤
seja solução do problema acima são:
∂L 1
= ¡1 + ubk = 0 ) u = , (a)
∂d bk
∂L
= ak + bk d¤ + s2 = 0, (b)
∂u
∂L
= 2us = 0 ) s = 0. (c)
∂s
(8.82)

Da Eq. (8.82b) obtemos:


ak β ¡ β(dk )
d¤ = dk+1 = ¡ = dk + T ∂β(d ) ¢
bk k
∂d

Observe que esta solução depende da derivada ∂β


∂d , sendo β calculado de forma iterativa, como mostrado no
Exemplo 4. Esta derivada pode ser calculada manualmente, ainda que o processo seja longo e repetitivo. Nesta
seção, a derivada acima é calculada numericamente, por diferenças nitas.

A versão PMA do mesmo problema é escrita como:

determine : d¤ ,
que minimiza : d,
sujeito a : ¡ g(d, y¤P M A ) · 0. (8.83)

A restrição de con abilidade (Eq. 8.61) é resolvida utilizando o algoritmo AMV. Novamente, o problema de
otimização externo é resolvido pelo SLP, conforme Eq. (8.63). A função objetivo já é linear; logo, apenas a
restrição deve ser linearizada:

∂g(dk , y¤P M A )
¡g(dk , yP¤ MA ) ¡ (d ¡ dk ) · 0.
∂d

Simpli cando a notação:

∂g(dk , yP¤ MA ) ∂g(dk , yP¤ MA )


ak + bk d · 0, sendo ak = ¡g(dk , yP¤ M A ) ¡ dk e bk = ¡ ¢
∂d ∂d
8.3. SOLUÇÃO DE PROBLEMAS RBDO COM BASE NO FORM 295

A função Lagrangiana do problema linearizado:

L(d, u, s) = d + u(ak + bk d + s2 ),

é idêntica àquela da solução RIA (Eq. 8.81). Logo, o mesmo resultado é obtido:

ak g(dk , y¤ )
d¤ = dk+1 = ¡ = dk ¡ ∂g(d ,yP¤ M A) ¢ (8.84)
bk k P MA
∂d

Observe que a solução PMA envolve apenas o gradiente da equação de estado limite, que neste problema
pode ser determinado analiticamente:

∂g(d, y)
= 12, 5y1 y2 + 100y2 + 250y1 + 2000.
∂d

As soluções iterativas acima podem ser programadas facilmente, assim como os algoritmos HLRF (Eq. 8.67)
e AMV (Eq. 8.74). O laço externo de otimização pode ser avaliado manualmente, mas a solução iterativa para o
laço interno torna o cálculo longo e cansativo. Resultados obtidos via implementação em Mathematica, usando
como valor inicial d0 = 1, e tolerância f = 10¡4 , são ilustrados na Tabela 8.1. As soluções iterativas do laço
interno foram iniciadas sempre no ponto médio x0 = f40, 50, 1000gt . No entanto, o passo do PMA (Eq. 8.84),
deve ser calculado no ponto yP¤ M A obtido na iteração anterior. Os valores mostrados na Tabela 8.1 são aqueles
obtidos ao nal de cada laço interno.

Tabela 8.1: Solução iterativa do problema RBDO rótula plática em viga.


k d β g(y)
0 1,00000 3,0491 -9,2 10¡5
RIA 1 1,22189 3,8755 -8,2 10¡4
2 1,26151 3,9971 -1,1 10¡3
3 1,26151 4,0000 -1,1 10¡3
0 1,00000 4,0 -304,41
PMA 1 1,25417 4,0 -8,3427
2 1,26151 4,0 -5,58 10¡3
3 1,26151 4,0 -2,93 10¡7

Na Tabela 8.1 podemos observar o comportamento distinto das soluções RIA e PMA. Na solução RIA,
o “zero” da equação de estado limite é imposto, de forma que g(y) ¼ 0 ao nal de cada laço interno de
con abilidade. O índice de con abilidade alvo é obtido apenas no último laço externo. Na solução PMA, o
índice de con abilidade é imposto, de forma que β = βT ao nal de cada laço interno de con abilidade. O
“zero” da equação de estado limite só é obtido no último laço externo. Como a restrição de con abilidade está
ativa ao nal da solução, os pontos MoPP e MiPP coincidem:

y¤RIA = yP¤ M A = f¡3, 269; ¡0, 806; +2, 16gt ,


x¤RIA = x¤P M A = f23, 657; 47, 984; 1432gt .

8.3.5 Distinção de notação entre variáveis de projeto e variáveis aleatórias de


projeto
A otimização baseada em con abilidade envolve necessariamente variáveis de projeto d 2 RnDV e variáveis
aleatórias X 2 RnRV . Até este ponto não foi necessária distinção entre variáveis de projeto \determinísticas"
e variáveis de projeto aleatórias. No entanto, algumas técnicas descritas neste texto operam de forma distinta
296 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

nestes dois tipos de variáveis. Assim, enquanto não houve necessidade de distinção, a notação d 2 RnDV e
X 2 RnRV foi utilizada. Quando há necessidade de distinção, a notação apresentada abaixo é utilizada.
Variáveis de projeto deterministas são aquelas sobre as quais não há incerteza associada, como coe cientes
parciais de segurança, intervalo entre manutenções periódicas, ou dimensões de elementos estruturais (quando
as incertezas decorrentes de tolerâncias de fabricação podem ser desprezadas). Variáveis de projeto aleatórias
são aquelas associadas a fontes signi cativas de incertezas, mas cujo valor médio, por exemplo, é determinado
em projeto. Exemplos incluem a resistência de materiais estruturais, e as dimensões de elementos, quando as
incertezas decorrentes de tolerâncias de fabricação não podem ser desprezadas. É fácil perceber que variáveis
aleatórias de projeto possuem uma componente que pertence a d, e outra componente que pertence a X. No
entanto, estas variáveis são operacionalizadas de forma diferente, o que justi ca a nomenclatura abaixo.
Quando necessária a distinção, utilizamos d 2 RnDDV para representar o vetor de variáveis determinísticas
de projeto e ¹ 2 RnRDV para representar o vetor de médias de variáveis de projeto aleatórias, sendo nDDV para
determinístic Design Variables, nRDV para Random Design Variables, de forma que nDDV + nRDV = nDV .
De forma semelhante, utilizamos X 2 RnP RV para variáveis aleatórias e M 2 RnRDV para variáveis aleatórias
de projeto, de forma que nP RV + nRDV = nRV . Observe que ¹ é o vetor de médias de M. Além das médias,
que é o caso usual, o vetor ¹ também pode conter a variância, ou outro momento, de uma variável aleatória
de projeto. A equação de estado limite se torna g (d, M, X) = 0 . Obviamente, variáveis do tipo d ou X não
estão necessariamente presentes, caso em que o problema depende apenas de M(¹).

8.3.6 Soluções desacopladas com laços em série


Uma forma de evitar o aninhamento dos laços de otimização estrutural e de con abilidade é executar estes
laços em série ou em sequência. Diferentes técnicas foram propostas nos últimos anos (Torng & Yang, 1993;
Wu et al., 2001; Du & Chen, 2004; Chen et al., 2013). Estas técnicas foram comparadas por Yang & Gu
(2004) e Yang et al. (2005). Estas soluções se mostraram mais e cientes do que o acoplamento clássico, mas
a técnica Sequential Optimization and Reliability Assessment (SORA) se mostrou mais e ciente. A técnica
SORA também se mostrou e ciente, robusta e precisa em comparações mais amplas realizadas por Aoues &
Chateauneuf (2010) e Lopez & Beck (2012, 2013). Por esta razão, apenas o SORA é apresentado na sequência.

Sequential Optimization and Reliability Analysis (SORA)

O algoritmo SORA (Du & Chen, 2004) é uma estratégia de desacoplamento baseada em laços sequênciais de
otimização determinística e con abilidade estrutural. A idéia central do método é substituir a restrição de
con abilidade por restrição determinística, obtida por translação, a partir da análise de con abilidade realizada
no laço anterior. A análise de con abilidade somente é realizada após a convergência do laço de otimização.
O método SORA endereça a solução de problemas RBDO envolvendo variáveis aleatórias de projeto (variáveis
aleatórias M cuja média ¹ deve ser determinada). Acreditamos que o desempenho do SORA seja ótimo para
variáveis deste tipo. No entanto, não há estudos su cientes na literatura para avaliar o desempenho quando
variáveis de projeto determinísticas (d) também estão presentes.
Os valores iniciais dk e ¹k , para a interação de número k, e as restrições determinísticas para o laço
de projeto são obtidas a partir de uma análise de con abilidade baseada no PMA, onde os pontos MiPP
fm¤ik , x¤ik g = T¡1 (yik
¤
) são obtidos a partir da solução de:

dado dk , ¹k , para i = 1, ..., nLS , determine: y¤i ,


que minimiza: gi (d, y),
sujeito a: kyk = β T , (8.85)

sendo que o vetor Y agrupa todas as variáveis aleatórias no espaço normal padrão. Os vetores de translação
8.3. SOLUÇÃO DE PROBLEMAS RBDO COM BASE NO FORM 297

Figura 8-10: Ilustração da abordagem SORA (baseada em Du & Chen, 2004).

sik são obtidos impondo que, para cada estado limite:

gi (dk , ¹k ¡ sik , x¤ik ) = 0, i = 1, ..., nLS , (8.86)

o que conduz a sik = ¹k ¡ m¤ik . Quando todas as variáveis aleatórias do problema são variáveis de projeto (M),
a análise de con abilidade inicial pode ser evitada fazendo m¤i0 = ¹0 e si0 = 0.
A imposição da restrição de con abilidade no SORA, através dos vetores de translação sik é ilustrada na
Figura 8-10, onde para clareza, apenas duas variáveis do tipo M são consideradas. Observamos que, para uma
restrição ativa gi , o ponto ótimo ¹k = (µm1 , µm2 )k está na fronteira da restrição determinística, gi (¹k ) = 0.
Nesta situação, a probabilidade de falha seria aproximadamente 0,5; logo, a restrição determinística deve ser
transladada para cima, de forma que coincida, aproximadamente, com a restrição probabilística. Esta translação
é obtida a partir da Eq. (8.86). Para a restrição transladada ¹k ¡ sik , a área abaixo da PDF condicional na
Figura 8-10 é aproximadamente igual a probabilidade de falha admissível.
O algoritmo SORA pode ser escrito como:

1. Escolher valores iniciais fd0 , ¹0 g, para k =0;


2. Resolver o problema de con abilidade (Eq. 8.85), identi car restrições ativas, obter pontos m¤ik e x¤ik , e
determinar vetores de translação sik = ¹k ¡ m¤ik , i = 1, ..., nLS ;
3. Completar sub-ciclo de otimização determinística: fdk+1 , ¹k+1 g = arg min[f (d, ¹)jgi (dk , ¹k ¡ sik , x¤ik ) ¸
0, i = 1, ..., nLS , d 2 D];
4. Realizar análise de con abilidade, atualizar pontos MiPP m¤ik e x¤ik , veri car se a solução atende às
restrições β i (dk+1 , ¹k+1 ) ¸ β T , i = 1, ..., nLS ;
5. Se a solução atende às restrições e aos critérios de convergência, fazer fd¤ , ¹¤ g = fdk+1 , ¹k+1 g e parar;
caso contrário, atualizar vetores de translação si(k+1) = ¹k+1 ¡ m¤i(k+1) , i = 1, ..., nLS ; fazer k = k + 1 e
retornar ao passo 3.

Critérios de convergência do SORA são: a) estacionariedade no valor da função objetivo jfk+1 ¡ fk j · f


e b) todas as restrições de con abilidade são satisfeitas. Como as restrições de con abilidade são impostas de
298 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

maneira aproximada, é possível observar convergência para pontos que não são pontos de mínimo da função
objetivo, mesmo no sentido local (Liang et al., 2004).

8.3.7 Soluções desacopladas de laço único


Os assim-chamados métodos desacoplados de laço único (uni-level methods) são obtidos eliminando-se o laço
interno de con abilidade. As condições de otimalidade do problema interno são impostas como restrição no laço
externo de projeto. Desta forma, a convergência é obtida de forma concomitante em termos das variáveis de
projeto (d¤ ) e do ponto de projeto (y¤ ).
Kuschel & Rackwitz (2000) formularam um método de laço único impondo como restrição no problema
externo as condições de otimalidade de primeira ordem de KKT da formulação clássica (RIA). Conforme co-
mentado na Seção 8.3.2, o RIA pode ser tornar instável se, para algum valor do vetor de projeto d, os índices de
con abilidade tenderem ao in nito. Além disto, o RIA pode se tornar ine ciente para β grande. Para contornar
este problema, Agarwal et al. (2004, 2007) proposeram impor ao problema externo as condições de otimalidade
de primeira ordem de KKT em termos da formulação PMA, o que resultou em um algoritmo mais robusto e e -
ciente. No entanto, as duas propostas (Kuschel & Rackwitz, 2000; Agarwal et al., 2007) empregam as variaveis
aleatórias no espaço normal padrão como variáveis de projeto adicionais, aumentando a dimensionalidade do
problema de otimização. Além disto, os dois métodos exigem cálculo das derivadas de segunda ordem, que são
computacionalmente custosas de avaliar. Liang et al. (2004, 2007) apresentaram uma formulação alternativa,
conhecida como Single-Loop Approach (SLA) que evita os problemas acima. Análises comparativas (Aoues &
Chateauneuf, 2010) mostram que o método SLA é mais preciso, robusto e e ciente do que técnicas alternativas.

O Método Single-Loop Approach (SLA)

O método Single Loop Approach (SLA) de Liang et al. (2004) elimina o laço interno de con abilidade ao impor
como restrição, a cada interação do laço externo, as condições de otimalidade de primeira ordem de KKT do
laço interno. O problema é posto como:

determine: dk+1 ,
que minimiza: f (d),
sujeito a: gi (dk , xik ) ¸ 0, i = 1, ..., nLS , d 2 D. (8.87)

sendo xik (d) = (¹X )k ¡ (Jxy )ik ®ik (d)β T i uma aproximação linear do ponto MiPP x¤i , na iteração k. O vetor
(¹X )k só precisa ser atualizado se variáveis aleatórias de projeto (tipo M) estiverem presentes4 . O vetor ®i é
o gradiente normalizado da restrição i, e Jxy é a matriz Jacobiana da transformação x =T¡1 (y) = Jxy y + ¹X :
½ ¾
∂xi
Jxy = . (8.88)
∂yj i=1,...,nRV ;j=1,...,nRV .

As Eqs. (8.87) e (8.88) são uma generalização da formulação original em (Liang et al., 2004), pois endereçam
também variáveis não-Gaussianas e correlacionadas. A solução de laço único SLA não encontra o ponto MiPP
de cada restrição a cada iteração. Ao contrário, uma aproximação do ponto MiPP das restrições ativas é obtida
a partir das condições de primeira ordem. Uma suposição implícita no SLA é que a sequência de aproximações
xik convirja para o ponto MiPP correto, ao nal do processo interativo (x¤k ! x¤P M A ).
Se as equações de estado limite forem excessivamente não-lineares no espaço normal padrão, ou se houver
multiplos pontos de projeto, o algoritmo SLA pode não convergir para a solução correta. Estas são limitações

4 Na formulação SLA, separar os vetores d e ¹, e M e X, exigiria também uma separação de y; logo, preferimos trabalhar com

d e X.
8.3. SOLUÇÃO DE PROBLEMAS RBDO COM BASE NO FORM 299

conhecidas do FORM, como vimos na Seção 3.3.


O algoritmo SLA inicia com os valores iniciais d0 e yi0 (e.g., yi0 = 0), para k = 0, e com avaliação da função
objetivo e restrições na Eq. (8.87). A seguir:

1. Para cada restrição (i), avaliar as matrizes de transformação (Jxy )ik , os gradientes normalizados (®ik ) e
a aproximação do ponto MiPP: xik (dk ) = (¹X )k ¡ (Jxy )ik ®ik (d)β T i ;
2. O ponto dk+1 é avaliado a partir que qualquer algoritmo apropriado;
3. Veri car a convergência, interromper o algoritmo se for o caso; c.c., atualizar o contador (k = k + 1);
4. Veri car se o vetor (¹X )k mudou desde a última iteração; caso positivo, atualizar a matriz de trans-
formação (Jxy )ik . Atualizar yik =T(xi(k¡1) ) = (Jxy )ik (xi(k¡1) ¡ (¹X )k ) e ®ik , calcular xik (dk ) =
(¹X )k ¡ (Jxy )ik ®ik (d)β T i . Esta etapa é essencial para que os vetores (¹X )k e xik estejam consistentes,
mas também aumenta a e ciência do algoritmo. Voltar a etapa 2.

Programação Aproximada Sequêncial (SAP)

A Programação Aproximada Sequêncial ou Sequential Approximate Programming (SAP) é uma técnica popular
para resolver problemas convencionais de otimização. SAP consiste em decompor o problema original em uma
sequência de sub-problemas mais simples. Os sub-problemas são obtidos a partir de aproximações, geralmente
lineares ou quadráticas, da função objetivo e das restrições. O SAP, aplicado ao problema RBDO, da origem a
uma solução desacoplada de laço único.
Cheng et al. (2006) apresentaram um método SAP baseado no RIA, para resolver problemas de RBDO. O
esquema proposto é baseado em aproximações lineares da função objetivo e da restrição RIA (SLP). Yi et al.
(2008) apresentaram um método SAP alternativo baseado no PMA, que se mostrou mais robusto e e ciente
que o esquema baseado no RIA.
O método SAP-PMA de Yi et al. (2008) pode ser escrito como:

Para k = 0, 1, 2, ..., começando


com d0 , y0 , até a convergência :
determine : dk+1
que minimiza : fk (dk )
sujeito a : gik (d) = gi (dk , y¤ik ) + rtd gi (dk , yik
¤
)(dk+1 ¡ dk ) · 0,
i = 1, ..., nLS , d 2 Dk ;

sendo, a cada iteração k, para i = 1, ..., nLS , e para dk xo,


uma aprox. linear do ponto (y¤P M A )i é obtido como:
¤ rgi (dk , y¤ik )
yi(k+1) = ¡®ik β T i = ¡β T i , (8.89)
krgi (dk , y¤ik )k

sendo fk (dk ) uma aproximação da função objetivo, correspondente ao sub-problema k, e Dk ½ D o conjunto


de restrições laterais móveis. Na Eq. (8.89), gik (d) é uma aproximação de primeira ordem da restrição de
¤
con abilidade original, que é avaliada de forma aproximada, utilizando a estimativa atual do ponto MiPP (yik ).
Através do algoritmo da Eq. (8.89), teoricamente, o SAP converge concomitantemente para o projeto ótimo
(dk+1 ! d¤ ) enquanto o ponto MiPP converge para o valor correto (yik ¤
! (y¤P M A )i ). Portanto, o SAP é um
método de laço único. Quando a aproximação fk (dk ) é linear (e.g. fk (dk ) = f (dk ) + rtd f (dk )(dk+1 ¡ dk )),
obtemos um problema de programação linear sequêncial (SLP), veja Eq. (8.63).
300 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

No SAP, a diferença entre variáveis de projeto d e variáveis de projeto aleatórias M é relevante apenas na
avaliação dos gradientes da equação de estado limite. O gradiente rtd gi (dk , yik
¤
) é avaliado como:
¯ n
∂gi ¯¯ ∂gi (dk , y¤ik ) X ∂gi (dk , y¤ik ) ∂yl ¯
= = ´ rty gi (dk , yik
¤
)(r¹ y)¯y=y¤ ,
∂dj ¯dj =µ ∂µ l=1
∂yl ∂µ ik

¯
∂gi ¯¯ ∂gi (dk , y¤ik )
= ¢
∂dj ¯dj =d ∂d

Critérios de convergência para o SAP envolvem estacionariedade da função objetivo, do MiPP e do vetor de
projeto, conforme Eq. (8.64). Alguns exemplos numéricos, explorando o desempenho do SAP versus soluçoes
acopladas RIA e PMA, ou versus SAP-RIA, são apresentados em (Yi et al., 2008; Yi & Cheng, 2008).

8.3.8 Técnicas de RBDO para con abilidade de sistemas


As formulações do problema RBDO nas Eqs. (8.7) e (8.8) são uma extensão natural da versão DDO (Eq. 8.6),
onde as restrições determinísticas de projeto foram substituídas por restrições probabilísticas, para cada modo
de falha. Em um contexto de análise de con abilidade, no entanto, é possível, e até mais consistente, trabalhar
com restrições à probabilidade de falha do sistema. Seja:

­f (d) = fxj [k \i2Ck gi (d, X) · 0g (8.90)

um domínio de falha composto, onde Ck é o conjunto de índices contendo componentes do k¡ésimo grupo de
corte (cut set), de forma que sistemas em série, em paralelo e mistos são representados (veja Seção 4.1.3). Seja
pf SY S a probabilidade de falha do sistema e (1 ¡ pfT SY S ) a con abilidade alvo (ou mínima), de forma que:
Z
pfSY S (d) = P [X 2 ­f (d)] = fX (x)dx. (8.91)
[k \i2Ck gi (d,X)·0

O problema RBDO para sistemas é escrito como:

determine: d¤ que minimiza: f (d),


sujeito a: pf SY S (d) · pf T SY S , d 2 D, (8.92)

sendo a con abilidade do sistema (RSY S = 1 ¡ pf SY S ) função da con abilidade dos componentes (Ri =
1 ¡ pfi , i = 1, . . . , nLS ). A con abilidade (ótima) de cada componente é sub-produto da solução da Eq. (8.92).
Utilizando o índice de con abilidade generalizado:

β SY S = ¡©¡1 (pf SY S ) = ©¡1 (1 ¡ pf SY S ) (8.93)

o problema pode ser escrito em termos de índices de con abilidade:

determine: d¤ que minimiza: f(d),


sujeito a: β SY S (d) ¸ βT SY S , d 2 D, (8.94)

sendo a con abilidade do sistema (β SY S ) função da con abilidade dos componentes (βi , i = 1, . . . , nLS ), encon-
trada como sub-produto da solução da Eq. (8.94).
O problema expresso nas Eqs. (8.92) e (8.94) é signi cativamente mais difícil de resolver do que as Eqs.
(8.7) e (8.8); primeiramente, porque envolve a avaliaçao da con abilidade de sistemas; mas mais importante,
porque há in nitas combinações de con abilidade de componentes que levam a mesma con abilidade de sistema.
Mais ainda, derivadas de uniões ou intersecções de eventos (Eq. 8.91) são sensíveis apenas aos modos de falha
8.3. SOLUÇÃO DE PROBLEMAS RBDO COM BASE NO FORM 301

dominantes (Aoues & Chateauneuf, 2008). A sensibilidade com respeito à modos não-dominantes, que cam
escondidos atrás dos modos dominantes, é difícil de avaliar. Isto gera instabilidades na solução do problema
RBDO para sistemas. No entanto, a solução das Eqs. (8.92) ou (8.94) conduz a projetos melhores, pois a
formulação tem menor número de restrições, conduzindo a menores valores de função objetivo. A formulação
para sistemas permite encontrar pontos ótimos de compromisos entre modos de falha que competem entre si,
pois pode ser mais barato (com respeito à redução em f (d)) reduzir a con abilidade de um componente e
compensar em outros, respeitando-se a con abilidade do sistema.
Para implementar soluções baseadas no PMA para o problema RBDO de sistemas, as con abilidades-alvo dos
componentes precisam ser impostas como restrições no problema de otimização. Como estas não são conhecidas,
são incluídas como variáveis de projeto adicionais, dando origem a um problema aumentado:

determine: fd¤ , ¯ ¤T g que minimiza: f(d),


sujeito a: β SY S (d) ¸ βT SY S , βi (d) ¸ β T i , i = 1, ..., nLS , d 2 D, (8.95)

sendo ¯ ¤T 2 RnLS um vetor de índices de con abilidade alvo para cada modo de falha (βT i ). Esta formulação
deve ser evitada, por levar à problemas com excesso de restrições, ou seja, a soluções não-ótimas (Aoues &
Chateauneuf, 2008). Em geral, se a restrição referente à con abilidade do sistema está ativa no ponto ótimo, as
restrições individuais podem estar inativas, ou seja, os componentes não serão ótimos. Por outro lado, devido
à especi cação redundante, se muitas restrições individuais estiverem ativas, a restrição referente ao sistema
provavelmente estará inativa; sugerindo que o ponto ótimo não foi encontrado.
Quando a formulação RIA é empregada, a con abilidade (ótima) dos componentes βi se torna sub-produto
da solução do problema de otimização. Neste caso, a Eq. (8.92) pode ser empregada diretamente, sendo a
con abilidade do sistema uma função da con abilidade dos componentes:

pf SY S (d) = h(β i (d)), i = 1, ..., nLS .

As primeiras abordagens ao problema de RBDO de sistemas (Feng & Moses, 1986; Enevoldsen & Sørensen,
1993) resolveram problemas simples através de soluções acopladas, onde o “laço” de con abilidade era resolvido
utilizando diferentes aproximações, dentro do laço de projeto. Tais soluções encadeadas são computacionalmente
custosas; logo, restritas a problemas acadêmicos. Algoritmos especializados foram desenvolvidos apenas mais
recentemente.
Royset et al. (2001) propuseram um método para RBDO de sistemas onde a con abilidade alvo do sistema é
obtida ajustando heuristicamente a con abilidade dos componentes. Ba-abbad et al. (2006) apresentaram uma
extensão do SORA para sistemas, baseada em laços sequências de projeto e de con abilidade, e em extrapolação
linear para o ponto MoPP. Liang et al. (2007) apresentaram uma extensão do método SLA (Liang et al., 2004)
para RBDO de sistemas em série, utilizando limites de segunda ordem (Ditlevsen, 1979). Esta solução é discutida
na sequência. Aoues & Chateauneuf (2008) apresentaram uma técnica para sistemas em série utilizando um laço
interno adicional, para minimizar a diferença entre a con abilidade de componentes e seus alvos, sujeita a uma
restrição na con abilidade do sistema (β SY S (d, ¯ T ) ¸ βT SY S ). Uma limitação do método é que o algoritmo
para atualização das con abilidades alvo não leva em conta a função objetivo. Um esquema de laço único,
endereçando RBDO de sistemas genéricos, foi apresentada por Nguyen et al. (2010), e é discutida na sequência.
Uma revisão ampla da literatura sobre con abilidade de sistemas, com aplicação a otimização, é apresentada
por Song et al. (2021).

Método de laço único para RBDO de sistemas

Um método de laço único ou Single Loop Aproach (SLA) endereçando RBDO de sistemas em série foi desen-
volvido por Liang et al. (2007). Esta solução foi extendida para sistemas genéricos, como o da Eq. (8.90), por
Nguyen et al. (2010). O método é baseado no PMA, e utiliza as con abilidades alvo dos componentes como
302 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

variáveis de projeto adicionais:

determine: fd¤ , ¯ ¤T g que minimiza: f (d),


sujeito a: pf SY S (d) · pfT SY S , gi (d, xi ) ¸ 0, i = 1, ..., nLS , d 2 D; (8.96)

sendo ¯ ¤T 2 RnLS o vetor de con abilidade alvo dos componentes. Os vetores xi são atualizados de acordo com
o esquema SLA original (Eq. 8.87): xik (dk ) = (¹X )k ¡ (Jxy )ik ®ik (d)β T i . O esquema original de Liang et al.
(2007) endereça apenas sistemas em série, com a probabilidade de falha do sistema sendo calculada a partir dos
limites bi-modais, conforme Seção 4.3.2:
nLS
X nLS
X
pfSY S = P [[gi (d, X) · 0] ' pfi ¡ max[pfij ]. (8.97)
j<i
i=1 i=2

As probabilidades de falha conjuntas pfij podem ser avaliadas como:


Z ρij
pfij = ©(¡β i )©(¡β j ) ¡ φ(¡βi , ¡β j , z)dz (8.98)
0

com ρij = ®i ®j sendo o coe ciente de correlação linearizado entre pares de equações de estado limite. As
mesmas Equações (8.97 e 8.98) são utilizadas para veri car se os índices de con abilidade alvo β T i na Eq.
(8.96) respeitam a con abilidade do sistema, i.e., se uma soluçao candidata é viável.
Se uma das restrições de con abilidade de componente se torna inativa, de forma que pfT i ! 0 e β T i ! 1,
a solução da Eq. (8.96) se torna instável, pois a sensibilidade da restrição a este modo de falha ca muito
pequena. Para contornar este problema, uma estratégia de restrições ativas é proposta por Jiang et al. (2007).
Para um p pequeno, escolhido pelo analista, restrições inativas são identi cadas por pf T i < p , e impõe-se que
pf T i = 0 e βT i = ¡©¡1 (p ). O conjunto de restrições ativa é atualizado a cada interação.
Uma solução de laço único para sistemas genéricos é apresentada por Nguyen et al. (2010). Probabilidades
de falha para sistemas genéricos são avaliadas através da técnica de multiplicação de matrizes ou utilizando a
técnica de programação linear, conforme Seção 4.3.3. O método PMA é utilizado; logo, índices de con abilidade
alvo para cada modo de falha são introduzidos como variáveis de projeto adicionais. O algoritmo de solução é
muito parecido com aquele de Liang et al. (2007).

8.4 TÉCNICAS BASEADAS EM SIMULAÇÃO PARA RBDO E


LCRO
Os métodos estudados na Seção 8.3 são direcionados à solução de problemas RBDO, onde as probabilidades de
falha são restrições de projeto. Na abordagem PMA, por exemplo, as probabilidades de falha nem sequer são
avaliadas. Em vez disso, o ponto de desempenho mínimo é encontrado resolvendo o problema de otimização
restrito: yP¤ M A = arg min[g(d, y)jkyk = βT ]. Tais soluções são especí cas para problemas RBDO.
Nesta seção abordamos métodos para resolver problemas de otimização sob incertezas usando a simulação
de Monte Carlo. Como as probabilidades de falha são avaliadas explicitamente, tais métodos são geralmente
aplicáveis aos problemas RBDO (Eq. 8.7) ou LCRO (Eq. 8.12). No texto, quando nada for dito, um método
descrito é aplicável a problemas de RBDO e LCRO. A palavra “simulação”, nesta seção, é usada no sentido
mais amplo, isto é, engloba simulações de Monte Carlo simples e técnicas de amostragem inteligente, tais como
8.4. TÉCNICAS BASEADAS EM SIMULAÇÃO PARA RBDO E LCRO 303

Amostragem por Hipercubo Latino (LHS), amostragem por importância, amostragem melhorada ou simulação
por subconjuntos.
Utilizar simulação de Monte Carlo para resolver a restrição de con abilidade em RBDO, ou a função ob-
jetivo em LCRO, elimina alguns dos problemas observados na Seção 8.3. Nominalmente, simulação permite
avaliar com precisão probabilidades de falha envolvendo equações de estado limite fortemente não-lineares, ma-
peamentos y = T(x) fortemente não-lineares, e con abilidade de sistemas. No entanto, a simulação introduz
novas di culdades, como instabilidades devido à amostragem aleatória, necessidade de utilizar grande número
de amostras para avaliar pequenas probabilidades de falha, etc. A solução via simulação pode se tornar proibiti-
va quando respostas estruturais são dadas implicitamente por modelos de elementos nitos não lineares, com
muitos graus de liberdade, ou em problemas de dinâmica. Há também problemas de instabilidade, que se orig-
inam na convergência não-monotônica dos resultados da simulação, à medida que o número de amostras, nS ,
aumenta.
Os métodos descritos nesta seção podem ser classi cados como métodos gerais para resolver problemas de
otimização de projeto na presença de incertezas. Na literatura, estes problemas são chamados de problemas de
otimização estocástica, e são encontrados em áreas como nanças, matemática, logística e engenharia. Métodos
de otimização estocástica são descritos em Birge & Louveaux (1997), Kall & Wallace (1994), Ruszczynski &
Shapiro (2003) e Spall (2003).
Problemas de otimização estocástica podem ser resolvidos por métodos heurísticos de ordem zero, que não
requerem informações sobre derivadas, como Algoritmos Genéticos, Otimização por Enxames de Partículas, etc.
No entanto, tais métodos exigem uma grande populaçao de pontos candidatos, o que implica em grande número
de chamadas da função de estado limite. Problemas de otimização estocástica também podem ser resolvidos
por métodos de primeira ordem, que exigem derivadas das probabilidade de falhas com respeito às variáveis de
projeto. A avaliação de derivadas através de simulação representa di culdades adicionais, como veremos neste
texto.

Probabilidades de falha nas restrições de RBDO e na função objetivo de LCRO podem ser avaliadas por
simulação através de probabilidades condicionais:
Z
pf (d) = p(fjd) = p(fjd, x)p(xjd)dx

= If (d, x)p(xjd)dx, (8.99)
­

sendo f o evento falha, p(xjd)= fX (x) a função de densidade conjunta das variáveis aleatórias do problema,
que se torna função explícita de d quando variáveis de projeto estão presentes. Na Eq. (8.99), If (d, x) é a
função indicadora:

If (d, x) = 1, se x 2 ­f ,
If (d, x) = 0, se x 2
/ ­f .

Conforme observado na Seção 5.1, a Eq. (8.99) representa o valor esperado da função indicadora. Uma
estimativa não-tendenciosa é obtida, a partir de uma amostra nita de tamanho nS , como:
ns
1 X
pbf (d, ­nS ) = If (d, xi ), (8.100)
ns i=1

sendo ­nS = [x1 , x2 , ..., xnS ] o conjunto de amostras e xi a i¡ésima amostra do vetor de variáveis aleatórias.
O estimador na Eq. (8.100) é dito não-tendencioso quando:

lim pbf (d, ­nS ) = pf (d).


nS !1
304 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

Na prática, um número nito de amostras é utilizado; logo, um erro de amostragem enS (d, ­nS ) é inevitável,
e apenas uma boa aproximação da pf (d) é obtida para nS su cientemente grande. Logo, um problema de
otimização aproximado é resolvido:

determine: d¤nS que minimiza: f (d),


sujeito a: pbf (d, ­nS ) · pfT SY S , d 2 D; (8.101)

ou

determine: d¤nS ,
nLS
X
que minimiza: cconstru ção (d) + ... + cfi (d)b
pfi (d, ­nS ),
i=1
sujeito a: d 2 D; (8.102)

Se o procedimento de amostragem é correto e consistente, então à medida que nS ! 1, temos d¤nS !


¤
d . O número apropriado de amostras para determinado problema pode ser estimado através de grá cos de
convergência, conforme ilustrado na Seção 5.1. No entanto, em problemas de otimização, nS deve ser su ciente
para estimar pbf com precisão para qualquer d, o que pode ser difícil de demonstrar.
Nesta seção endereçamos primeiramente técnicas genéricas para resolver problemas de otimização estocástica.
Estas podem ser combinadas com técnicas mais especializadas, a serem abordadas na sequência.

8.4.1 Técnicas genéricas para otimização estocástica utilizando simulação


Números aleatórios comuns ou Common Random Numbers (CRN)

A precisão da otimização utilizando simulação pode ser aumentada reduzindo erros enS (d, ­nS ) de forma
absoluta ou relativa. O erro absoluto é reduzido aumentando o número de amostras, mas isto tem impacto
direto no custo computacional. O erro relativo pode ser reduzido minimizando a variância entre estimativas
pbf (d1 , ­nS1 ) e pbf (d2 , ­nS2 ) para alternativas d1 e d2 . A variância entre as estimativas é avaliada como:

pf (d1 , ­nS1 ) ¡ pbf (d2 , ­nS2 )] = V ar[b


V ar[b pf (d1 , ­nS1 )] + V ar[b pf (d2 , ­nS2 )] +
¡ 2Cov[bpf (d1 , ­nS1 ), pbf (d2 , ­nS2 )].

Logo, utilizar o mesmo conjunto de números aleatórios (ou a mesma amostra) para avaliar as duas estimativas
(­nS1 = ­nS2 ) introduz correlação positiva entre pbf (d1 , ­nS1 ) e pbf (d2 , ­nS2 ), e reduz a variância da diferença,
desde que as alternativas d1 e d2 não sejam muito diferentes. Esta técnica é conhecida na literatura (Kleinmann
et al., 1999) como números aleatórios comuns ou Common Random Numbers (CRN). O desempenho é melhor
quando a técnica é empregada simultaneamente com a função indicadora continua, conforme veremos na próxima
seção.
A Figura 8-11 illustra o comportamento dos erros absoluto e relativo em função do número de amostras
(nS ), utilizando ou não a técnica CRN. Observamos que o emprego da técnica suaviza os valores esperados de
pbf (d, ­nS ), produzindo maior estabilidade na busca pela solução ótima d¤nS .

Função indicadora contínua

Em problemas reais de engenharia, a transição entre estado completamente funcional e completamente em falha
nunca é discreta, como sugerido por equações de estado limite g(d, X) = 0. Como exemplo, o escoamento de
barras de reforço, em estruturas de concreto armado, não ocorre de forma discreta, para um valor exato de
deformação. Para facilitar a análise e o projeto estrutural, convencionamos que existe um limite bem de nido
8.4. TÉCNICAS BASEADAS EM SIMULAÇÃO PARA RBDO E LCRO 305

Figura 8-11: Variância de estimativas pf (d, ­nS ) em função do número de amostras, nS , e utilizando a técnica
CRN.

de deformações, como εsu = 0, 01, mesmo sabendo que o escoamento ocorre “em torno deste valor”. Tal limite
arbitrário facilita a solução de problemas de con abilidade via técnicas de transformação (FORM, SORM), mas
resulta em maior instabilidade para soluções baseadas em simulação. Problemas de estabilidade podem ser
reduzidos introduzindo uma pequena perturbação na equação de estado limite, através de uma variável  de
média zero e desvio-padrão pequeno, de forma a produzir uma transição contínua entre sobrevivência e falha:

ge(d, X) = g(d, X) +  = 0.

Observando que g(d, x) < 0 corresponde a e


g(d, x) < , a probabilidade de falha na Eq. (8.99) é obtida
como:
Z Z +1
pbf (d) = If (d, x,)p(xjd)p()ddx
­ ¡1
Z Z +1
= p(xjd)p()ddx
­ e
g(d,X)<
Z Z +1
= p(xjd) p()ddx
­ e
g(d,X)<
Z
= [1 ¡ F (e
g (d, X))]p(xjd)dx, (8.103)
­

sendo F ( ) a distribuição cumulativa de probabilidades da variável aleatória . Como a média de  é nula, e o


desvio-padrão é pequeno, e g(d, X) ¼ g(d, X). Logo, a função indicadora discreta If (d, x) pode ser substituída
pela aproximação contínua 1 ¡ F (e g(d, X)):
ns ns
1 X 1 X
pbf (d, ­nS ) = If (d, xi ) ¼ [1 ¡ F (xi )]. (8.104)
ns i=1 ns i=1

A Figura 8-12 compara as funções indicadoras discreta If (d, x) e contínua 1 ¡ F(x), para a escolha comum
 » N (0, σ). O desvio padrão σ deve ser pequeno, de forma que a Eq. (8.104) resulte semelhante a Eq. (8.100).
Assim como ocorre no cálculo de derivadas por diferenças nitas, existe uma pequena faixa de valores σ na qual
as soluções são equivalentes.
O uso da função indicadora continua (Eq. 8.104), em combinação com a técnica CRN suaviza a comparação
306 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

Figura 8-12: Funções indicadoras discreta If (d, x) e contínua 1 ¡ Fε (x).

entre alternativas d1 e d2 , tornando a busca pelo ponto ótimo d¤nS mais estável.

Gradientes de probabilidades de falha via simulação

Em problemas de otimização estocástica, probabilidades de falha são função explícita de d, pbf (d, ­nS ). Durante
a busca pelo ponto ótimo d¤nS , probabilidades de falha (e eventualmente, gradientes) devem ser reavaliadas
iterativamente. Em especial, a avaliação dos gradientes:
½ ¾
∂b
pf
rbpf (d, ­nS ) = ,
∂di i=1,...,nDV

tem enorme impacto computacional, especialmente quando realizada via diferenças nitas, e se as probabilidades
envolvidas forem pequenas. Além disto, a avaliação de gradientes por diferenças nitas está sujeita a ruídos
decorrentes da simulação (veja Figura 8-11). Assim, técnicas especiais são necessárias para o cálculo dos
gradientes das probabilidades de falha, utilizando simulação de Monte Carlo.

Problema de con abilidade aumentado Uma forma de determinar gradientes de pbf , em relação às var-
iáveis de projeto d, a partir de uma única simulação de Monte Carlo (com ns amostras) foi proposta por Au
(2005). A proposta consiste em atribuir uma distribuição de probabilidades instrumental às variáveis de projeto,
ou seja, considerá-las como variáveis aleatórias (d ! D), gerando um problema de con abilidade aumentado.
O suporte das variáveis de projeto é dividido em intervalos, e amostras são obtidas em cada intervalo, utilizando
a técnica de hipercubo latino. O Teorema de Bayes é utilizado para determinar probabilidades condicionais:

p(djf ) +
pbf (d) = p(f jd) = pb , (8.105)
p(d) f

a partir das quais as derivadas são calculadas. Na Eq. (8.105), pb+


f é a probabilidade de falha do problema
aumentado, obtida por: Z Z
pb+
f = If (d, x)p(xjd)p(d)dddx,
­ ­D

sendo ­D o espaço amostral instrumental das variáveis de projeto. As probabilidades condicionais p(djf ), na
Eq. (8.105), são avaliadas a partir do mesmo conjunto de amostras, mas usando:
Z
1
p(djf) = + If (d, x)p(xjd)p(d)dx.
pbf ­
8.4. TÉCNICAS BASEADAS EM SIMULAÇÃO PARA RBDO E LCRO 307

Na prática, e segundo a proposta de Au (2005), as probabilidades condicionais acima são avaliadas na


forma de histogramas, a partir de intervalos I 2 RnDV , de nidos pelo hipercubo latino em ­D . O histograma
é construído para as probabilidades condicionais p(d 2 Ijf ). A derivada parcial de pbf com respeito a uma
variável di , avaliada em di , é obtida por:
¯
pf ¯¯
∂b p(f jd 2 IB ) ¡ p(f jd 2 IA )
¼ , (8.106)
∂di ¯di δi

sendo IA e IB os intervalos à esquerda e à direita de di , e δ i a largura do intervalo na variável di . A aproximação


na Eq. (8.106) tem menor resolução, mas é mais robusta do que uma derivada parcial avaliada por diferenças
nitas. No esquema implementado por Au (2005), as probabilidades condicionais são avaliadas utilizando
simulação por sub-conjuntos, o que facilita a avaliação de pequenas probabilidades. A escolha da distribuição de
probabilidades p(d) é imaterial; serve apenas como instrumento para obter informações sobre o comportamento
de P (f jd) com respeito a d. A distribuição uniforme é uma escolha conveniente. O esquema proposto por
Au (2005) é viável para número reduzido de variáveis de projeto, uma vez que a avaliação das probabilidades
condicionais p(d 2 Ijf ) torna-se complexa e custosa para um hipercubo multi-dimensional. Na prática, o
esquema é limitado a nDV . 5.

Gradientes da probabilidade de falha via perturbação simultânea Análise estocástica com pertur-
bação simultânea é uma forma e ciente de avaliação de gradientes (Spall, 2003). A técnica é baseada na
observação que uma perturbação simultânea de todas as variáveis de projeto d, no longo prazo, gera a mesma
informação que perturbações de cada variável individualmente. Logo, duas avaliações da pbf são su cientes para
se obtêr o vetor gradiente:
½ ¾ ½ ¾
∂ pbf pbf (dk + ck ¢k , ­nS ) ¡ pbf (dk ¡ ck ¢k , ­nS )
rb pf (dk , ­nS ) = = ,
∂dki i=1,...,nDV 2ck ¢ki

sendo o sub-índice ()k para a k¡ésima iteração, e ¢k 2 RnDV um vetor de variáveis aleatórias independentes
que produzem as perturbações simultâneas, satisfazendo algumas propriedades especiais (Spall, 2003). Um
algoritmo de busca baseado no gradiente é escrito como:

dk+1 = dk ¡ ak rb
pf (dk , ­nS ).

Valores ótimos das constantes ak e ck são apresentados em Spall (2003).

Gradientes da probabilidade de falha por delta de Dirac Uma forma direta de avaliar gradientes da
probabilidade de falha com respeito a variáveis de projeto foi apresentada por Lacaze et al. (2015). Os autores
mostram que gradientes podem ser aproximados por:
¯ Z ¯
pf ¯¯
∂b ∂g ¯¯
=¡ δ(g(d, X))p(xjd)dx,
∂di ¯d ¯
­ ∂di d,X

sendo δ( ) a função delta de Dirac. Com base em simulação de Monte Carlo simples, os gradientes são estimados
como:
¯ ns ¯
∂ pbf ¯¯ 1 X ∂g ¯¯
¼¡ δ(g(d, ­nS )). (8.107)
∂di ¯d ns i=1 ∂di ¯d,­n
S

Para tornar as equações acima numericamente tratáveis, os autores (Lacaze et al., 2015) propõe cinco
aproximações contínuas para a função delta de Dirac. Uma expressão semelhante a Eq. (8.107) é apresentada
para avaliar gradientes via simulação por sub-conjuntos.
308 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

Gradientes da probabilidade de falha por diferenças nitas e simulação Uma ótima revisão do tópico
é apresentada por Torii (2020). O autor compara três técnicas para avaliação de gradientes: sensibilidade em
forma fraca, emprego direto de diferenças nitas e a técnica CRN. O autor mostra que o erro quadrático médio
εMS de uma estimativa do rb pf por simulação é composto pelo fator de tendência (bias) e pela variância.
Torii (2020) mostra como estes dois componentes do erro quadrático médio variam com o fator h, utilizado
no cálculo das derivadas por diferenças nitas. Um fator h pequeno deve ser utilizado para reduzir o erro de
tendência (bias). No entanto, ao reduzirmos h aumenta a variância da estimativa; controlar o aumento da
variância implicaria em aumentar o número de amostras. O autor chama este comportamento de “maldição
da análise de sensibilidade da probabilidade de falha usando MCS”. No mais, Torii (2020) mostra que a forma
fraca e diferenças nitas centrais possuem propriedades semelhantes, e que a técnica CRN produz os melhores
resultados, dentre as estudadas.

8.4.2 Técnicas especializadas para otimização estocástica utilizando simulação


Otimização estocástica utilizando simulação por sub-conjuntos

Combinando as técnicas descritas na Seção 8.4.1, Ta‡anidis & Beck (2008, 2009) desenvolveram uma solução
para otimização estocástica utilizando simulação por sub-conjuntos (Stochastic Subset Optimization ou SSO).
Trata-se de uma abordagem muito e ciente, baseada em dois estágios: uma busca global é realizada por simu-
lação de subconjuntos, e uma busca local é realizada por perturbação simultânea. A identi cação de subcon-
juntos baseia-se na formulação do problema aumentado, onde variáveis de projeto são assumidas arti cialmente
como variáveis aleatórias. A amostragem por importância também é empregada, para as variáveis aleatórias
identi cadas como mais relevantes. Uma versão não-paramétrica do método tembém é apresentada (Jia &
Ta‡anidis, 2013; Jia et al., 2015). Apesar de muito e ciente, a técnica é limitada a um número pequeno de
variáveis de projeto, devido à di culdade de se identi car os sub-conjuntos em grandes dimensões.

Otimização estocástica utilizando Ranked Weighted Average Simulation (RWAS)

Na Seção 5.3.2 veri camos que as probabilidades de falha na Eq. (8.99) podem ser avaliadas utilizando
amostragem por importância:
Z
pf (d) = If (d, x)p(xjd)dx

If (d, x)p(xjd)
= h(xjd)dx, (8.108)
­ h(xjd)

a partir de um conjunto de amostras obtidas da função de amostragem h(xjd). A Eq. (8.108) pode ser
I (d,x)p(xjd)
interpretada como o valor esperado, com respeito à função de amostragem, do termo f h(xjd) ¢
Diferentes esquemas de amostragem por importância são obtidos a partir de diferentes funções de amostragem,
conforme descrito na Seção 5.3.2. Uma técnica chamada de amostragem com ponderação média ou Weighted
Average Simulation (WAS) é obtida escolhendo uma função de amostragem h(xjd) com distribuição uniforme,
e com suporte em parte signi cativa do suporte original da variável X. Neste caso, a função de amostragem
h(xjd) se torna uma constante, A(­h )¡1 , sendo A(­h ) a área do suporte de h(xjd). Amostras de X são
obtidas de maneira uniforme (Rashki et al., 2012), limitadas à região de suporte de h(xjd). Segundo a Eq.
(8.108)), um peso de amostragem é associado a cada amostra xi : wi = p(xi jd) = fX (xi jd). Para ns amostras,
a probabilidade de falha é aproximada por:
ns ns
1 X If (d, xi )p(xi jd) X If (d, xi )p(xi jd)
pbf (d, ­nS ) = = ¢ (8.109)
ns i=1 h(xi jd) i=1
ns h(xi jd)
8.4. TÉCNICAS BASEADAS EM SIMULAÇÃO PARA RBDO E LCRO 309

Veri camos que, no limite ns ! 1, o termo ns h(xi jd) vem a ser a probabilidade do espaço amostral ­h , ou
ns h(xi jd) ! 1. Logo, a probabilidade de falha pode ser avaliada como:
Pns
If (d, xi )wi (d)
pbf (d, ­nS ) = i=1Pns ¢ (8.110)
i=1 wi (d)

Uma interpretação alternativa da Eq. (8.110), em termos de integrais de volume, é apresentada por Xiaopeng
et al. (2014).
A técnica de amostragem com ponderação média é particularmente conveniente em problemas envolvendo
variáveis aleatórias de projeto, isto é, variáveis de projeto ¹ que representam algum momento (média) de
uma variável aleatória M. A formulação acima foi escrita em termos de d e X, mas pode ser interpretada
adequadamente. Entendendo que as variáveis aleatórias M fazem parte do vetor X, observamos que os pontos
amostrais não mudam, já que a função de amostragem é uniforme. Logo, avaliar uma mudança em ¹ implica
apenas reavaliação dos pesos de amostragem na Eq. (8.110) (Rashki et al., 2014). Assim, evitamos o elevado
custo computacional de reavaliar a equação de estado limite. O mesmo não é válido para o caso de variáveis
determinísticas de projeto, d. A formulação acima deixa claro que uma mudança em d requer refazer a simulação,
reavaliando a equação de estado limite em todos os pontos de amostragem. Fica claro, também, que a aplicação
de amostragem com ponderação média na solução de problemas de otimização estrutural envolve a combinação
da técnica com algum algoritmo de busca do ponto ótimo em ¹ e/ou d.
Otimização estrutural utilizando amostragem com ponderação média é particularmente útil em problemas
nos quais diferentes distribuições de probabilidade, fX (x), devem ser testadas; ou quando diferentes valores de
con abilidade-alvo devem ser considerados. Uma aplicação potencial é na solução de problemas de otimização
de riscos. Baseado diretamente na Eq. (8.110), meta-modelos podem ser construídos relacionando pbf (d, ­nS )
com o vetor de variáveis de projeto.
Em sua versão original, o método de amostragem com ponderação média não é muito e ciente em proble-
mas RBDO envolvendo alvos de con abilidade muito elevados. Uma versão alternativa do método, utilizando
amostragem por importância, foi sugerida por Yuan & Lu (2014); no entanto, a e ciência do método na solução
de problemas de RBDO não foi claramente demostrada.
Uma melhoria signi cativa do método de amostragem com ponderação média, com impactos claros em
otimização, foi proposta por Okasha (2016). Trata-se de uma proposta de ranqueamento (ordenamento por
ordem de importância) dos pontos amostrados. Os pontos xi amostrados são ordenados em ordem decrescente,
de acordo com o peso de amostragem wi (d). A posição r1 é atribuída ao ponto com maior peso amostral wi (d);
rns é a posição do ponto de menor peso amostral. Este ordenamento re‡ete a contribuição de cada amostra na
estimativa da probabilidade de falha, de acordo com a Eq. (8.110). Desta forma, aproximações incrementais da
probabilidade de falha podem ser obtidas como:
Pk
If (d, x )wri (d)
pbf k (d, ­nS ) = pbfk = i=1Pns ri ¢ (8.111)
i=1 wi (d)

Esta avaliação é interrompida quando determinado critério de convergência é atendido, evitando avaliações
da equação de estado limite além de k. Assumindo que todos os demais pontos estejam localizados no domínio
de falha (If (d, xri ) = 1), obtemos o resto:
Pns
i=k+1 wri (d)
rk = P ns ¢ (8.112)
i=1 wi (d)

Logo, um limite superior para a probabilidade de falha pode ser obtido sem avaliar a equação de estado limite
310 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

para amostras ordenadas além de k:


Pk Pns
i=1 If (d, xri )wri (d)+ i=k+1 wri (d)
(b
pfk )U = Pns ¢ (8.113)
i=1 wi (d)

Okasha (2016) mostra que este processo de ranqueamento leva a uma redução signi cativa no número de
avaliações da equação de estado limite. O procedimento de parada, que determina a ordem k para a aproximacão
da probabilidade de falha, Eq. (8.110), é dado por:

pf k )U ¡ pbfk · pf ,
(b (8.114)

sendo pf uma tolerância especi cada pelo usuário.


Fica claro que a técnica de ranqueamento ou Ranked Weighted Average Simulation (RWAS) pode ser em-
pregada como aproximação em problemas de RBDO e LCRO. Outra sugestão de Okasha (2016) se aplica a
problemas de RBDO, que têm as probabilidades de falha como restrições. De fato, não é necessário conhecer-
mos a probabilidade de falha, apenas se determinada restrição foi violada ou não. Logo, uma aproximação
conservadora de pbf é su ciente para restrições inativas. Se 1 ¡ pf T é a con abilidade alvo, então:

se pbfk > pf T , a solução é inviável;


(b
pf k )U · pf T , a solução é viável. (8.115)

O método das raízes do espaço de projeto

Um método radicalmente diferente, endereçando a solução de problemas de otimização de risco utilizando


simulação de Monte Carlo, foi proposto por Gomes & Beck (2016). Em aplicações usuais da simulação de
Monte Carlo, para um valor xo do vetor de variáveis de projeto d, uma estimativa da probabilidade de falha
é obtida da Eq. (8.99). A equação de estado limite é avaliada uma vez, para cada amostra, mas usualmente
apenas o sinal é considerado (a amostra está no domínio de falha ou de sobrevivência). Durante a busca pelo
projeto ótimo, a equação de estado limite é avaliada repetidas vezes, mas a informação de como esta função
muda em termos das variáveis de projeto não é considerada.
Em geral, encontrar o domínio de falha no espaço de projeto, para cada amostra, requer menor número de
avaliações da função de estado limite do que a solução do problema de otimização, para cada amostra. Assim,
é mais e ciente determinar o domínio de falha para cada amostra, em termos das variáveis de projeto, do
que diferenciar pontos no domínio de falha ou de sobrevivência, de forma recorrente, durante o processo de
otimização. Uma vez que o domínio de falha é identi cado, pode ser utilizado para determinar probabilidades
de falha, com custo reduzido, para qualquer ponto no espaço de projeto.
No emprego usual da simulação de Monte Carlo, uma integral sobre o domínio de falha é resolvida, para
uma con guração d xa; no método proposto por Gomes & Beck (2016), primeiramente o domínio de falha é
determinado, em termos das variáveis de projeto, e para cada ponto amostral. O método envolve encontrar as
raízes da equação de estado limite no espaço de projeto, e por isto foi chamado de Design Space Root Finding
method ou DSRF.
Veri ca-se que o método proposto por Gomes & Beck (2016) é muito e ciente em problemas envolvendo
pequeno número de variáveis de projeto (até em torno de uma dezena). No entanto, como a determinação de
raízes é um problema complexo em grandes dimensões, a e ciência do método é reduzida drasticamente para
problemas envolvendo vinte ou mais variáveis de projeto. O método mostrou-se promissor, mas a extensão para
problemas de grandes dimensões ainda precisa ser investigada.
8.5. OTIMIZAÇÃO DE CUSTOS SOBRE O CICLO DE VIDA 311

8.5 OTIMIZAÇÃO DE CUSTOS SOBRE O CICLO DE VIDA


Conforme descrito ao longo deste texto, muitos desenvolvimentos teóricos em RBDO foram obtidos durante
os anos 90 e princípios dos anos 2000. A maior parte das técnicas desenvolvidas aplica-se exclusivamente à
formulação RBDO, na qual a con abilidade é restrição de projeto. A formulação PMA, por exemplo, é muito
estável e e ciente para resolver problemas de RBDO; no entanto, a aplicação a LCRO exigiria a introdução de
uma variável de projeto adicional: o índice de con abilidade alvo. Uma formulação convencional, com laços
de con abilidade internos aos laços de otimização, sempre pode ser empregada, mas o custo computacional é
elevado. As formulações apresentadas na Seção 8.4, envolvendo simulação de Monte Carlo, podem ser aplicadas
tanto em problemas de RBDO como LCRO.
Além dos métodos descritos na Seção 8.4, não há outras técnicas gerais dedicadas a resolver problemas de
otimização de riscos, ou de custos sobre o ciclo de vida. Uma revisão da literatura mostra que os trabalhos neste
tópico tendem a ser orientados ao problema, e não às técnicas de solução. Esta seção apresenta uma descrição
geral destas aplicações.
Estudos envolvendo otimização de riscos, ou de custos sobre o ciclo de vida, podem ser separados em duas
categorias: projeto ótimo sob carregamentos estocásticos, e projeto ótimo considerando atividades de inspeção
e manutenção. Estas categorias não são mutuamente exclusivas, mas artigos envolvendo carregamentos estocás-
ticos e considerando atividades de inspeção e manutenção são raros. Em ambos os casos, custos (esperados) de
falha tem contribuição relevante na função objetivo. Na sequência, algumas aplicações são descritas brevemente.
Detalhes de formulação são omitidos, já que são bastante especí cos de cada problema.

8.5.1 Projeto ótimo sob carregamentos estocásticos


Projeto ótimo de estruturas sujeitas a carregamentos estocásticos deve ser abordado utilizando técnicas de
con abilidade dependente do tempo, como aquelas estudadas no Capítulo 6. Wen & Kang (2001a) estudaram o
projeto de custo mínimo de prédios sujeitos a ações ambientais, como terremotos e furacões. Os autores a rmam
que o projeto ótimo é controlado pelas consequências de falha, com forte in‡uência da vida de projeto. Sob
multiplas ameaças (ações), o projeto é controlado pela ação com a pior combinação entre grande incerteza e
grande intensidade. Os autores mostram ainda que exigir con abilidade uniforme sob diferentes ameaças não é
ótimo. Uma aplicação ao projeto ótimo de prédios comerciais sob ações de terremoto e vento é apresentada em
Wen & Kang (2001b).
O projeto ótimo de pórticos de concreto armado, sob ação de terremotos, foi abordado em Ang & Lee (2001).
Os autores concluem que custos esperados de falha são dominados por custos de reparo e perdas indiretas. A
participação de custos associados com fatalidades e danos pessoais mostrou-se menos importante. Os autores
apresentam uma abordagem que considera a disposição a pagar por cada vida salva.
Rackwitz (2001) abordou o problema genérico de estruturas renováveis (que são sistematicamente recon-
struídas após a falha), e mostrou que o problema deve ser formulado em termos de taxas de falha, ao invés
de probabilidade de falha. O autor também discute critérios para aceitação de risco, de uma perspectiva de
e ciência de medidas de redução de fatalidades.
O projeto ótimo de sistemas de múltiplos graus de liberdade (MDOF), lineares e não-lineares, sujeitos a
carregamentos estocásticos, é considerado em uma série de trabalhos de Jensen e co-autores (Jensen, 2006;
Jensen et al., 2008, 2009, 2015). Nestes trabalhos, uma abordagem RBDO numericamente intensa é adotada,
na qual os processos de carregamento são discretizados em um grande número de variáveis aleatórias. Os
problemas de con abilidade resultantes, de grandes dimensões, são resolvidos utilizando diferentes técnicas de
simulação de Monte Carlo. Além disto, várias técnicas são abordadas para reduzir o custo computacional das
soluções. Outras estratégias de solução do mesmo tipo de problema são abordadas em Valdebenito & Schuëller
(2011).
312 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

8.5.2 Projeto ótimo considerando inspeções e manutenção


Estudos envolvendo custos sobre o ciclo de vida de estruturas renováveis foram desenvolvidos por Rackwitz e co-
autores (Joanni & Rackwitz, 2008; Streicher et al., 2008; Rackwitz & Joanni, 2009). Rackwitz & Joanni (2009)
comparam o custo-benefício de manutenções preventivas com manutenções preditivas ou pró-ativas, baseadas
em inspeções, e concluem que manutenções preditivas tem melhor custo-benefício.
Okasha & Frangopol (2009) estudaram diferentes estratégias de manutenção com base em uma formulação
multi-objetivo, considerando con abilidade de sistemas, redundância e custos sobre o ciclo de vida. Os autores
mostram que a con abilidade de sistema e a redundância tem impactos distintos nas estratégias ótimas de
manutenção. Mostram ainda o valor de se adotar ações de manutenção distintas, em componentes de um
mesmo sistema com diferente criticalidade.
Algumas das estratégias baseadas em simulação, para solução de problemas de otimização de custos sobre
o ciclo de vida, discutidas na Seção 8.4, foram empregadas por Gomes et al., (2013) e Gomes & Beck (2014a)
para determinar a espessura de parede e planos de inspeção e manutenção ótimos para dutos enterrados sujeitos
a corrosão. Formulação similar foi empregada para o caso de estruturas genéricas sujeitas a fadiga (Gomes &
Beck, 2014b). Resultados ilustram o con‡ito entre custos necessários para manter a con abilidade do sistema
(inspeções, manutenção, etc.) e os custos de falha. Falhas na operação de grandes redes dutoviárias são
ultimamente inevitáveis, ainda que dutos individuais sejam projetados e construídos para não falhar.

8.6 EXEMPLO DE APLICAÇÃO: PROJETO DE BARRAGEM


DE GRAVIDADE

8.6.1 Descrição do problema e projeto determinístico


O projeto de uma barragem de gravidade em concreto é apresentado como exemplo de aplicação. Resultados
são comparados para abordagens de projeto determinística (DDO), com restrições de con abilidade (RBDO)
e de otimização de riscos (LCRO). O exemplo considera apenas equações de estado limite de equilíbrio, e é
obviamente a versão simpli cada do que seria o projeto de uma estrutura real. O exemplo é reproduzido de
Beck (2013). Dados a respeito da barragem são obtidos de Altarejos-García et al. (2012).
Um esquema da seção transversal da barragem, incluindo as principais forças estabilizantes e desestabi-
lizantes, é mostrado na Figura 8-13. As principais forças envolvidas são: peso do concreto, pressão da coluna
de água à montante, pressão da coluna de água à jusante, e pressão de poros na base. A barragem é projetada
para resistir aos esforços de tombamento e deslizamento. Forças de deslizamento são consideradas apenas na
base da barragem, e por simpli cação, não há estacas ou outra fundação. A altura da barragem H é xa, e dada
pelo nível máximo de água à montante. A principal variável de projeto, e a única considerada neste exemplo
simpli cado, é a largura da base, B. Um comprimento unitário é assumido para cálculo de equilíbrio, e um
comprimento igual a H é assumido para cálculos volumétricos.
Para tombamento e deslizamento, as forças estabilizantes são dadas pelo peso da massa de concreto, e pela
pressão da coluna de água à jusante. Considerando uma soma de momentos em torno do canto inferior direito
da barragem, o momento estabilizante é:
1 1
Rt (B) = ρc gHB2 + ρw gh2d ,
3 6
8.6. EXEMPLO DE APLICAÇÃO: PROJETO DE BARRAGEM DE GRAVIDADE 313

Figura 8-13: Esquema da barragem de gravidade e principais esforços envolvidos.


314 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

sendo ρc e ρw as densidades especí cas do concreto e da água, g a constante de aceleração gravitacional, e


demais termos conforme Figura 8-13.
O momento desestabilizante é dado pela pressão da coluna de água à montante, e pela pressão de poros:
ρw g £ 3 ¤
St (B) = hu + γB 2 (hd + 2hu ) ,
6
sendo γ o coe ciente de pressão de poros.
A equação de projeto e a equação de estado limite para tombamento são:

Rt (B) ¸ λt St (B), gt (B) = Rt (B) ¡ St (B), (8.116)

sendo λt o coe ciente de segurança contra tombamento.


Para o modo de falha por deslizamento, as forças estabilizantes são dadas pela fricção e coesão na interface
barragem-solo:

Rd (B) = tan(φ)N + cB
gB
= tan(φ) [ρ H ¡ ρw γ(hd + hu )] + cB,
2 c
sendo φ o angulo de atrito, c o coe ciente de coesão e N a força normal.
As forças desestabilizantes são dadas pela diferença de pressão das colunas de água à montante e à jusante:

Sd (B) = ρw g(h2u ¡ h2d ).

A equação de projeto e a equação de estado limite para deslizamento são:

Rd (B) ¸ λd Sd (B), gd (B) = Rd (B) ¡ Sd (B), (8.117)

sendo λd o coe ciente de segurança contra deslizamento.


Coe cientes de segurança para o projeto convencional (determinístico) são dados em normas de projeto. Em
alguns países Europeus (França, Alemanha, Austria e Noruega), ou no Canada, são recomendados: λt = λd =
1, 5 (Ruggeri, 2004). Outras variáveis de projeto, consideradas como determinísticas, são: H = 92 m, hd = 26
m, ρw = 1000 kg/m3, ρc = 2400 kg/m3, c = 420 N/m2, ϕ = 50± e γ = 0, 2.
Inicialmente a barragem é projetada de maneira convencional, determinística. O nível de água de projeto,
segundo Altarejos-García et al. (2012), é hd = 82, 5 m. Este nível de água tem uma probabilidade anual de
ser excedido de 3, 23 10¡4 , o que corresponde a uma probabilidade de 3, 2% de ser excedido durante a vida
de projeto, de 100 anos. O projeto convencional, utilizando os coe cientes de segurança acima, resulta em
B ¸ 46, 42 m para a equação de tombamento, e B ¸ 28, 55 m para a equação de deslizamento. Logo, utilizamos
B = 46, 42 m, e uma margem de segurança extra é obtida com respeito ao modo de deslizamento, tal que:
λd = 2, 44. Se o problema de projeto tivesse mais graus de liberdade (i.e., envolvesse mais variáveis de projeto),
a otimização determinística poderia reduzir esta margem de segurança extra com respeito ao deslizamento,
reduzindo a con abilidade da estrutura, conforme comentado na Seção 8.2.1.

8.6.2 Con abilidade da barragem projetada de forma convencional


Orientação a respeito das variáveis aleatórias do problema é obtida em Altarejos-García et al. (2012). De
acordo com os autores, as maiores fontes de incerteza no projeto de barragens de gravidade são a coesão (c) e
o ângulo de atrito na base (φ). Outras fontes de incerteza são a densidade do concreto (ρc ), e o coe ciente da
pressão de poros (γ). A Tabela 8.2 mostra as distribuições de probabilidade e momentos das variáveis aleatórias
consideradas neste estudo. Os dados são baseados em Altarejos-García et al. (2012). Os valores para coesão
8.6. EXEMPLO DE APLICAÇÃO: PROJETO DE BARRAGEM DE GRAVIDADE 315

e ângulo de atrito são os valores “reduzidos” mencionados pelos autores. Valores maiores são considerados na
Seção 8.6.5, em uma análise de otimização de riscos robusta.
De acordo com os autores (Altarejos-García et al., 2012), níveis de água no local da barragem estão associados
às taxas de retorno anuais listados na Tabela 8.3. À medida que os níveis de água aumentam, as taxas de retorno
anuais reduzem rapidamente, conforme ilustrado na Figura 8-14. Na análise de con abilidade, probabilidades
de falha condicionais são avaliadas para cada nível (na) da coluna de água, pf (Bjna = hu ), utilizando FORM
e as Eqs. (8.116 e 8.117), para B = 46, 42 m. O índice de con abilidade é obtido como:

β(B) = ¡©¡1 (pf (Bjna = hu )).

Índices de con abilidade correspondentes às probabilidades de falha anuais, da barragem resultante do


projeto convencional, são ilustrados na Figura 8-15. Para a maior parte dos níveis de água considerados, o
modo de falha dominante é o deslizamento (apesar de existir coe ciente de segurança “adicional” em relação
a este modo de falha). Apenas para na ¼ 90 o modo de falha por tombamento se torna o mais relevante.
Probabilidades de falha para o sistema em série são determinadas por limites bi-modais.

Tabela 8.2: Variáveis aleatórias do problema da barragem de gravidade.


Variável Unidade Distribuição Média C.V.
Densidade do concreto (ρc ) kg/m3 Log-normal 2400 5%
Pressão de poros (γ) - Log-normal 0,2 20%
Angulo de atrito (φ) (± ) Log-normal 50 10%
Coesão (c) N/m2 Log-normal 420 45%

Tabela 8.3: Níveis de agua e taxas de retorno anuais.


Níveis de água (na) Taxas de retorno
(m, c.r.a. base) anual (ηna )
28,0 1,0
60,0 8,01 10¡1
73,0 5,56 10¡1
80,0 3,57 10¡1
82,5¤ 3,23 10¡4
86,0 1,20 10¡6
91,7 4,00 10¡9
¤
nível de projeto.

Probabilidades de falha condicionais para a barragem projetada de forma convencional também são mostradas
na Figura 8-14: podemos observar que, à medida que o nível de água cresce, probabilidades de falha também
crescem, mas de forma aproximadamente linear, em escala logarítmica. A taxa de falhas anual da barragem,
integrada sobre todos os níveis de água, é obtida como:
nna
X
ηf (B) = (ηna )i pf (Bjnai ).
i=1

O integrando desta expressão, ou produto ηna pf (Bjna), também é ilustrado na Figura 8-14: à medida que
o nível de água cresce, probabilidades de falha condicionais aumentam, mas como as taxas de retorno anuais
diminuem, o produto (integrando) ca limitado. A probabilidade de falha da barragem, para uma vida de
projeto tD , ca:
pf (B, tD ) = 1 ¡ exp[¡ηf (B)tD ].
316 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

Figura 8-14: Taxa de retorno anual (ηna ), probabilidade de falha condicional pf (Bjna) e produto ηna pf (Bjna),
para B = 46, 42 m.

Figura 8-15: Índice de con abilidade para tombamento (β t ), para deslizamento (βd ), e para falha do sistema
em série (β sys ), para B = 46, 42 m.
8.6. EXEMPLO DE APLICAÇÃO: PROJETO DE BARRAGEM DE GRAVIDADE 317

8.6.3 Projeto da barragem com restrição em con abilidade (RBDO)


O projeto da barragem de gravidade ilustrada na Figura 8-13 pode ser entendida como um balanço entre forças
desestabilizantes, originarias em pressões diferenciais de coluna de água, e forças estabilizantes gravitacionais,
que são função direta da massa da barragem. Nas formulações DDO e RBDO, a função objetivo é a minimização
do volume de concreto da barragem (massa), ou o custo de construção da estrutura. O custo de construção
pode ser simpli cado como:
BHL196 10¡6
cconstrução (B) = ,
2
sendo L = H o comprimento da barragem, 196 US$/m3 o custo médio do concreto, por volume, e 10¡6 um
fator de conversão para milhões de dólares. O custo inicial de referência é o custo de construção da barragem
projetada de forma convencional: ccon st. (B = 46, 42) = 38, 28 milhões de dólares (US$). Para colocar este custo
em perspectiva, o custo de substituição da barragem Horsetooth no Colorado foi estimado (Ekstrand, 2000)
como US$ 38, 7 milhões. A barragem Horsetooth é feita em concreto, preenchida com terra, e tem altura de
47, 2 m.
Para realizar o projeto RBDO, um índice de con abilidade alvo deve ser determinado. Para projetos con-
vencionais de engenharia civil, com vida de projeto de 50 anos, índices de con abilidade em torno de β = 2, 5 ou
β = 3, 0 são sugeridos (JCSS, 2001). Escolhendo índice de con abilidade alvo β T = 3 para uma vida de projeto
de tD = 100 anos, obtemos a con abilidade alvo como RT = (1 ¡ 1, 35 10¡3 ). Assim, o projeto da barragem
com restrição em con abilidade pode ser escrito como (RBDO):

determine: B ¤ que minimiza: cconst. (B),


sujeito a: pf (B, tD ) · pf T = 1, 35 10¡3 , B > 0. (8.118)

Como o problema RBDO acima contém uma única variável de projeto, a solução pode ser encontrada via busca
exaustiva, ou de forma grá ca. A solução é obtida como B¤ = 56, 6 m, que corresponde aos coe cientes de
segurança λt = 2, 09 e λd = 2, 98, ambos signi cativamente maiores do que os valores recomendados em norma.

8.6.4 Projeto da barragem via otimização de riscos (LCRO)


Para formular o problema de otimização de riscos, os custos de falha devem ser determinados. Obviamente,
os custos de falha dependem diretamente da ocupação do vale à jusante da barragem, do uso econômico das
terras (agricultura, pecuária, etc.) e da quantidade de pessoas potencialmente afetadas (quantidade e tamanho
de povoados, cidades, etc.). Desta forma, o custo de falha depende diretamente da localização da barragem.
Neste exemplo, ao invés de colocar a barragem em uma localização hipotética, vamos trabalhar com valores
representativos, que poderiam ser classi cados como custos de falha inferior e superior.
Em um estudo englobando cinco barragens que falharam, nos Estados Unidos, entre os anos de 1902 e 1976
(Baldwin Hills, Bu¤alo Creek, Teton, Laurel Run e Lawn Lake), Ellingwood et al. (1993) estimaram custos de
falha entre 12 e 900 milhões de dólares. Os autores admitem que tais valores poderiam estar sub-estimados,
devido à diversas incertezas e discrepâncias em perdas reportadas. Em um estudo mais recente, Ekstrand (2000)
estimou o custo de falha da barragem Horsetooth, no Colorado, com volume de reservatório de 0,19 km3 , na
casa de seis bilhões de dólares.
No Brasil, os prejuízos da Samarco com multas e acordos decorrentes do rompimento da barragem de
Mariana, que afetou todo o vale do Rio Doce, foram reportados como R$ 1,7 bilhão, poucos dias após o desastre,
ocorrido em 5.11.2015 (Portal R7.com, 2015). Outras fontes (Época Negócios, 2015; Veja.com, 2015) falam em
prejuízos da ordem de 5 a 10 bilhões de reais. Processos judiciais envolvendo a Samarco e suas proprietárias
(Vale e BHP Billingtom) pleiteiam um total de 48 bilhões de dólares em compensações pelos prejuízos causados
pelo rompimento da barragem de Mariana (Quoting Business, 2016; Market Research News, 2016).
Tomando como base os valores citados acima, neste exemplo acadêmico adotamos os valores de custos de
318 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

Figura 8-16: Custos esperados totais e largura ótima da base B ¤ para LCRO.

falha inferior e superior como cf = 1 e cf = 6 bilhões de dólares, respectivamente. Resultados especí cos obtidos
aqui são válidos para estes valores, mas as conclusões podem ser generalizadas. O projeto baseado em risco da
barragem de gravidade pode ser posto como:

determine: B0 que minimiza ccon st. (B)+cf pf (B, tD ),


sujeito a: B > 0. (8.119)

Como o problema acima tem uma única variável de projeto, a solução pode ser obtida por busca exaustiva,
ou de forma grá ca. A Figura 8-16 mostra as funções objetivo para esse problema, junto com os valores ótimos
da base: B¤ = 50, 4 m para cf = 1 bilhão, e B0 = 59, 3 m para cf = 6 bilhões (US$). Estes valores são
signi cativamente mais conservadores do que a solução determinística (B = 46, 42 m). Casualmente, a solução
obtida para o problema RBDO com βT = 3 (B0 = 56, 6) está entre os resultados obtidos para a otimização de
risco. Isto signi ca que a con abilidade ótima para cf = 1 é menor do que o alvo de RBDO (βT = 3), e que a
con abilidade ótima para cf = 6 é maior do que βT = 3.
Na Figura 8-16, o braço esquerdo das curvas função-objetivo é dominado pelo custo esperado de falha, e o
braço direito é dominado pelos custos de sobre-projeto. Como os dois braços aumentam de forma acentuada,
o ponto de mínimo é bem de nido. Este comportamento mostra a importância de se realizar a otimização de
riscos aqui proposta, para este tipo de problema.
A Figura 8-17 compara coe cientes de segurança (λt e λd , esquerda) e custos esperados totais (direita) para
as barragens obtidas via projeto convencional (DDO) e via RBDO e LCRO. Para custos de falha estimados na
faixa inferior (cf = 1 bilhão), coe cientes de segurança ótimos obtidos via LCRO são um pouco maiores do
que aqueles da formulação convencional (de norma), e custos totais são um pouco menores. Já para custos de
falha na faixa superior (cf = 6 bilhões), a solução LCRO resulta em coe cientes de segurança signi cativamente
maiores, e custos de falha signi cativamente menores. Nos dois casos, os resultados mostram que os custos de
sobre-projeto são claramente compensados por redução nos custos esperados de falha. Coe cientes de segurança
obtidos pela formulação RBDO são intermediários aos valores de LCRO, para este exemplo e para β T = 3, e
custos esperados totais são semelhantes.
Comparando as soluções de LCRO para diferentes custos de falha, observamos que a solução para cf = 6
8.6. EXEMPLO DE APLICAÇÃO: PROJETO DE BARRAGEM DE GRAVIDADE 319

Figura 8-17: Coe cientes de segurança (esquerda) e custos esperados totais (direita) obtidos via projeto con-
vencional (DDO), RBDO, e LCRO com cf = 1 bilhão e cf = 6 bilhões (US$).

bilhões é bem mais conservadora (como esperado), com maiores coe cientes de segurança. No entanto, custos
esperados totais para cf = 6 bilhões não são muito maiores do que para cf = 1, o que mostra que custos
esperados de falha são controlados pelos coe cientes de segurança maiores. Os custos totais são maiores para o
caso cf = 6 bilhões apenas em função dos custos de se construir uma barragem mais larga.
Os resultados ilustrados na Figura 8-17 mostram que um projeto de custo esperado total mínimo é obtido
a partir da formulação de otimização de riscos. Claramente, utilizando os coe cientes de segurança obtidos na
otimização de risco, em um projeto convencional, os resultados poderiam ser reproduzidos. No entanto, esta
equivalência não é geral, conforme demostrado em (Beck & Gomes, 2012). No artigo original (Beck, 2013), o
problema de projeto da barragem de gravidade, aqui reproduzido, é resolvido em duas versões, duplicando e
dividindo por dois os níveis de água constantes na Tabela 8.3 e a altura da barragem H. Como as consequências
de falha dependem principalmente do volume do reservatório, e não da altura da barragem, os custos de falha
foram mantidos os mesmos. (US$ 1 e 6 bilhões). Para estas versões “proporcionais” do problema, resultados
“desproporcionais” foram obtidos: as razões entre coe cientes de segurança e entre custos esperados totais,
ilustradas na Figura 8-17, mudam de forma não-proporcional.
Para o caso da barragem com H = 184 m, coe cientes de segurança ótimos são muito menores do que aqueles
obtidos para H = 92 m, e mais parecidos com os coe cientes de norma. Para a barragem com H = 46 m, os
coe cientes de segurança ótimos obtidos são muito maiores do que aqueles obtidos para H = 92 m. Para esta
barragem de menor altura, custos esperados totais obtidos via LCRO são muito menores do que aqueles obtidos
via solução convencional. Poderíamos esperar que o projeto da barragem menor fosse o de menor risco, entre
os três casos analisados. No entanto, como os custos de falha foram mantidos constantes, resulta que há uma
vantagem econômica de se projetar a menor barragem com maiores coe cientes de segurança, já que o custo de
sobre-projeto destas é muito menor do que o custo de sobre-projetar a barragem mais alta. Tal conclusão só
pode ser obtida a partir de uma análise de otimização de riscos.
A Figura 8-17 (direita) também mostra resultados obtidos para a formulação de otimização de riscos robusta
(RRO), cujos resultados são descritos a seguir.

8.6.5 Otimização de riscos robusta com incerteza fuzzy


Na Seção 8.2.6 abordamos brevemente uma formulação convencional de otimização robusta. Não demos maior
atenção a esta formulação porque a mesma não utiliza (necessariamente) métricas de probabilidades de fal-
ha. Nesta seção, no entanto, apresentamos uma abordagem alternativa, que combina otimização robusta com
otimização de riscos.
320 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

A otimização de riscos envolve encontrar o ponto de mínimo custo esperado total, o que inclui custos
esperados de falha. Estes são calculados a partir de probabidades de falha nominais, que re‡etem o grau de
con ança do analista no desempenho da estrutura. As probabilidades de falha são ditas nominais porque são
avaliadas a partir de modelos mecânicos, matemáticos e probabilísticos que são imperfeitos ou limitados. Logo,
incertezas epistêmicas tem potencial de impactar resultados da otimização de riscos. Neste contexto, o conceito
de otimização robusta é utilizado para obter soluções menos sensíveis às incertezas epistêmicas.
Diferentes tipos de incerteza podem impactar o desempenho de sistemas de engenharia, conforme discutido na
Seção 1.1. Uma distinção importante é entre incertezas intrínsicas e incertezas epistêmicas. Incerteza intrínsica
ou aleatória corresponde a variabilidade natural de processos físicos, e inclui incerteza em ações (ambientais, em
particular), na resistência dos materiais, nas dimensões dos elementos, etc. Incerteza epistêmica está relacionada
com o nível de conhecimento sobre o problema, e inclui incerteza estatística, erros de modelo, e incertezas
fenomenológicas.
A idéia principal da presente construção é separar incertezas que admitem uma representação probabilística,
daquelas que podem ser quanti cadas apenas possibilisticamente. De forma geral, incertezas intrínsicas admitem
uma descrição probabilística, na forma de variáveis aleatórias e processos estocásticos. Alguns tipos de incerteza
epistêmica, como erros de modelo e incerteza estatística, também admitem descrição probabilística. No entanto,
devido à falta de informação, muitas formas de incerteza epistêmica não podem ser representadas de forma
probabilística (Ben-Haim & Elishako¤, 1990; Möller & Beer, 2004; Moens & Vandepitte, 2005; Beer et al.,
2013). Estas incertezas podem ser quanti cadas na forma de intervalos ou de números fuzzy. Nesta seção,
adotamos uma representação na forma de números fuzzy (veja Apêndice H). O problema de otimização de risco
é formulado em termos das incertezas probabilísticas, e tornado robusto mediante o conjunto fuzzy de incertezas
epistêmicas.
Considere que todas as variáveis que admitem quanti cação probabilística são agrupadas no vetor X. Para
estas incertezas, probabilidades de falha nominais são determinadas a partir das Eqs. (8.4) ou (8.91). No
entanto, poderão existir incertezas que apenas admitem representação possibilística, por exemplo através de
variáveis fuzzy. Tais variáveis podem estar presentes nas equações de estado limite (Eqs. 8.3 ou 8.90), ou nos
termos de custos sobre o ciclo de vida (Eq. 8.11). Quando dependem de variáveis fuzzy, probabilidades de
falha nominais se tornam probabilidades fuzzy, e custos esperados totais se tornam custos fuzzy (e
cet (d)). Para
conveniência de notação, o custo fuzzy é representado por ecet (d) = (C, mC ), sendo C um conjunto e mC uma
função de associação, todos funções do vetor de variáveis de projeto d. O suporte de ecet é dado pelo conjunto
C = fzjmC (z) > 0g = fzl · z · zu g. Custos esperados totais podem ser função não-linear da variáveis fuzzy;
logo, o método de otimização na Eq. (H.1) pode ser utilizado para determinar mC (z).
O problema de otimização convencional na Eq. (8.12) é sensível à incerteza fuzzy nos custos esperados totais.
Logo, um custo esperado robusto é introduzido:
Z zu
cR (d) = zc (d)+ mC (z)dz, (8.120)
zl

sendo zc o valor crisp do custo esperado total, função do valor crisp das variáveis de entrada. Com estas
preliminares, o problema de otimização robusta de riscos pode ser posto como (Beck et al., 2012):

determine: d¤ que minimiza: cR (d),


sujeito a: d 2 D. (8.121)

A solução d¤ que minimiza a Eq. (8.120) minimiza o valor crisp zc , bem como reduz o suporte de e
cet ; tornando
a solução da Eq. (8.121) menos sensível à incerteza fuzzy, em comparação com a solução da Eq. (8.12). Por
esta razão, esta solução é chamada de Otimização de Riscos Robusta.
A formulação de otimização de riscos robusta, proposta originalmente em (Beck et al., 2012), é aplicada
ao projeto de barragem de gravidade em concreto. De acordo com Altarejos-García et al. (2012), as maiores
fontes de incertezas no projeto de barragens de gravidade são a coesão, o coe ciente de atrito na fundação, e o
8.6. EXEMPLO DE APLICAÇÃO: PROJETO DE BARRAGEM DE GRAVIDADE 321

coe ciente de pressão de poros γ. Em particular, os valores dos coe cientes de variação (C.V.) destas variáveis
não são bem conhecidos. As análises de con abilidade apresentadas até aqui foram realizadas utilizando valores
inferiores (segundo Altarejos-García et al., 2012) destas variáveis (veja Tabela 8.3). Nesta seção, variáveis
fuzzy adimensionais são utilizadas, como multiplicadores, para representar a incerteza nestes valores de C.V.:
e
a = tri(0, 7; 1, 0; 1, 3). Logo, os coe cientes de variação de coesão, ângulo de atrito e pressão de poros, tais como
listados na Tabela 8.3, são reduzidos ou aumentados em até 30%.
Consideramos também a existência de incertezas epistêmicas relacionadas ao custo (futuro) de eventual
falha das barragens. Para representar esta incerteza, variáveis fuzzy adimensionais foram utilizadas: e b =
tri(0, 8; 1, 0; 1, 2), de forma que o custo de falha se torna: eb cf . Os custos de falha nominais são os mesmos
valores considerados anteriormente, re‡etindo a faixa inferior (cf = 1) e superior (cf = 6 US$ bilhões). Como
o problema é muito simples, não foram consideradas incertezas do tipo fenomenológica.
A formulação de projeto para otimização de riscos robusta é obtida como:
Z zu
determine: BR que minimiza: cR (B) = zc (B) + mC (z, B)dz,
zl
sujeito a: B > 0. (8.122)

A função de associação mC (z, B) foi avaliada de forma aproximada, a partir de sete α¡cortes Cα , para α
uniformemente espaçado em [0, 1]. A função objetivo na Eq. (8.122) foi avaliada numericamente. O problema
de otimização foi resolvido de forma exaustiva: a solução é calculada para vários valores de B (os mesmos
valores necessários para construir a Figura 8-18); a solução ótima é aquela que produz o menor valor da função
objetivo.
A Figura 8-18 ilustra as funções objetivo custo esperado total original (cet ) e robusta (cR ), para cf = 1
(esquerda) e para cf = 6 (direita), em bilhões de dólares. A Figura 8-19 mostra a função de associação dos custos
esperados totais fuzzy correspondentes. Fica claro que os custos robustos são maiores que os custos esperados
totais originais, em função da integral sobre a função de associação (Eq. 8.122). Desta forma, observamos na
Figura 8-18 que a solução ótima para a formulação robusta (BR ) é uma baragem de maior largura do que a
solução original (B0 ). Isto ocorre porque as funções custo crescem mais rapidamente à esquerda, onde custos
esperados totais são dominados por custos esperados de falha. Logo, para tornar custos esperados totais menos
sensíveis às incertezas epistêmicas, como ilustrado na Figura 8-19, é necessário pagar por algum sobre-projeto.
Tal observação vai ao encontro da prática histórica observada em engenharia de estruturas: maiores incertezas
conduzem a maiores margens de segurança em projeto. A pro ssão já descobriu que é mais barato errar por
ser excessivamente conservador, do que pagar por custos de falha. Com a formulação de otimização de riscos
robusta aqui proposta, é possível determinar exatamente quão conservador um projeto estrutural deve ser, de
forma a re‡etir incertezas conhecidas (intrínsecas), e a se tornar menos sensível às incertezas epistêmicas.
322 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

Figura 8-18: Funções custo esperado total original e robusta, para cf = 1 (esquerda) e cf = 6 (direita) bilhões
de dólares.

Figura 8-19: Funções de associação dos custos esperados totais fuzzy, original e robusto, para cf = 1 (esquerda)
e cf = 6 (direita) bilhões de dólares.
8.7. EXERCÍCIOS E PROBLEMAS PROPOSTOS 323

8.7 EXERCÍCIOS E PROBLEMAS PROPOSTOS


Os exercícios abaixo são propostos para resolução por programação em computador.

8.7.1 Exercícios

Exercício 12 DDO £ RBDO £ RO: programar em computador a solução do Exercício 11, pg. 285.

Exercício 13 RIA £ PMA: programar em computador solução do exemplo apresentado na Seção 8.3.4,
pg. 293 (rótula plástica em viga), nas versões RIA e PMA, utilizando βT = 2, 5. Solução: d¤ = 0, 8818.

Exercício 14 Técnicas de desacoplamento: programar solução dos problemas P1 a P3 (abaixo), uti-


lizando as técnicas SORA, SLA e/ou SAP. Soluções apresentadas junto aos problemas.

Exercício 15 RBDO de sistemas: programar em computador solução SLA do problema P3, consideran-
do uma restrição de con abilidade de sistemas βT SY S = 3.

Exercício 16 RBDO de sistemas: programar em computador solução SLA do problema P4.

Exercício 17 Otimização utilizando MCS: programar em computador solução do problema P3, con-
siderando β T SY S = 3, e utilizando a técnica RWA (ranked weighted average simulation). Observe que
soluções baseadas em simulação tendem a apresentar maior variação.

Exercício 18 Otimização de riscos: programar em computador a solução do problema P5, técnica livre.

8.7.2 Problemas
P1 Equação de estado limite não-linear, variáveis de projeto determinísticas (Aoues & Chateauneuf, 2010):

determine : d¤ = fb¤ , h¤ g;
que minimiza : f (d) = b2 + h2 ;
bh
sujeito a : P[ (X2 )2 ¡ X1 · 0] · pfT = ©(¡β T ), 0 · d · 15;
5
sendo : β T = 2, 32; X1 » N (5; 1, 5); X2 » N (3; 0, 9).

Solução: d¤ = f5, 62; 5, 62g, f (d¤ ) = 63, 10.


324 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

P2 Projeto de viga curta, variáveis de projeto aleatórias (Aoues & Chateauneuf, 2010; Lopes & Beck, 2012):

determine : ¹¤ = fb¤ , h¤ g;
que minimiza : f (¹) = bh;
sujeito a : P [g(¹, X) · 0] · pf T = ©(¡βT ), 0, 5 · b/h · 2;
sendo : β T = 3; X = ffy , M1 , M2 , N g;
¹X = f40 103 , 250, 125, 2500g; ±X = f0, 1; 0, 3; 0, 3; 0, 2g;
M = fB, Hg; B » N (b; 0, 05b); H » N (h; 0, 05h);
4M1 4M2 N2
g(M, X) = 1 ¡ 2
¡ 2 ¡ .
B H fy B H fy (B H fy )2

Solução: ¹¤ = f0, 32; 0, 63g, f (d¤ ) = 0, 20.

P3 Múltiplas equações de estado limite, variáveis de projeto aleatórias (Liang et al., 2004; Aoues & Chateauneuf,
2010; Lopes & Beck, 2012):

determine: ¹¤ = fb¤ , h¤ g;
que minimiza: f (¹) = b + h;
sujeito a: P [gi (M) · 0] · pf T = ©(¡βT ), i = 1, 2, 3;
0 · b · 10; 0 · h · 10;
sendo: β T = 3;
g1 (M) = B2 H/20 ¡ 1;
g2 (M) = (B + H ¡ 5)2 /30 + (B ¡ H ¡ 12)2 /120 ¡ 1;
g3 (M) = 80/(B 2 + 8H + 5) ¡ 1;
M = fB, Hg; B » N(b; 0, 3); H » N (h; 0, 3).

Soluções:
¹¤ = f3, 44; 3, 29g, f (¹¤ ) = 6, 82, para 3 restrições (β T = 3).
µ¤ = f3, 42; 3, 39g, f (µ¤ ) = 6, 9, para restrição de sistema (β T SY S = 3).
P4 Duas equações de estado limite em série, variáveis de projeto determinísticas, viga engastada (adaptado de
Liang et al., 2007 para SI):

determine: d¤ = fw¤ , t¤ g;
que minimiza: f (d) = w t;
sujeito a: P [[gi (d, X) · 0] · pfT = 1, 35 10¡3 , i = 1, 2; 0 · w; t · 5;
sendo: β T = 2, 78215; d0 = 2, 2535 mm; L = 100 mm;
µ ¶
Y Z
g1 (d, X) = Sy ¡ 0, 6 + ;
w t2 w2 t
sµ ¶ µ ¶2
2
4L3 Y Z
g2 (d, X) = d0 ¡ + ;
E w t 103 t2 w2
X = fSy , Y, Z, Eg;
Y » N (1000; 100) N; Sy » N (40; 2) MPa;
Z » N (500; 100) N; E » N (29; 1, 45) GPa.

Soluções:
d¤ = f2, 620; 3, 601g mm, f (d¤ ) = 9, 436, usando limites uni-modais (pf12 = 0);
8.7. EXERCÍCIOS E PROBLEMAS PROPOSTOS 325

d¤ = f2, 608; 3, 615g mm, f (d¤ ) = 9, 427, usando a média dos limites bi-modais (pf12 6= 0).
P5 Otimização de riscos, projeto de coluna, variáveis de projeto determinísticas (Enevoldsen & Sorensen, 1994).
Uma coluna circular vazada de altura h = 25 m, diâmetro externo d e espessura de parede t deve ser projetada
para suportar uma força de compressão centrada P . O custo unitário de material é cu = 20 103 /m3 , e o custo
de falha é 109 . Os dados das variáveis aleatórias são apresentados na Tabela 8.4.

determine : d¤ = fd¤ , t¤ g;
que minimiza : f (d) = cu h π d t + cf pf ;
sujeito a : β i (d) ¸ βT , i = 1, 2, 3; 1 · d · 3 m; 4 · t · 15 mm;
sendo : β T = 4;
gy (d, X) = fy π d t ¡ P (esmagamento);
glb (d, X) = flb π d t ¡ P (‡ambagem local);
ggb (d, X) = fgb π d t ¡ P (‡ambagem global);
X = fP, E, fy , kd , ki g.

A tensão de ‡ambagem local, flb , é dada por (per l formado a frio, soldado, sem alívio de tensões residuais):
p
flb = fy (1, 5 ¡ λb / 2),

com índice de esbeltez relativa dada por:


r
fy p p
λb = , para 1/2 · λb · 2,
θ b Sel
sendo Sel a tensão crítica teórica, e θ b um fator de correção para imperfeições, dados por:
2Et kd
Sel = p e θb = p ¢
d 3(1 ¡ υ 2 ) 1 + 0, 005d/t

O modulo de elasticidade do material é E, e o coe ciente de Poisson é υ = 0, 3. O fator de imperfeições para


‡ambagem local, kd , é uma variável aleatória (Tabela 8.4).
A tensão de ‡ambagem global, fgb , é dada por (per l formado a frio, soldado, sem alívio de tensões residuais):
q
fgb = fy (γ ¡ γ2 ¡ 1/λ2e ),

com parâmetros: r
1 h fy
γ = 2 λ2e + ki (λe ¡ 0, 2) + 0, 8 e λe = ¢
2λe 0, 35 dπ E
O fator de imperfeições geométricas para ‡ambagem global, ki , é uma variável aleatória (Tabela 8.4).

Tabela 8.4: Variáveis aleatórias do problema P5.


Variável Descrição Dist. µ δ
P Força vertical N 107 N 0,20
E Módulo de Young N 210 GPa 0,05
fy Tensão de escoamento N 650 MPa 0,05
kd Fator de imperf. geom. N 0,54 0,16
ki Fator de imperf. geom. N 0,49 0,10
326 OTIMIZAÇÃO ESTRUTURAL BASEADA EM CONFIABILIDADE

Solução: d¤ = f1, 32m; 11, 15mmg, f (d¤ ) = 2, 55 104 .


Apêndice A

TEORIA DE PROBABILIDADES:
VARIÁVEIS ALEATÓRIAS

Este capítulo está embasado em Papoulis e Pillai (2001) e Ang & Tang (1975, 1990). Para um aprofundamento
de qualquer dos assuntos, consulte estas referências. Uma boa referência para o assunto, traduzida para o
português, é Montgomery & Runger (1999). Dois textos mais lúdicos sobre teoria de probabilidades e seus
efeitos são apresentados por Weawer (1982) e Mlodinow (2009).

A.1 AXIOMAS DA TEORIA DE PROBABILIDADES

A.1.1 De nições de probabilidades


Considere um experimento E com resultados univocadamente de nidos e acordados entre todas as partes inte-
ressadas. Um experimento consiste em um conjunto ­ bem de nido de elementos ou resultados wi , i = 1, ..., N ;
sendo N o número de elementos ou resultados possíveis. Eventos são conjuntos de resultados, ou sub-conjuntos
de ­, como por exemplo: A = fwi g, i = 1, ..., ne ; sendo ne o número de resultados que formam o evento A.
Uma realização do experimento consiste em uma observação de seu resultado (exemplo, w¤ ). Esta realização
corresponde a uma ocorrência do evento A se w¤ 2 A.

De nição frequentista

Se o evento A é observado nA vezes em n realizações do experimento, a de nição frequentista de probabilidades


é dada por:

nA
P [A] ´ lim ¢ (A.1)
n!1 n

Nesta de nição, a probabilidade é calculada à posteriori, baseada em um grande número de observações


do experimento. Esta de nição é importante para associar probabilidades com o mundo observável, e será
utilizada frequentemente para interpretar probabilidades. No entanto, está de nição é limitada porque, na
prática, o número de observações nunca chegará a in nito.
328 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

De nição clássica

Sendo NA o número de possíveis resultados favoráveis ao evento A e N o número total de resultados possíveis,
a de nição clássica de probabilidades é dada por:

NA
P [A] ´ ¢ (A.2)
N
Nesta de nição, a probabilidade P [A] é encontrada à priori, antes da primeira realização do experimento.
Para evitar ambiguidade na contagem de NA e N , é necessário que os N eventos sejam equi-prováveis. Em
palavras, a de nição é dada por:

“A probabilidade de um evento A é igual a razão entre o número de resultados favoráveis a A e o


número total de resusltados possíveis, desde que estes sejam equiprováveis!”

Na de nição acima, “equiprováveis” signi ca “com a mesma probabilidade”, o que signi ca que o objeto a
ser de nido faz parte da de nição! Sendo assim, a de nição clássica também tem limitações. Muitas vezes, a
de nição frequentista é utilizada para de nir os eventos equi-prováveis.

Probabilidade como grau de con ança

Nesta de nição subjetiva, também conhecida como “de nição Bayesiana”, a probabilidade P [A] está associada
ao grau de con ança do sujeito em relação a ocorrência do evento A. Enquanto a de nição frequentista está
associada à média de fenômenos repetitivos, ou à múltiplas observações de um evento, a de nição subjetiva
aplica-se a uma única ocorrência do evento. Exemplos:

“Há 60% de chance de chuva amanhã, durante a competição!”. Esta probabilidade é calculada
através de um modelo meteorológico, que leva em consideração a quantidade de nuvens prevista
pelo modelo em uma região geográ ca, nas próximas horas ou dias. Inferir esta probabilidade
para um horário e local especí co é uma extrapolação subjetiva, uma informação que não pode ser
validada pelo modelo.
“A probabilidade de falha desta estrutura única é pequena; logo, a estrutura é segura!”. Tal pro-
babilidade é calculada com base em modelos físicos e matemáticos, e com base na interpretação
frequentista dos parâmetros observáveis, e na de nição axiomática de probabilidades. No entanto,
não há como validar tal probabilidade de forma experimental. A probabilidade de falha estrutural é
interpretada como grau de con ança no desempenho da estrutura (veja de nição de con abilidade
estrutural na pg. 39).

Probabilidades subjetivas podem ser construídas de várias maneiras: opinião de especialistas, emprego de
modelos diversos, quanti cação de informações subjetivas ou linguísticas, etc. (Ben-Haim & Elishako¤, 1990;
Ayyub & Klir, 2006).
A probabilidade Bayesiana é interpretada como uma expectativa razoável baseada no estado do conhecimen-
to, ou como quanti cação de uma crença pessoal. Pode ser entendida como uma extensão da lógica propositiva,
que permite lidar com hipóteses cujos resultados (falso ou verdadeiro) são sujeitos a incertezas. A avaliação da
probabilidade de uma hipótese é feita em termos de uma probabilidade pré-de nida (prior ), que é atualizada
em uma probabilidade posterior (posteriori), com base em alguma evidência observada.
O termo Bayesiana se refere ao matemático e teólogo Thomas Bayes (1701 - 1761), que propôs a primeira
abordagem matemática de problemas não-triviais em análise estatística de dados. O matemático Pierre-Simon
Laplace (1749 - 1827) popularizou o que hoje conhecemos como probabilidades Bayesianas.
A.1. AXIOMAS DA TEORIA DE PROBABILIDADES 329

Existem duas famílias de interpretação de probabilidades Bayesianas. Na perpectiva objetiva, a probabili-


dade é uma expectativa razoável que representa um estado de conhecimento, e pode ser entendida como uma
extensão da lógica , com regras baseadas no Teorema de Cox (1946). Na perspectiva subjetiva, a probabilidade
Bayesiana quanti ca uma crença pessoal, baseada em coerência e racionalidade, com base no argumento de erro
e no Teorema de de Finetti (1974).

De nição axiomática

Cada uma das de nições anteriores tem a sua utilidade na solução de problemas práticos. A Teoria Matemática
de Probabilidades é baseada na seguinte de nição:

“A probabilidade associada a um evendo A é um número associado a este evento, que obedece aos
três seguintes postulados:

1) P [A] ¸ 0, i.e., a probabilidade é um número maior ou igual a zero;


2) P [­] = 1, i.e., a probabilidade de um evento certo é igual a um;
3) P [A [ B] = P [A] + P [B] se A e B eventos mutuamente exclusivos.” (A.3)

A.1.2 Teoria de conjuntos


De nições:

Espaço amostral ­: conjunto de todos os possíveis resultados de um experimento.


Ponto amostral wi : cada um dos possíveis resultados de um experimento.
Evento A = fwi g*: conjunto de pontos amostrais que satisfazem a uma determinada regra.
sub-conjunto do espaço amostral ­.
Evento elementar: contém um único ponto amostral.
Evento composto: formado por mais de um ponto amostral.
Evento nulo Ø : nenhum ponto do espaço amostral satisfaz a regra que caracteriza o evento,
ou seja, o evento é um conjunto vazio.
Evento certo: é aquele que ocorre com probabilidade um, e.g. P [­] = 1 , P [wi 2 ­] = 1.
Espaço am. discreto: formado por um número nito ou in nito contável de pontos amostrais.
Espaço am. contínuo: formado por número in nito e incontável de pontos amostrais.

*A probabilidade será associada apenas a eventos, e não a pontos amostrais.


O diagrama de Venn é utilizado para representar espaço amostral, pontos amostrais e eventos.
330 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

Operações:

² Existência:

wi 2 A wi pertence a A ou está contido em A.


wi 2
/A wi não pertence a A ou não está contido em A.
B ½A B está contido em A, i.e., todo elemento de B também pertence a A.
A¾B A contém B, i.e., todo elemento de B também pertence a A.

² Igualdade:

A=B signi ca que A ½ B e B ½ A.

² Soma ou união:

A + B, A [ B elementos pertencentes a A, a B ou a ambos.

² Produto ou intersecção:

A ¢ B, A \ B elementos comuns a A e B.

² Conjuntos mutuamente exclusivos:

A\B =0 não tem elementos em comum

² Evento complementar:
A.1. AXIOMAS DA TEORIA DE PROBABILIDADES 331

A todos os elementos de ­ que não estão em A:


Ø = ­; A + A = ­;
­ =Ø; A \ A =Ø.
Se B ½ A, então B ¾ A.

² Diferença:

A¡B todos os elementos de A que não pertencem a B:


A ¡ B = A \ B = A ¡ (A \ B)
Atenção:
(A ¡ B) + B 6= A;
(A + A) ¡ A =Ø;
A + (A ¡ A) = A;
A¡Ø= A; A ¡ ­ =Ø; ­ ¡ A = A.

² Lei de Morgan:

Em qualquer igualdade, podemos trocar somas por produtos, produtos por somas e eventos por seus com-
plementares, que a igualdade ca preservada :
(A [ B) = A \ B,
(A \ B) = A [ B.
332 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

A.1.3 Espaço de probabilidades


Axiomas da teoria de probabilidades

Um experimento é formado por um espaço amostral ­, composto de N pontos amostrais wi , i = 1, ..., N .


A de nição dos pontos amostrais é arbitrária, não necessariamente unânime, dependendo muitas vezes do
evento de interesse. No lançamento de um dado, por exemplo, os pontos amostrais “óbvios” seriam ­ =
ff1 , f2 , f3 , f4 , f5 , f6 g, sendo fi o resultado i-ésima face do dado. Para outro observador, no entanto, os resultados
de interesse, e portanto os pontos amostrais que compõem ­, poderiam ser ­ = fpar, imparg, e para outro
observador poderiam ser ­ = f· 3, > 3g.
Um experimento bem de nido é aquele onde os pontos amostrais de interesse estão identi cados de forma
clara e não ambígua. Uma realização de um experimento corresponde a observação de um dos possíveis
resultados.

Exemplo 17 lançamento de dois dados:


8 9
>
> f f f1 f2 ... f1 f6 >
>
< 1 1 =
f2 f1 ... ...
­= .
>
> ... >
>
: ;
f6 f1 ... f6 f6

O espaço amostral é composto de 36 elementos. A probabilidade de que a soma das faces seja igual a 12 é
1
P [soma = 12] = 36 ¢

Exemplo 18 dois lançamentos de um dado: o espaço amostral é composto de 6 pontos amostrais ­ =


ff1 , f2 , f3 , f4 , f5 , f6 g. A probabilidade de obter um seis no primeiro lançamento é P [f ace = 6] = 61 . O
experimento é realizado duas vezes e a probabilidade de que a soma das faces seja igual a 12 é determinada
considerando a independência entre os resultados das duas realizações: P [soma = 12] = 61 61 = 36 1
¢

Um evento A representa um conjunto de pontos amostrais ou sub-conjunto de ­, ao qual atribuimos o número


P [A], chamado de probabilidade de ocorrência do evento A. Este número é atribuído de forma a satisfazer as
seguintes condições (axiomas):

1) P [A] ¸ 0;
2) P [­] = 1;
3) P [A + B] = P [A] + P [B]. (A.4)

A condição 3) é válida se A e B são eventos mutuamente exclusivos (A \ B = 0). Se A e B não são


eventos mutuamente exclusivos, então temos:

P [A + B] = P [A] + P [B] ¡ P [A \ B] · P [A] + P [B].


A.1. AXIOMAS DA TEORIA DE PROBABILIDADES 333

Dos três axiomas, resulta que:

P [Ø] = 0,
¹ = 1,
P [A] + P [A]

ou:
¹ · 1.
P [A] = 1 ¡ P [A]
¹ ¸ P [B].
Se B ½ A, então P [A] = P [B] + P [A \ B]

² A de nição frequentista de probabilidades pode ser usada para interpretar as probabilidades de nidas nos
três axiomas. Adotando P [A] ¼ nnA , veri camos que:
1) é verdade;
2) como o espaço amostral ocorre sempre e n­ = n, resulta que P [­] ¼ nn­ = 1;
3) se A e B são eventos mutuamente exclusivos, então nA+B = nA + nB e P [A + B] ¼ nA+B n
= nnA + nnB ¼
P [A] + P [B].

Construção de espaços de probabilidades

Para especi car de forma completa e não ambígua um experimento, as probabilidades de todos os eventos
possíveis devem ser conhecidas ou determináveis. Isto pode ser feito atribuindo probabilidades a todos os
eventos elementares, i.e., aqueles formados por um único ponto amostral.

Numero nito ou contável de resultados possíveis: Sejam p1 , p2 , ..., pN números reais tais que p1 +
p2 + ...+ pN = 1, pi ¸ 0 de forma que a probabilidade do evento elementar seja P [fwi g] = pi . Se o evento A é
formado pelos elementos:

A = fwk1 , wk2 , ..., wkM g = fwk1 g + fwk2 g + ... + fwkM g,

então:
P [A] = P [fwk1 g] + P [fwk2 g] + ... + P [fwkM g] = pk1 + pk2 + ... + pkM .

De nição clássica: Assumindo todos os pi iguais, então:


1
P [fwi g] = ¢
N

Se o evento A é formado por k elementos, então:


k
P [A] = ¢
N

Probabilidades na linha dos reais Um espaço de probabilidades importantes é a reta dos números reais,
ou qualquer fração desta. Os resultados possíveis são números reais. Os eventos, neste caso, são somas e
produtos de intervalos de nidos nesta reta. Considerando ­ como o conjunto dos números reais positivos, as
probabilidades dos mais diversos eventos podem ser determinadas, uma vez conhecida a probabilidade
R 1 do evento
f0 · t · t1 g para qualquer t1 . Se α(t) é uma função integrável no tempo, tal que α(t) ¸ 0 e 0 α(t)dt = 1,
então podemos escrever: Z t1
P [f0 · t · t1 g] = α(t)dt.
0
334 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

Para determinar a probabilidade do evento ft1 · t · t2 g, basta observar que:

f0 · t · t2 g = f0 · t · t1 g + ft1 < t · t2 g.

Como os dois eventos à direita da igualdade são mutuamente exclusivos:

P [f0 · t · t2 g] = P [f0 · t · t1 g] + P [ft1 < t · t2 g],


o que resulta em: Z t2
P [ft1 < t · t2 g] = α(t)dt.
t1

Podemos mostrar ainda que a probabilidade do evento elementar P [ft = t1 g] = 0, o que resulta em:

P [ft1 · t · t2 g] = P [ft1 < t · t2 g] = P [ft1 · t < t2 g] = P [ft1 < t < t2 g].

Exemplo 19 Para uma distribuição uniforme no tempo, temos α(t) = cte. Logo, no intervalo {0,T} temos
RT RT
0
α(t)dt = cte 0 dt = 1, e portanto cte = T1 . Se um evento (e.g., uma chamada telefônica ou a emissão
de um elétron) acontece neste intervalo, então:
t1
P [f0 · t · t1 g] = ,
T
t2 ¡ t1
P [ft1 · t · t2 g] = ¢
T

A.1.4 Probabilidades condicionais


Seja B um evento de probabilidade não nula P [B] > 0. A probabilidade de ocorrência de um evento A,
condicional a ocorrência do evento B, é dada por:

P [A \ B]
P [AjB] = ¢ (A.5)
P [B]

Se A e B são eventos mutuamente exclusivos, então:

P [A \ B] = 0 ) P [AjB] = 0.
A.1. AXIOMAS DA TEORIA DE PROBABILIDADES 335

Se A ½ B então A \ B = A e:
P [A]
P [AjB] = ¸ P [A].
P [B]

Se B ½ A então A \ B = B e:
P [B]
P [AjB] = = 1.
P [B]

² Interpretação de frequência relativa: seja nA , nB , nAB o número de ocorrências dos eventos A, B e A \ B,


em n realizações do experimento.
nA nB nAB
P [A] ¼ , P [B] ¼ , P [A \ B] ¼ ,
n n n
P [A \ B] nAB n nAB
P [AjB] = ¼ = ¢
P [B] n nB nB

Logo:
nAB
P [AjB] ¼ ¢
nB
Em palavras: desconsiderar todas as realizações em que B não ocorreu equivale a de nir um novo con-
junto de observações do experimento onde o número total de realizações é nB . Logo, as probabilidades
condicionais a B são calculadas em relação ao número total de observações nB .

1
Exemplo 20 Lançamento de um dado: ­ = ff1 , f2 , f3 , f4 , f5 , f6 g, P [fi ] = 6. Qual a probabilidade de
obter uma face 6, sendo que o resultado do lançamento foi par?

3
B = fparg = ff2 , f4 , f6 g, P [B] = ,
6
1
A = ff6 g, A \ B = ff6 g, P [A \ B] = ¢
6
Logo:
P [A \ B] 1 6 1
P [AjB] = P [ff6 jparg] = = ¢ = ¢
P [B] 6 3 3
336 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

Exemplo 21 Uma caixa contém 3 bolas azuis e 2 bolas brancas. Qual a probabilidade de sacar uma bola
azul e depois uma branca?
Sejam os eventos: A = f1a azulg, B = f2a brancag. A solução “bruta” é obtida listando todos os resultados
possíveis (20 possibilidades) ao se sacar duas bolas:

fa1 a2 g, fa1 a3 g, fa1 b1 g, fa1 b2 g, ..., fa3 b2 g.


6
Destes, seis eventos correspondem à primeira bola azul e segunda branca, logo: P [A \ B] = 20 .
Solução usando probabilidades condicionais:
3
P [A] = ,
5
2
P [BjA] = ,
4
P [A \ B] = P [BjA] ¢ P [A]
2 3 6
= ¢ = ¢
4 5 20

A.1.5 Teorema da probabilidade total


Se N eventos A1 , A2 , ..., AN são mutuamente exclusivos, e tais que sua soma corresponde a ­, então para um
evento B qualquer, podemos escrever:

P [B] = P [BjA1 ]P [A1 ] + P [BjA2 ]P [A2 ] + ... + P [BjAN ]P [AN ], (A.6)


para:

Ai \ Aj = 0, i 6= j,
A1 + A2 + ... + AN = ­.

Este resultado é utilizado extensivamente em con abilidade estrutural; por exemplo, para integrar probabili-
dades de falha condicionais à ocorrência de um terremoto, sobre todas as possíveis intensidades de terremoto.
Da probabilidade condicional, temos que: P [BjA1 ]P [A1 ] = P [A1 \ B], de forma que a Eq. (A.6) também
pode ser escrita como:
P [B] = P [A1 \ B] + P [A2 \ B] + ... + P [AN \ B].
A.1. AXIOMAS DA TEORIA DE PROBABILIDADES 337

Exemplo 22 Quatro caixas possuem bolas brancas e azuis dispostas conforme a tabela:
Caixa # azuis # brancas
1 1900 100
2 300 200
3 900 100
P4 900 100
4000 500
Selecionando uma caixa aleatoriamente, qual a probabilidade de sacarmos uma bola branca?
Seja Ci o evento selecionar a i-ésima caixa, o que equivale a selecionar todas as bolas daquela caixa:
1
P [C1 ] = P [C2 ] = P [C3 ] = P [C4 ] = ,
4
C1 + C2 + C3 + C4 = ­,
Ci \ Cj = 0, i 6= j.

Seja B o evento selecionar bola branca. Para cada caixa, temos as seguintes probabilidades condicionais:
100
P [BjC1 ] = = 0, 05;
2000
200
P [BjC2 ] = = 0, 40;
500
100
P [BjC3 ] = = 0, 10;
1000
100
P [BjC4 ] = = 0, 10.
1000
Logo, utilizando o teorema da probabilidade total, temos:

P [B] = P [BjC1 ]P [C1 ] + P [BjC2 ]P [C2 ] + P [BjC3 ]P [C3 ] + P [BjC4 ]P [C4 ]


1 1 1 1
= 0, 05 + 0, 40 + 0, 10 + 0, 10
4 4 4 4
= 0, 1625.

Obs: se todas as bolas estivessem na mesma caixa, a probabilidade de selecionar uma branca seria: P [B] =
500 1
4500 = 9 = 0, 1111111.

A.1.6 Teorema de Bayes


Da expressão que de ne probabilidade condicional (Equação A.5), temos que P [A \ B] = P [AjB]P [B]. Como
P [A \ B] = P [B \ A] obtemos que:
P [AjB]P [B] = P [BjA]P [A],
ou:
P [BjA]P [A]
P [AjB] = ¢ (A.7)
P [B]
338 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

Sejam N eventos Ai mutuamente exclusivos, e tais que sua soma corresponde a ­:

P [Ai \ Aj ] = 0, i 6= j,
P [A1 + A2 + ... + AN ] = 1.

Pelo teorema da probabilidade total, chegamos a:

P [BjAi ]P [Ai ]
P [Ai jB] = ¢ (A.8)
P [BjA1 ]P [A1 ] + P [BjA2 ]P [A2 ] + ... + P [BjAN ]P [AN ]

Exemplo 23 Quatro caixas com bolas brancas e azuis (cont.): Se a bola selecionada no exemplo anterior
foi branca, qual a probabilidade de que ela tenha sido tirada da caixa 2? P [C2 jB] =?
Sabemos que:
P [B] = 0, 1625; P [BjC2 ] = 0, 4; P [C2 ] = 0, 25;

P [BjC2 ]P [C2 ] 0, 4 0, 25
P [C2 jB] = = = 0, 615.
P [B] 0, 1625
A probabilidade P [C2 jB] calculada acima é a probabilidade “à posteriori” de haver selecionado a caixa 2,
dada a seleção de uma bola branca.

A.1.7 Independência de eventos


De nição 2 Dois eventos A e B são independentes se:

P [A \ B] = P [A]P [B]. (A.9)

Utillizando a de nição de probabilidades condicionais (Eq. A.5), concluímos também que para dois eventos
A e B independentes:

P [AjB] = P [A],
P [BjA] = P [B],

ou seja, a ocorrência de B não afeta a probabilidade de ocorrência de A, nem vice-versa.

Propriedades de eventos independentes:

1. Se A e B são eventos independentes, então:

P [A [ B] = P [A] + P [B] ¡ P [A]P [B].

2. Se A e B são eventos independentes, então:


¹e
A ¹ são independentes;
B
Ae ¹
B são independentes;
¹e
A B são independentes.
A.1. AXIOMAS DA TEORIA DE PROBABILIDADES 339

3. Se eventos A1 , A2 , ..., AN são independentes, então qualquer destes eventos também é independente de
qualquer evento formado por sub-conjuntos, somas, produtos, ou complementos dos demais eventos.

Independência de 3 ou mais eventos

Três eventos somente são independentes entre si se:

P [A1 \ A2 ] = P [A1 ]P [A2 ];


P [A2 \ A3 ] = P [A2 ]P [A3 ];
P [A1 \ A3 ] = P [A1 ]P [A3 ];
P [A1 \ A2 \ A3 ] = P [A1 ]P [A2 ]P [A3 ].

Se mais de dois eventos forem apenas independentes aos pares, não está garantida a independência entre os
eventos.

A B

(A  B)  (B  C)  (A  C)
 (A  B  C)

Exemplo 24 Seja P [A] = P [B] = P [C] = 51 no diagrama ilustrado.


1
a) se P [A \ B] = P [B \ C] = P [A \ C] = P [A \ B \ C] = 25 , os eventos são independentes aos pares mas
não são independentes entre si porque:

P [A \ B \ C] 6= P [A]P [B]P [C]

1
b) se P [A \ B] = P [B \ C] = P [A \ C] = P [A \ B \ C] = 125 , temos que P [A \ B \ C] = P [A]P [B]P [C],
no entanto

P [A \ B] 6= P [A]P [B];
P [B \ C] 6= P [B]P [C];
P [A \ C] 6= P [A]P [C].
340 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

A.2 VARIÁVEIS ALEATÓRIAS


A.2.1 De nição de variável aleatória
Uma função x = x(t) é uma regra de correspondência que relaciona valores da variável independente t com
valores da variável dependente x. O conjunto de valores que t pode assumir é chamado de domínio da função
enquanto que o conjunto de valores assumidos por x corresponde à imagem da função.
Para um determinado experimento com espaço amostral ­ formado por um conjunto de pontos amostrais w,
uma variável aleatória real X(w) é obtida atribuindo um número real x a cada ponto amostral w, observando
a seguinte de nição:

De nição 3 Uma variável aleatória real X(w) é uma função real que atribui a cada ponto amostral w de um
espaço amostral ­ um valor real x, tal que o conjunto fX · xg é um evento para qualquer número real x.

É comum representar uma variável aleatória por uma letra maiúscula, e uma realização desta variável por
uma letra minúscula. Sendo assim, o evento fX = xg pode ser descrito como “a variável aleatória X assume
o valor x”. O evento fX · xg signi ca: “a variável aleatória X assume qualquer valor menor ou igual a x”.
Claramente, sendo X uma variável aleatória, a ocorrência deste evento só pode ser determinada em termos de
probabilidades.
O domínio da função variável aleatória X(w) é o espaço amostral ­. Quando este domínio é formado por
um número nito ou in nito contável de pontos, dizemos que a variável aleatória é do tipo discreta. Quando o
domínio é formado por um número in nito de pontos, temos uma variável contínua.

A.2.2 Função de distribuição acumulada de probabilidades


Para um número real x qualquer, o conjunto fX · xg formado por todos os pontos amostrais w tais que
X(w) · x representa um evento. A probabilidade de ocorrência deste evento é um número que depende de x,
e que é dado pela função FX (x).

De nição 4 A função de distribuição acumulada de probabilidades de uma variável aleatória X é a função:

FX (x) = P [fX · xg], (A.10)

de nida para qualquer número x no intervalo (¡1 · x · +1).

Em outras palavras, o número FX (x) corresponde à probabilidade de que a variável aleatória X assuma
qualquer valor menor do que x. Esta de nição é válida para variáveis aleatórias discretas ou contínuas.

Exemplo 25 Lançamento de um dado: a variável aleatória X é de nida como X(fi ) = i, i.e., a variável
corresponde ao número inteiro que aparece na face do dado. P [ffi g] = 16 ¢
A.2. VARIÁVEIS ALEATÓRIAS 341

Fx ( x) f x ( x)

1 2 3 4 5 6 x 1 2 3 4 5 6 x

Propriedades da função de distribuição acumulada de probabilidades:

1. FX (¡1) = 0; FX (+1) = 1.
2. FX ( ) é monotonicamente crescente, i.e., FX (x1 ) · FX (x2 ) para qualquer x1 < x2 .
3. FX ( ) é contínua pela direita:
lim FX (x + ε) = FX (x+ ) = FX (x).
ε!0
ε>0

4. Para x1 < x2 temos:


P [fx1 < X · x2 g] = FX (x2 ) ¡ FX (x1 ).

5. Se F (x) é descontínua em x1 então:

P [fX = x1 g] = FX (x1 ) ¡ FX (x¡


1)
= salto de FX (x) em x1 .

6. Se FX (x) é contínua, não possui saltos, e portanto:

P [fX = xg] = 0 para qualquer x.

A.2.3 Função de densidade de probabilidades


A derivada em relação a x da função de distribuição acumulada de probabilidades é chamada de função de
densidade de probabilidades, ou fX (x):
dFX (x)
fX (x) = ¢ (A.11)
dx
Como a função de distribuição de probabilidades pode não ter derivadas em todo x, fazemos uma distinção
entre variáveis aleatórias contínuas e discretas. Esta distinção condiz com o domínio destes tipos de variáveis.

Variáveis aleatórias contínuas

Quando FX (x) é uma função contínua em x, ainda que não diferenciável em alguns pontos, dizemos que a
variável é contínua. O número de pontos onde FX (x) não é diferenciável deve ser contável, de forma que a Eq.
(A.11) seja válida nos pontos onde a derivada dFdx
X (x)
existe. Da Eq. (A.11) e das propriedades da função de
342 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

distribuição cumulativa de probabilidades, resultam as seguintes propriedades:


Z +1
fX (x)dx = FX (+1) ¡ FX (¡1) = 1 ¡ 0 = 1;
¡1
Z x
fX (u)du = FX (x);
¡1
Z x2
fX (u)du = FX (x2 ) ¡ FX (x1 );
x
Z 1x2
fX (u)du = P [fx1 · X · x2 g].
x1

Para um ¢x pequeno, podemos escrever ainda:

P [fx · X · x + ¢xg] ¼ fX (x)¢x.

Tomando o limite com ¢x ! 0, chegamos à de nição:

P [fx · X · x + ¢xg]
fX (x) = lim ¢ (A.12)
¢x!0 ¢x

Variáveis aleatórias discretas

Quando a função FX (x) é descontínua, a variável aleatória é do tipo discreta. Chamando de pi o salto da função
FX (x) no ponto xi , temos:
X
P [fX = xi g] = FX (xi ) ¡ FX (x¡
i ) = pi , i = 1, 2, ..., n; pi = 1.
i

Para variáveis aleatórias discretas, a função fX (x) pode ser descrita por pulsos, onde um pulso de intensidade
pi ocorre a cada ponto de descontinuidade xi :
X
fX (x) = pi δ(x ¡ xi ).
i

Neste caso, a função FX (x) pode ser escrita como:


X
FX (x) = pi para i tal que xi · x.
i

Se o domínio da variável aleatória é formado por um número nito ou in nito contável de pontos amostrais,
então esta variável é discreta. No entanto, a recíproca não é verdadeira, i.e., existem variáveis aleatórias discretas
cujo domínio é formado por um número in nito de pontos.

A.2.4 Valor esperado e momentos de uma variável aleatória


Valor esperado ou média de uma variável aleatória

O valor esperado ou média de uma variável aleatória é de nido como a integral:


Z +1
E[X] ´ xfX (x)dx = µ, (A.13)
¡1
A.2. VARIÁVEIS ALEATÓRIAS 343

sendo fX (x) a função de densidade de probabilidade da variável aleatória X. Note que E[ ] é o operador valor
esperado, enquanto µ é a média da variável aleatória (em geral, uma constante, ou resultado da operação).
Se fX (x) é interpretada como uma função de densidade de massa no eixo x, então µ é o centro de gravidade
desta massa.
Se fX (x) é uma função simétrica, então fX (¡x) = fX (+x) e µ = 0.
Se fX (x) é simétrica em torno de x = a, então fX (a ¡ x) = fX (a + x) e µ = a.
Se a variável X está associada a um evento A de tal forma que:
½
1 se w 2 A
X(w) = ;
0 se w 2
/A

então P [fX = 1g] = P [A] e:

E[X] = 1 P [fX = 1g] + 0 P [fX = 0g] = P [A].

Logo, o valor esperado de X pode ser entendido como a probabilidade de ocorrência do evento A.
É importante observar que os valores assumidos pela variável podem nunca ser iguais à média. Por exemplo,
num lançamento de moedas onde X seja de nido da seguinte forma:
½
1 se cara
X(w) = ;
0 se coroa

o valor esperado será 21 , ainda que os únicos resultados possíveis sejam 0 e 1.


É importante também estabelecer a distinção entre valor esperado, valor mais provável e mediana de uma
variável aleatória. O valor mais provável (moda) de uma variável aleatória é o ponto onde a função fX (x) é
máxima. A mediana é o ponto xm ed tal que P [fX · xmed g] = FX (xmed ) = 12 ¢
Para uma função g(X) qualquer de uma variável aleatória, o valor esperado é de nido como:
Z +1
E[g(X)] ´ g(x)fX (x)dx.
¡1

Variância

Outra importante quantidade utilizada para descrever variáveis aleatórias é a variância, V ar[X], que mede a
dispersão da variável em torno da média:
Z +1
2
V ar[X] ´ E[(X ¡ µ) ] = (x ¡ µ)2 fX (x)dx = σ2 . (A.14)
¡1

Na expressão acima, a constante σ é chamada de desvio-padrão, que vem a ser a raiz quadrada da variância:
p
σ = V ar[X] ou V ar[X] = σ2 .

Enquanto a média de uma variável aleatória corresponde ao centro de gravidade da função de densidades
fX (x), a variância corresponde ao momento de inércia da massa de probabilidades, e dá uma idéia da concen-
tração desta massa em torno do centro de gravidade.
344 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

Para variáveis discretas, a variância é dada por:


X X
V ar[X] ´ E[(X ¡ µ)2 ] = (xi ¡ µ)2 P [fX = xi g] = (xi ¡ µ)2 pi .
i i

A seguinte importante relação é muito utilizada:

V ar[X] = E[X 2 ] ¡ E[X]2 .

Momentos de ordem k de uma variável aleatória

A média ou valor esperado de uma variável aleatória é o momento de primeira ordem desta variável. O momento
de ordem k é, por de nição: Z +1
E[X k ] ´ xk fX (x)dx = µk . (A.15)
¡1

Dentro de certas restrições, o conjunto de momentos de ne de forma única a função de densidades fX (x) de
uma variável aleatória. Os seguintes casos particulares são importantes:

µ0 = 1 = probabilidade do espaço amostral;


µ1 = média ou valor esperado;
µ2 = valor médio quadrático ou RMS.

Os momentos centrais de ordem k são calculados em relação à média:


Z +1
k
E[(X ¡ µ) ] ´ (x ¡ µ)k fX (x)dx = mk . (A.16)
¡1

Os seguintes casos particulares são importantes:

m0 = 1 = probabilidade do espaço amostral;


m1 = 0;
m2 = σ2 = variância;
m3 = fator de forma.

Coe cientes adimensionais

O coe ciente de variação (c.v.) é uma medida adimensional do desvio-padrão:


σ
δ= ¢
µ
Com frequência, especi camos o coe ciente de variação de uma variável aleatória, em lugar do desvio-padrão.
O c.v. pode ser especi cado em termos percentuais, com 10% correspondendo a δ = 0, 1.
O coe ciente de assimetria ou skewness:
£ ¤
E (X ¡ µ)3 m3
{´ 3
= 3
σ σ
mede o grau de assimetria de uma distribuição. Distribuições simétricas como uniforme e normal tem { =
0. Coe cientes positivos ({ > 0) indicam distribuições cuja massa está concentrada a esquerda da média,
caso das distribuições log-normal, exponencial e distribuições de máximos. Coe cientes negativos ({ < 0)
A.2. VARIÁVEIS ALEATÓRIAS 345

Figura A-1: Desigualdade de Tchebyche¤.

indicam distribuições cuja massa de probabilidades está concentrada a direita da média, caso das distribuições
de mínimos.
O coe ciente de planicidade ou kurtosis:
£ ¤
E (X ¡ µ)4 m4
κ´ =
σ4 σ4
distingue distribuições planas de distribuições com picos acentuados. A referência é a distribuição normal, que
tem κ = 3. Distribuições mais planas do que a normal, como a uniforme, tem κ < 3. Distribuições com picos
mais acentuados do que a normal tem κ > 3; caso das distribuições exponencial, Gumbel, logística e de Laplace.

Desigualdade de Tchebyche¤

Para uma variável aleatória X qualquer, com média µ e desvio-padrão σ, a desigualdade de Tchebyche¤ estab-
elece (Figura A-1):
1
P [jX ¡ µj ¸ c σ] · 2 ,
c
ou seja:

“a probabilidade de uma variável aleatória qualquer diferir de sua média por, no mínimo, c desvios-
padrão, é menor ou igual a 1/c2 ”.
346 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

Média e variância de uma amostra

Seja uma amostra contendo n observações de uma variável aleatória X com média µ e variância σ2 . A média e
a variância da amostra podem ser determinadas por:

1X
n
x1 + x2 + ... + xn
x
¹ = = xi ; (A.17)
n n i=1
n
¹)2 + (x2 ¡ x
(x1 ¡ x ¹)2 + ... + (xn ¡ x
¹)2 1X
v¹ = = ¹)2 .
(xi ¡ x (A.18)
n n i=1

É importante observar que, para n observações da variável aleatória X, a média e a variância da amostra, x ¹
e v¹, são diferentes da média e da variância de X, µ e σ2 . Os estatísticos falam em média e variância da amostra
e média e variância da população. A população, que para os estatísticos corresponde ao universo ou totalidade
dos xi possíveis, para nós é a variável aleatória X.
Nesta seção, demostramos que x ¹ e v¹ são estimadores de µ e σ 2 . Para isto, é importante notar que a cada nova
realização ou observação da amostra de tamanho n, novos valores x1 , x2 , ..., xn são obtidos, alterando também
os valores de x ¹ e v¹. Sendo assim, é natural assumir que os valores observados xi , assim como a média x ¹ ea
variância v¹, sejam variáveis aleatórias. Mais ainda, como todos os valores xi correspondem a observações da
mesma variável, entendemos que cada variável aleatória Xi tenha a mesma média e variância da variável X
original, i.e.:

E[Xi ] = µ;
E[(Xi ¡ µ)2 ] = σ2Xi = σ2 , i = 1, 2, ..., n.

Então, podemos escrever:


E[X1 ] + E[X2 ] + ... + E[Xn ]
¹ = nµ
E[X] = = µ.
n n
¹ = µ, dizemos que X
Como E[X] ¹ é um estimador não-tendencioso da média da variável aleatória X.
A variância da soma de variáveis Xi independentes é igual a soma das variâncias, de forma que:

(σX1 +X2 +...+Xn )2 = σ2X1 + σ2X2 + ... + σ2Xn .

Logo:
1 2 nσ2 σ2
σ2X¹ = (σ X + σ 2
X + ... + σ 2
X ) = = ¢
n2 1 2 n
n2 n
Neste resultado, observamos que a variância do estimador X ¹ tende a zero com n ! 1.
Utilizando raciocínio similar, podemos mostrar que (Papoulis, 1965, pg. 246):
n¡1 2
E[V¹ ] = σ , (A.19)
n
ou seja, V¹ tal como de nido na Eq. (A.18), é um estimador tendencioso da variância de X, σ2 . Esta tendência
é resultado do fato de que o estimador V¹ computa a distância entre os pontos xi e a média da amostra, x
¹, e não
em relação à media populacional µ. Como a média da amostra é calculada com o mesmo conjunto de pontos xi ,
resulta que a variância em relação a x
¹ é menor do que a variância em relação a µ, e portanto (A.18) sub-estima
a variância, como demonstra a Eq. (A.19).
n
Multiplicando o estimador da variância (Eq. A.18) pelo termo n¡1 , podemos corrigir a tendenciosidade do
A.3. MODELOS ANALÍTICOS DE FENÔMENOS ALEATÓRIOS 347

mesmo. Assim, um estimador não-tendencioso da variância é obtido como:

1 X
n
v¹ = ¹)2 .
(xi ¡ x (A.20)
n ¡ 1 i=1

A Eq. (A.20) é utilizada ao invés da Eq. (A.18).


A Eq. (A.20) exige que a média amostral seja determinada preliminarmente, e que os pontos xi sejam
armazenados para avaliação da variância. Isto nem sempre é conveniente, por exemplo quando o tamanho da
amostra n é grande. Uma expressão alternativa, que permite a avaliação da variância à medida que os resultados
xi vão sendo obtidos, é:
P P 2
n ni=1 (xi )2 ¡ ( ni=1 xi )
v¹ = ¢ (A.21)
n(n ¡ 1)

Exercício 19 Demonstre que (A.21) é igual a (A.20).

A.3 MODELOS ANALÍTICOS DE FENÔMENOS ALEATÓRIOS

A.3.1 Variáveis aleatórias discretas


Generalidades

Uma variável aleatória com domínio formado por um número nito ou in nito contável de pontos amostrais é
do tipo discreto. Seja n o número de pontos amostrais de uma variável discreta X, que assume os valores xi,
i = 1, 2, ..., n tal que:

P [fX = xi g] = pi , i = 1, 2, ..., n;
Xn
pi = 1.
i=1

A função de densidade de probabilidades fX (x) pode ser descrita pela função delta de Dirac (δ(x)), onde
um pulso de intensidade pi ocorre a cada ponto xi :
X
fX (x) = pi δ(x ¡ xi ). (A.22)
i

A função de distribuição cumulativa de probabilidades FX (x) pode ser escrita como:


X
FX (x) = pi . (A.23)
xi ·x
348 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

O valor esperado ou média é dada por:


X X
µ= xi P [fX = xi g] = xi pi , (A.24)
i i

e a variância é dada por:


X
σ2 = (xi ¡ µ)2 pi . (A.25)
i

Distribuição uniforme discreta U D(a, b, n)

Na distribuição uniforme discreta, todos os n pontos amostrais que formam o domínio são equiprováveis. Neste
caso, temos:
1
pi = ¢
n
Se X apresenta distribuição uniforme nos inteiros consecutivos entre a e b (escrevemos X » U D(a, b, n)),
para a · b, então:
a+b
µ = ,
2
(b ¡ a + 1)2 ¡ 1
σ2 = ¢
12

Experimento de Bernoulli

A realização de um experimento que possui apenas dois resultados possíveis (dois pontos amostrais) é chamado
de tentativa de Bernoulli. Os resultados possíveis podem ser do tipo sucesso ou falha, cara ou coroa, zero ou um,
preto ou branco, ‡ip ou ‡op, ying ou yang, etc. Em geral, os dois resultados possíveis podem ser a ocorrência
ou não de um evento de interesse. Neste caso, p é a probabilidade de ocorrência do evento de interesse, a cada
realização do experimento, e q = 1 ¡ p é a probabilidade de não-ocorrência.
A grandeza que de ne o evento de interesse pode ser contínua, i.e., pode assumir mais do que dois valores.
Ainda assim, obtemos uma tentativa de Bernoulli ao de nir um valor limite ou crítico para a variável de interesse.
Exemplos:

1. cheia de um rio: o evento de interesse é a ultrapassagem do nível da barragem, em um determinado


período; os dois resultados possíveis são ultrapassagem e não ultrapassagem do nível;
2. terremoto de determinada intensidade;
3. presença ou não de uma molécula rara em uma amostra;
4. presença ou não de um defeito em um componente;
5. resposta certa ou errada a um teste.

Distribuição Binomial BN (n, p)

A repetição independente de um experimento com apenas dois resultados possíveis dá origem a uma sequência
Binomial ou de Bernoulli. Uma sequência de Bernoulli é caracterizada pelas seguintes condições:
A.3. MODELOS ANALÍTICOS DE FENÔMENOS ALEATÓRIOS 349

1. cada realização do experimento possui apenas dois resultados possíveis: ocorrência ou não ocorrência do
evento de interesse;
2. a probabilidade p de ocorrência do evento de interesse permanece constante nas n repetições;
3. as realizações são independentes, i.e., o resultado de uma realização não altera a probabilidade p da
próxima ou de qualquer outra realização.

Exemplo: se as máximas cheias anuais de um rio são independentes, e a probabilidade de exceder determinado
nível permanece constante a cada ano, então a cheia máxima anual ao longo de uma série de anos será uma
sequência de Bernoulli.
Uma sequência mista com n observações de ocorrências (o) ou não ocorrências (o) do evento de interesse é
obtida em n realizações independentes do experimento de Bernoulli. Por exemplo:

s = fo, o, o, o, o, o, o, o, o, o, o, o, og.

Como as tentativas são independentes, a probabilidade de que, em uma determinada sequência w apareçam x
ocorrências e n ¡ x não ocorrências é:

P [x ocorrências e n ¡ x não ocorrências ] = px q n¡x .

O número de possíveis sequências s que resultam em exatamente x ocorrências (e n ¡ x não ocorrências) em


qualquer ordem é igual ao número de combinações de x ocorrências em n realizações, ou combinação de n
objetos x a x: µ ¶
n n!
= ¢
x x!(n ¡ x)!

Como todas as sequências são equiprováveis, obtemos:

n!
P [fx ocorrências em n realizaçõesg] = pxq n¡x .
x!(n ¡ x)!

Uma variável aleatória X que conta o número x de ocorrências em n realizações deste experimento segue
uma distribuição Binomial com parâmetros n e p (escrevemos X » BN (n, p)). A função de densidade de
probabilidades de X é dada por:
n!
P [fX = xg] = P [fx ocorrências em n realizaçõesg] = px q n¡x . (A.26)
x!(n ¡ x)!

A função de distribuição cumulativa de probabilidades é dada por:


x
X n!
P [fX · xg] = pk q n¡k . (A.27)
k=0
x!(n ¡ x)!

O valor esperado e a variância de X são:

µ = np,
σ2 = npq. (A.28)

A distribuição Binomial possui a importante propriedade:

BN (n1 , p) + BN (n2 , p) = BN (n1 + n2 , p).


350 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

Quando mais de um resultado é possivel na realização do evento de Bernoulli, obtemos uma distribuição
multi-nomial.

Distribuição Geométrica G(p)

O experimento descrito na seção anterior, que dá origem à distribuição Binomial, representa sequências com um
número xo de realizações de Bernoulli independentes. A variável aleatória X que conta o número (variável)
de tentativas de Bernoulli até a primeira ocorrência do evento de interesse segue uma distribuição geométrica
com parâmetro p (X » G(p)). A função de densidade de probabilidades de X é dada por:

P [fX = xg] = pq x¡1 . (A.29)

A função de distribuição cumulativa de probabilidades é dada por:


x
X
P [fX · xg] = pq k¡1 . (A.30)
k=1

O valor esperado de X é calculado como:


1
X
µ= xpq x¡1 = p(1 + 2q + 3q 2 + ...).
x=1

1
Como q < 1, a série entre parenteses converge para p2 , de forma que:

1
µ= ¢ (A.31)
p

A variância de X é obtida como:


q
σ2 = ¢ (A.32)
p2

A contagem do número de tentativas até o primeiro sucesso não tem um ponto inicial xo ou determinado.
Como as tentativas são independentes, a contagem do número de tentativas pode iniciar em qualquer tentativa,
sem mudar a distribuição de probabilidades de X. Esta propriedade da distribuição geométrica é chamada de
propriedade da falta de memória.

O período de retorno - versão discreta

Em problemas envolvendo tempo (ou espaço), onde tempo (ou espaço) seja descrito de maneira discreta (em
termos de intervalos), o número de intervalos até a primeira ocorrência do evento de interesse é chamado de
tempo até a primeira ocorrência ( rst occurence time). Se o evento de interesse ocorre ao longo destes intervalos
como uma sequência de tentativas independentes de Bernoulli, então o tempo até a primeira ocorrência é uma
variável aleatória descrita por uma distribuição geométrica. Devido à propriedade da falta de memória, este é
também o tempo (aleatório) entre ocorrências sucessivas.
Sendo T o número de intervalos entre ocorrências sucessivas (ou até a primeira ocorrência), o assim chamado
período médio de recorrência ou período médio de retorno (mean recurrence time ou average return period ) é
dado pelo valor esperado (Eq. A.31):
1
E[T ] = µT = ¢
p
A.3. MODELOS ANALÍTICOS DE FENÔMENOS ALEATÓRIOS 351

É importante observar que µT é o tempo médio de retorno do evento de interesse, enquanto que T é o tempo
aleatório (em número de intervalos) entre ocorrências.
A probabilidade de não ocorrência do evento de interesse durante o tempo médio de retorno é:

P [fnão-ocorrência em µT intervalosg] = (1 ¡ p)µT . (A.33)

Para eventos raros (com pequena probabilidade de ocorrência p, ou grande período médio de retorno µT ), a
expansão do binômio em (A.33) resulta em:

P [fnão-ocorrência em µT intervalosg] = exp(¡pµT )


= exp(¡1) = 0, 368.

Portanto, a probabilidade de ocorrência do evento de interesse dentro do período de retorno é:

P [focorrência em µT intervalosg] = 1 ¡ 0, 368


= 0, 632 (para µT grande ou µT > 10 intervalos).

A versão contínua da distribuição geométrica é a distribuição exponencial, estudada na Seção (A.3.2). A


distribuição exponencial dá origem à versão contínua do período de retorno, também estudada na Seção (A.3.2).

Processo de Poisson e distribuição de Poisson P N (λ)

Quando uma sequência de Bernoulli ocorre ao longo de um contínuo (tempo ou espaço), com intervalos tendendo
a zero, número de tentativas de Bernoulli tendendo a in nito e probabilidade de ocorrência do evento de interesse
em cada tentativa tendendo a zero, temos um processo chamado de processo de Poisson. Neste processo, o evento
de interesse pode ocorrer a qualquer instante no tempo ou qualquer ponto no espaço, e mais de uma ocorrência
pode acontecer em qualquer intervalo de tempo (ou espaço). A variável aleatória que conta o número de
ocorrências do evento de interesse, em um determinado intervalo, segue uma distribuição de Poisson.
Exemplos de processos de Poisson são:

1. ocorrência de um terremoto a qualquer momento e em qualquer local em uma zona sujeita a abalos
sísmicos;
2. ocorrência de um defeito ao longo de um produto tre lado de aço ou em tecidos;
3. ocorrência de uma trinca ao longo de um cordão de solda;
4. ocorrência de um acidente a qualquer momento em uma estrada.

Formalmente, o processo de Poisson está baseado nas seguintes premissas:

1. o evento de interesse pode ocorrer aleatoriamente a qualquer instante no tempo e/ou em qualquer ponto
no espaço;
2. a ocorrência do evento em determinado intervalo (de tempo ou espaço) é independente da ocorrência em
qualquer outro intervalo não coincidente;
3. a probabilidade de ocorrência do evento em um pequeno intervalo ¢t é pequena e proporcional a ¢t, pode
ser calculada por υ¢t (onde υ é a taxa média de ocorrências), e a probabilidade de ocorrência de dois ou
mais eventos no pequeno intervalo ¢t é negligível.
352 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

É fácil perceber que estas premissas são consequência natural da convergência da sequência de Bernoulli em
um processo de Poisson.
Com n ! 1 e p ! 0 em uma sequência de Bernoulli, o número médio de ocorrências em um intervalo
de tempo (0, t) é dado por λ = np, uma constante maior do que zero que caracteriza o processo de Poisson.
Dividindo este número pelo tamanho do intervalo (t), obtemos a taxa média υ de ocorrências (no tempo ou
espaço) do evento de interesse:
λ
υ= ou λ = υt = np.
t
Podemos mostrar (Ang e Tang, 1975, pg. 116) que, no limite com n ! 1, a probabilidade P [fX = xg] na
Eq. (A.26) tende a:
(υt)x
P [fX = xg] = P [fx ocorrências em tg] = exp[¡υt]. (A.34)
x!
Esta vem a ser a função de densidade de probabilidades da variável aleatória X que descreve o número
de ocorrências do evento de interesse no intervalo de tamanho t. A função de distribuição cumulativa de
probabilidades é dada por:
Xx
(υt)k
P [fX · xg] = exp[¡υt]. (A.35)
k!
k=0

O valor esperado e a variância de X são:

µ = υt;
σ2 = υt. (A.36)

Na prática, a relação np = υt = λ, que dá origem à distribuição de Poisson é satisfeita com n = 50 para


p < 0, 1; ou com n = 100 para p < 0, 05. A distribuição de Poisson possui a importante propriedade, herdada
da distribuição Binomial:
P N (λ1 ) + P N (λ2 ) = P N (λ1 + λ2 ).

A variável aleatória que descreve o tempo entre ocorrências sucessivas em um processo de Poisson segue uma
distribuição exponencial, apresentada na Seção (A.3.2).

A.3.2 Variáveis aleatórias contínuas


Generalidades

Uma variável aleatória com domínio formado por um número in nito e incontável de pontos amostrais é do tipo
contínuo. Seja fX (x) a função de densidades de probabilidades de uma variável aleatória contínua X. A função
de probabilidades acumuladas é: Z x
FX (x) = fX (u)du.
¡1

O valor esperado e a variância são calculados por:


Z +1
µ = xfX (x)dx;
¡1
Z +1
σ2 = (x ¡ µ)2 fX (x)dx.
¡1
A.3. MODELOS ANALÍTICOS DE FENÔMENOS ALEATÓRIOS 353

Distribuição causal

A distribuição causal não é propriamente uma distribuição estatística. Ela é utilizada para representar, na
forma de uma variável aleatória contínua, um valor determinístico. As funções de probabilidade podem ser
escritas como:

fX (x) = δ(x0 ); ¡1 · x · 1;
FX (x) = H(x0 ); ¡1 · x · 1.

sendo δ(x0 ) a função delta de Dirac e H(x0 ) a função de Heaviside.


Os momentos da variável causal são µ = x0 e σ = 0. O único parâmetro é valor (determinístico) x0 .

Distribuição uniforme U (a, b)

A distribuição uniforme descreve eventos que são equiprováveis entre dois limites a e b. As funções de probabi-
lidade são:
1
fX (x) = ; a · x · b;
b¡a
x¡a
FX (x) = ; a · x · b.
b¡a
Os momentos são:
a+b
µ = ;
2
(b ¡ a)2
σ2 = ¢
12
Os parâmetros da distribuição são calculados diretamente dos momentos:
p
a = µ ¡ 3σ;
p
b = µ + 3σ.

Distribuição normal ou Gaussiana N (µ, σ)

A variável aleatória normal é talvez a mais conhecida e a mais utilizada. É também uma das distribuições mais
simples, pois os únicos dois parâmetros são os próprios momentos, média e desvio-padrão.
A função de densidades de probabilidade é:
" µ ¶2 #
1 1 x¡µ
fX (x) = p exp ¡ ; ¡1 · x · 1. (A.37)
σ 2π 2 σ

A função de distribuição cumulativa de probabilidades é:

Z " µ ¶2 #
x
1 1 z¡µ
FX (x) = p exp ¡ dz; ¡1 · x · 1. (A.38)
¡1 σ 2π 2 σ

Infelizmente, esta integral não possui solução analítica. Em geral, ela é resolvida numéricamente, e os
resultados utilizados para construir tabelas de referência (Apêndice E) ou aproximações polinômicas para FX (x)
354 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

(Apêndice F). Tais resultados são apresentados em termos de uma distribuição normal com média nula e desvio-
padrão unitário, chamada de distribuição normal padrão. Qualquer variável aleatória com distribuição normal
X » N (µ, σ) pode ser transformada em uma variável normal padrão Y , fazendo (Exemplo 30, pg. 370):
X ¡µ
Y = ¢ (A.39)
σ

Para a variável normal padrão Y , as funções de probabilidades são :


· 2¸
1 y
fY (y) = φ(y) = p exp ¡ ; ¡1 · y · 1; (A.40)
2π 2
Z y
FY (y) = ©(y) = φ(z)dz; ¡1 · y · 1. (A.41)
¡1

Uma tabela com valores da função ©(y) é apresentada no Apêndice E. No Apêndice F são apresentadas
aproximações polinômicas para a programação em computador da função ©(y) e sua inversa.
Para a variável aleatória X » N (µ, σ), a distribuição cumulativa de probabilidades FX (x) é determinada a
partir de ©(y): µ ¶
x¡µ
FX (x) = © .
σ

A distribuição normal descreve erros ou desvios em processos produtivos ou de fabricação. Intervalos de


con ança são de nidos em termos do fator k, um múltiplo de desvios-padrão, conforme Figura A-2:
Z k
P [xinf · x · xsup ] = P [µ ¡ kσ · x · µ + kσ] = φ(y)dy
¡k
= © (k) ¡ © (¡k) .

Os limites são utilizados como ltros em controle de qualidade de produção. Para uma con ança de 95,5%,
por exemplo, componentes com dimensões xi < µ ¡ 2σ ou xi > µ + 2σ são descartados. Isto evita que variações
excessivas devidas às tolerâncias dimensionais comprometam o funcionamento de uma máquina ou equipamento
formada por grande número de componentes.

Distribuição log-normal LN (λ, ξ)

Se uma variável Y tem distribuição normal, então a variável X = exp[Y ] tem distribuição log-normal (X »
LN (λ, ξ)). As funções de probabilidade são:
" µ ¶ #
1 1 ln(x) ¡ λ 2
fX (x) = p exp ¡ , 0 · x · 1;
ξx 2π 2 ξ
· ¸
ln(x) ¡ λ
FX (x) = © , 0 · x · 1. (A.42)
ξ

Os momentos de uma variável log-normal são:

µ = exp[λ + 0.5ξ 2 ],
q¡ ¢
σ = µ exp[ξ 2 ] ¡ 1 .
A.3. MODELOS ANALÍTICOS DE FENÔMENOS ALEATÓRIOS 355

Figura A-2: Probabilidades associadas aos diferentes intervalos de con ança, distribuição normal.

e os parâmetros são calculados a partir dos momentos por:

λ = ln(µ) ¡ 0.5ξ 2 ,
p
ξ = ln (1 + (σ/µ)2 ). (A.43)

Para coe ciente de variação δ = σ/µ . 0, 3, pode-se aproximar ξ ¼ δ.

Distribuição exponencial EXP (υ)

Quando um evento ocorre ao longo de um contínuo como o tempo (ou espaço), segundo um processo de Pois-
son, o tempo (aleatório) até a primeira ocorrência (T1 ), e o tempo entre ocorrências (T ), seguem distribuição
exponencial. O evento fT > tg representa nenhuma ocorrência no intervalo de tamanho t. Logo, da Eq. (A.34)
obtemos:
P [fT > tg] = P [fX = 0g] = exp(¡υt).
Sendo assim, a função de distribuição cumulativa de probabilidades de T é dada por:

FT (t) = P [fT · tg] = 1 ¡ exp[¡υt], t ¸ 0. (A.44)

Derivando em relação a t, obtemos a função de densidades:

dFT (t)
fT (t) = = υ exp[¡υt], t ¸ 0. (A.45)
dt

A distribuição exponencial possui um único parâmetro, que é a taxa média (no tempo ou espaço) de ocor-
356 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

rência de eventos (υ). Quando esta taxa é constante no tempo, os momentos estatísticos são:
1
µT = ,
υ
1
σT = ¢ (A.46)
υ

A distribuição exponencial é a análoga contínua da distribuição geométrica. Devido à falta de memória do


processo de Poisson, o tempo entre ocorrências é também igual ao tempo até a primeira ocorrência. O tempo de
retorno T é análogo contínuo ao tempo de retorno discreto (pg. 350). Assim, µT vem a ser o período médio de
retorno para eventos que ocorrem ao longo de um contínuo. Note como µ = υ1 se compara com 1p na sequência
de Bernoulli (Eq. A.31).

Distribuição exponencial deslocada EXP (υ, ε)

O processo de Poisson que dá origem à distribuição exponencial (seção anterior) tem seu início no instante t = 0.
Uma situação mais geral é aquela de um processo que inicia no instante t = ε. A variável aleatoria resultante, que
descreve o tempo até a primeira ou entre ocorrências a partir do instante ε, segue uma distribuição exponencial
deslocada. Se X » EXP (υ, ε), então as funções de probabilidade são:

fX (x) = υ exp[¡υ (x ¡ ε)], ε · x · 1;


FX (x) = 1 ¡ exp[¡υ (x ¡ ε)], ε · x · 1.

Os momentos da distribuição exponencial deslocada cam:


1
µ = + ε,
υ
1
σ = ¢
υ
e os parâmetros podem ser calculados a partir dos momentos por:
1
υ =,
σ
ε = µ ¡ σ.

Distribuição Rayleigh deslocada RAY(η, ε)

As funções de densidade e cumulativa de probabilidades são:


" µ ¶2 #
(x ¡ ε) 1 x¡ε
fX (x) = exp ¡ , ε · x · 1;
η2 2 η
" µ ¶2 #
1 x¡ε
FX (x) = 1 ¡ exp ¡ , ε · x · 1. (A.47)
2 η
A.3. MODELOS ANALÍTICOS DE FENÔMENOS ALEATÓRIOS 357

Figura A-3: Distribuições PDF e CDF de variável aleatória clipada com p = 0, 1 e q = 0, 9.

Os momentos estatísticos são obtidos dos parâmetros como:


r
π
µ = η + ε,
2
r
π
σ = η 2¡ .
2

Os parâmetros são calculados a partir dos momentos como:


σ
η p
= ,
2 ¡ π2
r
π
ε = µ¡η ¢
2

A.3.3 Variáveis aleatórias do tipo misto


Uma variável aleatória do tipo misto (também chamada de clipada) X é obtida a partir de uma variável aleatória
contínua Z, estritamente positiva, de nindo:

p = P [fX = 0g],
q = P [fX > 0g],

conforme Figura (A-3). As funções de distribuição de probabilidades de X são obtidas a partir das distribuições
de Z:

FX (x) = pH(0) + qFZ (x),


fX (x) = pδ(0) + q fZ (x),

sendo δ(x) a função delta de Dirac e H(x) a função degrau de Heaviside.


358 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

A.4 DISTRIBUIÇÃO CONJUNTA DE PROBABILIDADES


Na seção anterior, consideramos problemas envolvendo variáveis aleatórias individuais. Nesta seção, estudamos
as características e propriedades de conjuntos de variáveis aleatórias, iniciando com duas e generalizando para
número qualquer de variáveis aleatórias.

A.4.1 Função conjunta de distribuição cumulativa de probabilidades


Sejam duas variáveis aleatórias X e Y. Os conjuntos fX · xg e fY · yg formam eventos cujas probabilidades
são dadas por:

P [fX · xg] = FX (x),


P [fY · yg] = FY (y),

sendo FX (x) e FY (y) as funções de distribuição cumulativa de probabilidades das variáveis X e Y.


A intersecção destes dois conjuntos forma um evento:

fX · xgfY · yg = fX · x, Y · yg.

A probabilidade deste evento, que é função de x e y, é a função conjunta de distribuição cumulativa de proba-
bilidades:
FXY (x, y) = P [fX · x, Y · yg]. (A.48)

Neste contexto, e para evidenciar a diferença entre estas funções, as distribuições FX (x) e FY (y) são
chamadas de distribuições marginais de probabilidades. Em geral, a distribuição FXY (x, y) não pode ser deter-
minada a partir das distribuições marginais FX (x) e FY (y). Isto ocorre porque a função FXY (x, y) estabelece
características de comportamento conjunto das variáveis X e Y, que não estão presentes nas funções FX (x) e
FY (y). Por exemplo, a probabilidade descrita na Eq. (A.48) muda se as variáveis X e Y forem dependentes
ou independentes. Ainda assim, podemos fazer algumas observações sobre FXY (x, y), conforme segue. Como
fy · 1g é um evento certo, temos que:

fX · x, Y · 1g = fX · xg,
fX · 1, Y · yg = fY · yg.

Portanto, a seguinte relação entre distribuições conjuntas e marginais pode ser escrita:

FXY (x, 1) = FX (x),


FXY (1, y) = FY (y).

Mais ainda, como fX · 1, Y · 1g é um evento certo, temos que:

FXY (1, 1) = 1,

e, de maneira equivalente:
FXY (¡1, ¡1) = 0.
A.4. DISTRIBUIÇÃO CONJUNTA DE PROBABILIDADES 359

A.4.2 Função conjunta de densidades de probabilidades


Se a função FXY (x, y) possui derivadas parciais até segunda ordem, então a função:

∂ 2 FXY (x, y)
fXY (x, y) =
∂x∂y

é a função conjunta de densidades de probabilidades das variável aleatória X e Y. Por analogia à Eq. (A.12),
podemos escrever:
P [fx · X · x + ¢x, y · Y · y + ¢yg]
fXY (x, y) = lim ,
¢x!0 ¢x¢y
¢y!0
e:
fXY (x, y) ¸ 0 para todo (x, y) 2 R2 .

Para elementos diferenciais dx e dy, podemos escrever:

fXY (x, y)dxdy = P [fx · X · x + dx, y · Y · y + dyg]. (A.49)

A função conjunta de densidade de probabilidades para duas variáveis X e Y é ilustrada na Figura (A-4).

A.4.3 Conteúdo de probabilidade para um domínio D qualquer


Seja D uma região do plano xy formada por somas e/ou produtos de intervalos (eventos) de nidos nas variáveis
x e y. O evento f(x, y) 2 Dg corresponde a todas as realizações w tais que o ponto de coordenadas x(w),
y(w) está dentro da região D. O evento f(x, y) 2 Dg pode ser escrito como o limite de uma soma de eventos
mutuamente exclusivos da forma:

fx · X · x + dx, y · Y · y + dyg,

tal que: ZZ
P [f(x, y) 2 Dg] = fXY (x, y)dxdy. (A.50)
D

Esta quantidade também pode ser interpretada como a massa de probabilidades na região D.

A.4.4 Funções marginais de probabilidades


Com a formulação apresentada acima, a função marginal de distribuição cumulativa de probabilidades da variável
X pode ser escrita como: Z Z +1 x
FX (x) = FXY (x, 1) = fXY (u, v)dudv. (A.51)
¡1 ¡1

De maneira semelhante, temos:


Z y Z +1
FY (y) = FXY (1, y) = fXY (u, v)dudv. (A.52)
¡1 ¡1

Derivando a Eq. (A.51) em relação a x, e a Eq. (A.52) em relação a y, obtemos a relação entre as densidades
360 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

de probabilidades conjuntas e marginais:


Z +1
fX (x) = fXY (x, y)dy, (A.53)
¡1
Z +1
fY (y) = fXY (x, y)dx. (A.54)
¡1

As funções marginais de densidade de probabilidades para duas variáveis X e Y são ilustradas na Figura
(A-4).

A.4.5 Funções condicionais de probabilidades


Seja a condição fX = xg tal que fX (x) 6= 0. A distribuição condicional de Y, dado que fX = xg, é dada pelo
limite:

FY (yjX = x) = lim FY (yjx · X · x + ¢x)


¢x!0
FXY (x + ¢x, y) ¡ FXY (x, y)
= lim
¢x!0 FX (x + ¢x) ¡ FX (x)
∂FXY (x,y)
∂x
= dFX (x)
¢
dx

Portanto: Ry Ry
¡1
fXY (x, v)dv fXY (x, v)dv
FY (yjX = x) = = R ¡1
+1 ¢ (A.55)
fX (x) fXY (x, y)dy
¡1

Derivando em relação a Y obtemos:


fXY (x, y) fXY (x, y)
fY (yjX = x) = = R +1 ¢ (A.56)
fX (x) fXY (x, y)dy
¡1

Este resultado pode ser generalizado para a condição fY = yg, resultando:

fXY (x, y) fXY (x, y)


fX (xjY = y) = = R +1 ¢ (A.57)
fY (y) fXY (x, y)dx
¡1

Note a semelhança destas expressões com a Eq. (A.5).

A.4.6 Teorema da probabilidade total (versão contínua)


Reunindo resultados anteriores, temos das Eqs. (A.54) e (A.56) que:
Z +1
fY (y) = fXY (x, y)dx,
¡1
fXY (x, y) = fY (yjX = x)fX (x).

Combinando as duas equações, segue que:


Z +1
fY (y) = fY (yjX = x)fX (x)dx. (A.58)
¡1
A.4. DISTRIBUIÇÃO CONJUNTA DE PROBABILIDADES 361

Figura A-4: Função de densidade conjunta e funções marginais de duas variáveis aleatórias.

Este resultado mostra que, para eliminar a condição fX = xg, basta multiplicar pela função fX (x) e integrar
em x.
Combinando agora as Eqs. (A.56) e (A.57), obtemos uma versão contínua do Teorema de Bayes:

fX (xjY = y)fY (y)


fY (yjX = x) = ¢
fX (x)

Compare este resultado com a Eq. (A.7).

A.4.7 Variáveis aleatórias independentes


De nição 5 Duas variáveis aleatórias X e Y são ditas independentes se os eventos fX · xg e fY · yg são
independentes para qualquer (x, y) 2 R2 , de forma que:

P [fX · x, Y · yg] = P [fX · xg]P [fY · yg] (A.59)

Como consequência, temos que:

FXY (x, y) = FX (x)FY (y);


fXY (x, y) = fX (x)fY (y);
fY (yjX = x) = fY (y);
fX (xjY = y) = fX (x). (A.60)

A.4.8 Covariância
Quando duas ou mais variáveis estão de nidas no mesmo espaço de probabilidades, é importante descrever como
elas variam conjuntamente. Uma medida linear da dependência entre duas variáveis aleatórias é a covariância,
de nida como:
Cov[X, Y ] ´ E[(X ¡ µX )(Y ¡ µY )]. (A.61)
362 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

Este resultado também pode ser dado por:

Cov[X, Y ] = E[(X ¡ µX )(Y ¡ µY )]


Z +1 Z +1
= (x ¡ µX )(y ¡ µY )fXY (x, y)dxdy
¡1 ¡1
Z +1 Z+1
= (xy ¡ yµX ¡ xµY + µX µY )fXY (x, y)dxdy
¡1 ¡1
Z +1 Z +1
xyfXY (x, y)dxdy ¡ µY µX ¡ µX µY + µX µY
¡1 ¡1
= E[XY ] ¡ µX µY . (A.62)

Note ainda que a covariância de uma variável aleatória com ela mesma corresponde à variância desta variável:

Cov[X, X] = E[(X ¡ µX )2 ] = V ar[X].

Uma medida adimensional da covariância entre duas variáveis aleatórias é dada pelo coe ciente de correlação:

Cov[X, Y ]
ρXY = ¢ (A.63)
σX σ Y
Este coe ciente adimensional varia entre os valores:

¡1 · ρXY · 1.

O valor ρXY = 1 implica correlação positiva e perfeita. O valor ρXY = ¡1 implica correlação negativa e
perfeita.
A Figura (A-5) ilustra diferentes possibilidades de covariância entre variáveis aleatórias, representadas pelo
coe ciente de correlação. Observe que a covariância implica dependência entre duas variáveis aleatórias, mas
covariância nula não implica em independência, conforme ilustrado na gura. Covariância é um caso especial
de dependência linear, sendo outras formas de dependência também possíveis.

Exemplo 26 Seja Y = g(X). Existe uma relação funcional de dependência entre as variáveis X e Y. No
entanto, se a função g(.) for altamente não linear, então a covariância de X e Y é nula!

A.4.9 Momentos conjuntos de ordem arbitrária de duas variáveis aleatórias


Os momentos conjuntos de ordem arbitrária de duas variáveis aleatórias X e Y são de nidos como:
Z +1 Z +1
E[X k Y n ] ´ xk yn fXY (x, y)dxdy = µkn .
¡1 ¡1

A soma k + n corresponde à ordem do momento conjunto. Os momentos de segunda ordem µ20 e µ02 corre-
spondem ao segundo momento das variáveis X e Y, respectivamente. O momento de segunda ordem µ11 é de
A.4. DISTRIBUIÇÃO CONJUNTA DE PROBABILIDADES 363

Figura A-5: Exemplos de covariância (dependência linear) entre duas variáveis aleatórias.
364 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

particular importância: Z Z
+1 +1
µ11 = E[XY ] = xyfXY (x, y)dxdy,
¡1 ¡1

pois está relacionado com a covariância (Eq. A.62):

E[XY ] = Cov[X, Y ] + µX µY .

Os momentos centrais de ordem arbitrária são de nidos como:

mkn = E[(X ¡ µX )k (Y ¡ µY )n ]
Z +1 Z +1
= (x ¡ µX )k (y ¡ µY )n fXY (x, y)dxdy
¡1 ¡1

Os momentos centrais de segunda ordem m20 e m02 correspondem às variâncias de X e Y, respectivamente. O


momento central de segunda ordem m11 corresponde à covariância, como pode ser observado na Eq. (A.61).

A.4.10 Distribuição normal bi-variada


Uma distribuição conjunta de probabilidades muito importante é a distribuição normal bi-variada, bem como
sua versão multi-variada, apresentada na sequência. Sejam µX1 , µX2 , σ X1 e σX2 os momentos marginais das
variáveis aleatórias X1 e X2 ; e seja ρ o coe ciente de correlação entre X1 e X2 (Eq. A.63). A distribuição
normal bivariada é dada por:
" ¡ ¢#
1 ¡ 12 y12 + y22 ¡ 2ρy1 y2
fX1 X2 (x1 , x2 , ρ) = exp , ¡ 1 · (x1 , x2 ) · +1.
2πσX1 σX2 (1 ¡ ρ2 )1/2 1 ¡ ρ2

Nesta expressão, as variáveis y1 e y2 resultam da transformação de Hasofer-Lind (Eq. A.39), ou seja, para
Xi » N (µ, σ) com distribuição normal, Yi » N (0, 1) tem distribuição normal padrão. A distribuição normal
padrão bi-variada é dada por:
" ¡ ¢#
1 ¡ 12 y12 + y22 ¡ 2ρy1 y2
φ2 (y1 , y2 , ρ) = exp , ¡ 1 · (y1 , y2 ) · +1. (A.64)
2π(1 ¡ ρ2 )1/2 1 ¡ ρ2

Estas distribuições estão representadas na Figura A-6.


Os momentos condicionais são obtidos como:
σX2
E[X2 jX1 = x1 ] = µX2 jX1 = µX2 + ρ (x1 ¡ µX1 );
σX1
V ar[X2 jX1 = x1 ] = σ2X2 jX1 = σ 2X2 (1 ¡ ρ2 );
Cov[X1 , X2 ] = ρσX1 σ X2 .

Para ρ = 0, as distribuições marginais de probabilidades são obtidas a partir da Eq. (A.53):


Z +1
fXi (xi ) = fX1 X2 (x1 , x2 )dxi
¡1
" µ ¶2 #
1 1 xi ¡ µXi
= p exp ¡ , i = 1, 2.
2πσXi 2 σXi

Veri ca-se que as distribuições marginais também são normais (Eq. A.37). Este resultado também é válido
A.4. DISTRIBUIÇÃO CONJUNTA DE PROBABILIDADES 365

Figura A-6: Curvas de nível da distribuição normal padrão bivariada.

para ρ 6= 0, mas a veri cação não é tão óbvia.


Para ρ = 0, as variáveis aleatórias X1 e X2 não tem correlação (dependência linear). Podemos veri car
facilmente que, neste caso:
fX1 X2 (x1 , x2 ) = fX1 (x1 )fX2 (x2 )
o que, por meio da Eq. (A.60), mostra que as variáveis também são independentes. Este resultado só é válido
para variáveis aleatórias com distribuição conjunta normal. O resultado também é válido para as variáveis
normais padrão Y : quando ρ = 0, φ2 (y1 , y2 ) = φ(y1 )φ(y2 ); logo, as variáveis Y1 e Y2 são independentes.
A função cumulativa normal bivariada é dada por:
Z x1 Z x2
FX1 X2 (x1 , x2 , ρ) = fX1 X2 (u, v, ρ)dudv, ¡ 1 · (x1 , x2 ) · +1.
¡1 ¡1

Como no caso escalar, esta expressão não tem solução analítica. Seus valores podem ser determinados a partir
de resultados existentes (Owen, 1956; Melchers e Beck, 2018, Apêndice C) para a função cumulativa normal
padrão bivariada, usando a Eq. (A.39):
Z y1 Z y2
FX1 X2 (x1 , x2 , ρ) = ©2 (y1 , y2 , ρ) = φ2 (u, v, ρ)dudv, ¡ 1 · (y1 , y2 ) · +1. (A.65)
¡1 ¡1

A.4.11 Problemas em Rn
Até este ponto neste texto, consideramos variáveis aleatórias escalares e distribuições conjuntas de pares de va-
riáveis aleatórias. Problemas de con abilidade estrutural envolvem muitas variáveis aleatórias, as vezes centenas
e até milhares. Portanto, é conveniente formular e resolver estes problemas utilizando vetores e matrizes. Nesta
seção introduzimos a notação utilizada para lidar com problemas envolvendo variáveis aleatórias em Rn .
Um conjunto de variáveis aleatórias fX1 , X2 , ..., Xn g pode ser representado por um vetor X 2 Rn , tal que
X =fX1 , X2 , ..., Xn gt , onde o expoente ( )t indica transposto (vetor-coluna). Neste material, representamos
vetores em negrito, de forma que X representa um vetor de variáveis aleatórias. Uma realização deste vetor
corresponde a uma realização de cada uma das variáveis aleatórias que o compõe, o que é representada pelo
evento fX = xg. A função conjunta de distribuição cumulativa de probabilidades ca:

FX (x) = P [fX · xg] = P [fX1 · x1 , X2 · x2 , ..., Xn · xn g] = P [\ni=1 fXi · xi g].


366 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

A função densidade de probabilidades conjunta é dada por:

fX (x) = fX1 X2 ...Xn (x1 , x2 , ..., xn ).

Os momentos estatísticos também são dados em forma vetorial. O vetor de médias é:


© ªt
¹X = ¹ = µX1 , µX2 , ..., µXn . (A.66)

A matriz de covariâncias CX (Eq. A.61) é dada por:


2 3
σ2X1 ρX1 X2 σX1 σX2 ... ρX1 Xn σ X1 σXn
h i 6 ρX X σX1 σX2 σ2X2 ... ρX2 Xn σ X2 σXn 7
CX = E[(Xi ¡ µXi )(Xj ¡ µXj )] i=1,...,n = 6
4
1 2 7 . (A.67)
5
j=1,...n
... ... ... ...
2
simétrica ... ... σXn

A matriz de covariâncias CX pode ser “decomposta” em uma matriz diagonal de desvios padrão D:
2 3
σX1 0 ... 0
h i 6 0 σ X2 ... 0 7
D = V ar[Xi ]1/2 =6
4
7, (A.68)
n£n,i=1,...,n ... ... ... ... 5
0 0 ... σXn

e em uma matrix de correlação RX (Eq. A.63):


2 3
1 ρX1 X2 ... ρX1 Xn
h i 6 ρX X 1 ... ρX2 Xn 7
RX = ρXi Xj =6 1 2
4 ...
7. (A.69)
n£n,i=1,...,n ... ... ... 5
ρX1 Xn ρX2 Xn ... 1

A.4.12 Distribuição normal multi-variada


Em problemas de con abilidade estrutural, a função de densidade de probabilidades conjunta fX (x) é construída
a partir da função de densidades normal multi-variada, que pode ser expressa como:
· ¸
¡n/2 ¡1/2 1 t ¡1
fX (x, CX ) = (2π) det[CX ] exp ¡ (x ¡ ¹X ) CX (x ¡ ¹X ) , ¡ 1 · x · +1,
2

sendo C¡1
X a inversa da matriz de covariância. A função cumulativa normal multi-variada é dada por:
Z x1 Z xn
FX (x, CX ) = P [\ni=1 fXi · xi g] = ... fX (v, CX )dv, ¡ 1 · x · +1.
¡1 ¡1

As funções equivalentes, envolvendo variáveis aleatórias normais-padrão com matriz de correlação RY , são:

· ¸
1
φn (y, RY ) = (2π)¡n/2 det[RY ]¡1/2 exp ¡ yt (R¡1
Y )y , ¡ 1 · y · +1, (A.70)
2
Z y1 Z yn
©n (y, RY ) = ... φn (v, RY )dv, ¡ 1 · y · +1. (A.71)
¡1 ¡1

sendo R¡1
Y a inversa da matriz de correlação. Como os coe cientes de correlação são adimensionais, resulta
A.5. FUNÇÕES DE UMA VARIÁVEL ALEATÓRIA 367

Figura A-7: Função de uma variável aleatória.

que RY = RX . Alguns resultados analíticos e propriedades da função cumulativa normal padrão bivariada são
dados em (Owen, 1956; Melchers e Beck, 2018, Apêndice C). Se as variáveis Y são independentes (RY = I), a
Eq. (A.70) se reduz a: · ¸
1
φn (y) = (2π)¡n/2 exp ¡ yt y . (A.72)
2
Esta distribuição possui importantes propriedades de simetria e decaimento exponencial em relação à origem,
que são exploradas nas soluções do problema de con abilidade estrutural via métodos de transformação (FOSM
e FORM, Capítulo 3).

A.5 FUNÇÕES DE UMA VARIÁVEL ALEATÓRIA


Na resolução de problemas envolvendo variáveis aleatórias, frequentemente encontramos relações funcionais
envolvendo estas variáveis, por exemplo a relação Y = g(X). Claramente, Y é uma variável aleatória que
depende funcionalmente de X. Tanto o domínio de Y como suas funções de probabilidades são de nidos pela
variável aleatória independente X e pela função g( ). Nesta seção, estudamos como estabelecer as estatísticas
de uma variável aleatória dependente Y .

A.5.1 Conceito de função de uma variável aleatória


Seja uma variável aleatória real X(w). A cada ponto amostral w é atribuído um número real x. O domínio da
variável aleatória X é o espaço amostral ­ e sua imagem é um conjunto IX de números reais.
Seja uma função real g(x) de nida pelo menos para cada x 2 IX . A função Y = g(X) é de nida para cada
realização w como:
Y (w) = g(X(w)).
Logo, o domínio de g(X) é o espaço amostral ­, e a imagem de g( ) é (outro) conjunto de números reais (IY ),
conforme ilustrado na Figura (A-7).
368 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

A.5.2 Determinação da função de distribuição de Y = g(X)


Seja Gy o conjunto dos números reais x tais que g(x) · y :

x 2 Gy se e somente se g(x) · y.

Logo, o evento fY · yg é igual ao evento fX 2 Gy g e:

FY (y) = P [fY · yg] = P [fX 2 Gy g].

Logo, para determinar FY (y) para um valor y dado, devemos encontrar o conjunto Gy e a probabilidade do
evento fX 2 Gy g.

y¡b
Exemplo 27 Seja Y = aX + b, a > 0. Neste caso, temos que ax + b · y para x · a , portanto Gy é o
conjunto Gy = (¡1, y¡b
a ). Logo:
µ ¶
y¡b y¡b
FY (y) = P [fY · yg] = P [fX · g] = FX ,
a a
ou: µ ¶
y¡b
FY (y) = FX .
a

Função monotonicamente crescente ou decrescente

Se Y = g(X) é uma função monotonicamente crescente ou monotonicamente decrescente, o conjunto Gy é


simplesmente conexo e a função de distribuição de probabilidades fY (y) pode ser facilmente determinada.
Observamos na Figura A-8 que as probabilidades:

fX (x)dx = P [fx · X · x + dxg],


fY (y)dy = P [fy · Y · y + dyg],

são iguais, o que permite escrever:


fX (x)dx = fY (y)dy,
ou:
dx fX (x)
fY (y) = fX (x) = 0 ,
dy g (x)
dy dy
sendo dx
= g0 (x). Se a função g(X) é monotonicamente decrescente, então dx
< 0, e portanto devemos escrever:

dx fX (x)
fY (y) = ¡fX (x) =¡ 0 ¢
dy g (x)

Estes dois resultados podem ser agrupados em um, escrevendo:

dx fX (x)
fY (y) = fX (x) = 0 ¢ (A.73)
dy jg (x)j
A.5. FUNÇÕES DE UMA VARIÁVEL ALEATÓRIA 369

Figura A-8: Função monotonicamente crescente.

Figura A-9: Função não-monotônica.

Generalização para número nito de raízes

O resultado acima pode ser generalizado para funções não-monotônicas com número nito de raízes, sendo
necessário para isto resolver a equação Y = g(X) para X. Sejam x1 , x2 , ..., xn raízes reais, tais que y = g(x1 ) =
g(x2 ) = ... = g(xn ) (Figura A-9). Generalizando o resultado expresso na Eq. (A.73), temos:

fX (x1 ) fX (x2 ) fX (xn )


fY (y) = 0
+ 0 + ... + 0 ,
jg (x1 )j jg (x2 )j jg (xn )j
sendo:
dg(x)
g0 (x) = ¢
dx

y¡b
Exemplo 28 Seja Y = g(X) = aX + b, a > 0. Resolvendo para x temos x = a . Com g0 (x) = a, obtemos:
µ ¶
1 y¡b
fY (y) = fX .
a a

Compare este resultado com o resultado do Exemplo (27), e note que poderia ser obtido diretamente
derivando em relação a y.
370 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

p p
Exemplo 29 Seja Y = g(X) = aX 2 , a > 0. As raízes são: x1 = + ya e x2 = ¡ ya . As derivadas são:
p p
g 0 (x1 ) = 2ax1 = 2 ay e g0 (x2 ) = 2ax2 = ¡2 ay. Para y < 0 não há solução, logo fY (y) = 0 para y < 0.
Portanto, a solução resulta:
· µ r ¶ µ r ¶¸
1 y y
fY (y) = p fX + + fX ¡ para y ¸ 0
2 ay a a
= 0 para y < 0.

Exemplo 30 Transformação de Hasofer e Lind: Seja X uma variável aleatória com distribuição normal e
parâmetros X » N (µ, σ) e distribuição dada pela Eq. (A.37). Para a função Y = g(X) = X¡µ
σ , queremos
determinar a distribuição fY (y).
Resolvendo para x obtemos x = σy + µ e:
dy 1
g 0 (x) = = ¢
dx σ
Utilizando as Eqs. (A.37 e A.73), obtemos:
" µ ¶2 #
fX (x) 1 jσj 1 σy + µ ¡ µ
fY (y) = =p exp ¡
jg0 (x)j 2π σ 2 σ
· 2¸
1 y
= p exp ¡ .
2π 2

Esta é uma distribuição normal com média nula e desvio-padrão unitário, conforme argumentado
na Seção (A.3.2).

Exemplo 31 Relação normal - log-normal: Seja X uma variável aleatória log-normal com parâmetros
X » LN (λ, ξ). Queremos determinar a distribuição de probabilidades de Y = ln[X]. Primeiramente,
obtemos:

x = exp[y],
dx 1
= = exp[y].
dy g 0 (x)

A partir de: " µ ¶2 #


1 1 ln(x) ¡ λ
fX (x) = p exp ¡ ,
ξx 2π 2 ξ
A.5. FUNÇÕES DE UMA VARIÁVEL ALEATÓRIA 371

e da Eq. (A.73), obtemos:


" µ ¶2 #
exp[ln[x]] 1 y¡λ
fY (y) = p exp ¡
ξx 2π 2 ξ
" µ ¶2 #
1 1 y ¡λ
= p exp ¡ ,
ξ 2π 2 ξ

o que representa uma distribuição normal com media λ e desvio-padrão ξ. Deste resultado, resulta também
que:

E[Y ] = E[ln[X]] = λ,
V ar[Y ] = V ar[ln[X]] = ξ 2 .

A.5.3 Momentos de uma função de uma variável aleatória


Nem sempre é fácil ou mesmo possível determinarmos as funções de probabilidades de uma função de uma
variável aleatória. Ainda assim, muitas vezes pode ser útil determinarmos pelo menos os momentos desta
função.
Seja a função Y = g(X). Como Y depende funcionalmente de X, o valor esperado e a variância da variável
aleatória Y são obtidos como:
Z +1 Z +1
E[Y ] = yfY (y)dy = g(x)fX (x)dx, (A.74)
¡1 ¡1
Z +1
V ar[Y ] = E[(Y ¡ E[Y ])2 ] = (g(x) ¡ E[Y ])2 fX (x)dx. (A.75)
¡1

Quando a função de densidades de probabilidades da variável X é conhecida, podemos usar as Eqs. (A.74
e A.75) para determinar os momentos de g(X). No entanto, este nem sempre é o caso. Muitas vezes queremos
determinar os momentos de g(X), conhecidos apenas os momentos da variável X. Nestas situações, aproximações
para os momentos de g(X) podem ser obtidas. Considere, por exemplo, que a função g(x) seja aproximadamente
constante na vizinhança da média µX . Da Eq. (A.74), obtemos:
Z +1
E[Y ] = E[g(X)] ¼ g(µX ) fX (x)dx = g(µX ). (A.76)
¡1

Esta é uma primeira aproximação para o valor esperado E[g(X)], que pode ser interpretada como: “a média da
função é aproximadamente igual à função avaliada na média!”. Aproximações de mais alta ordem podem ser
obtidas a partir de uma expansão em série de Taylor da função Y = g(X) em torno do ponto médio µX :

g00 (µX )(X ¡ µX )2


g(X) ¼ g(µX ) + g0 (µX )(X ¡ µX ) + + .... (A.77)
2
372 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

Aproximação de primeira ordem:

Mantendo apenas o termo de primeira ordem e aplicando o operador valor esperado, obtemos:

E[Y ] ¼ E[g(µX )] + g 0 (µX )E[(X ¡ µX )]


= g(µX ). (A.78)

Aplicando o operador variância, obtemos:

V ar[Y ] ¼ E[g(X)2 ] ¡ E 2 [g(X)]


= E[(g(µX ) + g0 (µX )(X ¡ µX ))2 ] ¡ g(µX )2
= E[g(µX )2 + 2g(µX )g0 (µX )(X ¡ µX ) + g 0 (µX )2 (X ¡ µX )2 ] ¡ g(µX )2
= E[(X ¡ µX )2 ]g0 (µX )2
= V ar[X]g0 (µX )2
à ¯ !2
dg(x) ¯¯
= V ar[X] . (A.79)
dx ¯µX

Aproximação de segunda ordem:

Considerando agora mais um termo (o termo de segunda ordem) na expansão (Eq. A.77), e aplicando o operador
valor esperado:

g00 (µX )(X ¡ µX )2


E[Y ] ¼ E[g(µX )] + E[g0 (µX )(X ¡ µX )] + E[ ]
2
V ar[X] 00
= g(µX ) + g (µX )
2 ¯
V ar[X] d2 g(x) ¯¯
= g(µX ) + . (A.80)
2 dx2 ¯µX

Podemos mostrar que a variância da aproximação de segunda ordem, utilizando a Eq. (A.77), resulta:
à ¯ !2 à ¯ !2
dg(x) ¯¯ V ar[X]2 d2 g(x) ¯¯
V ar[Y ] ¼ V ar[X] ¡
dx ¯µX 4 dx2 ¯µX
¯ Ã ¯ !2
2 ¯
3 dg(x) d g(x) ¯ E[(X ¡ µX )4 d2 g(x) ¯¯
+E[(X ¡ µX ) ] + ] . (A.81)
dx dx2 ¯µX 4 dx2 ¯µX

Portanto, a aproximação de segunda ordem da variância de Y envolve a avaliação de momentos de terceira e


quarta ordem das variáveis X. Estes momentos raramente são conhecidos. Sendo assim, é comum trabalharmos
com estimativa de segunda ordem para a média (Eq. A.80) e com estimativa de primeira ordem para a variância
(Eq. A.79).

A.5.4 Estimador linear ótimo


Sejam duas variáveis aleatórias X e Y , com médias e variâncias conhecidas, dadas por µX , µY , σ 2X e σ2Y .
As variáveis podem ser dependentes, como ilustrado na Figura (A-10). Queremos determinar as estatísticas
A.5. FUNÇÕES DE UMA VARIÁVEL ALEATÓRIA 373

atualizadas de Y , com base na observação X = x, ou a expectativa condicional de Y , dada observação x:

Yb = E[Y jX = x] = g(x). (A.82)

Antes da observação ser realizada, seu resultado não é conhecido; logo, a equação de previsão pode ser entendida
como uma função da variável aleatória X:

Yb = E[Y jX] = g(X).

O estimador linear corresponde a uma função linear:

Yb = E[Y jX] = aX + b, (A.83)

sendo a, b, coe cientes a determinar. O erro de previsão é a diferença entre o valor de fato e a previsão:

Y ¡ Yb = Y ¡ aX ¡ b.

Para que este seja mínimo, a média deve ser nula, e a variância a menor possível. A primeira condição resulta
em estimador não tendencioso:
E[Y ¡ Yb ] = µY ¡ aµX ¡ b = 0,
ou:
b¤ = µY ¡ aµX . (A.84)
O erro quadrático médio, ou variância a posteriori, é:

V ar[Y jX] = E[(Y ¡ Yb )2 ]


= V ar[(Y ¡ aX ¡ b)]
= E[(Y ¡ aX)2 ]
= σ2Y ¡ 2aRXY + a2 σ 2X , (A.85)

sendo RXY = E[XY ] a covariância de X e Y . O valor de a que minimiza a variância é encontrado derivando a
Eq. (A.85) em relação a a, e igualando a zero:
d
V ar[Y jX] = ¡2RXY + 2aσ2X = 0.
da
Logo, o valor ótimo de a, ou a¤ , ca:
RXY ρ σY
a¤ = 2 = XY , (A.86)
σX σX
sendo ρXY = σRXXYσY o índice de correlação. Combinando as Eqs. (A.83, A.84 e A.86), obtemos a equação para
o estimador linear ótimo:
(X ¡ µX )
Yb = E[Y jX] = a¤ X + b¤ = µY + ρXY σY .
σX
374 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

Figura A-10: Estimador linear ótimo.

A variância posteriori de Y é:

V ar[Y jX] = σ 2Y ¡ 2a¤ RXY + (a¤ )2 σ2X


R2 R2XY
= σ 2Y ¡ 2 XY +
σ2X σ2X
2
R
= σ 2Y ¡ XY
σ2X
= σ 2Y ¡ ρ2XY σ2Y
= σ 2Y (1 ¡ ρ2XY ).

Quando ρXY = 0, vemos que a variância posteriori de Y , dado X, é igual a variância original de Y , ou seja,
informação sobre ocorrência de X não muda a variância de Y . Quando ρXY ! 1, a variância posteriori de Y é
nula, pois Y se torna perfeitamente conhecido, observado X).
O estimador linear ótimo é elemento chave na análise de regressão.

A.6 FUNÇÕES DE DUAS OU MAIS VARIÁVEIS ALEATÓRIAS

A.6.1 Determinação da função de distribuição


Sejam as variáveis aleatórias X e Y, e uma função g(x, y) nas variáveis reais x e y. Dentro de certas restrições,
Z = g(X, Y ) será também uma variável aleatória. Denotando por DZ a região do plano xy tal que g(x, y) · z,
o evento fZ · zg pode ser escrito como fZ · zg = f(x, y) 2 DZ g. Portanto, para determinar a função de
A.6. FUNÇÕES DE DUAS OU MAIS VARIÁVEIS ALEATÓRIAS 375

distribuição cumulativa de probabilidades de Z, basta determinar a massa de probabilidades na região DZ :

FZ (z) = P [f(x, y) 2 DZ g]
ZZ
= fXY (x, y)dxdy. (A.87)
DZ

A densidade fZ (z) é obtida derivando a função FZ (z) em relação a z. Para tanto, convém escrever x = g¡1 (z, y).
A Eq. (A.87) ca:

Z 1 Z g¡1 (z,y)
FZ (z) = fXY (x, y)dxdy.
¡1 ¡1

Mudando a variável de integração de x para z, obtemos:


Z 1Z z ¯ ¡1 ¯
¯ ∂g ¯
FZ (z) = fXY (g¡1 , y) ¯¯ ¯ dzdy.
¡1 ¡1 ∂z ¯

Derivando em relação a z : Z ¯ ¡1 ¯
1 ¯ ∂g ¯
fZ (z) = fXY (g¡1 , y) ¯¯ ¯ dy. (A.88)
¡1 ∂z ¯

Um resultado semelhante pode ser obtido em termos da variável x, integrando primeiro em relação a y. Para
tanto, escrevemos y = g¡1 (x, z). Em procedimento análogo, obtemos:
Z 1 ¯ ¡1 ¯
¯
¡1 ¯ ∂g
¯
fZ (z) = fXY (x, g ) ¯ ¯ dx. (A.89)
∂z ¯
¡1

Alternativamente, podemos determinar fZ (z) encontrando a região ∂DZ no plano xy tal que z · g(x, y) ·
z + dz:

fZ (z)dz = P [fz · Z · z + dzg]


ZZ
= fXY (x, y)dxdy.
∂D Z

Exemplo 32 Soma de duas variáveis aleatórias contínuas: Seja a soma Z = aX + bY, onde a e b são duas
¡1
constantes. Escrevendo y = g ¡1 (x, z) = z¡ax
b
, obtemos ∂g∂z = 1b . Da Eq. (A.89) resulta:
Z 1
1 z ¡ ax
fZ (z) = fXY (x, )dx.
¡1 b b

A.6.2 Soma de duas variáveis aleatórias


Seja a função soma de duas variáveis aleatórias:

Z = X + Y.
376 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

Da Eq. (A.89) obtemos: Z 1


fZ (z) = fXY (x, z ¡ x)dx. (A.90)
¡1

Para a soma de duas variáveis aleatórias independentes, podemos escrever ainda:


Z 1
fZ (z) = fX (x)fY (z ¡ x)dx. (A.91)
¡1

Estes resultados se aplicam à soma de variáveis aleatórias contínuas discretas, desde que substituída a integral
pelo somatório correspondente.

Teorema 33 Soma de duas variáveis aleatórias independentes: se as variáveis aleatórias X e Y são indepen-
dentes, então a função de densidade de probabilidades da soma Z = X + Y é dada pela convolução:
Z +1 Z +1
fZ (z) = fX (z ¡ y)fY (y)dy = fX (x)fY (z ¡ x)dx. (A.92)
¡1 ¡1

Exemplo 34 Soma de processos de Poisson independentes: considere as variáveis aleatórias X e Y com


distribuição de Poisson e parâmetros υ e η. Seja

(υt)x
pX (x) = P [fX = xg] = exp[¡υt],
x!
(ηt)y
pY (y) = P [fY = yg] = exp[¡ηt].
y!

Substituindo a integral na Eq. (A.91) por um somatório, a distribuição da soma é obtida como:
X
pZ (z) = pX (x)pY (z ¡ x)
todo x
X (υt)x(ηt)(z¡x)
= exp[¡υt] exp[¡ηt]
todo x
x!(z ¡ x)!
X υ x η(z¡x)
= exp[¡(υ + η)t]tz ¢
x!(z ¡ x)!
to do x

(υ+η)z
O somatório sobre x na expressão acima corresponde à expansão binomial de z! , de forma que:

[(υ + η)t]z
pZ (z) = exp[¡(υ + η)t].
z!

Esta expressão corresponde a uma distribuição de Poisson com parâmetro υ + η. Este resultado pode ser
generalizado no seguinte teorema:

Teorema 35 Soma de processos de Poisson independentes: a soma de n processos de Poisson independentes


Pn é
também um processo de Poisson. Seja Xi um processo
P de Poisson com parâmetro υ i. O processo Z = i=1 Xi
é um processo de Poisson com parâmetro υ z = ni=1 υ i.
A.6. FUNÇÕES DE DUAS OU MAIS VARIÁVEIS ALEATÓRIAS 377

Exemplo 36 Soma (e diferença) de variáveis aleatórias normais independentes: sejam duas variáveis
aleatórias X e Y normais independentes com parâmetros X » N (µX , σX ), Y » N (µY , σY ). A distribuição
da soma Z = X + Y, a partir das Eqs. (A.37) e (A.91), é:
Z 1 " µ ¶2 # " µ ¶2 #
1 1 1 x ¡ µX 1 z ¡ x ¡ µY
fZ (z) = exp ¡ exp ¡ dx
2π σX σ Y ¡1 2 σX 2 σY
" (µ ¶2 µ ¶2 )# Z 1 · ¸
1 1 1 µX z ¡ µY 1¡ ¢
= exp ¡ + exp ¡ ux2 ¡ 2vx dx, (A.93)
2π σX σ Y 2 σX σY ¡1 2

onde:
1 1 µX z ¡ µY
u= + 2 , v= + ¢
σ2X σY σ 2X σ2Y
Fazendo uma substituição de variáveis:
v
w =x¡ ,
u
o termo integral resulta:
Z 1 · ¸ · 2 ¸Z 1 · ¸
1¡ 2 ¢ v 1 2
exp ¡ ux ¡ 2vx dx = exp exp ¡ uw dw
¡1 2 2u ¡1 2
r · 2¸
2π v
= exp .
u 2u

Substituindo este resultado na Eq. (A.93), obtemos:


2 Ã !2 3
1 1 1 z ¡ (µ + µ )
fZ (z) = p p 2 exp 4¡ p 2X Y 5.
2π σX + σ2Y 2 σX + σ 2Y

Esta expressão corresponde a uma distribuição normal na variável z com parâmetros:

µZ = µX + µY ,
σ2Z = σ2X + σ2Y .

De maneira semelhante, podemos mostrar que a diferença Z = X ¡ Y também tem distribuição normal,
com parâmetros:

µZ = µX ¡ µY ,
σ2Z = σ2X + σ2Y .

Este resultado pode ser generalizado no seguinte teorema:

Teorema 37 A soma de n variáveis aleatórias normais independentes Xi , com parâmetros Xi » N (µXi , σXi ),
é também uma variável normal:
X n
Z= Xi ,
i=1
378 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

com parâmetros:
n
X
µZ = µXi ,
i=1
Xn
σ2Z = σ2Xi . (A.94)
i=1

Generalizando ainda mais este resultado, resulta que qualquer função linear de variáveis aleatórias normais
é também uma variável aleatória normal. Os resultados apresentados na Eq. (A.94) são válidos ainda para
qualquer função linear de variáveis aleatórias independentes, independentemente da distribuição, conforme
Teorema do Limite Central.

A.6.3 Teorema do Limite Central


Teorema 38 Teorema do Limite Central: A soma de um grande número de variáveis aleatórias, independente
da sua distribuição, mas desde que nenhuma delas seja dominante, tende a uma distribuição normal!

Este teorema é muitas vezes utilizado para justi car a escolha de uma distribuição Gaussiana para processos
ou variáveis que sejam resultado da soma de grande número de efeitos individuais. Uma consequência do
teorema do limite central refere-se ao produto de diversas variáveis aleatórias:

Teorema 39 O produto de um grande número de variáveis aleatórias, independente da sua distribuição, mas
desde que nenhuma delas seja dominante, tende a uma distribuição log-normal!

O teorema do limite central pode ser demonstrado através de um exemplo simples, envolvendo a soma de
variáveis aleatórias:

Exemplo 40 Soma de variáveis discretas.

Enunciado: considere o somatório n


1 X
Y =p Xi , (A.95)
n i=1
com variáveis Xi estatisticamente independentes e identicamente distribuídas, com probabilidades:
1
P [fXi = +1g] = ,
2
1
P [fXi = ¡1g] = ¢
2
Veri que o que acontece com a função de densidades (ou com o histograma) da variável Y, a medida que
aumenta o número de termos da soma!
Solução força bruta: uma solução exaustiva pode ser obtida listando todos os resultados possíveis, em
função do número de termos do somatório. A Tabela A.1 ilustra o desenvolvimento, sendo a última coluna
referente a solução alternativa, descrita na sequência. A Figura 40 ilustra gra camente a convergência dos
resultados.
Solução usando sequência de Bernoulli: uma solução alternativa é obtida considerando os termos do
somatório na Eq. (A.95) como uma sequência de Bernoulli. Neste sentido, de nimos Xi = ¡1 como sendo o
A.6. FUNÇÕES DE DUAS OU MAIS VARIÁVEIS ALEATÓRIAS 379

evento de interesse, com probabilidade p = 0, 5; e Xi = +1 como sendo o evento default, com probabilidade
q = 1 ¡ p = 0, 5. De acordo com a Eq. (A.26), a probabilidade de observarmos z ocorrências do evento de
interesse, em n repetições, é dada por:
n!
P [fZ = zg] = pz q n¡z .
z!(n ¡ z)!

Estas probabilidades são calculadas na última coluna da Tabela A.1. Observe que esta solução não precisa
ser computada de forma exaustiva; basta veri car quantas ocorrências do evento de interesse correspondem
a cada resultado.

Tabela A.1: Ilustração do Teorema do Limite Central por meio de exemplo.

Exercício 20 Soma de variáveis uniformes contínuas:


Enunciado: idem ao Exemplo 40, mas as variáveis aleatórias Xi que compõe a soma tem distribuição
380 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

uniforme de probabilidades, entre ¡1 e +1 :


1
fX (x) = , ¡1 · x · 1,
2
fX (x) = 0, caso contrário.

Solução: a solução destes problema deve ser feita em computador, por integração numérica da função
de convolução (Eq. A.92). Conforme ilustrado
p na Figura
p A-12, a soma com dois termos (n = 2) resulta
em uma distribuição triangular entre ¡2/ 2 e ¡2/ 2. Somando mais um termo, o per l da função de
densidade de probabilidades de Y é quadrático. Com dez termos, a distribuição já está bem próxima da
normal.

A.6.4 Momentos de funções de muitas variáveis aleatórias


Seja uma função Y = g(X1 , X2 , ..., Xn ). O valor esperado de Y pode ser obtido através de:
Z +1
E[Y ] = yfY (y)dy. (A.96)
¡1

Alternativamente, como a função fY (y) depende funcionalmente da função de densidade conjunta, podemos
escrever:
Z +1 Z +1
E[Y ] = ... g(x1 , x2 , ..., xn )fX1 X2 ...Xn (x1 , x2 , ..., xn )dx1 dx2 ...dxn . (A.97)
¡1 ¡1

É fácil perceber que a avaliação da Eq. (A.97) não é simples, pois envolve uma integral multi-dimensional,
de uma função conjunta de probabilidades.

Média e variância de funções lineares

Seja a função Y = aX + b, sendo a e b duas constantes. Da Eq. (A.97) obtemos:


Z +1
E[Y ] = E[aX + b] = (ax + b)fX (x)dx
¡1
Z +1 Z +1
= a xfX (x)dx + b fX (x)dx
¡1 ¡1
= aµX + b.

De maneira semelhante, a variância é obtida como:

V ar[Y ] = E[(Y ¡ µY )2 ]
= E[(aX + b ¡ aµX ¡ b)2 ]
Z +1
2
= a (x ¡ µX )2 fX (x)dx
¡1
= a2 V ar[X]. (A.98)
A.6. FUNÇÕES DE DUAS OU MAIS VARIÁVEIS ALEATÓRIAS 381

Figura A-11: Convergência da soma de variáveis discretas (Exemplo 40) para distribuição normal.

Figura A-12: Convergência da soma de variáveis contínuas (Exercício 20) para distribuição normal.
382 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

Seja agora a função Y = a1 X1 + a2 X2 , sendo a1 e a2 duas constantes. Da Eq. (A.97) obtemos:


Z +1 Z +1
E[Y ] = (a1 x1 + a2 x2 )fX1 X2 (x1 , x2 )dx1 dx2
¡1 ¡1
Z +1 Z +1
= a1 x1 fX1 (x1 )dx1 + a2 x2 fX2 (x2 )dx2
¡1 ¡1
= a1 µX1 + a2 µX2 .

A variância é calculada por:

V ar[Y ] = E[(Y ¡ µY )2 ]
= E[(a1 X1 + a2 X2 ¡ a1 µX1 ¡ a2 µX2 )2 ]
= E[(a1 (X1 ¡ µX1 ) + a2 (X2 ¡ µX2 ))2 ]
= E[a21 (X1 ¡ µX1 )2 + 2a1 a2 (X1 ¡ µX1 )(X2 ¡ µX2 ) + a22 (X2 ¡ µX2 )2 ]
= a21 V ar[X1 ] + 2a1 a2 Cov[X1 , X2 ] + a22 V ar[X2 ].

Estes resultados podem ser facilmente extrapolados para uma função linear de um número qualquer de variáveis
aleatórias. Seja:
Xn
Y = ai Xi .
i=1

Podemos mostrar que os momentos são:


n
X n
X
E[Y ] = ai E[Xi ] = ai µXi ,
i=1 i=1
Xn Xn
V ar[Y ] = ai aj Cov[Xi , Xj ].
i=1 j=1

Quando as variáveis aleatórias são linearmente independentes (Cov[Xi , Xj ] = 0 para i 6= j), este último resultado
se simpli ca para:
n
X n
X
V ar[Y ] = a2i V ar[Xi ] = a2 σ 2Xi .
i=1 i=1

Seja agora uma nova função linear das variáveis aleatórias Xi :


n
X
Z= bi Xi .
i=1

A covariância entre as variáveis Y e Z é dada por:


n X
X n
Cov[Y, Z] = ai bj Cov[Xi , Xj ].
i=1 j=1
A.6. FUNÇÕES DE DUAS OU MAIS VARIÁVEIS ALEATÓRIAS 383

A.6.5 Aproximação dos momentos de funções de muitas variáveis aleatórias


Aproximação de primeira ordem

Expandindo a função Y = g(X1 , X2 , ..., Xn ) em série de Taylor em torno do ponto médio de cada uma das
variáveis Xi , obtemos:

Y = g(X) ¼ g(µX1 , µX2 , ..., µXn )


Xn
∂g
+ (Xi ¡ µXi )
i=1
∂X i

1 XX
n n
∂2 g
+ (Xi ¡ µXi )(Xj ¡ µXj ) + .... (A.99)
2 i=1 j=1 ∂Xi ∂Xj

Truncando a série no termo de primeira ordem (segunda linha da Eq. A.99), e utilizando um raciocínio
análogo ao utilizado para demonstrar a Eq. (A.78), obtemos:

E[Y ] ¼ g(µX1 , µX2 , ..., µXn ), (A.100)

o que signi ca que a média da função é aproximadamente igual a função avaliada nas médias. Tomando a
variância da Eq. (A.99), e generalizando a Eq. (A.79), obtemos:
n X
X n
∂g ∂g
V ar[Y ] ¼ Cov[Xi , Xj ] ¢ (A.101)
∂Xi ∂Xj
i=1 j=1

Este resultado também pode ser escrito como:


n
X µ ¶2 n
X n
X
∂g ∂g ∂g
V ar[Y ] ¼ V ar[Xi ] + Cov[Xi , Xj ] ¢
i=1
∂Xi i=1 j=1,j6=i
∂Xi ∂Xj

Se as variáveis Xi e Xj forem independentes para qualquer i e j, este resultado se simpli ca para:


n
X µ ¶2
∂g
V ar[Y ] ¼ V ar[Xi ] .
i=1
∂Xi

Aproximação de segunda ordem

Mantendo os termos de segunda ordem na expansão em série de Taylor (Eq. A.99), obtemos a aproximação de
segunda ordem do valor esperado:

1 XX
n n
∂ 2g
E[Y ] ¼ g(µX1 , µX2 , ..., µXn ) + Cov[Xi , Xj ] ¢
2 ∂Xi ∂Xj
i=1 j=1

A aproximação de segunda ordem da variância é um tanto complicada, pois envolve momentos de terceira
e quarta ordem das variáveis Xi . Por este motivo, em geral utilizamos a aproximação de segunda ordem do
valor esperado, que pode ser facilmente calculado, em conjunto com uma aproximação de primeira ordem da
variância.
384 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

A.7 TEORIA DE VALORES EXTREMOS


Em muitas aplicações de engenharia, valores extremos de variáveis aleatórias ou de processos estocásticos são
de interesse. Em engenharia de estruturas, o máximo valor das ações e o valor mínimo da resistência são as
variáveis importantes para o projeto.
Considere um conjunto de n observações de uma variável aleatória, e os valores máximo e mínimo observados
neste conjunto. Cada vez que uma nova realização ou observação deste conjunto é feita, novos valores máximo
e mínimo são obtidos. Portanto, os valores máximo e mínimo são também variável aleatórias, com distribuição
estatística própria. Os parâmetros destas distribuições de máximos e mínimos são estudados através da Teoria
de Valores Extremos, um campo bem desenvolvido da Teoria de Probabilidades.

A.7.1 Distribuições exatas


Seja X uma variável aleatória com função de probabilidades acumuladas FX (x) conhecida. Seja uma amostra
contendo n observações independentes de X, (x1 , x2 , x3 , ..., xn ), representando o 1o , o 2o ,..., e o n-ésimo valor
observado. Os valores máximo e mínimo da amostra são, respectivamente:

yn = max[x1 , x2 , x3 , ..., xn ],
y1 = min[x1 , x2 , x3 , ..., xn ]. (A.102)

O conjunto (x1 , x2 , x3 , ..., xn ) é uma amostra de n variáveis aleatórias, identicamente distribuídas e inde-
pendentes, tal que FX1 (x) = FX2 (x) = ... = FXn (x). As variáveis aleatórias Yn e Y1 (valor máximo e mínimo)
são:

Yn = max[X1 , X2 , X3 , ..., Xn ],
Y1 = min[X1 , X2 , X3 , ..., Xn ]. (A.103)

Observamos que se Yn , o maior valor dentre (X1 , X2 , X3 , ..., Xn ), é menor do que um determinado valor y, então
todas as variáveis aleatórias Xi devem ser menores que y. Portanto:

FYn (y) = P [fYn · yg]


= P [fX1 · yg, fX2 · yg, ..., fXn · yg]
= [FX (y)]n , (A.104)

e:
dFYn (y)
fYn (y) =
dy
n¡1
= n [FX (y)] fX (y). (A.105)

As Eqs. (A.104) e (A.105) são as distribuições de probabilidade exatas do valor máximo de uma amostra de
tamanho n tomadas de uma população X. Esta distribuição depende do tamanho n da amostra, bem como da
distribuição original de X. A Figura (A-13) mostra como estas distribuições de extremos variam com o aumento
do número de amostras, para uma variável aleatória original com distribuição X » N (0, 1). A Equação (A.104)
mostra que a distribuição do máximo de uma amostra de tamanho unitário (n = 1) é idêntica à distribuição
original. Assim, o valor esperado do máximo em uma observação é igual ao valor esperado da variável original.
A medida que n aumenta, a distribuição de máximos se desloca para a direita, cando mais íngreme (menor
desvio-padrão).
A distribuição exata para mínimos é obtida de maneira similar. Se Y1 , o menor valor na amostra, é maior
A.7. TEORIA DE VALORES EXTREMOS 385

Figura A-13: Distribuições de valores extremos de um variável normal padrão N (0, 1).

do que um determinado valor y, então todos os valores Xi devem ser maiores que y. Portanto:

FY1 (y) = P [fY1 · yg]


= 1 ¡ P [fY1 > yg]
= 1 ¡ P [fX1 > yg, fX2 > yg, ..., fXn > yg]
= 1 ¡ [1 ¡ FX (y)]n , (A.106)

e:
fY1 (y) = n [1 ¡ FX (y)]n¡1 fX (y). (A.107)

As Eqs. (A.106) e (A.107) são as distribuições de probabilidade exatas do valor mínimo de uma amostra
de tamanho n, tomadas de uma população X. As observações feitas em relação as Eqs. (A.104) e (A.105) são
válidas também para às Eqs. (A.106) e (A.107), com a diferença que o valor mínimo esperado diminui, à medida
que n aumenta.

A.7.2 Distribuições assintóticas


A medida que o tamanho n da amostra aumenta, as distribuições exatas convergem para formas funcionais
particulares, em função do tipo de cauda da distribuição original. Estas formas são as chamadas distribuições
assintóticas de extremos.
As distribuições assintóticas possuem a conveniência de não depender da forma exata da distribuição original,
mas apenas do comportamento da cauda desta na direção do extremo procurado. A região central da distribuição
original serve para determinar os parâmetros, mas não tem in‡uência na forma assintótica da distribuição de
extremos.
Em uma observação de uma variável aleatória X, a probabilidade de se obter um resultado maior do que x
é 1 ¡ FX (x). Em n observações independentes da mesma variável, o número esperado de valores maiores do que
x é n(1 ¡ FX (x)). Seja En a variável aleatória que conta o número de valores maiores do que yn , em amostras
de tamanho n. O valor esperado de En é:

εn = E[En ] = n(1 ¡ FX (yn )). (A.108)

Escrevendo esta expressão em termos de yn , temos:


386 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS


n

n n 1  FX ( y ) 

yn y

Figura A-14: Número esperado εn de máximos maiores do que yn .

³ εn ´
¡1
yn = FX 1¡ . (A.109)
n
A Equação (A.108) é monotonicamente decrescente (Figura A-14), logo:

P [fEn < εn g] = P [fYn > yn g]. (A.110)

Esta expressão é válida para qualquer valor ε (εn ) associado a qualquer valor y (yn ) através da Eq. (A.108).
Portanto, deste ponto em diante os índices ()n são abandonados. Agora podemos determinar a função cumulativa
de probabilidades da variável En em função de Yn :

FEn (ε) = P [fEn · εg] = P [fYn > yg].

Utilizando a Eq. (A.109):


³ ε´
¡1
FEn (ε) = P [fYn > FX 1¡ g]
³ ³ n ´´
¡1 ε
= 1 ¡ FYn FX 1¡ .
n
Utilizando a Eq. (A.104), obtemos:
h ³ ³ ε ´´in
¡1
FEn (ε) = 1 ¡ FX FX 1¡
n
³ ε ´n
= 1¡ 1¡ .
n

Aplicando os operadores exponencial e logaritmo no último termo, obtemos:


h h³ ε ´ii
FEn (ε) = 1 ¡ exp n ln 1 ¡ .
n
¡ ¢
Tomando o limite de n ln[ 1 ¡ nε ] com n ! 1:
³ ¡ ¢
ε´ ln[ 1 ¡ nε ]
lim n ln[ 1 ¡ ] = lim 1 = ¡ε;
n!1 n n!1
n

e portanto, no limite com n ! 1:


FEn (ε) = 1 ¡ exp[¡ε]. (A.111)
A.7. TEORIA DE VALORES EXTREMOS 387

Das Equações (A.108) e (A.110) temos ainda que:

P [fYn < yg] = P [fEn > n(1 ¡ FX (y))g],

ou:
FYn (y) = 1 ¡ FEn (n(1 ¡ FX (y))).

Finalmente, utilizando o resultado na Eq. (A.111), obtemos:

FYn (y) = exp[¡n(1 ¡ FX (y))]. (A.112)

Derivando em relação a y:
fYn (y) = nfX (y) exp[¡n(1 ¡ FX (y))]. (A.113)

As Equações (A.112) e (A.113) são as chamadas distribuições assintóticas de extremos. Estas distribuições
são exatas no limite com n ! 1. Estas distribuições servem para determinar a distribuição de extremos
correspondente a determinada distribuição original fX (x). O interessante é que, independentemente da forma
exata da distribuição original fX (x), as distribuições assintóticas de extremos convergem para algumas formas
particulares. A forma particular para a qual determinada distribuição de extremos converge depende apenas da
cauda da distribuição original na direção do extremo procurado. Três formas particulares são apresentadas na
Tabela A.2. Esta classi cação é válida tanto para máximos como para mínimos. As três formas apresentadas
não são as únicas possíveis; porém, são as mais comuns.

Tabela A.2: Distribuições assintóticas de extremos.


Distribuição assintótica Forma distribuição de Yn Cauda distrib. original (X) Exemplos
Tipo I - Gumbel exponencial dupla decaimento exponencial normal, log-normal
Tipo II - Frechet exponencial decaimento polinômial Pareto, Cauchy
Tipo III - Weibull exponencial com limite polinômial limitada uniforme, triangular

A.7.3 Extremos característicos


O máximo característico un é de nido como o valor particular de X tal que, dentre os n valores, o número
esperado de valores maiores do que un é igual a um:

n(1 ¡ FX (un )) = 1,

ou:
1
FX (un ) = P [fX · un g] = 1 ¡ . (A.114)
n
Logo, un é também o valor de X tal que:

1
P [fX > un g] = .
n
O máximo característico un é o valor mais provável (moda) da distribuição de extremos, fYn (y). Como vimos
na Seção A.3.1, o máximo característico divide a distribuição fYn (y) nos seguintes percentis:

P [fYn · un g] = 0, 37,
P [fYn > un g] = 0, 63.
388 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

De forma semelhante, o mínimo característico u1 é o valor de X tal que:

1
P [fX · u1 g] = .
n
O mínimo característico u1 é também a moda de fY1 (y), e divide a distribuição de mínimos nos percentis:

P [fY1 · un g] = 0, 63,
P [fY1 > un g] = 0, 37.

Em geral, os extremos (máximo e mínimo) característicos são parâmetros da distribuição de extremos corre-
spondente, como veremos.

A.7.4 Probabilidade de ocorrência de máximos característicos ao longo da vida L


Seja tD = L uma vida (de projeto), medida de forma discreta, por exemplo, em anos. Seja Rp um período
médio de retorno, também medido em anos. Seja p a probabilidade constante de não observar valor X > un
em qualquer ano ao longo da vida L. Da Eq. (A.114) temos que:
1
p = P [fX · un g] = 1 ¡
Rp

sendo un o máximo característico associado ao período de retorno Rp . Assumindo independencia de eventos,


ou uma sequencia de Bernoulli, a probabilidade de não observar valor X > un em toda a vida L é:
µ ¶L
1
1 ¡ pL = P [fX · un g]L = 1 ¡
Rp

Portanto, a probabilidade de se observar ao menos um valor X > un na vida L é:


µ ¶L
1
pL = 1 ¡ 1 ¡ (A.115)
Rp

Esta expressão pode ser manipulada para fornecer o período médio de retorno associado à níveis de proba-
bilidade pL especi cados:
1
Rp = (A.116)
1 ¡ (1 ¡ pL )1/L

Como exemplo, a norma ABNT NBR 8681:2004 especi ca:

“os valores característicos das ações variáveis, estabelecidos por consenso e indicados em normas
especí cas, correspondem a valores que têm de 25% a 35% de probabilidade de serem ultrapassados
no sentido desfavorável, durante um período de 50 anos.”

Fixando a vida em L = 50 anos, os períodos médios de retorno das ações variáveis, segundo a Eq. (A.116),
são Rp = 116, 6 anos, para pL = 0, 35; e Rp = 174, 3 anos, para pL = 0, 25. Estes valores, bem como as Eqs.
(A.115) e (A.116), são válidos para quaisquer distribuições de valores extremos. A relação entre Rp e pL é
ilustrada na Figura (A-15), para L = 50 anos e com base na Eq. (A.115).
Observe que a de nição da norma ABNT NBR 8681:2004 não é atendida pela atual norma ABNT NBR
6123:1988, a qual de ne os ventos de projeto v0 com período médio de retorno de 50 anos.
A.7. TEORIA DE VALORES EXTREMOS 389

Figura A-15: Relação entre período médio de retorno e probabilidades pL .

A.7.5 Distribuições estatísticas de extremos


Gumbel para máximos ou tipo I - EVI(un , β)

Quando a cauda superior da distribuição inicial X apresenta taxa de decrescimento exponencial, a distribuição
dos máximos de X tende assintoticamente a uma distribuição de Gumbel. Distribuições com cauda exponencial
incluem normal, exponencial e gamma.
A distribuição de Gumbel encontra muitas aplicações na engenharia. Ela é muito utilizada para representar
extremos de fenômenos ambientais como cheias de um rio, nível de precipitação, velocidade de vento, carga de
ondas, etc.
São parâmetros da distribuição de Gumbel para máximos:

un = máximo característico ou moda de Xn ,


β = parâmetro de forma.

As funções de densidade e cumulativa de probabilidades são:

fXn (x) = β exp[¡β (x ¡ un ) ¡ exp[¡β (x ¡ un )]], ¡1 · x · 1; (A.117)


FXn (x) = exp[¡ exp[¡β (x ¡ un )]], ¡1 · x · 1. (A.118)

Conhecidos os parâmetros, os momentos são determinados por:


γ
µ = un + ;
β
π 1
σ = p ;

γ3 = 1.1396 (coef. de simetria).
390 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

sendo γ = 0, 577216 a constante de Euler. Conhecidos os momentos, os parâmetros são determinados por:
γ
un = µ¡ ,
β
π 1
β = p ¢ (A.119)

Gumbel para mínimos ou tipo I - EVI(u1 , β)

Quando a cauda inferior da distribuição inicial X apresenta taxa de (de)crescimento exponencial, a distribuição
dos mínimos de X tende assintoticamente a uma distribuição de Gumbel.
A distribuição de Gumbel para mínimos descreve a resistência mecânica de materiais, bem como a tensão
resistente de equipamentos eletrônicos. Em ambos os casos, a justi cativa para o uso da distribuição de Gumbel
para mínimos é a regra da corrente, que sempre rompe no elo mais fraco. Materiais estruturais possuem
imperfeições e defeitos em sua microestrutura, e assim rompem na seção transversal mais fraca. Da mesma
forma, a falha por sobre-tensão de equipamentos eletrônicos sempre aconteçe devido à falha do componente
mais fraco.
Em estudos sobre mortalidade populacional, a distribuição de Gumbel para mínimos é utilizada para des-
crever a distribuição de vida (ou idade no falecimento). Esta aplicação se justi ca com a hipótese de que, entre
todos os indivíduos em uma determinada faixa de idade, a morte leva os indivíduos mais fracos...!
São parâmetros da distribuição de Gumbel para mínimos:

u1 = mínimo característico ou moda de X1 ,


β = parâmetro de forma.

Quando representada em papel de Gumbel, β ¡1 é a inclinação da distribuição. As funções de densidade e


cumulativa de probabilidades são:

fX1 (x) = β exp[β (x ¡ u1 ) ¡ exp[β (x ¡ u1 )]], ¡1 · x · 1;


FX1 (x) = 1 ¡ exp[¡ exp[β (x ¡ u1 )]], ¡ 1 · x · 1.

A função de Gumbel é tabelada na variável w = β (x ¡ u1 ) . Conhecidos os parâmetros, os momentos são


determinados por:
γ
µ = u1 ¡ ;
β
π 1
σ = p ;

γ3 = ¡1.1396 (coef. de simetria);

sendo γ = 0, 577216 a constante de Euler. Conhecidos os momentos, os parâmetros são determinados por:
γ
u1 = µ+ ,
β
π 1
β = p ¢

Exemplo 41 Vento de projeto e períodos de retorno:


A.7. TEORIA DE VALORES EXTREMOS 391

Figura A-16: Avaliação do vento com período de retorno médio de 140 anos ().

Enunciado: Em determinada localização geográ ca, o vento de projeto é v50 = 40 m/s (na norma ABNT
NBR6123:1988 este vento é chamado de v0 , aqui renomeado para v50 em função do período médio de retorno
de 50 anos). Assumindo que a distribuição de máximos anuais, e a distribuição de extremos de 50 anos,
sejam Gumbel com fator de forma β = 1/4, determine a velocidade de vento com período médio de retorno
de 140 anos.
Solução: A solução envolve determinação da distribuição de máximos anuais, que segue distribuição de
Gumbel. Sabemos que a probabilidade de observar um vento maior do que v50 , ou vento com período médio
1
de retorno de 50 anos, é: P [V > v50 ] = 50 . Adaptando a Eq. (A.118) para a incógnita un = v1 , máximo
característico da distribuição de máximos anuais, obtemos:

(40 ¡ v1 )] 1
FV1 (40) = exp[¡ exp[¡ ]=1¡ .
4 50
Resolvendo para v1 , obtemos: v1 = 24, 39 m/s. Para determinar o vento com período médio de retorno de
140 anos, basta avaliar novamente a Eq. (A.118), com x = v140 :

(v140 ¡ 24, 39)] 1


FV1 (v140 ) = exp[¡ exp[¡ ]=1¡ .
4 140
Resolvendo para v140 , obtemos: v140 = 44, 14 m/s. A Figura A-16 ilustra as distribuições envolvidas e os
valores calculados.

Frechet para máximos ou tipo II - EVII(un , β)

Quando a cauda superior da distribuição inicial X apresenta taxa de decrescimento polinômica, como:

FX (x) = 1 ¡ a x¡b ,

sendo a e b constantes, a distribuição dos máximos de X tende assintoticamente a uma distribuição de Frechet.
Este é o caso das distribuições de Pareto e Cauchy.
392 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

São parâmetros da distribuição de Frechet para máximos:

un = máximo característico ou moda de Xn ;


β = parâmetro de forma.

As funções de densidade e cumulativa de probabilidades são:


· ³ ´β ¸
β ³ un ´β+1 un
fXn (x) = exp ¡ , ¡1 · x · 1;
un x x
· ³ ´β ¸
un
FXn (x) = exp ¡ , ¡ 1 · x · 1.
x

Conhecidos os parâmetros, os momentos são determinados por:


µ ¶
1
µ = un ¡ 1 ¡ ,
β
s· µ ¶ µ ¶¸
2 1
σ = un ¡ 1¡ ¡ ¡2 1 ¡ .
β β

Conhecidos os momentos, o máximo característico é:


µ
un = ³ ´¢
¡ 1 ¡ β1

O parâmetro de forma β é determinado de forma iterativa, como raiz da equação:


³ ´
¡ 1 ¡ β2
1 + δ2 = ³ ´¢ (A.120)
¡2 1 ¡ β1

Frechet para mínimos ou tipo II - EVII(u1 , β)

Quando a cauda inferior da distribuição inicial X apresenta taxa de crescimento polinômica, como:

FX (x) = 1 ¡ a x¡b

sendo a uma constante, a distribuição dos mínimos de X tende assintoticamente a uma distribuição de Frechet.
São parâmetros da distribuição de Frechet para mínimos:

u1 = mínimo característico ou moda de X1 ,


β = parâmetro de forma.

As funções de densidade e cumulativa de probabilidades são:


µ ¶β¡1 " µ ¶β #
β x x
fX1 (x) = exp ¡ , ¡1 · x · 1;
u1 u1 u1
" µ ¶β #
x
FX1 (x) = 1 ¡ exp ¡ , ¡1 · x · 1.
u1
A.7. TEORIA DE VALORES EXTREMOS 393

Conhecidos os parâmetros, os momentos são determinados por:


µ ¶
1
µ = u1 ¡ 1 + ,
β
· µ ¶ µ ¶¸
2 1
σ2 = u21 ¡ 1 + ¡ ¡2 1 + .
β β

Conhecidos os momentos, o mínimo característico é:


µ
u1 = ³ ´¢
¡ 1 + β1

O parâmetro de forma β é determinado de forma iterativa, como raiz da Eq. (A.120).

Weibull para máximos ou tipo III - EVIII(un , β, ε)

Quando a cauda superior da distribuição inicial X apresenta decrescimento polinômico mas é limitada, como:

FX (x) = 1 ¡ a(ε ¡ x)¡b , x · ε, b > 0, a = cte.,

a distribuição dos máximos de X tende assintoticamente a uma distribuição de Weibull. Exemplos deste tipo
de distribuição inicial são as distribuições uniforme, triangular e gamma.
São parâmetros da distribuição de Weibull para máximos:

un = máximo característico ou moda de Xn ;


β = parâmetro de forma;
ε = limite superior da distribuição inicial X.

As funções de densidade e cumulativa de probabilidades são:


µ ¶β¡1 " µ ¶β #
β ε¡x ε¡x
fXn (x) = exp ¡ , ¡1 · x · ε;
ε ¡ un ε ¡ un ε ¡ un
" µ ¶β #
ε¡x
FXn (x) = exp ¡ , ¡1 · x · ε. (A.121)
ε ¡ un

Observe que com β = 1 esta distribuição se reduz à distribuição exponencial. Para β = 2 temos a distribuição
de Rayleigh. Conhecidos os parâmetros, os momentos são determinados por:
µ ¶
1
µ = ε + (ε ¡ un )¡ 1 + ,
β
· µ ¶ µ ¶¸
2 1
σ2 = (ε ¡ un )2 ¡ 1 + ¡ ¡2 1 + .
β β

Conhecidos os momentos, o máximo característico é:


µ¡ε
un = ³ ´ + ε.
¡ 1 + β1
394 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

O parâmetro de forma β é determinado de forma iterativa, como raiz da equação:


³ ´
µ ¶2 ¡ 1 + 2
σ β
1+ = ³ ´¢ (A.122)
ε¡µ ¡ 1+ 1
2
β

Weibull para mínimos ou tipo III - EVIII(u1 , β, ε)

Quando a cauda inferior da distribuição inicial X apresenta decrescimento polinômico mas é limitada, como:

FX (x) = 1 ¡ a(ε ¡ x)¡b , x ¸ ε, b > 0, a = cte.,

a distribuição dos mínimos de X tende assintoticamente a uma distribuição de Weibull.


A distribuição de Weibull para mínimos pode ser utilizada para descrever secas ou a vida de fadiga de
componentes mecânicos. Também serve como base para a construção de curvas de taxa de falhas dependente
da idade, como veremos.
São parâmetros da distribuição de Weibull para mínimos:

u1 = mínimo característico ou moda de X1 ;


β = parâmetro de forma;
ε = limite inferior da distribuição inicial X.

As funções de densidade e cumulativa de probabilidades são:


µ ¶β¡1 " µ ¶β #
β x¡ε x¡ε
fX1 (x) = exp ¡ , ε · x · 1; (A.123)
u1 ¡ ε u1 ¡ ε u1 ¡ ε
" µ ¶β #
x¡ε
FX1 (x) = 1 ¡ exp ¡ , ε · x · 1. (A.124)
u1 ¡ ε

Conhecidos os parâmetros, os momentos são determinados por:


µ ¶
1
µ = ε + (u1 ¡ ε)¡ 1 + ,
β
· µ ¶ µ ¶¸
2 2 2 2 1
σ = (u1 ¡ ε) ¡ 1 + ¡¡ 1+ .
β β

Conhecidos os momentos, o mínimo característico é:


µ¡ε
u1 = ³ ´ + ε.
¡ 1 + β1

O parâmetro de forma β é determinado de forma iterativa, como raiz da Eq. (A.122).


Na descrição da vida de fadiga de componentes mecânicos, a distribuição de Weibull representa a probabili-
dade de sobrevivência para um número x de ciclos. O parâmetro u1 representa o número característico de ciclos
até a falha, enquanto o limite ε corresponde à vida mínima para um determinado nível de carregamento.
A distribuição de Weibull fX1 (x) muda signi cativamente em função do fator de forma. Para β = 1, a
distribuição converge para uma exponencial. Para β < 1 a distribuição tende para a esquerda; para β > 1 a
A.7. TEORIA DE VALORES EXTREMOS 395

Figura A-17: Formas da curva de Weibull fX1 (x) para u1 = 1, em função do fator de forma β.

distribuição tende para a direita. A Figura A-17 ilustra a mudança de forma da distribuição fX1 (x), em função
do fator de forma β, para um mínimo característico constante u1 = 1.

Construção da curva da banheira a partir da distribuição de Weibull para mínimos

Na Seção 1.3.4 apresentamos a clássica curva da banheira, que descreve a taxa de falhas instantânea de com-
ponentes ou produtos de produção em massa. Nesta seção mostramos como a curva da banheira pode ser
construída a partir da sobreposição de distribuições de Weibull para mínimos. Esta distribuição é apropriada
para esta construção, considerando que em cada fase da curva da banheira os componentes ou produtos mais
“fracos” são aqueles que falham.
Considere uma distribuição de Weibull para descrever a variável aleatória tempo até a falha, T , em cada
uma das fases da curva da banheira: Tp para falhas prematuras, Tc para falhas por chance e Td para falhas por
desgaste. As funções de densidade e de distribuição cumulativa de probabilidades são dadas pelas Eqs. (A.123)
e (A.124). Os fatores de forma devem ser tais que β p < 1 para falhas prematuras, β c = 1 para falhas por chance
e βd > 1 para falhas por desgaste. Os mínimos característicos u1 para cada fase, bem como os valores βp e β d
de nem a forma da curva. Para cada fase, a taxa de falhas instantânea é obtida a partir da Eq. (1.15). A curva
da banheira é obtida pela soma das taxas de falha de cada fase:

h(t) = hp (t) + hc (t) + hd (t).

A Figura A-18 ilustra a construção. Para esta curva, em particular, foram utilizados os valores βp = 0, 6 e
β d = 5, u1p = 100, u1c = 5 e u1d = 2.

Determinação da distribuição de extremos a partir da distribuição original

Apesar de existir relação entre a cauda da distribuição original e a distribuição assintótica de extremos corre-
spondente, não existe uma forma analítica de estabelecer os parâmetros da distribuição de extremos, a partir
dos parâmetros da distribuição original. No entanto, é possivel determinar numericamente a distribuição de
extremos correspondente. Isto pode ser feito com base nos extremos característicos (u1 e un ) e em um ajuste
de parâmetros da distribuição de extremos apropriada.
Determinamos primeiramente os extremos característicos, que são função apenas do número n de variáveis
396 TEORIA DE PROBABILIDADES: VARIÁVEIS ALEATÓRIAS

Figura A-18: Construção da curva da banheira (taxa de falhas dependente da idade) a partir da combinação
de três distribuições de Weibull.

da amostra, conforme Seção (A.7.3). Conforme vimos, os extremos característicos são o primeiro parâmetro da
distribuição de extremos. Determinamos um conjunto de pontos da distribuição exata de extremos, utilizando
as Eqs. (A.104) ou (A.105). Escolhemos a distribuição de extremos apropriada, em função do tipo de cauda da
distribuição original. Em seguida, através de um ajuste de curvas (e.g., mínimos quadrados), determinamos o
valor do parâmetro de forma (β) que minimiza a diferença entre a distribuição exata (os pontos calculados) e a
distribuição de extremos procurada.
Apêndice B

TEORIA DE PROBABILIDADES:
PROCESSOS ESTOCÁSTICOS

Este capítulo está baseado principalmente em Elishako¤ (1999), Papoulis e Pillai (2001) e Melchers & Beck
(2018). Para um aprofundamento dos temas, o leitor pode consultar Vanmarcke (1983), Newland (1993),
Nigam & Narayanan (1994) e Lutes & Sarkani (2004).

B.1 DEFINIÇÕES

B.1.1 Processo estocástico como família de funções


De nição 6 Em um determinado experimento, atribuimos a cada ponto amostral w do espaço amostral ­ uma
função x(w, t). A família de funções X(w, t) assim criada é chamada de processo estocástico.

Note que:

1. a função x(w, t) pode ser real ou complexa;


2. neste texto consideramos apenas funções reais; neste contexto um processo estocástico é um operador que
leva de ­ para o espaço de funções nitas e reais, exemplo: ­ ! L2 ;
3. a variável t representa o tempo ou qualquer outro contínuo, onde o processo estocástico se desenvolve;
4. a função x(w, t) pode ser uma função analítica explícita ou não;
5. em muitos processos estocásticos, as funções x(w, t) tem aspecto aleatório e expressão analítica desco-
nhecida; ainda assim, a De nição 6 é válida;
6. para cada realização w xa, x(w, t) = x(t) é uma função do tempo;
7. em um ponto t xo, X(w, t) = X(w) é uma variável aleatória;
8. para w e t xos, x(w, t) = x é um número real.
De forma equivalente, também podemos interpretar um processo estocástico X(w, t) como uma função
aleatória (Elishako¤, 1999). Os conceitos usuais de continuidade, diferenciabilidade e integrabilidade de
funções são revistos para funções aleatórias nas Seções B.2.8, B.2.9 e B.2.10.
398 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS

Notação

Neste texto utilizamos a seguinte notação:

Situação Notação Resultado


w e t variáveis X(w, t) ou X(t) processo estocástico
w variável, t xo X(w) ou X variável aleatória
w xo, t variável x(w, t) ou x(t) função do tempo
w xo, t xo x(w, t) ou x número real

Note que a dependência com o resultado experimental w é frequentemente omitida. Em concordância com a
notação utilizada para variáveis aleatórias, uma letra minúscula representa uma realização da variável aleatória
ou processo estocástico. Assim, a função x(t) representa uma realização do processo estocástico X(t). O número
real x pode ser entendido como a função x(t) avaliada em t (x(t) = x) ou como uma realização da variável
aleatória X(w) para dado w (x(w) = x).

Exemplo 42 Para um espaço amostral ­ formado pelo conjunto de pontos amostrais ­ = fwi gi=1,...,6
= f1, 2, 3, 4, 5, 6g, as funções:

X1 (w, t) = cos[wt];
X2 (w, t) = cos[t + w];
X3 (w, t) = w cos[t];

representam 3 processos estocásticos distintos. Para cada realização wi , a variação temporal destes processos
é determinística (conhecida com probabilidade um); por isto, estes processos são chamados de processos
estocásticos parametrizados.

Exemplo 43 Considere agora 3 experimentos com espaços amostrais ­1 , ­2 e ­3 tais que ­1 =


fwi gi=1,...,5 = f1, 2, 3, 4, 5g; ­2 = fvi gi=1,2,3 = f0, π, 2πg e ­3 = fui gi=1,2,3 = f1, 2, 3g. As funções:

X1 (w, t) = cos[wt];
X2 (w, v, t) = cos[wt + v];
X3 (w, v, u, t) = u cos[wt + v];

representam 3 processos estocásticos parametrizados distintos. O número de graus de aleatoriedade dos


3 processos é distinto: é fácil perceber que o processo X1 (w, t) tem grau de aleatoriedade um; o processo
X2 (w, v, t) tem grau de aleatoriedade dois e o processo X3 (w, v, u, t) tem grau de aleatoriedade três. O grau
de aleatoriedade corresponde ao número de parâmetros que devem ser conhecidos para que a variação do
processo no tempo se torne perfeitamente conhecida ou determinística.

Exemplo 44 Associando números reais aos pontos amostrais dos experimentos caracterizados no exemplo
anterior, obtemos 3 variáveis aleatórias: W, V e U . É claro que os três processos estocásticos podem ser
B.1. DEFINIÇÕES 399

de nidos em termos destas variáveis aleatórias:

X1 (W, t) = cos[W t];


X2 (W, V, t) = cos[W t + V ];
X3 (W, V, U, t) = U cos[W t + V ].

Neste exemplo, ca claro que podemos entender um processo estocástico como uma função de variáveis
aleatórias.

B.1.2 Funções de distribuição de probabilidades


Para um tempo t xo, X(w, t) é uma variável aleatória. A função de distribuição cumulativa de probabilidades
desta variável, em geral, depende de t :

F1 (x, t) = P [fX(w, t) · xg]. (B.1)

O evento fX(w, t) · xg consiste em todas as realizações w tais que, no instante t, as funções x(t) não excedem o
valor x. A função F1 (x, t) é chamada de distribuição cumulativa de primeira ordem do processo X(t). A função
densidade de primeira ordem é obtida derivando em relação a x:

∂F1 (x, t)
f1 (x, t) = ¢ (B.2)
∂x

Considere agora dois instantes de tempo t1 e t2 . X(t1 ) e X(t2 ) são duas variáveis aleatórias dependentes de
t1 e t2 . A função conjunta de distribuição cumulativa de probabilidades depende também de t1 e t2 :

F2 (x1 , x2 ; t1 , t2 ) = P [fX(t1 ) · x1 , X(t2 ) · x2 g]. (B.3)


O evento fX(t1 ) · x1 , X(t2 ) · x2 g consiste em todas as realizações wi tais que as funções x(wi, t) não excedem
o valor x1 no instante t1 e não excedem o valor x2 no instante t2 . A função F2 (x1 , x2 ; t1 , t2 ) é chamada de
distribuição cumulativa de segunda ordem do processo X(t). A função de densidade correspondente é obtida
derivando em relação à x1 e x2 :
∂ 2 F2 (x1 , x2 ; t1 , t2 )
f2 (x1 , x2 ; t1 , t2 ) = ¢ (B.4)
∂x1 ∂x2

B.1.3 Processo estocástico como família de variáveis aleatórias


Processo estocástico: para cada t xo, o processo estocástico X(t) é uma variável aleatória. Para um conjunto
nito de pontos ft1 , t2 , t3 , ..., tn g, o conjunto de variáveis aleatórias fX(t1 ), X(t2 ), X(t3 ), ..., X(tn )g tem uma
função conjunta de distribuição cumulativa de probabilidades:

Fn (x1 , x2 , ..., xn ; t1 , t2 , ..., tn ) = P [fX(t1 ) · x1 , X(t2 ) · x2 , ..., X(tn ) · xn g].

Esta é a função de distribuição cumulativa de probabilidades de ordem n do processo X(t). A família de funções:

F1 (x, t);
F2 (x1 , x2 ; t1 , t2 );
...
Fn (x1 , x2 , ..., xn ; t1 , t2 , ..., tn ); (B.5)
400 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS

de ne completamente o processo X(t). Logo, podemos de nir o processo X(t) como:

De nição 7 Um processo estocástico X(t) é formado por uma família de variáveis aleatórias (de dimensão
in nita) ao longo do contínuo t.

Uma boa abordagem de processos estocásticos como famílias de variáveis aleatórias pode ser acompanhada
em Lutes & Sarkani (2004).

B.2 PROPRIEDADES DE PROCESSOS ESTOCÁSTICOS


B.2.1 Momentos de um processo estocástico
A média µ(t) de um processo estocástico X(t) é o valor esperado da variável aleatória X(t), para t xo:
Z 1
E[X(t)] ´ xf1 (x, t)dx = µ(t). (B.6)
¡1

Em geral, µ(t) é uma função do tempo. Generalizando este resultado, o momento de ordem k do processo X(t)
é dado por: Z 1
E[X(t)k ] ´ xk f1 (x, t)dx = µk (t). (B.7)
¡1

A função de autocorrelação de um processo X(t) corresponde ao momento conjunto das variáveis aleatórias
X(t1 ) e X(t2 ): Z Z 1 1
E[X(t1 )X(t2 )] ´ x1 x2 f2 (x1 , x2 ; t1 , t2 )dx1 dx2 = RXX (t1 , t2 ). (B.8)
¡1 ¡1

Em geral, a função de autocorrelação é função de t1 e t2 . A função de autocovariância de X(t) corresponde à


covariância das variáveis aleatórias X(t1 ) e X(t2 ):

CXX (t1 , t2 ) ´ E[(X(t1 ) ¡ µ(t1 )) (X(t2 ) ¡ µ(t2 ))]


= RXX (t1 , t2 ) ¡ µ(t1 )µ(t2 ). (B.9)

Para processos estocásticos de média nula (µ(t1 ) = µ(t2 ) = 0), as funções de autocorrelação RXX (t1 , t2 ) e de
autocovariância CXX (t1 , t2 ) se confundem.
A variância da variável aleatória X(t) é obtida da função de autocovariância, fazendo t1 = t2 = t:

σ 2 (t) = CXX (t, t) = RXX (t, t) ¡ µ(t)2 , (B.10)

e o desvio-padrão é obtido da variância: p


σ(t) = σ 2 (t). (B.11)
A função índice de autocorrelação é de nida como:

E[(X(t1 ) ¡ µ(t1 )) (X(t2 ) ¡ µ(t2 ))]


ρ(t1 , t2 ) = ¢ (B.12)
σ(t1 )σ(t2 )
B.2. PROPRIEDADES DE PROCESSOS ESTOCÁSTICOS 401

As funções RXX (t1 , t2 ), CXX (t1 , t2 ) e ρ(t1 , t2 ) de nem a estrutura de correlação do processo estocástico. As
três são chamadas genericamente de funções de correlação.

B.2.2 Momentos de dois processos estocásticos


Considere os processos estocásticos X(t) e Y (t). A função de correlação-cruzada é de nida como:
Z 1 Z 1
E[X(t1 )Y (t2 )] ´ xyfXY (x, y; t1 , t2 )dxdy = RXY (t1 , t2 ). (B.13)
¡1 ¡1

A função de covariância-cruzada é:

CXY (t1 , t2 ) ´ E[(X(t1 ) ¡ µX (t1 ))(Y (t2 ) ¡ µY (t2 )]


= RXY (t1 , t2 ) ¡ µX (t1 )µY (t2 ). (B.14)

Esta função corresponde à covariância entre as variáveis aleatórias X(t1 ) e Y (t2 ). Podemos ainda de nir uma
função índice de correlação-cruzada:
E[(X(t1 ) ¡ µX (t1 ))(Y (t2 ) ¡ µY (t2 )]
ρXY (t1 , t2 ) ´ ¢
σX (t1 )σ Y (t2 )

B.2.3 Ortogonalidade e independência


Dois processos estocásticos X(t) e Y (t) tem correlação (dependência linear) nula quando, para quaisquer t1 e
t2 :
CXY (t1 , t2 ) = 0; (B.15)
e portanto:
RXY (t1 , t2 ) = µX (t1 )µY (t2 ).

Os mesmos processos são ditos ortogonais quando, para quaisquer t1 e t2 :

RXY (t1 , t2 ) = 0. (B.16)

Os processos X(t) e Y (t) são ditos independentes quando o conjunto fX(t1 ), X(t2 ), ..., X(tn )g é independente
do conjunto fY (t01 ), Y (t02 ), ..., Y (t0n )g para quaisquer ft1 , t2 , ..., tn g e ft01 , t02 , ..., t0n g. Como vimos na Seção A.4.7,
a independência entre um grande número de variáveis aleatórias é muito difícil de demonstrar. Em geral,
assumimos independência entre processos com base em argumentos lógicos.

B.2.4 Processo Gaussiano


Um processo estocástico X(t) é dito normal ou Gaussiano quando as variáveis aleatórias fX(t1 ), X(t2 ), ...,
X(tn )g são conjuntamente normais, para quaisquer fn, t1 , t2 , ..., tn g. Note que não é su ciente que a função de
densidade de primeira ordem f1 (x, t) seja normal: as densidades de qualquer ordem devem ser conjuntamente
normais. As estatísticas de um processo normal ou Gaussiano são completamente de nidas em termos da média
µ(t) e da função de autocorrelação RXX (t1 , t2 ) ou autocovariância CXX (t1 , t2 ). A função de densidade de
primeira ordem de um processo Gaussiano é dada por:
" µ ¶2 #
1 1 x ¡ µ(t)
f1 (x, t) = p exp ¡ . (B.17)
σ(t) 2π 2 σ(t)
402 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS

B.2.5 Estacionariedade
De nição 8 Um processo X(t) é dito estacionário quando as suas estatísticas não mudam em relação a uma
translação no tempo, i.e., os processos X(t) e X(t + τ) tem as mesmas estatísticas conjuntas para qualquer τ.

Processo estritamente estacionário

Um processo estritamente estacionário é tal que, para qualquer ε:

fn (x1 , x2 , ..., xn ; t1 , t2 , ..., tn ) = fn (x1 , x2 , ..., xn ; t1 + ε, t2 + ε, ..., tn + ε) (B.18)

Em particular, se um processo X(t) é estritamente estacionário:

f1 (x, t) = f1 (x, t + ε), 8ε.

Isto signi ca que f1 (x, t) deve ser independente do tempo:

f1 (x, t) = f1 (x).

Como consequência, resulta da Equação (B.6) que a média deve ser constante:

E[X(t)] = µ = cte. (B.19)

A densidade de segunda ordem também deve ser tal que:

f2 (x1 , x2 ; t1 , t2 ) = f2 (x1 , x2 ; t1 + ε, t2 + ε).

Como a igualdade deve ser válida para qualquer ε, resulta que a densidade de segunda ordem é função da
diferença t2 ¡ t1 = τ :
f2 (x1 , x2 ; t1 , t2 ) = f2 (x1 , x2 , τ ), τ = t2 ¡ t1 .

A função f2 (x1 , x2 , τ ) vem a ser a função de densidade conjunta das variáveis aleatórias X(t) e X(t + τ).
Da Equação (B.8), concluímos que a função de autocorrelação depende também de τ :

RXX (t1 , t2 ) = RXX (τ ) = E[X(t)X(t + τ )] = RXX (¡τ ). (B.20)

De maneira semelhante, dizemos que os processos X(t) e Y (t) são conjuntamente estacionários se as estatís-
ticas conjuntas de X(t) e Y (t) são idênticas às estatísticas conjuntas de X(t + ε) e Y (t + ε), para qualquer
ε. Note que os processos podem ser individualmente estacionários, mas não necessariamente conjuntamente
estacionários. Se X(t) e Y (t) são conjuntamente estacionários:

RXY (t1 , t2 ) = RXY (τ ) = E[X(t)Y (t + τ )].

Processo fracamente estacionário

Um processo X(t) é dito fracamente estacionário quando seu valor médio é constante, e a função de autocorre-
lação depende apenas de τ = t2 ¡ t1 :

E[X(t)] = µ = cte.;
E[X(t)X(t + τ )] = RXX (τ); (B.21)

ainda que não atenda à condição mais geral imposta na Equação (B.18).
B.2. PROPRIEDADES DE PROCESSOS ESTOCÁSTICOS 403

Para processos Gaussianos, estacionariedade fraca corresponde à estacionariedade estrita. Para outros
processos, não.

B.2.6 Propriedades da função de autocorrelação


São propriedades da função de autocorrelação (Equação B.8):

1. Se X(t) é real, RXX (τ ) é real e par: RXX (τ ) = RXX (¡τ );


2. RXX (0) = E[X(t)2 ] ¸ 0, o que leva a:

¡RXX (0) · RXX (τ ) · RXX (0);

3. se RXX (τ ) é contínua na origem, é contínua em τ;


4. RXX (τ ) é não-negativa.

B.2.7 Representação espectral de processos estocásticos estacionários


Há duas formas alternativas de representar processos estocásticos no domínio da frequencia. A representação
formal utiliza frequencias negativas e positivas, e o processo se torna combinação de parte real e parte imaginária.
A representação mais intuitiva utiliza apenas frequencias positivas não-negativas, e evita a algebra complexa.
Neste texto utilizamos uma representação intermediária, segundo Vanmarcke (1983), onde as frequencias são
positivas e negativas, mas a algebra complexa é evitada. Neste sentido, trabalhamos apenas com processos
estocásticos reais X(t) : ­ ! R.
A função estocástica X(t) é expressa como a soma da média µ e 2K senóides, com frequencias ωk =
§[¢ω(2k ¡ 1)/2], amplitudes aleatórias Vk , e angulos de fase ©k , (k = 1, 2, ..., K):
K
X
X(t) = µ + Xk (t), (B.22)
k=¡K

sendo:
Xk (t) = Vk cos(ωk t + ©k ).

Todas as amplitudes aleatórias e angulos de fase são independentes, e os angulos de fase são uniformemente
distribuídos em (0, 2π). Cada função elementar Xk (t) tem média nula e variância:
1
σ2k = E[Xk2 (t)] = E[Vk2 ]E[cos2 (ωk t + ©k )] = E[Vk2 ],
2
sendo E[cos2 (ωk t + ©k )] = E[1/2 + cos(2ωk t + 2©k )/2] = 1/2 o valor esperado em relação a ©k . A variância da
soma de funções independentes é igual a soma das variâncias, de forma que:
K
X K
X 1
σ2§ = σ2k = E[Vk2 ], (B.23)
2
k=¡K k=¡K

o que mostra que a variância corresponde a uma soma de contribuições para cada frequencia ω k . Observe que
σ2§ é a variância do somatório na Eq. (B.22), que possui média nula, e que é diferente da variância σ2X do
processo X(t). A representação espectral é obtida para um processo de média nula (somatório na Eq. B.22), à
qual se soma uma constante, a média µ.
404 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS

Introduzindo uma função de massa em frequencias, S(ω k ), temos:


1
S(ω k )¢ω = E[Vk2 ]. (B.24)
2
Tomando o limite com ¢ω ! 0 e K ! 1, mas mantendo o produto constante, o somatório na Eq. (B.23) se
torna uma integral e:
K
X Z +1
σ2§ = S(ωk )¢ω ! S(ω)dω,
k=¡K ¡1

sendo S(ω) ou SX (ω) a função de densidade espectral de potência do processo estocástico estacionário X(t). A
função de densidade espectral mostra como a variância do processo está distribuída de acordo com o conteúdo
de frequencias, conforme Eq. (B.24). Como S(ω) está de nido para frequencias negativas e positivas, é chamada
de função “two sided ”. Por de nição, S(ω) é simétrica em relação a origem (par), real e não-negativa.
Com estas preliminares, podemos determinar a função de autocorrelação do processo estacionário X(t), a
partir da representação acima:
K
X
RXX (τ ) = R(τ) = E[X(t)X(t + τ )] = E[X(0)X(τ )] = E[Xk (0)Xk (τ )],
k=¡K

sendo Xk (0) = Vk cos(©k ) e Xk (τ ) = Vk cos(ωk τ + ©k ). Utilizando trigonometria (cos(a) cos(b) = 1/2[cos(a ¡


b) + cos(a + b)]), obtemos:
K
X £ ¤
R(τ) = E Vk2 cos(©k ) cos(ωk τ + ©k )
k=¡K
K
X · ¸
1
E[Vk2 ]E (cos(ωk τ ) + cos(ωk τ + 2©k ))
2
k=¡K
K
X 1
= E[Vk2 ] cos(ωk τ )
2
k=¡K
K
X
= S(ω k )¢ω cos(ωk τ).
k=¡K

Tomando o limite com ¢ω ! 0 e K ! 1, obtemos:


8 R1
< R(τ ) = ¡1 S(ω) cos(ωτ )dω
R1 (B.25)
: 1
S(ω) = 2π ¡1 R(τ ) cos(ωτ )dτ .

A segunda equação forma o chamado “par de Wiener-Khinchine”, ou transformada de Fourier, que relaciona
R(τ ) com S(ω). Fazendo τ = 0 na Eq. (B.25), obtemos a variância:
Z 1
σ 2§ = S(ω)dω. (B.26)
¡1

Como R(τ ) = R(¡τ ), resulta da Eq. (B.25) que S(¡ω) = S(ω), ou seja, a função densidade espectral de
potência S(ω) também é par.
B.2. PROPRIEDADES DE PROCESSOS ESTOCÁSTICOS 405

Representação espectral formal

Para manter a generalidade, e permitir a comparação com outras referencias, é apresentada também a versão
formal do par de Wiener-Khinchine:
8 R1
< R(τ ) = ¡1 S(ω)eiωτ dω
R1 (B.27)
: 1 ¡iωτ
S(ω) = 2π ¡1 R(τ )e dτ .
1
O termo 2π pode aparecer na primeira ou na segunda equação, de acordo com a construção adotada. As equações
de Wiener-Khinchine também podem ser escritas em termos da densidade espectral de potência G(ω) = 2S(ω),
escrita para frequencias não-negativas (ω ¸ 0):
8 R1 R1
< R(τ ) = 2 0 S(ω)eiωτ dω = 0 G(ω)eiωτ dω
R1 R1 (B.28)
: 4 2
G(ω) = 2π 0
R(τ)e¡iωτ dτ = π 0
R(τ )e¡iωτ dτ.

As funções de correlação-cruzada (RXY (τ )), e de densidade espectral de potência cruzada (SXY (ω)) de dois
processos X(t) e Y (t), também seguem uma relação de Wiener-Khinchine:
8 R1
< RXY (τ ) = ¡1 SXY (ω)eiωτ dω
R1 (B.29)
: 1 ¡iωτ
SXY (ω) = 2π ¡1
R XY (τ )e dτ .

Exemplos de funções densidade espectral de potência (processos estacionários)

Nas Figuras (B-1) e (B-2) são apresentadas algumas funções de autocorrelação típicas de processos estocásticos
contínuos e as respectivas densidades espectrais de potência.

Momentos da função densidade espectral de potência

São de grande utilidade no trabalho com processos estocásticos os momentos da função densidade espectral de
potência. De nimos o momento de ordem k como:
Z 1
λk ´ jωjk S(ω)dω. (B.30)
¡1

O momento de ordem zero corresponde à variância do processo (Eq. B.26). Por propriedade da transformada de
_
Fourier, a função densidade espectral de potência do processo derivada X(t) é obtida multiplicando a densidade
espectral de potência do processo original por ω 2 (Elishako¤, 1999, pg. 300):

SX_ (ω) = ω2 SX (ω),


SXÄ (ω) = ω4 SX (ω).

Resulta desta propriedade que os momentos espectrais estão relacionados com o processo X(t) e com suas
_
derivadas, X(t) Ä
e X(t), da seguinte maneira:

λ0 = σ2X ;
λ2 = σ2X_ ;
λ4 = σ2XÄ . (B.31)
406 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS

Figura B-1: Funções de auto-correlação comuns e densidades espectrais de potência correspondentes (ajustadas
para área unitaria, plotadas para comprimento de correlação c = 1).
B.2. PROPRIEDADES DE PROCESSOS ESTOCÁSTICOS 407

Figura B-2: Funções de auto-correlação comuns e densidades espectrais de potência correspondentes (ajustadas
para área unitaria), continuação.
408 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS

A frequência média de passagens por zero de um processo estocástico é:


r
λ2 σ_
ω0 = = X¢ (B.32)
λ0 σX

São chamados de parâmetros espectrais adimensionais as seguintes grandezas:


s
λ2
ζ = 1¡ 1 ,
λ0 λ2
s
λ2
ς = 1¡ 2 ¢ (B.33)
λ0 λ4

Estes parâmetros serão utilizados oportunamente no trabalho com processos estocásticos. Um parâmetro im-
portante, que caracteriza a largura de banda do processo, é o fator de regularidade:
p λ2
α= 1 ¡ ς2 = p ¢
λ0 λ4
O fator de regularidade varia entre 0 e 1. Processos de banda estreita, que tem elevado nível de regularidade,
tem α próximo de um. O ruído branco tem α = 0.

Exercício 21 Densidade espectral de potência:


A) Demonstrar que o fator de regularidade do sinal cos(ω0 t) é unitário.
B) Demonstrar que, no limite com (ω B ¡ ω A ) ! 0, o fator de regularidade do processo de banda limitada
tende a um (α ! 1).

Representação de processos estocásticos estacionários: implementação computacional

No início desta seção, vimos que um processo estocástico X(t) pode ser representado como uma soma de
senóides, a partir de um conjunto de frequencias ω k ponderadas por uma amplitude Vk , relacionada com a
função densidade espectral de potência (Eq. B.22). A representação exata ocorre apenas no limite, com o
número de termos do somatório tendendo ao in nito (2K = m ! 1). A implementação computacional resulta
em uma aproximação do processo, obtida para m nito e representada por Xm (t).
Para a implementação computacional, precisamos de nir uma frequencia superior de corte (ω UB ), bem como
o número (m) de termos do somatório. A escolha destes dois parâmetros não é independente, pois o truncamento
do conteúdo de frequencias torna o sinal gerado (a amostra xm (t)) periódica; o período do sinal é dado por:
2πm
tp = .
ω UB

Utilizar uma frequencia ω UB muito grande reduz o período da amostra, e um valor muito pequeno reduz
a precisão da aproximação de X(t) por Xm (t). A mesma frequencia superior de corte ω UB é utilizada para
determinar, numericamente, os momentos da função densidade espectral de potência (Eq. B.30). A frequencia
inferior do sinal (ωLB ) é igual a ¡ω UB , para funções espectrais simétricas, e nula1 no caso de densidades de

1 Uma excessão é o processo de banda limitada.


B.2. PROPRIEDADES DE PROCESSOS ESTOCÁSTICOS 409

frequencias não-negativas. Nesta seção, e para implementação computacional, consideramos apenas frequencias
positivas, com densidade de frequencias dada por G(ω), ω ¸ 0. Adotando uma distribuição uniforme de
frequencias no intervalo, temos:
ω ¡ ωLB
¢ω = UB
m
p p
Da Eq. (B.24), temos que Vk = 2S(ωk )¢ω = G(ω k )¢ω. Amostras do processo são obtidas a partir da
Eq. (B.22):
p X m p
Xm (t) = µ + 2 G(ω k )¢ω cos(ωk t + ©k ). (B.34)
k=1

Os angulos de fase são variáveis aleatórias com distribuição uniforme ©k » U (0, 2π).
A representação na Eq. (B.34) é contínua no tempo, mas deve ser discretizada para implementação com-
putacional. Assumindo que amostras do processo serão obtidas no domínio ­t = (0, tD ), e que o processo será
avaliado em npth pontos, a função cosseno na Eq. (B.34) será avaliada m £ npth vezes, para cada amostra.
Em uma solução via Simulação de Monte Carlo, muitas amostras do processo precisam ser geradas; e o custo
computacional pode crescer rapidamente. A Eq. (B.34) discretizada no tempo ca:

m
p X p tD
Xmn (tn ) = µ + 2 G(ω)¢ω cos(ωk tn + ©k ), tn = (2n ¡ 1)/2, n = 1, ..., npth . (B.35)
n pth
k=1

Por questões de resolução, é necessário que npth > 2m; por exemplo, para evitar que a avaliação discreta
perca picos (máximos locais) do processo.
Uma expressão alternativa para a Eq. (B.34) dispensa as fases aleatórias mas inclui a função seno:
m p
X
Xm (t) = µ + G(ωk )¢ω (Ak cos(ωk t) + Bk sen(ωk t)) . (B.36)
k=1

As variáveis Ak e Bk são independentes, tem distribuição normal padrão e podem ser geradas pelo algoritmo
de Box-Miller (Eq. 5.12). A Eq. (B.34) é ligeiramente mais rápida de avaliar, em função de incluir apenas a
função cosseno.
Existem outras formas alternativas de representação de processos estocásticos, por exemplo utilizando bases
ortogonais. Estas formas são estudadas no contexto dos campos estocásticos, no Apêndice C.

B.2.8 Continuidade de processos estocásticos


Na Seção B.1.1, de nimos um processo estocástico como uma família de funções do contínuo t. Se cada uma das
funções x(w, t) que compõe esta família for contínua em t, então o processo estocástico X(t) também é contínuo
em t:
lim [x(w, t + τ ) ¡ x(w, t)] = 0, 8w 2 ­.
τ !0

O conceito usual de continuidade de funções se aplica neste caso. No entanto, esta de nição é muito restritiva
para processos estocásticos. Se:
lim [x(w, t + τ ) ¡ x(w, t)] = 0, (B.37)
τ!0

para quase todas as realizações x(w, t), e os pontos amostrais w para os quais a Eq. (B.37) não vale tem
probabilidade nula, dizemos que o processo X(t) é contínuo com probabilidade 1 (almost sure convergence,
Jacod & Protter, 2004). Logo, podemos de nir continuidade em termos de probabilidades: por hipótese, se
apenas 90% dos pontos amostrais w dão origem a funções x(w, t) contínuas, o processo X(w, t) seria contínuo
410 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS

com probabilidade de 90%. Esta interpretação, no entanto, é muito especí ca, pois depende de conhecermos o
espaço amostral de cada processo.
De forma semelhante, mas muito mais geral, podemos de nir continuidade em média quadrática (mean
square ou m.s.). Dizemos que um processo estocástico X(t) é contínuo em média quadrática, em um ponto t,
se: h i
lim E (X(t + τ ) ¡ X(t))2 = 0. (B.38)
τ!0

Observe que a Equação (B.38) é muito semelhante à equação da variância; logo, quando esta “variância” tende
a zero, X(t + τ ) converge para X(t) de forma quase-certa ou quase-determinística... Este resultado é mais geral,
e implica em convergência na média e em convergência em probabilidade (almost sure convergence).
Sendo RXX (t1 , t2 ) = R(t1 , t2 ) a função de autocorrelação, temos que:
h i £ ¤
E (X(t + τ ) ¡ X(t))2 = E X 2 (t + τ ) ¡ 2X(t + τ )X(t) + X(t)2
= R(t + τ , t + τ ) ¡ 2R(t + τ , t) + R(t, t) (B.39)

Logo, o processo X(t) é contínuo em t se a função de autocorrelação é contínua em t1 e t2 , para t1 = t2 = t.


Da Eq. (B.39) segue que, para um processo estritamente estacionário,
h i
E (X(t + τ ) ¡ X(t))2 = 2 [R(0) ¡ R(τ )] .

Logo, se a função de autocorrelação é contínua na origem, o processo estritamente estacionário é contínuo para
qualquer t.

B.2.9 Diferenciabilidade de processos estocásticos


A derivada de um processo estocástico X(t) pode ser de nida como o limite:

_ dX(w, t) X(w, t + τ ) ¡ X(w, t)


X(w, t) = = lim ¢ (B.40)
dt τ!0 τ
Se este limite existe para todos os pontos amostrais w, e para toda a família de funções X(w, t), a de nição
usual de derivada é válida. Neste caso, dizemos que o processo X(t) é diferenciável com probabilidade 1. No
entanto, esta de nição é muito restritiva.
Dizemos que um processo estocástico X(t) é diferenciável em média quadrática, se existe uma família de
_
funções X(t), tais que: "µ ¶2 #
X(t + τ ) ¡ X(t) _
lim E ¡ X(t) = 0. (B.41)
τ!0 τ
_
Novamente, quando a “variância” na Eq. (B.41) tende a zero, (X(t + τ ) ¡ X(t))/τ converge para X(t) de forma
quase-certa ou quase-determinística (almost sure convergence).
Como função (linear) de um processo estocástico, é claro que a derivada X(t)_ é também um processo
estocástico. Propriedades gerais do processo derivada são difíceis de determinar, mas algumas propriedades
especí cas podem ser obtidas, em particular para processos estritamente estacionários.
_
O valor esperado do processo derivada, E[X(t)], pode ser obtido de:

E [X(t + τ ) ¡ X(t)] = µX (t + τ ) ¡ µX (t);


B.2. PROPRIEDADES DE PROCESSOS ESTOCÁSTICOS 411

logo:
· ¸
_ X(t + τ ) ¡ X(t)
E[X(t)] ´ lim E
τ !0 τ
µ (t + τ ) ¡ µX (t)
= lim X
τ !0 τ
dµX (t)
= = µX_ (t); (B.42)
dt
ou seja, a média da derivada de um processo estocástico é a derivada da média. Se X(t) é um processo
estacionário, resulta que µX_ (t) = 0 (Eq. B.19).
_ 2 )], pode ser
A função de correlação cruzada de um processo com sua derivada, RX X_ (t1 , t2 ) = E[X(t1 )X(t
obtida a partir de: · ¸
X(t2 + τ ) ¡ X(t2 ) RXX (t1 , t2 + τ ) ¡ RXX (t1 , t2 )
E X(t1 ) = ;
τ τ
logo, no limite com τ ! 0, temos:
∂RXX (t1 , t2 )
RX X_ (t1 , t2 ) = ¢
∂t2

De forma semelhante, temos que:


· ¸
X(t1 + τ ) ¡ X(t1 ) _ R _ (t1 + τ , t2 ) ¡ RX X_ (t1 , t2 )
E X(t2 ) = X X ,
τ τ

o que, no limite com τ ! 0, resulta em:

_ 1 )X(t
_ 2 )] ´ R _ _ (t1 , t2 ) = ∂ 2 RXX (t1 , t2 )
E[X(t XX ¢ (B.43)
∂t1 ∂t2

Em particular, para processo estritamente estacionário, temos que:

∂ 2 RXX (τ )
RX_ X_ (τ ) = .
∂τ 2

Um processo estacionário X(t) é diferenciável em média quadrática se a sua função de autocorrelação RXX (τ )
tem derivadas até segunda ordem. Um processo não-estacionário é diferenciável em média quadrática se a
derivada a direita da igualdade, na Eq. (B.43), existe para quaisquer t1 = t2 . Demonstrações em Papoulis e
Pillai (2001).

B.2.10 Integrais de processos estocásticos


Seja um processo estocástico real X(t), e duas constantes a e b. Se a integral:
Z b
Y (w) = X(w, t)dt
a

existe, no sentido de Riemann, para qualquer função da família X(w, t), então Y (w) é uma variável aleatória
real, e pode ser entendida como a área sob a curva X(w, t). Se a integral não existe para todo w, ainda assim
412 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS

podemos de nir a integral em média quadrática:


2Ã !2 3
n
X
lim E 4 Y ¡ X(ti )¢ti 5 = 0. (B.44)
¢ti !0
i=1

A função de distribuiçao cumulativa FY (y) é difícil de determinar, pois representa o limite em média quadráti-
ca de uma soma de variáveis aleatórias (a soma de duas variáveis aleatórias já não é trivial, como vimos na
Seção A.6.2). No entanto, a média e a variância de Y podem ser determinadas, como segue.
O valor esperado de Y é:
"Z #
b
E[Y ] ´ E X(t)dt
a
Z b
= E [X(t)] dt
a
Z b
= µX (t)dt = µY .
a

A variância de Y é:
£ ¤
V ar[Y ] ´ E (Y ¡ µY )2
"Z Z b #
b
= E (X(t1 ) ¡ µX (t1 )) dt1 (X(t2 ) ¡ µX (t2 )) dt2
a a
Z bZ b
= E [(X(t1 ) ¡ µX (t1 )) (X(t2 ) ¡ µX (t2 ))] dt1 dt2
a a
Z bZ b
= CXX (t1 , t2 )dt1 dt2 = σ2Y . (B.45)
a a

Esta última linha resulta da de nição de função de autocovariância (Eq. B.9). Existência da integral dupla na
Eq. (B.45) é condição necessária e su ciente para a existência da integral em média quadrática de X(t), Eq.
(B.44).

B.2.11 Estatísticas temporais


Seja X(t) um processo estocástico real e estacionário. A média temporal U deste processo é obtida como:
Z
1 t
U(w) ´ lim X(w, t)dt. (B.46)
t!1 2t ¡t

É claro que U(w) é uma variável aleatória. Podemos também de nir a função:
Z t
1
R(w, τ ) ´ lim X(w, t + τ )X(w, t)dt. (B.47)
t!1 2t ¡t
B.2. PROPRIEDADES DE PROCESSOS ESTOCÁSTICOS 413

Para cada realização do processo (X(wi , t) = x(t)), U(wi ) = u é uma constante e R(wi , τ ) = r(τ ) é uma função
de τ. Para t su cientemente grande, obtemos as aproximações:
Z
1 t
Ut (w) = X(w, t)dt;
2t ¡t
Z
1 t
Rt (w, τ ) = X(w, t + τ)X(w, t)dt; (B.48)
2t ¡t

que também representam uma variável aleatória e uma função de τ , para cada realização do processo.
As grandezas U(w) e R(w, τ ) são estatísticas temporais do processo estocástico estacionário X(t). É impor-
tante salientar a diferença entre estas e as estatísticas de nidas nas Equações (B.19) e (B.20). As grandezas
E[X(t)] = µ e E[X(t)X(t + τ )] = RXX (τ ) são estatísticas tomadas sobre as diferentes realizações w do processo
estocástico. Estas são chamadas de estatísticas de valor esperado ou ainda estatísticas de envelope, em contraste
às estatísticas temporais nas Eqs. (B.46) e (B.47).

B.2.12 Processos ergódicos


De nição 9 Um processo estocástico X(t) é ergódico se as suas estatísticas temporais são idênticas às suas
estatísticas de valor esperado (de envelope).

Por de nição, um processo ergódico é necessariamente estacionário. O inverso não é verdadeiro, porque
um processo estacionário não é necessariamente ergódico. Se um processo X(t) é estritamente ergódico, suas
estatísticas podem ser determinadas a partir das estatísticas temporais de uma única realização X(wi , t) = x(t)
do processo.
A ergodicidade estrita implica em que todas as estatísticas temporais do processo sejam idênticas às es-
tatísticas de envelope correspondentes. Esta condição de ergodicidade é rígida, mas pode ser relaxada para os
momentos de interesse.

Ergodicidade na média

Um processo estocástico X(t) é ergódico na média se a média temporal é idêntica à média de envelope:
Z t
1
lim X(w, t)dt = U(w) = E[X(w, t)] = µX .
t!1 2t ¡t

Ergodicidade na função de autocorrelação

De maneira semelhante, um processo estocástico X(t) é ergódico na função de autocorrelação se R(w, τ ) é


idêntica a RXX (τ ):
Z t
1
lim X(w, t + τ)X(w, t)dt = R(w, τ ) = E[X(t + τ )X(t)] = RXX (τ ).
t!1 2t ¡t

Exemplo 45 Considere o processo estocástico estacionário X(t) = Y, sendo Y uma variável aleatória com
414 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS

momentos (µY , σY ). Para a i-ésima realização (Y = yi ), temos:

U(wi ) = yi ;
E[X(t)] = µY ;

ou seja, a média temporal é diferente do valor esperado. Temos também:

R(wi , τ ) = yi2 ;
E[X(t + τ )X(t)] = E[Y 2 ] = σ2Y ;

e novamente, a estatística temporal difere da estatística de envelope (R(wi , τ ) 6= E[X(t + τ )X(t)]). Logo, o
processo aleatório parametrizado X(t) = Y é exemplo de processo estacionário que não é ergódico.

B.3 ESTATÍSTICAS DE BARREIRA

B.3.1 Período médio de recorrência ou tempo médio de retorno


As principais aplicações de con abilidade estrutural envolvem extremos de processos estocásticos (ações) ao lon-
go de determinados períodos (exemplo: vida de projeto de uma estrutura). Os eventos extremos correspondem
a determinados níveis que o processo pode atingir.
Seja um processo X(t), e um nível crítico deste processo, b, distante alguns desvios-padrão da média µX ,
conforme ilustrado na Figura (B-3). A frequência com a qual o processo visita o nível b, ou o tempo de
recorrência entre visitas sucessivas, é estatística importante. O tempo que o processo permanece acima ou
abaixo do nível b também pode ser importante. É intuitivo e fácil de perceber que, quanto mais elevado o nível
da barreira b, mais raras são as visitas do processo a este nível, e maior é o período de recorrência entre visitas
sucessivas (Ditlevsen, 1986).
Seja Tr (b) o período de recorrência entre visitas sucessivas do processo X(t) ao nível de barreira b (aqui, uma
visita corresponde a uma passagem de barreira de baixo para cima, ou seja, a visita não acaba até que o processo
tenha voltado abaixo do nível b). Claramente, se X(t) é um processo estocástico, Tr (b) é uma variável aleatória.
As estatísticas de Tr (b), em geral, são difíceis de determinar. No entanto, o período médio de recorrência ou
período médio de retorno:
E[Tr (b)] = µTr (b),
pode ser determinado para muitos processos estocásticos, como veremos nesta seção.
A variável aleatória período de recorrência Tr (b) pode ser decomposta em dois períodos de interesse, Ta (b) e
Tb (b), que correspondem ao tempo que o processo permanece acima e abaixo do nível b, respectivamente, entre
visitas sucessivas (Figura B-4):
Tr (b) = Ta (b) + Tb (b).
Ainda que as estatísticas de Tr (b) di cilmente possam ser calculadas, os períodos Ta (b) e Tb (b) podem ser
determinados. Para um processo X(t) estacionário e um período de tempo longo, as frações de tempo que o
B.3. ESTATÍSTICAS DE BARREIRA 415

X ( t ), b

b arreira b ( t )  b

x ( t )  realização de X ( t )
t

Figura B-3: Ultrapassagem da barreira b(t) = b pelo processo estocástico X(t).

Figura B-4: Distinção entre os tempos que um processo passa acima (Ta (r)) e abaixo (Tb (r)) da barreira.

processo passa acima e abaixo do nível b, respectivamente, são (Ditlevsen, 1986):


Z 1
E[Ta (b)] E[Ta (b)]
= = fX (x)dx = 1 ¡ FX (b), (B.49)
E[Ta (b) + Tb (b)] E[Tr (b)] b
Z b
E[Tb (b)] E[Tb (b)]
= = fX (x)dx = FX (b). (B.50)
E[Ta (b) + Tb (b)] E[Tr (b)] ¡1

Em ambas expressões, o valor esperado E[ ] é sobre o envelope e o resultado assintoticamente correto com
t ! 1.
A interpretação dos períodos de recorrência está associada a eventos que se repetem ao longo do tempo
com determinada regularidade. No entanto, é importante observar que estas estatísticas são válidas também
para processos estocásticos não estacionários, situação em que tal regularidade muda ao longo do tempo. Sendo
assim, para processos não estacionários as estatísticas de período de retorno são dependentes do tempo. Outra
situação em que a regularidade das ultrapassagens de barreira ao longo do tempo não acontece é o caso de uma
barreira variável com o tempo, b(t). Também neste caso, as estatísticas de período de recorrência existem, ainda
que sejam funções do tempo (e.g., Tr (b, t)).
Outra estatística muito importante é o tempo ou período até a primeira visita do processo X(t) ao nível
416 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS

b, representada por T1 (b). Este período é também uma variável aleatória, muito importante em análise de
con abilidade dependente do tempo.

B.3.2 Taxa de passagens pela barreira


A di culdade de se interpretar períodos de recorrência que variam ao longo do tempo, seja no caso de processos
estocásticos não-estacionários e/ou no caso de barreiras que variam com o tempo, faz com que seja mais fácil
trabalhar com a taxa ou frequência média de passagens pela barreira (crossing rate), de nida como:
2
υ(b, t) = ¢ (B.51)
E[Tr (b, t)]

Nesta expressão, o valor esperado E[ ] é sobre o envelope. Note que esta taxa ou frequência não está associada
com eventos que se repetem ao longo do tempo, mas sim com eventos que se repetem na dimensão estocástica
(envelope). A interpretação de taxa ou frequência está relacionada com a unidade de medida, tempo¡1 .
Na Eq. (B.51), o numerador 2 aparece porque cada período Tr (b, t) está associado com duas passagens de
barreira, uma de cima para baixo e uma de baixo para cima. Muitas vezes, estamos interessados apenas em
passagens de barreira de baixo para cima (up-crossing rate), o que pode ser escrito como:

υ(b, t) 1
υ + (b, t) = = ¢ (B.52)
2 E[Tr (b, t)]

De maneira semelhante, a taxa de passagens de barreira de cima para baixo é:

υ(b, t) 1
υ ¡ (b, t) = = ¢ (B.53)
2 E[Tr (b, t)]

Para processos estocásticos estacionários e barreiras constantes no tempo, as taxas de passagens pela barreira
também são constantes no tempo:
1
υ + (b) = υ ¡ (b) = ¢ (B.54)
E[Tr (b)]

De maneira semelhante, a taxa de chegada da primeira visita do processo ao nível b é:


1
υ 1 (b) = ¢
E[T1 (b)]

Fórmula de Rice (1944)

A taxa de passagens (de baixo para cima) de um processo X(t) por uma barreira constante b pode ser deter-
minada conforme segue (Melchers & Beck, 2018). Considere o que aconteçe entre os instantes t e t + ¢t, com
¢t ! 0, quando neste intervalo ocorre uma ultrapassagem da barreira. Para que a passagem de barreira ocorra
neste intervalo, é necessário que o processo esteja abaixo do nível b no instante t, e que tenha variação (derivada)
su ciente para ultrapassar a barreira neste intervalo, conforme Figura (B-5):
1 h ³
_
´i
υ + (b, t) = lim P (X(t) < b) \ X(t) + X(t)¢t >b
¢t!0 ¢t
1 h ³
_
´i
= lim P (X(t) < b) \ X(t) > b ¡ X(t)¢t . (B.55)
¢t!0 ¢t

_
Esta condição é representada em termos das variáveis aleatórias X(t) e X(t) na Figura (B-6). Um elemento
de área nesta representação corresponde ao evento fx · X(t) · x + dx, x_ · X(t) _ · x_ + dxg,
_ descrito pela
B.3. ESTATÍSTICAS DE BARREIRA 417

x(t ) b (t )  b
x&  t

x( t )

t1 t1  t t

Figura B-5: Condição de ultrapassagem da barreira b(t) = b pelo processso X(t).

função de distribuição de probabilidades conjunta fX X_ (x, x).


_ Portanto, a probabilidade expressa na Equação
(B.55) pode ser avaliada pela integral:
Z 1 Z b
1
υ + (b, t) = lim fX X_ (x, x)dxd
_ x.
_ (B.56)
¢t!0 ¢t 0 b¡x¢t
_

No limite com ¢t ! 0, a área de integração se reduz a uma estreita faixa e (b ¡ x¢t)


_ ! b. Substituindo o
limite por uma derivada:
Z 1 " ÃZ b !#
+ d
υ (b, t) = fX X_ (x, x)dx
_ dx.
_
0 dt b¡xdt
_

O integrando não depende de t, de forma que basta derivar os limites de integração em relação à t:

b = 0,
∂t

(b ¡ xdt)
_ = ¡x.
_
∂t
Assim, obtemos:
Z 1
+
υ (b, t) = [(0) fX X_ (x, x)
_ ¡ (¡x)f
_ X X_ (b, x)]
_ dx_
Z0 1
= x_ fX X_ (b, x)d
_ x._ (B.57)
0

Esta é a fórmula de Rice (1944) para a taxa de passagens pela barreira υ + (b, t). Utilizando procedimento
análogo, uma expressão semelhante é obtida para υ(b, t):
Z 1
υ(b, t) = jxj
_ fX X_ (b, x)d
_ x._ (B.58)
¡1

Note que esta expressão corresponde ao valor esperado do valor absoluto da derivada jxj
_ , avaliada em x = b.
Para uma barreira que é função do tempo, uma expressão semelhante a Eq. (B.57) é obtida:
Z 1
+
υ (b, t) = _ f _ (b, x)d
(x_ ¡ b) _ x._ (B.59)
XX
b_
418 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS

Figura B-6: Limites de integração da taxa de passagens pela barreira no plano (x, x).
_

Taxa de passagens pela barreira - processo Gaussiano

_ 1 ) tem correlação nula. Se o processo


Para um processo estacionário X(t), as variáveis aleatórias X(t1 ) e X(t
_
X(t) é Gaussiano e estacionário, então X(t1 ) e X(t1 ) são também independentes. Neste caso, a Eq. (B.58)
pode ser escrita como (Madsen et al., 1986):
Z 1
υ(b) = jxj
_ fX (b)fX_ (x)d
_ x_
¡1
h¯ ¯i
¯ ¯
= fX (b)E ¯X_ ¯ .

Cada passagem de barreira de baixo para cima é seguida por uma passagem de cima para baixo, de forma
que:
1 h¯ ¯i
¯ ¯
υ + (b) = υ ¡ (b) = fX (b)E ¯X_ ¯ .
2
_
Como a diferenciação é uma operação linear, resulta que se X(t) é processo Gaussiano, X(t) é processo
_ = µ _ = 0. Para
Gaussiano também. Para X(t) estacionário, resulta das Equações (B.19) e (B.42) que E[X] X
um desvio-padrão σX_ , obtemos:
Z 1 " µ ¶2 #
h¯ ¯i 1 x_ 1 x_
¯ _¯
E ¯X ¯ = 2 p exp ¡ dx_
0 2π σX_ 2 σX_
" µ ¶2 #¯1
2σX_ 1 x_ ¯
¯
= ¡ p exp ¡ ¯
2π 2 σX_ ¯
0
2σ _
= pX¢

Portanto:
σ_
υ + (b) = p X fX (b)

" µ ¶2 #
1 σX_ 1 b ¡ µX
= exp ¡ . (B.60)
2π σX 2 σX
B.3. ESTATÍSTICAS DE BARREIRA 419

Para b = µX esta equação forneçe a frequência média do processo, ou taxa de passagens pela média:
1 σX_ ω0
υ+
0 = = ¢ (B.61)
2π σX 2π

σ .
Na Equação (B.61), ω0 é a frequência angular média do processo. Isto mostra que o termo σXX
que aparece
na Eq. (B.60) vem a ser a frequência angular média ω0 . Utilizando as Equações (B.31), esta frequência pode
ser calculada como: r
σX. λ2
ω0 = = ¢ (B.62)
σX λ0

Em termos de υ +
0 , a taxa de passagens pela barreira ca:
" µ ¶2 #
+ + 1 b ¡ µX
υ (b) = υ 0 exp ¡ . (B.63)
2 σX

Interpretando este resultado, observamos que a taxa de passagens por uma barreira b é dada pela taxa de
passagens pela média, multiplicada por um termo que é quase a função de densidade de probabilidades do
processo, avaliada em b. A função de densidade fornece a probabilidade de longo prazo de que o processo esteja
numa vizinhança do nível b:
fb ¡ ¢x/2 · X(t) · b + ¢x/2g, ¢x ! 0.
A frequência média υ +0 informa quão rapidamente o processo varia no tempo, e portanto determina com que
frequência o processo visitará o nível b.
Utilizando a Eq. (B.59) e seguindo um procedimento semelhante, obtemos a taxa de passagens por uma
barreira b(t) = a ¡ bt que varia linearmente com o tempo (Cramer & Leadbetter, 1967):
· ¸ · ¸
a ¡ bt ¡ µX b
υ + (a, b, t) = ω0 φ ª ¡ ,
σX ω 0 σX
R
sendo ª[x] = φ[x] ¡ x©[¡x] a integral inde nida ©(x)dx.

Taxa de passagens pela barreira - processos contínuos diferenciáveis

Para processos não Gaussianos e/ou não-estacionários, a determinação de υ + (b, t) não é trivial e geralmente
não pode ser obtida analiticamente. Nesta seção, é apresentada uma solução para calcular a taxa de passagens
pela barreira numericamente, para processos contínuos diferenciáveis.
A taxa de passagens de um processso X(t) pela barreira b pode ser determinada por:
1
υ + (b, t) = lim P [X(t) < b \ X(t + ¢t) ¸ b]. (B.64)
¢t!0 ¢t
Em palavras, esta expressão signi ca:

“a probabilidade de ocorrer uma ultrapassagem de barreira no intervalo (t, t + ¢t) é igual a proba-
bilidade de que o processo esteja abaixo da barreira no instante t e ultrapasse este nível durante o
intervalo ¢t.”

A Equação (B.64) permite compreender o problema, mas não é adequada para ns de avaliação da taxa.
420 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS

Uma formulação melhor é obtida expandindo X(t) em primeira ordem em t:


_
X(t + ¢t) ' X(t) + ¢tX(t). (B.65)

Substituindo a Eq. (B.65) em (B.64) obtemos:

1 h ³
_
´i
υ + (b, t) = lim P (X(t) < b) \ X(t) + ¢tX(t) ¸b , (B.66)
¢t!0 ¢t

o que também pode ser escrito como:


8 h³ ´ ³ ´i 9
1 < P X(t)_ > 0 \ X(t) + ¢t _
X(t) ¸ b + =
υ + (b, t) = lim h³ ´ i . (B.67)
¢t!0 ¢t : ¡P _
X(t) > 0 \ (X(t) ¸ b) ;

Esta equação representa uma aproximação em diferenças nitas da derivada da probabilidade de falhas de
um sistema em paralelo (entre colchetes). Isto permite escrever:

d h³ ´ ³ ´i¯
_ _ ¯
υ + (b, t) = Pθ X(t) > 0 \ X(t) + θX(t) ¸b ¯ , (B.68)
dθ θ=0

d
sendo Pθ [ ] a probabilidade associada ao sistema em paralelo e dθ Pθ [¢]jθ=0 a medida de sensibilidade desta
probabilidade. As probabilidades expressas na Equação (B.68) estão representadas na Figura (B-6), bastando
substituir ¢t por θ.
A taxa expressa na Eq. (B.68) pode ser avaliada utilizando as seguintes equações de estado limite:
_
g1 (t) = ¡X(t),
_
g2 (t, θ) = b ¡ X(t) ¡ θX(t).

A experiência do autor mostra que aproximações lineares, como os limites bi-modais estudados na Seção
4.3.1, não são su cientemente sensíveis à rotação da equação de estado limite g2 (t, θ). Bons resultados foram
obtidos pelo autor utilizando simulação com amostragem por importância.

B.4 TEORIA DE VALORES EXTREMOS


Na Seção (A.7), estudamos a teoria de valores extremos no contexto de variáveis aleatórias. Na presente seção,
ampliamos o escopo deste estudo para extremos de processos estocásticos.

B.4.1 Extremos de um processo em um intervalo xo


As principais aplicações da con abilidade estrutural envolvem extremos de processos estocásticos (ações) ao
longo de determinados períodos (exemplo: vida de projeto tD da estrutura). O valor máximo de um processo
estocástico X(w, t) em um período de referência tD xo, é uma variável aleatória:

XtD (w) = max [X(w, t)].


0·t·tD
B.4. TEORIA DE VALORES EXTREMOS 421

B.4.2 Distribuição de picos (máximos locais) de processo Gaussiano estacionário


A distribuição de picos (máximos locais) de um processo estocástico é necessária para determinar a distribuição
de extremos do processo.
A ocorrência de um máximo local do processo X(t) corresponde ao evento fX(t)_ Ä < 0g. O número
= 0, X(t)
_
de máximos locais é igual ao número de passagens por zero (de cima para baixo) do processo X(t). Portanto, a
frequência de ocorrência de máximos locais é (Eq. B.61; Madsen et al., 1986):
1 σXÄ
υ max = υ ¡
0,X_
= ¢
2π σX_

Utilizando as Eqs. (B.31), este resultado pode ser escrito como:


r
1 λ4
υ max = ¢
2π λ2
p
Multiplicando o numerador por ω 0 e o denominador por λ2 /λ0 , a igualdade é mantida (Eq. B.32), e obtemos:
r r
ω0 λ4 λ0 υ+
υ max = = 0¢ (B.69)
2π λ2 λ2 α

Este resultado mostra que, para um processo estocástico de banda estreita ideal (α = 1), o número de máximos
locais é igual ao número de passagens por zero. Isto signi ca que cada passagem por zero corresponde a um
único máximo local. Já para um processo irregular de banda larga (com α ! 0), o número de máximos locais
é in nitamente maior do que o número de passagens por zero.
A função de densidade de probabilidade de um pico (máximo local) de um processo Gaussiano é dada por
(Madsen et al., 1986):
p µ ¶ µ ¶
x x2 αx
fp (x) = 1 ¡ α2 φ p + αx exp(¡ )© p . (B.70)
1 ¡ α2 2 1 ¡ α2
Esta distribuição é completamente de nida pelo fator de regularidade α, sendo as formas limites uma distribuição
de Rayleigh para α = 1 (somente picos positivos) e uma distribuição normal para α = 0 (mesmo número de
picos positivos e negativos), conforme ilustrado na Figura (B-7).

B.4.3 Distribuição de extremos de um processo Gaussiano estacionário


Conforme vimos na Seção (A.7), o valor máximo em n observações independentes de uma variável aleatória X
é uma variável aleatória com função de distribuição cumulativa de probabilidades dada por (Eq. A.104):

FXn (x) = [FX (x)]n . (B.71)

Utilizando a Equação (B.69), o número de picos (máximos locais) do processo X(t) no intervalo (0, tD ) é
dado por:
υ + tD 1 ω0 tD
np = 0 = ¢
α α 2π
A distribuição de valores extremos do processo Gaussiano no intervalo (0, tD ) é obtida a partir do máximo
em np observações de picos locais. Esta distribuição é obtida integrando a Eq. (B.70) em x e substituindo na
Eq. (B.71): µZ x ¶n p
FXtD (x) = fp (u)du . (B.72)
¡1
422 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS

Figura B-7: Função de densidade de um pico (máximo local) de processo Gaussiano.

Note que o número de picos np está de nido pelo tamanho do intervalo tD , e portanto a distribuição de extremos
FXtD (x) está indexada em tD . Utilizando a Eq. (B.71), assumimos independência entre picos do processo, o
que introduz um erro desprezível (Gumbel, 1958).
Uma solução assintótica da Eq. (B.72) é obtida para número de picos np grande, e resulta na dupla
exponencial: " Ã µ ¶ !#
1 x ¡ µX 2
FXtD (x) ' exp ¡n exp ¡ ,
2 σX

sendo n = ω2π
0 tD
= αnp o número esperado de passagens por zero do processo. A Figura (B-8) mostra o
comportamento desta distribuição em função de n.

B.5 PROCESSOS DISCRETOS


Esta seção é baseada em Melchers & Beck (2018).

B.5.1 Processo de Borges


Um dos processos estocásticos discretos mais simples é gerado por uma sequência w de variáveis aleatórias
Xk , independentes e identicamente distribuídas, cada uma atuando num intervalo determinístico de tempo tb ,
também chamado de holding-time. Num intervalo (0, tD ), o número de renovações será n = ttDb . Devido a
independência, a distribuição de valores extremos da sequência é:
· ¸
P max [w(tb , y) · b] = P [\ni=1 Xi · b] = (FX (b))n .
0·t·tD
B.5. PROCESSOS DISCRETOS 423

Figura B-8: Distribuição de valores extremos de um processo Gaussiano N (0, 1), em função do número de ciclos
n.

A probabilidade de falha, ou probabilidade de ultrapassagem de nível (X(t) > b), é dada por:
· ¸
pf (b, tD ) = P max [w(tb , y) > b
0·t·tD

= 1 ¡ (FX (b))n
tD
= 1 ¡ (FX (b)) tb .

B.5.2 Processo de Poisson


Quando o tempo entre ocorrências, e não a magnitude, é uma variável aleatória, um tipo diferente de processo
estocástico é obtido. O processo (de contagem) de Poisson fornece o número de ocorrências em um intervalo
de tempo, dado pela distribuição de Poisson (vide Seção A.3.1). O tempo entre as ocorrências, neste caso, é
descrito por uma distribuição exponencial (Seção A.3.2).
O processo de Poisson obedece às seguintes hipóteses fundamentais:

1. a probabilidade de que exatamente n eventos ocorrerão num intervalo de tamanho ¢t depende de n e ¢t,
mas não da posição do intervalo ¢t no eixo do tempo (estacionariedade do processo);
2. o número de eventos que ocorrem em dois intervalos não sobrepostos são variáveis aleatórias independentes
(processo sem memória); portanto, para t0 < t1 < t2 < ... < tn , as variáveis aleatórias N(t1 ) ¡ N (t0 ), ...,
N (tn ) ¡ N(tn¡1 ) são independentes;
3. a probabilidade de ocorrência de mais de um evento em um intervalo pequeno de tamanho ¢t é pelo
menos uma ordem de magnitude menor do que ¢t.

Em conjunto, estas hipóteses determinam que, no processo de Poisson, os incrementos são estacionários e
independentes.
Um processo de Poisson com taxa υ constante é dito homogêneo. Uma aproximação do processo de Poisson
é obtida quando υ = υ(t). Neste caso, o processo é dito não-homogêneo e a constante λ = υt passa a ser
Rt
calculada como λ = 0 υ(u)du. Para esta aproximação, a hipótese de estacionariedade deixa de ser válida, i.e.,
os incrementos não são mais estacionários.
424 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS

B.5.3 Processo de Poisson ltrado


Um processo no qual tanto o tempo entre ocorrências como a intensidade de cada ocorrência são variáveis
aleatórias é chamado de processo de Poisson ltrado ( ltered Poisson process). Tal processo é descrito por:
N(t)
X
X(t) = w(t, tk , Yk ),
k=1

sendo N (t) um processo de Poisson com intensidade υ, que gera os pontos tk , nos quais o processo sofre uma
renovação de magnitude aleatória Yk . Assumimos as intensidades Yk independentes e identicamente distribuídas.
A função w(t, tk , Yk ) é chamada de função de resposta do processo, pois representa a contribuição linear para a
resposta X(t) no instante t, devido à magnitude Yk atuando no instante tk .
Processos ltrados de Poisson são de nidos pela intensidade υ, que determina o número de renovações N (t),
pela distribuição de probabilidades de Yk , e pela forma da função w(t, tk , Yk ). Duas formas são particularmente
importantes na con abilidade estrutural, por serem apropriadas para representar carregamentos em estruturas:
o processo de pulsos e a onda quadrada de Poisson, estudados a seguir.

Processo de pulsos

Um processo com intensidade constante υ e pulsos retangulares de amplitude Yk e comprimento tb pode ser
descrito pela função de resposta:

w(t, tk , Yk ) = Yk para 0 < t ¡ tk < tb ,


= 0 caso contrário,

sendo Yk uma variável aleatória, independente entre pulsos, e de nida pela função fY (y). Observe que os pulsos
são esparsos quando υtb << 1.
A taxa de passagens pela barreira b e a probabilidade de falha à primeira sobrecarga são dadas no limite
com tb ! 0. A taxa de passagens é dada por:
½ ¾
1
υ + (b) = lim υP [ultrapassagem em ¢t]
¢t!0 ¢t
½ ¾
1
= lim υP [(Y (t) < b) \ (Y (t + ¢t) > b)]
¢t!0 ¢t

= υFY (b)(1 ¡ FY (b)), (B.73)

sendo υ a taxa de chegada dos pulsos. Observe que a última linha da Eq. (B.73) está baseada na independência
entre a intensidade dos pulsos. Se o nível b é elevado e constante, podemos escrever:

υ + (b) = υ(1 ¡ FY (b))

Observe que υ + (b) representa a intensidade do processo de pulsos. A probabilidade de falha para barreira b é
dada por:

pf (b, tD ) = P [pulso > b]


= 1 ¡ exp[¡υ + (b)tD ]
= 1 ¡ exp[¡υtD FY (b)(1 ¡ FY (b))].
B.5. PROCESSOS DISCRETOS 425

A distribuição de probabilidade acumulada do máximo de X(t) é dada por:

FXmax (b, x) = P [Xmax · b]


= 1 ¡ pf (tD )
= exp[¡υtD FY (b)(1 ¡ FY (b))].

O processo de pulsos de Poisson permite a representação de carregamentos eventuais, que são nulos durante
a maior parte do tempo. No entanto, como a duração dos pulsos tb é xa e o tempo de chegada entre pulsos
segue a distribuição exponencial, o processo de pulsos permite a coincidência de pulsos, i.e., a chegada de um
novo pulso enquanto o anterior ainda esta ativo. Esta condição pode ser inadequada para representar certos
tipos de carregamento.

Processo de onda quadrada

Quando o comprimento tb dos pulsos retangulares é dado pelo intervalo (aleatório) entre a chegada de pulsos
(tb = υ1 ), um processo de onda quadrada de Poisson é obtido. A altura Yk do pulso permanece constante até a
chegada do próximo pulso. Os valores Yk são independentes e identicamente distribuídos. No processo de onda
quadrada temos υtb = 1, o que gera um processo “cheio”.
Procedendo de maneira análoga ao caso do processo de pulsos, obtemos a taxa υ + (b) idêntica à Eq. (B.73).
A probabilidade de falha à primeira sobrecarga vem a ser:

pf (b, tD ) = FY0 (b) (1 ¡ exp[¡υtD FY (b)(1 ¡ FY (b))]) ,

sendo FY0 (b) = P [Y0 < b]. A intensidade do pulso inicial é independente das demais, por de nição. Da mesma
forma, a distribuição cumulativa do máximo de X(t) é:

FXmax (x) = P [Xmax · x]


= FY0 (x) exp[¡υtD FY (x)(1 ¡ FY (x))].

Processo de Poisson renovável

Processos nos quais eventos ocorrem ao longo do tempo, de acordo com uma determinada função de proba-
bilidades, são chamados genericamente de processos de Poisson renováveis (renewal processes). Os processos
de pulso e onda quadrada de Poisson são formas particulares deste tipo de processo. É possível generaliza-los
para pulsos com diferentes formatos de onda; no entanto, não existem resultados para a taxa de passagens pela
barreira nestes casos.

B.5.4 Processos de Poisson mistos


Um tipo muito ‡exível de processo discreto são os chamados processos mistos (mixed processes, Ditlevsen &
Madsen, 1983). Nestes processos, a ocorrência dos pulsos segue um processo de Poisson com intensidade υ.
A intensidade Yk é descrita por uma variável aleatória clipada (Seção A.3.3), que permite uma probabilidade
nita de pulsos de intensidade nula. Isto signi ca que o processo permanece “desligado” em alguns dos pulsos.
Assim, podemos representar carregamentos esparsos, evitando o problema da concidência de pulsos do processo
de pulsos de Poisson. O processo misto é muito ‡exível, pois permite representar tanto processos de pulsos
como processos de onda quadrada.
426 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS

Uma variável aleatória clipada para a intensidade Y é obtida de nindo as probabilidades:

p = P [fY = 0g];
q = P [fY > 0g];

sendo p a probabilidade de intensidade nula e q = 1 ¡ p a probabilidade de intensidade não-nula. As funções de


distribuição de probabilidades de Y são obtidas a partir das distribuições de uma variável qualquer Z:

FY (y) = pH(0) + qFZ (y);


fY (y) = pδ(0) + q fZ (y);

sendo δ(y) a função delta de Dirac e H(y) a função de Heaviside.


A Figura (B-9) ilustra quatro realizações de um processo discreto misto com υ = 1, e cuja intensidade segue
uma distribuição de Rayleigh clipada com p = 0, 2 e q = 0, 8. A Figura (B-10) mostra resultados semelhantes
com p = 0, 8 e q = 0, 2. Note como este segundo processo é mais esparso do que o primeiro.
A taxa de chegada de pulsos observáveis, i.e., de pulsos de intensidade não nula, é υq, sendo υ a taxa de
ocorrência de pulsos do processo de Poisson original. A taxa de passagens pela barreira, para processos mistos,
ca (Eq. B.73):
υ+ (b) = υq(p + qFZ (b))(1 ¡ FZ (b)). (B.74)

Utilizando uma correção para nível baixo de barreira, a Eq. (B.74) se simpli ca para:

υ + (b) = υq(1 ¡ FZ (b)). (B.75)


B.5. PROCESSOS DISCRETOS 427

Figura B-9: Realizações de processo discreto misto quase cheio, com p = 0, 2 e q = 0, 8.

Figura B-10: Realizações de processo discreto misto esparso, com p = 0, 8 e q = 0, 2.


428 TEORIA DE PROBABILIDADES: PROCESSOS ESTOCÁSTICOS
Apêndice C

TEORIA DE PROBABILIDADES:
CAMPOS ESTOCÁSTICOS

Este capítulo está baseado principalmente em Vanmarcke (1983), Newland (1993), Elishako¤ (1999) e Sudret e
Kiureghian (2000).

C.1 INTRODUÇÃO
Um campo estocástico, do inglês random eld, é um processo estocástico que varia em mais de uma dimensão.
Um processo estocástico é um “campo estocástico” unidimensional. No Anexo B, o processo estocástico X(t) es-
tava parametrizado em um contínuo t, que podia ser o tempo ou uma coordenada espacial. Campos estocásticos
permitem descrever variáveis aleatórias que variam no tempo e no espaço. Neste material, um campo estocástico
é denotado por X(t), sendo o vetor t 2 Rd , e d o número de parâmetros contínuos ao longo dos quais o campo
varia. O vetor t pode conter coordenadas espaciais: t = flatitude, longitude, profundidadeg, representadas
simpli cadamente por t = fu1 , u2 , u3 g, e coordenadas espaciais combinadas com o tempo: t = fu1 , u2 , u3 , tg. O
campo estocástico se desenvolve em um domínio (espacial e temporal) representado por ­t .
Campos estocásticos são utilizados para descrever grandezas como:

1. variação de propriedades geomecânicas no espaço; a concentração de partículas poluentes em um lago:


t = flatitude, longitude, profundidade, tempog;
2. direção e intensidade do vento em um parque eólico, ou ao longo da fachada de um prédio: t = flatitude,
longitude, altitude, tempog;
3. distribuição de ações acidentais em uma laje ou sobre uma ponte de muitas vias; variação da densidade
populacional no espaço: t = flatitude, longitude, tempog;
4. altura de onda, velocidade e direção de correntes marítimas; intensidade e direção de vento: t = flatitude,
longitude, profundidade, tempog.

Um campo estocástico pode ser uni ou multi-variado, a depender da quantidade de variáveis dependentes da
mesma coordenada t. Uma realização de um campo estocástico multi-variado X(t) é um vetor de funções do con-
tínuo em ­t . No exemplo 4 acima, altura de onda (H), velocidade (Vc ) e direção (αc ) de correntes marítimas po-
dem ser campos dependentes entre si, de forma que X(t) = fH(t), Vc (t), αc(t)g. Geralmente, estes campos tam-
bém dependem da velocidade (Vv ) e direção (αv ) do vento, de forma que: X(t) = fH(t), Vc (t), αc (t), Vv (t), αv (t)g.
430 TEORIA DE PROBABILIDADES: CAMPOS ESTOCÁSTICOS

Em um exemplo de geomecânica, angulo de atrito (αa ) e coesão (c) podem variar de forma dependente ao longo
do domínio espacial e temporal, de forma que X(t) = fαa (t),c(t)g. Neste material, abordamos apenas campos
estocásticos uni-variados multi-dimensionais, o que implica em assumir independência entre as variáveis citadas
acima, quando representadas no mesmo contínuo.
A notação e as de nições introduzidas na Seção B.1 para processos estocásticos são válidas também para
campos estocásticos, bastando trocar o escalar t por t. Assim, X(t) ou X(w, t) é um campo estocástico
univariado multidimensional no contínuo ­t . Para uma realização w xa, x(w, t) = x(t) é uma função do
contínuo em ­t ; em um ponto t do contínuo, xo, X(w, t) = X(w) é uma variável aleatória; para w e t xos,
x(w, t) = x é um número real.
A variável aleatória obtida xando um ponto no contínuo (X(w, t) = X(w)) pode assumir valores de forma
contínua ou discreta, dando origem a campos estocásticos contínuos ou discretos, cujos valores são dados de
forma contínua em t. Por exemplo, considere uma pressão de poros crítica, que provoca liquefação do solo: um
campo estocástico discreto pode ser construído para descrever, de forma contínua no espaço t, se a pressão de
poros é inferior ou superior ao valor crítico.
A depender de circunstância ou aplicação, um campo estocástico pode ser chamado de:

1. uma série aleatória, quando observações são feitas em pontos discretos do eixo do tempo (usualmente,
equi-espaçados);
2. um processo lattice, quando observações são feitas seguindo um padrão espacial (exemplo, seguindo as
arestas de um hipercubo);
3. uma função aleatória contínua, quando observações são feitas em todos os pontos ao longo das coordenadas
espaciais fu1 , u2 , u3 g e/ou do tempo t;
4. uma partição aleatória do espaço, quando um campo discreto é observado de forma contínua no espaço
(exemplo da pressão de poros acima);
5. um processo de pontos aleatórios, quando pontos ou pequenos objetos são distribuídos de forma aleatória
no domínio.

C.1.1 Espaços de probabilidades e espaços de Hilbert


Em um experimento aleatório, o conjunto de todos os resultados possíveis é chamado de espaço amostral ­.
Um evento E é um subconjunto de ­ contendo realizações w 2 ­. Seguindo os postulados da Teoria de
Probabilidades (Seção A.1), podemos associar uma medida de probabilidades P aos eventos que compõe ­.
A coleção de todos os possíveis eventos com medida de probabilidade P é chamada de σ-algebra de eventos
associada a ­, e denotada por F. O espaço de probabilidades assim construído é representado pela terna
(­, F, P ).
Uma variável real X(w) é um mapeamento X : (­, F, P ) ! R. Um vetor X é um conjunto de variáveis
aleatórias. O espaço vetorial das variáveis aleatórias reais com variância nita (E[X 2 ] < 1) é representado por
L2 (­, F, P ). Neste espaço podemos de nir o produto interno < X, Y > e a norma relacionada como:

< X, Y > ´ E[XY ]


p
kXk = E[X 2 ]

Pode-se mostrar que L2 (­, F, P ) é completo, e portanto é um espaço de Hilbert.


Um campo estocástico X(w, t) pode ser de nido como uma curva em L2 (­, F, P ), ou uma coleção de
variáveis aleatórias indexadas em um contínuo t 2 ­t , sendo ­t um conjunto aberto de Rd representando a
C.2. CAMPOS ESTOCÁSTICOS HOMOGÊNEOS 431

geometria do problema. Para t xo, X(w) é uma variável aleatória. Para uma realização w xa, X(t) é uma
realização do campo, ou um elemento do espaço de Hilbert L2 (­t ) de funções quadrado-integráveis em ­t . O
produto interno associado com L2 (­t ) é de nido por:
Z
< f, g >L2 (­t ) ´ f (t)g(t)d­t
­t

Espaços de Hibert possuem propriedades convenientes para desenvolver soluções aproximadas de problemas
de valor de contorno, como o método de Galerkin.

C.2 CAMPOS ESTOCÁSTICOS HOMOGÊNEOS


As funções de autocorrelação e autocovariância de um campo estocástico estão de nidas nas Eqs. (B.8) e (B.9),
bastando trocar o escalar t por t.
Um campo estocástico é dito homogêneo quando sua média é constante em ­t (µ(t) = cte = µ), e as funções
RXX (t1 , t2 ) = R(t1 , t2 ) e CXX (t1 , t2 ) = C(t1 , t2 ) dependem apenas da diferença: ¿ = t2 ¡ t1 .

C.2.1 Estrutura de correlação de campos estocásticos homogêneos


Simetria de quadrante

Um campo estocástico homogêneo tem simetria de quadrante (quadrant symetry ou q.s.) quando sua função
de autocovariância é simétrica (par) em relação a qualquer componente do vetor de diferenças ¿ :

C(τ 1 , ..., τ k , ..., τ d ) = C(τ 1 , ..., ¡τ k , ..., τ d ), k = 1, 2, ..., d. (C.1)

Simetria de quadrante implica homogeneidade no sentido fraco. Para campos estocásticos q.s., especi car
apenas a parte positiva de C(¿ ) é su ciente. A estrutura de correlação quadrante-simétrica ocorre naturalmente
em aplicações onde o campo estocástico X(t) é de nido em termos de coordenadas principais, usualmente
ortogonais. Quando o campo estocástico é homogêneo mas não quadrante-simétrico, muitas vezes é possível
rotacionar o sistema de eixos de forma a torná-lo q.s.. De forma semelhante, um campo estocástico que é q.s.
e relação a um sistema de eixos não será q.s. em relação a uma rotação deste sistema.

Estrutura de correlação isotrópica

Uma estrutura de correlação isotrópica depende apenas da distância τ = k¿ k = kt2 ¡ t1 k = (τ 21 +τ 22 +...+τ 2d )1/2 .
A função de autocovariância tem simetria radial, o que também implica em simetria de quadrante. Neste caso,
também temos que:
C(¿ ) ´ C(τ 1 , τ 2 , ..., τ d ) = C(τ , 0, ..., 0) = C(τ ) ´ C R (τ ), (C.2)
sendo C R (τ ) uma função de autocorrelação radial sobre a linha (em qualquer direção), que pode ser dada
pelas expressões ilustradas nas Figuras (B-1) e (B-2). Pode-se mostrar (Vanmarcke, 1983) que, para funções de
correlação isotrópicas, ρ(¿ ) ¸ ¡ d1 . Para campos isotrópicos bidimensionais, isto implica ρ(τ 1 , τ 2 ) ¸ ¡ 21 ; para
campos tridimensionais, ρ(τ 1 , τ 2 , τ 3 ) ¸ ¡ 13 .
Escalonando os eixos de uma função de correlação isotrópica, obtemos um campo estocástico com função de
correlação elíptica, função de:
µ ¶2 µ ¶2 µ ¶2
τ1 τ2 τd
¿2 = + + ... + , (C.3)
a1 a2 ad
432 TEORIA DE PROBABILIDADES: CAMPOS ESTOCÁSTICOS

sendo³a1 , ´
a2 , ..., ad fatores de escalonamento. A função de correlação elíptica pode ser tornada isotrópica fazendo
0
τ k = τakk , k = 1, 2, ..., d.

Estrutura de correlação separável

A estrutura de correlação de um campo estocástico X(t) é totalmente separável se C(¿ ) pode ser expressa
como:
C(¿ ) = σ2 ρ(τ 1 )ρ(τ 2 )...ρ(τ d ), (C.4)
sendo ρ(τ k ) a função (índice de) autocorrelação do processo uni-dimensional X(tk ), ao longo de linhas paralelas
ao eixo tk . Normalmente, separabilidade implica simetria de quadrante. Geralmente, as propriedades de
separabilidade e de simetria de quadrante se perdem em uma rotação de eixos.
A função de correlação é dita parcialmente separável quando pode ser expressa como o produto de funções
de correlação de menor dimensão:

C(¿ ) = σ2 ρ(τ 1 , τ 2 , τ 3 )ρ(τ 4 )...ρ(τ d ).

Na geologia e meteorologia, por exemplo, é comum a hipótese de correlação separável entre a localização
do ponto (latitude e longitude) e a profundidade ou a altitude. A variação no plano usualmente é dada por
uma função ρ(τ 1 , τ 2 ) isotrópica ou elipsoidal, e a variação na profundidade é dada de forma separável: ρ(τ 3 ).
Quanto o processo envolve variação espacial e temporal, é usual admitir separabilidade entre tempo e espaço:
ρ(τ 1 , τ 2 , τ 3 , τ 4 ) = ρ(τ 1 , τ 2 , τ 3 )ρ(τ 4 ).
Estruturas de correlação bi- e n-dimensionais podem ser obtidas por produtos de funções de autocorrelação
escalares, como aquelas das Figuras (B-1) e (B-2). Este produto deve ser corrijido para resultar em volume
unitário, ou volume igual a variância.

Função de covariância cruzada

A função de covariância cruzada de dois campos estocásticos homogêneos X(t) e Y (t) é dada por:

CXY (¿ ) ´ Cov[X(t), Y (t + ¿ )]
= E[(X(t) ¡ µX )(Y (t + ¿ ) ¡ µY )]
= RXY (¿ ) ¡ µX µY (C.5)

Para um campo estocástico multi-variado X(t), ou para um vetor de campos estocásticos homogêneos que
variam no mesmo contínuo t, construímos uma matriz C de funções de covariância cruzada, cujos termos tem
a forma da Eq. (C.5).

C.2.2 Representação espectral de campos estocásticos homogêneos no plano


Um campo estocástico bi-dimensional homogêneo X(t1 , t2 ), com média µ, pode ser expresso como uma soma du-
pla de funções senoidais independentes, associadas a diferentes pontos (ω k1 , ωk2 ) de um domínio bi-dimensional
de frequencias:

K1
X K2
X
X(t1 , t2 ) = µ + Xk1 k2 (t1 , t2 ), (C.6)
k1 =¡K1 k2 =¡K2

sendo:
Xk1 k2 (t1 , t2 ) = Vk1 k2 cos(ωk1 t1 + ω k2 t2 + ©k1 k2 ).
C.2. CAMPOS ESTOCÁSTICOS HOMOGÊNEOS 433

Na Eq. (C.6), Vk1 k2 é a amplitude aleatória e ©k1 k2 o angulo de fase aleatório do componente com frequencias
ω ki = §[¢ωi (2ki ¡ 1)/2], (i = 1, 2; e ki = 1, 2, ..., Ki ). Todas as amplitudes aleatórias e angulos de fase são
mutualmente independentes, e os angulos de fase são uniformemente distribuídos em (0, 2π).
A variância do processo de média nula no somatório (Eq. C.6) é a soma das variâncias de todos os compo-
nentes:
XK1 XK2
1
σ2§ = E[Vk21 k2 ], (C.7)
2
k1 =¡K1 k2 =¡K2
2
sendo 1/2 o valor esperado de cos (©k1 k2 ).
A função de massa espectral bi-dimensional S(ω k1 , ωk1 ) é dada por:
1
S(ω k1 , ωk2 )¢ω1 ¢ω 2 = E[Vk21 k2 ]. (C.8)
2

No limite com ¢ωi ! 0 e Ki ! 1, (i = 1, 2), a integral sobre todas as frequencias resulta igual à variância:
" K # Z
X1 K2
X +1 Z +1
2
σ§ = lim S(ωk1 , ω k2 )¢ω 1 ¢ω2 = S(ω1 , ω2 )dω1 dω 2 . (C.9)
¢ω i !0 ¡1 ¡1
Ki !1 k1 =¡K1 k2 =¡K2

Da de nição na Eq. (C.8), resulta que S(ω1 , ω2 ) é real e não-negativa.


Introduzindo a representação (Eq. C.6) na de nição (Eq. B.20) de função de autocorrelação RXX (τ 1 , τ 2 ) =
R(τ 1 , τ 2 ), considerando que as senóides são mutualmente independentes, e utilizando a Eq. (C.8), obtemos:

R(τ 1 , τ 2 ) = Cov[X(0, 0), X(τ 1 , τ 2 )]


K1
X XK2
= E[Xk1 k2 (0, 0)Xk1 k2 (τ 1 , τ 2 )]
k1 =¡K1 k2 =¡K2
K1
X K2
X 1
= E[Vk21 k2 ] cos(ω k1 τ 1 + ωk2 τ 2 ) (C.10)
2
k1 =¡K1 k2 =¡K2

Tomando o limite com ¢ω i ! 0 e Ki ! 1, (i = 1, 2), obtemos o par de Wiener-Khinchine:


8 R1 R1
< R(τ 1 , τ 2 ) = ¡1 ¡1 S(ω 1 , ω2 ) cos(ω 1 τ 1 + ω2 τ 2 )dω1 dω 2
(C.11)
: S(ω , ω ) = 1 R 1 R 1 R(τ , τ ) cos(ω τ + ω τ )dτ dτ .
1 2 (2π)2 ¡1 ¡1 1 2 1 1 2 2 1 2

que relaciona as funções bi-dimensionais R(τ 1 , τ 2 ) e S(ω1 , ω 2 ). Fazendo τ 1 = τ 2 = 0 na Eq. (C.11), obtemos a
variância do termo somatório, relacionada à variância do campo X(t):
Z 1 Z 1
2
σ§ = S(ω1 , ω 2 )dω1 dω2 . (C.12)
¡1 ¡1
434 TEORIA DE PROBABILIDADES: CAMPOS ESTOCÁSTICOS

Caso quadrante-simétrico

Se a função de autocorrelação R(τ 1 , τ 2 ) é quadrante-simétrica, então a função de densidade espectral de potência


S(ω 1 , ω2 ) também é quadrante-simétrica. Neste caso, as relações de Wiener-Khinchine podem ser escritas como:
8 R1R1
< R(τ 1 , τ 2 ) = 0 0 G(ω1 , ω2 ) cos(ω1 τ 1 + ω2 τ 2 )dω1 dω2
R1R1 (C.13)
: 42
G(ω1 , ω 2 ) = (2π) 2 0 0
R(τ ,
1 2τ ) cos(ω τ
1 1 + ω τ
2 2 )dτ 1 dτ 2 .

sendo G(ω 1 , ω2 ) a função de densidade espectral escrita apenas para frequencias não-negativas:

G(ω1 , ω2 ) = 4S(ω1 , ω2 ), ω1 , ω 2 ¸ 0. (C.14)

Variação em uma dimensão, outra dimensão xa

Se uma das coordenadas no plano (t1 , t2 ) é xa (por exemplo, t2 = tfixo


2 ), a variação do campo estocástico na
direção t1 se reduz a um processo estocástico:

X 1 (t1 ) ´ X(t1 , tf2 ixo ). (C.15)

Se o campo estocástico é homogêneo, então X(t1 , tf2 ixo ) é estacionário. Em função da homogeneidade, as
estatísticas do processo X 1 (t1 ) não dependem de tf2 ixo . A variância σ2§ pode ser expressa pela Eq. (C.9), ou
em termos da função de densidade espectral uni-dimensional S(ω1 ):
Z 1 Z 1 Z 1
σ2§ = S(ω1 , ω 2 )dω1 dω 2 = S(ω1 )dω1 . (C.16)
¡1 ¡1 ¡1

Esta expressão implica em que a densidade espectral “marginal” S(ω1 ) pode ser determinada a partir da
densidade bi-dimensional S(ω1 , ω2 ) por integração sobre ω 2 :
Z 1
S(ω1 ) = S(ω 1 , ω2 )dω 2 (C.17)
¡1

Da mesma forma, a densidade marginal S(ω2 ) pode ser determinada por integração sobre ω1 :
Z 1
S(ω2 ) = S(ω 1 , ω2 )dω 1 (C.18)
¡1

Observe a semelhança entre estas expressões e as Eqs. (A.53) e (A.54), que mostram que S(ω1 ) e S(ω1 , ω2 )
se comportam como densidades marginais e conjuntas. De fato, esta analogia pode ser operacionalizada a partir
de funções de densidade de área/volume unitários (Vanmarke, 1983):

0 S(ω1 , ω2 ) 0 S(ωi )
S (ω1 , ω 2 ) = ; S (ωi ) = , i = 1, 2.
σ2§ σ2§

C.2.3 Representação espectral de campos estocásticos homogêneos multi-dimensionais


Um campo estocástico multi-dimensional homogêneo X(t), com média µ, pode ser expresso de forma semelhante
ao caso bi-dimensional, fazendo k = fk1 , k2 , ..., kd g, K = fK1 , K2 , ..., Kd g :
C.2. CAMPOS ESTOCÁSTICOS HOMOGÊNEOS 435

K
X
X(t) = µ + Xk (t), (C.19)
k=¡K

sendo:
Xk (t) = Vk cos(!k t + ©k ).

Na Eq. (C.19), Vk representa um conjunto de amplitudes aleatórias, e ©k angulos de fase aleatórios do


componente Xk(t) associado a um ponto do espaço de frequencias d-dimensional. A função cosseno tem como
argumento o produto interno de vetores de frequencia e tempo: ! k t = ωk1 t1 + ωk2 t2 + ... + ωkd td , sendo
ω ki = §[¢ω i (2ki ¡ 1)/2], (i = 1, 2, ..., d); e ki = 1, 2, ..., Ki a i-ésima coordenada de um ponto no espaço d-
dimensional de frequencias. Todas as amplitudes aleatórias e angulos de fase são mutualmente independentes,
e os angulos de fase são uniformemente distribuídos em (0, 2π).
A função densidade espectral multi-dimensional S(!k ) é de nida por analogia a Eq. (C.8):
1
S(!k )¢! = E[Vk2 ], (C.20)
2
sendo ¢! = ¢ω1 ¢ω 2 ...¢ωd . A função S(!) é real e não-negativa.
No limite com ¢! ! 0 e K ! 1, a integral sobre todas as frequencias resulta igual à variância:
" K # Z
X 1 +1
2 2
σ§ = lim E[Vk ] = S(!)d!, (C.21)
¢! !0 2 ¡1
K!1 k=¡K

sendo d! = dω1 dω2 ...dωd um elemento in nitesimal do domínio de frequencias.


A função de autocorrelação é obtida como:

R(¿ ) = Cov[X(0), X(¿ )]


K
X 1
= E[Vk2 ] cos(!k t) (C.22)
2
k=¡K

Inserindo na Eq. (C.20) e tomando o limite, obtemos o par de Wiener-Khinchine:


8 R +1
>
< R(¿ ) = ¡1 S(!) cos(!t)d!
R1 (C.23)
>
: S(!) = 1
(2π)d ¡1 R(¿ ) cos(!t)d¿ .

que relaciona as funções multi-dimensionais R(¿ ) e S(!). Fazendo ¿ = 0 na Eq. (C.23), obtemos a variância
conforme Eq. (C.21).
436 TEORIA DE PROBABILIDADES: CAMPOS ESTOCÁSTICOS

C.3 REPRESENTAÇÃO NODAL DE CAMPOS CONTÍNUOS


C.3.1 Introdução
Conforme vimos no Anexo B, um processo estocástico pode ser entendido como uma família de funções do
contínuo (De nição 6), ou como uma família de variáveis aleatórias (De nição 7). Estas famílias possuem
dimensão in nita; um processo de discretização consiste em representar o processo (ou campo) a partir de um
número discreto ( nito) de elementos.
O processo de discretização consiste na aproximação do campo X(t) por Xm (t) = F (t, Â), sendo F () uma
função qualquer, Â = fχi gm i=1 um vetor de variáveis aleatórias, e m um inteiro que representa a dimensão do
campo discretizado. Como vimos, podemos representar um processo estocástico (Seção B.2.7) e um campo
estocástico (Seção C.2.2) como uma soma de senóides com amplitudes e ângulos de fase aleatórios. Nesta e
na próxima seção, estudamos outras técnicas de representação/discretização mais e cientes. Uma técnica de
discretização e ciente é aquela que aproxima X(t) por Xm (t), minimizando alguma métrica de erro e utilizando
o menor número de variáveis aleatórias.
Técnicas de discretização podem ser divididas em dois tipos:

1. Discretização nodal, que resulta em um vetor de variáveis aleatórias  = fχi gm i=1 , sendo as variáveis
χi valores do campo X(t) em pontos ti selecionados, ou médias locais em uma vizinhança destes, e as
funções F () triviais; a discretização do campo é feita a partir de uma malha de nós e elementos;
2. Expansões em séries, onde o campo é representado de forma exata como uma série envolvendo variáveis
aleatórias  e funções espaciais determinísticas; a aproximação é obtida truncando a série em m termos.

As técnicas de discretização nodais ainda podem ser divididas em pontuais, onde as variáveis aleatórias χi
representam valores do campo X(t) em pontos ti selecionados: χi = X(ti ); discretização em média
R local, onde
as variáveis χi representam integrais ponderadas do campo X(t) em um domínio local: χi = ­e X(t)w(t)d­;
e técnicas de interpolação nodal, que utilizam as anteriores em combinação com funções de interpolação. As
técnicas de discretização nodais são estudadas nesta seção. A representação em séries é abordada na próxima
seção. A representação em séries espectrais foi apresentada nas Seções (B.2.7 e C.2.2).

C.3.2 Malha de discretização


No contexto de análise numérica utilizando elementos nitos, a geometria do problema é discretizada em uma
malha, formada por nós e elementos, utilizada para aproximar a resposta mecânica ao longo do contínuo. Uma
malha semelhante é utilizada para discretização nodal de campos estocásticos de propriedades que variam no
contínuo:
­t = [Ne=1 ­e
e

sendo ­e o domínio do e-ésimo elemento, e Ne o número de elementos da malha. Em geral, a malha utilizada
para discretização dos campos é menos re nada do que a malha de nitos. Neste material, ­e refere-se a malha
utilizada para discretização dos campos estocásticos.
O tamanho da malha é referenciado por l, sendo l o comprimento de elemento linear, ou a largura (lado)
de elemento quadrado no plano. A escolha do tamanho da malha l está relacionada com o comprimento de
correlação 1/c do campo, como veremos.
C.3. REPRESENTAÇÃO NODAL DE CAMPOS CONTÍNUOS 437

C.3.3 Técnica do ponto central


A técnica do ponto central, ou MidPoint method (MP) consiste em representar o campo em cada elemento ­e
pelo valor do campo no centróide tc do elemento (Der Kiureghian e Ke, 1988):

Xm (t) = fX(tci )gm


i=1 .

O campo ca representado pelo vetor  =fX(tc1 ), X(tc2 ), ..., X(tcNe )gt . O vetor de médias ¹χ e a matriz de
autocovariância Cχχ são calculados a partir da média, variância e coe cientes de auto-correlação do campo X(t)
avaliados no centróide de cada elemento. Cada realização de Xm (t) é constante por partes, com descontinuidades
nas fronteiras dos elementos. A dimensão do campo discretizado pela técnica MP é m = Ne . A técnica MP
tende a sobre-estimar a variabilidade do campo dentro de cada elemento.

C.3.4 Técnica das funções de interpolação


A técnica das funções de interpolação ou Shape Functions (SF) utiliza valores nodais ti e funções de interpolação
N (t) para aproximar o campo em cada elemento (Liu et al., 1986):
q
X
Xm (t) = Ni (t)X(ti ), t 2 ­i .
i=1

sendo q o número de nós da malha, ti as coordenadas nodais do i-ésimo nó, e Ni (t) funções de interpolação
polinomiais associadas aos elementos. O campo aproximado ca: Â =fX(t1 ), X(t2 ), ..., X(tq )gt , sendo fti gqi=1
o conjunto de coordenadas nodais da malha.
O vetor de médias ¹χ e a matriz de autocovariância Cχχ são calculados como:
q
X
¹χ = E[Xm (t)] = Ni (t)µ(ti ),
i=1
q q
X X
Cχχ = Cov[Xm (t), Xm (t0 )] = Ni (t)Nj (t0 )Cov[X(ti ), X(tj )].
i=1 j=1

Cada realização Xm (t) é função contínua sobre ­t , o que representa uma vantagem sobre a técnica MP. No
entanto, devido a interpolação, a distribuição marginal de probabilidades de Xm (t) não é plenamente consistente
com a distribuição de X(t). A dimensão do campo discretizado pela técnica SF é m = q.

C.3.5 Estimador linear ótimo (OLE)


A técnica de estimador linear ótimo ou Optimal Linear Estimator (OLE) é um caso especial de regressão em
funcionais lineares. No contexto de discretizações pontuais, o campo aproximado Xm (t) é de nido como uma
função linear de valores nodais  =fX(t1 ), X(t2 ), ..., X(tm )gt , tal que (Li & Der Kiureghian, 1993):
m
X
Xm (t) = a(t) + bi (t)χi
i=1
= a(t) + b(t)Â, (C.24)

sendo m o número de pontos nodais envolvidos na aproximação. As funções a(t) e bi (t) são determinadas
minimizando, em cada ponto t do domínio, a variância do erro V ar[X(t) ¡ Xm (t)], sujeito a Xm (t) ser um
438 TEORIA DE PROBABILIDADES: CAMPOS ESTOCÁSTICOS

estimador não-tendencioso de X(t), na média:

Minimizar: V ar[X(t) ¡ Xm (t)] (C.25)


sujeito a: E[X(t) ¡ Xm (t)] = 0, _ t 2 ­t . (C.26)

Da Eq. (C.26) temos que:

µ(t) = a(t) + b(t)¹χ ) a(t) = µ(t) ¡ b(t)¹χ . (C.27)

A variância do erro é determinada por:


h i
V ar[X(t) ¡ Xm (t)] = E (X(t) ¡ Xm (t))2
m
X m X
X m
2
= σ (t) ¡ 2 bi (t)Cov[X(t), χi ] + bi (t)bj (t)Cov[χi , χj ]. (C.28)
i=1 i=1 j=1

A minimização é resolvida termo-a-termo para bi (t). Derivando (C.28) em relação a bi (t) e igualando a zero,
temos:
m
X
¡Cov[X(t), χi ] + bj (t)Cov[χi , χj ] = 0, _ i = 1, ..., m. (C.29)
j=1

Em forma matricial:
¡CX(t)χ + Cχχ b(t) = 0.

Reunindo a Eq. (C.27) em (C.24) temos:

Xm (t) = µ(t) + CtX(t)χ C¡1


χχ (Â ¡ ¹χ ). (C.30)

Isolando a parte determinística de (C.30), temos:


h i Xm
¡ ¢
Xm (t) = µ(t) ¡ CtX(t)χ C¡1 ¹
χχ χ + χi C¡1
χχ CX(t)χ i .
i=1

A partir desta expressão, percebemos que OLE é uma versão especial da técnica SF onde, a parte da média,
as funções de interpolação são:

¡ ¢ m
X ¡ ¡1 ¢
NiOLE (t) ´ C¡1
χχ CX(t)χ i = Cχχ ij σ(t)σ(tj )ρ(t, tj ). (C.31)
j=1

A variância do erro ca:

V ar[X(t) ¡ Xm (t)] = σ2 (t) ¡ CtX(t)χ C¡1


χχ CX(t)χ ,

o que mostra que a variância do erro é igual a diferença entre as variâncias. Como a variância do erro é sempre
positiva, resulta que na técnica OLE a aproximação Xm (t) sub-estima a variância do campo original.
Pode-se mostrar que Cov[Xm (t), X(t) ¡ Xm (t)] = 0, ou seja, minimizar a variância do erro é equivalente
a eliminar a correlação entre o erro e o campo aproximado. No espaço das variáveis aleatórias L2 (­, F, P ),
Xm (t) é uma projeção de X(t) no hiperplano mapeado pelos pontos fχi g (Neveu, 1992; apud Sudret & Der
Kiureghian, 2000).
A técnica OLE é basicamente uma aproximação SF em que as funções de interpolação são funções ótimas
C.3. REPRESENTAÇÃO NODAL DE CAMPOS CONTÍNUOS 439

para minimizar a variância do erro, ao invés de serem escolhidas arbitrariamente.

C.3.6 Discretização em média espacial local


Na técnica da média espacial local, ou Spatial Average (SA), o campo estocástico aproximado Xm (t) é uma
constante em cada elemento, dada pela média do campo original no domínio ­e (Vanmarcke, 1983; Vanmarcke
& Grigoriu, 1993): Z
1
χe = X(t)d­e , t 2 ­e . (C.32)
j­e j ­e
O vetor  se torna uma coleção destes elementos:  =fχe gN e
e=1 . O vetor de médias ¹χ e a matriz de autoco-
variância Cχχ são calculados, como integrais sobre o domínio ­e , das funções de média e covariância do campo
X(t). A variância da média espacial sobre um elemento sub-estima a variância local do campo (Der Kiureghian
& Ke, 1988).

C.3.7 Comparação entre as técnicas


Sudret & Der Kiureghian (2000) apresentam resultados obtidos por Li & Der Kiureghian (1993) comparando,
em termos de desempenho numérico, as técnicas MP, SA, SF e OLE para duas funções de auto-correlação:
exponencial e exponencial quadrática (conforme Figura B-2 com comprimento de correlação c), e para função
cardinal seno. A precisão de cada representação é avaliada pelo erro máximo em variância, no domínio, em
termos do tamanho do elemento (l) e do comprimento de correlação (1/c).
Os autores mostram que a aproximação OLE é superior a MP, SA e SF, para todas as estruturas de correlação
testadas.
Para a função do correlação exponencial, o erro é grande mesmo com discretização na (lc < 0, 2). Isto
decorre da não-diferenciabilidade do processo (veri cada em ¿ = t ¡ t0 = 0). Para função de autocorrelação
exponencial quadrática ou cardinal seno, o erro é negligenciável para lc < 0, 5. Portanto, quando a informação
sobre correlação é limitada ao comprimento de correlação (1/c), a forma exponencial deve ser evitada.
As técnicas de discretização discutidas nesta seção envolvem um número nito de variáveis aleatórias corres-
pondentes a valores pontuais ou médias locais do campo original. Em todos os casos, o conjunto de variáveis
aleatórias assim obtido pode ser representado como integrais ponderadas de X(w, t) sobre o domínio do pro-
blema: Z
χi (w) = X(w, t)v(t)d­, (C.33)
­t

onde w representa o espaço amostral. As funções peso v(t) correspondentes às técnicas MP, SA, SF e OLE
estão apresentadas na Tabela C.1. Nesta tabela, δ() é a função delta de Dirac, e 1­e é a função característica
do elemento e: ½
1 se t 2 ­e
1­e = .
0 caso contrário

Tabela C.1: Funções peso e de interpolação na discretização de campos estocásticos.


Método Função peso v(t) Função de interpolação ϕi (t)
MP δ(t ¡ tc ) 1­e (t)
SA 1­e (t)/ j­e j 1­e (t)
SF δ(t ¡ ti ) Funções polinomiais Ni (t)
OLE δ(t ¡ ti ) Funções polinomiais ótimas NiOLE (t)

Através das variáveis aleatórias da Eq. (C.33), e das funções de interpolação apresentadas na Tabela C.1, o
440 TEORIA DE PROBABILIDADES: CAMPOS ESTOCÁSTICOS

campo aproximado pode ser representado pela soma nita:


m
X
Xm (w, t) = χi (w)ϕi (t). (C.34)
i=1

Esta expressão pode ser interpretada como uma expansão de cada realização do campo aproximado Xm (wf ixo , t) 2
L2 (­t ) em uma base de funções fϕi (t)gmi=1 , com as realizações χi (wfixo ) sendo as coordenadas. Esta interpre-
tação revela que as bases utilizadas até agora não são ótimas (no caso de MP, SA e SF, as bases tem suporte
compacto no domínio de cada elemento).
Os métodos de discretização apresentados na próxima seção buscam expandir cada realização do campo
original X(wf ixo , , t) 2 L2 (­t ) sobre uma base completa de funções determinísticas. A discretização ocorre ao
truncar a série em um número nito (m) de termos.

C.4 REPRESENTAÇÃO DE CAMPOS CONTÍNUOS EM SÉRIES

C.4.1 Expansão de Karhunen-Loéve


A expansão de Karhunen-Loéve é obtida a partir da decomposição espectral da função de autocorrelação do
campo X(t) (Loéve, 1977; Sudret & Der Kiureghian, 2000):
1
X
RXX (t, t + τ ) = R(t, t + τ ) = λi ϕi (t)ϕi (t + τ ),
i=0

sendo λi autovalores da função de autocorrelação, e ϕi (t) suas autofunções. Autovalores e autofunções são
obtidos a partir da solução de uma equação integral de Fredholm:
Z
R(t, t0 )ϕi (t0 )d­t0 = λi ϕi (t). (C.35)
­t

Como o integrando R(t, t0 ) é limitado, simétrico e positivo-de nido, o conjunto fϕi g forma uma base ortog-
onal completa em L2 (­t ), e os autovalores λi são reais, positivos, enumeráveis e tem no zero o único ponto de
acumulação.
Utilizando as autofunções ϕi como uma base ortogonal, o campo X(t) pode ser expresso como:
1 p
X
X(w, t) = µ(t) + λi ξ i (w)ϕi (t), (C.36)
i=0

sendo fξ i (w)g1
i=1 as coordenadas de cada realização do campo em relação às funções determinísticas ϕi (t).
Para o conjunto de realizações do campo, fξ i g se tornam um conjunto de variáveis aleatórias. A Eq. (C.36)
representa uma separação entre as partes espacial e aleatória do campo X(w, t).
Utilizando a série ortogonal na Eq. (C.36) para calcular E[X(t)X(t0 )], e igualando a R(t, t0 ), veri camos
(Ghanem & Spanos, 1991) que E[ξ i ξ j ] = δ ij , o que mostra que fξ i (w)g1
i=1 é um conjunto orto-normal de
variáveis aleatórias, com respeito ao produto interno hX, Y i = E[XY ].
A versão truncada, ou discreta, da série ortogonal na Eq. (C.36) é obtida ordenando λi e ϕi (t) em ordem
decrescente e limitando em m: m p
X
Xm (w, t) = µ(t) + λi ξ i (w)ϕi (t). (C.37)
i=0
C.4. REPRESENTAÇÃO DE CAMPOS CONTÍNUOS EM SÉRIES 441

A base ortogonal de autofunções de R(t, t0 ) é ótima no sentido de que o erro quadrático médio, quando
integrado sobre ­t e ao truncar a série em m, é mínimo. Quando o campo X(w, t) é normal, o conjunto fξ i g é
formado por variáveis normais-padrão independentes.

Função de autocorrelação exponencial, caso unidimensional

Infelizmente, para poucas funções de autocorrelação R(τ ) o problema na Eq. (C.35) pode ser resolvido analíti-
camente. Uma solução numérica utilizando formulação de elementos nitos é apresentada por Ghanem e
Spanos (1991) e por Sudret e Kiureghian (2000). Uma excessão é a função de autocorrelação exponencial
R(τ ) = R(t2 ¡ t1 ) = e¡cjτj = e¡cjt2 ¡t1 j . Fixando o domínio ­t = [¡a, a], os autovalores e autofunções são
encontrados resolvendo uma integral de Fredholm:
Z a
e¡cjt2 ¡t1 j ϕ(t2 )dt2 = λϕ(t1 ). (C.38)
¡a

A solução é apresentada por Ghanem e Spanos (1991).


Para n ¸ 1 ímpar, ω n é obtido como raíz de c ¡ ω tan(ωa) = 0, na região [(n ¡ 1)π/a, (n ¡ 1/2)π/a]. Os
autovalores e autofunções correspondentes são:
2c
λn = ,
(ω n )2 + c2
cos(ωn t)
ϕn (t) = q . (C.39)
a + sen(2ω
2ω n
n a)

Para n ¸ 2 par, ω n é obtido como raíz de ω + c tan(ωa) = 0, na região [(n ¡ 1/2)π/a, nπ/a]. Os autovalores
e autofunções correspondentes são:
2c
λn = ;
(ωn )2 + c2
sen(ωn t)
ϕn (t) = q . (C.40)
a ¡ sen(2ω
2ω n
n a)

Autovalores são ordenados em ordem decrescente, com referência ao índice n, e o processo X(w, t) é representado
utilizando os m maiores autovalores, e correspondentes autofunções:
m p
X
Xm (w, t) = µ(t) + λi ξ i (w)ϕi (t). (C.41)
i=0

Inspeção da integral de Fredholm (Eq. C.38) revela que a qualidade da expansão KL depende da relação
entre o tamanho do domínio (­t = [¡a, a]) e o comprimento de correlação 1/c, assim como do número de termos
(m).
Um tamanho a pequeno em relação a 1/c implica em processo fortemente correlacionado no domínio ­t =
[¡a, a]; logo, um pequeno número de variáveis aleatórias (e de termos m) é su ciente para uma boa representação.
Quanto mais rapidamente a função de autocorrelação for a zero, tanto mais “larga” é a função de densidade
espectral, e mais termos m se tornam necessários para uma boa aproximação. Para m xo, a precisão é reduzida
à medida que a se torna maior que 1/c.
442 TEORIA DE PROBABILIDADES: CAMPOS ESTOCÁSTICOS

Domínios não-simétricos

Quando o domínio não é simétrico, como ­t = [tmin , tmax ], um parâmetro de translação é utilizado:
tmin + tmax
tm ed = ,
2
de forma que a integral de Fredholm pode ser resolvida no domínio:
0 tmax ¡ tmin tmax ¡ tmin
­t = ­t ¡ tmed = [¡ , ].
2 2
A função ϕi (t) na Eq. (C.41) passa a ser avaliada em ϕi (t ¡ tm ed ).

Função de autocorrelação exponencial, caso plano

De acordo com Ghanem e Spanos (1991), a solução para a integral de Fredholm bidimensional, com função de
autocorrelação exponencial, pode ser obtida pelo produto das soluções uni-dimensionais:

λn = λ1D 1D
n1 λn2 ,
ϕn (t) ´ ϕn (t1 , t2 ) = ϕn1 (t1 )ϕn2 (t2 ),

onde o super-índice 1D se refere às soluções inidimensionais (Eqs. C.39 e C.40). Obviamente, esta solução implica
em assumir espectro separável (Seção C.2.1). Na implementação, após as multiplicações, os autovalores λn são
ordenados em ordem decrescente, de forma a obtermos uma expansão utilizando os m maiores autovalores, e
correspondentes autofunções.

C.4.2 Expansão em séries ortogonais (OSE)


A expansão de Karhunen-Loéve é muito e ciente (boa aproximação com pequeno número de termos m), mas
requer a solução de um auto-problema integral. A solução analítica existe apenas para as funções de autocor-
relação exponencial e triangular; nos demais casos, uma solução numérica é necessária. A solução numérica
pode ser evitada ao se escolher uma outra base ortogonal completa para fazer a expansão (Lawrence, 1987). O
método foi chamado de “Orthogonal Series Expansion - OSE” por Zhang e Ellingwood (1994).
Seja fhi (t)g1 2
i=1 uma base completa em L (­t ). Vamos assumir que esta base seja também ortogonal:
Z
hi (t)hj (t)d­t = δ ij .
­t

Cada realização do campo X(w, t) é uma função em L2 (­t ), que pode ser escrita em termos de uma expansão
das funções ortogonais fhi (t)g1
i=1 . Considerando todas as possíveis realizações, os coe cientes da expansão se
tornam variáveis aleatórias. Logo:
1
X
X(w, t) = µ(t) + χi (w)hi (t), (C.42)
i=0

sendo χi (w) variáveis aleatórias de média nula. Na prática, a série é truncada em m, de forma que obtemos
uma base incompleta fhi (t)gm m
i=1 , o vetor  = fχi (w)gi=1 e a aproximação:

m
X
Xm (w, t) = µ(t) + χi (w)hi (t).
i=0
C.4. REPRESENTAÇÃO DE CAMPOS CONTÍNUOS EM SÉRIES 443

Utilizando propriedades de ortogonalidade, e alguma algebra, veri camos que:


Z
χi (w) = [X(w, t) ¡ µ(t)] hi (t)d­t ; (C.43)
­t
Z Z
(Cχχ )kl = E[χk χl ] = R(t1 , t2 )hk (t1 )hl (t2 )d­t1 d­t2 , (C.44)
­t ­t

sendo Cχχ a matriz de correlação do vetor Â.


Quando X(w, t) é Gaussiano, a Eq. (C.43) mostra que as variáveis  são Gaussianas de média nula,
possívelmente correlacionadas. A avaliação da matriz de correlação Cχχ através da Eq. (C.44) caracteriza
completamente o vetor de variáveis aleatórias Â.
A escolha da base de funções é livre. Zhang e Ellingwood (1994) utilizaram uma base composta por
polinômios de Legendre em ­t = [¡a, a]. No entanto, a convergência da série depende muito da compati-
bilidade entre as funções da base e as variáveis aleatórias.

Eliminando a correlação entre as variáveis aleatórias Â

A discretização dos campos Gaussianos utilizando OSE envolve o conjunto de variáveis aleatórias  =fχi (w)gm
i=1
correlacionadas. Através da decomposição espectral da matriz de covariâncias Cχχ , podemos transformar o vetor
 em um conjunto de variáveis aleatórias normais independentes:

Cχχ A = A¤, (C.45)

sendo ¤ a matriz diagonal de autovalores λn de Cχχ , e A a matriz de autovetores. O vetor  pode ser obtido
de » por:
 = A¤¡1/2 ». (C.46)

Sejam fAki gm
i=1 as coordenadas do k-ésimo autovetor. Da Eq. (C.46), cada componente χi de  é obtido
como: m
X p
χi (w) = Aki λk ξ k (w).
k=1

Portanto, o campo estocástico ca:


Ãm !
m
X X p
X(w, t) = µ(t) + Aki λk ξ k (w) hi (t)
i=1 k=1
m p
Ãm !
X X
= µ(t) + λk ξ k (w) Aki hi (t) . (C.47)
k=1 i=1

Introduzindo a notação:
m
X
ϕk (t) = Aki hi (t),
i=1

obtemos da Eq. (C.47):


m p
X
X(w, t) = µ(t) + λk ξ k (w)ϕk (t).
k=1

Comparando esta equação com Eq. (C.37), veri camos que se trata de uma aproximação da expansão de
Karhunem-Loéve. De fato, as expansões são estritamente equivalentes quando as autofunções ϕk (t) da função
de autocorrelação RXX são aproximadas utilizando o conjunto de funções ortogonais fhi (t)g1
i=1 .
444 TEORIA DE PROBABILIDADES: CAMPOS ESTOCÁSTICOS

C.4.3 Expansão linear ótima (EOLE)


A expansão linear ótima ou Expansion Optimal Linear Estimation (EOLE) foi proposta por Li e Der Kiureghian
(1993) e consiste em uma extensão da técnica OLE , utilizando uma representação espectral do vetor de variáveis
nodais Â.
Para um campo X(w, t) Gaussiano, a decomposição espectral da matriz de covariância Cχχ de  =fX(t1 ),
X(t2 ), ..., X(tm )gt , é:
N p
X
χi (w) = µX + λi ξ i (w)Ái (C.48)
i=1

sendo fξ i (w)gN
i=1variáveis aleatórias normais padrão independentes, e (λi , Ái ) autovalores e autovetores da
matriz de covariância, tal que:
Cχχ Ái = λi Ái (C.49)

Utilizando a Eq. (C.48) na expansão (C.24), e resolvendo o problema OLE conforme Seção (C.3.5), obtemos:

XN
ξ k (w) t
XN (w, t) = µX + p Ái CX(t)χ .
k=1
λk

Como na expansão de Karhunen-Loéve, a série pode ser truncada em “m” termos, com autovalores λi
ordenados em ordem decrescente.
A variância do erro para EOLE é obtida como:
Xm
1 ¡ t ¢2
V ar[X(t) ¡ Xm (t)] = σ2 (t) ¡ Ái CX(t)χ .
λk
k=1

Como nas expansões OLE e KL, o segundo termo é igual a variânica de Xm (t); logo, a expansão EOLE
também sub-representa a variância verdadeira. O erro de variância é reduzido monotonicamente a medida que
m ! N , se reduzindo a zero para m = N . Isto permite de nir o número de termos “m” a partir de uma
tolerância especi cada para o erro da variância.

C.4.4 Comparação entre as técnicas KL, OSE e EOLE


O desempenho dos métodos KL, OSE e EOLE foi comparado por diversos autores (Li & Der Kiureghian,
1993; Zhang & Ellingwood, 1994; Sudret & Der Kiureghian, 2000), considerando funções de autocorrelação
exponenciais e exponenciais quadráticas. Nesta seção compilamos os principais resultados. A discretização se
refere à relação entre o tamanho do elemento (l) e o comprimento de correlação (1/c), ou produto lc.
Utilizando função de correlação exponencial, Sudret & Der Kiureghian (2000) veri cam que a expansão KL
resulta no menor erro (de variância) médio no interior do domínio ­t , mas o erro é maior nas fronteiras de ­t .
O erro EOLE médio é próximo ao erro KL, mas ainda é signi cativo mesmo com dez termos (m = 10). Este
erro signi cativo se deve à não-diferenciabilidade do campo para função de autocorrelação exponencial.
Resultados para função de autocorrelação exponencial quadrática foram comparados apenas para OSE e
EOLE. A expansão EOLE tem maior precisão, neste caso. O erro de variância obtido para função exponen-
cial quadrática é bem menor que para exponencial, para uma mesma ordem de expansão m. Para a função
exponencial quadrática, a discretização EOLE é su cientemente precisa para m ¸ 5.
A malha apropriada para obter uma boa aproximação EOLE depende bastante do comprimento de correlação
do campo. Para a função exponencial, a solução EOLE é mais precisa que OSE se lc < 1/6. Para a função
exponencial quadrática, EOLE é sempre melhor do que OSE, independentemente do re namento da malha.
C.4. REPRESENTAÇÃO DE CAMPOS CONTÍNUOS EM SÉRIES 445

Conforme observado por Li e Der Kiureghian (1993), EOLE é mais e ciente com uma malha na e expansão
de baixa ordem, do que com uma malha grosseira e expansão de alta ordem.

C.4.5 Expansão de campos não-Gaussianos


Por efeito do Teorema do Limite Central (Seção A.6.3), os campos estocásticos gerados pelas técnicas KL,
OSE e EOLE, bem como os campos gerados por séries espectrais, seguem distribuições Gaussianas. Muitas
propriedades físicas de problemas de engenharia são estritamente positivas, e não podem ser representadas por
processos Gaussianos. Isto inclui variáveis como módulo de elasticidade e de rigidez de materiais, coe ciente
de Poisson, ângulo de atrito, coesão, medidas geométricas, distâncias, etc. No contexto de soluções numéricas
utilizando Elementos Finitos, por exemplo, representar o módulo de elasticidade utilizando distribuição normal
leva a perda de coercividade da forma bi-linear, e portanto a perda da garantia de existência e unicidade da
solução (Silva Jr. et al., 2009, 2010; Silva Jr. & Beck, 2010, 2011).
Para caracterizar corretamente um campo não-Gaussiano, a família multi-dimensional de funções de densi-
dade conjunta (Eq. B.5) deveria ser conhecida. Em geral, isto não é possível, e portanto utilizamos a distribuição
cumulativa de primeira ordem FNG (x) para gerar processos não-Gaussianos por “translação” de um processo
Gaussiano:
¡1
XNG (w, t) = FNG (©(XG (w, t))) (C.50)
onde o sub-índice G se refere a processo Gaussiano, e N G ao processo não-Gaussiano. Neste contexto, a Eq.
(C.50) é conhecida como “translação” do processo Gaussiano. A translação é um processo sem memória, já
que o valor do processo XNG (w, t) em um ponto t qualquer depende apenas no valor do processo XG (w, t) no
mesmo ponto t.
Uma limitação do processo de translação é que não há garantias de que a mesma respeite a função de den-
sidade espectral do processo. Se uma densidade espectral alvo SNG (ω) é utilizada para gerar representações do
processo Gaussiano XG (w, t), esta densidade não será (exatamente) a mesma após a translação. A compatibil-
idade entre funções de densidade de probabilidade alvo e funções de densidade espectral alvo é veri cada por
(Grigoriu, 1984):
Z +1 Z +1
RN G (τ ) = FN¡1G(©(x1 ))FNG
¡1
(©(x2 ))φ(x1 , x2 , RG (τ ))dx1 dx2 (C.51)
¡1 ¡1

sendo x1 = XG (w, t), x2 = XG(w, t + τ ). Se as distribuições alvo forem incompatíveis segundo Eq. (C.51),
então não é possível respeitar simultâneamente as densidades de probabilidade e espectral.
446 TEORIA DE PROBABILIDADES: CAMPOS ESTOCÁSTICOS
Apêndice D

SUMÁRIO DE DISTRIBUIÇÕES
CONTÍNUAS

# Distribuição fX (x) p1 p2 p3 (min) p4 (max)


0 Determinística δ(x0 ) x0 - - -
1
1 Uniforme hb¡a ¡ a b - -
¢2 i
2 Normal p1 exp ¡ 12 x¡µσ µ σ - -
σ 2π · ³ ´2 ¸
1 1 ln(x)¡λ
3 Log-Normal p
ξx 2π
exp ¡ 2 ξ λ ξ - -
4 Exponencial υ exp[¡υ
· (x³¡ ε)]´2 ¸ υ - (ε) -
(x¡ε)
5 Rayleigh η2
exp ¡ 12 x¡ε
η
η - (ε) -
(x¡µ)
exp[ pπ3 σ ]
6 Logística ³ ´2 µ σ - -
1+exp[ pπ3 (x¡µ) ]
£ σ
¤
7 Gumbel mínimos β exp £ +β (x ¡ u1 ) ¡ e+β(x¡u1 ) ¤ u1 β - -
8 Gumbel máximos β exp ¡β (x ¡ un )h¡ e¡β(x¡u i
n)
un β - -
β
9 Frechet mínimos ( x )β+1 exp ¡( ux1 )β
u1 u1
u1 β - -
β un β+1
£ ¤
10 Frechet máximos un ( x ) exp h¡( uxn )β i un β - -
β
11 Weibull mínimos ( x¡ε )β¡1 exp ¡( ux¡ε
u1 ¡ε u1 ¡ε 1 ¡ε
)β u1 β (ε) -
³ ´β¡1 · ³ ´β ¸
β ε¡x ε¡x
12 Weibull máximos ε¡un ε¡un
exp ¡ ε¡un un β - (ε)
448 SUMÁRIO DE DISTRIBUIÇÕES CONTÍNUAS
Apêndice E

TABELA DA DISTRIBUIÇÃO
NORMAL PADRÃO
Rβ £ ¤ R ¡β £ ¤
Valores tabelados da função: pf = ©(¡β) = 1¡©(β) = 1¡ p1 exp ¡z 2 /2 dz = ¡1 p1 exp ¡z 2 /2 dz.
¡1 2π 2π
Figura E-1:
451

Figura E-2:
452 TABELA DA DISTRIBUIÇÃO NORMAL PADRÃO

Figura E-3:
Apêndice F

PROGRAMAÇÃO DA FUNÇÃO
NORMAL PADRÃO ACUMULADA

F.1 Avaliação numérica da função u = ©[y]


Não há solução analítica exata para a função de probabilidade acumulada:
Z y · 2¸
1 z
©[y] = p exp ¡ dz.
¡1 2π 2

No entanto, existem expressões analíticas para aproximá-la. Estas expressões são particularmente importantes
na programação da função ©[ ].
Uma expressão analítica é:
· 2¸
z y
©[y] = 1 ¡ p exp ¡ , 0 · y · 1;
2π 2
· 2¸
z y
©[y] = p exp ¡ , ¡ 1 · y · 0; (F.1)
2π 2

sendo:

z = w(p1 + w(p2 + w(p3 + w(p4 + wp5 ))));


1
w = ;
1 + p0 jyj

e os valores pi , com i = 0, 1, ..., 5, são parâmetros:


2 3
+0, 231641900
6 +0, 319381530 7
6 7
6 ¡0, 356563782 7
p=6
6
7.
7
6 +1, 781477937 7
4 ¡1, 821255978 5
+1, 330274429

Esta expressão apresenta um erro máximo ε · 7, 5 £ 10¡8 .


454 PROGRAMAÇÃO DA FUNÇÃO NORMAL PADRÃO ACUMULADA

F.2 Avaliação numérica da função inversa y = ©¡1 [u]:


O cálculo faz uso da simetria da função inversa.
Para 0 · u · 0, 5 temos:
s · ¸
1
z = ln 2 ;
u
p1 + z(p2 + z(p3 + z(p4 + z(p5 ))))
y = ¡z ¡ . (F.2)
q1 + z(q2 + z(q3 + z(q4 + z(q5 ))))

Para 0, 5 · u · 1, 0 utilizamos:
s · ¸
1
z = ln ;
(1 ¡ u)2
p1 + z(p2 + z(p3 + z(p4 + z(p5 ))))
y = +z + .
q1 + z(q2 + z(q3 + z(q4 + z(q5 ))))

Os parâmetros pi e qi , com i = 0, 1, ..., 5, são:


2 3 2 3
¡0, 3222324310880 0, 9934846260600 £ 10¡1
6 ¡1, 0000000000000 7 6 0, 5885815704950 7
6 7 6 7
p=6 6 ¡0, 3422422088547 7
7 q=6
6 0, 5311034623660 7.
7
4 ¡0, 2042312102450 £ 10¡1 5 4 0, 1035377528500 5
¡0, 4536422101480 £ 10¡4 0, 3856070063400 £ 10¡2

F.3 Veri cação


Uma forma simples de veri car a precisão da programação, bem como determinar os limites de utilização das
Equações (F.1) e (F.2), é plotar o resultado de β num = ©¡1 [©[¡β]]. Por se tratarem de aproximações numéricas,
observamos quebra na solução numérica para β & 8, com uso das Eqs. (F.1) e (F.2). Portanto, este é o limite de
uso seguro destas expressões. Os valores de ©[¡β] apresentados no Apêndice E foram obtidos com formulação
mais precisa, conforme discutido em Beck & Silva Jr. (2018).

F.4 Relação com a função erro (erf)


A função de probabilidade acumulada normal padrão e sua inversa são relacionadas com a função erro:
p
erf[y 2/2]
©[y] = + 0, 5;
p 2
©¡1 [u] = 2 erf[2u ¡ 1]¡1 .
Apêndice G

SOFTWARES DE
CONFIABILIDADE ESTRUTURAL

O amadurecimento da Teoria de Con abilidade Estrutural, nos anos 80 e 90, resultou em um número signi-
cativo de softwares de con abilidade estrutural. Uma característica importante de todos estes softwares é a
capacidade de se comunicarem, ou de serem integrados, a softwares comerciais de análise numérica, em par-
ticular elementos nitos (EF). Tais softwares (EF) evoluíram muito nos últimos anos, incorporando diversos
recursos de análise não-linear e de processamento paralelo. Idealmente, análises de con abilidade devem ser
realizadas utilizando estes recursos. Alguns softwares de con abilidade possuem pacotes de EF próprios, mais
limitados, mas possivelmente mais rápidos, devido à maior integração. A maior parte permite integração a
softwares de EF comerciais, em particular, aos softwares ANSYS, ABAQUS e MSC Nastran.
A integração entre softwares de con abilidade estrutural e softwares de elementos nitos é feita de forma
não-intrusiva, conforme ilustrado na Figura G-1, e descrito por Wu et al. (1990) e Beck & da Rosa (2006). Na
forma não-intrusiva, o modelo numérico é resolvido como se fosse uma “caixa-preta”: o software de con abilidade
informa em que pontos do domínio (das variáveis aleatórias) a análise deve ser realizada, e recebe uma resposta
“determinística” em cada ponto. Estes pontos podem ser parte da busca interativa pelo ponto de projeto
(FORM), podem ser uma amostra em simulação de Monte Carlo, ou podem ser um ponto de suporte para
construção de um meta-modelo. Em contraste, formulações conhecidas como elementos nitos estocásticos
(Der Kiureghian & Ke, 1988; Ghanem & Spanos, 1991; Sudret & Der Kiureghian, 2000; Stefanou, 2009) são
intrusivas: soluções são construídas considerando que os coe cientes de equações diferenciais e integrais são
variáveis aleatórias ou processos estocásticos.
Atualmente, softwares completos de con abilidade estrutural apresentam recursos como:

1. Análise de con abilidade independente do tempo: FORM, SORM, e várias técnicas de simulação de Monte
Carlo;
2. Análise de con abilidade dependente do tempo, envolvendo processos estocásticos discretos e contínuos,
e modelos de degradação da resistência ao longo do tempo;
3. Cálculo de gradientes da equação de estado limite por diferenças nitas ou por diferenciação direta (DDM);
4. Análise de sensibilidade local e global;
5. Con abilidade de sistemas: associação em série, paralelo e mista, identi cação dos minimal cut sets;
6. Construção de meta-modelos (ANN, PCE, Suport Vector Machine, Krigagem, etc.);
7. Solução de problemas de otimização tipo RBDO e de custos sobre o ciclo de vida (LCRO).
456 SOFTWARES DE CONFIABILIDADE ESTRUTURAL

MÓDULO DE CONFIABILIDADE

MÓDULO MECÂNICO
Definição do valor dos parâmetros
de projeto (ponto X = x) onde a
equação de estado limite (resposta Determina a resposta da
mecânica) deve ser avaliada estrutura:
• esforços;
• deslocamentos;
Avaliação da equação de estado • tensões;
limite:
g (x )  ? • deformações;

sim
Mais pontos necessários?
não

Cálculo da probabilidade de falha:


Pf  P[ g ( x)  0]

Figura G-1: Acoplamento não-intrusivo entre softwares de con abilidade e de elementos nitos.

Na Tabela G.1 é apresentado um resumo dos softwares de con abilidade estrutural existentes. Nesta tabela,
a letra (A) identi ca softwares essencialmente acadêmicos, de código aberto e desenvolvidos por multiplos
usuários. As letras (AC) identi cam softwares que possuem estrutura comercial e de suporte técnico, mas ainda
umbilicalmente ligados a instituições de pesquisa. A letra (C) identi ca software comercial. A título de exemplo,
uma licença anual do software STRUREL, não-acadêmica, é comercializada entre 3 e 4,8 mil Euros, a depender
de opcionais. Uma licença anual do software NESSUS custa 5 mil dólares. As principais características dos
softwares são descritas na Tabela G.2.

Tabela G.1: Softwares de con abilidade estrutural.


Programa Tipo Origem Lanç. Referência
OpenSees/CalRel A University of California, Berkeley 1989 Der Kiureghian et al. (2006)
StRAnD A Escola de Eng. de São Carlos, USP 2007 Beck (2007)
UQLab A ETH Zurique, Suíça 2014 Marelli & Sudret (2014)
COSSAN AC University of Liverpool, UK Schueller & Pradlwarter (2006)
STRUREL AC RCP/ERACONS Munique, Alemanha 1992 Gollwitzer et al. (2006)
PHIMECA AC PHIMECA Engineering, França 2001 Lemaire & Pendola (2006)
NESSUS C Southwest Research Institute, Texas 1989 Thacker et al. (2006)

Uma descrição detalhada dos softwares listados na Tabela G.1 foi apresentada em número especial da revista
Structural Safety (Pellissetti & Schuëller, 2006). Em contraste com a Tabela G.1, neste número especial o
software ANSYS é apresentado como um software de con abilidade estrutural (Reh et al., 2006). As versões
atuais do ANSYS Workbench incluem recursos para simulação de Monte Carlo bruta, análise de sensibilidade e
otimização estrutural. No entanto, o software não incorpora soluções dedicadas ao problema de con abilidade
estrutural, como FORM, SORM, técnicas de amostragem para problemas com pequena probabilidade de falha,
ou con abilidade de sistemas. A edição especial inclui softwares não-listados na Tabela G.1: PROBAN (Tvedt,
457

Tabela G.2: Características dos programas de con abilidade estrutural


Programa Características principais
OpenSees opensource, C++, pacote de EF focado em terremotos,
/CalRel módulo de con abilidade CalRel completo, sensibilidade DDM.
FORTRAN Orientado a Objetos, FORM, SORM, várias técnicas de SMC, conf.
StRAnD de sistemas, conf. dependente do tempo, modelos surrogate (ANN, PCE, Krig.),
otimização LCRO, StRAnD_FEM, interface com ANSYS, ABAQUS.
UQLab Conjunto aberto de rotinas em Matlab, com enfase em modelos surrogate (PCE,
Kriging), análise de sensibilidade local/global, interface EF em desenvolvimento.
COSSAN opensource kernel, C++, interface ANSYS, ABAQUS, MSC NASTRAN,
modelos surrogate (ANN, PCE), otimização RBDO, sensibilidade DDM.
STRUREL FORM, SORM, várias técnicas de SMC, conf. de sistemas, conf. dependente do
tempo, otimização RBDO, PERMAS_FEM.
PHIMECA C++, interface ANSYS Workbench, quanti c. de incertezas, engenharia robusta.
NESSUS interface ANSYS, ABAQUS, MSC NASTRAN, campos estocásticos, sistemas,
modelos surrogate, otimização (RBDO, LCRO), validação de modelos.

2006), UNIPASS (Lin &, Khalessi, 2006) e ProFES (Wu et al., 2016), que aparentemente foram descontinuados
(falta de informações atualizadas na internet). A compilação de Pellissetti & Schuëller (2006) não inclui o
software acadêmico UQLab, lançado recentemente.
Uma versão livre mas limitada do software StRAnD é disponibilizada no site do Departamento de Engenha-
ria de Estruturas, Universidade de São Paulo, juntamente com um manual do programa. A entrada e saída de
dados do StRAnD é feita via arquivos de texto, mas uma interface grá ca está sendo desenvolvida. Duas versões
do software são disponibilizadas no site: executável (.exe) e projeto do Visual Studio (.sln). A versão executável
é mais lenta, pois utiliza um interpretador simbólico para ler as equações de estado limite de um arquivo texto.
O projeto do Visual Studio permite ao usuário programar as equações de estado limite em FORTRAN, compilar
e linkar, criando um arquivo executável para a solução do problema do usuário. Esta versão também permite
acesso ao módulo StRAnD_FEM, e o acomplamento com programas de elementos nitos externos (ANSYS,
ABAQUS). Acesse: “http://www.set.eesc.usp.br/softwares_depto/StRAnD/” para maiores informações.
458 SOFTWARES DE CONFIABILIDADE ESTRUTURAL
Apêndice H

REPRESENTAÇÃO
POSSIBILÍSTICA DE INCERTEZAS

Neste texto abordamos incertezas que podem ser descritas, ou quanti cadas, através de uma abordagem pro-
babilista. Esta abordagem assume que há observações ou dados su cientes de determinada variável, para se
determinar as probabilidades de ocorrência de eventos, e construir as curvas de distribuição de probabilidades.
No entanto, este nem sempre é o caso. Em projetos de engenharia, em geral, podem existir variáveis em relação
às quais pouca ou nenhuma informação é conhecida. Em geral, estas incertezas estão na classe das incertezas
epistêmicas, aquelas relacionadas a falta de informação ou conhecimento. Frequentemente, surgem a partir da
interpretação de informações linguísticas, imprecisas. Por exemplo, o nível de controle de um processo pode
ser classi cado como baixo, médio ou alto. Independente da falta de informação, a análise de determinado
problema pode depender da quanti cação destas incertezas.
Existem diferentes formas de quanti car incertezas, amplamente descritas na literature (Ben-Haim & El-
ishako¤, 1990; Möller & Beer, 2004; Moens & Vandepitte, 2005; Beer et al., 2013). Neste texto nos limitamos a
introduzir o leitor ao tema, e a descrever variáveis fuzzy, que são empregadas em uma formulação de otimização
de risco robusta, na Sessão 8.6.5. Uma descrição breve de variáveis fuzzy é apresentada nesta seção, apenas
para ilustrar o conceito. O tema é discutido em profundidade em referências como (Ben-Haim & Elishako¤,
1990; Möller & Beer, 2004; Ayyub & Klir, 2006).
Dentre as formas não-probabilistas de quanti cação de incertezas, existe a representação por intervalos
(Moens & Vandepitte, 2007; Moens & Hanss, 2011; Verhaeghe et al., 2013) e por números fuzzy (De Gersem
et al., 2007; Farkas et al., 2008, 2010; Hanss & Turrin, 2010). Em contraste à descrição probabilista, estas são
chamadas de representações possibilistas de incertezas. Existem também formas combinadas de representação
possibilista/probabilista, como as probabilidades (ou aleatoriedades) fuzzy (Möller et al., 2003; Möller & Beer,
2004) ou probabilidades imprecisas (Moens & Vandepitte, 2005; Möller & Beer, 2008; Beer et al., 2013).

Um conjunto fuzzy é um par Ae = (A, mA ), sendo A um conjunto e mA : A ! [0, 1] uma função de associação
ou membership function. Para cada valor x 2 A, mA (x) de ne o grau de associação de x. Se mA (x) = 0, x
não é membro do conjunto fuzzy; se 0 < mA (x) · 1, x é membro do conjunto. Um conjunto clássico, ou crisp,
em teoria de probabilidades, pode ser visto como um conjunto cuja função de associação admite apenas dois
valores: mA (x) = 1, se x 2 A; mA (x) = 0 caso contrário. Em conjuntos fuzzy, o valor da função de associação
mA (x), que varia de forma continua entre 0 e 1, serve para criar sub-conjuntos de A, com base no grau de
con ança do analista com relação à variável x. O assim chamado corte¡α ou α¡cut Aα de A e é um conjunto
Aα ½ A, obtido a partir da regra mA (x) ¸ α 2 (0, 1]:

Aα = fx 2 AjmA (x) ¸ αg, α 2 (0, 1].


460 REFERÊNCIAS BIBLIOGRÁFICAS

e
Figura H-1: Número fuzzy triangular =tri(xl , xc , xu ), e sub-conjunto Aα de A.

Um número fuzzy é um conjunto fuzzy normalizado e convexo A e µ R, cuja função de associação é contínua,
ou contínua por partes, e que assume o valor mA (x) = 1 em apenas um ponto xc (Möller & Beer, 2004). O ponto
x no qual mA (x) = 1 é chamado de valor crisp do número fuzzy. Um número fuzzy com função de associação
linear entre mA = 0 e mA = 1, ou número fuzzy triangular, pode ser representado pela terna e a =tri(xl , xc , xu ),
sendo xl e xu os limites inferios e superior do suporte de x, e xc o valor crisp do número fuzzy . A função de
associação triangular é obtida como:
· ¸
xc ¡ x x ¡ xc
mA (x) = min max[0, 1 ¡ ], max[0, 1 ¡ ] .
xc ¡ xl xu ¡ xc

A Figura H-1 ilustra um número fuzzy e a com função de associação triangular, bem como os α¡cuts Aα de
e Observa-se que o número fuzzy triangular é convexo; logo, os sub-conjuntos Aα obtidos de cada α¡cut estão
A.
contidos no sub-conjunto anterior, para α crescente.
Se f (x) é uma função real de números fuzzy e a1 , e
a = fe a2 , ..., e
an g, então z = f (e
a) também é um número fuzzy,
e O princípio da extensão é utilizado para de nir o conjunto fuzzy
que pode ser descrito a partir do conjunto B.
e (Möller & Beer, 2004):
B

e = f(B, mB (z))jz = f (x), z 2 B, x 2 A1 £ A2 £ ... £ An g ;


B

sendo B um novo conjunto, e com £ representando produto Cartesiano. A função de associação mB (z) é obtida
como: ½
supz=f(x) min [mA1 (x1 ), mA2 (x2 ), ..., mAn (xn )] se 9z = f (x)
mB (z) = . (H.1)
0 caso contrário.

Para determinar esta função, in nitas combinações devem ser mapeadas. Em geral, o mapeamento de
conjuntos em B ~ não é injectivo (um para um). Se Z µ R, então a imagem fuzzy de B e pode ser aproximada
discretizando-a em α¡cuts Bα (Hurtado et al., 2012). Neste caso, o intervalo [0, 1] é discretizado em m pontos
0 = α1 < α2 < ¢ ¢ ¢ < αm · 1, e a imagem de B e é avaliada para cada α¡cut. Se o sub-conjunto é convexo e
f ( ) é continua, então Bα = f (Aα ) pode ser avaliado como [minx2Aα f (x), maxx2Aα f(x)]. Este resultado pode
ser avaliado através de otimização, e é apropriado quando a função f ( ) é não-linear nas variáveis de entrada.
Este método é empregado na Seção 8.6 para resolver um problema de otimização robusta de uma barragem de
gravidade.
REFERÊNCIAS BIBLIOGRÁFICAS 461

Referências Bibliográ cas


ABNT NBR 6118:2014. Projeto de estruturas de concreto - Procedimento, Associação Brasileira de Normas Técnicas,
Rio de Janeiro, RJ.

ABNT NBR 6120:1980. Cargas para o cálculo de estruturas de edi cações, Associação Brasileira de Normas Técnicas,
Rio de Janeiro, RJ.

ABNT NBR 6120:2019. Ações para o cálculo de estruturas de edi cações, Associação Brasileira de Normas Técnicas,
Rio de Janeiro, RJ.

ABNT NBR 6123:1988. Forças devidas ao vento em edi cações, Associação Brasileira de Normas Técnicas, Rio de
Janeiro, RJ.

ABNT NBR 8681:2003. Ações e Segurança nas estruturas: procedimentos, Associação Brasileira de Normas Técnicas,
Rio de Janeiro, RJ.

ABNT NBR 8800:2008. Projeto de estruturas de aço e de estruturas mistas de aço e concreto de edifícios, Associação
Brasileira de Normas Técnicas, Rio de Janeiro, RJ.

ABNT NBR 15421:2006: Projeto de Estruturas Resistentes a Sismos — Procedimento, Associação Brasileira de Normas
Técnicas, Rio de Janeiro, RJ.

Agarwal H, Mozumder CK, Renaud JE, Watson LT, 2007: An inverse-measure-based unilevel architecture for reliability-
based design. Structural and Multidisciplinary Optimization 33:217—227.

Agarwal H, Renaud J, Lee J and Watson L, 2004: A Unilevel Method for Reliability Based Design Optimization,
45th AIAA/ASME/ASCE/AHS/ASC Structures, Structural Dynamics and Materials Conference, Palm Springs, CA,
19—22.

Alpsten GA, 1972: Variations in mechanical and cross-sectional properties of steel, Proc. Int. Conf. on Planning and
Design of Tall Buildings, Vol. 1b, Lehigh University, Bethlehem, 775-805.

Altarejos-García L, Escuder-Bueno I, Serrano-Lombillo A, Membrillera-Ortuño MG, 2012: Methodology for estimating


the probability of failure by sliding in concrete gravity dams in the context of risk analysis, Structural Safety 36-37,
1-13.

Ambiente Brasil, 2017: http://ambientes.ambientebrasil.com.br/energia/acidentes_ambientais/principais_acidentes_


com_petroleo_e_derivados_no_brasil.html, acessado em 13.07.2017.

Ang A H-S, Lee J-C, 2001: Cost optimal design of R/C buildings, Reliability Engineering and System Safety 73,
233—238.

Ang A H-S, Tang WH, 1975: Probability Concepts in Engineering Planning and Design, Volume I: Basic Principles;
John Wiley & Sons.

Ang A H-S, Tang WH, 1990: Probability Concepts in Engineering Planning and Design, Volume II: Decision, Risk and
Reliability; John Wiley & Sons.

Ang A H-S, Tang WH, 2007: Probability Concepts in Engineering: Emphasis on Applications to Civil and Environ-
mental Engineering, 2nd Edition, John Wiley & Sons.

Ang GS; Ang H-S, 1994: Adaptive Kernel Method for Evaluating Structural System Reliability, 6th International
Conference on Structural Safety and Reliability.

ANSI/AISC 360:2005 Speci cation for Structural Steel Buildings. American Institute of Steel Construction, Chicago,
Illinois.
462 REFERÊNCIAS BIBLIOGRÁFICAS

Aoki N, 2005: Segurança e con abilidade de fundações profundas, Anais do Congresso de pontes e estruturas, Rio de
Janeiro, ABPE - Associação Brasileira de Pontes e Estruturas.

Aoues Y, Chateauneuf A, 2008: Reliability-based optimization of structural systems by adaptive target safety — Appli-
cation to RC frames, Structural Safety 30, 144—161.

Aoues Y, Chateauneuf A, 2010: Benchmark study of numerical methods for reliability-based design optimization.
Structural and Multidisciplinary Optimization, 41:277—294.

Arora JS (editor), 2007: Optimization of Structural and Mechanical Systems, World Scienti c Publishing.

Arora JS, 2017: Introduction to Optimum Design, 4th Edition, Elsevier.

ASCE/SEI 7-05:2005: Minimum design loads and associated criteria for buildings and other structures. American
Society of Civil Engineering.

ASCE/SEI 7-10:2010: Minimum design loads and associated criteria for buildings and other structures. American
Society of Civil Engineering.

ASCE/SEI 7-16:2016: Minimum design loads and associated criteria for buildings and other structures. American
Society of Civil Engineering.

ASCE 41:2017 Seismic Evaluation and Retro t of Existing Buildings, American Society of Civil Engineering.

ATC (Applied Technology Council) 40, 1996: Seismic evaluation and retro t of existing concrete buildings. Redwood
City, CA.

Au SK, 2005: Reliability-based design sensitivity by e¢cient simulation. Computers & Structures 83, 1048—1061.

Au SK, Beck JL, 2001: Estimation of small failure probabilities in high dimensions by subset simulation, Probabilistic
Engineering Mechanics 16, 263-277.

Au SK, Ching J, Beck JL, 2007: Application of subset simulation methods to reliability benchmark problems, Structural
Safety 29, 183-193.

Augusti G, Ciampoli M, 2008: Performance-Based Design in risk assessment and reduction, Probabilistic Engineering
Mechanics 23, 496-508.

Ayyub BM, Klir GJ, 2006: Uncertainty modeling and analysis in engineering and the sciences, Chapman and Hall/CRC,
Boca Raton.

Ba-abbad M, Nikolaidis E, Kapania R, 2006: A New Approach for System Reliability-Based Design Optimization,
AIAA J. 44(5),1087—1096.

Baker G, Wade C, Spearpoint M, Fleischmann C, 2013: Developing Probabilistic Design Fires for Performance-based
Fire Safety Engineering, Procedia Engineering 62, 639-647.

Baker MJ, 1969: Variations in the mechanical properties of structural steels, Final report: Symposium on Concepts of
Safety of Structures and Methods of Design, IABSE, London, 165-174.

Baker MJ, 1972: Variability in the Strength of Structural Steels - A Study in Material Variability; Part 1: Material
Variability’, CIRIA Technical Note 44.

Barbato M, Petrini F, Unnikrishnan VU, Ciampoli M, 2013: Performance-Based Hurricane Engineering (PBHE) frame-
work, Structural Safety 45, 24-35.

de Barros VP, Beck AT, Bittencourt TN, 2021: Shear failure in reinforced concrete members without transverse
reinforcement: analysis of model error of NBR6118:2014, IBRACON Structures and Materials Journal 14 (1), e14112,
https://doi.org/10.1590/S1983-41952021000100012
REFERÊNCIAS BIBLIOGRÁFICAS 463

Batts MB, Russell LR, Simiu B, 1980: Hurricane wind speed in the United States, J. Structural Div. ASCE 106,
2001—2016.

Bazán FAV, Beck AT, 2013: Stochastic process corrosion growth models for pipeline reliability, Corrosion Science 74,
50—58.

Bazan FAV, Beck AT, 2016: Optimal design of buried pipelines considering failure by mechanical damage. Structure &
Infrastructure Engineering 12, 1-10.

Beale MH, Hagan MT, Demuth HB, 2011: Neural Network Toolbox: User’s Guide. Matlab, The Mathworks Inc.

Beck AT, 2003: Reliability Analysis of Degrading Uncertain Structures - with Applications to Fatigue and Fracture
Under Random Loading, Ph. D. Thesis, Dept. of Civil and Environmental Engineering, University of Newcastle, Aus-
tralia.

Beck AT, 2007: Computer-aided teaching of structural reliability, Metodos Numéricos e Computacionais em Engenharia,
Porto.

Beck AT, 2008: The Random Barrier-crossing Problem, Probabilistic Engineering Mechanics 23, 134-145.

Beck AT, 2013: Structural Optimization under Uncertainties: Understanding the Role of Expected Consequences of
Failure. Chapter 5 in: Soft Computing Methods for Civil and Structural Engineering. Tsompanakis Y, Topping BHV
Eds. Saxe-Coburg Publications.

Beck AT, 2020: Optimal Design of Hyperstatic Redundant Structural Systems: fundamentals, Engineering Structures
219, 110542. https://doi.org/10.1016/j.engstruct.2020.110542

Beck AT, Correa MRS, 2013: New Design Chart for Basic Wind Speeds in Brazil. Latin American Journal of Solids
and Structures 10, 707-723.

Beck AT, da Rosa E, 2006: Structural Reliability Analysis Using Deterministic Finite Element Programs, Latin Amer-
ican Journal of Solids and Structures 3, 197-222.

Beck AT, Dória AS, 2008: Reliability analysis of I-section steel columns designed according to new Brazilian building
codes. Journal of the Brazilian Society of Mechanical Sciences and Engineering 30, 152-159.

Beck AT, Gomes WJS, 2012: A comparison of deterministic, reliability-based and risk-based structural optimization
under uncertainty, Probabilistic Engineering Mechanics 28, 18-29.

Beck AT, Melchers RE, 2004a: On the Ensemble Upcrossing Rate Approach to Time Variant Reliability Analysis of
Uncertain Structures, Probabilistic Engineering Mechanics 19, 9-19.

Beck AT, Melchers RE, 2004b: Overload Failure of Structural Components under Random Crack Propagation and
Loading - a Random Process Approach -, Structural Safety 26, 471-488.

Beck AT, Melchers RE, 2005: Barrier Failure Dominance in Time Variant Reliability Analysis, Probabilistic Engineering
Mechanics 20, 79-85.

Beck AT, Silva Jr. CRA, 2016: Strategies for Finding the Design Point under Bounded Random Variables. Structural
Safety 58, 79-93.

Beck AT, Souza Jr. AC, 2010: A rst attempt towards reliability-based calibration of Brazilian structural design codes.
Journal of the Brazilian Society of Mechanical Sciences and Engineering 32, 119-127.

Beck AT, Verzenhassi CC, 2008: Risk Optimization of a Steel Frame Communications Tower Subject to Tornado Winds,
Latin American Journal of Solids and Structures 5, 187-203.

Beck AT, Oliveira WLA, DeNardim S, ElDebs ALHC, 2009: Reliability-based evaluation of design code provisions for
circular concrete- lled steel columns, Engineering Structures 31, 2299-2308.
464 REFERÊNCIAS BIBLIOGRÁFICAS

Beck AT, Gomes WJS, Bazán FAV, 2012: On the Robustness of Structural Risk Optimization with Respect to Epistemic
Uncertainties. Int. Journal for Uncertainty Quanti cation 2, 1-20.

Beck AT, Kougioumtzoglou IA, Santos KRM, 2014: Optimal performance-based design of non-linear sto-
chastic dynamical RC structures subject to stationary wind excitation, Engineering Structures 78, 145-153.
https://doi.org/10.1016/j.engstruct.2014.07.047

Beck AT, Gomes WJS, Lopez RH, Miguel LFF, 2015: A comparison between robust and risk-based optimization under
uncertainty, Structural and Multidisciplinary Optimization 52, 479-492.

Beck AT, Tessari RK, Kroetz HM, 2019: System reliability-based design optimization and risk-based op-
timization: a benchmark example considering progressive collapse. Engineering Optimization 51, 1000-1012.
https://doi.org/10.1080/0305215X.2018.1502760

Beck AT, Cecilio DL, Gomes WJ, Tessari RK, Jacinto CMC, 2020a: Empirical Random Kick Model and Casing
Reliability, Journal of Petroleum Science and Engineering 35 (4), 644-654. https://doi.org/10.2118/201200-pa

Beck AT, Ribeiro LR, Valdebenito M, 2020b: Risk-based cost-bene t analysis of frame structures
considering progressive collapse under column removal scenarios. Engineering Structures 225, 111295,
https://doi.org/10.1016/j.engstruct.2020.111295

Beck AT, Bosse RM, Rodrigues ID, 2022: On the Ergodicity Assumption in Performance-Based Engineering. Structural
Safety (under review).

Bedford T, Cooke R, 2001: Probabilistic Risk Analysis: Foundations and Methods, Cambridge University Press.

Beer M, Ferson S, Kreinovich V, 2013: Imprecise probabilities in engineering analyses, Mechanical Systems & Signal
Processing 37, 4-29.

Belyaev YK, 1968: On the Number of Exits Across the Boundary of a Region by a Vector Stochastic Process, Theory
Prob. Appl. 13, 320-324.

Ben-Haim Y, Elishako¤ I, 1990: Convex models of uncertainty in applied mechanics, Elsevier Amsterdam.

Benjamin JR, 1968: Probabilistic Structural Analysis and Design, Journal of the Structural Division (ASCE) 94,
1665-1679.

Benjamin JR, Cornell CA, 1970: Probability, Statistics and Decision for Civil Engineers, McGraw-Hill Book Company,
New York.

Beyer HG, Sendho¤ B, 2007: Robust optimization - A comprehensive survey, Computer Methods in Applied Mechanics
and Engineering 196, 3190-3218.

Billah YK, Scanlan RH, 1991: Ressonance, Tacoma Narrows Bridge Failure, and Undergraduate Physics Textbooks,
American Journal of Physics 59, 118-124.

Birge, Louveaux, 1997: Introduction to Stochastic Programming, New York, Springer.

Birolini A, 2010: Reliability Engineering: Theory and Practice, Springer.

Bjerager P, 1988: Probability Integration by Directional Simulation, Journal of Engineering Mechanics 114, 1285-1301.

Bobby S, Spence SMJ, Bernardini E, Kareem A, 2014: Performance-Based Topology Optimization for Wind-Excited
Tall Buildings: A Framework. Engineering Structures 74: 242—55. https://doi.org/10.1016/j.engstruct.2014.05.043.

Bobby S, Spence SMJ, Kareem A, 2016: Data-Driven Performance-Based Topology Optimization of Un-
certain Wind-Excited Tall Buildings. Structural and Multidisciplinary Optimization 54 (6): 1379—1402.
https://doi.org/10.1007/s00158-016-1474-6.
REFERÊNCIAS BIBLIOGRÁFICAS 465

Bolandim E, Beck AT, Malite M, 2013: Bolted Connections in Cold-Formed Steel: Reliability Analysis for Rupture in
Net Section. ASCE J. Struct. Eng. 139, Special Issue: Cold-Formed Steel Structures, 748-756.

Borgund U, Bucher CG, 1986: Importance Sampling Procedure Using Design Point - ISPUD User’s Manual, Institute
für Mechanik, Universität Innsbruck, Innsbruck.

Borgund U, Ouypornprasert W, Prenninger PHW, 1986: Advanced Simulation Methods for the Estimation of Systems
Reliability, Internal Working Report 19, Institute für Mechanik, Universität Innsbruck, Innsbruck.

Box GEP, Hunter W, Hunter S, 2005: Statistics for Experimenters: Design, Innovation, and Discovery, 2nd edition,
Wiley.

Bratley P, Fox BL, Schrage LE, 1987: A Guide to Simulation, Springer.

Breitung K, 1984: Asymptotic Approximations for Multinormal Integrals, J. Eng. Mech. ASCE 110, 357-366.

Bucher CG, 1988: Adaptive Sampling - An Interative Fast Monte Carlo Procedure, Structural Safety 5, 119-126.

Bucher CG, 2009: Asymptotic sampling for high-dimensional reliability analysis, Probabilistic Engineering Mechanics
24, 504-510.

Bucher CG, Bourgund U, 1990: A Fast and E¢cient Response Surface Approach for Structural Reliability Problems,
Structural Safety 7, 56-66.

Candido DH, 2012: Tornados e trombas d’água no Brasil: desenvolvimento de um modelo e proposta de escala de
avaliação de danos, Tese de Doutorado, Instituto de Geociências, Unicamp.

Celik OC, Ellingwood BR, 2010: Seismic Fragilities for Non-Ductile Reinforced Concrete Frames - Role of Aleatoric
and Epistemic Uncertainties. Structural Safety 32(1): 1—12. https://doi.org/10.1016/j.strusafe.2009.04.003.

CETESB, 2011: Norma CETESB P4.261: Risco de acidente de origem tecnológica - Método para decisão e termos de
referência, Segunda Edição.

Chaves IA, Beck AT, Malite M, 2010: Reliability-based Evaluation of Design Guidelines for Cold-Formed Steel-Concrete
Composite Beams, Journal of the Brazilian Society of Mechanical Sciences and Eng. 32, 442-449.

Chen Z, Qiu H, Gao L, Su L, Li P, 2013: An adaptive decoupling approach for reliability-based design optimization,
Computers & Structures 117, 58—66.

Cheng G, Xu L, Jiang L, 2006: A sequential approximate programming strategy for reliability-based structural opti-
mization, Computers & Structures 84, 1353—1367.

Cheung AB, Beck AT, Nobrega PGB, Stucchi FB, Santos SHC, 2022: Ações e Segurança, Capítulo B04 em Estruturas
de Concreto Armado - Vol. 1, Kimura AE, Parsekian GA, Almeida LC, Santos SHC, Bittencourt TN (eds.), Instituto
Brasileiro do Concreto (IBRACON), São Paulo, SP, ISBN 978-65-89675-05-1.

Ciampoli M, Petrini F, Augusti G, 2011: Performance-Based Wind Engineering: Towards a general procedure, Struc-
tural Safety 33, 367-378.

Conselho Nacional de Educação, 2001: Parecer CNE/CES no 1.362/2001, aprovado em 12 de dezembro de 2001,
disponível em: http://portal.mec.gov.br/cne/arquivos/pdf/CES1362.pdf

Cook, Dustin T, Liel AB, DeBock DJ, Haselton CB, 2021. Benchmarking FEMA P-58 Repair Costs and Unsafe Placards
for the Northridge Earthquake: Implications for Performance-Based Earthquake Engineering. International Journal of
Disaster Risk Reduction 56, 102117. https://doi.org/10.1016/j.ijdrr.2021.102117.

Corelhano G, Correa MRS, Beck AT, 2012: Con abilidade de edifícios no estado limite de serviço para deslocamentos
horizontais máximos, IBRACON Structures and Materials Journal 5, 84-103.
466 REFERÊNCIAS BIBLIOGRÁFICAS

Cornell CA, 1967: Bounds on the reliability of structural systems. J Struct Div, ASCE, 93, 171—200.

Cornell CA, 1969a: Bayesian Statistical Decision Theory and Reliability-Based Design, Proceedings of the Int. Confer-
ence on Structural Safety and Reliability, Washington DC, 47-66.

Cornell CA, 1969b: A probability-based structural code. Journal of the American Concrete Institute 66(12), 974—985.

Costa LGL, Santiago WC, Beck AT, 2022: Probabilistic models for live loads in buildings: critical review, comparison
to Brazilian design standards, and calibration of partial safety factors, IBRACON Structures and Materials Journal, to
appear (accepted paper).

Costa LGL, 2023: Modelos Probabilísticos para Ações Variáveis Brasileiras, Dissertação de Mestrado, Escola de Enge-
nharia de São Carlos, Universidade de São Paulo.

Cox RT 1946: Probability, Frequency and Reasonable Expectation, American Journal of Physics 14, 1—10.

Cramér H, Leadbetter MR, 1967: Stationary and related stochastic processes: sample functions properties and their
applications, John Wiley & Sons (Dover edition, 2004).

Dantas JPR, Barbosa RL, Stucchi FR, Klein Jr. O, 201?: Análise técnico-experimental de pilares curtos de concreto
de alta resistência, submetidos à compressão centrada, de acordo com as normas brasileiras, to appear in: Revista
IBRACON de Estruturas e Materiais.

Davenport AG, 1961: The application of statistical concepts to the wind loading of structures, Proc. Inst. Civil Engrs.
19, 449—472.

Davenport AG, 1967: Gust loading factors, J. Structural Div. ASCE 93, 11—34.

Davenport AG, 1987: Proposed new international (ISO) wind load standard. High winds and building codes, Proc.
WERC/NSFWind Engineering Symposium, Kansas City, MI, 373—388.

de Finetti B, 1974: Theory of probability, J. Wiley & Sons, New York.

De Gersem H, Moens D, Desmet W, Vandepitte D, 2007: Interval and fuzzy dynamic analysis of nite element models
with superelements, Computers & Structures 85, 304-319.

DENATRAN, 2002: Anuário Estatístico de Acidentes de Trânsito de 2002.

Der Kiureghian A, 2000: The Geometry of Random Vibrations and Solutions by FORM and SORM, Probabilistic
Engineering Mechanics 15, 81-90.

Der Kiureghian A, Dakessian T, 1998: Multiple design points in rst and second-order reliability, Structural Safety 20,
37—49.

Der Kiureghian A, Ditlevsen O, 2009: Aleatory or epistemic? Does it matter?, Structural Safety 31, 105-112.

Der Kiureghian A, Ke J-B, 1988: The stochastic nite element method in structural reliability, Probabilistic Engineering
Mechanics 3, 83-91.

Der Kiureghian A, Li CC, 1996: Non-linear Random Vibration Analysis Through Optimization. Proceedings of the
7th IFIP WG 7.5 Working Conference on Reliability and Optimization of structural systems, Frangopol D, Corotis R,
Rackwitz R (Eds.), Pergamon Press, UK, 197-206.

Der Kiureghian A, Liu PL, 1986a: Structural reliability under incomplete probabilistic information. Journal of Engi-
neering Mechanics ASCE 112, 85-104.

Der Kiureghian A, Liu PL, 1986b: Multivariate distribution models with prescribed marginals and covariances, Prob-
abilistic Engineering Mechanics 1, 105-112.
REFERÊNCIAS BIBLIOGRÁFICAS 467

Der Kiureghian A, Lin H-Z, Hwang S-J, 1987: Second Order Reliability Approximations, Journal of Engineering
Mechanics ASCE 113, 1208-1225.

Der Kiureghian A, Haukaas T, Fujimura K, 2006: Structural reliability software at the University of California, Berkeley,
Structural Safety 28, 44-67.

Dhillon BS, 1986: Human Reliability: With Human Factors, Pergamon Press.

Dhillon BS, 1999: Design Reliability: Fundamentals and Applications, CRC Press.

Dhillon BS, 2009: Human Reliability, Error, and Human Factors in Engineering Maintenance: with Reference to
Aviation and Power Generation, 1st Edition, CRC Press.

Ditlevsen O, 1979: Narrow reliability bounds of structural systems. J. Struct. Mech. 7, 453—72.

Ditlevsen O, 1981: Principle of Normal Tail Aproximation, Journal of Engineering Mechanics ASCE 107, 1191-1208.

Ditlevsen O, 1983: Gaussian Outcrossings from Safe Convex Polyhedrons, Journal of Engineering Mechanics ASCE
109, 127-148.

Ditlevsen O, 1986: Duration of Gaussian Process Visit to a Critical Set, Probabilistic Engineering Mechanics 1, 82-93.

Ditlevsen O, Madsen HO, 1983: Transient Load Modeling: Cliped Normal Processes, Journal of Engineering Mechanics
ASCE 109, 495-515.

Ditlevsen O, Madsen HO, 1996: Structural Reliability Methods, John Wiley & Sons, Chichester, England.

Ditlevsen O, Madsen HO, 2005: Structural Reliability Methods, 2nd Ed., disponivel online em:
http://orbit.dtu.dk/en/publications/structural-reliability-methods(4308ecd9-acab-433e-a0eb-fe09f8dfd277).html.

DoD (Department of Defense), 2013: Design of buildings to resist progressive collapse. UFC 4—023—03, Washington,
DC.

Dorf RC (Editor), 2000: The Electrical Engineering Handbook, CRC Press LLC, Boca Raton.

Du X, Chen W, 2004: Sequential Optimization and Reliability Assessment method for E¢cient Probabilistic Design.
ASME J. Mech. Des., 126, 225—233.

Ekstrand ER, 2000: Estimating economic consequences from dam failure in the safety of dams program, U.S. Depart-
ment of the Interior, Bureau of Reclamation.

Elishako¤ I, 1999: Probabilistic Theory of Structures, 2nd. Ed., Dover Publications Inc., Mineola, NY.

Ellingwood B, 1994: Probability-based codi ed design: past accomplishments and future challenges, Structural Safety
13, 159-176.

Ellingwood B, 1999: A comparison of general design and load requirements in building codes in Canada, Mexico, and
the United States, Engineering Journal, American Institute of Steel Construction 36, 67-81.

Ellingwood B, 2000: LRFD: implementing structural reliability in professional practice, Engineering Structures 22,
106-115.

Ellingwood B, 2006: Mitigating risk from abnormal loads and progressive collapse. J. Perform. Constr. Facil. 20(4):
315—323. doi.org/10.1061/(ASCE)0887-3828(2006)20:4(315).

Ellingwood B, 2007: Strategies for mitigating risk to buildings from abnormal load events. Int. J. Risk Assess. Manage.
7 (6): 828—845. doi.org/10.1504/IJRAM.2007.014662.

Ellingwood B, Dusenberry D, 2005: Building design for abnormal loads and progressive collapse. Comput.-Aided Civ.
Infrastruct. Eng. 20 (3): 194—205. doi.org/10.1111/j.1467-8667.2005.00387.x.
468 REFERÊNCIAS BIBLIOGRÁFICAS

Ellingwood B, Galambos TV, 1982: Probability-based criteria for structural design, Structural Safety 1, 15-26.

Ellingwood B, Galambos TV, MacGregor JG, Cornell CA, 1980: Development of a Probability Based Load Criterion
for American National Standard A58. Us National Bureau of Standard Special Publication 577, Washington DC.

Ellingwood B, Corotis RB, Boland J, Jones NP, 1993: Assessing cost of dam failure, Journal of Water Resources
Planning and Management 119, 64-82.

EN 1990:2002. Eurocode: Basis of structural design, European Committee for Standardization, Brussels.

Enevoldsen I, Sørensen JD, 1993: Reliability-based optimization of series system of parallel systems. J. Struct. Eng.
119, 1069—1084.

Enevoldsen I, Sørensen JD, 1994: Reliability-based optimization in structural engineering, Structural Safety 15, 169-
196.

Enevoldsen I, Faber MH, Sørensen JD, 1994: Adaptative response surface techniques in reliability estimation. In:
Schueller GI, Shinozuka M, Yao I (ed.): Structural safety and reliability, 1257-1264.

Engelund S, Rackwitz R, 1993: A benchmark study on importance sampling techniques in structural reliability, Struc-
tural Safety 12, 255-276.

Epoca Negócios, 2015: http://epocanegocios.globo.com/Empresa/noticia/2015/11/custo-total-da-samarco-com-


desastre-pode-chegar-a-bilhoes-dizem-fontes-do-governo.html, acessado em 6/6/2017.

Faber MH, 2006: Risk and Safety in Civil, Surveying and Environmental Engineering, Lecture Notes, Swiss Federal
Institute of Technology.

Faravelli L, 1989: A Response Surface Approach for Reliability Analysis, J. Eng. Mechanics ASCE 115, 2763-2781.

Farkas L, Moens D, Vandepitte D, Desmet W, 2008: Application of fuzzy numerical techniques for product performance
analysis in the conceptual and preliminary design stage, Computers & Structures 86, 1061-1079.

Farkas L, Moens D, Vandepitte D, Desmet W, 2010: Fuzzy nite element analysis based on reanalysis technique,
Structural Safety 32, 442-448.

Felipe TRC, Haach VG, Beck AT, 2018: Systematic Reliability-Based Approach to Progressive Collapse, ASCE-
ASME Journal of Risk and Uncertainty in Engineering Systems, Part A: Civil Engineering, v.4, 04018039. DOI:
10.1061/AJRUA6.0000990

FEMA (Federal Emergency Management Agency) 273, 1996: NEHRP guidelines for the seismic rehabilitation of build-
ings; FEMA 274, Commentary. Washington, DC.

FEMA, 2000a: Recommended Seimic Design Criteria for New Steel Moment-Frame Buildings. Vol. 350.

FEMA, 2000b: Recommended Seismic Evaluation and Upgrade Criteria for Existing Welded Steel Moment-Frame
Buildings. Vol. 351.

FEMA, 2012: FEMA P-58: Seismic Performance Assessment of Buildings, Volume 1 — Methodology, Volume 2 —
Implementation Guide.

FEMA, 2018a: Seismic Performance Assessment of Buildings, Volume 1 - Methodology.


https://www.atcouncil.org/docman/fema/246-fema-p-58-1-seismic-performance-assessment-of-buildings-volume-1-
methodology-second-edition/ le.

FEMA, 2018b: Seismic Performance Assessment of Buildings, Volume 5 - Expected Seismic Performance of
Code-Conforming Buildings.” Fema P-58-5. Vol. 5. https://www.atcouncil.org/docman/fema/249-fema-p-58-5-seismic-
performance-assessment-of-buildings-volume-5-expected-seismic-performance-of-code-conforming-buildings/ le
REFERÊNCIAS BIBLIOGRÁFICAS 469

Feng YS, Moses F, 1986: A method of structural optimization based on structural system reliability, J. Struct. Mech.
14, 437—53.

Ferreira JR, 2017: Reliability of Short Circular RC Columns Con ned by FRP, Tese de Doutorado, Programa de
Pós-Graduação em Engenharia de Estruturas, Universidade Federal de Minas Gerais.

Ferry-Borges J, 1954: O Dimensionamento de Estruturas, Publication 54, Ministry of Public Works, National Labora-
tory of Civil Engineering, Lisbon, Portugal.

Fiessler B, Neumann HJ, Rackwitz R, 1979: Quadratic limit states in structural reliability, J. Eng. Mech. ASCE 105,
661-679.

Fiondella L, Xing L, 2015: Discrete and continuous reliability models for systems with identically distributed correlated
components, Reliability Engineering & System Safety 133, 1-10.

Frangopol DM, 1985: Structural optimization using reliability concepts, Journal of Structural Engineering 111, 2288—
2301.

Freudenthal AM, 1956: Safety and the probability of structural failure. ASCE Transactions 121, 1337—1397.

Freudenthal AM, Garrelts JM, Shinozuka M, 1964: The analysis of structural Safety, Journal of Structural Division
ASCE 92, 267—325.

Fusco PB, 1981: Estruturas de Concreto. Solicitações Normais, Estado Limite Último, Teoria e Aplicações, Editora
Guanabara 2, Rio de Janeiro.

Galambos TV, Ravindra MK, 1978: Properties of Steel for Use in LRFD’, ASCE J. Str. Div. 104, 1459—1468.

Gang L, Hu H, 2014: Risk Design Optimization Using Many-Objective Evolutionary Algorithm with
Application to Performance-Based Wind Engineering of Tall Buildings. Structural Safety 48: 1—14.
https://doi.org/10.1016/j.strusafe.2014.01.002.

Gayton N, Bourinet JM, Lemaire M, 2003: CQ2RS: a new statistical approach to the response surface method for
reliability analysis, Structural Safety 25, 99-121.

Gayton N, Mohamed A, Sorensen JD, Pendola M, Lemaire M, 2004: Calibration methods for reliability-based design
codes, Structural Safety 26, 91-121.

Ghanem RG, Spanos PD, 1991: Stochastic Finite Elements: a Spectral Approach, Revised Edition, DOVER, NY.

Ghobarah A., 2001: Performance-based design in earthquake engineering: state of development. Engineering Structures
23, 878—884.

Gollwitzer S, Kirchgaßner B, Fischer R, Rackwitz R, 2006: PERMAS-RA/STRUREL system of programs for proba-
bilistic reliability analysis, Structural Safety 28, 108-129.

Golub GH, Van Loan CF, 2012: Matrix Computations. Fourth Ed., Johns Hopkins Studies in Mathematical Sciences.
The Johns Hopkins University.

Gomes HM, Awruch AM, 2004: Comparison of response surface and neural network with other methods of structural
reliability analysis, Structural Safety 26, 49-67.

Gomes L, Vickery BJ, 1976: Tropical cyclone gust speeds along the northern Australian coast, Civ. Engg. Trans. Inst.
Engrs. Aust. CE18(2), 40—48.

Gomes WJS, Beck AT, 2013. Global structural optimization considering expected consequences of failure and using
ANN surrogates, Computers & Structures 126, 56-68.
470 REFERÊNCIAS BIBLIOGRÁFICAS

Gomes WJS, Beck AT, 2014a: Optimal Inspection and Design of Onshore Pipelines Under External Corrosion Process,
Structural Safety 47, 48-58.

Gomes WJS, Beck AT, 2014b: Optimal Inspection Planning and Repair Under Random Crack Propagation, Engineering
Structures 69, 285-296.

Gomes WJS, Beck AT, 2016: The Design Space Root Finding method for e¢cient risk optimization by simulation,
Probabilistic Engineering Mechanics 44, 99 - 110.

Gomes WJS, Beck AT, 2021: A conservatism index based on structural reliability and model errors, Reliability Engi-
neering and System Safety 209, 107456, https://doi.org/10.1016/j.ress.2021.107456

Gomes WJS, Beck AT, Haukaas T, 2013: Optimal Inspection Planning for Onshore Pipelines Subject to External
Corrosion, Reliability Engineering & Systems Safety 118, 18-27.

Goulet C, Haselton CB, Mitrani-Reiser J, Stewart JP, Taciroglu E, Deierlein GG, 2006: Evaluation of the Seismic Per-
formance of a Code-Conforming Reinforced-Concrete Frame Building - Part I: Ground Motion Selection and Structural
Collapse Simulation. 8th US National Conference on Earthquake Engineering 2006 8 (January): 4589—98.

Goulet CA, Haselton CB, Mitrani-Reiser J, Beck JL, Deierlein GG, Porter KA, Stewart JP, 2007: Evaluation of the
seismic performance of a code-conforming reinforced-concrete frame building - from seismic hazard to collapse safety
and economic losses, Earthquake Engng Struct. Dyn. 36, 1973—1997.

Grigoriu M, 1984: Simulation of stationary non-Gaussian translation processes. J. Eng. Mech. (ASCE) 124, 121–126.

GSA (General Services Administration), 2013: Alternate path analysis and design guidelines for progressive collapse
resistance. Washington, DC.

Guan XL, Melchers RE, 2001: E¤ect of response surface parameter variation on structural reliability estimates, Struc-
tural Safety 23, 429-444.

Gulvanessian H, Holicky M, 2005: Eurocodes: using reliability analysis to combine action e¤ects, Structures & Buildings
158, Issue SB4, 243-252.

Gumbel EJ, 1958: Statistics of Extremes, Dover Edition (2004), Dover Publications Inc. NY.

Haftka RT, Gürdal Z, Kamat MP, 1990: Elements of Structural Optimization, 2nd Ed., Springer.

Hagen O, 1992: Threshold Up-crossing by Second Order Methods, Probabilistic Engineering Mechanics 7, 235-241.

Hagen O, Tvedt L, 1991: Vector Process Out-Crossing as a Parallel System Sensitivity Measure, J. Eng. Mech. ASCE
117, 2201-2220.

Hanss M, Turrin S, 2010: A fuzzy-based approach to comprehensive modeling and analysis of systems with epistemic
uncertainties, Structural Safety 32, 433-441.

Haselton Baker Risk Group 2020: Seismic Performance Prediction Program (SP3). Acesso online em Set. 2021:
www.hbrisk.com.

Haselton CB, Deierlein GG, 2008: Assessing Seismic Collapse Safety of Modern Reinforced Concrete Moment-Frame
Buildings. PEER. Vol. 137. http://myweb.csuchico.edu/~chaselton/Website_Files/Publications/Pub_Dissertation_PEERReport_Haselto

Haselton CB, Goulet CA, Mitrani-reiser J, Beck JL, Deierlein GG, Porter KA, Stewart JP, 2008: An Assessment
to Benchmark the Seismic Performance of a Code-Conforming Reinforced Concrete Moment-Frame Building. PEER
Report 2007/12.

Hasofer AM, Lind NC, 1974: Exact and Invariant Second Moment Code Format, J. Eng. Mech. ASCE 100, 111-121.

Haykin S, 1996: Adaptive Filter Theory, 3rd Ed., Prentice Hall, Upper Saddle River, New Jersey.
REFERÊNCIAS BIBLIOGRÁFICAS 471

Haykin S, 1999: Neural Networks, 2nd Ed., Prentice Hall, Upper Saddle River, New Jersey.

He XHC, Yuan XX, Yi WJ, 2019: A non-iterative progressive collapse design method for RC structures based on virtual
thermal pushdown analysis. Engineering Structures 189: 484-496.

Hecht-Nielsen, 1989: Neurocomputing, Addison-Wesley.

Helton JC, Davis FJ, 2003: Latin hypercube sampling and the propagation of uncertainty in analyses of complex
systems, Reliability Engineering & System Safety 81, 23-69.

Helton JC, Davis FJ, Johnson JD, 2005: A comparison of uncertainty and sensitivity analysis results obtained with
random and Latin hypercube sampling, Reliability Engineering & System Safety 89, 305-330.

Hertz J, Jrogh A, Palmer RG, 1991: Introduction to the theory of Neural Computation, Addison-Wesley Publishing
Company.

Hilton HH, Feigen M, 1960: Minimum Weight Analysis Based on Structural Reliability, Journal of the Aerospace
Sciences 27, 641-653.

Holicky M, 2008: Reliability-based analysis of codi ed design allowing for production quality, Proc. 4th International
ASRANet Colloquium, Athens.

Holmes JD, 2007: Wind Loading on Structures, 2nd Edition, Taylor & Francis, Abingdon.

Hong HP, Huang Q, Jiang WJ, Tang Q, Jarrett P, 2021: Tornado Wind Hazard Mapping and Equivalent Tornado
Design Wind Pro le for Canada. Structural Safety 91: 102078. https://doi.org/10.1016/j.strusafe.2021.102078.

Horn RA, Johnson CR, 1990: Matrix Analysis, Cambridge University Press, UK.

Hornik K, Stinchcombe M, White H, 1990: Universal approximation of an unknown mapping and its derivatives using
multilayer feedforward networks. Neural Networks 3, 551-560.

Hurtado JE, Alvarez DA, Ramírez J, 2012: Fuzzy structural analysis based on fundamental reliability concepts, Com-
puters & Structures 112-113, 183—192.

IBGE, 2015: http://www.ibge.gov.br/home/estatistica/economia/industria/paic/2015/default.shtm (acessado em


21/07/2017).

Iman RL, Canover WJ, 1980: Small Sample Sensitivity Analisys Techniques for Computer Models with an Application
to Risk Assesment, Communications in Statistics, Theory and Methods.

ISO 2394:1998. General principles on reliability for structures, International Standards Association.

Jacod J, Protter P, 2004: Probability Essentials, Springer.

Jaynes ET, 1986: Bayesian Methods: General Background, em Maximum-Entropy and Bayesian Methods in Applied
Statistics, Justice JH (ed.), Cambridge Univ. Press.

JCSS, 2001: Probabilistic Model Code, Joint Committee on Structural Safety, disponível on-line em:
http://www.jcss.byg.dtu.dk/Publications/Probabilistic_Model_Code (acessado em 27.07.2017).

Jensen HA, 2006: Structural optimization of non-linear systems under stochastic excitation, Probabilistic Engineering
Mechanics 21, 397—409.

Jensen HA, Valdebenito MA, Schuëller GI, 2008: An e¢cient reliability-based optimization scheme for uncertain linear
systems subject to general Gaussian excitation, Computer Methods in Applied Mechanics and Engineering 198, 72—87.

Jensen HA, Valdebenito MA, Schuëller GI, Kusanovic DS, 2009: Reliability-based optimization of stochastic systems
using line search, Computer Methods in Applied Mechanics and Engineering 198, 3915—3924.
472 REFERÊNCIAS BIBLIOGRÁFICAS

Jensen HA, Mayorga F, Valdebenito MA, 2015: Reliability sensitivity estimation of nonlinear structural systems under
stochastic excitation: A simulation-based approach, Computer Methods in Applied Mechanics and Engineering 289,
1—23.

Jia G, Ta‡anidis AA, 2013: Non-parametric stochastic subset optimization for optimal-reliability design problems,
Computers & Structures 126, 86—99.

Jia G, Ta‡anidis AA, Beck JL, 2015: Non-parametric stochastic subset optimization for design problems with reliability
constraints, Structural & Multidisciplinary Optimization 52, 1185-1204.

Joanni A, Rackwitz R, 2008: Cost—bene t optimization for maintained structures by a renewal model, Reliability
Engineering & System Safety 93, 489—499.

Johnson AI, 1953: Strength, Safety and Economical Dimensions of Structures, Division of Building Statistics and
Structural Engineering Bulletin 12, Royal Institute of Technology, Stockholm, Sweden.

Johnson AI, 1971: Strength, safety and economical dimensions of structures, 2nd ed., Nat. Swedish Building Research
Inst..

Kall P, Wallace SW, 1994: Stochastic programming, John Wiley & Sons.

Kanda J, Ellingwood B, 1991: Formulation of load factors based on optimum reliability, Structural Safety 9, 197-210.

Karamchandani A, Bjerager B, Cornell CA, 1989: Adaptive Importance Sampling, Proc. 5th International Conference
on Structural Safety and Reliability, 855-862.

Kim SH, Na SW, 1997: Response surface method using vector projected sampling points, Structural Safety 19, 3-19.

Kirwan B, 1994: A Guide to Practical Human Reliability Assessment, CRC Press.

Kleinmann NL, Spall JC, Naiman DC, 1999: Simulation-based optimization with stochastic approximation using com-
mon random numbers. Management Science 45, 1570—1578.

Kogut GF, Chou KC, 2004: Partial resistance factor design on steel-concrete beam columns, Engineering Structures
26, 857-866.

Kroetz HM, 2015: Meta-Modelagem em Con abilidade Estrutural, Dissertação de Mestrado, Programa de Pós-
graduação em Engenharia de Estruturas, EESC, Universidade de São Paulo.

Kroetz HM, Tessari RK, Beck AT, 2017: Performance of global metamodeling techniques in solution of structural
reliability problems, Advances in Engineering Software 114, 394—404.

Kroetz HM, Do NA, Dias D, Beck AT, 2018: Reliability of tunnel lining design using the Hyperstatic Reaction Method.
Tunnelling and Underground Space Technology 77, 59-67.

Kroetz HM, Moustapha M, Beck AT, Sudret B, 2020: A Two-Level Kriging-Based Approach with Active Learning for
Solving Time-Variant Risk Optimization Problems, Reliability Engineering & System Safety 103, 107033.

Kuschel N, Rackwitz R, 2000: Optimal design under time-variant reliability constraints. Structural Safety 22, 113—127.

Lacaze S, Brevault L, Missoum S, Balesdent M, 2015: Probability of failure sensitivity with respect to decision variables,
Structural & Multidisciplinary Optimization 52, 375—381.

Lange D, Devaney S, Usmani A, 2014: An application of the PEER performance based earthquake engineering frame-
work to structures in re, Engineering Structures 66, 100-115.

Larrabee RD, Cornell CA, 1979: Up-crossing Rate Solution for Load Combinations, Journal of the Structural Division
ASCE 105, 125-132.
REFERÊNCIAS BIBLIOGRÁFICAS 473

Larrabee RD, Cornell CA, 1981: Combination of Various Load Processes, Journal of the Structural Division ASCE
107, 223-239.

Lawrence MA, 1987: Basis random variables in nite element analysis, Journal for Numerical Methods in Engineering
24, 1849-1863.

Lebrun R, Dutfoy A, 2009a: A generalization of the Nataf transformation to distributions with elliptical copula,
Probabilistic Engineering Mechanics 24, 172-178.

Lebrun R, Dutfoy A, 2009b: An innovating analysis of the Nataf transformation from the copula viewpoint, Probabilistic
Engineering Mechanics 24, 312-320.

Lebrun R, Dutfoy A, 2009c: Do Rosenblatt and Nataf isoprobabilistic transformations really di¤er?, Probabilistic
Engineering Mechanics 24, 577-584.

Lee J, Yang S, Ruy W, 2002: A comparative study on reliability index and target performance based probabilistic
structural design optimization. Computer & Structures 257, 269-80.

Lehmer DH, 1949: Mathematical methods in large-scale computing units, Proc. 2nd Symposium on large scale digital
calculating machinery, Cambridge MA, 141-146.

Lemaire M, Pendola M, 2006: PHIMECA-SOFT, Structural Safety 28, 130-149.

Lemieux C, 2009: Monte Carlo and Quasi-Monte Carlo Sampling. Springer Series in Statistics. Springer, Dordrecht.

L’Ecuyer P, 1994: E¢ciency improvement via variance reduction, Proceedings of the 1994 Winter Simulation Confer-
ence, J. D. Tew et al., ed., Piscataway, NJ, IEEE Press, 122—132.

Leonel ED, Beck AT, Venturini WS, 2011: On the Performance of Response Surface and Direct Coupling Approaches
in Solution of Random Crack Propagation Problems, Structural Safety 33, 261-274.

Li C-C, Der Kiureghian A, 1993: Optimal discretization of random elds, J. Eng. Mech. 119, 1136-1154.

Liang J, Mourelatos ZP, Tu J, 2004: A single-loop method for reliability-based design optimization. In: Proceedings of
ASME design engineering technical conferences, paper N?DETC2004/DAC-57255.

Liang J, Mourelatos ZP, Nikolaidis E, 2007: A single-loop approach for system reliability-based design optimization, J.
Mech. Des. 129, 1215—1224.

Lima EL, 2014: Álgebra Linear, Oitava Edição, Coleção Matemática Universitária, IMPA.

Lin H-Z, Khalessi MR, 2006: General outlook of UNIPASS V5.0: A general-purpose probabilistic software system,
Structural Safety 28, 196—216.

Lind NC, 1976: Approximate analysis and economics of structures, J. Struct. Div., 102, 1177-1196.

Liu PL, Der Kiureghian A, 1986: Optimization algorithms for structural reliability analysis. Report UCB/SESM 86/09,
Department of Civil and Environmental Engineering, University of California, Berkeley.

Liu PL, Der Kiureghian A, 1991: Optimization algorithms for structural reliability, Structural Safety 9, 161-177.

Liu SC, Neghabat F, Dougherty MR, 1976: Optimal aseismic design of building and equipment, Engrg. Mech. ASCE
102, 395—414.

Liu VW, Moses FA, 1994: A sequential response surface method and its application in the reliability analysis of aircraft
structural systems, Structural Safety 16, 39-46.

Liu W-K, Belytschko T, Mani A, 1986a: Probabilistic nite elements for nonlinear structural dynamics, Comp. Meth.
App. Mech. Eng. 56, 61-86.
474 REFERÊNCIAS BIBLIOGRÁFICAS

Liu W-K, Belytschko T, Mani A, 1986b: Random eld nite elements, Int. J. Num. Meth. Eng. 23, 10, 1831-1845.

Loève M, 1977: Probability Theory, 4th edition, Springer-Verlag, Berlin.

Lopez RH, Beck AT, 2012: Reliability-based design optimization strategies based on FORM: a review. Journal of the
Brazilian Society of Mechanical Sciences and Engineering 34, 506-514.

Lopez RH, Beck AT, 2013: Optimization Under Uncertainties, Chapter 8 In: Pablo Andrés Muñoz-Rojas. (Org.).
Advanced Structured Materials, 1st ed., Alemanha: Springer International Publishing, 117-141.

Luenberger D, 2003: Linear and Nonlinear Programming. 2nd Ed., Kluver Academic Publishers, Holanda.

Lutes L, Sarkani S, 2004: Random Vibrations - Analysis of Structural and Mechanical Systems, Elsevier.

Madsen HO, 1986: Fast Probability Integration for Time Variant Reliability, A.S. Veritas Report.

Madsen HO, Tvedt L, 1990: Methods for Time-Dependent Reliability and Sensitivity Analysis, Journal of Engineering
Mechanics 116, 2118-2135.

Madsen HO, Krenk S, Lind NC, 1986: Methods of Structural Safety, Prentice Hall Inc., Englewood Cli¤s, NJ.

Maes MA, Breitung K, Dupuis DJ, 1993: Asymptotic importance sampling, Structural Safety 12, 167-186.

Marelli S, Sudret B, 2014: UQLab: A framework for uncertainty quanti cation in Matlab, Proc. 2nd Int. Conf. on
Vulnerability, Risk Analysis and Management (ICVRAM2014), Liverpool, UK, 2554-2563.

Market Research News, 2016: https://market.biz/news/bhp-billiton/, acessado em 6/6/2017.

Marley MJ, Moan T, 1994: Approximate Time Variant Analysis for Fatigue, Structural Safety and Reliability, Schueller,
Shinozuka, Yao (eds.).

Matias DL, Andrade SS, Silva DM, dos Santos TD, Vieira Jr. LCM, Beck AT, 2017: Changing Wind Speed Scenarios and
Consequences to Structural Design, Proceedings of the XXXVIII Iberian Latin-American Congress on Computational
Methods in Engineering, Faria PO, Lopez RH, Miguel LFF, Gomes WJS, Noronha M (Editores), ABMEC, Florianópolis,
SC.

McLeod RW, 2015: Designing for Human Reliability: Human Factors Engineering in the Oil, Gas, and Process Indus-
tries; Gulf Professional Publishing.

Melchers RE, 1992: Load-Space Formulation for Time-Dependent Structural Reliability, J. Engineering Mechanics 118,
853-870.

Melchers RE, 1994: Structural System Reliability Assessment using Directional Simulation, Structural Safety 16, 23—39.

Melchers RE, Beck AT, 2018: Structural Reliability Analysis and Prediction. 3rd Edition, Wiley.

Miguel LFF, Alminhana F, Beck AT, 2022: Performance Based Assessment of Transmission Lines to Seismic Events.
Engineering Structures (to appear, accepted paper).

Miranda E, Aslani H, 2003: Probabilistic Response Assessment for Building-Speci c Loss Estimation, PEER Report
2003/03, University of California, CA.

Mirza SA, McGregor JG, 1979b: Variability of mechanical properties of reinforcing bars, J. Struc. Division ASCE 105,
921-937.

Mitrani-Reiser J, Haselton C, Goulet C, Porter K, Beck J, Deierlein G, 2006: Evaluation of the Seismic Performance
of a Code-Conforming Reinforced-Concrete Frame Building - Part II: Loss Estimation. 8th US National Conference on
Earthquake Engineering 2006 8 (December 2014): 4599—4608.

Mlodinow L, 2009: The Drunkard´s Walk: How Randomness Rules our Lives, Vintage Books.
REFERÊNCIAS BIBLIOGRÁFICAS 475

Modarres M, Kaminskiy MP, Krivtsov V, 2017: Reliability Engineering and Risk Analysis: A Practical Guide, 3rd
Edition, CRC Press.

Moens D, Hanss M, 2011: Non-probabilistic nite element analysis for parametric uncertainty treatment in applied
mechanics: Recent advances, Finite Elements in Analysis and Design 47, 4-16.

Moens D, Vandepitte D, 2005: A survey of non-probabilistic uncertainty treatment in nite element analysis, Computer
Methods in Applied Mechanics and Engineering 194, 1527-1555.

Moens D, Vandepitte D, 2007: Interval sensitivity theory and its application to frequency response envelope analysis
of uncertain structures, Computer Methods in Applied Mechanics and Engineering 196, 2486-2496

Möller B, Beer M, 2004: Fuzzy Randomness — Uncertainty in Civil Engineering and Computational Mechanics, Springer,
Berlin Heidelberg New York.

Möller B, Beer M, 2008: Engineering computation under uncertainty — Capabilities of non-traditional models, Com-
puters & Structures 86, 1024—1041.

Möller B, Graf W, Beer M, 2003: Safety assessment of structures in view of fuzzy randomness, Computers & Structures
81, 1567-1582.

Möller O, Foschi RO, Quiroz LM, Rubinstein M, 2009: Structural Optimization for Performance-Based
Design in Earthquake Engineering: Applications of Neural Networks. Structural Safety 31 (6): 490—99.
https://doi.org/10.1016/j.strusafe.2009.06.007.

Montgomery DC, 2012: Design and analysis of experiments. 8th Edition, Wiley, NY.

Montgomery DC, Runger GC, 1999: Estatística Aplicada e Probabilidade para Engenheiros, LTC Editora.

Mosalam KM, Alibrandi U, Lee H, Armengou J, 2018: Performance-Based Engineering and Multi-
Criteria Decision Analysis for Sustainable and Resilient Building Design. Structural Safety 74: 1—13.
https://doi.org/10.1016/j.strusafe.2018.03.005

Moses F, 1969: Approaches to Structural Reliability and Optimization, in: An Introduction to Structural Optimization,
Conn MZ (ed.), Solid Mechanics Division, University of Waterloo, Study No. 1, 81-120.

Moses F, 1977: Structural system reliability and optimization, Computers & Structures 7, 283-290.

Mosquera ZSZ, Tsuha CHC, Beck AT, 2015: Serviceability Performance Evaluation of Helical Piles under Uplift Load-
ing. Journal of Performance of Constructed Facilities 29, 04015070.

Myers RH, Montgomery DC, Anderson-Cook CM: 2016: Response surface methodology: Process and Product Opti-
mization Using Designed Experiments, 4th Edition, John Wiley & Sons.

Naess A, Leira BJ, Batsevych O, 2009: System reliability analysis by enhanced Monte Carlo simulation, Structural
Safety 31, 349-355.

Naess A, Leira BJ, Batsevych O, 2012: Reliability analysis of large structural systems, Probabilistic Engineering
Mechanics 28, 164-168.

Napa-Garcia G, Beck AT, Celestino TB, 2017: Reliability analyses of underground openings with the point estimate
method, Tunnelling and Underground Space Technology 64, 154-163.

Napa-Garcia G, Beck AT, Celestino TB, 2018: Risk analysis of fractured rock mass underground structures, Georisk:
Assessment and Management of Risk for Engineered Systems and Geohazards 12, 123-134.

Napa-Garcia G, Santos RA, Beck AT, Celestino TB, 2018: Improvement of analytical factor of safety estimation of
falling failure mode in roof wedge stability, International Journal of Rock Mechanics and Mining Sciences 103, 116-122.
476 REFERÊNCIAS BIBLIOGRÁFICAS

Nataf A, 1962: Determination des Distributions dont les Marges sont Donnees, Comptes Rendus de l’Academie des
Sciences 225, 42-43.

National Research Council of Canada, 1977: Canadian construction safety code, 1977. Ottawa: National Research
Council.

NBS, 1972: National Bureau of Standards, Building code requirements for minimum design loads in buildings and other
structures (atualmente, ASCE/SEI 7-16:2016).

Newland DE, 1993: An Introduction to Random Vibrations, Spectral & Wavelet Analysis, 3rd Edition, Dover Civil and
Mechanical Engineering.

Nguyen TH, Song J, Paulino GH, 2010: Single-Loop System Reliability-Based Design Optimization Using Matrix-Based
System Reliability Method: Theory and Applications, Journal of Mechanical Design 132, 011005-1-11.

Nigam NC, Narayanan S, 1994: Applications of Random Vibrations, Springer-Verlag, New York.

Nikolos IK, 2011: Surrogate Modeling in Evolutionary Based Engineering Design Optimization, in: Tsompanakis Y,
Topping BHV (eds.): Soft Computing Methods for Civil and Structural Engineering, Saxe-Coburg Publications.

Nocedal J, Wright S, 2006: Numerical Optimization, 2nd Edition, Springer.

Nowak AS, Szerszen MM, 2003a: Calibration of Design Code for Buildings (ACI 318): Part 1–Statistical Models for
Resistance, ACI Structural Journal 100, 377-382.

Nowak AS, Szerszen MM, 2003b: Calibration of Design Code for Buildings (ACI 318): Part 2–Reliability Analysis
and Resistance Factors, ACI Structural Journal 100, 383-391.

Okasha NM, 2016: An improved weighted average simulation approach for solving reliability-based analysis and design
optimization problems, Structural Safety 60, 47—55.

Okasha NM, Frangopol DM, 2009: Lifetime-oriented multi-objective optimization of structural maintenance considering
system reliability, redundancy and life-cycle cost using GA, Structural Safety 31, 460—474.

Oliveira WLA, Beck AT, Debs ALHC, 2008: Safety evaluation of circular concrete- lled steel columns designed according
to Brazilian building code NBR 8800:2008. IBRACON Structures and Materials Journal 1, 212-236.

Olsson A, Sandberg G, Dahlblom O, 2003: On Latin hypercube sampling for structural reliability analysis, Structural
Safety 25, 47-68.

Owen DB, 1956: Tables for computing bivariate normal probabilities, Ann. Math. Stat. 27, 1075—1090.

Padaratz IJ, 1977: Velocidade Básica do Vento no Brasil, Dissertação de Mestrado, Curso de Pós-Graduação em
Engenharia Civil, Universidade Federal do Rio Grande do Sul.

Panayirci HM, Schuëller GI, 2011: On the capabilities of the polynomial chaos expansion method within SFE analysis
— an overview. Arch. Comput. Methods Eng. 18, 43—55.

Papoulis A, Pillai SU, 2001: Probability, Random Variables and Stochastic Processes, 4th Edition, McGraw-Hill Edu-
cation.

Pearce HT, Wen YK, 1984: Stochastic Combination of Load E¤ects, Journal of Structural Engineering 110, 1613-1629.

Pellissetti MF, Schuëller GI, 2006: On general purpose software in structural reliability - An overview, Structural Safety
28, 3-16.

Pereia MF, Beck AT, Debs, ALHC, 2017: Reliability of partially encased steel-concrete composite columns under
eccentric loading, IBRACON Structures and Materials Journal 10, 298-316.
REFERÊNCIAS BIBLIOGRÁFICAS 477

Petersen MD, et al., 2018: Seismic hazard, risk, and design for South America, Bulletin of the Seismological Society of
America 108, no. 2, 781—800. https://doi.org/10.1785/0120170002

Petroski H, 1992: To Engineer Is Human: The Role of Failure in Successful Design, 1st Edition, Vintage Books.

Petroski H, 2006: Success through Failure: the paradox of design, Princeton University Press, UK.

Petroski H, 2012: To Forgive Design: Understanding Failure, Harvard University Press.

Pier J-C, Cornell CA, 1973: Spatial and temporal variability of live loads, J. Structural Div. ASCE 99, 903—922.

Poggio T, Girosi F, 1990: Networks for Approximation and Learning. Reprinted from Proceedings of the IEEE 78,
1481-1497.

Portal R7.com, 2015: http://noticias.r7.com/minas-gerais/entre-multas-e-acordos-samarco-tem-prejuizo-de-r-17-


bilhao-17112015, acessado em 6/6/2017.

Praxedes C, 2020: Robustness-Based Optimal Progressive Collapse Design of RC Frame Structures, Ph.D. Thesis,
Ryerson University, Toronto, Ontario, Canada.

Praxedes C, Yuan X-X, 2021: Robustness-oriented optimal design for reinforced concrete frames considering the large
uncertainty of progressive collapse threats, Structural Safety, under review.

Proske D, 2022: The Collapse Frequency of Structures. Springer.

PUC-Rio, 2007: Cooperação PUC-Rio/Eletronuclear. Relatório 001/4: Estudo para ampliação dos conhecimentos sobre
a ocorrência de ventos extremos e tornados para a região sudeste do brasil.

Quoting Business, 2016: https://quotingbusiness.co.uk/blog/bhp-records-record-losses/, acessado em 6/6/2017.

Rackwitz R, 1985: Reliability of Systems Under Reneval Pulse Loading, J. of Engineering Mechanics ASCE 111,
1175-1184.

Rackwitz R, 1993: On the Combination of Non-stationary Rectangular Wave Reneval Processes, Structural Safety 13,
21-28.

Rackwitz R, 2001: Optimizing systematically renewed structures, Reliability Engineering and System Safety 73, 269—
279.

Rackwitz R, 2002: Optimization and risk acceptability based on the Life Quality Index, Structural Safety 24, 297-331.

Rackwitz R, 2004: Life quality index revisited, Structural Safety 26, 443—451.

Rackwitz R, Fiessler B, 1978: Structural Reliability Under Combined Load Sequences, Computers & Structures 9,
489-494.

Rackwitz R, Joanni A, 2009: Risk acceptance and maintenance optimization of aging civil engineering infrastructures,
Structural Safety 31, 251—259.

Rajashekhar MR, Ellingwood BR, 1993: New look at the response surface approach for reliability analysis. Structural
Safety 12, 205-220.

Rao NRN, Lohrman M, Tall L, 1966: The e¤ect of strain rate on the yield stress of structural steels, ASTM J. Mater.
1, 241—262.

Rao SS, 2009: Engineering Optimization: Theory and Practice, 4th Edition, Wiley.

Rashki M, Miri M, Moghaddam MA, 2012: A new e¢cient simulation method to approximate the probability of failure
and most probable point, Structural Safety 2012, 22—29.
478 REFERÊNCIAS BIBLIOGRÁFICAS

Rashki M, Miri M, Moghaddam MA, 2014a: A simulation-based method for reliability based design optimization
problems with highly nonlinear constraints, Autom. Constr. 47, 24—36.

Rashki M, Miri M, Moghaddam MA. 2014b: Closure to “A new e¢cient simulation method to approximate the
probability of failure and most probable point”, Structural Safety 46, 15—16.

Reh S, Beley J-D, Mukherjee S, Khor EH, 2006: Probabilistic nite element analysis using ANSYS, Structural Safety
28, 17-43.

Ribeiro AB, 2012: Projeto Semi-Probabilístico de Vigas de Concreto Armado com Modo de Falha por Cisalhamento,
Tese de Doutorado, Programa de Pós-Graduação em Engenharia de Estruturas, Universidade Federal de Minas Gerais.

Ribeiro AB, Calixto JMF, Diniz SMC, 2016: Assessment of epistemic uncertainties in the shear strength of slender
reinforced concrete beams, Engineering Structures 116, 140—147.

Rice SO, 1944: Mathematical Analysis of Random Noise, Bell System Technical Journal, Vols. 23 and 24. Re-published
in Selected Papers on Noise and Stochastic Processes, edited by N. Wax (1954), Dover Publications Inc, New York.

Riera JD, Rocha MM, 1998: Load de nition for wind design and reliability assessments: extreme wind climate, In:
Rieira, Davenport (eds.), Wind e¤ects on Buildings and Structures, Balkema, Rotterdam.

Rosenblatt M, 1952: Remarks on a multivariate transformation, Ann. Math. Stat. 23, 470-472.

Rosenblueth E, 1976a: Optimum design for infrequent disturbances, J. Struct. Div. ASCE 102, 1807—1825.

Rosenblueth E, 1976b: Towards optimum design through building codes, J. Struct. Div. ASCE, 102, 591—607.

Rosenbleuth E, Esteva L, 1972: Reliability bases for some mexican codes, ACI Publication 31, 1-41.

Royset JO, Polak E, 2004: Reliability-based optimal design using sample average approximations, Probabilistic Engi-
neering Mechanics 19, 331—343.

Royset JO, Der Kiureghian A, Polak E, 2001: Reliability-Based Optimal Design of Series Structural Systems, J. Eng.
Mech. 127, 607—614.

Rubinstein RY, 1981: Simulation and the Monte Carlo Method, John Wiley & Sons.

Rubinstein R, Kroese D, 2008: Simulation and the Monte Carlo method. Wiley Series in Probability and Statistics,
Wiley.

Ruggeri G, 2004: Working Group on Sliding Safety of Existing Gravity Dams - Final Report, ICOLD European Club.

Rumsfeld D, 2011: Known and Unknown: a memoir, Ed. Penguin, USA.

Ruszczynski A, Shapiro A, 2003: Stochastic Programming, Elsevier, New York.

Sagrilo LVS, Lima ECP, 2010: Con abilidade Estrutural: Métodos Analíticos FORM/SORM, Notas de aula, Programa
de Engenharia Civil,COPPE/UFRJ.

San Martins DA, 2014: Con abilidade de vigas pré-tracionadas de concreto protendido, Dissertação de Mestrado,
Programa de Pós-Graduação em Engenharia Civil, UFRGS, Porto Alegre.

Santiago WC, 2011: Estudo da (não-) conformidade de concretos produzidos no Brasil e sua in‡uência na con abilidade
estrutural, Dissertação de Mestrado, Programa de Pós-Graduação em Engenharia de Estruturas, EESC, Universidade
de São Paulo.

Santiago WC, 2017: Calibração Baseada em Con abilidade dos Coe cientes Parciais de Segurança de Normas Brasileiras
de Projeto Estrutural, Quali cação ao Doutorado, Programa de Pós-Graduação em Engenharia de Estruturas, EESC,
Universidade de São Paulo.
REFERÊNCIAS BIBLIOGRÁFICAS 479

Santiago WC, Beck AT, 2011: A Study of Brazilian Concrete Strength (Non-)Compliance and its E¤ects on Reliability
of Short Columns, IBRACON Structures and Materials Journal 4, 663-690.

Santiago WC, Beck AT, 2017: A new study of Brazilian concrete strength conformance, IBRACON Structures and
Materials Journal 10, 906—923.

Santiago WC, Kroetz HM, Santos SHC, Stucchi FR, Beck AT, 2020: Reliability-based calibration of main Brazilian
structural design codes, Latin American Journal of Solids and Structures 17, 2245.

Santos DM, Stucchi FR, Beck AT, 2014: Con abilidade de vigas projetadas de acordo com as normas brasileiras,
IBRACON Structures and Materials Journal 7, 723-746.

Santos DM, Stucchi FR, Beck AT, 2015: Discussion of: Concrete structures. Contribution to the safety assessment of
existing structures, IBRACON Structures and Materials Journal 8, 744-748.

Santos ES, 2012: Avaliação estatística do erro de modelos de resistência para elementos lineares de concreto armado da
ABNT NBR 6118:2007, Dissertação de Mestrado, Programa de Pós-graduação em Engenharia de Estruturas, EESC,
Universidade de São Paulo.

Santos KR, 2014: Técnicas de amostragem inteligente em simulação de Monte Carlo, Dissertação de Mestrado, Programa
de Pós-graduação em Engenharia de Estruturas, EESC, Universidade de São Paulo.

Santos KR, Beck AT, 2015: A benchmark study on intelligent sampling techniques in Monte Carlo Simulation, Latin
American Journal of Solids and Structures 12, 624-648.

Santos R, Matioli LC, Beck AT, 2012: New Optimization Algorithms for Structural Reliability. Computer Modeling in
Engineering & Sciences 83,23-55.

Santos SHC, Stucchi FR, 2007: Reliability Based Comparison Between ACI 318-05 and NBR 6118, IBRACON Struc-
tural Journal 3, 230-239.

Sarveswaran V, Roberts MB, 1999: Reliability Analysis of Deteriorating Structures - The Experience and Needs of
Practicing Engineers, Structural Safety 21, 357-372.

Schall G, Faber MH Rackwitz R, 1991: On the Ergocity Assumption for Sea States in the Reliability Estimation of
O¤shore Structures, J. O¤shore Mechanics and Artic Engineering ASME 113, 241-246.

Schuëller GI, Jensen HA, 2009: Computational methods in optimization considering uncertainties — an overview, Com-
puter Methods in Applied Mechanics and Engineering 198, 2-13.

Schuëller GI, Pradlwarter HJ, 2006: Computational stochastic structural analysis (COSSAN) — a software tool, Struc-
tural Safety 28, 68-82.

Schuëller GI, Stix R, 1987: A Critical Apraisal on Methods to Determine Structural Reliability, Structural Safety 4,
293-309.

SEAOC (Structural Engineers Association of California), 1995: Vision 2000: Performance based seismic engineering of
buildings, Vols. I and II: Conceptual framework. Sacramento, CA.

Shi Y, Stewart MG, 2015: Spatial reliability analysis of explosive blast load damage to reinforced concrete columns.
Structural Safety 53:13—25.

Sichani MT, Nielsen SRK, Bucher C, 2011a: Applications of asymptotic sampling on high dimensional structural
dynamic problems, Structural Safety 33, 305-316.

Sichani MT, Nielsen SRK, Bucher C, 2011b: E¢cient estimation of rst passage probability of high-dimensional non-
linear systems, Prob. Eng. Mech. 26, 539-549.
480 REFERÊNCIAS BIBLIOGRÁFICAS

Sichani MT, Nielsen SRK, Bucher C, 2014: Closure to “Applications of asymptotic sampling on high dimensional
structural dynamic problems”, Structural Safety 46, 11-12.

Silva JL, ElDebs MK, Beck AT, 2008: Reliability Evaluation of Reinforced Concrete Pipes in Crack Opening Limit
State. IBRACON Structures and Materials Journal 1, 314 - 330.

Silva Jr. CRA, Beck AT, 2010: Bending of stochastic Kirchho¤ plates on Winkler foundations via the Galerkin method
and the Askey-Wiener scheme. Probabilistic Engineering Mechanics 25, 172 - 182.

Silva Jr. CRA, Beck AT, 2011: Chaos-Galerkin Solution of Stochastic Timoshenko Bending Problems. Computers &
Structures 89, 599 - 611.

Silva Jr. CRA, Beck AT, Rosa E, 2009: Solution of the Stochastic Beam Bending Problem by Galerkin Method and
the Askey-Wiener Scheme. Latin American Journal of Solids and Structures 6, 51 - 72.

Silva Jr. CRA, Azikri H, Mantovani G, Beck AT, 2010: Galerkin Solution of Stochastic Beam Bending on Winkler
Foundations. Computer Modeling in Engineering & Sciences 67, 119 - 149.

Soares RC, Mohamed A, Venturini WS, Lemaire M, 2002: Reliability analysis of non-linear reinforced concrete frames
using the response surface method, Reliability Engineering and System Safety 75, 1-16.

Song J, Der Kiureghian A, 2003: Bounds on System Reliability by Linear Programming, J. Eng. Mech. 129, 627—636.

Song J, Kang W-H, 2009: System Reliability and Sensitivity Under Statistical Dependence by Matrix-Based System
Reliability Method, Structural Safety 31, 148—156.

Song J, Kang W-H, Lee Y-J, Chun J, 2021: Structural System Reliability: Overview of Theories and Applications to
Optimization, ASCE-ASME J. Risk Uncertainty Eng. Syst., Part A: Civ. Eng., 7(2): 03121001.

Soong TT, Grigoriu M, 1993: Random Vibration of Mechanical and Structural Systems, Prentice Hall, Englewood
Cli¤s, NJ.

Sørensen JD, 2002: Calibration of Partial Safety Factors in Danish Structural Codes, JCSS Workshop on Reliability
Based Code Calibration, ETH Zurich, March 21-22.

Sorensen JD, Kroon IB, Faber MH, 1994: Optimal reliability-based code calibration, Structural Safety 15, 197-208.

Souza Junior AC, 2009: Aplicação de Con abilidade na Calibração de Coe cientes Parciais de Segurança de Normas
Brasileiras de Projeto Estrutural, Dissertação de Mestrado, Programa de Pós-graduação em Engenharia de Estruturas,
EESC, Universidade de São Paulo.

Spall JC, 2003: Introduction to Stochastic Search and Optimization, Wiley Interscience, New York.

Spence SMJ, Kareem A, 2014: Performance-Based Design and Optimization of Uncertain Wind-Excited Dynamic
Building Systems. Engineering Structures 78: 133—44. https://doi.org/10.1016/j.engstruct.2014.07.026.

Spence SMJ, Gio¤rè M, Kareem A, 2016: An E¢cient Framework for the Reliability-Based Design Opti-
mization of Large-Scale Uncertain and Stochastic Linear Systems. Prob. Engineering Mechanics 44: 174—82.
https://doi.org/10.1016/j.probengmech.2015.09.014.

Stefanou G, 2009: The stochastic nite element method: Past, present and future, Computer Methods in Applied
Mechanics and Engineering 198, 1031-1051.

Stewart MG, 2017: Risk of Progressive Collapse of Buildings from Terrorist Attacks: Are the Bene ts of Protection
Worth the Cost?, J. Perform. Constr. Facil. 31(2), 04016093.

Stewart M, Melchers RE, 1998: Probabilistic Risk Assessment of Engineering Systems, Springer.
REFERÊNCIAS BIBLIOGRÁFICAS 481

Streicher H, Joanni A, Rackwitz R, 2008: Cost-bene t optimization and risk acceptability for existing, aging but
maintained structures, Structural Safety 30, 375—393.

Sudret B, 2012: Metamodels for structural reliability and uncertainty quanti cations. Phoon KK, Beer M, Quek ST,
Pang SD (eds.), 5th Asian-Paci c symposium on structural reliability and its applications, 53—76.

Sudret B, Der Kiureghian A., 2000: Stochastic Finite Element Methods and Reliability: A state-of-the-art Report.
Research report No. UCB/SEMM-2000/08, Dep. of Civil & Env. Eng., University of California, Berkeley.

Sudret B, Berveiller M, Lemaire M, 2006: A stochastic nite element procedure for moment and reliability analysis,
Eur. J. Comput. Mech. 15, 825—66.

Suksuwan A, Spence SMJ, 2018: Performance-Based Multi-Hazard Topology Optimization of Wind and Seismically Ex-
cited Structural Systems. Engineering Structures 172 (May): 573—88. https://doi.org/10.1016/j.engstruct.2018.06.039.

Tabandeh A, Gardoni P, 2014: Probabilistic Capacity Models and Fragility Estimates for RC Columns Retro tted with
FRP Composites. Engineering Structures 74: 13—22. https://doi.org/10.1016/j.engstruct.2014.05.005.

Ta‡anidis AA, Beck JL, 2008a: Stochastic subset optimization for optimal reliability problems, Probabilistic Engineering
Mechanics 23, 324—338.

Ta‡anidis AA, Beck JL, 2008b: An e¢cient framework for optimal robust stochastic system design using stochastic
simulation, Computer Methods in Applied Mechanics and Engineering 198, 88—101.

Ta‡anidis AA, Beck JL, 2009: Stochastic Subset Optimization for reliability optimization and sensitivity analysis in
system design, Computers & Structures 87, 318—331.

Ta‡anidis A, Scruggs JT, 2010: Performance Measures and Optimal Design of Linear Structural Systems under Sto-
chastic Stationary Excitation. Structural Safety 32 (5): 305—15. https://doi.org/10.1016/j.strusafe.2010.03.010.

Taleb NN, 2010: The Black Swan, Random House, NY.

Tessari RK, Kroetz HM, Beck AT, 2017: Performance-based design of steel towers subject to wind action, Engineering
Structures 143, 549-557.

Thacker BH, Riha DS, Fitch SHK, Huyse LJ, Pleming JB, 2006: Probabilistic engineering analysis using the NESSUS
software, Structural Safety 28, 83-107.

Thoft-Christensen P, Baker MJ, 1982: Structural Reliability Theory and its Applications, Springer-Verlag, Berlin,
Heidelberg, New York.

Thöns S, Stewart MG, 2019: On decision optimality of terrorism risk mitigation measures for iconic bridges, Reliability
Eng. & System Safety 188, 574—583.

Thöns S, Stewart MG, 2020: On the cost-e¢ciency, signi cance and e¤ectiveness of terrorism risk reduction strategies
for buildings. Structural Safety, 85.

Torii AJ, 2020: On sampling-based schemes for probability of failure sensitivity analysis, Prob. Eng. Mechanics 62,
103099. https://doi.org/10.1016/j.probengmech.2020.103099

Torii AJ, Lopez RH, Miguel LFF, Silva RG, 2017: Collapse and allowable displacements in the context of reliability

analysis of nonlinear structures, J Braz. Soc. Mech. Sci. Eng. (2017) 39:1045—1051, 10.1007/s40430-016-0571-1

Torii AJ, Lopez RH, Beck AT, Miguel LFF, 2019: A performance measure approach for risk optimization, Structural
and Multidisciplinary Optimization 60, 927-947. https://doi.org/10.1007/s00158-019-02243-5

Torng TY, Yang RJ. An advanced reliability based optimization method for robust structural system design. Proc. 34th
AIAA/ASME/ASCE/AHS/ASC Structures, Structural Dynamics,and Material Conference, AIAA-93-1443-CP, 1993.
482 REFERÊNCIAS BIBLIOGRÁFICAS

Tu J, Choi KK, Park YH, 1999: A new study on reliability-based design optimization, Journal of Mechanical Design
121, 557—64.

Turkstra CJ, 1970: Theory of Structural Design Decisions, Study No. 2, Solid Mechanics Division, University of
Waterloo, Waterloo, Ontario.

Turkstra CJ, Madsen HO, 1980: Load Combinations in Codi ed Structural Design, J. Structural Division ASCE 116,
2527-2543.

Tvedt L, 1990: Distributions of quadratic forms in normal space - application to structural reliability, J. Eng. Mech.
ASCE 116, 1183-1197.

Tvedt L, 2006: Proban - probabilistic analysis, Structural Safety 28, 150-163.

USGS, 2014: Signi cant earthquakes archives. Earthquake hazards program. Disponível online em:
http://earthquake.usgs.gov/earthquakes/eqarchives/signi cant/.

Valdebenito MA, Schuëller GI, 2011: E¢cient strategies for reliability-based optimization involving non-linear, dynam-
ical structures, Computers & Structures 89, 1797—1811.

Vallis MB, 2019: Brazilian Extreme Wind Climate, Tese de Doutorado, Universidade Federal do Rio Grande do Sul,
RS.

Vamvatsikos D, Cornell CA, 2002: Incremental dynamic analysis. Earthquake Engineering and Structural Dynamics
31(3), 491—514.

Vamvatsikos D, Fragiadakis M, 2010: Incremental Dynamic Analysis for Estimating Seismic Performance Sensitivity
and Uncertainty. Earthquake Engineering and Structural Dynamics 39 (2): 141—63. https://doi.org/10.1002/eqe.935.

Vanmarcke EH, 1975: On the Distribution of the First Passage Time for Normal Stationary Processes, Journal of
Applied Mechanics ASME 42, 215-220.

Vanmarcke EH, 1983: Random Fields, Analysis and Synthesis, MIT Press, Cambridge, Massachusetts.

Vanmarcke EH, Grigoriu M, 1983: Stochastic nite element analysis of simple beams, J. Eng. Mech. ASCE 109, 1203-
1214.

Veja.com, 2015: http://veja.abril.com.br/politica/multa-a-samarco-deve-passar-de-10-bilhoes-de-reais-diz-deputado/,


acessado em 6/6/2017.

Verhaeghe W, Desmet W, Vandepitte D, Moens D, 2013: Interval elds to represent uncertainty on the output side of
a static FE analysis, Computer Methods in Applied Mechanics and Engineering 260, 50-62.

Verzenhassi CC, 2008: Otimização de Risco Baseada em Con abilidade, Dissertação de Mestrado, Engenharia de
Estruturas, EESC, Universidade de São Paulo.

Vieira HL, Fontes JVC, Beck AT, Silva MM, 2019a: Reliable and Failure-Free Workspaces for Motion Planning Algo-
rithms, Journal of Computational and Nonlinear Dynamics 14, 021005-1-021005-9. doi.org/10.1115/1.4042015

Vieira HL, Wajnberg E, Beck AT, Silva MM, 2019b: Reliable Motion Planning for Parallel Manipulators, Mechanism
and Machine Theory 140, 553-566. doi.org/10.1016/j.mechmachtheory.2019.06.022

Vijalapura P, Conte J, Meghella M, 2000: Time-Variant Reliability Analysis of Hysteretics SDOF Systems With
Uncertain Parameters and Subjected to Stochastic Loading, ICASP8, Melchers, Stewart (eds.), Balkema, 827-834.

Vinnem JE, 2007: O¤shore Risk Assessment: Principles, Modelling and Applications of QRA Studies, Springer Series
in Reliability Engineering, 2nd Edition.
REFERÊNCIAS BIBLIOGRÁFICAS 483

Vogel RM, 1999: Stochastic and deterministic world views, Editorial: Journal of Water Resources Planning and Man-
agement 125, 311-313.

Vrouwenvelder ACWM, 2002: Developments towards full probabilistic design codes, Structural Safety 24, 417-432.

Wang L, Liu B, Wan C, 2004. A novel RBF neural network with fast training and accurate generalization. In Proceedings
of the First international conference on Computational and Information Science (CIS’04), Zhang J, He J-H, Fu Y (Eds.),
Springer-Verlag, Berlin, Heidelberg, 166-171.

Weawer W, 1982: Lady Luck: The Theory of Probability, Dover Books on Mathematics.

Wen YK, 1977a: Statistical Combination of Extreme Loads, J. Structural Division ASCE 103, 1079-1093.

Wen YK, 1977b: Probability of Extreme Load Combination, J. Structural Division ASCE 104, 1675-1676.

Wen YK, 1981: A Clustering Model for Correlated Load Processes, J. Structural Division ASCE 107, 965-983.

Wen YK, 1990: Structural Load Modeling and Combination for Performance and Reliability Evaluation, Elsevier,
Amsterdam.

Wen YK, 2001: Reliability and Performance-Based Design. Structural Safety 23 (4): 407—28.
https://doi.org/10.1016/S0167-4730(02)00011-5.

Wen YK, Chen HC, 1987: On Fast Integration for Time-variant Structural Reliability, Probabilistic Engineering Me-
chanics 2, 156-162.

Wen YK, Chen HC, 1989: System Reliability under Time-Varying Loads: I, J. Eng. Mech. ASCE 115, 808-823.

Wen YK, Kang YJ, 2001: Minimum building life-cycle cost design criteria II: Applications. Journal of Structural
Engineering ASCE 127, 338—346.

Whitman RV, 1984: Evaluating calculated risk in geotechnical engineering, Journal of Geotechnical Engineering ASCE
110, 145-188.

Williams MS, Sexsmith RG 1995: Seismic damage indices for concrete structures: A state-of-the-art review. Earthquake
Spectra 11(2), 319—49.

Winterstein SR, Cornell CA, 1984: Load Combinations and Clustering E¤ects, J. Structural Division ASCE 110,
2690-2708.

Wu YT, Millwater HR, Cruse TA, 1990: Advanced probabilistic structural analysis method for implicit performance
functions, AIAA Journal 28, 1663-1669

Wu YT, Shin Y, Sues RH, Cesare MA, 2001: Safety-factor based approach for probability-based design optimization,
Proceedings of the 42nd AIAA SDM Conference, Seattle.

Wu YT, Shin Y, Sues RH, Cesare MA, 2016: Probabilistic function evaluation system (ProFES) for reliability-based
design, Structural Safety 28, 164—195.

Xiaopeng L, Zhenzhou L, Xin X, 2014: Discussion of paper: “A new e¢cient simulation method to approximate the
probability of failure and most probable point”: Rashki M, Miri M, Moghaddam MA, Structural Safety 39 (2012),
22—29, Structural Safety 46, 13—14.

Yang RJ, Gu L, 2004: Experience with approximate reliability based optimization methods, Structural & Multidisci-
plinary Optimization 26, 152—159.

Yang RJ, Chuang C, Gu L, Li G, 2005: Experience with approximate reliability based optimization methods II: an
exhaust system problem. Structural Multidisciplinary Optimization 29, 488—497.
484 REFERÊNCIAS BIBLIOGRÁFICAS

Yi P, Cheng GD, 2008: Further study on e¢ciency of sequential approximate programming strategy for probabilistic
structural design optimization, Structural & Multidisciplinary Optimization 35, 509—522.

Yi P, Cheng GD, Jiang L, 2008: A Sequential approximate programming strategy for performance measure based
probabilistic structural design optimization, Structural Safety 30, 91—109.

Youn BD, Choi KK, 2004: An investigation of nonlinearity of reliability-based design optimization approaches, Journal
of Mechanical Design 126, 403—11.

Youn BD, Choi KK, Park YH, 2003: Hybrid analysis method for reliability-based design optimisation. Journal of
Mechanical Design 125, 221—32.

Yuan X, Lu Z, 2014: E¢cient approach for reliability-based optimization based on weighted importance sampling
approach, Rel. Eng. & System Safety 132, 107—114.

Zang C, Friswell MI, Mottershead JE, 2005: A review of robust optimal design and its application in dynamics.
Computers & Structures 83, 315—326.

Zhang J, Ellingwood B, 1994: Orthogonal Series Expansions of Random Fields in Reliability Analysis, J. Eng. Mech.
(ASCE) 120(12), 2660-2677.

Zhang Y, 1993: High-order reliability bounds for series systems and application to structural systems, Computers &
Structures 46, 381—386.

Zhang Y, Der Kiureghian A, 1997: Finite element reliability methods for inelastic structures, Report UCB/SEMM -
97/05, Dep. of Civil and Environmental Engineering, University of California, Berkeley.

Zheng Y, Das PK, 2000: Improved response surface method and its application to sti¤ened plate reliability analysis,
Engineering Structures 22, 544-551.

Você também pode gostar